125 108 5MB
German Pages 658 [660] Year 2016
Simon Lohse Thomas Reydon
Meiner
Bibliographische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliographie ; detaillierte bibliographische Daten sind im Internet über ‹http ://portal.dnb.de› abrufbar. ISBN 978-3-7873-2986-1 ISBN eBook: 978-3-7873-2987-8
Umschlagabbildung: Fotosearch.de © Felix Meiner Verlag Hamburg 2017. Alle Rechte vorbehalten. Dies gilt auch für Vervielfältigungen, Übertragungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen, soweit es nicht §§ 53, 54 UrhG ausdrücklich gestatten. Gestaltung: Jens-Sören Mann. Satz : Type & Buch Kusel, Hamburg. Druck : Strauss, Mörlenbach. Bindung: Litges & Dopf, Heppenheim. Werkdruckpapier : alter ungsbeständig nach DIN-ISO 9706, hergestellt aus 100 % chlor f rei gebleichtem Zellstoff. Printed in Germany. www.meiner.de
Inhalt
I. Einführung 1. Einleitung: Zur Ausdifferenzierung der Wissenschaftsphilosophie Simon Lohse und Thomas Reydon
. . . . . . . . . . .
2. Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Meinard Kuhlmann
9
17
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
53
II. Die Philosophie der Formal- und Geisteswissenschaften 1. Philosophie der Mathematik Torsten Wilholt
2. Philosophie der Philosophie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Eugen Fischer
77
3. Philosophie der Literaturwissenschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105 Tilmann Köppe und Tobias Klauk 4. Philosophie der Geschichtswissenschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dietmar Hübner 5. Philosophie der Rechtswissenschaft Benno Zabel
131
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
167
III. Die Philosophie der Natur- und Biowissenschaften 1. Philosophie der Physik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201 Christian Wüthrich 2. Philosophie der Chemie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 Joachim Schummer 3. Philosophie der Biologie Thomas Reydon
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
253
4. Philosophie der biomedizinischen Wissenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . 287 Lara Huber und Lara Keuck 5. Philosophie der Neurowissenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Holger Lyre
319
Inhalt
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften 1. Philosophie der Ingenieurwissenschaften Sven Ove Hansson
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
357
2. Philosophie der Klimawissenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 Richard Bradley, Roman Frigg, Katie Steele, Erica Thompson und Charlotte Werndl 3. Philosophie der Geo- und Umweltwissenschaften . . . . . . . . . . . . . . . . . . . . . . . . . . Henk de Regt, Chris J. J. Buskes und Maarten G. Kleinhans
413
4. Philosophie der Kognitionswissenschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441 Sven Walter V. Die Philosophie der Sozial- und Verhaltenswissenschaften 1. Philosophie der Psychologie Uljana Feest
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2. Philosophie der Linguistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Wolfram Hinzen
475 511
3. Philosophie der Soziologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543 Simon Lohse und Jens Greve 4. Philosophie der Ökonomik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 583 Julian Reiss 5. Philosophie der Politikwissenschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Catherine Herfeld
615
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
651
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
657
Personen- und Sachregister Autorinnen und Autoren
6
I. Einführung
1. Einleitung: Zur Ausdifferenzierung der Wissenschaftsphilosophie Simon Lohse und Thomas Reydon
Hintergrund und Zielsetzung des Bandes Der vorliegende Band bietet eine fortgeschrittene Einführung in die Wissenschaftsphilosophie. Diese ist nicht auf spezifische Themen oder (historische) Diskussionslinien fokussiert, sondern nimmt die Philosophien der verschiedenen Einzelwissenschaften in den Blick. Dem Band liegt dabei ein Verständnis des Begriffs ›Wissenschaft‹ im deutschen Sinne des Wortes zu Grunde, nach dem Wissenschaft nicht nur die Natur- und Lebenswissenschaften umfasst (im Sinne des englischen ›science‹), sondern alle akademischen Arbeitsbereiche wie die Sozialwissenschaften, die Ingenieurwissenschaften und die Geisteswissenschaften. Dementsprechend werden in diesem Buch nicht nur gut etablierte Teilgebiete der traditionellen Wissenschaftsphilosophie berücksichtigt, die – entsprechend der angloamerikanischen philosophy of science – vor allem auf wenige Grundlagenwissenschaften wie die Physik und die Biologie zielte. Vielmehr werden auch weniger prominente bzw. bislang kaum etablierte Gebiete vorgestellt wie die Philosophie der biomedizinischen Wissenschaften, die Philosophie der Literaturwissenschaft, die Philosophie der Rechtswissenschaft oder die Philosophie der Geo- und Umweltwissenschaften. Mit diesem Buch soll eine Lücke in der deutschsprachigen Wissenschaftsphilosophie geschlossen werden. Verfügbare deutschsprachige Lehrbücher und Überblickswerke präsentieren die Wissenschaftsphilosophie typischerweise anhand von Betrachtungen klassischer Fragen und Diskussionen aus der allgemeinen Wissenschaftstheor ie.1 Zu denken wäre hier etwa an die Frage nach der Natur wissenschaftlicher Erklärungen, die Diskussionen um die Reduzierbarkeit der Einzelwissenschaften auf die fundamentale Physik oder um die Rationalität des Theoriewandels in den Wissenschaften, die Frage nach der Bestätigung von Theor ien oder die Diskussionen um die Rolle von Naturgesetzen in den verschiedenen Wissenschaften sowie darüber, was Naturgesetze eigentlich sind. In der einschlägigen Literatur werden zwar mitunter auch besonders prominente Themen der Philosophien der Einzelwissenschaften vorgestellt wie das Interpre Zum Verhältnis der Label ›Wissenschaftstheor ie‹ und ›Wissenschaftsphilosophie‹ zueinander siehe das Kapitel von Meinard Kuhlmann. 1
9
I. Einführung
tationsproblem der Quantentheor ie oder die Frage nach der Struktur sowie dem Anwendungsbereich der Evolutionstheorie.2 Dabei liegt der Fokus allerdings fast ausschließlich auf den physikalischen Grundlagenwissenschaften und der Biologie. Die meisten anderen wissenschaftlichen Disziplinen werden kaum berücksichtigt.3 Der vorliegende Band versucht dagegen eine möglichst breit gefächerte Auswahl des State-of-the-Art der Philosophien der Einzelwissenschaften systematisch vorzustellen. Diese Grundidee des Bandes ist vor allem durch die zunehmende Ausdifferenzierung der Wissenschaftsphilosophie seit der zweiten Hälfte des 20. Jahrhunderts motiviert. Zogen neben der Physik (und der Mathematik) zunächst vor allem die Biologie, die Psychologie und später Teile der Sozialwissenschaften die Aufmerksamkeit von Wissenschaftsphilosophinnen und Wissenschaftsphilosophen auf sich, so lässt sich mit der Jahrtausendwende feststellen, dass sich eine Vielzahl weiterer Wissenschaftsphilosophien in allen Bereichen der Wissenschaft ausgebildet haben bzw. gerade damit beginnen, sich auszubilden und zu professionalisieren (z. B. durch die Gründung von Forschungsnetzwerken und eigenen Fachzeitschriften). Zum Teil ist diese Entwicklung zweifellos schlicht dadurch begründet, dass sich immer mehr Forschungszweige als eigenständige Wissenschaftsbereiche mit eigenen Fachjournalen, Konferenzen usw. etablieren und somit erst als mögliche Bezugsdisziplinen in den Blick der Wissenschaftsphilosophie geraten können. Zeitgenössische Beispiele für diese Entwicklung sind die Klimawissenschaften oder auch die Kognitionswissenschaft. Als Ergebnis dieses Ausdifferenzierungsprozesses spielen sich wissenschaftsphilosophische Debatten zunehmend in den Philosophien der verschiedenen Einzelwissenschaften bzw. diese übergreifend ab. Diese Einwicklung wird in Einführungen und Überblickswerken der Wissenschaftsphilosophie u. E. bislang zu wenig in den Fokus gerückt. Der vorliegende Band soll die wissenschaftsphilosophische Buchlandschaft daher in diesem Punkt ergänzen und eine Orientierungs- und Konsolidierungsfunktion hinsichtlich der Wissenschaftsphilosophien der Einzelwissenschaften erfüllen. Dabei soll einerseits die Heterogenität der verschiedenen Wissenschaftsphilosophien gezeigt werden, etwa was spezifische Fragestellungen oder das Verhältnis zur jeweiligen Bezugswissenschaft angeht (Wissenschaftsphilosophie als begleitende Meta-Disziplin zu einer bestimmten Einzelwissenschaft vs. integrierte Wissenschaftsphilosophie). Andererseits sollen auch disziplinübergreifende Zusammenhänge sichtbar(er) gemacht werden; zu denken wäre hier etwa an die Rolle, die Fiktionalität in der Philosophie der Mathematik und der Philosophie der Lite Siehe für ein Beispiel im deutschen Sprachraum die Einführung von Bartels/Stöckler (2007) sowie für ein englischsprachiges Beispiel Okasha (2002). Die meisten Einführungen in die Wissenschaftsphilosophie sind ähnlich aufgebaut. 3 Das gilt auch für englischsprachige Werke. Die einzige uns bekannte Ausnahme, die uns auch als Inspiration für den vorliegenden Band gedient hat, ist das Buch Philosophies of the Sciences: A Guide (Allhoff 2010). 2
10
Zur Ausdifferenzierung der W issenschaftsphilosophie
raturwissenschaft spielt, an den Stellenwert von narrativen Erklärungen in den Geowissenschaften und der Geschichtswissenschaft oder auch an Ähnlichkeiten zwischen mechanistischen Erklärungen in den Bio- und den Sozialwissenschaften. Der Band soll insofern (nicht zuletzt durch das Sachregister am Schluss) auch eine zweckmäßige Ressource für das Beitreiben von komparativer Wissenschaftsphilosophie sein, die sich u. a. als nützlich für die Gretchenfrage der allgemeinen Wissenschaftsphilosophie erweisen könnte: Was eigentlich ist Wissenschaft? Das Buch zielt zudem auf eine Horizonterweiterung wissenschaftsphilosophischer Diskussionen. Auch weniger prominente Disziplinen, Fragen und Diskussionen sollen in den Vordergrund gerückt und dadurch sowohl für die allgemeine Wissenschaftsphilosophie als auch für die verschiedenen Philosophien der Einzelwissenschaften einsehbar gemacht werden (vgl. dazu den Eröffnungsbeitrag zur allgemeinen Wissenschaftsphilosophie und ihrem Verhältnis zu den Philosophien der Einzelwissenschaften von Meinard Kuhlmann). Generell hoffen wir durch das vorliegende Buch einen Beitrag zur Stärkung und Ausweitung der Wissenschaftsphilosophie im deutschsprachigen Raum zu leisten. Das Buch soll einen Überblick zum gegenwärtigen Forschungsstand der verschiedenen Philosophien der Einzelwissenschaften bieten, der sowohl für avancierte Studierende und Doktorandinnen sowie Doktoranden der Philosophie als auch für praktizierende Fachwissenschaftlerinnen und Fachwissenschaftler mit einem Interesse an Grundlagenfragen des eigenen Faches zugänglich ist. Die einzelnen Kapitel zielen dementsprechend nicht nur auf ein Publikum, das bereits über vertiefte Vorkenntnisse der Wissenschaftsphilosophie verfügt, sondern auch auf Leserinnen und Leser, die sich zum ersten Mal intensiver mit metatheoretischen und wissenschaftsphilosophischen Themen befassen. Insofern handelt es sich hierbei um ein einführendes Überblickswerk auf fortgeschrittenem Niveau. Dadurch dass sich die einzelnen Kapitel nicht mit spezifischen Themen oder Fragen, sondern mit der Philosophie einzelner Disziplinen befassen, soll wie oben ausgeführt ein alternativer Zugang zur Wissenschaftsphilosophie geboten werden. Die Kapitel eigenen sich hierbei natürlich auch zur Ergänzung von klassischen Themensegmenten aus der allgemeinen Wissenschaftsphilosophie. Darüber hinaus wird Forscherinnen und Forschern aus spezifischen Fachgebieten die Möglichkeit geboten, schnell einen Zugang zu den zentralen philosophischen Themen und Problemen ihres eigenen Faches zu bekommen und diesen über die Literaturverweise ggf. zu vertiefen.
Auswahl der Disziplinen und Struktur des Bandes Bei der Auswahl der Einzelwissenschaften, die in den verschiedenen Kapiteln behandelt werden, haben wir uns grundsätzlich von zwei Überlegungen leiten lassen. Erstens haben wir versucht, ein möglichst breites Feld von Disziplinen abzudecken, das sich von den Formal- und Geisteswissenschaften und den Naturwis11
I. Einführung
senschaften bis zu den Lebens- und Ingenieurwissenschaften erstreckt, um der Diversität des Feldes zumindest annährend gerecht zu werden. Da wir aufgrund von pragmatischen und (zeit-)ökonomischen Restriktionen nicht jede einzelne Subdisziplin hier aufnehmen konnten (s.u.), haben wir zweitens eine Mischung aus gut etablierten Wissenschaftsphilosophien (z. B. Philosophie der Physik, Philosophie der Biologie), neueren Subdisziplinen (z. B. Philosophie der Klimawissenschaften, Philosophie der biomedizinischen Wissenschaften) und auch gerade erst in Erscheinung tretenden Wissenschaftsphilosophien (z. B. Philosophie der Rechtswissenschaft, Philosophie der Politikwissenschaft) anvisiert. Diese beiden Zielrichtungen des Bandes haben zum einen die Konsequenz, dass einige Kapitel wie etwa dasjenige zur Philosophie der Politikwissenschaft einen stärker programmatischen Charakter haben als andere Kapitel, die eher einen einführenden Überblick über den State-of-the-Art geben. Zum anderen sind dadurch nicht alle etablierten Philosophien der Einzelwissenschaften im Buch enthalten. Wir glauben allerdings, dass einige Diskussionen innerhalb der Wissenschaftsphilosophien der letztgenannten Gruppe durchaus von Beiträgen verwandter Disziplinen in diesem Band erhellt oder bereichert werden können. Zu denken wäre hier etwa an die Debatten um Individualismus vs. Holismus, die nicht nur innerhalb der im Band vertretenen Philosophie der Soziologie eine wichtige Rolle spielen, sondern auch in der Philosophie der Kulturanthropologie; oder auch an Krankheitstheor ien, die ähnlich wie im Beitrag zur Philosophie der biomedizinischen Wissenschaften in diesem Band auch in der von uns nicht eigens aufgenommenen – allerdings gut etablierten – Philosophie der Medizin diskutiert werden. Natürlich hat bei der Zusammenstellung der Kapitel des Bandes neben sprachlichen und zeitlichen Einschränkungen auch die Frage eine Rolle gespielt, welche Einzelwissenschaften überhaupt als Bezugsgebiete der Wissenschaftsphilosophie auftreten. Zu vielen Gebieten, die sich bislang als eigenständige Wissenschaft etabliert haben, gibt es derzeit entweder keine eigenständige Wissenschaftsphilosophie oder eine solche Wissenschaftsphilosophie befindet sich in einem so frühen Entstehungsstadium, dass noch kaum Spezialistinnen und Spezialisten zur Verfügung stehen, die als Autorinnen und Autoren eines deutschsprachigen Kapitels für das vorliegende Buch in Frage gekommen wären. Ein Beispiel der ersteren Kategorie wäre die Musikologie, zu der es unseres Wissens derzeit keine eigene Wissenschaftsphilosophie gibt. Bereiche, zu denen sich erst in der heutigen Zeit allmählich eigene Wissenschaftsphilosophien herausbilden, sind u. a. die Astrophysik, die Mikrobiologie, die Archäologie, die Pflegewissenschaft, die Computerwissenschaft und die Paläontologie. Zwar gibt es bereits erste Einführungen in diese Philosophien (zur Astrophysik: Anderl 2016; zur Mikrobiologie: O’Malley 2014; zur Archäologie: Wylie 2002; zur Pflegewissenschaft: Risjord 2010; zur Computerwissenschaft: R. Turner 2014; zur Paläontologie: D. Turner 2011), doch ist die Auswahl deutschsprachiger Autorinnen und Autoren hier eben naturgemäß begrenzt. In diesem Zusammenhang muss hervorgehoben werden, 12
Zur Ausdifferenzierung der W issenschaftsphilosophie
dass das Kapitel zur Philosophie der Geo- und Umweltwissenschaften aus dem Englischen übersetzt wurde. Dieser Sonderfall ist dem Umstand geschuldet, dass mit Thomas Reydon einer der Herausgeber dieses Bandes gute Kontakte zu den Autoren des entsprechenden Kapitels im englischsprachigen Band von Allhoff (2010) hat und wir vom Verlag dieses Bandes problemlos die Zustimmung erhielten, eine aktualisierte Fassung dieses Kapitels ins Deutsche übersetzen zu lassen und in den Band aufzunehmen. Der Band ist in fünf Teile gegliedert. Der einleitende Teil I enthält neben dieser Einführung der Herausgeber ein Kapitel, das den Zusammenhang von allgemeiner Wissenschaftsphilosophie und den Philosophien der Einzelwissenschaften thematisiert und ein besonderes Augenmerk auf das Zusammenspiel von Philosophie, allgemeiner Wissenschaftsphilosophie und Einzelwissenschaften innerhalb der Philosophien der Einzelwissenschaften legt. Dieses Kapitel ist einerseits als Fortführung dieser Einleitung gedacht und erfüllt andererseits eine Bindegliedfunktion zur allgemeinen Wissenschaftsphilosophie. Im II. Teil des Bandes werden die Philosophien der Formal- und Geisteswissenschaften vorgestellt. Darauf folgen Teil III zu den Philosophien der Natur- und Biowissenschaften sowie Teil IV zu den Philosophien der Ingenieur- und interdisziplinären Wissenschaften. Der Band schließt mit einem V. Teil zu den Philosophien der Sozial- und Verhaltenswissenschaften und einem integrierten Sach- und Personenregister. Man könnte einen naheliegenden Kritikpunkt zur Gewichtung der einzelnen Wissenschaftsphilosophien formulieren, nämlich dass für die Philosophien der Natur- und Lebenswissenschaften einzelne Kapitel aufgenommen wurden, während die Philosophie der Ingenieurwissenschaften, die ja mindestens genauso divers sind wie die Natur- und Lebenswissenschaften, in einem einzelnen Kapitel behandelt wird. Diese Entscheidung entspringt dem Umstand, dass sich zu den einzelnen Ingenieurwissenschaften, wie der Elektrotechnik oder dem Maschinenbau, bislang keine spezifischen Wissenschaftsphilosophien herausgebildet haben. Vielmehr gibt es die Technikphilosophie, die sich allerdings mit der Technik als Phänomen und nicht mit den technischen Wissenschaften befasst, und die noch sehr junge philosophy of technology, die sich als Wissenschaftsphilosophie der technischen Wissenschaften insgesamt versteht (Reydon 2012; Franssen et al. 2015). Da es sich bei den Beiträgen zu den Philosophien der Einzelwissenschaften um Übersichtsarbeiten handelt, sehen wir an dieser Stelle davon ab, einen Überblick über die einzelnen Kapitel zu geben. Wir wollen allerdings einige Aspekte hervorheben, die wir den Autoren der Kapitel als Orientierungspunkte mit auf den Weg gegeben hatten. Zu Beginn der Kapitel sollte ein konziser Abriss der Entwicklungsgeschichte der jeweiligen Wissenschaftsphilosophie erfolgen, bevor dann auf ontologische sowie epistemologische und methodologische Fragestellungen eingegangen wird. Die Kapitel sollten zudem anstreben, neben klassischen Themen mit aktueller Relevanz auch den aktuellen Stand der Forschung und neuere Entwicklungen im Feld zu behandeln und sich damit auf einer forschungsorien13
I. Einführung
tierten Ebene zu bewegen. Die Kapitel sollten schließlich mit Literaturempfehlungen der Autorinnen und Autoren enden. Wir sind davon überzeugt, dass diese groben Orientierungspunkte zur durchweg hohen Qualität und einer gewissen Vergleichbarkeit der Kapitel beigetragen haben. Gleichwohl war von uns nicht verlangt oder beabsichtigt, dass diese Punkte in jedem Fall vollständig berücksichtigt werden sollten. Vorrang hat im Zweifelsfall stets die sachliche Logik des jeweiligen Arbeitsbereiches gegeben. Ein Beispiel: Bei der noch relativ jungen Philosophie der Klimawissenschaften wäre es weder sinnvoll gewesen, auf deren geschichtliche Entwicklung einzugehen, noch möglich, umfangreiche Literaturempfehlungen zu geben.
Danksagung Für wertvolle Ratschläge zur Konzeption des Sammelbandes danken wir Nils Hoppe, Till Markus, Paul Hoyningen-Huene und Torsten Wilholt. Koko Kwisda hat uns mit einer überaus gelungenen Übersetzung des Kapitels zur Philosophie der Geo- und Umweltwissenschaften unterstützt. Beim Redigieren der Texte sowie der gesamten Manuskripterstellung haben wir sehr von der stets präzisen und aufmerksamen Unterstützung durch Leon Schäfer profitiert. Unser besonderer Dank gilt auch Marcel Simon-Gadhof vom Meiner Verlag, der uns fachkundig, zuvorkommend und mit viel Geduld bei diesem »Mammutprojekt«, wie es Sven Walter so passend ausgedrückt hat, unterstützt hat. Zuletzt möchten wir uns natürlich auch bei den Autorinnen und Autoren und bei den Peer-Gutachterinnen und -Gutachtern der einzelnen Kapitel bedanken, ohne die dieser Band nicht existieren könnte.
Literatur Allhoff, Fritz (Hg.) (2010). Philosophies of the Sciences: A Guide. Chichester: WileyBlackwell. Anderl, Sybille (2016). »Astronomy and astrophysics«, in: Humphreys, Paul (Hg.): The Oxford Handbook of Philosophy of Science, 652–670. New York: Oxford University Press. Bartels, Andreas, und Stöckler, Manfred (Hg.) (2007). Wissenschaftstheorie: Ein Studienbuch. Paderborn: Mentis. Franssen, Maarten, Lokhorst, Gert-Jan, und van de Poel, Ibo (2015). »Philosophy of Technology«, in: Zalta, E. N. (Hg.): The Stanford Encyclopedia of Philosophy (Fall 2015 Edition), http://plato.stanford.edu/archives/fall2015/entries/technology/. Okasha, Samir (2002). Philosophy of Science: A Very Short Introduction. New York: Oxford University Press.
14
Zur Ausdifferenzierung der W issenschaftsphilosophie
O’Malley, Maureen (2014). Philosophy of Microbiology. Cambridge: Cambridge University Press. Reydon, Thomas (2012). »Philosophy of Technology«, in: Fieser, J. und Dowden, B. (Hg.): Internet Encyclopedia of Philosophy, http://www.iep.utm.edu/technolo/. Risjord, Mark W. (2010). Nursing Knowledge: Science, Practice, and Philosophy. Chichester. West Sussex; Ames, IO: Wiley-Blackwell. Turner, Derek (2011). Paleontology: A Philosophical Introduction. Cambridge: Cambridge University Press. Turner, Raymond (2014). »The Philosophy of Computer Science«, in: Zalta, E. N. (Hg.): The Stanford Encyclopedia of Philosophy (Winter 2014 Edition), http://plato. stanford.edu/archives/win2014/entries/computer-science/. Wylie, Alison (2002). Thinking from Things: Essays in the Philosophy of Archaeology. Berkeley, CA: University of California Press.
15
2. Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften Meinard Kuhlmann
1 Einleitung Zunächst werde ich das Verhältnis der allgemeinen Wissenschaftsphilosophie zu den heute florierenden Philosophien der Einzelwissenschaften genauer beleuchten. Die allgemeine Wissenschaftsphilosophie behandelt übergreifende Themen wie Erklärungen, Naturgesetze und Idealisierungen; Philosophien der Einzelwissenschaften sind z. B. Philosophie der Physik, der Biologie und der Ökonomie. Anschließend werde ich einen groben vergleichenden Überblick über die Hauptarbeitsgebiete der allgemeinen Wissenschaftsphilosophie und der Philosophien der Einzelwissenschaften geben. Schließlich werde ich an zwei Beispielen veranschaulichen, wie sich in den Philosophien der Einzelwissenschaften Philosophie, allgemeine Wissenschaftsphilosophie und Einzelwissenschaften aufeinander beziehen. Ein Ergebnis wird sein, dass es keine kurze Antwort auf die Frage gibt, was Philosophien der Einzelwissenschaften ausmacht, sondern dass sowohl ihre Tätigkeitsfelder als auch ihr Verhältnis zu anderen Bereichen vielfältig und komplex sowie oft wechselseitig gewinnbringend sind.
2 Rolle der Philosophien der Einzelwissenschaften in der Wissenschaftsphilosophie Der Sache nach wird Wissenschaftsphilosophie seit der Antike betrieben, mit herausragenden Arbeiten von Aristoteles, Bacon, Descartes und Mill. Eine gesonderte Disziplin gibt es bis zum Ende des 19. Jahrhunderts gleichwohl nicht. Trotz der großen Wertschätzung, die Aristoteles der erfahrbaren Welt entgegenbrachte, steht er am Anfang einer langen Tradition, nach der gesicherte Erkenntnis ein stabiles Fundament im Denken braucht. Bacon und die späteren britischen Empiristen brachen insofern mit dieser Tradition, als sie dieses Fundament nicht mehr im Denken, sondern in den Beobachtungsdaten sahen. Was aber beide Richtungen eint, ist der Glaube daran, dass es überhaupt ein sicheres Fundament gibt, das sich zum Aufbau von Kategoriensystemen bzw. Begrifflichkeiten sowie weiteren Erkenntnissen eignet. Dies sollte sich im 20. Jahrhundert grundlegend ändern und stellt einen wesentlichen Unterschied zwischen den klassischen Empiristen 17
I. Einführung
und den logischen Empiristen des Wiener Kreises dar, welche die moderne Wissenschaftsphilosophie begründen: In der sogenannten Protokollsatzdebatte lässt die Mehrheit der Mitglieder des Wiener Kreises den epistemischen Fundamentalismus schließlich hinter sich.1 Selbst Beobachtungssätze sind prinzipiell fallibel. Der Anti-Fundamentalismus des Wiener Kreises kommt besonders schön in Neuraths Bild zum Ausdruck, in dem er Wissenschaftler mit Seeleuten vergleicht, die ihr Schiff auf hoher See reparieren müssen, ohne es je in einem Trockendock zerlegen und aus den besten Stücken neu aufbauen zu können (Neurath 1932/33, 206). Gleichwohl behalten Beobachtungssätze im logischen Empirismus epistemisch eine herausragende Position, was den empiristischen Kern dieser Richtung ausmacht, die bis in die 1960er Jahre die Wissenschaftsphilosophie entscheidend prägt. Gleichzeitig ist er die Grundlage für die hohe Wertschätzung, die die logischen Empiristen den empirischen Wissenschaften entgegenbringen. Quines (1953) stichelnde Bemerkung »Philosophy of science is philosophy enough« bringt dies später schön auf den Punkt, auch wenn er ansonsten einer der schärfsten Kritiker des logischen Empirismus ist.2 Bezüglich der Erkenntnisgrenzen der Philosophie vertraten die logischen Empiristen eine sehr strikte Position: Philosophie verhandele keine Sachfragen, sondern ihr Geschäft beschränke sich auf die Klärung der begrifflichen und methodischen Grundlagen der Wissenschaften. Aus eigener Kraft könne die Philosophie kein sachhaltiges Wissen gewinnen.3 Philosophie kann also nicht zur Wissensgenerierung beitragen, sie kann nur analytisch ergründen, was Wissenschaft tut und welche begrifflichen Grundlagen Wissenschaft implizit verwendet. Philosophie wird zur »Wissenschaftslogik« – so die von Carnap präferierte Bezeichnung. Obwohl die Wissenschaftsphilosophie als Disziplin schon gegen Ende des 19. Jahrhunderts mit ersten Lehrstühlen institutionell vertreten ist, bleiben die Bezeichnungen für das Gebiet sowie ganz konkret die Denominationen der entsprechenden Lehrstühle lange sehr uneinheitlich, so etwa »Geschichte und Theor ie der induktiven Wissenschaften« (Mach) oder »Philosophie der exakten Wissen Nur Schlick bildet hier eine Ausnahme. In Schurz (2011) und Uebel (2011) finden sich zwei kurze, aber differenzierte Diskussionen des Anti-Fundamentalismus im Wiener Kreis. 2 Während Quine und die logischen Empiristen dahingehend übereinstimmen, dass sie eine den empirischen Wissenschaften vorgeschaltete »erste Philosophie« zurückweisen, trennen sich ihre Wege hinsichtlich der Frage, ob Philosophie überhaupt klar von den empirischen Wissenschaften zu unterscheiden ist. Quine verneint diese Möglichkeit auf Grundlage seiner generellen Zurückweisung einer eindeutigen Unterscheidung von analytischen und synthetischen Aussagen. Isaacson (2004) diskutiert ausführlich das Verhältnis Quines zum logischen Empirismus, u. a. anhand des zitierten Slogans von Quine (s. S. 245 ff.). 3 Dieses Interesse an den Grundlagen oder Fundamenten der Wissenschaften darf jedoch nicht mit einem epistemischen Fundamentalismus verwechselt werden, den der Wiener Kreis mehrheitlich zurückwies – wie oben ausgeführt. Siehe Genaueres zur naheliegenden Verwechslung bei Uebel (2011), Abschnitt 3.3. 1
18
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
schaften« (Schlick).4 Eine einheitliche Bezeichnung der Disziplin als »Philosophy of Science« prägt sich erst im Zuge ihrer Internationalisierung ab den 1930er Jahren aus.5 Im Deutschen wird dagegen der Bezeichnung »Wissenschaftstheor ie« der Vorzug gegeben, was auch der mitunter explizit »anti-philosophischen« (Pulte 2004, 977) Einstellung der früheren Vertreter geschuldet sein mag. In den letzten Jahren hat sich jedoch die Bezeichnung »Wissenschaftsphilosophie« zunehmend durchgesetzt. Oft wird sie ohne weitere Diskussion synonym zur früher vorherrschenden Bezeichnung »Wissenschaftstheor ie« verwendet und ist dann primär Ausdruck einer terminologischen Angleichung an das angelsächsische »Philosophy of Science«. Mitunter wird wohl auch mehr oder weniger bewusst das Wörtchen »Theor ie« vermieden, was teils sachlich (Abkehr von Theor ienfokussiertheit), teils strategisch (»Wissenschaftsphilosophie« klingt heute einfach ansprechender und inklusiver als »Wissenschaftstheorie«) motiviert sein mag. Mir scheinen mit dem Wandel der Bezeichnungen jedoch noch weiter gehende inhaltliche Veränderungen in der Sicht auf das Fachgebiet sowie von dessen Inhalten und Schwerpunkten verbunden zu sein. Diese Veränderungen haben insbesondere mit der enorm gestiegenen bzw. der nach dem Ende der Dominanz des logischen Empirismus wiedererlangten Bedeutung der Philosophien der Einzelwissenschaften zu tun, was sich auch in ihrem aufgewerteten Verhältnis zur allgemeinen Wissenschaftsphilosophie wiederspiegelt.6 Dies gilt natürlich ebenso für die angelsächsische Philosophy of Science – die beiden Communities sind heute ja weniger getrennt denn je – nur konnte es dort keine entsprechende terminologische Änderung geben. Sachlich sind viele Diskussionen, die heute in Philosophien der Einzelwissenschaften betrieben werden, zwar mindestens ebenso alt wie die allgemeine Wissenschaftsphilosophie, sie wurden jedoch weitgehend separiert betrieben und waren an verschiedenen Stellen der allgemeinen Philosophie verankert, zunächst weil es die Wissenschaftsphilosophie als separate Disziplin einfach noch nicht gab. Insbesondere in den letzten etwa zwei Jahrzehnten sind die Philosophien der Einzelwissenschaften unter dem Dach der Wissenschaftsphilosophie zunehmend zusammengewachsen als gleichberechtigte, analog strukturierte und oft Siehe Moulines (2008), für den etwa 1890 das »Jahrhundert« der Wissenschaftstheo rie beginnt. Er unterscheidet dabei grob die Phase der Präformation (1890 –1918), die Phase der Entfaltung (1918 – 1935), die klassische Phase (1935 –1970), die historizistische Phase (1960 –1985) sowie die modellistische Phase (seit den 1970ern). 5 Vgl. Pulte (2004), 977 f. 6 Als terminologische Alternative zur Unterscheidung von »allgemeiner Wissenschaftsphilosophie« und »Philosophien der Einzelwissenschaften« bietet sich die Unterscheidung zwischen »allgemeiner Wissenschaftsphilosophie« und »spezieller Wissenschaftsphilosophie« an. Ein Vorteil der Bezeichnung »Philosophien der Einzelwissenschaften« besteht darin, dass er unmittelbar anschließt an die heute gängigen Bezeichnungen der einzelnen Disziplinen wie etwa Philosophie der Biologie, Philosophie der Physik, Philosophie der Wirtschaftswissenschaften etc. 4
19
I. Einführung
aufeinander bezogene Arbeitsfelder, die eigenständig in wechselseitiger Kollaboration mit der allgemeinen Wissenschaftsphilosophie bearbeitet werden. Eine Folge dieser Entwicklung ist, dass die Musik immer mehr in den Philosophien der Einzelwissenschaften spielt.7 Die meisten Wissenschaftsphilosophen haben heute einen mehr oder weniger stark ausgeprägten Schwerpunkt in einer der Philosophien der Einzelwissenschaften. Wiederum eine Folge hiervon ist, dass die Qualität der in der allgemeinen Wissenschaftsphilosophie diskutierten Beispiele deutlich gestiegen ist, da es eine wachsende Anzahl von Wissenschaftsphilosophen mit sehr soliden einzelwissenschaftlichen Kenntnissen gibt. Die positive Rückwirkung dieser Entwicklung auf die allgemeine Wissenschaftsphilosophie verschafft den Philosophien der Einzelwissenschaften dann auch naheliegender Weise nachhaltig Rückenwind. Die Philosophien der Einzelwissenschaften haben wohl vor allem deshalb an Bedeutung gewonnen, weil – wie viele Untersuchungen gezeigt haben – die Wissenschaften einfach zu unterschiedlich sind, als dass man sie über einen Kamm scheren könnte. Während sich beispielsweise in der fundamentalen Physik fast alles um Naturgesetze zu drehen scheint, ist es in der Biologie fraglich, ob es überhaupt Naturgesetze im engeren Sinne gibt. Andererseits sind Mechanismen in der Biologie von überragender Bedeutung, wohingegen sie in der fundamentalen Physik keine Rolle zu spielen scheinen.8 Auch Kausalitätstheorien bieten oft sehr verschiedene Antworten, abhängig davon, ob der Fokus z. B. auf Physik, Biologie oder Ökonomik liegt.9 Ähnliches gilt für die Debatte um den Erklärungsbegriff: Während das Covering-law-Modell, nach dem wissenschaftliche Erklärungen in der Subsumption unter relevante Gesetze bestehen, in der Physik prima facie eine hohe Plausibilität hat, spielen in der Biologie und den Sozialwissenschaften z. B. mechanistische und funktionale Erklärungen eine mindestens ebenso große Rolle.10 Diese Unterschiede legen es nahe, der eigenständigen philosophischen Untersuchung von Einzelwissenschaften den Stellenwert zuzumessen, den sie heute auch haben. Zweifellos gibt es viele Gemeinsamkeiten. Es gibt aber nicht die eine richtige oder paradigmatische Wissenschaft beziehungsweise das eine Siehe auch Moulines (2008, 24 f.) mit dem gleichen Ergebnis, aber einer etwas anderen Erklärung. 8 Auch bei dem gegenwärtig oft erwähnten »Higgs-Mechanismus«, der dafür verantwortlich ist, dass Elementarteilchen eine Masse haben, gibt es gute Gründe zu bestreiten, dass es sich um einen kausalen Mechanismus handelt. Anders sieht es bei der nicht-fundamentalen Physik aus: Für die Dynamik großer zusammengesetzter Systeme spielen Mechanismen eine wichtige Rolle. Eine umfassende Diskussion der Rolle von Mechanismen in der Physik findet sich in Kuhlmann (2017). 9 Als Beispiele für disziplin- bzw. bereichsspezifische Kausalitätskonzeptionen siehe Salmon (1984) und Dowe (2000) für die Physik, Reutlinger (2013) für Biologie und Sozialwissenschaften und Hausman (2009) für die Ökonomik. 10 Bartelborth (2007) diskutiert eingehend, welche disziplin- bzw. bereichsspezifischen Fragen beim Thema Erklärung auftreten. 7
20
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
Ideal von Wissenschaftlichkeit, sondern diverse Wissenschaften mit ihren je eigenen Methoden, Standards und Zielen.11 Im Laufe der Zeit wurde immer deutlicher, dass es zu Fehlentwicklungen in der allgemeinen Wissenschaftsphilosophie führen kann, wenn Einzelwissenschaften primär als Anschauungsmaterial für generelle Thesen herhalten und nicht hinreichend ernsthaft eigenständig untersucht werden. Das vielleicht wichtigste Beispiel hierfür ist die notorische Theor ienfokussiertheit der aus dem logischen Empirismus hervorgegangenen klassischen Wissenschaftstheor ie, welche die (theoretische) Physik weitgehend unhinterfragt als Goldstandard von Wissenschaftlichkeit angesehen hat. Der Eindruck scheint nicht ganz unberechtigt zu sein, dass die Begrenztheit einer Wissenschaftstheor ie, die sich ganz auf Theor ien konzentriert, insbesondere dadurch befördert wurde, dass – pointiert formuliert – vorgefertigte Vorstellungen an die Einzelwissenschaften herangetragen wurden und dabei gezielt nach passenden Beispielen gesucht wurde, anstatt ergebnisoffen danach zu schauen, was Einzelwissenschaften tatsächlich tun. So wurden auf der dogmatischen Grundlage der durch den logischen Empirismus geprägten Wissenschaftstheor ie lange Zeit ganze Wissenschaften weitgehend ignoriert, in denen es nicht primär um die Formulierung von Naturgesetzen und Theor ien geht, wie insbesondere die Biologie.12 Aber selbst im Umgang mit der Paradedisziplin Physik wurde durch die einseitige Herangehensweise – Einzelwissenschaften als Beispielvorrat – vieles verkannt. So spielen etwa Modelle nicht nur für die Didaktik eine Rolle, sondern sind ein integraler Bestandteil von Wissenschaft, und zwar auch in der Physik.13 Und es ist sogar bestreitbar, dass universelle Naturgesetze typisch für die Physik Hoyningen-Huene (2013) bietet eine umfassende Diskussion der verschiedenen Aspekte von Wissenschaftlichkeit. Dass diese Aspekte oder »Dimensionen« nach Hoyningen-Huenes Hauptthese alle unter das Dach Systematizität fallen, tut ihrer Vielfalt und Verschiedenartigkeit insofern keinen Abbruch, als sie lediglich durch Familienähnlichkeit miteinander verbunden sind. Systematizität und somit auch Wissenschaftlichkeit lassen sich also nicht durch eine bestimmte Menge an notwendigen und zusammen genommen hinreichenden Bedingungen einheitlich fassen. 12 Wolters (1999) kommt in seiner Studie zu folgendem Ergebnis: »Logico-empiricist philosophy of biology is a case of wrongful life. After conceiving philosophy of biology logical empiricism did almost everything to prevent it from becoming a healthy subdiscipline of the philosophy of science. Right from its birth logico-empiricist philosophy of biology was a defective child and it has remained so until the late sixties when antipositivistic tort-for-wrongful-life thinking together with other developments set a new philosophical stage for biology.« Hofer (2002) zeichnet dagegen ein positiveres Bild. Insgesamt ist das Verhältnis des Wiener Kreises zur Biologie wenig erforscht. 13 Die hervorragende Aufsatzsammlung Morgan/Morrison (1999) behandelt diverse Funktionen von Modellen und verschiedene Disziplinen. Cartwright (1999) ist eine vieldiskutierte Monographie zum Thema, wobei Modelle in Physik und Ökonomie im Vordergrund stehen. Frigg/Hartmann (2012) bieten einen umfassenden Überblick über die zahlreichen Facetten des Themas Modelle. 11
21
I. Einführung
sind.14 Schließlich wurde die experimentelle Seite der Wissenschaften nicht mit der nötigen Eigenständigkeit untersucht.15 Anders als beim ersten Punkt – der Diversität der Einzelwissenschaften – gilt der zweite Punkt also bereits für eine bestimmte Wissenschaft wie die Physik: Philosophie einer Einzelwissenschaft ist nicht einfach Anwendung der allgemeinen Wissenschaftsphilosophie, sondern der Informationsfluss geht in beide Richtungen. Die Ergebnisse der Philosophien einer Einzelwissenschaft sind in gleichem Maße für die allgemeine Wissenschaftsphilosophie relevant wie anders herum (s. a. Abschnitt 3.1). Eine wesentliche Funktion der beiden Fallstudien am Ende des Kapitels ist es, genau diese wechselseitige Bedeutung an einer Reihe von konkreten Themen herauszustellen. Ein Beispiel ist der anscheinend unverzichtbare Einsatz mitunter sehr unrealistischer Modelle in der Ökonomie, dem man nicht gerecht wird, wenn man Modelle als Veranschaulichungen oder als vorübergehende bzw. im Prinzip vermeidbare Vereinfachungen versteht. Es ist also erforderlich, umfassender zu untersuchen, worin die Funktion von Modellen besteht. Dabei hat sich gezeigt, dass die frühere Wissenschaftstheorie die Komplexität der Thematik weit unterschätzt hat. Da diese Entwicklung ohne eine eigenständige Untersuchung von Einzelwissenschaften eventuell noch lange auf sich hätte warten lassen, macht dieses Beispiel deutlich, wie die allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften wechselseitig voneinander profitieren können. Ein dritter wesentlicher Faktor für den Bedeutungsgewinn der Philosophien der Einzelwissenschaften ist schließlich die Rehabilitierung und wachsende Bedeutung metaphysischer Unter-suchungen, da diese wesentlich mit den Inhalten der einzelnen Wissenschaften und nicht nur mit ihren Methoden zu tun haben. Im Fahrwasser des logischen Empirismus ging es der Wissenschaftsphilosophie lange Zeit ausschließlich oder zumindest primär um erkenntnistheoretische Fragen, wie etwa das Verhältnis von Theorie und Beobachtung oder den Begriff wissenschaftlicher Erklärungen. Die früher gängigere Bezeichnung »Wissenschaftstheor ie« schien dafür passend zu sein: So wie physikalische Theorien bestimmte Wirklichkeitsbereiche beschreiben, beschreibt die Wissenschaftstheorie, wie Wissenschaft »funktioniert«. Während diese Charakterisierung für viele erkenntnistheoretisch orientierte Themen in der Wissenschaftsphilosophie auch heute noch angemessen ist, stößt sie insbesondere bei metaphysischen Fragen bezüglich der Einzelwissenschaften an ihre Grenzen. Die Metaphysics of Science beschreibt nicht, wie Wissenschaft funktioniert. Stattdessen versucht sie herauszufinden, welches Bild von der Welt zu den Ergebnissen der jeweiligen Einzelwissenschaften passt, wobei es oft um die Erarbeitung und Bewertung rivalisierender Interpretationen geht. Hüttemann (2007) bietet eine sehr gelungene Einführung in die Geschichte von Naturgesetztheor ien sowie die aktuelle Debatte. 15 Wie Heidelberger (2007) herausarbeitet, ist eine gewisse Geringschätzung von Experimenten zugunsten von Theor ien sogar in Kuhns Struktur wissenschaftlicher Revolutionen zu beobachten, auch wenn das Erscheinen dieses Werkes oft als Todesdatum für den theor ienfixierten logischen Empirismus gesehen wird. 14
22
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
Man greift also zu kurz, wenn man sagt, die Aufgabe der Philosophien der Einzelwissenschaften bestehe darin zu beschreiben, wie Einzelwissenschaften im Detail funktionieren, so wie die allgemeine Wissenschaftsphilosophie beschreibt, wie Wissenschaft generell funktioniert16 – zumindest wenn dies als erschöpfende Charakterisierung gemeint ist. Es gibt also insbesondere drei Gründe für den Bedeutungsgewinn der Philosophien der Einzelwissenschaften sowie ihr aufgewertetes Verhältnis zur allgemeinen Wissenschaftsphilosophie. Wie wir sahen, sind diese Gründe erstens ein gestiegenes Bewusstsein für die methodische Diversität der Einzelwissenschaften, zweitens, eng damit verbunden, das Erkennen von Defiziten einer allgemeinen Wissenschaftsphilosophie, die Einzelwissenschaften bloß als Vorrat von Anwendungsbeispielen betrachtet, und drittens die gewachsene Bedeutung metaphysischer Untersuchungen, welche die Inhalte der einzelnen Wissenschaften in den Blick nehmen und abhängig von der jeweils betrachteten Einzelwissenschaft stark divergieren. Diese Gründe lassen sich in drei Thesen zuspitzen. Erstens gibt es nicht die eine paradigmatische Wissenschaft, sondern in vielen Hinsichten verschiedene Wissenschaften, die in den Philosophien der Einzelwissenschaften eigenständig untersucht werden. Zweitens besteht die Philosophie einer Einzelwissenschaft nicht einfach in der Anwendung der allgemeinen Wissenschaftsphilosophie. Und drittens ist für die Metaphysik der Wissenschaft eine detaillierte Beschäftigung mit den Inhalten der einzelnen Wissenschaften nötig.
3 Allgemeine Wissenschaftsphilosophie und Philosophien der Einzelwissenschaften: Vergleich der Arbeitsfelder Im Folgenden möchte ich für zwei Frageperspektiven etwas eingehender erörtern, in welchem Verhältnis die Philosophien der Einzelwissenschaften zur allgemeinen Wissenschaftsphilosophie stehen.
3.1 Methodologie und Erkenntnistheorie Während die allgemeine Erkenntnistheor ie die Begriffe Wissen und Wahrheit, das Verhältnis von Wissen und Wirklichkeit sowie die Zuverlässigkeit und die Grenzen des Wissens ganz allgemein untersucht, thematisiert die Wissenschaftsphilosophie erkenntnistheoretische Fragen, die sich spezifisch bezüglich der Wissenschaften stellen.17 Dies kann sich wiederum auf die Wissenschaften generell oder auf bestimmte Einzelwissenschaften beziehen, während die allgemeine Vgl. Reydon/Hoyningen-Huene (2011, 131). Vgl. die ausführliche Diskussion des Verhältnisses von Erkenntnistheorie und Wissenschaftstheor ie (sowie Metaphysik) in Scholz (2013). 16 17
23
I. Einführung
Erkenntnistheor ie in der Regel eher die Erkenntnis von Alltagsgegenständen betrachtet. So werden etwa in der generellen wissenschaftsphilosophischen Realismusdebatte Argumente für und wider den Realismus formuliert, die sich z. B. aus der Wissenschaftsgeschichte ergeben. So zieht etwa das Argument der pessimistischen Metainduktion (Laudan 1981) aus der faktischen Falschheit fast aller bisherigen Theor ien den pessimistischen Schluss auf die hoch wahrscheinliche Falschheit der heutigen Theorien. Was die Realismusdebatte zu einem typischen Thema der allgemeinen Wissenschaftsphilosophie macht, ist die Art der Argumente. Es geht nicht um irgendwelche speziellen Theorien oder Wissenschaften, sondern die Argumente stützen sich in der Regel auf die Betrachtung von Theor ien und Wissenschaften über die Jahrhunderte hinweg. Es gibt aber auch spezielle wissenschaftsphilosophische Realismusdebatten, die sich auf bestimmte Einzelwissenschaften beziehen. Beispielsweise in der Debatte zum ontischen Strukturenrealismus geht es (zumindest bisher) fast ausschließlich um die Philosophie der Physik, insbesondere die Quantenphysik.18 Wir werden einige Argumente zugunsten dieser Position im zweiten Beispiel – zur Ontologie der Quantenphysik – kennenlernen. Neben der Realismusdebatte gibt es viele weitere erkenntnistheoretische beziehungsweise methodologische Themen, die sowohl in der allgemeinen Wissenschaftsphilosophie als auch in den verschiedenen Philosophien der Einzelwissenschaften behandelt werden und jeweils eine eigenständige Ausprägung haben. Bei den eng zusammenhängenden Themen Idealisierung und Modelle lässt sich dies besonders gut beobachten. Einerseits gibt es in der allgemeinen Wissenschaftsphilosophie ausführliche Debatten dazu, welchen Grundtypen von Idealisierungen es gibt und welche Funktionen Modelle haben können. So besteht etwa eine Hauptform von Idealisierung in nur temporären Vereinfachungen, um komplexe Probleme rechnerisch handhabbar zu machen. Daneben gibt es aber auch Idealisierungen, die nicht nur vorübergehend sind, sondern Faktoren ausblenden, die bezüglich des Erklärungsziels irrelevant sind. Diese allgemeine Debatte degradiert Untersuchungen zu Idealisierungen in bestimmten Einzelwissenschaften jedoch keineswegs zu bloßen Anwendungen. Beim Homo-Oeconomicus-Ansatz der Wirtschaftswissenschaften etwa, nach dem Menschen in Ihrem Handeln als rationale Nutzenmaximierer mit vollständiger Kenntnis der Handlungsalternativen, klarer Präferenzordnung und unbeschränkten Rechenkapazitäten modelliert werden, ist der Status der Idealisierungen hoch umstritten. Es ist weder unmittel Worrall (1989) hat die gegenwärtige Debatte zum Strukturenrealismus mit einer epistemischen Variante eröffnet, gemäß derer wir nur Relationen bzw. Strukturen, nicht aber die Natur der Dinge selbst erkennen können, die in den betreffenden Relationen zueinander stehen. Ladyman (2014) gibt einen umfassenden Überblick zum heutigen Stand der Debatte, die er entscheidend mitgeprägt und stimuliert hat, in dem er eine ontische Variante des Strukturenrealismus vorgeschlagen hat, nach welcher der Grund dafür, wieso nur Strukturen erkennbar sind, einfach darin besteht, dass auch nur (realisierte) Strukturen existieren. 18
24
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
bar klar, um welchen Typ von Idealisierung es sich handelt, noch, ob die gemachten Idealisierungen legitim sind. Da die Idealisierungen in vielen real verwendeten ökonomischen Modellen nur sehr schwer in die Taxonomie der allgemeinen Wissenschaftsphilosophie einzuordnen sind, ist es unverzichtbar, Idealisierungen und Modelle auch spezifisch mit Blick auf die Wirtschaftswissenschaften zu untersuchen. Wie bereits im vorhergehenden Abschnitt erwähnt, profitieren die allgemeine Wissenschaftsphilosophie und die verschiedenen Philosophien der Einzelwissenschaften hierbei in vielfältiger Weise voneinander, ohne dass die allgemeine und die spezifische Perspektive einander überflüssig machten. Ähnliches ließe sich bei Themen wie Theor ienbestätigung, wissenschaftliche Erklärungen und Simulationen zeigen.19 Unter anderem profitieren die Philosophien der Einzelwissenschaften dadurch von der allgemeinen Wissenschaftsphilosophie, dass letzterer ein viel größeres Arsenal von Wissenschaften zur Verfügung steht. Hierdurch kann sich etwa der Vorteil ergeben, dass sich Taxonomien schärfer fassen lassen, da es wahrscheinlicher ist, bestimmte Typen z. B. von Idealisierungen in Reinform anzutreffen. So kommt es der Philosophie der Wirtschaftswissenschaften erheblich zugute, dass sich Typen von Idealisierungen in der Physik oft leichter erkennen lassen und Grundlage für die Begriffsbildung in der allgemeinen Wissenschaftsphilosophie sind. In diesem Fall profitiert also die Philosophie einer Wissenschaft von der Philosophie einer anderen Wissenschaft vermittelt über die allgemeine Wissenschaftsphilosophie.20 Aber es fließt auch Gewinn in die andere Richtung: Die erheblichen Probleme bei der Frage, ob und gegebenenfalls wodurch Idealisierungen in den Wirtschaftswissenschaften gerechtfertigt sind, sowie die Ansätze, mit diesen Problemen umzugehen, können ihrerseits zu einem Überdenken der allgemeinen Thematik führen. Es ist kein Zufall, dass Nancy Cartwright oft Wirtschaftswissenschaften und Physik in ein und demselben allgemeinen Zusammenhang diskutiert, seien dies Kausalität, Naturgesetze oder Modelle. Oft gerät hierbei eine weithin akzeptierte wissenschaftsphilosophische Theor ie, die ursprünglich aus der Physik abstrahiert wurde, bei den Wirtschaftswissenschaften an ihre Grenzen und führt dazu zu hinterfragen, wieweit die angestammte Theorie bei ihrem Paradebeispiel Physik tatsächlich zutreffend ist. Ein Prozess genau dieser Art hat dazu beigetragen, dass heute ceteris paribus Gesetze nicht mehr als Ausnahme, sondern als Regel angesehen werden, und zwar auch in der Physik. Ohne das Wechselspiel von allgemeiner Wissenschaftsphilosophie und verschiedenen Philosophien der Einzelwissenschaften wäre dies eventuell nicht oder nicht so schnell passiert. Siehe zu diesen Themen Rosenthal (2007), Schurz (2011) und Weisberg (2013). Im Prinzip ginge dies auch direkt zwischen den Philosophien der jeweiligen Wissenschaften und oft passiert das auch, mitunter werden Ergebnisse bzw. Begriffsbildungen und Ansätze aus der Philosophie einer Wissenschaft aber erst dann hinreichend in anderen Bereichen wahrgenommen, wenn sie Eingang in den Kanon der allgemeinen Wissenschaftsphilosophie gefunden haben. 19
20
25
I. Einführung
3.2 Interpretation und Ontologie Um ontologische (oder »metaphysische«) Untersuchungen in der Wissenschaftsphilosophie zu charakterisieren, sind zunächst zwei Abgrenzungen nötig, und zwar einerseits gegen die allgemeine philosophische Disziplin Ontologie und andererseits gegen die jeweiligen Einzelwissenschaften selbst. Anders als die Erkenntnistheor ie beschäftigt sich Ontologie mit den Inhalten unseres Wissens, und zwar bezüglich der allgemeinsten Strukturen des Seienden. Die Ontologie sucht insbesondere nach den fundamentalen Kategorien, in die alles, was existiert, eingeordnet werden kann. Dabei geht es seit Aristoteles’ Schrift Kategorien traditionell zunächst einmal darum, aufzulisten, welche Kategorien es überhaupt gibt und wie diese zu charakterisieren sind. Aristoteles hatte als erster Philosoph klar gesehen, dass es eine ganze Reihe verschiedener Typen von Seiendem gibt und dass man (wie einige Vorsokratiker) in Widersprüche gerät, wenn man einfach alles in einen Topf wirft. Einige der wichtigsten Kandidaten von Kategorien des Seienden sind Dinge oder »Substanzen«, Eigenschaften, Relationen und (in der modernen Diskussion) Sachverhalte. Aristoteles unterschied aber nicht nur verschiedene Typen des Seienden, sondern er argumentierte auch dafür, dass Dinge bzw. »Substanzen« vor Seiendem aus allen anderen Kategorien ausgezeichnet sind. Nur Substanzen sind in dem Sinne zu eigenständiger Existenz fähig, dass sie auf nichts (bestimmtes) anderes angewiesen sind. Anders sehe dies etwa bei Eigenschaften aus, die immer Eigenschaften von etwas sind und nicht alleine existieren können. Auch heute noch stellen sich ontologische Fragen vom Typ her ganz ähnlich wie bei Aristoteles, und dies gilt sowohl für die allgemeine Ontologie als auch für speziellere bzw. bereichsspezifische Fragen in der Wissenschaftsphilosophie. Eine zweite wesentliche Aufgabe der Ontologie besteht darin zu klären, in welchem Verhältnis die Kategorien zueinander stehen. Sind Eigenschaften Teile von Dingen? Oder lassen sich die konkreten Vorkommnisse von Eigenschaften gar nicht anders fassen als über die Dinge, an denen sie auftreten? Sind Sachverhalte wie das Kochen eines Topfes Wasser nur Komposita aus Dingen und ihrem jeweiligen Verhalten oder sind Sachverhalte evtl. sogar die fundamentalen Bestandteile der Welt? Die bisherige Charakterisierung bezieht sich auf Ontologie bzw. Metaphysik ganz allgemein. Bezogen auf Wissenschaften sehen die Fragen etwas anders aus. Meist sind sie spezifischer. Dies muss jedoch nicht immer der Fall sein. Gelegentlich kommen in der Wissenschaftsphilosophie auch sehr grundsätzliche ontologische Fragen bzw. Ansätze auf, wie etwa beim oben bereits erwähnten Strukturenrealismus. »Metaphysik der Wissenschaft«21 – so eine heute sehr gängige Bezeichnung für die ontologischen Bereiche der Wissenschaftsphilosophie – kann Unter der Rubrik Metaphysics of science lief etwa 2006 – 2 010 das Gemeinschaftsprojekt »Causes, laws, kinds, and dispositions« an den Universitäten Birmingham, Bristol und Nottingham. Ganz ähnlich gelagert ist die 2009 gegründete Forschergruppe »Kausa21
26
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
sich einerseits auf generelle Themen beziehen, wie Kausalität, Naturgesetze oder natürliche Arten, und ist dann Teil der allgemeinen Wissenschaftsphilosophie. Andererseits gibt es auch zahllose metaphysische Fragen zu bestimmten Einzelwissenschaften, wie etwa die Unterscheidbarkeit und Individualität von Quantenobjekten22, die Frage, ob Gene materielle Einzeldinge sind23 oder der ontologische Status sowie die kausale Rolle von sozialen Gruppen24 . Daher wäre es auch nicht angemessen, die Ontologie nur in der allgemeinen Wissenschaftsphilosophie zu verorten (wie in Scholz 2013). Tatsächlich werden klassische ontologische Fragen wie etwa die Individualität von Dingen oder das Verhältnis von Dingen und Eigenschaften in den Philosophien der Einzelwissenschaften sogar häufiger behandelt als in der allgemeinen Wissenschaftsphilosophie. Wenn es sich bei den betrachteten Einzelwissenschaften um Naturwissenschaften handelt, spricht man heute im Deutschen auch oft von »moderner Naturphilosophie«.25 In der modernen Naturphilosophie geht es an erster Stelle darum, die Ergebnisse der Naturwissenschaften ontologisch zu erfassen und zu interpretieren.26 Typische Fragen der modernen Naturphilosophie sind dabei von der folgenden Art27: – Von welcher Art sind die Grundbausteine der Welt laut Theor ie T? – Existieren Raum und Zeit bzw. Raumzeitpunkte als unabhängige »Gegenstände« oder sind sie lediglich konzeptionelle Werkzeuge, um die Relationen von materiellen Dingen zu erfassen? – Unter welchen Voraussetzungen kann man sagen, dass die Entstehung von L eben mit Physik und Chemie erklärbar ist? lität, Gesetze, Dispositionen und Erklärungen am Schnittpunkt von Wissenschaften und Metaphysik« an den Universtäten Düsseldorf, Köln und Münster. 22 Lyre (2014) gibt einen detaillierten Überblick über die aktuelle Diskussion. 23 Siehe Griffiths/Stotz (2007, 2013). 24 Siehe Hollis (1995, Kap. 5). 25 Die Bezeichnung »moderne Naturphilosophie« ist u. a. als Abgrenzung von der klassischen Naturphilosophie gemeint, die oft eher als Gegenprogramm zur dominierenden Rolle der Natur- und Technikwissenschaften in der modernen Gesellschaft konzipiert war bzw. ist. 26 Eine Erläuterung davon, was es heißt, eine Theor ie zu interpretieren, sowie was der Zusammenhang von Interpretation und Ontologie ist, findet sich in Kuhlmann und Pietsch (2012). Alternativ kann Naturphilosophie auch als die Disziplin gesehen werden, die Natur als solche thematisiert, und zwar auch unabhängig davon, wie sie in den Naturwissenschaften untersucht wird. Obendrein kann dies auch z. B. ethische Fragen mit einschließen. So verstanden ist Naturphilosophie kein Teilbereich der Wissenschaftsphilosophie, sondern beide haben bestenfalls einen großen Überschneidungsbereich. Mitunter wird Naturphilosophie aber auch bewusst in Absetzung von Wissenschaftsphilosophie verstanden, so dass sie nicht nur kein Teilbereich der Wissenschaftsphilosophie ist, sondern es nicht einmal mehr einen Überschneidungsbereich gibt. 27 Bartels (1996) und Esfeld (2011) sind zwei umfassende Darstellungen moderner Naturphilosophie.
27
I. Einführung
– Sind Bewusstsein, Absichten und Gefühle auf neurobiologische Vorgänge reduzierbar? Anders als die allgemeine philosophische Disziplin Ontologie untersucht die moderne Naturphilosophie die Ontologie bezüglich bestimmter Teilbereiche der natürlichen Welt. Genau genommen betrachtet die moderne Naturphilosophie diese Teilbereiche allerdings nicht direkt, sondern mittels der Ergebnisse, die in den jeweiligen Einzelwissenschaften erzielt wurden, also z. B. in der Physik, der Biologie, den Neurowissenschaften oder der Psychologie. Die moderne Naturphilosophie steht damit insofern in der sprachanalytischen Tradition, als ihr unmittelbarer Gegenstand nicht die Welt selbst ist, sondern unsere Sprache beziehungsweise unsere Theor ien. Und aus eben diesem Grunde gibt es oft wichtige Zusammenhänge zwischen Überlegungen in der modernen Naturphilosophie und solchen in der allgemeinen Wissenschaftstheor ie, wenn es z. B. darum geht, die relevanten wissenschaftlichen Theor ien richtig einzuordnen. Ein wichtiges Beispiel ist die Reduktionsdebatte, genauer die Reduktionsdebatten. Auf der wissenschaftstheoretischen Seite gibt es die Debatte um die Theorienreduktion, die im Wiener Kreis als die primäre und tendenziell einzig sinnvolle Debatte angesehen wurde.28 Dabei geht es einerseits um die Frage, ob innerhalb einer Wissenschaft eine Theor ie T auf eine andere Theor ie T reduzierbar ist, indem sie entweder deduktiv aus dieser ableitbar ist oder unter bestimmten Näherungen als Spezialfall aus dieser hervorgeht. Vieldiskutierte Beispiele für das Paar T / T sind Thermodynamik /Statistische Physik sowie klassische Mechanik /spezielle Relativitätstheorie. Die Theor ien T und T müssen aber nicht aus derselben Wissenschaft stammen, sondern man kann andererseits auch die Frage stellen, ob etwa die Biologie auf die Organische Chemie oder die Chemie auf die Quantenphysik reduzierbar ist. Während z. B. das Verhalten von Kochsalz (NaCl) zu Beginn des 20. Jahrhunderts mitunter als Paradebeispiel für »emergentes« Verhalten29 galt, da seine Bestandteile, also das Metall Natrium und das Gas Chlor, ja offensichtlich völlig andere Eigenschaften haben als Salz, wurde es mit der Quantenchemie schließlich möglich, die chemische Theor ie, die In einem der letzten Schachzüge in der Debatte verteidigen Dizadji-Bahmani, Frigg und Hartmann (2010) das Nagel’sche Reduktionsmodell gegen diverse etablierte Einwände. 29 Der Emergenzbegriff ist ebenfalls hoch umstritten (s. Stephan 1999). Eine gängige Position besteht darin, das Verhalten eines aus vielen Teilen zusammengesetzten Objektes dann als emergent zu bezeichnen, wenn es sich nicht aus der Angabe der Eigenschaften der einzelnen Bestandteile, der Zusammensetzungsregeln auf der Ebene dieser Bestandteile sowie der Struktur bzw. dem Bauplan des Gesamtsystems herleiten lässt (vgl. Broad 1925, 78). Ein zentraler Punkt der Debatte dreht sich um die Frage, ob die Nicht-Vorhersagbarkeit lediglich epistemischer Natur und damit abhängig vom jeweiligen Stand der Wissenschaften ist oder ob auch eine starke ontologische Lesart des Emergenzbegriffs plausibel ist. Im letzteren Falle wäre der Verweis auf einschlägige Beispiele entscheidend wichtig. 28
28
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
das Verhalten von Kochsalz beschreibt, komplett auf die Quantenchemie zu reduzieren. Hier hat also eine Theorienreduktion eine ontologische Frage gelöst, nämlich die Frage, ob das Verhalten von Kochsalz ein Fall emergenten Verhaltens ist. Wie Nagel jedoch gezeigt hat, sind bei Theor ienreduktionen oft sogenannte Brückengesetze unverzichtbar, welche eine Reduktionsbeziehung zwischen Theo rien, die mit ganz unterschiedlichen Begrifflichkeiten arbeiten, überhaupt erst ermöglichen. Wie die folgende Diskussion gezeigt hat, können es diese Brückengesetze aber in sich haben. Es sind keine harmlosen terminologischen Setzungen, sondern in ihnen können ontologische (Identitäts-)Behauptungen stecken, die von entscheidender Bedeutung für die Frage ontologischer Reduzierbarkeit sind, womit wir zu einer genuin naturphilosophischen Thematik vorstoßen. Bei ontologischer Reduzierbarkeit geht es nicht um formallogische Beziehungen zwischen Theorien, sondern um die Frage, ob gegebene Entitäten oder Bereiche oder Ebenen von anderen Entitäten oder Bereichen oder Ebenen vollständig bestimmt sind.30 Natürlich können die betreffenden Entitäten durch bestimmte Theorien beschrieben sein, wie etwa Thermodynamik und Statistische Physik, so dass die Frage der Theorienreduktion eng mit der der ontologischen Reduzierbarkeit zusammenhängen kann. Dies muss aber nicht der Fall sein, z. B. dann nicht, wenn die fraglichen Entitäten gar nicht durch Theor ien beschrieben werden, die eine Form haben, die die Untersuchung formallogischer Beziehungen zu anderen Theorien überhaupt zulässt. Eine Grundlage für die Behauptung ontologischer Reduzierbarkeit könnte z. B. darin bestehen, dass eine enge Korrelation zwischen zunächst wesensverschieden erscheinenden Vorgängen festgestellt wird. Beispiele hierfür lassen sich finden im Zusammenhang mit bildgebenden Verfahren in der Neurowissenschaft, wie der Magnetresonanztomographie (MRT). Wenn festgestellt wird, dass bestimmte Hirnregionen immer und nur dann aktiv sind, wenn sich eine Person an etwas erinnert, dann scheint es nahezuliegen, die funktionale Einheit »Gedächtnis« mit dem so lokalisierten Hirnareal zu identifizieren. Dies könnte ein Beispiel für eine ontologische Reduktion ohne Theorienreduktion sein, denn eine Vorstellung davon, wie das Gedächtnis funktioniert, liefert die MRT ja überhaupt nicht und erst recht keine ausgefeilte Theorie, die als Basis einer Theor ienreduktion fungieren könnte. Als Zwischenfazit soll an dieser Stelle ausreichen, dass die Debatte um die Theorienreduktion eine große Relevanz für die Frage ontologischer Reduzierbarkeit haben kann, aber nicht haben muss. Und dies ist eine generische Feststellung für das Verhältnis von allgemeiner Wissenschaftsphilosophie und ontologischen Untersuchungen in den Philosophien der Einzelwissenschaften. Überlegungen Ich verwende den Begriff »Entitäten«, wie in der heutigen (analytischen) Ontologie üblich, als vollkommen neutrale Bezeichnung für alle möglichen Typen von Seiendem. Beispiele für verschiedene Arten von Entitäten sind etwa Dinge, Eigenschaften und Ereignisse. 30
29
I. Einführung
der allgemeinen Wissenschaftsphilosophie können eine große Bedeutung für diese Spezialbereiche haben, ob dies tatsächlich der Fall ist, hängt aber oft vom Einzelfall ab. Abschließen möchte ich mit einer kurzen Bemerkung zur Rolle von ontologischen Überlegungen in Philosophien nicht-naturwissenschaftlicher Einzelwissenschaften. Obwohl die Philosophie der Sozial- und Wirtschaftswissenschaften wie auch die Philosophie der Geschichte im Prinzip gleichberechtigt zur Wissenschaftsphilosophie gehören wie auch die Philosophie der Physik oder der Biologie, ist es zumindest bisher ein Faktum, dass in Zeitschriften für Wissenschaftsphilosophie oder Philosophy of Science deutlich weniger zu diesen Feldern erscheint.31 Ontologische Fragen – wie zur Sozialontologie – werden auch in der allgemeinen Philosophie behandelt statt nur in der Wissenschaftsphilosophie beziehungsweise der Philosophie der Sozialwissenschaften; ganz im Gegensatz zur Ontologie der Naturwissenschaften, die einen erheblichen Teil der aktuellen Publikationen in den Philosophien der Einzelwissenschaften ausmacht und auch primär dort thematisiert wird. Nachdem wir nun ontologische Untersuchungen in den Philosophien der Einzelwissenschaften gegen die allgemeine philosophische Disziplin Ontologie abgegrenzt haben, bleibt zu klären, worin der Unterschied zu dem besteht, was die jeweiligen Einzelwissenschaften selbst tun. Kurz gesagt, ist der Fragentyp in den Philosophien der Einzelwissenschaften in zwei Hinsichten anders als in den Einzelwissenschaften selbst. Erstens sind die Fragen sehr grundsätzlich und zweitens sind sie im Normalfall nicht oder zumindest nicht unmittelbar empirisch entscheidbar. Was dies im Einzelnen bedeutet, werde ich im folgenden Hauptabschnitt untersuchen, in dem es allgemein um das Verhältnis der Philosophien der Einzelwissenschaften zu den Einzelwissenschaften geht.
4 Verhältnis der Philosophien der Einzelwissenschaften zu den Einzelwissenschaften Es gibt mindestens zwei verschiedene Sichtweisen zum Verhältnis der Philosophien der Einzelwissenschaften zu den Einzelwissenschaften. Einerseits werden Philosophien der Einzelwissenschaften als Fortsetzung der Einzelwissenschaften eingeordnet und zwar in dem Sinne, dass kein grundsätzlicher Unterschied zwischen beiden besteht. Abhängig davon, wie diese Fortsetzung gesehen wird, gibt es einige verschiedene Ansätze, die ich als »Kontinuitätsthesen« bezeichne. Dies könnte unter anderem daran liegen, dass die entsprechenden Fragen zum Teil an anderer Stelle diskutiert werden. Methodologische Fragen zu den Sozial- und Wirtschaftswissenschaften wie auch der Rechtswissenschaft und Geschichtswissenschaft werden traditionell schon innerhalb dieser Gebiete selbst stark untersucht, was bei den Naturwissenschaften in der Regel nicht der Fall ist. 31
30
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
Andererseits gibt es die wohl gängigere Sicht, dass Philosophie und mithin Wissenschaftsphilosophie grundsätzlich andere Fragen haben als die Einzelwissenschaften. Ich bezeichne die verschiedenen Ausgestaltungen dieser Sichtweise als »Differenzthesen«.
4.1 Kontinuitätsthesen Der wohl prominenteste Vertreter einer Kontinuitätsthese ist Quine, nach dessen Naturalisierungsprojekt – »philosophy is continuous with natural science« – es keinen prinzipiellen Unterschied zwischen Philosophie und Erfahrungswissenschaften gibt.32 Diese These ist ausdrücklich dem logischen Empirismus entgegengesetzt, welcher die Wissenschaftsphilosophie als rein analytisches Metageschäft sieht, das sich nicht mit Dingen und Sachverhalten in der realen Welt, sondern mit sprachlichen Entitäten, spezieller: wissenschaftlichen Theor ien beschäftigt. Quines Kontinuitätsthese liegt in seiner bekannten Kritik am logischen Empirismus begründet: Da es keine klare Trennung von analytischen und synthetischen Urteilen gebe33 , sei es auch nicht angemessen, (angeblich) synthetische, weil empirische Erkenntnisse der Einzelwissenschaften von (angeblich) analytischen, weil nur die Sprache bzw. Theor ien der Wissenschaften zergliedernde Erkenntnisse der Wissenschaftsphilosophie zu unterscheiden. Zugeschnitten auf unsere Thematik ist die These also folgende: Kontinuitätsthese 1: Es gibt keine scharfe Grenze zwischen den Philosophien der Einzelwissenschaften und den Einzelwissenschaften selbst, da dies eine klare Unterscheidung von analytischen Metabetrachtungen einerseits und synthetischem Erfahrungswissen andererseits voraussetzen würde. Kontinuitätsthese 1 bezieht sich aufgrund ihrer sehr grundsätzlichen Begründung auf alle Bereiche der Wissenschaftsphilosophie. Hasok Chang (1999) vertritt ebenfalls eine Kontinuitätsthese, jedoch ist er weniger radikal als Quine, da er nur für ein Tätigkeitsfeld der Wissenschaftsphilosophie ein Kontinuum von den Philosophien der Einzelwissenschaften zu den entsprechenden Einzelwissenschaften sieht, auch wenn Chang dieses Tätigkeitsfeld anscheinend für das wichtigste hält. Chang argumentiert, dass die Wissenschaftsphilosophie in ihrem »komplementären Modus« dieselben Typen von Untersuchungen durchführt wie in den Einzelwissenschaften.34 Der Unterschied sei, dass die Fragen, die die Wis Ob Quines Ansatz einer naturalisierten Erkenntnistheor ie Hand in Hand geht mit einer naturalisierten Wissenschaftsphilosophie, ist eine kontroverse Frage, die hier nicht weiter verfolgt werden kann. 33 Die Dichotomie analytisch/synthetisch ist das erste »Dogma« des logischen Empirismus, das Quine (1951) angreift. 34 Genau genommen geht es Chang nicht um Wissenschaftsphilosophie allein, sondern immer um »HPS«, also »History and Philosophy of Science«. Für den Zusammenhang, 32
31
I. Einführung
senschaftsphilosophie bearbeitet, gegenwärtig in den Einzelwissenschaften nicht verfolgt werden, da diese primär an einem oder wenigen Paradigmen arbeiten: »…HPS in its complementary mode is not about science. Instead, its aims are continuous with the aims of science itself, although the specific questions that it addresses are precisely those not addressed by current science.« (S. 420)
Als »komplementär« bezeichnet Chang diesen Modus deswegen, da er einen Ausweg aus dem Dilemma darstellt, dass Wissenschaften einerseits nur effektiv funktionieren, wenn sie in den Phasen, die Kuhn normal science nennt, das herrschende Paradigma unhinterfragt akzeptieren und gegen Kritik abschotten, andererseits bei diesem dogmatischen Vorgehen potentiell kostbare Alternativansätze absterben lassen. Genau hier kann Wissenschaftsphilosophie unterstützend oder »komplementär« wirken, indem sie bedrohte Alternativansätze weiter kultiviert und untersucht. Philosophien der Einzelwissenschaften wären danach eine Fortsetzung der Einzelwissenschaften, so dass Philosophie der Einzelwissenschaften und Einzelwissenschaften ein Kontinuum bilden würden: Kontinuitätsthese 2: Philosophien der Einzelwissenschaften in ihrem »komplementären Modus« gleichen dem, was Einzelwissenschaften in revolutionären Phasen tun. Dabei beschäftigen sie sich mit den Theor ien, die mit den gegenwärtig bestimmenden Paradigmen der Einzelwissenschaften nicht verträglich sind und eine effektive normalwissenschaftliche Arbeit stören würden. Chang weist zwar ausdrücklich darauf hin, dass es neben dem »komplementären Modus« der Wissenschaftsphilosophie noch diverse andere Modi gibt. Hier interessiert aber eher die Frage, ob es überhaupt einen fließenden Übergang zwischen Philosophien der Einzelwissenschaften und Einzelwissenschaften gibt, und sei es auch nur in bestimmten Feldern oder Hinsichten. Eine weitere Art von Kontinuitätsthese besagt, dass ein wesentlicher Teil der Philosophien der Einzelwissenschaften mit Grundlagenfragen bezüglich der Einzelwissenschaften befasst ist, die in gleicher Weise auch in den betreffenden Wissenschaften selbst faktisch verfolgt werden (und nicht nur verfolgt werden könnten wie in Changs Sicht). Danach gäbe es einen Überschneidungsbereich von gemeinsamen Themen, wobei es weitgehend bedeutungslos ist, ob diese Themen von jemandem behandelt werden, der offiziell z. B. als Philosoph der Sozialwissenschaften angestellt ist oder als Sozialwissenschaftler. Damit wären Ergebnisse der Philosophien der Einzelwissenschaften auch unmittelbar für die Einzelwissenschaften selbst relevant. Tatsächlich ist die Abgrenzung von Philosophien der Einzelwissenschaften und den entsprechenden Einzelwissenschaften auch wesentlich weniger trennscharf als die zwischen allgemeiner Wissenschaftsphilosophie und den Wissenschaften. der uns hier interessiert, macht dies allerdings keinen wesentlichen Unterschied. Siehe auch die Diskussion von Changs Position in Reydon/Hoyningen-Huene (2011, 136 – 141).
32
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
Kontinuitätsthese 3: Philosophien der Einzelwissenschaften beschäftigen sich u. a. mit Grundlagenfragen bezüglich der Einzelwissenschaften, die teilweise auch in den betreffenden Wissenschaften selbst untersucht werden. Auch wenn die Philosophien der Einzelwissenschaften dabei mitunter etwas anders vorgehen als die Einzelwissenschaften, sind die Ziele weitgehend dieselben. Neben dem berühmten Feld der Grundlagen der Quantenmechanik gibt es seit wenigen Jahren z. B. auch im Bereich der Klimaforschung interessante Beispiele. So verwendet Frigg (2015, Sektion 6) eine philosophische Diskussion des »principle of indifference«, um zu zeigen, dass gewisse Grundannahmen, die in den Berechnungen gängiger Weise gemacht werden, nicht haltbar sind (↑ Philosophie der Klimawissenschaften). Eine vierte Spielart der Kontinuitätsthese besagt, dass heute ein fließender Übergang zwischen Philosophien der Einzelwissenschaften und den entsprechenden Einzelwissenschaften besteht, da Philosophien der Einzelwissenschaften in vielen Bereichen stark spezialisiert sind, was mit formal anspruchsvolleren Arbeitsweisen einhergeht, die genau so auch in den Einzelwissenschaften selbst eingesetzt werden – wie etwa Reiss (2013, 2 – 6) argumentiert. So werden in der Philosophie der Wirtschaftswissenschaften heute oft spieltheoretische Methoden eingesetzt und in der Philosophie der Physik formale Beweise geführt. Kontinuitätsthese 4: Philosophien der Einzelwissenschaften sind heute so stark spezialisiert und benutzen formal so fortgeschrittene, oft mathematische Methoden, dass eine scharfe Grenze zu den betreffenden Einzelwissenschaften nicht mehr gezogen werden kann. Es spricht also einiges dafür, die Arbeit in den Philosophien der Einzelwissenschaften und in den Einzelwissenschaften selbst als Kontinuum zu sehen, und zwar sowohl in den Inhalten/Fragestellungen wie auch in den Methoden. In einigen Teilbereichen ist dies auch zweifellos ein Faktum. Die Frage ist allerdings, ob Kontinuität eher die Regel oder die Ausnahme ist. Während wohl die Mehrheit der PhilosophInnen der Einzelwissenschaften eine Kontinuitätsthese für richtig hält (oft These 3), würden allgemeine WissenschaftsphilosophInnen wahrscheinlich mehrheitlich eine Differenzthese unterschreiben. Worin die Differenz gesehen wird, schauen wir uns nun genauer an.
4.2 Differenzthesen Wie bereits aus Quines oben erläuterter Kritik an den logischen Empiristen klar wurde, vertraten Letztere dezidiert eine Differenzthese. So schreibt Carnap (1934): »Philosophie ist Wissenschaftslogik, d. h. logische Analyse der Begriffe, Sätze, Beweise, Theorien der Wissenschaft, […]« (S. 111) »[…] sie ist formale Strukturtheorie der Wissenschaftssprache« (S. 115). 33
I. Einführung
Das, was für ihn von naturphilosophischen, also ontologischen Fragen überhaupt verbleibt, sieht Carnap (1950) als rein sprachinterne Untersuchungen. Die Differenzthese des Wiener Kreises einerseits und Quines Kontinuitätsthese andererseits sind die beiden unversöhnlichen Antipoden in unserer Debatte. Der generellen Sicht des Wiener Kreises darauf, wie sich Wissenschaftsphilosophie von den Wissenschaften selbst unterscheidet, dürften auch heute noch viele Wissenschaftsphilosophen zustimmen – trotz aller Kritik in vielen anderen Hinsichten. Nach dieser Sicht sind Philosophien der Einzelwissenschaften also Metatheorien. Sie stellen keine unmittelbaren Behauptungen über die Welt auf, sondern wählen einen »Zugang zweiter Stufe« (Carrier 2007, 15), d. h. vermittels der Reflektion auf die Methoden und Ergebnisse der Wissenschaften. Nach dieser Sicht sind die Fragen, die Vorgehensweise und die Ziele der Wissenschaftsphilosophen prinzipiell anders als die der Einzelwissenschaftler und treten daher auch in keine Konkurrenz. Man könnte nun annehmen, dass die Wissenschaftler doch am besten angeben können müssten, was sie tun und was ihre Ergebnisse uns über die Welt sagen. Tatsächlich ist dies aber nicht der Fall, auch wenn Wissenschaftler das mitunter ganz anders sehen. Ein kurzer Blick auf analoge Arten von Metabetrachtungen macht jedoch klar, dass diese Behauptung weder ehrabschneiderisch noch erstaunlich ist. Auch Fußballspieler und Künstler sind nicht (zumindest nicht qua Fußballspieler und Künstler) am besten befähigt, über Ihre Arbeit zu sprechen, sie müssen sie nur gut beherrschen. Wissenschaftsphilosophie reflektiert über die Methoden, Begriffe und Inhalte der Wissenschaften und verschafft so der Gesellschaft Klarheit darüber, was Wissenschaft tut und welches Bild von der Welt sie zeichnet. Dies mag auch für den einen oder anderen Wissenschaftler von Interesse sein, nur in wenigen Fällen jedoch für den Wissenschaftler qua Wissenschaftler.35 Formulieren wir die erste Differenzthese, die ihren Ursprung im Wiener Kreis hat, nochmal spezifisch mit Blick auf unsere Thematik: Differenzthese 1: Philosophien der Einzelwissenschaften befinden sich auf einer Metaebene bezüglich der jeweils betrachteten Einzelwissenschaften. Anders als Letztere streben Philosophien der Einzelwissenschaften kein Sachwissen über die Welt an, sondern reflektieren in analytischer Weise über die Methoden, Begriffe und Inhalte der Wissenschaften.
Oft wird in diesem Zusammenhang der eingängige Vergleich angeführt (so etwa in Carrier 2007, 16), dass gute Wissenschaftsphilosophie in erster Linie nicht für die Wissenschaften selbst nützlich sein muss, genauso wie die Arbeit eines Ornithologen nicht an ihrem Nutzen für die untersuchten Vögel gemessen wird. Gemeinhin wird dieser Vergleich Richard Feynman zugeschrieben, der damit eigentlich die Wissenschaftstheor ie diskreditieren wollte. Die genaue Quelle ist leider schwer auszumachen; eventuell ein Vortrag. Weinberg (1987, 433) schreibt: »I’ve heard the remark (though I forget the source) that the philosophy of science is about as useful to scientists as ornithology is to birds«. 35
34
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
Solange es um die Methoden der Wissenschaften geht, ist es wohl noch relativ unkontrovers, dass jemand, der Methoden analysiert, nicht in direkter Konkurrenz steht zu jemandem, der die Methoden professionell anwendet. Die jeweiligen Ziele sind offensichtlich unterschiedlich: Während der eine auf eine Sache zielt, die mit Hilfe bestimmter Methoden erschlossen werden soll, geht es dem anderen um die Explikation und Evaluation dieser Methoden selbst. Aber wie sieht es aus, wenn der Wissenschaftsphilosoph die Inhalte der Wissenschaften in den Blick nimmt, was insbesondere in den Philosophien der Einzelwissenschaften detailliert geschieht? Ist dann wirklich noch so klar zu sagen, was Philosophie und was Einzelwissenschaft ist? Geht es nicht beispielsweise sowohl der theoretischen Physikerin wie der Philosophin der Physik darum herauszufinden, was unsere Theorien uns über die Beschaffenheit der Welt sagen? Auch die meisten theoretisch arbeitenden Einzelwissenschaftler suchen ja nicht nach neuen Theor ien, sondern sie versuchen zu entschlüsseln, was die bestehenden Theor ien uns über die Welt sagen. Und was anderes tut der Philosoph der Einzelwissenschaften, der sich über die Ontologie der betreffenden Einzelwissenschaften Gedanken macht? So gesehen besteht in Hinsicht auf ontologische Fragen eine gewisse Kontinuität von Einzelwissenschaften und Philosophien der Einzelwissenschaften. Dennoch sind die jeweiligen Fragen unterscheidbar. Grob gesagt nimmt die Ontologie allgemein wie auch ontologische Untersuchungen in den Philosophien der Einzelwissenschaften eine grundsätzlichere Perspektive ein als die jeweils betrachteten Einzelwissenschaften. Die Ontologie fragt nicht, welche Dinge beziehungsweise speziellen Typen von Dingen (z. B. Elektronen oder Quarks) es in der Welt gibt, welche Eigenschaften sie haben oder welche Sachverhalte bestehen. Stattdessen fragt die Ontologie etwa, was eigentlich ein Ding, eine Eigenschaft oder ein Sachverhalt ist und in welchen Abhängigkeits- und Reduktionsbeziehungen diese Typen von Entitäten gegebenenfalls zueinander stehen. Weiter fragt die Ontologie, ob Dinge überhaupt als fundamentale Art des Seienden, als ›Kategorie‹, angenommen werden sollen oder ob es nicht angemessener ist, z. B. nur Eigenschaften oder Relationen als fundamental anzunehmen und Dinge als zusammengesetzte Entitäten. Ontologische Untersuchungen in den Philosophien der Einzelwissenschaften bauen oft auf diesen allgemeinen philosophischen Überlegungen auf und bringen Sie in Kontakt mit einzelwissenschaftlichen Ergebnissen. Sie erfüllen damit eine entscheidende Mittlerfunktion, die sowohl der allgemeine Ontologe als auch der Einzelwissenschaftler nicht erfüllen kann: der allgemeine Ontologe nicht, da ihm in aller Regel die Fachkenntnis bezüglich der Einzelwissenschaften fehlt, und der Einzelwissenschaftler nicht, da er mit der abstrakten Perspektive der Ontologie nicht vertraut ist und sie ihm für seine Arbeit normalerweise auch nicht hilfreich wäre. Gehen wir die Mittlerfunktion der Philosophien der Einzelwissenschaften noch einmal etwas genauer von beiden Seiten an. Beginnen wir mit der Frage, welche Relevanz die Einzelwissenschaften für die allgemeine Ontologie haben und wieso die Philosophien der Einzelwissen35
I. Einführung
schaften entscheidend sind, um das, was an den Einzelwissenschaften für die allgemeine Ontologie relevant ist, mit der nötigen Fachkenntnis zu identifizieren. In der Ontologie ist die Ansicht heutzutage sehr gängig, dass die Ontologie als formale Disziplin den Einzelwissenschaften zwar begrifflich vorgeordnet ist, sich an diesen aber letztlich auch bewähren muss. David Armstrong (1989, S. xi) spricht hierbei von empirical metaphysics. Eine auch für die allgemeine Ontologie wesentliche Frage ist daher beispielsweise, ob die gemäß der Quantenphysik fundamentalen Dinge (oder »Substanzen«) überhaupt als Individuen im Sinne von raumzeitlich unterscheidbaren Entitäten aufgefasst werden können. 36 Die Antwort auf diese Frage hat grundlegende Konsequenzen für die allgemeine Ontologie, da nach der traditionellen aristotelischen Sicht Dinge (oder »Substanzen«) die primäre Kategorie bilden. Wenn diese Sicht aber inkompatibel mit der besten verfügbaren wissenschaftlichen Theorie der materiellen Welt sein soll, muss eine Ontologie, die die Ergebnisse der empirischen Wissenschaften ernst nimmt, reagieren. In der anderen Richtung geht es um die Frage, auf welche Weise Philosophien der Einzelwissenschaften eine Mittlerfunktion zwischen Einzelwissenschaften und allgemeiner Ontologie wahrnehmen. Auch Einzelwissenschaftler stellen sich mitunter die Frage, mit welchem generellen Typ von Gegenständen sie es eigentlich zu tun haben. Sie können sich beispielsweise bezüglich Genen, Elektronen oder Nutzen interessante ontologische Fragen stellen. Haben wir es mit konkreten raum-zeitlichen Entitäten zu tun, sogar mit Individuen, oder eher mit Abstrakta? Sind sie einer der vertrauten Kategorien zuzuordnen, wie etwa Dingen, Eigenschaften und Relationen? Solche Einordnungen erfordern eine abstrakte Perspektive, mit der Einzelwissenschaftler in der Regel nicht vertraut sind. Für ihre konkrete Arbeit mögen diese Fragen auch keine große Rolle spielen, aber zumindest beim Kaffee oder in abendlicher Runde kommen solche Fragen auch unter Einzelwissenschaftlern nicht selten doch auf. Und wenn dann zufällig ein Philosoph der Einzelwissenschaften vor Ort ist, können sie auch in diese Richtung hilfreich sein. Dies führt uns zu einer zweiten Differenzthese, die einerseits von der metaphysikkritischen Haltung des logischen Empirismus abrückt, andererseits aber die Grundeinstellung teilt, dass empirische Wissenschaften von größter Bedeutung für die Philosophie sind: Differenzthese 2: Wenn Philosophien der Einzelwissenschaften die Inhalte von Wissenschaften untersuchen, so geht es nicht bloß um theor ieinterne Analysen, sondern es wird auf empirisch informierte Weise Ontologie betrieben. Im Vergleich zu den Einzelwissenschaften tun sie dies jedoch auf eine abstraktere Weise, Lowe (1998, Kap. 3) etwa, der im Prinzip eine vergleichsweise traditionelle (neoaristotelische) Ontologie vertritt, argumentiert dafür, Quantenobjekte als sogenannte »Quasi-Objekte« einzuordnen. Esfeld (2001) diskutiert Lowes Vorschlag eingehender aus der Sicht der Philosophie der Physik. 36
36
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
die eine direkte Anbindung an allgemeine ontologische Überlegungen hat. Sie erfüllen dabei eine unverzichtbare Mittlerfunktion zwischen allgemeiner Ontologie und Einzelwissenschaften. Abschließend möchte ich für eine Sichtweise plädieren, die den Gegensatz von Kontinuitätsthesen und Differenzthesen überwindet. In revolutionären Umbruchphasen, wie etwa der Entstehungszeit der Quantenphysik, lässt sich kaum bestreiten, dass es oft ein Kontinuum von Einzelwissenschaften und Philosophien der Einzelwissenschaften gibt. Dies liegt aber im Wesentlichen daran, dass sich Einzelwissenschaftler sozusagen in ihrer Not Gedanken machen, die sich sonst nur Wissenschaftsphilosophen machen. Sobald sich die Wogen geglättet haben, indem sich ein neues Paradigma durchgesetzt hat, verfliegt der philosophische Eifer der Einzelwissenschaftler in der Regel jedoch wieder. Nicht selten zieht dann sogar eine regelrecht philosophiefeindliche Stimmung ein.37 Ich hielte es jedoch für eine unnötige und deskriptiv schlicht falsche Engführung, wenn man Philosophien der Einzelwissenschaften vom Typ her auf das einschränken wollte, was Einzelwissenschaftler in revolutionären Phasen tun. 38 Die Tatsache, dass Einzelwissenschaftler in bestimmten Phasen ähnliche Überlegungen anstellen wie Wissenschaftsphilosophen, bedeutet nicht im Umkehrschluss, dass Wissenschaftsphilosophen nur oder wenigstens primär das machen, was Einzelwissenschaftler in Umbruchphasen tun. Sie tun dies zweifellos auch, sonst ergäbe die erste Aussage ja auch keinen Sinn, aber Wissenschaftsphilosophen tun noch vieles andere, was nichts mit revolutionärem Theor ienwandel zu tun hat. Man kann sogar sagen, dass es in der Wissenschaftsphilosophie eine gewisse Tradition gibt, sich wissenschaftlichen Theor ien erst dann umfassend zu widmen, wenn sie eine gewisse Reife und entsprechend Akzeptanz erlangt haben. Es ist kein Zufall, dass es bisher kaum Philosophen der Physik gibt, die sich mit der hoch umstrittenen Stringtheor ie beschäftigen, und wenn, dann eher aus einer methodologischen Perspektive. Dies bringt mich zu einer letzten wertenden Aussage, dass es meines Erachtens wünschenswert wäre, wenn Philosophinnen und Philosophen der Einzelwissenschaften sich mehr in das einmischten, was dort geschieht, wo die Theor ien von morgen entstehen. Ein Beispiel hierfür werden wir im Kapitel zur Philosophie der Physik kennenlernen, in dem es insbesondere auch um aktuelle wissenschaftsphilosophische Untersu Ein Beispiel hierfür ist die relativ philosophiefeindliche Einstellung der zweiten und dritten Generation von Physikern nach den Gründervätern der Quantenmechanik, welche David Mermin (1989) später mit dem Slogan »Shut up and calculate« prägnant wiedergab. Mermin erläutert: »Most of us, in fact, feel irritated, bored or downright uncomfortable when asked to articulate what we really think about quantum mechanics« (S. 9). 38 Mitunter klingt es fast so, als wolle Chang (1999) das tatsächlich sagen. Zumindest benennt Chang bei seiner Liste der Tätigkeiten von History and Philosophy of Science keine, die sich wie der von ihm favorisierte komplementäre Modus mit den Inhalten der Wissenschaften beschäftigt, ohne dann auch gleich dasselbe zu tun wie die betreffende Wissenschaft. 37
37
I. Einführung
chungen zu Quantengravitationstheor ien geht, also um Theor ien, die eines Tages die heute beherrschende Quantenfeldtheor ie ablösen oder zumindest wesentlich ergänzen könnten. Man tut wohl gut daran, den Wert der Wissenschaftsphilosophie nicht an ihrer Nützlichkeit für die Wissenschaften selbst zu bemessen, aber dies bedeutet nicht, dass es so einen Nutzen gelegentlich geben kann und auch geben sollte, und zwar sowohl was die Methoden als auch was die Inhalte der Wissenschaften betrifft.
5 Zwei Beispiele Bei methodologischen Fragen in den Philosophien der Einzelwissenschaften ist primär das Verhältnis bzw. die Abgrenzung zur allgemeinen Wissenschaftsphilosophie interessant. Anders sieht dies bei ontologischen Fragen in den Philosophien der Einzelwissenschaften aus. Im Verhältnis zur allgemeinen Wissenschaftsphilosophie liegt eine relativ klare Arbeitsteilung vor: Die Interpretation einzelwissenschaftlicher Ergebnisse ist Aufgabe der Philosophien der Einzelwissenschaften, die Beschäftigung mit allgemeinen metaphysischen Themen wie Kausalität und Naturgesetze ist Aufgabe der allgemeinen Wissenschaftsphilosophie (sofern es nicht spezifisch z. B. um Kausalität in der Physik geht). Dagegen ist die Abgrenzung ontologischer Untersuchungen in den Philosophien der Einzelwissenschaften von den betreffenden Einzelwissenschaften selbst weniger offensichtlich. In den folgenden beiden Beispielen – Modellierung von Märkten und Ontologie der Quantenphysik – soll daher insbesondere die jeweils weniger triviale und damit interessantere Abgrenzung etwas detaillierter im Einzelfall untersucht werden. Interessanterweise ist es beim ersten Beispiel so, dass methodologische Fragen in den Wirtschaftswissenschaften, »obwohl« es sich um klar philosophische Fragen handelt, oft von den Wirtschaftswissenschaftlern selbst untersucht werden. Während in der Frühphase der Quantenphysik Entsprechendes zu beobachten war, beschäftigen sich heute überwiegend Philosophen mit methodologischen Fragen der Physik. Dieser Unterschied liegt höchstwahrscheinlich daran, dass die methodologischen Grundlagen ihrer Disziplin unter Physikern vergleichsweise wenig umstritten sind, wohingegen bei Wirtschaftswissenschaftlern (wie auch Soziologen, Historikern u. v. m.) oft grundlegende Differenzen bei der Frage bestehen, wie überhaupt wissenschaftlich sauber vorgegangen werden soll – was angesichts der großen Vielfalt an verfügbaren Methoden auch wenig erstaunlich ist. Aus diesem Grunde stammen einige der Argumente im Folgenden von Wirtschaftswissenschaftlern selbst, da es nicht sinnvoll wäre, diese Beiträge von denen der Fachphilosophen zu trennen. Es handelt sich um dieselben philosophischen Fragen.
38
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
5.1 Methoden der Marktmodellierung Märkte sind ein, wenn nicht das zentrale Thema der Wirtschaftswissenschaften.39 Sie sind in einer freien Wirtschaft von entscheidender Bedeutung dafür, zu welchen Preisen Produkte, Dienstleistungen und Wertpapiere gehandelt werden. Wie in kaum einer anderen Wissenschaft gibt es in der Ökonomie einen seit vielen Jahrzehnten dominierenden Erklärungsansatz, die sogenannte neoklassische Ökonomik.40 Ein zentraler Bestandteil der neoklassischen Ökonomik ist der Homo oeconomicus, ein absolut zweckrationaler Mensch, der eine vollständige, transitive Präferenzordnung hat, immer das tut, was seinen Nutzen am besten befördert, dafür alles Relevante weiß und in der Lage ist, alle notwendigen Berechnungen anzustellen, um herauszubekommen, was die für ihn beste Handlung ist. In einem freien Markt stellt sich schließlich der Preis ein, der in einer Gruppe von anbietenden und nachfragenden Nutzenmaximierern das Gleichgewicht darstellt. Offensichtlich ist der homo oeconomicus eine Fiktion. Niemand weiß alles und kann alles berechnen und kein Mensch handelt immer zweckrational mit unveränderlichen Präferenzen. Wieso also klammern sich die Wirtschaftswissenschaften an dieses Erklärungsmodell? Einerseits gibt es natürlich leicht erkennbare wissenschaftssoziologische Gründe. Die meisten Wissenschaftler geben ein Paradigma ungern auf, mit dem sie groß geworden sind, das sie beherrschen und mit dem ihre eigenen Erfolge verbunden sind. Auch mögen Ökonomen tendenziell konservativ und übermäßig von der Ubiquität zweckrationalen Verhaltens überzeugt sein. Aber dies sind nicht die einzigen Gründe und unter Umständen nicht einmal die wichtigsten. Es gibt auch ganz berechtigte Gründe dafür, mit unrealistischen Modellen zu arbeiten. An dieser Stelle tritt die Philosophie der Wirtschaftswissenschaften auf den Plan. Dabei geht es nicht darum, wissenschaftliche Theorien zu interpretieren (wie beim nächsten Beispiel, der Quantenphysik), sondern es geht darum, die Methodologie der Wirtschaftswissenschaften zu untersuchen. Es geht also um ein Kerngeschäft der Wissenschaftsphilosophie. Es gibt eine ganze Reihe wissenschaftsphilosophischer Hauptthemen, die für die Bewertung der neoklassischen Ökonomik einschlägig sind. Am umfassendsten ist die Frage, was überhaupt eine Erklärung ist.41 Spezieller, aber auch noch Dabei ist primär die Volkswirtschaftslehre im Blick. Die Betriebswirtschaftslehre wird dagegen in der Philosophie der Wirtschaftswissenschaften wenig beachtet, wohl weil sie eher pragmatische Handlungsanweisungen formuliert, als Theor ien über die Welt aufzustellen. 40 Interessanterweise wurde die Dominanz der neoklassischen Ökonomik kürzlich von Studentenseite massiv kritisiert (s. Pennekamp 2012), während die kritischen Stimmen auf der Seite der Forscher deutlich langsamer an Gewicht gewinnen, auch wenn sie inzwischen kaum mehr zu überhören sind, wie etwa bei der letzten Nobelpreisträgertagung in Lindau deutlich wurde. 41 Woodward (2000) untersucht den Erklärungsbegriff speziell mit Blick auf die verschiedenen Einzelwissenschaften. 39
39
I. Einführung
wichtiger sind die Themen Idealisierung und Modelle. Beide Themen sind erst in den letzten beiden Jahrzehnten ins Zentrum der Wissenschaftsphilosophie gerückt, was nicht zuletzt mit ihrer Bedeutung für die Wirtschaftswissenschaften zu tun hat.42 Dabei ist erstens klar geworden, dass Modelle ein integraler Bestandteil von Wissenschaft sind,43 und zweitens, dass Idealisierungen, die ja definitionsgemäß unrealistische und daher falsche Annahmen über die Welt machen, keinesfalls per se die Güte der betreffenden Theor ie beziehungsweise des betreffenden Modells beschädigen.44 Schon lange bevor dies in der Wissenschaftsphilosophie zu einem Thema wurde, argumentierte Milton Friedman (1953) in einer der meistdiskutierten Arbeiten zur Methodologie der Wirtschaftswissenschaften, dass die Güte einer Theor ie einzig durch ihren Vorhersageerfolg bestimmt ist und nicht dadurch, wie realistisch ihre Annahmen sind. Daran hat sich eine umfangreiche und sehr kontroverse Debatte angeschlossen, die im Grunde bis heute anhält. Die auf dem Homo-oeconomicus-Erklärungsansatz beruhende neoklassische Ökonomik scheint allerdings nicht nur auf die harmlose Weise unrealistisch zu sein wie fast alle Theor ien, die mit Idealisierungen arbeiten, um berechenbare Ergebnisse zu liefern, die im gewünschten Rahmen auch annährend richtig sind. Dies zeigt sich besonders eklatant, wenn es um Finanzmärkte geht. Nach dem Homo-oeconomicus-Ansatz werden Crashs immer nur durch dramatische äußere Ereignisse hervorgerufen. Es gibt aber immer wieder Crashs, die aus dem Nichts zu kommen scheinen, wie etwa am 19. Oktober 1987, dem »Schwarzen Montag«, als der amerikanische Leitindex Dow Jones an einem Tag fast ein Viertel seines Wertes verlor. Da solche Crashs nicht durch plötzliche Veränderungen der Randbedingungen, wie etwa finanzpolitische Entscheidungen, Naturkatastrophen oder Kriege erklärt werden können, muss es interne Gründe geben, warum die Händler an diesem Tag unbedingt 600 Mio. US -Aktien auf einmal verkaufen wollten. Da es nach dem Homo-oeconomicus-Ansatz genau eine Weise gibt, im Sinne einer Nutzenmaximierung rational zu handeln, gibt es auch nur einen Grundtypen von Marktteilnehmern, einen »repräsentativen Robinson Crusoe« (Lux/Westerhoff 2009). In diesem Robinson-Crusoe-Modell spielt die Wechselwirkung mit anderen Akteuren keine wesentliche Rolle. Jeder berechnet ganz für sich alleine, welche Handlung angesichts der wirtschaftlichen Rahmendaten den größten Nutzen verspricht, ohne Notiz davon zu nehmen, wie sich andere Markteilnehmer verhalten. Und alle tun dies auf die gleiche Weise. Seit einigen Jahren gibt es nun eine sowohl in den Wirtschaftswissenschaften als auch in der Philosophie der Wirtschaftswissenschaften immer intensiver werdende Debatte darum, ob der Homo-oeconomicus-Ansatz eventuell nicht nur unvermeidbare Idealisierungen macht, sondern entscheidende Aspekte von Finanz Siehe etwa Hamminga und De Marchi (1994) und Cartwright (1999). Morgan/Morrison (1999) und Weisberg (2013). 44 Wimsatt (1987) diskutiert diese Frage mit Blick auf die Biologie und Mäki (2011) bezüglich der Wirtschaftswissenschaften. 42
43
40
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
märkten systematisch falsch modelliert. So gibt es insbesondere verschiedene Typen von Händlern, die nicht unbeeindruckt davon sind, wie erfolgreich ihre Kollegen sind und wie diese sich jeweils entscheiden. Wenn die eigenen Strategien nicht mehr gut funktionieren, wird die Strategie schließlich geändert, wobei es sich bei den Markteilnehmern nicht einmal um emotionale Menschen, sondern auch um Computer handeln kann. Dies kann nun dazu führen, dass auch ohne größere Änderungen der Randbedingungen kaskadenmäßig ein sehr schnell wachsender Anteil der Markteilnehmer auf dieselbe Strategie einschwenkt und immer mehr andere mitzieht, mit dem Effekt, dass sich die Aktienkurse auf eine Weise entwickeln, die mit dem klassischen Ansatz des in seinem Verhalten statischen repräsentativen Nutzenmaximierers nicht erklärbar ist. Abgesehen davon, dass diese Überlegungen für die Wirtschaftswissenschaften selbst von unmittelbarer Bedeutung sind, ist es aus wissenschaftsphilosophischer Sicht besonders reizvoll, dass es strukturell ähnliche Dynamiken auch z. B. in der Physik gibt, wenn es um die Entstehung von Phasenübergängen geht. Insbesondere diese Einsicht ist Grundlage der sogenannten Econophysics, einer relativ neuen Disziplin, die ökonomische Themen mithilfe von Modellen und Analyseverfahren aus der Physik untersucht.
5.2 Ontologie der Quantenphysik Wie auch beim vorherigen Beispiel geht es bei dem zweiten Beispiel nicht um eine in irgendeinem Sinne vollständige Darstellung einer Debatte. Es geht vielmehr darum, das große Spektrum der Tätigkeiten in den Philosophien der Einzelwissenschaften an zwei ausführlicheren Beispielen greifbar zu machen und dabei das Verhältnis von Philosophien der Einzelwissenschaften einerseits zur allgemeinen Wissenschaftsphilosophie und andererseits zu den Einzelwissenschaften zu illustrieren. Eine besonders facettenreiche Debatte in der Philosophie der Physik betrifft die Frage, was die fundamentalen Objekte sind, die die Quantenphysik45 beschreibt. Aus der Schule ist wohl jedem noch der sogenannte Welle-Teilchen-Dualismus bekannt, wonach die Quantenmechanik weder einfach von Wellen noch von Teilchen handelt, sondern von Objekten, die irgendwie beides gleichzeitig sind und je nach Kontext, d. h. insbesondere je nach Versuchsaufbau, mal ihre eine und mal ihre andere Seite zeigen. Diese Thematik hat auch schon die Begründer der Quantenmechanik umgetrieben und in der berüchtigten Bohr’schen Interpretation der Quantenmechanik ihren markantesten, wenn auch nicht gerade klarsten Ausdruck gefunden. Ich verwende den Ausdruck Quantenphysik als die umfassendste Bezeichnung, die sowohl die nicht-relativistische Quantenmechanik als auch die relativistische Quantenfeldtheor ie einschließt. 45
41
I. Einführung
Seit einigen Jahren wird die Debatte, was im ontologischen Sinne die fundamentalen Objekte sind, welche die Quantenphysik beschreibt, primär dort geführt, wo sie hingehört, nämlich in der Philosophie der Physik, wobei die Grundlage nicht mehr die ältere und aus verschiedenen Gründen nur eingeschränkt gültige Quantenmechanik, sondern die Quantenfeldtheor ie ist. Letztere ist die gegenwärtige Standardtheorie, wenn es um die fundamentale Ebene der materiellen Welt geht. Es kann sehr gut sein, dass die Quantenfeldtheor ie eines Tages ihrerseits durch eine bessere Theor ie abgelöst wird, die insbesondere die ausstehende Vereinigung mit der letzten bisher nicht durch sie beschriebenen Grundkraft – der Gravitationskraft – verwirklicht. Keine der gegenwärtigen Kandidatinnen, wie etwa die Stringtheor ie oder eine der diversen Quantengravitationstheor ien hat jedoch den Sprung zu einer allgemein akzeptierten Theor ie geschafft. Allerdings liegt auch die Quantenfeldtheor ie selbst in verschiedenen Formulierungen vor und es ist nicht unkontrovers, welche davon für den Philosophen primär relevant ist. Hierin liegt auch bereits eine nicht-triviale Aufgabe für den Philosophen der Einzelwissenschaften: zu evaluieren, welchen Status verschiedene (möglicherweise rivalisierende) Theor ien haben und welche ontologische Relevanz ihnen jeweils zukommt. Johansson/Matsubara (2011) etwa bewerten die Stringtheor ie aus verschiedenen wissenschaftsphilosophischen Perspektiven (z. B. auf Basis der Arbeiten von Kuhn und Lakatos). Bei dieser Studie handelt es sich um eine direkte Anwendung von Ansätzen aus der allgemeinen Wissenschaftsphilosophie.46 In der anderen Richtung untersucht Dawid (2013, Kap. 7), welche Konsequenzen die Stringtheor ie einerseits für die Debatte zum wissenschaftlichen Realismus in der allgemeinen Wissenschaftsphilosophie hat und plädiert auf Grundlage dieser Überlegungen für eine bestimmte strukturenrealistische Interpretation der Stringtheor ie. Die Philosophie der Physik sollte diese letzten Entwicklungen zweifelllos nicht nur im Auge behalten, sondern auch reflektierend und eventuell sogar unterstützend begleiten. Es ist allerdings gute Tradition, dass sich die Philosophie (der Physik) besonders auf die Interpretation derjenigen Theor ien konzentriert, die eine gewisse Abgeschlossenheit und Akzeptanz erreicht haben, auch wenn nicht alle Probleme gelöst sein mögen (was allerdings wohl sowieso nie der Fall sein wird). Aus diesem Grunde gibt es nur wenige philosophische Untersuchungen zur Interpretation der Stringtheor ie: Es ist selbst unter Physikern höchst umstritten, ob sie jemals eine allgemein akzeptierte Theor ie sein wird oder letztlich nicht doch eine der viele Sackgassen, die jede Wissenschaft aufweist. Wenden wir uns also wieder dem nach wie vor letzten allgemein akzeptierten Stand der Forschung, der Quantenfeldtheor ie, zu. Fragt man einen Physiker, was die Ontologie der Quantenfeldtheor ie ist, so ist die wahrscheinlichste Antwort eine Zusammenfassung dessen, was auf Schaubil Näheres zur Bewertung von Quantengravitationstheor ien findet sich im Kapitel zur Philosophie der Physik von Christian Wüthrich in diesem Band. 46
42
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
dern zum sogenannten »Standardmodell« der Elementarteilchenphysik steht. Danach gibt es einige Gruppen von elementaren Teilchen, die auf vier verschiedene Grundarten miteinander wechselwirken können (wobei die gravitative Wechselwirkung eigentlich nicht durch das Standardmodell beschrieben wird). Was den Grundaufbau der materiellen Welt betrifft, reicht diese Darstellung für fast alle Zwecke innerhalb der Physik aus. Was also kann der Philosoph noch darüber hinaus wissen wollen? Tatsächlich beginnt die Arbeit für die ontologisch interessierte Philosophin der Physik erst. Sie will wissen, was denn ein Elementarteilchen überhaupt ist. Als Kontrastfolie ist es sinnvoll und gängig, zunächst genauer zu bestimmen, was unter klassischen Teilchen verstanden wird. Es gibt hier zwar keine kanonische Definition, aber es dürfte unter Philosophen der Physik weitgehend konsensfähig sein, Teilchen als »diskrete, scharf lokalisierte, massebehaftete Objekte mit synchroner und diachroner Identität« zu bestimmen.47 Eine solche Begriffsbestimmung wird man in keinem Physikbuch finden. Interessanterweise versuchen Physiker meist nicht einmal, solche Grundbegriffe wirklich zu definieren. Es ist eine typisch philosophische Begriffsbestimmung, die abstrakte philosophische Ausdrücke enthält, welche ich weiter unten etwas erläutern werde. Dabei handelt es sich um eine der grundlegenden Aufgaben der Wissenschaftsphilosophie, und zwar in ihrem allgemeinen wie auch in ihren wissenschaftsspezifischen Bereichen: Sie versucht, explizit zu fassen, was die Einzelwissenschaften mit ihren Grundbegriffen bezeichnen. Der Ausdruck Begriffsbestimmung ist im vorliegenden Kontext passender als der Ausdruck Definition. Erstens sind Definitionen definitionsgemäß scharf, was Begriffsbestimmungen (als Explikationen) oft nicht in gleichem Maße sind. Zweitens – und dies ist auch der Hauptgrund für den ersten Punkt – zielen Begriffsbestimmungen darauf ab, zu bestimmen, was wir mit einem Begriff sowieso schon meinen. Eine Definition dagegen ist eine Setzung, die sich zwar oft auch auf einen bereits vorhandenen Begriff bezieht und an dessen Bedeutung anschließt, aber qua Setzung eben auch mehr oder weniger stark von der geläufigen (unscharfen) Bedeutung abweichen kann. Wie helfen explizite Begriffsbestimmungen nun bei der Interpretation einer Theorie? Der zentrale Punkt besteht darin, dass eine Begriffsbestimmung verschiedene Merkmale aufzählt, die erfüllt sein müssen, damit ein Objekt in die Klasse fällt, die die Extension des Begriffs darstellt. Dies lässt es zu, systematisch zu untersuchen, ob eine gegebene Theor ie einen bestimmten Objekttyp beschreibt oder nicht. Einzelwissenschaftler legen dagegen oft gerade bei solchen Grundbegriffen eine erstaunliche Nonchalance an den Tag, die zwar aus der Alltagssprache als unscharfe Begriffe vertraut sind, deren genauere Fassung für die Interpretation der Theorie aber eine entscheidende Bedeutung hat. Beispiele sind etwa »Teilchen«, »Mechanismus« oder »Funktion«. Fragen wir uns nun also, ob die Quantenfeldtheor ie, also die für die Elementarteilchenphysik maßgebliche Theor ie, eine Teilcheninterpretation zulässt. Die Für eine detaillierte Diskussion siehe Kuhlmann/Stöckler (22017, Abschnitt 6.4.2).
47
43
I. Einführung
Antwort scheint zunächst klar »ja« zu sein, denn es geht ja gerade um die Beschreibung von Elementarteilchen. Aber sind Elementarteilchen wirklich Teilchen? Physiker halten dies oft für eine uninteressante, rein terminologische Frage. Aber tatsächlich geht es dem an der Ontologie interessierten Philosophen ja nicht um die Begrifflichkeit als solche, sondern darum zu ergründen, welches Bild von der Welt die betreffende Wissenschaft zeichnet. Und da dieses Bild sozusagen mit Begriffen gezeichnet wird, ist es von zentraler ontologischer Bedeutung, ob bestimmte Begriffe auf die durch die betreffende Theor ie beschriebenen Objekte Anwendung finden oder nicht.48 Bei der Anwendung des Teilchenbegriffs sieht es in der Quantenfeldtheorie in der Tat verheerend aus. Schauen wir uns nun konkret an, wo die Probleme liegen, indem wir die Merkmale von Quantenobjekten mit der obigen Begriffsbestimmung von klassischen Teilchen als »diskrete, scharf lokalisierte, massebehaftete Objekte mit synchroner und diachroner Identität« vergleichen. Das wichtigste Merkmal, das Quantenobjekte mit klassischen Teilchen gemeinsam haben, ist ihre »Diskretheit«. Das heißt, dass man Quantenobjekte wie auch klassische Teilchen abzählen kann – im Gegensatz zu kontinuierlichen Entitäten wie Flüssigkeiten, Wellen oder Feldstärken. Und dieses Merkmal ist auch der Grund für ihre gängige Bezeichnung als »Quanta« oder »Quanten«. Allerdings befinden sich Quantenobjekte typischerweise in »Superpositionen« von Zuständen mit verschiedener Teilchenzahl, wobei dies keine epistemische, sondern eine ontische Angelegenheit ist, d. h. es ist nicht so, dass man bloß nicht weiß, wie viele Teilchen tatsächlich vorliegen, sondern die Teilchenzahl ist objektiv unbestimmt, genauso wie in der Quantenphysik bekanntermaßen auch andere Eigenschaften typischerweise unbestimmt sind. Was die Anwendung des klassischen Teilchenbegriffs noch mehr untergräbt, ist der Umstand, dass Quantenobjekte derselben Sorte nur kardinal abzählbar sind (wie Euros auf meinem Bankkonto), d. h. man kann zwar sagen, dass man es z. B. mit zwei Elektronen zu tun hat, man kann aber nicht sagen, dass dies das erste Elektron und das das zweite ist. Ordinale Abzählbarkeit ist also nicht gegeben und damit auch keine synchrone Identität.49 Quantenobjekte scheinen also Einzeldinge, aber keine Individuen zu sein – wobei dies natürlich, wie bei jedem interessanten philosophischen Thema, kontrovers diskutiert wird. Diese Abweichungen vom klassischen Teilchenbegriff könnte man eventuell noch verkraften. Schließlich haben wir es ja auch nicht mit klassischen Teilchen, sondern mit Quantenobjekten zu tun und niemand hat erwartet, dass hier alles wie vorher ist. Aber die Probleme gehen noch weiter. Quantenobjekte sind auch nicht (scharf) lokalisiert und zwar nicht in dem eventuell noch harmlosen Sinne, Eine ähnlich interessante und nicht-triviale philosophische Diskussion um einen zentralen Begriff gibt es in der Philosophie der Biologie bezüglich des Genbegriffs. 49 Eine ausführliche Darstellung des Diskussionsstandes findet sich in French/Krause (2006). 48
44
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
dass sie keine scharfen Grenzen haben, sondern sie sind in der Regel in keinem noch so großen Bereich lokalisiert. Ein Teilchen, das ich gerade hier angetroffen habe, kann unmittelbar darauf mit nicht-verschwindender Wahrscheinlichkeit am anderen Ende des Universums angetroffen werden. Damit haben Quantenobjekte insbesondere auch keine durch raumzeitliche Bahnen gegebene diachrone Identität. Wenn man ehrlich ist, verbindet Quantenobjekte mit klassischen Teilchen praktisch nur, dass sie ebenfalls eine gewisse Diskretheit aufweisen und dass sie die Nachfahren von klassischen Teilchen sind. Während sich ein großer Teil der Debatte um die Ontologie der Quantenphysik um verschiedene Facetten der (Nicht-)Anwendbarkeit des klassischen Teilchenbegriffs dreht – und zwar insbesondere Individualität und Lokalisierbarkeit –, sind insbesondere in den letzten Jahren zunehmend unorthodoxere Ontologien als Alternativen ins Spiel gebracht worden.50 Gemeinsam ist diesen Ansätzen, dass Dinge (oder »Substanzen«), wie etwa Elektronen, generell nicht mehr als fundamental für die Ontologie eingestuft werden.
6 Fazit Die allgemeinen Diskussionen in den Abschnitten 3 und 4 sowie die beiden Beispiele in Abschnitt 5 zeigen, dass die Philosophien der Einzelwissenschaften sowohl zur allgemeinen Wissenschaftsphilosophie und Philosophie wie auch zu den jeweils betrachteten Einzelwissenschaften in einem komplexen Verhältnis stehen. Auf jeden Fall zu kurz gegriffen ist die Vorstellung, in Philosophien der Einzelwissenschaften ginge es lediglich um Anwendungen der allgemeinen Wissenschaftsphilosophie – etwa als Beispielvorrat für allgemeine methodologische Prinzipien – oder um Klärung der in den Einzelwissenschaften verwendeten Begriffe. Beides spielt auch eine Rolle. Allerdings sind sowohl die Fragen als auch die Herangehensweise in den Philosophien der Einzelwissenschaften oft anders als in der allgemeinen Wissenschaftsphilosophie oder den Einzelwissenschaften. Ein heute florierender Bereich der Philosophien der Einzelwissenschaften, welcher in der durch den logischen Empirismus geprägten älteren Wissenschaftstheo rie weitgehend vernachlässigt wurde, besteht in ontologischen Überlegungen zu einzelwissenschaftlichen Ergebnissen. Aber auch methodologische Untersuchungen innerhalb der Philosophien der Einzelwissenschaften sind oft keineswegs trivial und haben nicht selten wesentliche Rückwirkungen auf Ansätze in der allgemeinen Wissenschaftsphilosophie. Diese Aufgaben zu erfüllen erfordert von der Philosophin einer Einzelwissenschaft eine gründliche Kenntnis der betreffenden Einzelwissenschaft wie auch der allgemeinen Wissenschaftsphilosophie. Heutige Philosophien der Einzelwissenschaften versprechen vielfältigen wechselseitigen Profit, und zwar insbesondere im Verhältnis zur allgemeinen Wissen50
Siehe Kuhlmann/Stöckler (22017) für eine kurze Einführung.
45
I. Einführung
schaftsphilosophie. Für den Einzelwissenschaftler können diese Überlegungen zwar auch interessant sein, meist aber nicht qua Einzelwissenschaftler. In Einzelfällen können Überlegungen aus Philosophien der Einzelwissenschaften aber auch unmittelbare Relevanz für die Einzelwissenschaften haben, wenn es etwa um für die Bildung neuer Theor ien wichtige Grundprinzipien geht. Während solch ein konstruktiver Beitrag zu den Einzelwissenschaften sehr wünschenswert ist, sollte er jedoch nicht der Maßstab für den Wert der Philosophien der Einzelwissenschaften sein. Anders sieht dies für die allgemeine Ontologie aus. Insbesondere ontologische Untersuchungen zu fundamentalen Theor ien können für die Ontologie von großer Bedeutung sein, wenn man davon ausgeht, dass ontologische Ansätze den Ergebnissen empirischer Wissenschaften Stand halten müssen.
Literatur Empfehlungen: Seit es die Wissenschaftsphilosophie gibt, wird regelmäßig auch diskutiert, wie sie einerseits zur allgemeinen Philosophie sowie andererseits zu den Ein zelwissenschaften steht. Repräsentativ für die gegenwärtigen Diskussionen seien hier Scholz (2013) sowie Reydon/Hoyningen-Huene (2011) empfohlen. Zum Verhältnis von Philosophie der Physik und Metaphysik gibt es in jüngerer Zeit eine lebendige Diskussion im Zusammenhang mit Diskussionen zum ontischen Strukturenrealismus, die auch allgemeine Bedeutung hat. Speziell sei auf French/McKenzie (2012) verwiesen. Das Verhältnis der allgemeinen Wissenschaftsphilosophie zu den Philosophien der Einzelwissenschaften ist dagegen bisher noch kaum in allgemeiner Weise als Hauptgegenstand behandelt worden.
Armstrong, David M. (1989). Universals. An Opinionated Introduction. Boulder: Westview Press. Bartelborth, Thomas (2007). Erklären. Berlin, New York: de Gruyter. Bartels, Andreas (1996). Grundprobleme der modernen Naturphilosophie. Paderborn: UTB. – und Manfred Stöckler (Hg.) (2007). Wissenschaftstheorie. Ein Studienbuch. Paderborn: mentis. Broad, C. D. (1925) Mind and its Place in Nature. London: Kegan Paul, Trench, Trubner & Co. Ltd. Carnap, Rudolf (1934). Über den Charakter der philosophischen Probleme. In: ders. (2004). Scheinprobleme in der Philosophie und andere metaphysikkritische Schriften. Herausgegeben, eingeleitet und mit Anmerkungen versehen von Thomas Mormann. Hamburg: Felix Meiner, 111 – 127. – (1950). Empiricism, semantics, and ontology. Revue Internationale de la Philosophie 4, 20 – 40. Wiederabgedruckt in zweiter Auflage von Carnap (1956). Meaning and Necessity. Chicago: Chicago University Press, 203–221. 46
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
Carrier, Martin (2007). Wege der Wissenschaftsphilosophie im 20. Jahrhundert. In: Bartels und Stöckler (2007), 15 – 4 4. Cartwright, Nancy (1999). The Dappled World: A Study of the Boundaries of Science. Cambridge: Cambridge University Press. Chang, Hasok (1999). History and philosophy of science as a continuation of science by other means. In: Science & Education 8, 413–425. Dawid, Richard (2013). String Theory and the Scientific Method. Cambridge: Cambridge University Press. Dizadji-Bahmani, Foad, Roman Frigg und Stephan Hartmann (2010). Who’s afraid of Nagelian reduction? Erkenntnis 73, 393 – 412. Dowe, Philip (2000). Physical Causation. Cambridge et al.: Cambridge University Press. Esfeld, Michael (2001). Holism in Philosophy of Mind and Philosophy of Physics. Dordrecht: Kluwer Academic Publishers. – (2011). Einführung in die Naturphilosophie. 2. Aufl., Darmstadt: WBG. French, Steven, und Décio Krause (2006). Identity in Physics: A Formal, Historical and Philosophical Approach. Oxford: Oxford University Press. French, Steven und Kerry McKenzie (2012). Thinking outside the toolbox: towards a more productive engagement between metaphysics and philosophy of physics. European Journal of Analytic Philosophy 8, 42 – 59. Friedman, Milton (1953). The methodology of positive economics. In: Essays in Positive Economics. Chicago: University of Chicago Press, 3–43. Frigg, Roman, und Stephan Hartmann (2012). Models in Science. In: The Stanford Encyclopedia of Philosophy (Fall 2012 Edition). Frigg, Roman, Leonard A. Smith und David A. Stainforth (2015). An assessment of the foundational assumptions in high-resolution climate projections: the case of UKCP09. Synthese (i. E.). Griffiths, Paul E., und Karola Stotz (2007). Gene. In Michael Ruse and David Hull (Hg.), Cambridge Companion to Philosophy of Biology. Cambridge: Cambridge University Press, 85 – 102. Griffiths, Paul E. (2013). Genetics and Philosophy: An Introduction, Cambridge University Press, Cambridge. Grüne-Yanoff, Till, und Sven-Ove Hansson (Hg.) (2009): Preference Change. Approaches from philosophy, economics and psychology. Heidelberg et al.: Springer. Hamminga, Bert, und Neil B. De Marchi (Hg.) (1994): Idealization VI: Idealization in Economics, Poznan Studies in the Philosophy of the Sciences and Humanities, Vol. 38. Amsterdam, Atlanta: Rodopi. Hausman, Daniel M. (1992). The Inexact and Separate Science of Economics. Cambridge: Cambridge University Press. – (2009). Laws, Causation, and Economic Methodology. In: Kincaid/Ross (2009). – (2013). Philosophy of Economics. The Stanford Encyclopedia of Philosophy (Winter 2013 Edition). Heidelberger, Michael (2007). Das Experiment in den Wissenschaften, in: Bartels und Stöckler (2007). 47
I. Einführung
Herzog, Lisa (2013). Markets. In: The Stanford Encyclopedia of Philosophy (Fall 2013 Edition). Hofer, Veronika (2002). Philosophy of Biology around the Vienna Circle: Ludwig von Bertalanffy, Joseph Henry Woodger and Philipp Frank. Vienna Circle Institute Yearbook 9, 325 – 333. Hollis, M. (1995): Soziales Handeln. Eine Einführung in die Philosophie der Sozialwissenschaft. Berlin: Akademie Verlag. Hoyningen-Huene, Paul (2013). Systematicity: The Nature of Science. New York: Oxford University Press. Hüttemann, Andreas (2007). Naturgesetze, in: Bartels/Stöckler (2007), 135 – 153. Isaacson, Daniel (2004), »Quine and logical positivism«. In: Roger Gibson (Hg.), The Cambridge Companion to Quine. Cambridge: Cambridge University Press, 214 – 269. Kincaid, Harold, und Don Ross (Hg.) (2009). The Oxford Handbook of Philosophy of Economics. Oxford et al.: Oxford University Press. Kuhlmann, Meinard, und Wolfgang Pietsch (2012). »What is and why do we need philosophy of physics? Journal for General Philosophy of Science 43, 209 – 214. Kuhlmann, Meinard, und Manfred Stöckler (22017): Quantenfeldtheor ie. Kap. 6 in Friebe et al.: Die Philosophie der Quantenphysik. Berlin, Heidelberg: Springer. Kuhlmann, Meinard (2017). Mechanisms in Physics. In Glennan, Stuart und Phyllis Illari (Hg.): Routledge Handbook of the Philosophy of Mechanisms. Ladyman, James (2014). Structural Realism. The Stanford Encyclopedia of Philosophy (Spring 2014 Edition). Lange, Marc (2002). An Introduction to the Philosophy of Physics. Oxford: Blackwell. Laudan, Larry A. (1981). Confutation of Convergent Realism. Philosophy of Science 48, 19–48. Johansson, Lars-Göran, und Keizo Matsubara (2011). String theory and general methodology: A mutual evaluation. Studies in History and Philosophy of Modern Physics, 42, 199–210. Lowe, E. Jonathan (1998). The Possibility of Metaphysics: Substance, Identity and Time. Oxford: Clarendon Press. Lux, Thomas, und Frank Westerhoff (2009). Economics crisis. Nature Physics 5, 2–3. Lyre, Holger (2014). Quanten-Identität und Ununterscheidbarkeit. Kap. 3 in Friebe et al.: Die Philosophie der Quantenphysik. Berlin, Heidelberg: Springer. Mäki, Uskali (2011). Models and the locus of their truth. Synthese, 180, 47–63. Mermin, N. David (1989). What's Wrong with this Pillow? Physics Today 42/4, 9. Neurath, Otto (1932/33). Protokollsätze. In: Erkenntnis 3, 204 – 214. Morgan, Mary S., und Margaret Morrison (Hg.) (1999): Models as Mediators: Perspectives on Natural and Social Science. Cambridge: Cambridge University Press. Moulines, C. Ulises (2008): Die Entwicklung der modernen Wissenschaftstheorie (1890 – 2 000): Eine historische Einführung. Hamburg: LIT. Pennekamp, Johannes (2012). Der Homo oeconomicus lebt. Frankfurter Allgemeine – Wirtschaft, 25. 10. 2012. 48
Allgemeine Wissenschaftsphilosophie und die Philosophien der Einzelwissenschaften
Pulte, Helmut (2004). »Wissenschaftstheor ie, Wissenschaftsphilosophie«. In: Ritter, J., Gründer, K. und G. Gabriel (Hg.). Historisches Wörterbuch der Philosophie, Bd. 12. Basel, 973 – 9 81. Quine, Willard Van Orman (1951). Two Dogmas of Empiricism. Philosophical Review 60, 20 – 43. Zitiert nach W. V. O. Quine: Drei ausgewählte Aufsätze, englisch/ deutsch, übersetzt von Roland Bluhm, kommentiert von Christian Nimtz. Reclam: Stuttgart 2011. – (1953): Mr. Strawson on Logical Theory. Mind 62, 433 – 451. Reiss, Julian (2013). Philosophy of Economics: A Contemporary Introduction. New York: Routledge. Reutlinger, Alexander (2013): A Theory of Causation in the Biological and Social Sciences. New York: Palgrave Macmillan. Reydon, Thomas, und Paul Hoyningen-Huene (2011). Philosophie und ihr Verhältnis zu den Einzelwissenschaften. In: Marcel van Ackeren, Theo Kobusch, Jörn Müller (Hg.): Warum Philosophie? Historische, systematische und gesellschaftliche Positio nen. Berlin: De Gruyter, 127 – 145. Rosenthal, Jacob (2007): Induktion und Bestätigung, in: Bartels und Stöckler 2007, S. 109 – 133. Salmon, Wesley C. (1984). Scientific Explanation and the Causal Structure of the World. Princeton: Princeton University Press. Samanidou, Egle, Elmar Zschischang, Dietrich Stauffer und Thomas Lux (2007). Agent-based models of financial markets. Reports on Progress in Physics 70, 409– 450. Scholz, Oliver (2013). »Wissenschaftstheor ie, Erkenntnistheor ie und Metaphysik – Klärungen zu einem ungeklärten Verhältnis«. Philosophia naturalis 50, 5 – 24. Schurz, Gerhard (20113): Einführung in die Wissenschaftstheorie. Darmstadt: WBG. Shleifer, A. (2000). Inefficient Markets: An Introduction to Behavioural Finance. Oxford: Oxford University Press. Stephan, Achim (1999). Emergenz: Von der Unvorhersagbarkeit zur Selbstorganisation. Dresden und München: Dresden University Press. Uebel, Thomas (2011): Vienna Circle. In: The Stanford Encyclopedia of Philosophy (Spring 2014 Edition). Weinberg, Steven (1987). Newtonianism, reductionism and the art of congressional testimony. Nature 330, 433 – 437. Weisberg, Michael (2013). Simulation and Similarity: Using Models to Understand the World. New York: Oxford University Press. Wimsatt, William C. (1987). False models as means to truer theor ies. In: Nitecki, M. H., und A. Hoffman (Hg.): Neutral Models as a Biological Strategy. Oxford: Oxford University Press, 23–55. Wolters, Gereon (1999). »Wrongful Life: Logico-Empiricism’s Philosophy of Biology«. In: Galavotti, Maria Carla, und Alessandro Pagnini (Hg.), Experience, Reality, and Scientific Explanation. Essays in Honor of Merrilee and Wesley Salmon. Dordrecht (Kluwer), 187 – 2 08. 49
I. Einführung
Woodward, J. (2000). Explanation and invariance in the special sciences. British Journal for the Philosophy of Science 51, 197 – 254. Worrall, John (1989). Structural Realism: The Best of Both Worlds. Dialectica 43, 99–124.
50
II. Die Philosophie der Formal- und Geisteswissenschaften
1. Philosophie der Mathematik Torsten Wilholt
1 Einleitung Die westliche Philosophie hat seit ihren frühesten Anfängen immer wieder mathematisches Wissen und mathematische Praktiken zum Gegenstand philosophischer Reflexion gemacht. Deswegen und weil die Philosophie der Mathematik an mehreren Wendepunkten der Philosophiegeschichte eine zentrale Rolle gespielt hat, zeichnet sie sich unter den Philosophien der Einzelwissenschaften durch eine besonders lange und reichhaltige Tradition aus. Allerdings ging und geht es in dieser Tradition oft nicht in erster Linie um eine wissenschaftstheoretische Untersuchung der Mathematik, bei der diese als Ganzes und um ihrer Bedeutung als zentrale wissenschaftliche Disziplin willen so in den Blick genommen wird, wie sie von praktizierenden Mathematikerinnen und Mathematikern betrieben wurde und wird. Vielmehr spielt die Mathematik in weiten Teilen der philosophischen Diskussion deshalb eine besondere Rolle, weil sie in besonders klarer Weise die Möglichkeit beziehungsweise Realität bestimmter, ausgezeichneter Typen von Wissensbeständen und Gegenständen vor Augen zu führen scheint. Die Mathematik liefert der Philosophie paradigmatische Fälle erstens für Wissen, das wir gänzlich a priori (unabhängig von der Sinneserfahrung) erwerben zu können scheinen und zweitens für abstrakte Gegenstände, die weder eine kausale Interaktion noch eine raum-zeitliche Lokalisierung zulassen und deren Realität sich dennoch nicht leicht in Abrede stellen zu lassen scheint. Zu der epistemischen und der ontologischen Besonderheit tritt eine dritte, modale, die mit beiden verknüpft ist: Mathematische Wahrheiten scheinen mit Notwendigkeit zu gelten. Als Quelle apriorischen Wissens hat die Mathematik vielen Philosophinnen und Philosophen auch in normativem Sinn als ausgezeichnet gegolten – insbesondere solchen, die auch für philosophisches Wissen aprioristische Ambitionen hatten. Dieser Rolle der Mathematik als methodologisches Vorbild der Philosophie liegt eine gewisse Affinität beider Fächer zugrunde: Schließlich sind sie die beiden großen Lehnstuhlwissenschaften – Disziplinen, in denen sich ohne Experimente und Beobachtungen, ohne Computersimulationen und (im Prinzip) ohne Zugang zu Archiven und Bibliotheken Fortschritte erzielen lassen. Diese Affinität äußert sich auch in der außerordentlich großen Zahl von Persönlichkeiten, die zu beiden Fächern herausragende Beiträge geleistet haben.1 Eine weitere Besonderheit, die die Be1
Diese personelle Überschneidung mit der Philosophie ist bei der Mathematik viel-
53
II. Die Philosophie der Formal- und Geisteswissenschaften
ziehung zwischen Philosophie und Mathematik geprägt hat, besteht darin, dass bereits die Beantwortung der Frage, wovon die Mathematik eigentlich handelt, philosophische Entscheidungen voraussetzt. Ob man sie als Wissenschaft des Quantitativen, als systematische Untersuchung bestimmter Klassen von abstrakten Gegenständen, als das Studium formaler Systeme oder als die Wissenschaft der Muster oder Strukturen versteht, hängt nicht nur von historischen Veränderungen der Mathematik selbst ab, sondern auch davon, welche Philosophie der Mathematik man der Charakterisierung zugrunde legt. Ich werde im Folgenden zunächst eine kurze Skizze der Geschichte der Philosophie der Mathematik geben, in der jedoch auch bereits einige bis heute prägende Gedankenlinien zur Sprache kommen. Anschließend widme ich den Debatten, die die heutige Philosophie der Mathematik prägen, zwei Abschnitte. Erkenntnistheoretische und metaphysische Fragestellungen lassen sich dabei nicht gut voneinander trennen, da in der Philosophie der Mathematik letztere oft durch erstere motiviert sind. Ich teile die Themen daher grob nach Fragen zum Gegenstandsbereich der Mathematik (Abschnitt 3) und Fragen zu Anwendungen und (anderen) Praktiken der Mathematik (Abschnitt 4) ein.
2 Historische Positionen der Philosophie der Mathematik Der Sonderstatus mathematischen Wissens wird bereits bei Platon entwickelt – und zwar gleich an der vermutlich frühesten Stelle, an der er sich überhaupt der Mathematik zuwendet. Der Menon gilt als Übergangsdialog zwischen Platons früher Schaffensperiode, in der er die Lehren Sokrates’ für die Nachwelt zu erhalten sucht, und der mittleren Phase, in der er seine eigene Philosophie zu entwickeln beginnt. In ihm legt er anhand eines geometrischen Beispiels dar, dass wir in mathematischen Fragen durch bloßes Nachdenken zu Gewissheiten gelangen können. Im Menon (81e–86c) und im Phaidon (72e–77d) wird diese Fähigkeit durch eine Wiedererinnerungslehre erklärt, demzufolge wir vor unserer Geburt in einer anderen Welt vollkommenen Beispielen (von geometrischen Objekten) begegnet sind und uns an das dabei erworbene Wissen erinnern können. Während die Wiedererinnerungslehre in den späteren Dialogen mit diskretem Schweigen übergangen wird, führt ihn die Vorstellung der vollkommenen Beispiele zu seiner Ideenlehre: Die eigentlichen Träger des Seins und die eigentlichen Gegenstände leicht größer als bei jeder anderen Einzelwissenschaft. Prominente Beispiele (ohne Antike und Mittelalter) sind Jean Le Rond d'Alembert, Bernard Bolzano, L. E. J. Brouwer, Charles Lutwidge Dodgson (Lewis Carroll), Georg Cantor, Alonzo Church, Condorcet, Richard Dedekind, René Descartes, Gottlob Frege, Kurt Gödel, Hans Hahn, David Hilbert, Leopold Kronecker, Gottfried Wilhelm Leibniz, Blaise Pascal, Charles Sanders Peirce, Henri Poincaré, Bernhard Riemann, Bertrand Russell, Alan Turing, Hermann Weyl, Alfred N. Whitehead und Ernst Zermelo.
54
Philosophie der Mathematik
der Erkenntnis sind selbständig und ewig existierende, unveränderliche Objekte, die nur durch die Vernunft erfasst werden können (Politeia 507a–518b). Im Timaios (27c–58c) führt Platon ein weiteres der Elemente aus, die später als Bestandteile einer typisch »platonistischen« Mathematikauffassung gelten werden: Die Ordnung der Dinge in der Sinnenwelt ist auf mathematischen, insbesondere geometrischen Prinzipien aufgebaut.2 Aristoteles lehnt die Vorstellung von Ideen, die unabhängig von ihren Instanzen in der Erfahrungswirklichkeit existieren, ab (Metaphysik I, 990a–993a). Die platonische Ideenwelt ist aus seiner Sicht eine unnütze Verdopplung, die zum Verständnis der durch Werden und Vergehen geprägten Erfahrungswelt nichts beitragen kann. Es gibt nach Aristoteles nur eine Wirklichkeit, und auch die Mathematik handelt von den Gegenständen derselben. Allerdings behandelt sie nur bestimmte (quantitative) Aspekte der Gegenstände, indem sie von ihren anderen Eigenschaften abstrahiert (Metaphysik XIII, 1077b–1078b). Weil es bei den Eigenschaften, für die sich die Mathematik interessiert, nur auf die Form und nicht auf den Stoff ankommt, ist es unschädlich, wenn die Mathematiker in ihrer Arbeit so tun, als ob Gegenstände wie Zahlen und Geraden selbständig existieren würden (Physik II, 193b–194a). Aristoteles ist bewusst, dass die Mathematik darauf angewiesen ist, von der Existenz von Gegenständen auch unabhängig von konkreten Sinnendingen ausgehen zu dürfen – etwa von der Existenz einer Winkelhalbierenden, auch wenn diese (noch) nicht gezeichnet ist. Seine Lösung besteht darin, dass es sich hier um eine potenzielle Existenz handelt. Diese kann im Prinzip in der Erfahrung nachgewiesen werden, indem sie zur Aktualität gebracht wird (in der Geometrie etwa durch Linienziehen) (Metaphysik IX, 1015a). Was die Naturphilosophie angeht, haben für Aristoteles qualitative Erklärungsprinzipien Vorrang; eine explanatorische Rolle ist für mathematische Prinzipien bei ihm nicht vorgesehen. Auch wenn in Antike und Mittelalter immer wieder Ansätze zu einer mathematisierten Naturerklärung gemacht werden (auch mit vereinzelten Erfolgen), kommt der entscheidende Umschwung erst mit dem Siegeszug mathematisch formulierter Naturgesetze in der wissenschaftlichen Revolution der frühen Neuzeit, emblematisch repräsentierbar durch Galileis Fallgesetz, Keplers Planetengesetze und ihre vereinheitlichende Zurückführung auf gemeinsame Gesetzmäßigkeiten durch Newton. Als philosophische Sichtweise der Mathematik verbreitete sich im Anschluss an diese Entwicklungen zunächst eine am Konzept der mathematica mixta orientierte Vorstellung: Das auf Erfahrung beruhende menschliche Wissen wird vom Verstand analysiert; diese Analyse führt auf die abstrakten Begriffe von Extension und Größe, und die allgemeine Lehre von diesen ist »der Grund Sowohl die Auffassung, dass die Erfahrungswirklichkeit von mathematischen Prinzipien durchwirkt ist, als auch die für die Wiedererinnerungslehre wichtige Annahme einer unsterblichen Seele zeigen deutlich den Einfluss der Pythagoräer auf Platons mittleres und spätes Werk. 2
55
II. Die Philosophie der Formal- und Geisteswissenschaften
bestandteil der Mathematik und aller Naturwissenschaften« (so d'Alembert 1751, 35). So gilt die Mathematik letztlich noch als mittelbar in der Erfahrung verankert (vgl. Daston 1988). Die Verbindung von Mathematik und Naturwissenschaften gilt entsprechend nicht als »Anwendung« eines Wissensgebiets auf ein anderes, sondern als eine Vermischung verschiedener Untersuchungsaspekte. Keine Antwort hält diese Sicht allerdings auf Fragen bereit wie die, warum die im engeren Sinne mathematischen Einsichten einen besonders hohen Grad an Gewissheit erlauben, warum sie (scheinbar) nicht in Reaktion auf Erfahrungstatsachen revidiert oder weiterentwickelt werden und warum der mathematische Fortschritt (scheinbar) im Wesentlichen kumulativ verläuft (in dem Sinne, dass einmal als bewiesen geltende Sätze nur in seltenen Ausnahmefällen später wieder aufgegeben werden). Besonders die Geometrie scheint einerseits Aussagen über die sinnlich erfahrbare Welt zu machen, während andererseits geometrisches Wissen ohne Rückgriff auf Beobachtung und Experiment erlangt wird. Der Aufgabe, diese beiden Aspekte zu vereinbaren, widmet sich Immanuel Kant; sie spielt in seiner theoretischen Philosophie eine große Rolle (1781/87: B 37–45). Der Raum ist für Kant keine Beschaffenheit, die den Dingen an sich zukommt, sondern eine »Anschauungsform«. Wenn der menschliche Geist aus Sinneseindrücken eine strukturierte Außenwelterfahrung formt, bedient er sich stets dieser Form. Da all unsere Erfahrung von äußeren Gegenständen somit durch die räumliche Anschauungsform geprägt ist, sind geometrische Sätze in der erfahrenen Realität allgemeingültig. Um geometrisches Wissen zu erlangen, brauchen wir dennoch keine Sinneserfahrung, da wir die Beweise geometrischer Sätze in der »reinen Anschauung« konstruieren können – in einem Modus, der unabhängig von Sinnesempfindungen ist. Diese Konstruktionen sind allerdings nach Kant für die mathematische Erkenntnis unverzichtbar, was insbesondere verdeutlicht, dass die geometrischen Wahrheiten nicht einfach aus den Bedeutungen der Ausdrücke »Punkt«, »Gerade« usw. folgen – mit anderen Worten, sie sind synthetisch, nicht analytisch. Unser mathematisches Wissen fungiert für Kant so als paradigmatischer Fall, der vor Augen führt, wie die apriorische Erkenntnis synthetischer Wahrheiten grundsätzlich möglich ist (vgl. insb. Kant 1783). Im 19. Jahrhundert kommt durch die Entwicklung nicht-euklidischer Geometrien die Frage auf, wodurch der Status der euklidischen Geometrie als (vermeintlich) tatsächliche Geometrie der erfahrbaren Welt gegeben ist. Da der Apriorismus hier nicht länger verfängt, schlägt Helmholtz (1876) vor, die Frage der richtigen Geometrie als eine empirische Frage zu betrachten. Als Alternative zu diesem geometrischen Empirismus gewinnt auch der Konventionalismus Kontur, demzufolge als Grundlage der physikalischen Beschreibung der Wirklichkeit grundsätzlich verschiedene Geometrien gewählt werden könnten, solange nur die physikalischen Gesetze jeweils entsprechend angepasst würden (Poincaré 1902, vgl. Wilholt 2012). Zugleich vollzieht sich in der Mathematik mehr und mehr ein Wandel, im Zuge dessen die geometrische Anschauung in ihrer Bedeutung 56
Philosophie der Mathematik
für die gesamte übrige Mathematik schrittweise in den Hintergrund rückt und schließlich gar als ein unverlässliches Hilfsmittel angesehen und möglichst zu eliminieren gesucht wird. Insbesondere die reelle Analysis (und damit der naturwissenschaftlich bedeutsamste Zweig der Mathematik) wird im Verlauf des 19. Jahrhunderts von ihren geometrisch-anschaulichen Ursprüngen abgelöst und (durch Cauchy und Weierstrass) mit Hilfe strenger Definitionen reduktiv auf eine in der Arithmetik gründende Basis gestellt (vgl. Hahn 1933). Die Arithmetik rückt somit gegen Ende des 19. Jahrhunderts (gemeinsam mit der neu entstehenden mathematischen Logik) in den Fokus der Aufmerksamkeit, nachdem in früheren Zeiten zumeist die Geometrie die philosophische Reflexion mathematischen Wissens dominiert hatte. Eine frühe, empiristische Analyse des Status der Arithmetik legt John Stuart Mill (1843) vor: Die Zahlen der Arithmetik versteht er als Eigenschaften physischer Aggregate, so dass etwa die Zahl Sechs eine empirisch zugängliche Eigenschaft eines Tellersets (als eines konkreten, raumzeitlich ausgedehnten Aggregats) sein könnte. Dass allerdings demselben physischen Aggregat auch die Zahleigenschaften Eins (ein Set), Zwölf (zwölf Tellerhälften) oder mit demselben Recht im Grunde jede beliebige Zahleigenschaft zukommt, ist eine Kritik, mit der bereits Gottlob Frege (1884) ein Grundproblem des empiristischen Ansatzes aufgezeigt hatte. Die Auflösung besteht nach Frege darin, Zahlen stattdessen als Eigenschaften von Begriffen zu verstehen (»Ein Teller in diesem Set sein«). In Freges Konstruktion ist die Zahl Sechs nichts anderes als (modern gesprochen) die Menge aller Begriffsumfänge, die genau sechs Elemente enthalten; arithmetische Aussagen sind also letztlich Aussagen über Beziehungen zwischen solchen Mengen. Die seit den Arbeiten von Richard Dedekind und Giuseppe Peano bekannten Axiome der Arithmetik ergeben sich, so gelingt es Frege zu zeigen, als logische Konsequenzen der seiner Konstruktion entsprechenden Definitionen arithmetischer Grundbegriffe. Darin manifestiert sich die philosophische Grundidee, dass arithmetische Wahrheiten letztlich eine bestimmte Art von logischen Wahrheiten sind (genauer gesagt: Wahrheiten, die sich auf die Prädikatenlogik und auf eine bestimmte, als ebenso grundlegend und selbstverständlich vorgestellte Theor ie der Begriffsumfänge reduzieren lassen). Diese logizistische Grundidee wurde auch dann noch weiter verfolgt, nachdem Bertrand Russell 1901 entdeckt hatte, dass Freges spezifische Rekonstruktion der Arithmetik wegen eines in der von ihm vorausgesetzten Theor ie der Begriffsumfänge enthaltenen Widerspruchs nicht haltbar ist. Um Freges einfaches Begriffsumfangskonzept zu ersetzen, müssen Russells eigene und spätere Varianten des Logizismus stattdessen auf raffinierte, axiomatisch ausformulierte Typen- oder Mengentheorien setzen. Dass es sich dabei noch um eine Reduktion der Arithmetik auf die Logik handelt und nicht einfach auf andere mathematische Theo rien, die abstrakte Gegenstände eigener Art postulieren, überzeugt schon bald immer weniger (siehe jedoch unten, Abschnitt 5, zum Wiederaufleben logizistischer Überlegungen in jüngerer Zeit). 57
II. Die Philosophie der Formal- und Geisteswissenschaften
David Hilbert (1922, 1925, vgl. Detlefsen 1986) hielt es stattdessen für erforderlich, die Mathematik in einem Gegenstandsbereich verankert zu sehen, der der Anwendung logischer Operationen vorausgeht. In seiner formalistischen Philosophie der Mathematik meint er diesen Gegenstandsbereich in der Realität strukturierter Zeichen zu erkennen. Zumindest ein Kernbereich der Mathematik, der sich als finitäre Arithmetik bezeichnen lässt, handelt demzufolge von elementaren Zahlzeichen wie » + + + «, die sich letztlich selbst bezeichnen. Die weitergehenden Systeme der Mathematik, wie etwa die reelle und komplexe Analysis, erlauben uns, die finitäre Arithmetik elegant in sie einzubetten und sind im Übrigen, soweit sie über diese hinausgehen, nur durch ihre eigenen Axiome festgelegt. Die Ableitung von Sätzen ist bei ihnen als formale, regelgemäße Umformung von Zeichenketten zu verstehen. Entscheidend ist allein, dass die formalen Systeme so gestaltet sein müssen, dass sich niemals falsche Sätze der finitären Arithmetik ableiten lassen. Der Formalismus wurde von logizistischen Zeitgenossen dafür kritisiert, dass die Anwendbarkeit der Mathematik (auf andere Dinge als Zeichen) sich nicht auf eine leicht ersichtliche Weise aus seiner Konzeption ergibt oder erklären lässt (Carnap 1930, 309; vgl. Frege 1893/1903: Bd. 2, 100). Das schwerwiegendere Problem ergab sich aber aus den limitativen Ergebnissen der Metamathematik der 1930er Jahre. Um sicher sein zu können, dass sich aus den formalen Systemen keine falschen (finitären) Aussagen ableiten lassen, müsste zum mindesten ihre Konsistenz feststellbar sein. Entsprechende Konsistenzbeweise sah deshalb Hilberts formalistisches Programm vor. Als verlässliche Basis solcher Konsistenzbeweise kam allein der als einziger Teil der Mathematik durch inhaltlichen Bezug gesicherte Kernbereich der finitären Arithmetik in Frage. Kurt Gödel bewies jedoch 1931, dass die Konsistenz von formalen Systemen eines bestimmten Komplexitätsgrades (nämlich insbesondere solchen, die die Arithmetik enthalten) nicht auf der Grundlage ihrer selbst bewiesen werden kann (und somit erst recht nicht auf der Grundlage eines schwächeren Teilsystems wie der finitären Arithmetik). Mit dem Beweis der Nichtrealisierbarkeit des Hilbertprogramms nahm die Bedeutung formalistischer Positionen in der Philosophie rapide ab, wenn auch einzelne Autoren einen Formalismus ohne finitär fundierte Konsistenzbeweise stark zu machen versuchten (Curry 1951). Eine dritte Bewegung, die die Philosophie der Mathematik zu Beginn des 20. Jahrhunderts prägte, war der Intuitionismus. Sein Begründer L. E. J. Brouwer (1912) ging davon aus, die Gegenstände der Mathematik seien mentale Gegenstände, geistige Schöpfungen jedes Mathematik betreibenden Individuums. Die grundlegende Konstruktion ist dabei die der natürlichen Zahlen; die zugrundeliegende Ur-Intuition ist für Brouwer die Erfahrung der zeitlichen Abfolge von Ereignissen, die in der Erinnerung bewahrt werden. Natürliche Zahlen werden daraus durch einen Prozess der Abstraktion konstruiert. Die Einsicht in mathematische Wahrheiten erfordert jeweils die Konstruktion der betreffenden Gegenstände; so besteht der Beweis von » + = « in einer Konstruktion der Zahlen 58
Philosophie der Mathematik
und , der Konstruktion ihrer Summe, der Konstruktion der Zahl und einer Vergleichskonstruktion mit positivem Ausgang. Aus dieser Auffassung leiteten die Intuitionisten restriktive Konsequenzen über die Zulässigkeit bestimmter Beweisformen ab. So lehnten sie nicht-konstruktive Existenzbeweise ab, also Beweise der Existenz eines Objekts mit bestimmten Eigenschaften, die nicht zugleich einen Weg für die Konstruktion des betreffenden Gegenstandes aufzeigen. Wahrheit in der Mathematik ist für die Intuitionisten mit konstruktiver Beweisbarkeit gleichzusetzen. Daraus folgt auch eine Nichtstandardauffassung der Logik, insbesondere eine Ablehnung des Satzes des ausgeschlossenen Dritten (und somit der logischen Wahrheit von Sätzen der Form p ∨ ¬p), denn schließlich ist es nicht allgemeingültig, dass sich entweder p oder ¬p konstruktiv beweisen lassen. Entsprechend lehnt der Intuitionismus auch indirekte Beweise ab, denn der Schluss von einem Beweis dafür, dass ¬p nicht der Fall sein kann, auf p setzt den Satz des ausgeschlossenen Dritten voraus. Die Formulierung einer eigenen intuitionistischen Logik entwickelte sich zu einem besonders lebendigen Teil des Forschungsprogramms des Intuitionismus (vgl. Kleene 1952). Anders als Logizismus und Formalismus ist der Intuitionismus eine revisionistische Philosophie der Mathematik, die Veränderungen in der mathematischen Praxis verlangt. Das zunächst vor allem von Brouwer und Arend Heyting (1956) begründete Programm führte noch eine Weile lang (insbesondere in den Niederlanden) zu Forschungsanstrengungen, um festzustellen, welche Teile der Mathematik auf der Basis intuitionistisch zulässiger Beweise gerettet werden können; eine nachhaltige Akzeptanz fand es im Mainstream der Mathematik nicht, auch wenn es als Nischenprogramm noch bis heute kultiviert wird. In der Philosophie ist das anhaltende Interesse am Intuitionismus vor allem auf den großen Einfluss Michael Dummetts (1977) zurückzuführen. Die drei großen Ismen des frühen 20. Jahrhunderts stimmen darin überein, dass sie die Philosophie der Mathematik als ein Grundlagenprogramm betreiben. Sie setzen damit das mathematische Programm der innermathematischen Reduktion und Identifikation der von der Anschauung unabhängigen Grundlagen der Mathematik fort und verfolgen zugleich den methodischen Ansatz, dass philosophische Fragen über die Mathematik durch die Betrachtung von bestimmten, als grundlegend angesehenen Teilen der Disziplin zu beantworten seien. Insbesondere Intuitionismus und Formalismus reagieren zudem auf die Krise, in die die durch Georg Cantor begründete Theorie transfiniter Mengen durch die mengentheoretischen Antinomien geraten war, und versuchen (auf sehr unterschiedliche Weise), ein »gesichertes« mathematisches Verständnis des Unendlichen wiederzuerringen.3 All dies begründete allgemein einen starken Fokus der Philosophie der Mathematik auf bestimmte, als »grundlegend« angesehene Begriffe wie die des Beweises, der logischen Folgerung oder der Menge. Aufseiten der mathema Während Hilbert die Cantor’sche Hierarchie der Unendlichkeiten retten wollte, wollte Brouwer sie aufgeben. 3
59
II. Die Philosophie der Formal- und Geisteswissenschaften
tischen Praxis wurden für die als grundlegend aufgefassten Begriffe mit der Zeit akzeptierte Definitionen gefunden, die selbst zu Gegenständen mathematischer Theorien geworden sind, wie der Beweistheorie, der Rekursionstheorie, der Mengenlehre und der Modelltheor ie. Einstige Grundlagenfragen wurden so in den Kanon akzeptierten mathematischen Wissens absorbiert, sodass aus Sicht vieler heutiger mathematischer Praktikerinnen und Praktiker für philosophische Reflexionen hier kein Bedarf mehr besteht. Die Philosophie der Mathematik hat sich in der Folge von der innermathematischen Grundlagenreflexion langsam gelöst und beschreitet seit der zweiten Hälfte des 20. Jahrhunderts eigene Wege.
3 Der Gegenstandsbereich der Mathematik Für viele Überlegungen der Philosophie der Mathematik seit der zweiten Hälfte des 20. Jahrhunderts geben die (scheinbaren) ontologischen Besonderheiten des Gegenstandsbereichs der Mathematik das Thema vor. Zumindest prima facie handeln die Sätze der Mathematik von abstrakten Gegenständen. Zahlen, Mengen, Funktionen usw. besitzen keine Orte in unserer raumzeitlichen Wirklichkeit; ebenso wenig sind sie in das kausale Geschehen der Erfahrungswirklichkeit eingebunden. Sie können keine Ereignisse verursachen, ebenso wie kein Ereignis irgendwelche Kausalfolgen in der mathematischen Wirklichkeit haben könnte. Diese metaphysischen Besonderheiten lassen sich nicht von erkenntnistheoretischen Fragen trennen. Denn ein zentrales Problem der neueren Philosophie der Mathematik hat seinen Ausgangspunkt genau in der Einsicht, dass wir, die Erkenntnissubjekte, gänzlich in das kausale Geschehen der Erfahrungswirklichkeit eingebunden sind. Der gesamte Input unserer Erkenntnisvorgänge speist sich letztlich aus dem Geflecht kausaler Prozesse, die sich in unserer Umwelt abspielen. Wie können wir dann Gegenstände, die nicht zu diesem Geflecht gehören, wissenschaftlich untersuchen? Oft müssen Antworten auf metaphysische und erkenntnistheoretische Fragen ineinandergreifen, um die Möglichkeit von Mathematik als Wissenschaft erklären zu können. Positionen, denen zufolge es bei der Mathematik um eine Wahr- oder Falschheit mathematischer Aussagen geht, die von der Existenz und den Eigenschaften bestimmter, unabhängig von unserem Denken existierender Gegenstände determiniert wird, lassen sich sinnvollerweise unter dem Begriff Mathematischer Realismus zusammenfassen. Der Ausdruck »Platonismus« wird auch zuweilen in diesem Sinn gebraucht, hat aber den Nachteil, dass er vor dem Hintergrund historischer platonistischer Positionen auch mit einem besonderen Vermögen der mathematischen Erkenntnis durch Ideenschau und mit einer nach mathematischen Prinzipien aufgebauten physischen Realität in Verbindung gebracht werden kann. Auf diese Vorstellungen ist der Mathematische Realismus nicht verpflichtet. Ein einflussreicher Mathematischer Realist des 20. Jahrhunderts, der tatsächlich jedenfalls in erkenntnistheoretischer Hinsicht eine im engeren Sinn platonistische 60
Philosophie der Mathematik
Position vertreten hat, war Kurt Gödel. Für Gödel existieren mathematische Gegenstände zwar fernab der Welt der Sinneserfahrung, aber dennoch besitzen wir seiner Meinung nach eine der Wahrnehmung analoge Fähigkeit, etwa über Gegenstände der Mengenlehre verlässlich zu urteilen, was sich daran zeige, dass sich uns die Axiome aufzwingen (Gödel 1947, 483 f.). Ein von solchen platonistischen Erwägungen unabhängiges, einflussreiches Argument zugunsten des Mathematischen Realismus ist das sogenannte Unverzichtbarkeitsargument, das besonders durch Willard Van Orman Quine und H ilary Putnam stark gemacht wurde (s. insb. Quine 1966/76; Putnam 1971). Zu den wichtigsten Voraussetzungen des Arguments zählen ein moderater Naturalismus (in Form der Annahme, dass die am besten bestätigten naturwissenschaftlichen Theorien unsere beste Richtschnur zur Beurteilung von Existenzbehauptungen sind) und ein Bestätigungs-Holismus: Die Sätze der naturwissenschaftlichen Weltbeschreibung sind nicht jeder für sich durch eine bestimmte, abgrenzbare Portion der verfügbaren empirischen Belege gestützt, sondern sie erfahren die empirische Stützung als Ganzes, im Paket mit den übrigen Sätzen. Quine und Putnam folgern: Da die Mathematik in den Naturwissenschaften eine unverzichtbare Rolle spielt, ist sie durch deren Erfolg mitbestätigt. Mathematische Gegenstände werden so gleichsam zu einer speziellen Art theoretischer Entitäten der Naturwissenschaften erklärt; wer Naturalist ist, sollte ihre Existenz ebenso wenig bezweifeln wie die von Genen oder Atomen, so Quine und Putnam. Um das Argument zu vertreten, muss man den Bestätigungs-Holismus nicht so umfassend und radikal verstehen wie Quine; es genügt, dass sich der mathematische Gehalt aus wesentlichen naturwissenschaftlichen Theor ien nicht herausseparieren lässt. Das Argument wird auch in jüngerer Zeit von Mathematischen Realisten hochgehalten (z. B. Resnik 1997, Kap. 3; Resnik 1998; Colyvan 2001). Die Logik des Unverzichtbarkeitsarguments bietet keine Erklärung für einen apriorischen und notwendigen Charakter mathematischen Wissens. Dass es uns so vorkommt, als ob mathematische Sätze diesen Charakter besäßen, könnte im Einklang mit dem Argument daran liegen, dass die Mathematik in das Geflecht unserer wissenschaftlichen Überzeugungen an praktisch jeder Stelle so fest eingeflochten ist, dass stets sehr starke pragmatische Gründe dagegen sprechen, an der akzeptierten Mathematik irgendwelche Änderungen vorzunehmen. Strenggenommen macht das Unverzichtbarkeitsargument die Mathematik aber zu einem bruchlosen Teil des Gesamtunternehmens empirische Wissenschaft. Es ist infolgedessen auch gegen das Argument eingewandt worden, dass es nur diejenigen Teile der Mathematik betrifft, die Anwendungserfolge in den Naturwissenschaften aufzuweisen haben (Maddy 1997, 105 f.). Tatsächlich räumt Putnam (1971, 56) ein, dass nicht-angewandte Mathematik als reine Spekulation angesehen werden müsse. Dass überhaupt die epistemische Grundlage unserer mathematischen Überzeugungen im Gesamterfolg der mathematisierten Naturwissenschaften zu suchen ist, ist ebenfalls nicht leicht mit Alltagsbeobachtungen und solchen der mathematischen Praxis in Einklang zu bringen. So scheinen elementare arithme61
II. Die Philosophie der Formal- und Geisteswissenschaften
tische Sätze ein hohes Maß an Offensichtlichkeit und von anderen Wissenschaftszweigen unabhängiger Einsehbarkeit zu besitzen (Parsons 1980). Und dort wo, sozusagen am anderen Ende des Spektrums, Mengentheoretikerinnen und -theo retiker um die Akzeptierbarkeit neuer Axiome ringen, müssten der Logik des Unverzichtbarkeitsarguments zufolge Anwendungsfragen eine große Rolle spielen – was aber Charles Chihara (1990, 15) zufolge typischerweise nicht der Fall ist. Ein holistisch durch das Unverzichtbarkeitsargument fundierter Mathematischer Realismus ist außerdem dafür kritisiert worden, dass er unerklärt lässt, warum der Bezug auf mathematische Gegenstände für Beschreibungen und Schlussfolgerungen, die sich scheinbar auf ganz andersartige (physische, konkrete) Gegenstände richten, unerlässlich ist (Shapiro 1997, 245; Wilholt 2004, 34 – 38). Wenn auch demnach das Unverzichtbarkeitsargument allein dem Mathematischen Realismus noch kein befriedigendes philosophisches Programm liefert, so bedeutet es doch eine Herausforderung, mit der sich der Mathematische Antirealismus auseinandersetzen muss. Eine der gründlichsten Auseinandersetzungen hat Hartry Field (1980, 1989) geliefert. Field ist Nominalist im modernen Sinn: Er streitet die Existenz abstrakter Gegenstände ab. Die Motivation für diesen Nominalismus ist eine erkenntnistheoretische. Da zwischen abstrakten Gegenständen und unseren Geisteszuständen keine kausalen Relationen bestehen könnten, sei nicht verständlich zu machen, auf welche Weise wir zu Überzeugungen kommen könnten, die auf verlässliche Weise mit dem korreliert wären, was bei den mathematischen Gegenständen der Fall ist (Field 1989, 25 – 29, 230 – 32). Wie soll überhaupt ein mentaler oder sprachlicher Bezug auf solche Gegenstände möglich sein? Das Problem wird in ähnlicher Weise bereits bei Paul Benacerraf (1973) aufgeworfen und spielt eine große Rolle für die Motivation des zeitgenössischen Nominalismus (vgl. Burgess/Rosen 1997). Wenn es die Gegenstände, von denen mathematische Sätze ihrer logikogrammatischen Form zufolge zu handeln scheinen, nicht gibt, dann ist der Satz von Euklid (»Es gibt unendlich viele Primzahlen«) strenggenommen falsch, so Field. Wenn wir Mathematik betreiben, tun wir allerdings so, als ob er wahr wäre. Mathematische Sätze haben daher Ähnlichkeiten mit Sätzen über fiktive Figuren: Der Satz »Sherlock Holmes und Dr. John H. Watson haben eine gemeinsame Wohnung in der Baker Street bewohnt« ist nicht wahr, aber wahr-in-den-Kriminalromanen-von-Conan-Doyle. Field bezeichnet seine Position daher auch als Fiktionalismus. Die zentrale Herausforderung für den Fiktionalismus ist es, zu erklären, warum Aussagen über fiktive Gegenstände sich bei der (wissenschaftlichen) Beschreibung der Erfahrungswirklichkeit als nützlich erweisen. Um der Herausforderung gerecht zu werden, muss der Fiktionalismus Field zufolge zeigen, dass die Mathematik entgegen dem Anschein doch verzichtbar für die Naturwissenschaften ist. Er vertritt daher die These der Nominalisierbarkeit: Mathematisierte naturwissenschaftliche Theor ien lassen sich im Prinzip auch ohne Bezug auf mathematische Gegenstände formulieren (»nominalisieren«). Nun erschöpft sich die Nützlichkeit der Mathematik nicht in der Formulierung naturwis62
Philosophie der Mathematik
senschaftlicher Aussagen; sie erweist sich auch als sehr verlässliches Instrument bei der Ableitung von Schlussfolgerungen. Zur These der Nominalisierbarkeit muss daher noch die der Konservativität hinzukommen: Mathematik stellt eine konservative Erweiterung nominalistischer Theorien (d. h. Theorien, die ohne Bezug auf mathematische Gegenstände auskommen) dar. (Als »konservative Erweiterung« gilt dabei eine mathematische Theorie S genau dann, wenn für jede nominalistische Aussage A und jede Menge nominalistischer Aussagen N gilt: Wenn A aus der Vereinigung von N und S logisch folgt, dann folgt A auch bereits aus N allein.) Die Nominalisierung hat Field (1980) am Beispiel der Newton’schen Gravi tationstheorie vorgeführt. Die Übertragbarkeit auf andere mathematisierte Theo rien ist allerdings bestritten worden (Malament 1982; Balaguer 1998, Kap. 6). Eine weitere Kritik betrifft die Konservativitätsthese. Die Kritik ist auch deshalb wichtig, da sie nicht nur für Fields Fiktionalismus Probleme aufwirft, sondern auch für andere nominalistische Ansätze, die sich in ihren Entwürfen substanziell auf die Relation der logischen Folgerung stützen (vgl. Wilholt 2006). Die Konservativitätsthese ist eine Behauptung der mathematischen Logik und hat daher, so die Kritik, selbst erheblichen mathematischen Gehalt. Genauer gesagt, kann der anspruchsvolle Begriff der logischen Folgerung, der in der These vorkommt, nur mit Hilfe der Modelltheor ie genau expliziert werden und besitzt daher eine implizite mengentheoretische Grundlage. Die scheinbar voraussetzungsarme Relation der logischen Folgerung A ⊨ B – in erster Näherung zu verstehen als der Umstand, dass in allen Strukturen, bei denen A gilt, auch B gilt – ist nur dann nicht-vakuös und nicht-trivial, wenn es A-erfüllende Strukturen überhaupt gibt. Je höher die in A gestellten strukturellen Ansprüche, desto anspruchsvoller sind auch die ontologischen Voraussetzungen der entsprechenden logischen Folgerungsbeziehung. Im Falle der klassischen Mathematik kann eine Ontologie aus konkreten Gegenständen dafür nicht ausreichend sein. Vergleichbare Kritiken sind gegen Field von verschiedenen Seiten vorgebracht worden (Malament 1982, 530; Resnik 1983, 517 f.; Detlefsen 1986, 22 f.). Field (1989, Kap. 3) reagierte darauf, indem er den fundamentalen Status des gerade skizzierten metalogischen Verständnisses der Folgerungsbeziehung in Frage stellte. Als fundamental solle man vielmehr einen primitiven, nicht weiter analysierbaren Begriff der logischen Notwendigkeit ansehen. Es ist allerdings nicht offensichtlich, wie wir eigentlich (ohne die Hilfe von Modell- und Beweistheor ie) detailliertes Wissen über fundamentale, nicht weiter analysierbare logische Modalitäten haben können (vgl. Wilholt 2004, 108 – 14). Das Unterfangen, die Fracht der ontologischen Voraussetzungen der Mathematik auf die Logik umzulagern, ist für jede Spielart des mathematischen Antirealismus mit Vorsicht zu genießen. Dies betrifft beispielsweise auch die etwas simplistische, manchmal als »Deduktivismus« oder »If-thenism« bezeichnete Auffassung, die Mathematik beschäftige sich nur damit, herauszufinden, welche Sätze logisch aus bestimmten Axiomensystemen folgten (ohne dass den Axiomen selbst ein bestimmter epistemischer Status zukäme). Nicht nur 63
II. Die Philosophie der Formal- und Geisteswissenschaften
müssen Deduktivistinnen und Deduktivisten behaupten, dass der Frage, was das Produkt aus 7 und 13 ist, nur vor dem Hintergrund unseres Axiomensystems eine bestimmte Antwort zukommt (und sich unter anderem fragen lassen, was Arithmetiker vor Dedekind eigentlich getrieben haben) – sie erkaufen mit dieser wenig attraktiven Position noch nicht einmal das sichere Recht auf eine Unabhängigkeit von einer Ontologie mathematischer Entitäten, da diese, verpackt in den Begriff der logischen Folgerung, auch für sie verbindlich bleiben könnte – es sei denn, die Verfügung über einen hinreichend anspruchsvollen Begriff der logischen Folgerung würde als primitiv vorausgesetzt. Eine weitere wichtige Entwicklung in den neueren Debatten um den Gegenstandsbereich der Mathematik ist die Verbreitung des Mathematischen Strukturalismus. Sie verläuft quer zur Debatte zwischen Nominalismus und Realismus, da es sowohl realistische als auch anti-realistische Varianten des Strukturalismus gibt, und lässt sich dennoch gut aus einer Herausforderung des Mathematischen Realismus à la Quine und Putnam heraus erläutern, die Benacerraf (1965) zuerst formuliert hat. Mathematische Realisten meinten oft, dass ihre Position »nur« auf die Ontologie einer hinreichend starken Mengenlehre verpflichtet sei, da sich alle relevanten mathematischen Theor ien auf diese reduzieren ließen. Nun gibt es aber (theoretisch unendlich viele) verschiedene mengentheoretische Reduktionen der Arithmetik – bekannt sind etwa die nach von Neumann: = ∅; = {∅}; = {∅, {∅}}; = {∅, {∅}, {∅, {∅}}}; … und die nach Zermelo: = ∅; = {∅}; = {{∅}}; = {{{∅}}}; …, die den Zweck gleich gut erfüllen. Ein Realismus mit mengentheoretischer Ontologie müsste sich also, so Benacerraf, fragen lassen, was denn nun richtig sei: = {∅, {∅}} oder = {{∅}}? Welches sind denn nun die richtigen natürlichen Zahlen? Die Antwort des Mathematischen Strukturalismus (Parsons 1990; Resnik 1997; Shapiro 1997) lautet in erster Näherung, dass das, worum es in der Arithmetik wirklich geht, weder die eine Folge von Mengen noch die andere sein kann, sondern etwas, das beiden gemeinsam ist: eine bestimmte Struktur. Die Struktur kann durch verschiedene Gegenstände realisiert werden – durch Zermelos Mengen, durch von Neumanns Mengen oder durch alle Tage der Ewigkeit ab heute. Natürliche Zahlen sind, strukturalistisch verstanden, nicht bestimmte solche Gegenstände, sondern Stellen oder Rollen in der Natürliche-Zahlen-Struktur. Genauso in anderen Bereichen der Mathematik: Wer die reelle Analysis studiert, lernt etwas über Relationen, die die reellen Zahlen untereinander haben: z. B. dass eine dichte lineare Ordnung bei ihnen besteht, dass es eine assoziative und kommutative Additionsoperation für sie gibt usw. Die Gesamtheit der Relationen ist nichts anderes als die Struktur. Es ist deshalb auch nicht überraschend, dass es innerhalb der Mathematik schon eine längere Tradition hat, die Mathematik als Wissenschaft von Strukturen aufzufassen. Besonders explizit wurde dies (schon in den 30er und 40er Jahren) von der Bourbaki-Gruppe vertreten (Bourbaki 1948). Grundideen des Strukturalismus hat aber schon Richard Dedekind (1888) vorweggenommen. 64
Philosophie der Mathematik
Strukturen, die unabhängig von ihren Realisierungen existieren, sind, wenn es sie gibt, abstrakte Gegenstände. Die realistische Variante des Strukturalismus, auch nicht-eliminativer oder Ante-rem-Strukturalismus genannt, bekennt sich zur Existenz der von der Mathematik studierten Strukturen (Shapiro 1997; Resnik 1997). Strukturen können, so die Ante-rem Strukturalisten, auch durch Abstraktion von konkreten Mustern in der Erfahrungswirklichkeit erfasst werden; vor allem aber erfolgt unser Zugriff auf sie dadurch, dass sie durch implizite Definitionen charakterisiert werden. Dagegen wollen eliminative oder In-re-Strukturalisten mathematische Sätze als eine Art allgemeine Aussagen über Systeme eines bestimmten Strukturtyps verstehen. Der Satz von Euklid zum Beispiel besagt demzufolge in erster Näherung, dass alle Systeme, die die Natürliche-Zahlen-Struktur aufweisen, unendlich viele Gegenstände mit der-und-der relationalen Eigenschaft enthalten. Dass Strukturen eine von konkreten Trägersystemen, in denen sie realisiert sind, unabhängige, eigenständige Existenz als abstrakte Gegenstände besitzen, scheint der In-re-Strukturalismus nicht vorauszusetzen. Er ist deshalb auch für Nominalisten attraktiv (Hellman 1989; Chihara 2004). Geoffrey Hellman (1989) zum Beispiel meint, dass jede mathematische Einzelaussage eigentlich elliptisch für eine modalisierte Allgemeinaussage steht, die er die modal-strukturale Interpretation der Einzelaussage nennt. Ist φ die Einzelaussage und S der Strukturtyp, auf den sie implizit Bezug nimmt (für keinen Strukturalisten kann es eine mathematische Einzelaussage ohne wenigstens impliziten Bezug auf eine Struktur geben), dann folgt die modal-strukturale Interpretation in erster Näherung dem Schema: ∀X (X weist eine S-Struktur auf → φ gilt in X). Um sicherzustellen, dass diese hypothetischen Übersetzungen nicht auf triviale Weise erfüllt sind, gehört für Hellman zur modal-strukturalen Interpretation immer noch zusätzlich eine kategorische Komponente: ∃X (X weist eine S-Struktur auf). Hellmans Struk turalismus kann beispielhaft für eine alternative Variante des Nominalismus gelten. Der Satz von Euklid ist dann eben nicht falsch (wie bei Field), sondern wahr, wenn man ihn richtig interpretiert. Nur folgt seine Semantik nicht seiner logikogrammatischen Oberfläche (seine Wahrheitsbedingungen funktionieren nicht wie die von nichtmathematischen Existenzaussagen). Die kategorische Komponente (die Hellmans Ansatz von einem bloßen Deduktivismus unterscheidet), ist ein kritischer Punkt. Die Möglichkeit der relevanten Strukturen kann, wenn es um den gesamten Umfang tatsächlicher mathematischer Praxis gehen soll, nicht im Allgemeinen anhand konkreter Realisierungen nachgewiesen werden. Die von Mengentheoretikern studierten Strukturen etwa übersteigen schon allein hinsichtlich Kardinalitäten alles, was auch mit viel Phantasie in der physischen Welt realisiert sein kann (Parsons 1990). Deshalb ist Hellmans Modalisierung wichtig, denn sie bewirkt, dass die modal-strukturale Interpretation »nur« die Annahme einbegreift, dass die in Rede stehende Struktur möglich ist (und nicht etwa tatsächlich konkret realisiert). Wie bei Field stellt sich jedoch die Frage, wie die relevanten Möglichkeitseinsichten z ugänglich und wissenschaftlich 65
II. Die Philosophie der Formal- und Geisteswissenschaften
erforschbar sein können. Ob sich durch den Trade-off zwischen Ontologie und Modalität ein Gewinn erzielen lässt, bleibt strittig. Zum in diesem Abschnitt beschriebenen Trend, bei dem sich die philosophische Reflexion des Gegenstandsbereichs der Mathematik von der innermathematischen Grundlagenproblematik ablöst und eigene, erkenntnistheoretisch und metaphysisch motivierte Fragestellungen verfolgt, gibt es allerdings eine nennenswerte Ausnahme in Form der Debatte um die Philosophie der Mengenlehre.4 Zwar liefert die Mengenlehre in Form der Standard-Axiomatisierung ZFC eine für die meisten Mathematikerinnen und Mathematiker pragmatisch befriedigende Basis für die Ontologie der Mathematik, doch die in ihrer internen Entwicklung auftretenden Fragestellungen geben ihrerseits Anlass zu philosophischen Überlegungen. Historischer Ausgangspunkt sind Unabhängigkeitsergebnisse. Ausgerechnet die Kontinuumshypothese (CH), deren unklarer Geltungsstatus der Mengenlehre seit deren Anfangstagen eine ihrer spannendsten Fragen vorgibt, erwies sich in den Jahren zwischen 1948 und 1963 als unabhängig von ZFC in dem Sinn, dass erwiesenermaßen weder CH noch ihre Negation aus den Axiomen folgt. Die Entdeckung weiterer unabhängiger Hypothesen (insbesondere über große Kardinalzahlen) folgte. Eine weit verbreitete Haltung dazu war und ist, dass es ein einziges tatsächliches Mengenuniversum geben muss, in dem CH und die anderen unabhängigen Hypothesen jeweils entweder wahr oder falsch sind, und dass eben ZFC als dessen Beschreibung noch nicht ausreicht, sondern neuer, zusätzlicher Axiome bedarf (vgl. etwa Maddy 2011). Dieser »universe view« fand scheinbare Bestätigung dadurch, dass durch unabhängig motivierte neue Axiome sich einige der von ZFC unabhängigen Aussagen über große Kardinalzahlen entscheiden ließen. Kritiker sehen jedoch den universe view herausgefordert durch die Erfahrung mit neueren Methoden der Mengenlehre, die auf der Basis von Standardmodellen für ZFC durch Modellkonstruktionsmethoden wie die Erzwingungsmethode (»Forcing«) Modelle für Mengenlehren mit verschiedensten Eigenschaften zu charakterisieren in der Lage sind: Modelle in denen CH gilt, in denen CH nicht gilt, in denen ℵn = ℵ n+ für jedes n ∈ ℕ gilt usw. Warum nicht die Erfahrungen mit diesen Modellen ontologisch ernst nehmen und konstatieren, dass die verschiedenartigen Mengenuniversen alle gleichermaßen real und des mathematischen Studiums würdig sind (Hamkins 2012)? Diese Haltung wird als »multiverse view« bezeichnet. Skizziert wie hier, hat sie einige Ähnlichkeit mit der als »full blooded platonism« bezeichneten Auffassung, der zufolge buchstäblich alle möglichen mathematischen Gegenstände tatsächlich existieren und dementsprechend jede konsistente mathematische Theorie eine wahrheitsgemäße Beschreibung eines bestimmten Teilbereichs der Welt abstrakter Gegenstände ist (Balaguer 1998) – nur dass der multiverse view seine Motivation ausdrücklich aus den Erfahrungen mit bestimmten mengentheoretischen Praktiken beziehen will. Inzwischen werden verschiedene Varianten des multiverse view diskutiert, darun4
Ein anonymer Gutachter hat mich auf diese Ausnahme hingewiesen.
66
Philosophie der Mathematik
ter auch solche, bei denen es nicht auf die ontologischen Implikationen ankommt (und die daher auch mit einem Mathematischen Antirealismus vereinbar sind), sondern auf einen soliden Pluralismus in der Mathematik, der es also beispielsweise entschieden ablehnt, die Frage, ob CH gilt oder nicht, überhaupt als eine zukünftig zu klärende oder zu entscheidende zu betrachten (vgl. Antos u. a. 2015).
4 Praktiken und Anwendungen der Mathematik Der Umstand, dass Mathematik sich erfolgreich anwenden lässt und insbesondere für die Formulierung, Entwicklung und Verwendung naturwissenschaftlicher Theorien von essenziellem Nutzen ist, wirft eigene Fragen auf. Es lassen sich mindestens zwei philosophische Probleme unterscheiden, die man als Bereichsproblem und als Erklärungsproblem bezeichnen kann (vgl. Wilholt 2004). Das Bereichsproblem ist die Frage, warum überhaupt für die Beschreibung eines bestimmten Gegenstandsbereiches (z. B. der Dynamik elektromagnetischer Felder) die Mathematik als Theorie eines ganz anderen Gegenstandsbereiches irgendeine Relevanz besitzen kann. Der Umstand ist erklärungsbedürftig, ganz gleich ob man diesen »anderen Gegenstandsbereich« als einen Bereich abstrakter Entitäten oder fiktiver Gegenstände auffasst. Eine klassische Antwort liefert ein Ansatz, den man als Repräsentationstheor ie bezeichnen könnte: Jeder Anwendung der Mathematik liegt eine durch Mess- und andere Konventionen hergestellte Abbildung von Eigenschaften und Relationen der Erfahrungswirklichkeit auf eine mathematische Struktur zugrunde, sodass bestimmte Elemente der mathematischen Struktur vermöge der Abbildungsbeziehung Zustände oder Vorgänge der Erfahrungswelt repräsentieren können. Die physischen und mathematischen Strukturen müssen nicht isomorph sein, denn es kann sein, dass die Abbildung nur zwischen einem Teil der mathematischen Struktur und einem Teil des Zielsystems besteht. Der repräsentationstheoretische Ansatz ist schon bei Helmholtz (1887) angelegt, liegt der modernen Messtheorie zugrunde (vgl. Krantz u. a. 1971) und wurde von Christopher Pincock (2012) als Philosophie der angewandten Mathematik ausbuchstabiert. Die Umlaufzeiten der Jupitermonde Ganimed und Io stehen zueinander im Verhältnis : . Nach dem repräsentationstheoretischen Ansatz hätte die Zahl nur vermöge der Konventionen der Zeitmessung etwas mit den Bahnen dieser beiden Himmelskörper zu tun. Das Beispiel verweist auf die Möglichkeit einer anderen Sichtweise: Dass das Verhältnis zwischen den Umlaufzeiten von Ganimed und Io genau 4 ist, muss jede sinnvolle Repräsentation des Systems der Galilei’schen Monde erkennen lassen. Zeiten sind extensive Größen; Verhältnisse zwischen solchen sind nicht bloß durch reelle Zahlen repräsentierbar, sie sind reelle Zahlen. Diese Auffassung ist (aufbauend auf Frege 1893/1903, Bd. 2, 84 f., 156 – 162) bei Wilholt (2004) ausgeführt. Allgemeiner besteht sie in der Vorstellung, dass zumindest einige mathematische Gegenstände Universalien sind, die in der Er67
II. Die Philosophie der Formal- und Geisteswissenschaften
fahrungswirklichkeit instanziiert sein können. Wenigstens bei einigen Anwendungen der Mathematik besteht dann ein unmittelbarer Bezug mathematischer Begriffe zu Eigenschaften und Relationen, die im Geflecht kausaler Prozesse realisiert sind, ohne dass erst durch Konvention eine Repräsentationsbeziehung hergestellt werden muss. Dass bestimmte mathematische Gegenstände Instanzen in der physischen Realität haben können, ist in einer anderen Variante auch von Penelope Maddy (1990) vorgeschlagen worden, die allerdings nicht Zahlen, sondern Mengen für diejenigen Entitäten hält, denen man in der Erfahrungswirklichkeit begegnen kann. Shapiro (1983) behandelt anwendbare Strukturen als Ganzes als instanziierbare Universalien. Das Erklärungsproblem der Anwendbarkeit der Mathematik setzt bei der Annahme an, dass sich die Naturwissenschaften (besonders die Physik) bei der Aufstellung von allgemeinen Beschreibungen an mathematischen Formen orientieren und dass sie mit dieser Vorgehensweise insgesamt sehr erfolgreich beim Auffinden der richtigen Gesetze sind. Woher stammt dieser Erfolg, wenn die in Rede stehenden mathematischen Strukturen im Allgemeinen zunächst ganz unabhängig von den in Rede stehenden Anwendungsgebieten erforscht wurden (vgl. Wigner 1960)? Mark Steiner (1998) zufolge haben bei der Entdeckung neuer physikalischer Gesetze auffällig häufig pythagoräische Analogien eine Rolle gespielt – das sind solche Analogien zwischen mathematisch formulierten physikalischen Gesetzen, die nicht in mathematikunabhängige Analogien übersetzt werden können. Die Mathematik spiegele in ihrer Entwicklung aber speziesspezifische, ästhetische Präferenzen wider, so dass die Ausnutzung pythagoräischer Analogien eine anthropozentrische Forschungsstrategie sei. Der erstaunliche Erfolg dieser Strategie nötigt uns Steiner zufolge die Schlussfolgerung ab, dass unser Universum die besondere Eigenschaft hat, auf die Erkenntnisfähigkeiten unserer Spezies besonders abgestimmt zu sein. Andere haben dagegen auf die große Zahl der in der Mathematik erforschten Strukturen und formalen Systeme hingewiesen, so dass es weniger überraschend scheint, wenn die Mathematik für eine physische relationale Struktur, die erstmalig Gegenstand der Aufmerksamkeit der Naturwissenschaften wird, bereits passende Begriffe im Repertoire hat (Grattan-Guinness 1992, 105). Gegen die Erfolge pythagoräischer Analogien müssten bei einer nüchternen Betrachtung der Wissenschaftsgeschichte auch die Misserfolge abgewogen werden, die nie in den Lehrbüchern landen. Und schließlich ist bestreitbar, dass die Entwicklung der Mathematik wirklich ästhetischen Präferenzen folgt. Historisch scheinen sehr verschiedenartige Ziele die Forschungsprioritäten beeinflusst zu haben, darunter immer auch Anwendungsinteressen. Wenn etwa zentrale Teile der Mathematik mit Universalien befasst sind, die Instanzen in der Erfahrungswirklichkeit haben, sind die Erfolge der Orientierung der Naturwissenschaften an den entsprechenden mathematischen Begriffen weniger erstaunlich. Scheinbar pythagoräische Analogien können sich dann sogar nachträglich in mathematikunabhängige Analogien übersetzen und ihr Erfolg so ex post erklärt werden (Wilholt 2004, 265 – 281). 68
Philosophie der Mathematik
Mit der Frage der Anwendbarkeit verknüpft ist eine neuere Debatte über die explanatorische Rolle der Mathematik in den Naturwissenschaften. Welchen Beitrag leistet Mathematik genau zu Praktiken des Erklärens? Einem wirkungsreichen Beitrag von Bob Batterman (2002) zufolge liegt die Stärke der Mathematik bei naturwissenschaftlichen Erklärungen darin, durch das Ignorieren von Details Einsichten zu ermöglichen. Das wesentliche mathematische Instrument dazu ist Batterman zufolge asymptotisches Denken, also die Methode des Grenzübergangs. Durch das Weglassen der Details der Kausalstruktur treten dabei die strukturell stabilen Aspekte des Phänomens hervor. Battermans Überlegungen legen nahe, dass gute Erklärungen oft gerade nicht kausale Mechanismen nachzeichnen. Damit verwandt ist die Frage, ob es genuin mathematische Erklärungen natürlicher Phänomene gibt – Erklärungen, bei denen der erzielte Verständnisgewinn wesentlich durch die Mathematik geleistet wird. Baker (2005) nennt als ein solches Beispiel die Erklärung der Lebenszyklen von drei Zikadenarten. Bei diesen leben die Tiere als Larven 13 oder 17 Jahre lang in einem unterirdischen Versteck und kommen dann (regional synchronisiert) für wenige Tage zum Vorschein, um sich zu paaren und fortzupflanzen. Die Erklärung der Zykluslänge besteht darin, dass es einen evolutionären Vorteil bietet, ein Zusammenfallen mit den Lebenszyklen von Feinden und Konkurrenten möglichst zu vermeiden. Primzahlige Vielfache von Jahren minimieren die Gefahr eines solchen Zusammenfallens. Baker/Colyvan (2011) argumentieren dafür, dass in diesem und weiteren, vergleichbaren Fällen die Mathematik einen echten (oft den entscheidenden) Beitrag zur Erklärungskraft des Explanans leiste. Der Beitrag der Mathematik zu Erklärungen könne nicht (immer) darauf reduziert werden, dass sie bloß dazu diente, auf ein Stück physische Realität zu verweisen (das der eigentliche Träger der explanatorischen Rolle wäre). Die Frage der Existenz genuin mathematischer Erklärungen für physische Phänomene spielt auch eine Rolle für die Diskussion des Unverzichtbarkeitsarguments: In Fällen, bei denen der mathematische Gehalt einen unentbehrlichen Beitrag zur Erklärungskraft liefert, sollte er auch (im Sinne eines Schlusses auf die beste Erklärung) ontologisch ernst genommen werden. Baker (2005) meint, dass das Argument in solchen Fällen sogar unabhängig von Quines und Putnams Bestätigungsholismus ist. Wie kann Mathematik überhaupt aus sich heraus Beiträge zum Verständnis und zu Erklärungen leisten? Eine befriedigende Beantwortung dieser Frage würde zunächst ein besseres Verständnis innermathematischer Erklärungen voraussetzen. Hier hat die Philosophie der Mathematik verhältnismäßig wenige Fortschritte gemacht (siehe jedoch Mancosu 2015). Steiner (1978) hat vorgeschlagen, als explanatorisch nur solche Beweise gelten zu lassen, die das Ergebnis aus den »charakterisierenden« Eigenschaften der betreffenden mathematischen Entitäten herleiten. Der Ansatz scheint jedoch nicht nur durch Gegenbeispiele kritisierbar (Hafner/Mancosu 2005), er lässt auch viele phänomenologisch bedeutsame Aspekte mathematischer Erklärungen aus. Ob ein Beweis das Bewiesene erklärt, scheint auch davon abzuhängen, ob sich die Gesamtheit seiner Einzelschritte zu 69
II. Die Philosophie der Formal- und Geisteswissenschaften
einer »Beweisidee« zusammenfügen lässt. Das Maß, in dem der Beweis erkennen und nachvollziehen lässt, wie die Voraussetzungen des Beweises das Resultat erzeugen und in dieses eingehen, spielt dafür ebenfalls eine Rolle. Konstruktive Beweise scheinen ceteris paribus mehr zu erklären als indirekte; bei Fallunterscheidungen scheint es nicht nur auf die Zahl, sondern auch die Systematik der unterschiedenen Fälle anzukommen. Der Philosophie mathematischer Erklärungen stehen noch viele interessante Forschungsfragen offen. In jüngerer Zeit unternimmt die Philosophie der Mathematik mehr und mehr Schritte, neben dem Beweisen, Erklären und Anwenden von Mathematik weitere mathematische Praktiken ins Visier zu nehmen. Visualisierungen haben seit jeher eine große Rolle in der Mathematik gespielt – nicht nur als Illustrationen, sondern auch als Träger mathematischer Erklärungen, als unverzichtbare heuristische Instrumente und möglicherweise (was sich kontrovers diskutieren lässt) als Beweise (Giaquinto 2007; Brown 2008, Kap. 3). Die Rolle von Computern in der Mathematik ist komplex und philosophisch interessant – nicht nur wegen der umstrittenen Geltung von Computerbeweisen, sondern auch in Form von Praktiken, bei denen Computer keine Beweise, aber schwächere Formen von Belegen für mathematische Vermutungen liefern, in deren Lichte dann Wahrscheinlichkeitsaussagen über diese getroffen werden (Avigad 2008). Mathematische Notationen sind schon lange zentral für die Praxis der Mathematik (Brown 2008, Kap. 6; Colyvan 2012, Kap. 8). Geeignete Notationen können zur Entdeckung neuer Strukturen und neuer Sätze und Beweise führen; diese Rolle ist nicht als eine »bloß heuristische« zu unterschätzen – Notation entscheidet vielleicht mit darüber, in welche Richtung sich die Mathematik weiter entwickelt.
5 Schluss Eine Auffälligkeit der Philosophie der Mathematik innerhalb des Gefüges der Philosophien der Einzelwissenschaften ist die tiefgreifende Verschiedenheit der Ansichten, die sich in ihr erhält und repliziert. Die Philosophie der Mathematik zeigt keine Anzeichen, auf einen Mainstream einzuschwenken. Noch nicht einmal hinsichtlich der Frage, wovon ihre Gegenstandswissenschaft handelt, gibt es eine dominierende Position, geschweige denn einen Konsens. Dazu gehört auch, dass Positionen, die einmal in schwere Kritik geraten sind, deshalb in der Philosophie der Mathematik noch nicht obsolet werden. Sie werden oft wieder aufgegriffen und weiterentwickelt. In den obigen Ausführungen konnte nicht auf alle derartigen Entwicklungen eingegangen werden, daher schließe ich exemplarisch mit drei Illustrationen dieses Phänomens. So gibt es inzwischen eine lebendige Forschungslinie des Neologizismus. Er setzt bei der Beobachtung an, dass Freges fehlgeschlagene Theor ie der Begriffsumfänge im Kern dazu dienen sollte, das folgende Prinzip zu stützen, das manchmal »Humes Prinzip« genannt wird: Für alle Begriffe F, G ist die Anzahl der Fs genau dann 70
Philosophie der Mathematik
identisch mit der Anzahl der Gs, wenn sich eine eineindeutige Zuordnung zwischen den Fs und den Gs herstellen lässt. Von Humes Prinzip aus lässt sich die Herleitung der Dedekind-Peano-Arithmetik à la Frege und ohne zweifelhafte mengentheoretische Voraussetzungen mit Hilfe einer Logik zweiter Stufe bewerkstelligen. Neologizisten setzen deshalb bei Humes Prinzip an und verzichten auf dessen Reduktion auf elementarere, »rein logische« Annahmen (Boolos 1987; Wright 1983; Hale/Wright 2001). Eine Grundidee ist dabei, dass zwar Humes Prinzip selbst nicht logisch wahr ist, aber nichts weiter voraussetzt als Begriffsbildung durch Abstraktion. Auch die empiristische Sichtweise der Mathematik ist, in raffinierterer Form als bei Mill, wieder aufgegriffen worden, insbesondere von Philip Kitcher (1983). (Einmal abgesehen davon, dass auch Quines und Putnams holistischer Realismus eine letztlich empiristische Auffassung der Mathematik impliziert.) Nach Kitcher hat mathematische Erkenntnis ihre Ursprünge in Tätigkeiten des Sammelns, Zuordnens und Zählens. Zahlen etwa sollten nicht als Eigenschaften der gezählten Aggregate verstanden werden, sondern als abstrahierte Handlungen eines idealen Operators. Im Laufe der Mathematikgeschichte ist dann die Konzeption dieses idealen Subjekts immer weiterentwickelt worden. Kitcher selbst will einen Mathematischen Realismus vermeiden, aber Handlungstypen seines idealen Operators scheinen in vielen Fällen doch eher abstrakte Entitäten zu sein, die von konkreten Analoga in Handlungen tatsächlicher Akteure weit entfernt sind – überabzählbare Mengen etwa können nur auf eine sehr abstrakte Weise zu realen Sammlungs- und Zuordnungsoperationen in Relation gesetzt werden. Schließlich hat sogar der Platonismus unter Einschluss der Vorstellung eines besonderen Erkenntnisvermögens für mathematische Wahrheiten eine Wiederbelebung erlebt, nämlich bei James R. Brown (2008, 2012). Brown hält dafür, dass wir mathematischen Intuitionen in der Mathematik einen ähnlichen Status einräumen sollen wie Beobachtungen in den Naturwissenschaften und argumentiert, dass dies allein die Durchschlagkraft bestimmter Erkenntnisformen in der Mathematik erklären kann – insbesondere solcher, die auf Bildern und Anschauungen beruhen. Er bleibt jedoch eine genaue Erklärung der Funktionsweise mathematischer Intuition und ihrer Vereinbarkeit mit einer naturalistischen Sichtweise des menschlichen Geistes schuldig.
71
II. Die Philosophie der Formal- und Geisteswissenschaften
Literatur Empfehlungen: Thomas Bedürftig und Roman Murawski (2015) haben die umfassendste deutschsprachige Darstellung der Philosophie der Mathematik inzwischen in dritter Auflage vorgelegt. Sie legen besondere Schwerpunkte auf die Grundlagen der Mathematik und auf klassische Autoren, reißen aber auch aktuelle Debatten an. In englischer Sprache bieten Bostock (2009) und Shapiro (2000) philosophisch ausführliche, dichte und hilfreiche Einführungen, die an den Mainstream der aktuellen, internationalen Debatte heranführen. Brown (2008) liefert eine gründliche und gut verständliche Einführung mit einigen alternativen Schwerpunkten (u. a. zu seiner eigenen Variante des Platonismus, zu Wittgensteins Philosophie der Mathematik, zu Computerbeweisen). Eine sehr knappe Einführung zu einigen aktuellen Themen der Philosophie der Mathematik steht mit Colyvan (2012) zur Verfügung.
Antos, Carolin, Sy-David Friedman, Radek Honzik und Claudio Ternullo (2015). Multiverse Conceptions in Set Theory. Synthese 192, 2463 – 2488. Aristoteles. Metaphysik. Übers. v. Thomas A. Szlezák. Berlin: Akademie Verlag 2003. – Physik. Griechisch – Deutsch. Übers. v. Hans Günter Zekl. 2 Bde. Hamburg: Meiner 1987. Avigad, Jeremy (2008). Computers in Mathematical Inquiry. In: Paolo Mancosu (Hg.). The Philosophy of Mathematical Practice. Oxford: Oxford University Press, 302 – 316. Baker, Alan (2005). Are there Genuine Mathematical Explanations of Physical Phenomena? Mind 114 (454), 223–238. – und Mark Colyvan (2011). Indexing and Mathematical Explanation. Philosophia Mathematica 19 (3), 323–334. Balaguer, Mark (1998). Platonism and Anti-Platonism in Mathematics. New York: Oxford University Press. Batterman, Robert (2002). The Devil in the Details: Asymptotic Reasoning in Explanation, Reduction, and Emergence. Oxford: Oxford University Press. Bedürftig, Thomas, und Roman Murawski (2015). Philosophie der Mathematik. 3. Aufl. Berlin: De Gruyter. Benacerraf, Paul (1965). What Numbers Could Not Be. Philosophical Review 74, 221 – 32. – (1973). Mathematical Truth. The Journal of Philosophy 70(19), 661 – 6 76. Boolos, George (1987). The Consistency of Frege’s Foundations of Arithmetics. In: George Boolos. Logic, Logic, Logic. Cambridge, Massachusetts: Harvard University Press, 183 – 2 01. Bostock, David (2009). Philosophy of Mathematics: An Introduction. Malden, Massachusetts: Wiley-Blackwell. Bourbaki, Nicholas (1948). The Architecture of Mathematics. In: William Ewald (Hg.). From Kant to Hilbert: A Source Bok in the Foundations of Mathematics. Bd. 2. Oxford: Clarendon 1996, 1265 – 1276. Brouwer, Luitzen Egbertus Jan (1912). Intuitionism and Formalism, in: Paul Bena72
Philosophie der Mathematik
cerraf und Hilary Putnam (Hg.). Philosophy of Mathematics. Selected Readings. 2. Aufl. Cambridge: Cambridge University Press 1983, 77–89. Brown, James Robert (2008). Philosophy of Mathematics: A Contemporary Introduction to the World of Proofs and Pictures. 2. Aufl. New York: Routledge. – (2012). Platonism, Naturalism, and Mathematical Knowledge. New York: Routledge. Burgess, John P., und Gideon Rosen (1997). A Subject with No Object: Strategies for Nominalistic Interpretation of Mathematics. Oxford: Clarendon. Carnap, Rudolf (1930). Die Mathematik als Zweig der Logik. Blätter für Deutsche Philosophie 4, 298 – 310. Chihara, Charles S. (1990). Constructibility and Mathematical Existence. Oxford: Clarendon. – (2004). A Structural Account of Mathematics. Oxford: Oxford University Press. Colyvan, Mark (2001). The Indispensability of Mathematics. New York: Oxford University Press. – (2012). An Introduction to the Philosophy of Mathematics. Cambridge: Cambridge University Press. Curry, Haskell B. (1951). Outlines of a Formalist Philosophy of Mathematics. Neudr. Amsterdam: North-Holland 1970. D'Alembert, Jean Lerond (1751). Einleitung zur Enzyklopädie. Hg. v. Erich Köhler. 2. Aufl. Hamburg: Meiner 1975. Daston, Lorraine J. (1988). Fitting Numbers to the World: The Case of Probability Theory. In: Philip Kitcher und William Aspray (Hg.). History and Philosophy of Modern Mathematics. Minneapolis: University of Minnesota Press, 221 – 237. Dedekind, Richard (1888). Was sind und was sollen die Zahlen? Nachdr. d. 10. Aufl. Braunschweig: Vieweg 1969. Detlefsen, Michael (1986). Hilbert’s Program: An Essay on Mathematical Instrumentalism. Dordrecht: Reidel. Dummett, Michael (1977). Elements of Intuitionism. 2. Aufl. New York: Oxford University Press 2000. Field, Hartry (1980). Science Without Numbers. Princeton: Princeton University Press. – (1989). Realism, Mathematics and Modality. Oxford: Blackwell. Frege, Gottlob (1884). Die Grundlagen der Arithmetik. Stuttgart: Reclam 1987. – (1893/1903). Grundgesetze der Arithmetik. 2 Bde., wiederabgedruckt in 1 Bd. Hildesheim: Olms 1998. Giaquinto, Marcus (2007). Visual Thinking in Mathematics. Oxford: Oxford University Press. Gödel, Kurt (1947). What Is Cantor’s Continuum Problem? In: Paul Benacerraf und Hilary Putnam (Hg.). Philosophy of Mathematics. Selected Readings. 2. Aufl. Cambridge: Cambridge University Press 1983, 470 – 485. Grattan-Guinness, Ivor (1992). Structure-similarity as a Cornerstone of the Philosophy of Mathematics. In: Javier Echeverria, Andoni Ibarra und Thomas Mormann (Hg.). The Space of Mathematics: Philosophical, Epistemological and Historical Explorations. Berlin: De Gruyter, 91 – 112. 73
II. Die Philosophie der Formal- und Geisteswissenschaften
Hafner, Johannes, und Paolo Mancosu (2005). The Varieties of Mathematical Explanation. In Paolo Mancosu, Klaus Frovin Jørgensen und Stig Andur Pedersen (Hg.), Visualization, Explanation and Reasoning Styles in Mathematics, Berlin: Springer, 215–250. Hahn, Hans (1933). Die Krise der Anschauung. In: Michael Stöltzner und Thomas Uebel (Hg.). Der Wiener Kreis. Hamburg: Meiner 2006, 515 – 542. Hale, Bob, und Crispin Wright (2001). The Reason's Proper Study: Essays towards a Neo-Fregean Philosophy of Mathematics. Oxford: Clarendon. Hamkins, Joel David (2012). The Set-theoretic Multiverse. Review of Symbolic Logic 5, 416 – 4 49. Hellman, Geoffrey (1989). Mathematics Without Numbers. Oxford: Oxford University Press. Helmholtz, Hermann von (1876). Über den Ursprung und die Bedeutung der geometrischen Axiome. In: Hermann von Helmholtz: Vorträge und Reden. Bd. 2. 4. Aufl. Braunschweig: Vieweg 1883, 1 – 31. – (1887). Zählen und Messen, erkenntnistheoretisch betrachtet. In: Herbert Hörz und Siegfried Wollgast (Hg.). Hermann von Helmholtz: Philosophische Vorträge und Aufsätze. Berlin: Akademie Verlag 1971, 301 – 355. Heyting, Arend (1956). Intuitionism: An Introduction. 2. Aufl. Amsterdam: North Holland 1966. Hilbert, David (1922). Neubegründung der Mathematik. Erste Mitteilung. In: Hilbertiana. Fünf Aufsätze von David Hilbert. Darmstadt: Wissenschaftliche Buchgesellschaft 1964, 12 – 32. – (1925). Über das Unendliche. Mathematische Annalen 95, 161 – 190. Kitcher, Philip (1983). The Nature of Mathematical Knowledge. Oxford: Oxford University Press. Kleene, Stephen Cole (1952). Introduction to Metamathematics. Amsterdam: North Holland. Kant, Immanuel (1781/87). Kritik der reinen Vernunft. Hg. v. Raymund Schmidt. Hamburg: Meiner 1993. – (1783). Prolegomena zu einer jeden künftigen Metaphysik, die als Wissenschaft wird auftreten können. Hg. v. Konstantin Pollok. Hamburg: Meiner 2001. Krantz, David H., R. Duncan Luce, Patrick Suppes und Amos Tversky (1971). Foundations of Measurement. Bd. 1. New York: Academic Press 1971. Maddy, Penelope (1997). Naturalism in Mathematics. Oxford: Clarendon. – (2011). Defending the Axioms: On the Philosophical Foundations of Set Theory. Oxford: Oxford University Press. Malament, David (1982). Rezension von Field 1980. Journal of Philosophy 79, 523 – 534. Mancosu, Paolo (2015). Explanation in Mathematics. In: Edward N. Zalta (Hg.).The Stanford Encyclopedia of Philosophy (Summer 2015 Edition), http://plato.stanford. edu/archives/sum2015/entries/mathematics-explanation/, 09.08.2015. Parsons, Charles (1980). Mathematical Intuition. Proceedings of the Aristotelian Society 80, 145 – 6 8. 74
Philosophie der Mathematik
– (1990). The Stucturalist View of Mathematical Objects. Synthese 84 (3), 303 – 346 Pincock, Christopher (2012). Mathematics and Scientific Representation. Oxford: Oxford University Press. Platon. Menon. Griechisch/Deutsch. Übers. u. hrsg. v. Margarita Kranz. Stuttgart: Reclam 1994. – Phaidon. Übersetzung und Kommentar von Theodor Ebert. Göttingen: Vandenhoeck & Ruprecht 2004. – Der Staat [Politeia]. Übers. v. Otto Apelt. Hamburg: Meiner 1989. – Timaios. Griechisch - Deutsch. Übers. u. hrsg. v. Hans Günter Zekl. Hamburg: Meiner 1992. Poincaré, Henri (1902). Wissenschaft und Hypothese. Übers. v. Ferdinand und Lisbeth Lindemann. Darmstadt: Wissenschaftliche Buchgesellschaft 1974. Putnam, Hilary (1971). The Philosophy of Logic. New York: Harper. Quine, Willard Van Orman (1966/76). The Ways of Paradox and Other Essays. Überarb. u. erw. Ausg. Cambridge (Massachusetts): Harvard University Press 1976. Resnik, Michael D. (1983). Rezension von Field 1980. Noûs 17, 514 – 519. – (1997). Mathematics as a Science of Patterns. Oxford: Clarendon. – (1998). Holistic Mathematics. In: Matthias Schirn (Hg.). The Philosophy of Mathematics Today. Oxford: Clarendon, 227 – 246. Shapiro, Stewart (1983). Mathematics and Reality. Philosophy of Science 50, 523 – 549. – (1997). Philosophy of Mathematics: Structure and Ontology. Oxford: Oxford University Press. – (2000). Thinking about Mathematics: The Philosophy of Mathematics. Oxford: Oxford University Press. Steiner, Mark (1978). Mathematical Explanation. Philosophical Studies 34, 135–151. – (1998). The Applicability of Mathematics as a Philosophical Problem. Cambridge/ MA: Harvard University Press. Wigner, Eugene P. (1960). The Unreasonable Effectiveness of Mathematics in the Natural Sciences. In: Walter J. Moore und Michael Scriven (Hg.). Symmetries and Reflections: Scientific Essays of Eugene P. Wigner. Bloomington: Indiana University Press 1967, 222 – 237. Wilholt, Torsten (2004). Zahl und Wirklichkeit. Eine philosophische Untersuchung über die Anwendbarkeit der Mathematik. Paderborn: Mentis. – (2006). Think about the Consequences! Nominalism and the Argument from the Philosophy of Logic. Dialectica 60(2), 115 – 133. – (2012). Conventionalism: Poincaré, Duhem, Reichenbach. In: James R. Brown (Hg.). Philosophy of Science: The Key Thinkers. London: Continuum, 32 – 52. Wright, Crispin (1983). Frege’s Conception of Numbers as Objects. Aberdeen: Aberdeen University Press.
75
2. Philosophie der Philosophie Eugen Fischer
Nach zwanzig Jahren der Vernachlässigung spielt die Philosophie der Philosophie bzw. Metaphilosophie wieder eine zentrale Rolle – und gibt dem Fach seit der Jahrtausendwende neue Impulse. Sie untersucht Struktur, »Wesen« und Entstehung philosophischer Probleme, Ziele und Motivation philosophischer Arbeit, Möglichkeiten und Arten philosophischer Erkenntnis sowie Methoden und Arbeitstechniken der Philosophie. Ihre Leitfragen lauten: – Mit welchen Arten von Problemen beschäftigt sich die Philosophie? Wie unterscheiden sie sich von den Problemen anderer Disziplinen? – Warum sollten wir uns mit solchen Problemen befassen? Was sollen philosophische Theor ien leisten? Wozu ist philosophische Reflektion gut? – Was für Erkenntnisse lassen sich aus dem sprichwörtlichen philosophischen Lehnstuhl gewinnen? Wie können (und müssen?) wir sie mit empirischen Erkenntnissen zusammenbringen? – Welche Methoden und Arbeitstechniken verwenden Philosophen? Was lässt sich mit solchen Methoden erreichen? Wie können wir sie um neue Methoden ergänzen? Das vorliegende Kapitel skizziert, wie die historische Entwicklung insbesondere der analytischen Philosophie diese Fragen zuspitzt und zur lebhaften Diskussion in der Gegenwart geführt hat (Abschnitt 1). Arten und Möglichkeiten philosophischer Erkenntnis werden vor allem im Zuge der Debatte um die Rolle von Intuitionen in der Philosophie behandelt (Abschnitt 2). Wie die weitergehende Diskussion um philosophische Methoden wird diese Debatte geprägt von der Auseinandersetzung mit der experimentellen Philosophie. Diese philosophische Bewegung setzt experimentelle Methoden und Erkenntnisse aus der Psychologie für neue philosophische Ziele ein, etwa für die Ermittlung und Bewertung philosophisch relevanter Intuitionen (Abschnitt 3). Die ansonsten üblicherweise impliziten Hintergrundannahmen über Ziele und Motivationen philosophischer Arbeit sowie Fragen nach charakteristischen Eigenarten philosophischer Probleme werden in Debatten um kognitive versus therapeutische Philosophiekonzeptionen explizit verhandelt (Abschnitt 4). In all diesen Debatten finden wir deutliche Anzeichen für die zunehmende Entwicklung der Metaphilosophie zu einer empirischen Disziplin, deren Beiträge in absehbarer Zukunft zu einer ebenso tiefgreifenden Transformation der Philosophie führen könnten, wie sie der Siegeszug der analytischen Philosophie seinerzeit mit sich brachte. 77
II. Die Philosophie der Formal- und Geisteswissenschaften
1 Einleitung Viele der genannten Leitfragen lassen sich ganz ähnlich auch über andere Fächer stellen. Anders als viele andere Fächer hat die Philosophie jedoch keinen offensichtlich eingrenzbaren Themen- oder Gegenstandsbereich und kaum spezifische, für sie grundlegende Methoden. Eine etwas grobschlächtige, aber durchaus treffende Karikatur der historischen Entwicklung der Philosophie (vgl. Austin 1961, 232) macht dies verständlich: Zunächst galt jedes Nachdenken als philosophisch, das weder unmittelbar auf praktische Zwecke gerichtet war noch jeglicher Strenge entbehrte. Dementsprechend gibt es kaum einen Themenbereich, der nicht zum Gegenstand philosophischer Überlegung geworden wäre. Philosophen entwickelten und verwendeten dabei generische Formen der Argumentation, die sich auf Probleme und Themen aller Art anwenden lassen. In dem Maße, in dem für bestimmte Problembereiche distinktive Ansätze und Methoden entwickelt wurden, bildeten sich neue Expertengruppen heraus, aus denen oft eigene Fachgemeinschaften hervorgingen und die viele neue Disziplinen hervorbrachten, von der Mathematik (Antike) über die Physik (17. Jahrhundert) bis zur Psychologie (19. Jahrhundert). Dementsprechend entstanden diese Fächer zusammen mit für sie als zentral akzeptierten Begriffen, Annahmen, Methoden und erkenntnisleitenden Interessen, die sie als wissenschaftliche Disziplin konstituierten. Dagegen stellt sich Philosophen bis heute die Aufgabe, ihr Fach – und nicht nur die von Kant (1787/1956: B xv) in diesem Zusammenhang erwähnte Metaphysik – auf den sicheren Pfad einer Wissenschaft zu lenken. So fehlt der Philosophie bis heute ein das ganze Fach einendes Paradigma im ersten der von Thomas Kuhn unterschiedenen Sinne, jene »disziplinäre Matrix« oder »Konstellation von Meinungen, Werten, Methoden usw. die von den Mitgliedern einer gegebenen Gemeinschaft geteilt werden« (Kuhn 1976, 186) und durch die sie sich von anderen Fachgemeinschaften unterscheiden. Stattdessen grenzt sich die Philosophie von anderen Fächern vermittels ihrer Modelle oder paradigmatischen Beispiele ab (ähnlich der Paradigmen im zweiten Kuhn’schen Sinne). Dabei handelt es sich um Forschungsleistungen, auf die in Forschung und Lehre als besonders repräsentative Beispiele für bestimmte Arten philosophischer Problembewältigung zurückgegriffen wird. Das erste Modell, das die analytische Philosophie des 20. Jahrhunderts in dieser Weise leitete, war Russells Aufsatz »On Denoting« (Russell 1905), der zugleich einen bestimmten Ansatz – logische Analyse – vorführte und anhand von Russells Kennzeichnungstheor ie aufzeigte, wie eine spezifisch philosophische Theor ie aussehen kann: Sie kann die logische Form von Ausdrücken, deren Bezug oder Bedeutung philosophische Probleme aufwerfen, analysieren und sie so auf andere Ausdrücke zurückführen, die nicht in dieser Weise problematisch sind. Um solchen Vorbildcharakter anzunehmen, müssen philosophische Texte eine bestimmte Weise, philosophische Probleme zu konzeptualisieren oder Theor ien zu konstruieren, klar exemplifizieren oder neue Methoden oder Arbeitstechni78
Philosophie der Philosophie
ken anschaulich zur Anwendung bringen. Sie müssen dafür nicht inhaltlich einflussreich sein. Umgekehrt erlangten die meisten Beiträge, die philosophische Debatten inhaltlich beeinflussten, diesen Vorbildstatus nicht – entweder weil sie bereits wohlvertraute oder rein generische Formen der Argumentation verwendeten oder weil ihre Herangehensweise zu subtil oder kompliziert war, um halbwegs konsensuell als Exemplifikation einer bestimmten lehrbaren Methodik interpretiert werden zu können (was etwa bei Wittgensteins Philosophischen Untersuchungen (1953) der Fall gewesen sein mag). Weitere Beispiele für Vorbilder aus dem Bereich der theoretischen Philosophie sind Carnaps »Psychologie in physikalischer Sprache« (1932/33), Moores »Beweis einer Außenwelt« (1939), Ryles Begriff des Geistes (1949), Austins »Plea for Excuses« (1956), Gettiers »Ist gerechtfertigte wahre Überzeugung Wissen?« (1963) zusammen mit einigen klassischen Antworten (wie zum Beispiel Goldman 1976 und Lehrer/Paxton 1966) sowie Davidsons »Wahrheit und Bedeutung« (1967) und Kripkes Name und Notwendigkeit (1972/1980). Diese sehr verschiedenen Modelle lassen sich zwar nicht unter eine »disziplinäre Matrix« subsumieren. Die meisten lassen sich aber als verschiedene Interpretationen eines Leitthemas oder Slogans betrachten: »Wir lösen philosophische Probleme durch Begriffsanalyse, die wesentlich Sprachanalyse beinhaltet (aber keine psychologische Forschung).« Ähnlich wie ein musikalisches Thema mit verschiedenen Instrumenten gespielt und variiert werden kann, so geben verschiedene Modelle diesem Leitthema oder Slogan einen je anderen Gehalt, indem sie unterschiedliche Ansätze logischer, semantischer und pragmatischer Analyse verwenden (die sich erst im Zuge analytischer Forschung ausdifferenzierten) und verschiedenartige Ziele verfolgen: Logische Analyse zum Beispiel wurde ebenso dazu verwendet, philosophische Fragen zu beantworten (Russell 1905) wie sie als sinnlos zu entlarven (Carnap 1932/33); sie wurde ebenso dazu herangezogen, die Struktur der Dinge in der Welt zu erhellen (Russell 1918) wie die Struktur von Behauptungen über die Welt (Hempel 1935; Quine 1953). Trotz oder gerade wegen seiner vielfältigen Interpretierbarkeit diente dieses Leitthema zumindest drei Generationen analytischer Philosophen zur (Selbst-) Abgrenzung von anderen philosophischen Traditionen und wissenschaftlichen Disziplinen. Es fungierte damit als Ausgangspunkt metaphilosophischer Diskussion – bis in die 1970er Jahre, als immer mehr analytische Philosophen sich nicht mehr mit »bloßer Begriffsanalyse« zufriedengeben, sondern Tatsachen über die Welt erklären wollten (vgl. Armstrong 1977/1995, 175 – 177). Ein Leitthema wie das der analytischen Philosophie dient nicht nur der Herstellung einer kollektiven disziplinären Identität, sondern zugleich der Legitimation: Es bringt philosophische Leistungen in einer Weise auf den Punkt, die herausstellt, inwiefern sie intellektuell lohnend sind, sich von den Leistungen anderer Disziplinen unterscheiden und sich mit Mitteln erbringen lassen, die Philosophen zur Verfügung stehen. Die ersatzlose Ablehnung eines solchen Leitthemas er79
II. Die Philosophie der Formal- und Geisteswissenschaften
öffnet mithin stets von neuem die Legitimitätsfrage für das Fach. Vielleicht aus diesem Grunde folgten der zunehmenden Ablehnung des obigen Themas die Ausklammerung und Verdrängung bedrohlich gewordener metaphilosophischer Fragen aus dem mainstream der analytischen Philosophie, in der sich Umwälzungen in Methoden und Selbstverständnis (wie die Ausbreitung eines neuen Naturalismus) nun ohne die extensiven, expliziten metaphilosophischen Debatten vollzogen, die ihre frühere und spätere Entwicklung begleitet haben. Die allmähliche Anerkennung eines neuen Leitthemas, unter dessen Ägide die metaphilosophische Diskussion vor etwa zwanzig Jahren wieder auflebte, speiste sich aus drei Quellen. Erstens wandelte sich das traditionelle Projekt der Begriffsanalyse: Im Lichte der psychologischen Erkenntnisse, dass viele Begriffe nicht mit notwendigen und hinreichenden Bedingungen assoziiert sind, sondern mit Prototypen (Rosch 1975) und dass substantielle empirische Probleme dem Erwerb von Begriffen qua Erwerb von Definitionen entgegenstehen (Fodor 1975), erschien die traditionelle Suche nach Begriffsdefinitionen zunehmend problematisch. Das prominenteste der philosophischen Projekte, die Begriffsanalyse auf neue Ziele ausrichten und auf eine teils empirische Grundlage stellen wollten, war der »Canberra Plan« (Lewis 1994; Jackson 1998; Braddon-Mitchell/Nola 2009). Für die Analyse eines philosophisch relevanten Begriffs F lässt uns dieser »Plan« zunächst Intuitionen über F (z. B. Farbe, Überzeugung, Wissen etc.) in eigener Lehnstuhlanalyse sammeln und systematisieren. Um herauszufinden, wofür F tatsächlich steht, betrachten wir Theor ien aus den Einzelwissenschaften und beziehen F auf diejenigen der von diesen postulierten Entitäten, auf die die meisten jener intuitiven Urteile zutreffen. Der spezifisch philosophische Beitrag besteht mithin im Sammeln und Systematisieren von Intuitionen. Zweitens versprach der sprachphilosophische Externalismus von Saul Kripke (1972/1980), Hilary Putnam (1975) und Tyler Burge (1979), Intuitionen auch außerhalb des zunehmend unpopulären Unterfangens der Begriffsanalyse eine zentrale philosophische Rolle zu verleihen, insbesondere auch bei der Ermittlung metaphysischer Wahrheiten: Diesem Externalismus zufolge hängt der Gehalt vieler Behauptungen primär nicht von den Überzeugungen der Sprecher, sondern von äußeren Tatsachen ab: Falls zum Beispiel gegenwärtige chemische Theor ien korrekt sind, ist Wasser notwendigerweise H O und der Wahrheitswert von Behauptungen über Wasser hängt davon ab, was auf H O zutrifft – selbst wenn der Sprecher von Chemie keine Ahnung hat. Dem »modalen Rationalismus« im Anschluss an Kripke zufolge können uns Intuitionen Einsicht in modale Tatsachen verschaffen: Intuitionen darüber, ob einem Ding einer bestimmten Art bestimmte Eigenschaften widerspruchsfrei zukommen oder abgehen könnten, verschaffen uns in geeigneten Gedankenexperimenten Einsicht darüber, ob diese Eigenschaften dem Ding notwendiger- oder bloß möglicherweise zukommen (oder abgehen) (vgl. Gendler/Hawthorne 2002). Drittens werden Gedankenexperimente in allen Teildisziplinen der Philosophie unternommen: Auch wo es nicht um modale oder begriffliche Tatsachen 80
Philosophie der Philosophie
geht, sondern etwa um moralische Prinzipien, unternehmen analytische Philosophen Gedankenexperimente, bei denen Beschreibungen möglicher Fälle intuitive Urteile hervorrufen. Diese werden dann als Evidenz für philosophische Theorien verwendet (man denke an die Standardinterpretation von Kripkes Eigennamentheor ie) oder als Ausgangspunkt für ein breites Spektrum philosophischer Argumente, von moralphilosophischen Argumenten zur Abtreibung (Thomson 1971) bis zum »Wissensargument« (Jackson 1982) in der Philosophie des Geistes. Dabei bemühen sich Philosophen oft darum, ihre Intuitionen untereinander und mit ihren Hintergrundüberzeugungen in ein »reflektives Gleichgewicht« zu bringen (z. B. Rawls 1971; Thomson 1971; vgl. Cath 2016). Dieses Vorgehen scheint so weit verbreitet zu sein, dass George Bealer (1996, 4) es als das »Standard-Rechtfertigungsverfahren« der analytischen Philosophie bezeichnete. Zugleich bilden die systematische oder zumindest vergleichende Betrachtung möglicher Fälle sowie die rechtfertigende Verwendung der so gewonnenen Intuitionen eine Praxis, durch die sich die analytische Philosophie von anderen philosophischen Strömungen ebenso unterscheidet wie von anderen Fächern (wie der Physik), in denen Gedankenexperimente eher zu heuristischen und illustrativen Zwecken unternommen werden (vgl. Norton 1996). Canberra-Plan, modaler Realismus und Überlegungen zur zentralen und distinktiven Rolle von Gedankenexperimenten in der analytischen Philosophie führten so gemeinsam zur weitgehenden Akzeptanz eines neuen Leitthemas, unter dessen Ägide Debatten in der Philosophie der Philosophie erneut auflebten: »Philosophen ermitteln, bewerten und systematisieren Intuitionen.« Verschiedene philosophische Ansätze geben diesem Thema genauso verschiedenen Gehalt, wie es beim »klassischen Thema« der analytischen Philosophie des 20. Jahrhunderts der Fall war. Wir werden nun in die metaphilosophische Gegenwartsdebatte einsteigen und betrachten, wie in ihr verschiedene Intuitionsbegriffe für verschiedene Zwecke herangezogen werden.
2 Intuitionen: Ontologie und Psychologie Bemühungen, die Philosophie auf den sicheren Pfad einer Wissenschaft zu lenken, führten Philosophen von Anfang an in zwei entgegengesetzte Richtungen: Methodologische Rationalisten (wie Descartes oder Kant und in noch andauernden Debatten Saul Kripke, George Bealer oder Ernest Sosa) entwickeln, verwenden und verteidigen verschiedene Methoden zum Erwerb apriorischer Erkenntnis, die sich allein auf Intuition, reine Vernunft oder erfahrungsunabhängiges Wissen stützen. Methodologische Naturalisten (wie Hume und heute Hilary Kornblith, James Ladyman oder viele experimentelle Philosophen, Überblick: Knobe 2016) wollen philosophischen Fragen und Problemen durch die Verwendung empirischer Methoden und erfahrungswissenschaftlicher Erkenntnisse beikom81
II. Die Philosophie der Formal- und Geisteswissenschaften
men.1 Mitglieder beider Lager beteiligen sich rege an der gegenwärtigen Debatte um Natur und philosophische Relevanz von Intuitionen (Überblick: Cappelen 2012; Pust 2012; Booth/Rowbottom 2014, Weinberg 2016). Sie arbeiten dabei mit verschiedenen, auf ihre jeweiligen Zwecke zugeschnittenen Intuitionsbegriffen. Alle Beteiligten können sich auf etliche philosophisch relevante Beispiele für Intuitionen einigen: Es geht – zumindest auch – um das, was wir nach Lektüre einer typischerweise eher kurzen Beschreibung eines möglichen Falles, über den wir sonst nichts wissen, (i) spontan und als Erstes zu sagen geneigt sind und dabei (ii) unmittelbar einleuchtend finden, auch wenn wir (iii) nicht umgehend uns befriedigende Gründe angeben können und (iv) gelegentlich nach kürzerer oder längerer Überlegung zu einer anderen Meinung gelangen. Über die Konzeptualisierung dieses Phänomens und die ontologische Frage, was Intuitionen sind, besteht demgegenüber keinerlei Einigkeit. Die Verwendung der Wörter »Intuition« und »intuitiv« in metaphilosophischen Gegenwartsdebatten ist entsprechend uneinheitlich (Überblick: Cappelen 2012, 49 – 93; Jenkins 2014b). Das Substantiv wird angewandt auf: (1) Überzeugungen (Lewis 1983; van Inwangen 1997; Williamson 2007), (2) Urteile (Ludwig 2007; Mercier/Sperber 2009), (3) Zustimmungsneigungen (Sosa 2007; Earlenbaugh/Molyneux 2009) und (4) Geisteszustände sui generis (Bealer 1998; Pust 2000; Chudnoff 2013) mit charakteristischer/m a) Phänomenologie (Plantinga 1993; vgl. Parsons 1995), b) Status oder Art der Rechtfertigung (Pust 2000; Bealer 2000; Goldman 2007; Sosa 2007), c) Inhalt (abstrakt oder modal) (Sosa 1998; Bonjour 1998; Bealer 2000, 3) oder d) Ätiologie (Ludwig 2007; Nagel 2012; Fischer 2014). Rationalisten postulieren die Existenz von »rationalen Intuitionen«, die uns zu apriorischer Erkenntnis verhelfen können: Sie lassen sich aus dem philosophischen Lehnstuhl heraus erstens (etwa aufgrund ihrer Phänomenologie) identifizieren und zweitens (etwa durch Ausübung konzeptueller Kompetenzen) als wahr erkennen und können dabei drittens diverse Überzeugungen, Behauptungen und Thesen rechtfertigen, ohne selbst einer Rechtfertigung zu bedürfen. Dem aus Kripkes modalem Rationalismus (s.o.) hervorgegangenen »bescheidenen methodologischen Rationalismus« zufolge sollen Intuitionen dabei nur für die Rechtfer Diese Position zum richtigen Vorgehen in der Philosophie ist unabhängig vom metaphysischen Naturalismus, demzufolge die Welt nur aus den Dingen besteht, deren Existenz von erfolgreichen wissenschaftlichen Theor ien postuliert wird. 1
82
Philosophie der Philosophie
tigung von notwendig wahren Antworten auf allgemeine Fragen nach »Wesen« bzw. Natur von Dingen wie dem Geist, den Tugenden oder der Wahrheit herangezogen werden, die sich durch Ausübung konzeptueller Kompetenzen ermitteln lassen. Diese Position (am detailliertesten ausgearbeitet von Bealer 1996; 2000) rät Philosophen, sich mit solchen Fragen zu bescheiden und sie mit Theor ien zu beantworten, die ein »reflektives Gleichgewicht« bzw. maximale Kohärenz zwischen rationalen Intuitionen herstellen, die die entsprechenden notwendigen Wahrheiten a priori rechtfertigen. Naturalisten greifen demgegenüber auf Konzepte und Ergebnisse der relevanten Erfahrungswissenschaft, der Psychologie, zurück. In Sozial- wie Kognitionspsychologie werden weitgehend »Zwei-Prozess-Theor ien« verwendet, die der traditionellen Unterscheidung zwischen Intuition und Vernunft empirischen Gehalt geben (Evans 2008; Kahneman 2011; Evans/Stanovich 2013).2 Diese Theor ien unterscheiden zwei Arten kognitiver Prozesse: Schnelle automatische Prozesse stellen minimale Anforderungen an das Arbeitsgedächtnis. Diese »kapazitätsfreien« Prozesse benötigen kaum Aufmerksamkeit (werden also bei Ablenkung bzw. multi-tasking nicht beeinträchtigt), laufen unbewusst ab, setzen unabhängig davon ein, was für Ziele oder Absichten das Subjekt verfolgt, und können danach von ihm nicht beeinflusst werden (Bargh 1994; Moors/DeHouwer 2006). Langsamere kontrollierte Prozesse stellen deutlich höhere Anforderungen an das Arbeitsgedächtnis. Sie erfordern Aufmerksamkeit, sind bewusst, von den Zielen des Subjekts abhängig, und können von ihm in ihrem Verlauf beeinflusst werden. Die Unterscheidung ist freilich graduell: Ein Prozess kann jede dieser Eigenschaften in höherem oder geringerem Maße aufweisen und kann kapazitätsfrei sein, ohne alle anderen »automatischen Eigenschaften« zu haben. In erster Annäherung sind Urteile intuitiv oder überlegt, je nachdem, welche Art von Prozess sie erzeugt (welche Ätiologie sie haben).3 Nun erzeugen automatische Prozesse auch Wahrnehmungsurteile und Erinnerungen, die Intuitionen in mancher Hinsicht ähneln. Diese unterscheiden sich von jenen durch ihre Affinität zu Schlüssen: Intuitionen sind Urteile, die von »automatischen Schlüssen« erzeugt werden, d. h., von weitgehend automatischen kognitiven Prozessen, die regelgeleitete Schlüsse duplizieren, die also von den gleichen Prämissen oder Informationen zu den gleichen Urteilen führen, wie regelgeleitete Schlüsse (vgl. Sloman 1996; Kahneman/Frederick 2005). Einige psychologische Intuitionsforscher lehnen diese Theor ien ab (z. B. Gigerenzer 2011). In psychologisch informierten metaphilosophischen Untersuchungen werden sie jedoch fast durchweg vorausgesetzt. 3 Auch psychologisch uninformierte Intuitionsbegriffe greifen oft auf eine bestimmte Ätiologie zurück: die Erzeugung auf der alleinigen Grundlage konzeptueller Kompetenzen (z. B. Ludwig 2007, 135 f.) (s. o.). Als »ätiologische Definition« bezeichne ich in der Folge jedoch nur den nachstehenden Begriff aus der Kognitionspsychologie. 2
83
II. Die Philosophie der Formal- und Geisteswissenschaften
Das wohl wichtigste Ergebnis der neueren Psychologie des Urteils besteht in der Erkenntnis, dass Intuitionen ihren eigenen Regeln gehorchen: Während wir in bewusster Überlegung oft normative Regeln verwenden, die bestimmen oder einschränken, was als richtig oder vernünftig zu gelten hat (wie z. B. Regeln der Logik, Wahrscheinlichkeitsrechnung oder Moral), duplizieren die einschlägigen automatischen Prozesse Schlüsse nach Heuristiken oder Faustregeln, die in den üblichen Anwendungsbereichen grob richtige Urteile liefern, ohne normativ zu sein. Ob ein Urteil in diesem ätiologischen Sinne eine Intuition ist, erweist erst seine erfolgreiche psychologische Erklärung – dadurch, dass sie es auf einschlägige automatische Prozesse zurückführt. Die Divergenz verschiedener Intuitionsbegriffe konfrontiert uns mit einer deskriptiven und einer normativen Frage: Welche Arten von Intuitionen – bzw. Intuitionen in welchem Sinne des Wortes – spielen genau welche Rolle(n) in der Philosophie (s. u.)? Und sollten sie diese Rolle(n) spielen (s. nächster Abschnitt, Stichwort »Rechtfertigungsprojekt«)? Die erste Frage ist eine empirische Frage darüber, was Philosophen tatsächlich tun, wenn sie Philosophie betreiben. Da methodologische Selbstmissverständnisse häufig auftreten, sind die Befragung von Philosophen und die Sichtung expliziter metaphilosophischer Ausführungen weniger einschlägig als Fallstudien zu philosophischen Texten, insbesondere zu Texten, die allgemein als paradigmatische Beispiele für intuitionsgetriebenes Philosophieren betrachtet werden. Eine erste Serie solcher Fallstudien (Cappelen 2012) behandelt die Frage, ob Philosophen rationale Intuitionen als Evidenz für Theor ien verwenden. Um solche Intuitionen – oder vielmehr Urteile, die als solche Intuitionen behandelt werden – wenigstens tentativ in philosophischen Texten identifizieren zu können, müssen wir diagnostische Kriterien formulieren, deren Erfüllung nahelegt, dass bestimmten im Text ausgedrückten Urteilen die Eigenschaften von rationalen Intuitionen zugeschrieben werden: (1) charakteristische phänomenale Eigenheiten, (2) die Fähigkeit, andere Urteile und Überzeugungen zu rechtfertigen, ohne selber einer Rechtfertigung zu bedürfen, und insbesondere (3) die Eigenschaft, dass der Denker allein schon aufgrund seiner begrifflichen Kompetenzen ihre Wahrheit zu erkennen vermag. Diesen Ideen lässt sich – etwa durch verschiedene Explikationen oder Theor ien ›begrifflicher Kompetenz‹ – ein je unterschiedlicher empirischer Gehalt geben, was jeweils andere diagnostische Kriterien nach sich zieht. Cappelen (2012, 112) verwendete zum Beispiel die folgenden Kriterien für Rechtfertigungsunbedürftigkeit (vgl. 2): . Das Urteil wird weder [bewusst] aus Prämissen erschlossen noch wird auf Erfahrung (Wahrnehmung, Erinnerung) verwiesen, um es zu untermauern. . Der Autor hat zwar Argumente, die das Urteil stützen, doch ist seine Neigung, das Urteil zu fällen, von Argumenten unabhängig: Selbst wenn all seine Argumente widerlegt oder zurückgenommen werden, besteht seine Neigung fort, das Urteil zu fällen. (Sie besteht fort, weil der Autor meint, dass das Urteil ei84
Philosophie der Philosophie
ner Rechtfertigung – durch diese oder andere Argumente – nicht bedarf. Die Argumente spielen also eine rein dialektische, keine rechtfertigende Rolle.) Diese Kriterien sind offensichtlich problematisch (vgl. Weinberg 2014), illustrieren aber den einschlägigen Ansatz: Mittels geeigneter diagnostischer Kriterien müssen wir Intuitionen der betreffenden Art in philosophischen Texten identifizieren und ihre evidentielle, argumentative und dialektische Rolle in den Texten analysieren. Cappelens Untersuchung kommt zu dem Schluss, dass in keinem der von ihm untersuchten Texte rationale Intuitionen als Evidenz für Theor ien herangezogen werden – oder auch nur auftauchen. Diagnostische Kriterien für ätiologisch definierte Intuitionen lassen sich mit Hilfe einschlägiger psychologischer Theor ien und experimenteller Ergebnisse herleiten. Die dominante Variante der oben skizzierten Zwei-Prozess-Theor ie der Kognition postuliert, dass automatische und bewusste Prozesse nacheinander statt parallel ablaufen (Evans 2008; Kahneman 2011). Wir akzeptieren dabei typischerweise das intuitive Urteil, das zuerst von den automatischen Prozessen erzeugt wird (Frederick 2005). Ob wir es ohne weiteres akzeptieren oder bewusste Überlegungen anstellen, die es korrigieren oder bestätigen können, hängt dann vom Grad unserer subjektiven Gewissheit ab: Je sicherer wir uns fühlen, dass das Urteil richtig ist, desto stärker ist unser Hang, diese erste Intuition zu akzeptieren (Thompson et al. 2011). Ebenso wie andere »metakognitive Beurteilungen« ist diese subjektive Gewissheit weder das Ergebnis bewusster Überlegung zum Inhalt des Urteils noch der Erinnerung an inhaltsrelevante Information; stattdessen hängt sie von Eigenschaften des kognitiven Prozesses ab, der das Urteil erzeugt (Koriat 2007; Alter/Oppenheimer 2009). Die wichtigste dieser Eigenschaften ist die »Fluenz« des Prozesses: die subjektive Leichtigkeit, mit der wir die von ihm erzeugte Antwort erhalten (Thompson et al. 2011; vgl. Simmons/Nelson 2006). Diese Leichtigkeit wird üblicherweise durch Messungen von Reaktionszeiten und Kapazitätsfreiheit ermittelt. Wo wir sie nicht sofort auf sachfremde Faktoren zurückführen können, bestimmt ihr Grad den unserer subjektiven Gewissheit (Oppenheimer 2004) – und entscheidet damit darüber, ob wir unsere erste Intuition zunächst einmal ohne weitere Überlegung akzeptieren. Intuitionen werden gemäß der ätiologischen Definition von automatischen Prozessen erzeugt. Wenn die Urteile über verbal beschriebene mögliche Fälle Intuitionen sind, sollten Philosophen sie mithin (i) unmittelbar nach der Lektüre bzw. in Antwort auf entsprechende Fragen fällen, ohne sich irgendeiner Über legung bewusst zu sein. Automatische Prozesse sind kapazitätsfrei und weisen potentiell hohe Fluenz auf. (ii) Vor allem wo Fallbeschreibungen so gut verständlich sind, dass die im Verstehen involvierten Prozesse hochgradig fluent und keine sachfremden Ursachen offensichtlich sind, sollte diese Fluenz allein die fraglichen Urteile den Denkern unmittelbar plausibel erscheinen lassen und sie mit einem hohen Grad subjektiver Gewissheit ausstatten. (iii) Da wir typischerweise keine introspektive Einsicht in die zu Grunde liegenden automatischen Prozesse haben, 85
II. Die Philosophie der Formal- und Geisteswissenschaften
können wir vor solcher Überlegung durchaus Schwierigkeiten haben, Gründe anzugeben, die uns zu unserem Urteil führen und es rechtfertigen können. (iv) Da sie weiterhin von fluenten Prozessen erzeugt werden, sollten die entsprechenden Urteile Denkern auch dann noch plausibel vorkommen, wenn sie nach weiterer Überlegung zu einer anderen Meinung gelangt sind. Dies sind genau die Eigenschaften, die philosophischen Fallurteilen üblicherweise zugeschrieben werden (s. o.). Erste Untersuchungen entwickeln auf dieser Grundlage diagnostische Kriterien und fangen an, diese auf kanonische Texte anzuwenden (Fischer et al. 2015, 263 f.). Ob durch Anwendung dieser Kriterien ermittelte Kandidaten tatsächlich Intuitionen im ätiologischen Sinne sind, zeigen erst erfolgreiche psychologische Erklärungen, die Urteile der entsprechenden Art (z. B. spontane Wissenszuschreibungen oder moralische Bewertungen) auf automatische Prozesse zurückführen, welche Schlüsse nach heuristischen Regeln duplizieren. Erste potentiell einschlägige Erklärungen werden von Philosophen und Psychologen entwickelt (s.u.). Von den Urteilen, die Philosophen üblicherweise als Intuitionen anerkennen, werden sich vermutlich deutlich mehr als ätiologisch definierte denn als »rationale« Intuitionen erweisen.
3 Intuitionen: Epistemologie, Umfragen und Experimente Die zentrale Rolle, die Intuitionen in fast allen Teildisziplinen der analytischen Philosophie bei der Entwicklung von Theor ien und Argumenten spielen (Abschnitt 1), verspricht, eine methodologisch autonome Epistemologie intuitiver Urteile zu einer philosophischen »Königsdisziplin« zu machen, deren Ergebnisse über Wert und Unwert von philosophischen Theor ien und Argumenten in vielen Bereichen des Fachs in nennenswertem Umfang mitentscheiden. Die Entwicklung einer solchen Epistemologie zeichnet sich derzeit im Rahmen der experimentellen Philosophie ab. Diese seit etwa fünfzehn Jahren bestehende und derzeit dynamisch wachsende philosophische Bewegung importiert empirische Methoden und Erkenntnisse der Sozialwissenschaften, insbesondere der Psychologie, in die Philosophie. Eines ihrer zentralen Anliegen ist es, philosophisch relevante Intuitionen – über die verschiedensten Themen und Gegenstände – empirisch zu ermitteln, psychologisch zu erklären und epistemologisch zu bewerten. Unmittelbares Ziel solcher Bewertung ist es zumeist herauszufinden, ob die untersuchten Intuitionen evidentiellen Wert haben: ob die bloße Tatsache, dass bestimmte Denker sie unter bestimmten Umständen haben, für ihre Wahrheit spricht. Hierzu ziehen experimentelle Philosophen Theorien und Ergebnisse aus der Psychologie heran und führen selber Umfragen und Experimente durch (Überblick: Alexander 2012; Grundmann et al. 2014). Dies Unterfangen bringt einen neuen »höherstufigen« Naturalismus mit sich, der sich zur Lösung philosophischer Probleme über einen Gegenstand X (Geist, 86
Philosophie der Philosophie
Wahrnehmung, Farben etc.) nicht – wie methodologische Naturalisten »erster Ordnung« – wissenschaftliche Erkenntnisse über X aneignen will, sondern wissenschaftliche Erkenntnisse darüber, wie wir über X sprechen und denken – insbesondere, wenn wir Philosophie betreiben. Dieser »metaphilosophische Naturalismus« (Fischer/Collins 2015b) ist mit methodologischem Naturalismus »erster Ordnung« ebenso kompatibel wie mit methodologischem Rationalismus: Einige Philosophen greifen zu Experiment oder Psychologie, weil sie zeigen wollen, dass die von ihnen untersuchten Intuitionen keinen evidentiellen Wert haben (Übersicht: Alexander 2012, 70 – 8 8); andere hoffen auf ein positives Ergebnis, das zumindest bestimmte Anwendungen intuitionsbasierter apriorischer Methoden rechtfertigen könnte (kritischer Überblick: Kornblith 2015). Wir werden jetzt zwei Hauptprojekte der experimentellen Philosophie betrachten, die lebhafte metaphilosophische Debatten ausgelöst haben,4 diese Debatten nachzeichnen und auf den Punkt bringen, wie der diesen Projekten inhärente metaphilosophische Naturalismus die Philosophie der Philosophie insgesamt transformiert und uns die eingangs betrachteten Leitfragen zu philosophischen Erkenntnissen und Methoden angehen lässt. . Das Begriffsprojekt: Die Ermittlung von Intuitionen durch Fallbeschreibungen spielt eine zentrale Rolle in philosophischer Begriffsanalyse; die Sammlung von Intuitionen zur Ermittlung der impliziten Theor ien, die unsere Begriffe formen, ist wichtiger Bestandteil auch naturalisierter Begriffsanalyse (Abschnitt 1). Dabei werden in philosophischer Diskussion traditionellerweise nur die Intuitionen akademischer Philosophen berücksichtigt. Insbesondere wo es um die Analyse von normalsprachlichen Begriffen und sie informierenden Alltagstheor ien geht, scheinen jedoch die Intuitionen einer größeren Gemeinschaft kompetenter Sprecher relevant zu sein, und es ist eine offene Frage, inwieweit die Intuitionen akademischer Philosophen für diese repräsentativ sind. Rationalistisch gesinnte Philosophen hoffen, dass die semantischen, pragmatischen, modalen und sonstige Intuitionen von Philosophen ebenso stark mit denen anderer kompetenter Sprecher übereinstimmen wie die syntaktischen Intuitionen (darüber, ob ein Satz grammatisch wohlgeformt ist) von Sprachwissenschaftlern mit denen »normaler« Muttersprachler (z. B. Shieber 2012). Doch auch diese Übereinstimmung musste erst empirisch bestätigt werden (Sprouse/Almeida 2013). In der experimentellen Erkenntnistheor ie galten einschlägige Experimente zum Beispiel der Überprüfung kontextualistischer Analysen des Wissensbegriffs (DeRose 1992; Cohen 1999), denen zufolge die Wahrheitsbedingungen von Wissenszuschreibungen von der Erwähnung möglicher Irrtümer oder Fehlerquellen beeinflusst werden oder davon, wie viel für die Protagonisten auf dem Spiel steht Knobe (2016) gibt einen Überblick über eine weitere, (noch) extensiver verfolgte, aber meta-philosophisch weniger diskutierte Projektfamilie aus der experimentellen Philosophie des Geistes, wo methodologische Naturalisten »erster Ordnung« Experimente aus der Psychologie um eigene psychologische Experimente ergänzen. 4
87
II. Die Philosophie der Formal- und Geisteswissenschaften
(Schaffer/Knobe 2012, mit Forschungsüberblick). In der Moralphilosophie galten Umfragen etwa der Ermittlung impliziter Alltagstheor ien, die Verantwortungszuschreibungen leiten – und teils erheblich von den Theor ien abweichen, die Philosophen auf ihre eigenen Intuitionen, etwa zur Vereinbarkeit von Determinismus und Verantwortung, gründen (Überblick: Nahmias/Murray 2010). . Das Rechtfertigungsprojekt will herausfinden, (a) ob philosophisch relevante Intuitionen evidentiellen Wert haben und (b) ob es gerechtfertigt ist, den Gehalt dieser Urteile als wahr zu akzeptieren (Überblick: Mallon 2016; Stich/Tobia 2016). Es entwickelt die Grundidee, dass Intuitionen nur dann evidentiellen Wert haben, wenn sie von Faktoren abhängig sind, die den Wahrheitswert des entsprechenden Urteils beeinflussen bzw. etwas mit seinem Inhalt zu tun haben, aber nicht von weiteren, irrelevanten Faktoren. Eine erste Welle oder Generation von Studien verfolgte das kritische Ziel, unsere Akzeptanz philosophisch einschlägiger Intuitionen als ungerechtfertigt zu erweisen, indem sie ihre Abhängigkeit von solchen irrelevanten Faktoren nachwies: Diese »Sensitivitätsstudien« beinhalten Umfragen, die die Abhängigkeit von Geschlecht (z. B. Buckwalter/ Stich 2014), Alter (z. B. Colaco et al. 2014), Persönlichkeitstypus (Feltz/Cokely 2009) oder kulturellem bzw. sozio-ökonomischem Hintergrund (z. B. Weinberg et al. 2001) der Subjekte nachweisen sollen, sowie Experimente, die ihre Abhängigkeit von der Reihenfolge der Fallpräsentation oder von Unterschieden zwischen inhaltlich äquivalenten Formulierungen untersuchen (Weinberg et al. 2012; Petrinovich/O’Neill 1996).5 Derzeit ist die Relevanz dieser Studien freilich insofern noch unklar, als sich etliche dieser Ergebnisse nicht zuverlässig replizieren ließen.6 Eine zweite Generation von Beiträgen zum Rechtfertigungsprojekt steht in einer Forschungstradition, an der sich nicht nur bekennende experimentelle Philosophen beteiligen und die sich sowohl der Kritik als auch der Verteidigung philosophischer Intuitionen und Überzeugungen widmet. Frühe Beiträge (wie Nichols/Knobe 2007) beriefen sich auf Nietzsches und Feuerbachs – epistemologisch entlarvende – Erklärungen religiöser Überzeugungen und hofften, durch besseres Verständnis der zugrunde liegenden kognitiven Prozesse ermitteln zu können, »ob die psychologischen Quellen … die Rechtfertigung der [sich aus ih Der Unterschied zwischen Umfrage und Experiment besteht darin, dass der Experimentator selber die Bedingungen (z. B. Reihenfolge der Fallbeschreibungen) kontrolliert, deren Einfluss auf die Reaktion er untersucht, während Umfragen bloß eine Korrelation von Bedingung (z. B. Geschlecht des Subjekts) und Reaktion (Intuition) feststellen können. Experimente stützen Kausalhypothesen besser als Umfragen. Im Gegensatz zum gleich skizzierten zweiten Ansatz kommt dieser erste ohne solche Hypothesen aus. 6 Verschiedene Studien untersuchten die Abhängigkeit philosophisch einschlägiger intuitiver Urteile von kulturellem Hintergrund (Lam 2010; Nagel et al. 2013; Seyedsayam dost 2015a; Turri 2013), Geschlecht (Nagel et al. 2013; Seyedsayamdost 2015b; Wright 2010) und Persönlichkeitstypus (Nadelhoffer et al. 2009), ohne die im Haupttext zitierten Ergebnisse zu replizieren. 5
88
Philosophie der Philosophie
nen speisenden] Überzeugungen untergraben« (Knobe/Nichols 2008, 9). Andere Beiträge untersuchten demgegenüber die psychologischen Ermöglichungsbedingungen genuiner Erkenntnis a priori (Rey 1998; Goldman 1999; Antony 2004). Neuere Beiträge zum »Quellenprojekt« (Pust 2012) bzw. zur »kognitiven Epistemologie« (Fischer 2014) bemühen sich ergebnisoffen um die Entwicklung experimentell überprüfbarer psychologischer Erklärungen, die es uns erlauben, den evidentiellen Wert der erklärten Intuitionen zu ermitteln (s. u.). Ein Ansatz besteht in der Entwicklung von Erklärungen, die Intuitionen auf automatische kognitive Prozesse zurückführen, die allgemein zu grob richtigen Urteilen führen, jedoch unter bestimmten widrigen Umständen »kognitive Illusionen« erzeugen: voraussagbare Fehlurteile, die uns selbst nach ihrer Entlarvung noch plausibel vorkommen (Pohl 2004). Solche Erklärungen rechtfertigen die Akzeptanz von Intuitionen, die wir unter »normalen« Bedingungen haben, und entlarven Intuitionen, die sich unter den als widrig identifizierten Umständen einstellen, als kognitive Illusionen, die wir nicht ohne Weiteres als wahr akzeptieren sollten. Die ersten solchen Erklärungen, die auch experimentell getestet wurden, galten intuitiven Wissenszuschreibungen (mit rechtfertigender Intention: Nagel 2012; Gerken 2013; Gerken/Beebe 2016; Alexander et al. 2015) und Intuitionen, auf denen bekannte Paradoxa aus der Philosophie der Wahrnehmung aufbauen (mit entlarvender Intention: Fischer et al. 2015; Fischer/Engelhardt 2016). Rationalistisch gesonnene Philosophen, die die traditionelle philosophische Verwendung von Intuitionen verteidigen wollen, haben auf diese metaphilosophischen Forschungsprogramme mit der doppelten Infragestellung ihrer Relevanz reagiert. Sie bezweifeln erstens, dass experimentelle Philosophen die Intuitionen philosophisch relevanter Subjekte untersuchen, und zweitens, dass sich aus Ergebnissen zur Verteilung von Intuitionen normative bzw. epistemologische Schlussfolgerungen ableiten lassen. Die metaphilosophische Debatte um die experimentelle Philosophie dreht sich derzeit um dieses »doppelte Relevanzproblem« (Fischer/Collins 2015b). Die Experimente und Umfragen sowohl im Begriffs- als auch im Rechtfertigungsprojekt erheben üblicherweise die spontanen Antworten von studentischen Teilnehmern oder anderen Nicht-Experten. Philosophisch relevant, so der erste Einwand, sind aber nur die Urteile sorgfältiger und reflektierter Denker (z. B. Kauppinen 2007, 97) bzw. die Intuitionen von Denkern, die über besondere Expertise im Umgang mit Begriffen verfügen (z. B. Ludwig 2007; Williamson 2011; Devitt 2012). Analytische Philosophen könnten zum Beispiel über ein eingehenderes Verständnis der für philosophische Zwecke relevanten Begriffe (»Wissen«, »Bewusstsein«, »Bezug« etc.) verfügen (vgl. Ludwig 2007, 149). Oder sie könnten größere Erfahrung mit Gedankenexperimenten haben, so dass sie die relevanten Faktoren der Fallbeschreibungen besser identifizieren können und daher eher imstande sind, vertraute Begriffe auf die bisweilen extravaganten Szenarien anzuwenden, die philosophische Gedankenexperimente verwenden (vgl. Ludwig 2007, 153). Auf jeden Fall, so die entscheidende Behauptung, zeigen die Intuitio89
II. Die Philosophie der Formal- und Geisteswissenschaften
nen sorgfältiger Denker und Experten keine der diskreditierenden Abhängigkeiten, die etliche Sensitivitätsstudien für Laienintuitionen nachzuweisen scheinen. Experimentelle Philosophen (der ersten Generation) bemühten sich um die experimentelle Überprüfung dieser für sie ungünstigen empirischen These. So verwendeten z. B. Weinberg et al. (2012) ein gängiges psychologisches Instrument, die »Need for Cognition Scale«, zur Identifizierung mehr und weniger »reflektierter« Denker und fanden heraus, dass die Intuitionen »reflektierter« Denker in grob dem gleichen Maße von der Reihenfolge von Fallbeschreibungen beeinflusst werden wie die Intuitionen der anderen (aber in überraschend anderer Weise!).7 Tobia et al. (2012), um ein anderes Beispiel zu nennen, verglichen die ethischen Intuitionen promovierter Teilnehmer an einem Kongress der American Philosophical Association mit denen junger Studenten im Hinblick darauf, ob sie von der Frageperspektive (erste oder dritte Person) beeinflusst werden (vgl. Jones/ Nisbett 1972) – ob sie die gleichen Handlungen für erlaubt oder verboten halten, wenn sie selber oder andere die in Frage stehenden Handlungssubjekte sind. Im bekannten Szenario vom drohenden Zugunglück (Foot 1967; Thomson 1985) billigten die Studenten anderen deutlich eher als sich selber das Recht zu, den Zug umzulenken, um durch die Inkaufnahme eines Todes fünf Leben zu retten. Akademische Philosophen sahen dies anders: Sie billigten dies Recht eher sich selber zu als anderen. Auch wenn der Effekt in die entgegengesetzte Richtung ging, war er doch ähnlich stark. Die ersten experimentellen Studien zur entscheidenden Frage (Übersicht: Machery 2015) legen nahe, dass sich die Intuitionen von Philosophen zwar in mancher Hinsicht von denen anderer Subjekte unterscheiden, aber nichtsdestoweniger erheblich von inhaltlich anscheinend irrelevanten Faktoren abhängig sind. Das zweite Relevanzproblem wurde zuerst von experimentellen Philosophen selber formuliert, wie hier in einem Manifest der Bewegung: »Wie um alles in der Welt könnten Informationen über die statistische Verteilung von Intuitionen uns je Gründe geben, eine bestimmte philosophische Ansicht anzunehmen oder abzulehnen?« (Knobe/Nichols 2008, 6) Zur Vorüberlegung (vgl. Fischer et al. 2015): Wenn eine Person Gründe für eine Ansicht hat, hängt ihre Rechtfertigung von der Güte dieser Gründe ab. Die epistemologische Bewertung von Intuitionen (statt etwa Argumenten) wird entscheidend, wo Denker sie zumindest zunächst ohne weiteres Argument allein deswegen akzeptieren, weil sie eben diese Intuitionen haben oder diese ihnen unmittelbar einleuchten. In diesem Falle hängt ihre Rechtfertigung, eine rechtfertigungsbedürftige Intuition zu akzeptieren, davon ab, ob dies gute Gründe sind: ob die bloße Tatsache, dass diese Denker diese Intu In einem engeren Sinne ist »Reflektiertheit« die Neigung, intuitive Urteile nicht spontan zu akzeptieren, sondern allenfalls nach Überlegung, die zu Korrektur oder Modifizierung des Urteils führen kann. Andere Einflüsse werden von ihr abgeschwächt: In Studien von Pinillos und Kollegen (2011) wurden die intuitiven Intentionszuschreibungen von Teilnehmern, die beim »Cognitive Reflection Test« besser abschnitten, weniger stark von (irrelevanten) moralischen Werturteilen beeinflusst. 7
90
Philosophie der Philosophie
itionen unter diesen Umständen haben und plausibel finden, für deren Wahrheit spricht. Die philosophische Relevanz der Bewertung solchen evidentiellen Werts von Intuitionen ergibt sich aus der in der analytischen Philosophie weit verbreiteten Praxis, Intuitionen als Prima-facie-Evidenz zu behandeln, die akzeptiert wird, solange nichts gegen sie spricht. Aufgrund welcher Eigenschaften Intuitionen evidentiellen Wert haben oder Überzeugungen rechtfertigen können, ist Gegenstand einer lebhaften Diskussion (Überblick: Chudnoff 2013; Tucker 2013; Booth/Rowbottom 2014) – in der das Kernphänomen durchaus verschieden konzeptualisiert wird (s. o., Abschnitt 2). Die eben besprochenen experimentalphilosophischen Forschungsprogramme fassen Intuitionen als Produkte automatischer Kognitionsprozesse auf und nehmen an, dass intuitive Urteile dann evidentiellen Wert haben, wenn sie von einem im Allgemeinen zuverlässigen kognitiven Prozess erzeugt werden, und zwar unter Umständen, unter denen der Prozess in der Regel zu wahren Urteilen führt. Sensitivitätsstudien versuchen auf dieser Annahme aufzubauen, ohne die einschlägigen Prozesse identifizieren zu müssen: Wenn eine bestimmte Art von intuitiven Fallurteilen systematisch von unvermeidbaren Faktoren beeinflusst wird, die den Wahrheitswert der Urteile nicht beeinflussen können (wie die Reihenfolge der Fallpräsentation oder das Geschlecht des Urteilenden), dann können die sie erzeugenden Prozesse nicht allgemein zuverlässig sein. Die meisten Kritiker akzeptieren diese Logik und wenden ein, dass entweder die Intuitionen bestimmter Subjekte (Experten) oder die Intuitionen über bestimmte Gegenstände nicht unangemessen beeinflussbar sind.8 Eine Schwäche des Ansatzes besteht darin, dass er nur zu kritischen Ergebnissen führen kann: Auch die an sich ermutigende Entdeckung, dass bestimmte Intuitionen nicht von diversen irrelevanten Faktoren beeinflusst werden, erweist den zugrundeliegenden Prozess noch nicht als zuverlässig und rechtfertigt nicht die Zuerkennung von evidentiellem Wert. Psychologische Erklärungen intuitiver Urteile, die diese auf bestimmte automatische Prozesse zurückführen, können demgegenüber auch zeigen, dass bestimmte Intuitionen solchen Wert haben: Die automatischen Prozesse, die »Intuitionen« im Sinne der Kognitionspsychologie erzeugen, duplizieren Schlüsse nach heuristischen Regeln (Abschnitt 2). Solche Regeln erzeugen Urteile (Beurteilungen eines Kriteriums wie zum Beispiel der Wahrscheinlichkeit, dass ein Individuum a in eine Kategorie F fällt) aus Hinweisreizen (z. B.: wie sehr a dem mit dem Begriff F assoziierten Stereotyp entspricht), die von automatischen »Routineprozessen« erzeugt werden, welche ständig bei Sprachverstehen oder Sin Kritik an interkulturellen Sensitivitätsstudien nutzte die zweite Möglichkeit: Wenn Studenten fernöstlicher und europäischer Abstammung verschiedene Intuitionen über Gettier-Fälle haben (Weinberg et al. 2001), dann, so Sosa (2007), verwenden sie verschiedene Wissensbegriffe – und die Zuschreibungen von Wissen in jeweils einem Sinne sind nicht unangemessen beeinflussbar. Es ist übrigens unklar, ob etwaige interkulturelle Unterschiede zwischen intuitiven Urteilen auf Unterschiede zwischen Begriffen oder umfassenderen Denkstilen (Nisbett 2003) zurückgehen. 8
91
II. Die Philosophie der Formal- und Geisteswissenschaften
neswahrnehmung ablaufen (etwa: beschriebene oder betrachtete Dinge ständig danach beurteilen, wie sehr sie diversen Stereotypen entsprechen) (Kahneman/ Frederick 2002; Kahneman 2011). Dies erlaubt es uns erstens zu untersuchen, in welchem Umfang und unter welchen Umständen die Eigenschaften der entsprechenden Prozesse (wie Schwächung und Stärkung stereotypischer Assoziationen im semantischen Gedächtnis) gewährleisten, dass auf dem Hinweisreiz basierende Urteile (Beurteilungen des Kriteriums) zutreffen (Fischer et al. 2015). Zweitens können wir dann untersuchen, unter welchen Umständen die Anwendung der entsprechenden Heuristik zu intuitiven Urteilen führt, die nicht stimmen können – etwa, weil sie die einschlägigen normativen Regeln (z. B. der Wahrscheinlichkeitsrechnung) verletzen. Intuitionen, die unter solchen Umständen erzeugt werden, können wir dann als kognitive Illusionen entlarven und ggf. zeigen, dass der Prozess (aufgrund seiner Eigenschaften) ansonsten zumeist richtige Urteile produziert. Die Tatsache, dass ein Denker eine Intuition einer bestimmten – so erzeugten – Art unter anderen als den identifizierten widrigen Umständen hat, spricht dann für die Wahrheit des intuitiven Urteils. Negative Bewertung erfordert die Identifizierung nur einer Konstellation widriger Umstände. Positive Bewertung erfordert Identifizierung – und Ausschluss – aller. Die Entwicklung solch umfassender »epistemischer Profile« für intuitionserzeugende Prozesse ist ein Desiderat experimentalphilosophischer Forschung (Weinberg 2015). Bereits jetzt hat diese Forschung jedoch erreicht, dass die Philosophie der Philosophie zu einem genuin interdisziplinären Forschungsfeld geworden ist, das etliche Leitfragen der Disziplin empirisch behandelt: Welche Erkenntnisse Philosophen durch Rückgriff auf ihre Intuitionen aus dem sprichwörtlichen Lehnstuhl gewinnen können (und welche nicht), kann nur unter Zuhilfenahme empirischer Untersuchungen relevanter Intuitionen und der sie erzeugenden oder beeinflussenden psychologischen Prozesse ermittelt werden. Für ihre Validierung müssen – und können – intuitive Erkenntnisse so oder so mit empirischer Einsicht in ihre Quellen zusammengebracht werden. Die psychologisch fundierte Epistemologie der Intuition – und damit die interdisziplinäre Metaphilosophie – erhält so entscheidende Bedeutung für die Arbeit der Philosophie »erster Ordnung«. Um die Konsequenzen für weitergehende philosophische Methodenfragen ermessen zu können, müssen wir uns freilich Fragen nach der Struktur und Entstehung philosophischer Probleme und nach Sinn und Zweck philosophischer Theor ien zuwenden, die in der Gegenwartsdebatte vernachlässigt werden.9
Der folgende Abschnitt gibt daher primär eine persönliche Einschätzung wieder, die ich andernorts (Fischer 2011a) umfassender entwickelt habe. 9
92
Philosophie der Philosophie
4 Charakteristisch philosophische Probleme und Theorien Die Philosophie der Gegenwart lässt sich als das vorläufige Ergebnis eines historischen Ausgliederungsprozesses betrachten, in dessen Rahmen sich methodologisch ausreifende Disziplinen als eigene Fächer etablierten (Abschnitt 1). Umgekehrt bildeten sich vor allem im Verlauf der enormen Vergrößerung der Fachgemeinschaft nach dem zweiten Weltkrieg distinktive Teildisziplinen innerhalb der Philosophie heraus, die oft in Reaktion auf domänenspezifische Herausforderungen engen Kontakt mit anderen Fächern suchten (man denke etwa an die mathematische Logik, formale Semantik, spezifische Wissenschaftsphilosophien, die soziale Epistemologie etc.). Diese voneinander unabhängigen und diversen Unwägbarkeiten unterworfenen Prozesse bieten keine Gewähr dafür, dass der Problem- und Theor iebestand der Gegenwartsphilosophie auch nur halbwegs homogen ist und sich sinnvolle Aussagen über »das Wesen, die Eigenart oder die Struktur philosophischer Probleme und Theor ien (tout court)« machen ließen. Wir können allenfalls bestimmte Problemarten und theoretische Motivationen betrachten, die in der Philosophie eine ungleich größere Rolle gespielt haben als in anderen Fächern, und deren Charakteristika herausarbeiten. Plato bezeichnete das Staunen in Anbetracht vertrauter Tatsachen als den Anfang allen Philosophierens (Theaitetos 155b–d). Solches Staunen über die bloße Tatsache, dass p, unterscheidet sich von wissenschaftlicher Neugier, wie es dazu kommt, dass p, was genau dabei passiert oder abläuft oder wie sich diese Tatsache zu anderen Tatsachen oder Phänomenen verhält. Das hiervon unabhängige Staunen, dass es überhaupt der Fall ist, ja, überhaupt der Fall sein kann, dass p, kann auf eine distinktive Motivation zurückgehen: auf intuitiv eingängige paradoxe Argumente, die von unhinterfragten Intuitionen oder Überzeugungen zu Schlussfolgerungen q führen, die im Widerspruch zu p zu stehen scheinen, so dass es unmöglich erscheint, dass p – obwohl es doch augenscheinlich der Fall ist, dass p. Solche wirklichen oder vermeintlichen Konflikte motivieren Fragen der Form: Wie kann es sein, dass p (obgleich q)?10 Ein Beispiel ist das (seit Smith 2002) sog. »Problem der Wahrnehmung« (Crane 2015a): Wie können wir Tische, Stühle und andere physische Gegenstände sehen, obgleich uns allein subjektive Wahrnehmungen (Ideen, Sinnesdaten) direkt bewusst sind? Es wird von Paradoxa wie »Illusionsargumenten« aufgeworfen, die sich auf Intuitionen über sprachlich beschriebene Fälle nicht-veridischer Wahr-
Ähnliches gilt für ontologische Was-ist-X-Fragen: In den Natur- und Sozialwissenschaften fragen sie nach einer Charakterisierung von X, die es erlaubt, das Verhalten von X vorauszusagen oder zu erklären. Philosophen stellen sie meistens, wo sie geneigt sind, X (z. B. Zahlen oder Gedanken) entgegen besseren Wissens an exemplarische (physische) Gegenstände anzugleichen. 10
93
II. Die Philosophie der Formal- und Geisteswissenschaften
nehmung berufen (z. B.: »Wenn eine von der Seite betrachtete Münze elliptisch erscheint, ist sich der Betrachter etwas bewusst, was elliptisch ist.«). Philosophen unterscheiden sich von anderen Wissenschaftlern dadurch, dass sie oft darauf bestehen, dass die q zu Grunde liegenden Intuitionen oder Überzeugungen zu respektieren sind. Das Ergebnis sind charakteristisch philosophische »Vereinbarungsprobleme«, welche durch Theor ien gelöst werden sollen, die zeigen, dass p mit diesen Intuitionen oder Überzeugungen vereinbar ist: dass alle gleichzeitig widerspruchsfrei wahr sein könnten. Wo Vereinbarungsprobleme von unhinterfragt akzeptierten Intuitionen und Überzeugungen aufgeworfen werden, stellt deren epistemologische Bewertung (vgl. Abschnitt 3) einen entscheidenden Zwischenschritt dar: Nur, wo wir zur Akzeptanz der Intuitionen oder Überzeugungen berechtigt sind, stellt sich die Aufgabe, sie mit anderen Urteilen zu vereinbaren. Wo sie demgegenüber etwa als kognitive Illusionen (Fischer et al. 2015) oder Ergebnisse adaptiver, aber nicht wahrheitsverfolgender Prozesse (Leben 2014) entlarvt werden (und sich q so als ungerechtfertigt erweist), beseitigt dies die spezifische Motivation für die Frage (»Wie kann es sein, dass p, obgleich q?«). Die metaphilosophische Einsicht in Struktur und Entstehung des Problems stellt dann den Schlüssel zu seiner Auflösung dar: Das charakteristisch philosophische Problem wird so als Scheinproblem aufgelöst – während es sich bei Validierung der zu Grunde liegenden Intuitionen tatsächlich stellt und einer theoretischen Lösung bedarf. Dem heute geläufigsten philosophischen Selbstverständnis zufolge (z. B. Williamson 2007) sind die Ziele philosophischen Theoretisierens Wahrheit und erfolgreiche Erklärung einer Art, die Wahrheit voraussetzt. Um solchen Erfolg nachweisen zu können, müssen wir Theor ien detaillierter ausarbeiten, als wenn es »bloß« um die Herstellung von Urteils- und Überzeugungskonsistenz in Anbetracht spezifischer Vereinbarungsprobleme geht. Verschiedene theoretische Großprojekte aus der analytischen Philosophie des zwanzigsten Jahrhunderts weisen jedoch eine eigentümliche Unterentwicklung auf, die nahelegt, dass es ihren Proponenten »bloß« um die Wiederherstellung von Konsistenz in Anbetracht solcher Probleme ging. Gute Beispiele sind die zwei theoretischen Forschungsprogramme, die die analytische Philosophie des Geistes im zwanzigsten Jahrhundert sukzessive dominierten. Der analytische Behaviorismus wollte Zuschreibungen mentaler Zustände auf Zuschreibungen von Verhaltensdispositionen zurückführen. Natürlich treffen auf jedes Subjekt in einem bestimmten Zustand (S hat Kopfschmerzen) unbestimmt viele kontrafaktische Konditionale zu (wie S sich verhalten würde, wenn ihm Aspirin angeboten würde, laute Musik ertönte etc.), die sich nicht vollständig auflisten lassen. Doch dies braucht einen nicht davon abzuhalten, für zumindest die Zuschreibungen von jeweils ein paar Dutzend Empfindungen, Überzeugungen, Wünschen etc. wenigstens jeweils ein paar Dutzend Konditionale anzugeben und zu zeigen, dass kompetente Sprecher die entsprechenden Zuschreibungen bei Bewahrheitung solcher Konditionale als wahr akzeptieren. 94
Philosophie der Philosophie
Dennoch begnügten sich Behavioristen in den dreißig (!) Jahren, in denen ihre Theorie dominierte, mit der vereinfachten Analyse einer Handvoll Beispielsätze. Der darauf bald folgende analytische Funktionalismus wollte – in einer Hauptvariante, die in den »Canberra Plan« (s. Abschnitt 1) mündete – mentale Zustände auf kausale Rollen zurückführen. Das Forschungsprogramm bestand offiziell (Lewis 1972) darin, Intuitionen und Alltagsweisheiten zu den Ursachen und Wirkungen bestimmter Geisteszustände zu sammeln und auf dieser Grundlage unsere impliziten Alltagstheor ien explizit zu formulieren (als teilformalisierte Konjunktion aller kausalen Gemeinplätze, in der alle mentalen Ausdrücke durch gebundene Variablen ersetzt und so implizit über kausale Rollen definiert werden). Obwohl dieses Verfahren mehr als dreißig Jahre lang als »kanonisch« galt (Levin 2009), bemühten sich seine Vertreter nicht einmal für einen Ausschnitt aus unserem Geistesleben auch nur um eine systematische Sammlung einschlägiger Intuitionen und Alltagsweisheiten. Wie ihre behavioristischen Vorgänger unternahmen sie in diesem Zeitraum keine systematischen Anstrengungen, um zu zeigen, dass ihre Hauptthese tatsächlich wahr ist.11 Hierfür wurden bisweilen grundsätzliche Schwierigkeiten (wie etwa der vermeintlich holistische Charakter von Geisteszuschreibungen) als Grund angeführt. Doch wenn ein Forschungsprogramm vertreten wird, obwohl seine Vertreter glauben, dass seine Ausführung praktisch unmöglich ist, dann ist ihr Ziel eben nicht die Entwicklung einer nachweislich wahren Theor ie. Stattdessen bemühten sie sich darum zu zeigen, dass die funktionalistische Programmatik prinzipiell diverse einander und ihr selbst anscheinend widersprechende Intuitionen (etwa intuitive Zuschreibungen qualitativer Eigenschaften) vereinbaren kann. Dies legt nahe, dass zumindest die meisten Philosophen, die diese einflussreichen Programme verfolgten, die Herstellung von Konsistenz zwischen ihren – intuitiven und anderen – Urteilen nicht als notwendigen Schritt auf dem Weg zu wahren oder erfolgreichen Erklärungen behandelten, sondern als Haupt- und Selbstzweck ihrer Arbeit, die damit primär auf die Beseitigung kognitiver Dissonanz statt auf den Erwerb wissenschaftlicher Erkenntnis ausgerichtet wäre. Der wissenschaftliche Charakter der Philosophie wird traditionell – und vor allem von philosophischen Laien – aufgrund ihrer vermeintlich spekulativen Methoden in Frage gestellt. Die eben identifizierte Divergenz zwischen Selbstverständnis und impliziten Zielen philosophischer Theoriebildung wirft die vielleicht grundlegende Frage der Philosophie der Philosophie auch für philosophische Diese Unterentwicklung lässt sich auch in anderen Zweigen der Philosophie beobachten – etwa beim sprachphilosophischen Zentralprojekt der Entwicklung kompositionaler Bedeutungstheor ien für natürliche Sprachen (Davidson 1967; Evans 1981; Wright 1986; Peacocke 1986). Seine Fortschritte unterscheiden sich deutlich von denen, die etwa KI-Forscher (z. B. Winograd 1972) oder experimentelle Philosophen (s. o.) in ähnlich anspruchsvollen Forschungsprogrammen in ähnlichen oder kürzeren Zeiträumen gemacht haben. Zum aktuellen Stand vgl. Werning et al. 2012. 11
95
II. Die Philosophie der Formal- und Geisteswissenschaften
Experten und für die ansonsten methodisch strengsten Formen der analytischen Philosophie auf: In welchem Umfang wird die Philosophie als Wissenschaft betrieben? Und in welchem Umfang sollte sie als Wissenschaft betrieben werden? Die erste Frage wird am besten durch detaillierte Fallstudien zu bestimmten philosophischen Projekten und Theor ien (wie dem kausaltheoretischen Funk tionalismus) beantwortet, insbesondere durch Fallstudien, die Analogien zu außerwissenschaftlichen Tätigkeiten untersuchen. Neuere Debatten kreisten etwa um Analogien zwischen Philosophie und Therapie (Ganeri/Carlisle 2010; Fischer 2011a; Banicki 2014).12 Zugleich für die zweite Frage sind insbesondere Vergleiche mit Formen kognitiver Therapie erhellend, die sokratische Fragen und rationale Argumente in den Mittelpunkt stellen (z. B. Beck 2011): Wo kognitive Illusionen philosophische Scheinprobleme aufwerfen (s. o.), bestehen die einzigen »echten« Probleme darin, dass Philosophen eine unberechtigte intellektuelle Unruhe verspüren und Zeit auf theoretische Lösungen einer Art verwenden, die sie als überflüssig ablehnen würden, wenn sie die relevanten Intuitionen als kognitive Illusionen durchschauten. Mit anderen Worten: Die einzigen »echten« Probleme sind dann Probleme, die psychotherapeutische Definitionen von »emotionalen« und »Verhaltensproblemen« erfüllen. In solchen Fällen ist es für Philosophen nicht unvernünftig, sich primär um die Beseitigung kognitiver Dissonanz zu bemühen. Wo Urteile, Gefühle und Verhaltensweisen von automatischen Prozessen, die wir nicht direkt beeinflussen können, erzeugt oder beeinflusst werden, können wir sie oft nicht durch die bloße Einsicht ändern, dass sie falsch oder unvernünftig sind. Die Kernidee kognitiver Psychotherapien, die auf den Erkenntnissen der Sozial- und Kognitionspsychologie aufbauen, besteht darin, uns Einsicht in diese Prozesse und deren relevante Defizite und Fehlerquellen zu vermitteln; solche »metakognitive Einsicht« kann uns helfen, die erklärten Urteile etc. zu überwinden (Nelson 2005; Beck 2011). In Anbetracht unberechtigter, aber hartnäckiger Intuitionen ist es mithin notwendig, konventionelle Formen philosophischer Argumentation um metakognitive Einsicht zu ergänzen – wie sie etwa vom Quellenprojekt in der experimentellen Philosophie, ebenfalls auf der Grundlage von Kognitions- und Sozialpsychologie, angestrebt wird (Abschnitt 3). So kann – und sollte – Arbeit an einigen charakteristisch philosophischen Problemen den Charakter einer wissenschaftlich fundierten therapeutischen Praxis – statt einer »reinen« Wissenschaft – annehmen.
Debatten im Anschluss an die antike Philosophie gelten der Frage, wie philosophische Reflektion (als »philosophische Therapie«) zur Lösung von emotionalen und Verhaltensproblemen in der vor-philosophischen Lebenswelt beitragen kann. Für unsere Zwecke relevanter sind Debatten im Anschluss an Wittgenstein über Nutzen und Methoden »therapeutischer Philosophie«, die Probleme behandelt, die erst im Zuge philosophischer Reflektion entstehen (vgl. Fischer 2011b). 12
96
Philosophie der Philosophie
5 Ausblick Debatten in der gegenwärtigen Philosophie der Philosophie gehen mithin deutlich über die Fragen zur Verwendung von Intuitionen und experimentellen Methoden hinaus, die gegenwärtig im Mittelpunkt allgemeinphilosophischer Aufmerksamkeit stehen.13 Gemeinsam ist den besprochenen Debatten, dass sie zunehmend auf empirischer Grundlage geführt werden. Diese wird von philosophischen Fallstudien oder psychologischen Erkenntnissen, Umfragen oder Experimenten bereitgestellt. Aus dem Desiderat der Ausweitung dieser Grundlage ergeben sich zentrale Herausforderungen: Fallstudien zur argumentativen und evidentiellen Relevanz von Intuitionen müssen auf Fragen nach deren Relevanz in philosophischer Problem- und Begriffskonstitution ausgeweitet werden sowie auf Fragen nach Struktur und Funktion philosophischer Theor iebildung – die durch Fallstudien jeweils spezifische, statt gefährlich allgemeine Antworten erhalten. Die Interaktion mit der Psychologie könnte und sollte um die mit weiteren Sozialwissenschaften ergänzt werden, wobei wichtige Impulse von der sozialen Epistemologie zu erwarten sind. In der experimentellen Philosophie schließlich werden bereits jetzt einfache Umfragetechniken durch zunehmend subtilere experimentelle Methoden aus der Kognitions-, Sozial- und Sprachpsychologie ergänzt. Auf diese Weise kann und wird sich die Philosophie der Philosophie in eine genuin interdisziplinäre Metaphilosophie entwickeln. Dieser Aufsatz erläuterte unter anderem, warum eine solche Metaphilosophie eine deutlich zentralere Funktion für die Philosophie selbst übernehmen kann als die Philosophien anderer Disziplinen für diese Fächer.
Weitere wichtige Debatten, auf die dies Kapitel jedoch aus Platzgründen nicht näher eingehen konnte, betreffen naturalistische Forschungsprogramme (»erster Ordnung«, s. S. 87) etwa in der Erkenntnistheor ie (Kornblith 2002; 2014) oder Metaphysik (Ladyman/Ross 2007), den Status metaphysischer Überlegungen (»Metametaphysik«, Chalmers et al. 2009), den vielleicht »bloß verbalen« Charakter philosophischer Meinungsverschiedenheiten (Chalmers 2011; Jenkins 2014a), den (fehlenden) Konsens und Fortschritt in der Philosophie (Chalmers 2015), die philosophische Relevanz philosophiehistorischer Forschung (Crane 2015b) sowie Nutzen und Grenzen formaler Methoden in verschiedenen Teildisziplinen – von der Sprachphilosophie (Moss 2012) bis zur Epistemologie (Weisberg 2015). 13
97
II. Die Philosophie der Formal- und Geisteswissenschaften
Literatur Empfehlungen: Einen allgemeinen Überblick über die Gegenwartsdiskussion zur philosophischen Methodologie geben die Sammelbände von Cappelen/Gendler/Hawthorne (2016) und Haug (2014). Einen guten Einblick in aktuelle Debatten zu Intuitionen verschaffen Booth/Rowbottom (2014) sowie (trotz eher polemischen Stils) Cappelen (2012). Den aktuellen Stand von Debatten zur experimentellen Philosophie geben Fischer/Collins (2015a) sowie Grundmann/Horvath/Kipper (2014) wieder. Eine besonders einflussreiche Monographie zur Philosophie der Philosophie ist Williamson (2007). Umfassende monographische Untersuchungen, die auch auf in Gegenwartsdebatten vernachlässigte Fragen eingehen, sind Fischer (2011a) und Raatzsch (2014).
Für hilfreiche Kommentare bedanke ich mich bei zwei anonymen Gutachtern. Alexander, Joshua (2012): Experimental Philosophy. Cambridge: Polity. –, Chad Gonnerman und John Waterman (2015): Salience, and epistemic egocentrism. In: J. Beebe (Hg.): Advances in Experimental Epistemology, 97–118, London: Bloomsbury. Alter, Adam L., und Daniel M. Oppenheimer (2009): Uniting the tribes of fluency to form a metacognitive nation. Personality and Social Psychology Review 13, 219 – 235. Antony, Louise (2004): A naturalized approach to the a priori. Philosophical Issues, 14, 1 – 17 Armstrong, David (1977): The causal theory of mind. Wiederabgedruckt in: W. Lyons (Hg.), Modern Philosophy of Mind (S. 175 – 190). London: Dent (Everyman). Austin, John L. (1956/57): A plea for excuses, Proceedings of the Aristotelian Society, 57, 1 – 30 – (1961): Ifs and cans. Wiederabgedruckt in: ders.: Philosophical Papers (S. 205 – 232). Oxford: Oxford University Press. Banicki, Konrad (2014): Philosophy as therapy: Towards a conceptual model. Philosophical Papers, 43, 7 – 31. Bargh, John A. (1994): The four horsemen of automaticity. In: R. Wyer and T. Srull (Hg.), Handbook of Social Cognition, 1 – 40. Hillsdale: Earlbaum. Bealer, George (1996): On the possibility of philosophical knowledge, Philosophical Perspectives 10, Metaphysics, 1 – 34. – (1998): Intuition and the autonomy of philosophy. In: DePaul und Ramsay (Hg.), Rethinking Intuition, 201 – 139. New York: Rowman and Littlefield. – (2000): A theory of the a priori, Pacific Philosophical Quarterly, 81, 1 – 30. Beck, Judith S. (2011): Cognitive Therapy: Basics and Beyond. 2. Aufl. New York: Guilford Press. Braddon-Mitchell, David, und Robert Nola (Hg.) (2009): Conceptual Analysis and Philosophical Naturalism. Cambridge, MA: MIT Press. Bonjour, Laurence (1998): In Defence of Pure Reason. Cambridge: Cambridge University Press. 98
Philosophie der Philosophie
Booth, Anthony, und Darrell Rowbottom (Hg.) (2014): Intuitions. Oxford: Oxford University Press. Buckwalter, Wesley, und Stephen Stich (2014): Gender and philosophical intuition. In: J. Knobe und S. Nichols (Hg.), Experimental Philosophy, vol. 2, 307 – 346. Oxford: Oxford University Press. Burge, Tyler (1979): Individualism and the mental. Midwest Studies in Philosophy, 4, 73–121. Cappelen, Herman (2012): Philosophy without Intuitions. Oxford: Oxford University Press. Cappelen, Herman, Tamar Gendler und John Hawthorne (Hg.) (2016): The Oxford Handbook of Philosophical Methodology. Oxford: Oxford University Press. Carnap, Rudolf (1932/33): Psychologie in physikalischer Sprache. Erkenntnis, 3, 107 – 142. Cath, Yuri (2016): Reflective Equilibrium. In: Herman Cappelen et al. (Hg.): The Oxford Handbook of Philosophical Methodology, 213–230 Oxford: Oxford University Press. Chalmers, David (2011): Verbal disputes. Philosophical Review, 120, 515 – 566. – (2015): Why isn’t there more progress in philosophy? Philosophy, 90, 3 – 31. –, David Manley und Ryan Wasserman (Hg.) (2009): Metametaphysics. New Essays on the Foundations of Ontology. Oxford: Oxford University Press. Chudnoff, Elijah (2013): Intuition. Oxford: Oxford University Press. Cohen, Stewart (1999): Contextualism, skepticism, and the structure of reasons. Philosophical Perspectives, 13, 57–89. Colaco, David, Wesley Buckwalter, Stephen Stich und Edouard Machery (2014): Epistemic Intuitions in Fake-barn Thought Experiments. Episteme, 11, 199 – 212. Crane, Tim (2015a): The problem of perception. In: N. Zalta (Hg.), The Stanford Encyclopedia of Philosophy. URL = http://plato.stanford.edu/archives/sum2015/entries/ perception-problem/. Crane, Tim (2015b): Understanding the question. In: E. Fischer und J. Collins (Hg.): Experimental Philosophy, Rationalism, and Naturalism, 72 – 84. London: Routledge. Davidson, Donald (1967): Truth and meaning, Synthese, 17, 304 – 323. DeRose, Keith (1992): Contextualism and knowledge attributions. Philosophy and Phenomenological Research, 52, 913–29. Devitt, Michael (2012): Whither experimental semantics? Theoria, 72, 5 – 36. Earlenbaugh, Joshua, und Bernard Molyneux (2009): Intuitions are inclinations to believe. Philosophical Studies, 145, 89 – 109. Evans, Gareth (1981): Semantic theory and tacit knowledge. In: S. Holtzman und C. Leich (Hg.), Wittgenstein: To Follow a Rule. London: Routledge. Evans, Jonathan (2008): Dual processing accounts of reasoning, judgment and social cognition. Annual Review of Psychology, 59, 255 – 78. – und Stanovich, Keith E. (2013): Dual-process theor ies of higher cognition: advancing the debate. Perspectives on Psychological Science, 8, 223 – 241. 99
II. Die Philosophie der Formal- und Geisteswissenschaften
Feltz, Adam, und Edward T. Cokely (2009): Do judgments about freedom and responsibility depend on who you are? Consciousness and Cognition, 18, 342 – 350. Fischer, Eugen (2011a): Philosophical Delusion and its Therapy. New York: Routledge. – (2011b): How to practise philosophy as therapy: Philosophical therapy and therapeutic philosophy. Metaphilosophy, 42, 49 – 82. – (2014): Philosophical intuitions, heuristics, and metaphors. Synthese, 191, 569 – 6 06. – und John Collins (Hg.) (2015a): Experimental Philosophy, Rationalism and Naturalism. Rethinking Philosophical Method. London: Routledge. – und John Collins (2015b): Rationalism and Naturalism in the Age of Experimental Philosophy. In: dies. (Hg.), Experimental Philosophy, Rationalism and Naturalism, 3 – 33. London: Routledge. – und Paul. E. Engelhardt (2016): Intuitions’ linguistic sources: Stereotypes, intuitions, and illusions. Mind and Language, 31, 67–103. –, Paul E. Engelhardt und Aurelie Herbelot (2015): Intuitions and illusions. From explanation and experiment to assessment. In: E. Fischer und J. Collins (Hg.), Experimental Philosophy, Rationalism and Naturalism, 259 – 292. London: Routledge. Fodor, Jerry (1975): The Language of Thought. Cambridge, MA: Harvard Univ. Press. Foot, Philippa (1967): The problem of abortion and the doctrine of double effect. Oxford Review, 5, 5 – 15. Frederick, Shane (2005): Cognitive reflection and decision making. Journal of Economic Perspectives 19, 24 – 4 2. Ganeri, Jonardon, und Clare Carlisle (Hg.) (2010): Philosophy as Therapeia. Royal Institute of Philosophy Supplement 66. Cambridge: Cambridge University Press. Gendler, Tamar, und John Hawthorne (Hg.) (2002): Conceivability and Possibility. Oxford: Oxford University Press. Gerken, Mikkel (2013): Epistemic focal bias. Australasian Journal of Philosophy, 91, 41 – 61. – und James Beebe (2016): Knowledge in and out of contrast. Nous, 50, 133–164. Gettier, Edmund (1963): Is justified true belief knowledge? Analysis, 23, 121 – 123. Gigerenzer, Gerd (2011): Personal reflections on theory and psychology. Theory and Psychology, 20, 733–743. Goldman, Alvin (1976): Discrimination and perceptual knowledge. Journal of Philosophy, 73, 771 – 791. – (1999): A priori warrant and naturalistic epistemology. Philosophical Perspectives, 13, 1 – 28. – (2007): Philosophical intuitions: their target, their source, and their epistemic status. Grazer Philosophische Studien, 74, 1 – 26. Grundmann, Thomas, Joachim Horvath und Jens Kipper (Hg.) (2014): Die Experimentelle Philosophie in der Diskussion. Berlin: Suhrkamp. Haug, Matthew (Hg.) (2014): Philosophical Methodology: The Armchair or the Laboratory? London: Routledge. Hempel, Carl Gustav (1935): Analyse logique de la psychologie. Revue de Synthèse, 10, 27 – 4 2. 100
Philosophie der Philosophie
Jackson, Frank (1982): Epiphenomenal qualia. Philosophical Quarterly, 32, 127 – 136. – (1998): From Metaphysics to Ethics. A Defence of Conceptual Analysis. Oxford: Oxford University Press. Jenkins, Carrie S. I. (2014a): Merely verbal disputes. Erkenntnis, 79, 11 – 30. – (2014b): Intuition, ›intuition‹, concepts and the a priori. In: A. Booth und D. Rowbottom (Hg.), Intuitions, 91 – 115. Oxford: Oxford University Press. Jones, Edward E. und Richard E. Nisbett (1972): The actor and the observer: Divergent perceptions of the causes of behavior. In: E. E. Jones, D. E. Kanouse, H. H. Kelley, R. E. Nisbett, S. Valins und B. Weiner (Hg.), Attribution: Perceiving the Causes of Behavior, 79 – 94. Morristown, NJ: General Learning Press. Kant, Immanuel (1787/1956): Kritik der reinen Vernunft. Darmstadt: WBG. Kahneman, Daniel (2011): Thinking Fast and Slow, London: Allen Lane. – und Shane Frederick (2002): Representativeness revisited: Attribute substitution in intuitive judgment. In: T. Gilovich, D. Griffin und D. Kahneman (Hg.): Heuristics of Intuitive Judgement, 49 – 81. New York: Cambridge University Press. – und Shane Frederick (2005): A model of heuristic judgment. In: K. J. Holyoak und R. Morrison (Hg.), The Cambridge Handbook of Thinking and Reasoning, 267 – 293. Cambridge: Cambridge University Press. Kauppinen, Antti (2007): The rise and fall of experimental philosophy. Philosophical Explorations, 10, 95 – 118. Knobe, Joshua (2016): Experimental philosophy is cognitive science. In: J. Sytsma and W. Buckwalter (Hg.), Blackwell Companion to Experimental Philosophy, 37–52 Malden, MA: Wiley Blackwell. – und Shaun Nichols (2008): An experimental philosophy manifesto. In: dies. (Hg.), Experimental Philosophy, 3 – 14. Oxford: Oxford University Press. Koriat, Asher (2007): Metacognition and consciousness. In: P. D. Zelazo, M. Moscovitch and E. Thompson (Hg.), The Cambridge Handbook of Consciousness, 289– 326. Cambridge: Cambridge University Press. Kornblith, Hilary (2002): Knowledge and its Place in Nature. Oxford: Oxford University Press. – (2014): A Naturalistic Epistemology. Oxford: Oxford University Press. – (2015): Against naturalistic defences of intuition. In: E. Fischer und J. Collins (Hg.): Experimental Philosophy, Rationalism, and Naturalism, 151 – 168. London: Routledge. Kripke, Saul (1980): Naming and Necessity. Oxford: Blackwell. Kuhn, Thomas (1976): Die Struktur wissenschaftlicher Revolutionen. Frankfurt: Suhrkamp. Ladyman, James, und Don Ross (2007): Every Thing Must Go. Metaphysics Naturalised. Oxford: Oxford University Press. Lam, Barry (2010): Are Cantonese-speakers really descriptivists? Revisiting crosscultural semantics. Cognition, 115, 320 – 329. Leben, Derek (2014): When psychology undermines beliefs. Philosophical Psychology, 27, 328 – 350. 101
II. Die Philosophie der Formal- und Geisteswissenschaften
Lehrer, Keith, und Thomas Paxton (1966): Knowledge: undefeated justified true belief. Journal of Philosophy, 66, 225 – 237. Levin, Janet (2009): Functionalism. In: N. Zalta (Hg.): The Standford Encyclopedia of Philosophy (Summer 2009 Edition). URL = ‹http://plato.stanford.edu/archives/ sum2009/entries/functionalism/›. Lewis, David (1972): Psychophysical and theoretical identifications. Australasian Journal of Philosophy 50, 249 – 258. – (1983): Philosophical Papers, vol. 1. Oxford: OUP. – (1994): Reduction in Mind. In: S. Guttenplan (Hg.): A Companion to the Philosophy of Mind, 412 – 431. Oxford: Blackwell. Ludwig, Kirk (2007): The epistemology of thought experiments: First person versus third person approaches. Midwest Studies in Philosophy, 31, 128 – 159. Machery, Edouard (2015): The illusion of expertise. In: E. Fischer und J. Collins (Hg.): Experimental Philosophy, Rationalism, and Naturalism. London: Routledge. Mallon, Ron (2016): Experimental philosophy. In: Cappelen/Gendler/Hawthorne (Hg.): Oxford Handbook of Philosophical Methodology, 410–433. Oxford: OUP. Mercier, Hugo, und Dan Sperber (2009): Intuitive and reflective inferences. In: J. S. B. T. Evans und K. Frankish (Hg.): In Two Minds: Dual Processes and Beyond. Oxford: Oxford University Press. Moore, George Edward (1939): Proof of an external world. Proceedings of the British Academy, 25, 273 – 300. Moors, Agnes, und Jan De Houwer (2006): Automaticity: a theoretical and conceptual analysis. Psychological Bulletin, 132, 297 – 326. Moss, Laurence S. (2012): The role of mathematical methods in the philosophy of language. In: G. Russell und D. G. Fara (Hg.): The Routledge Companion to Philosophy of Language, 533 – 543. New York: Routledge. Nadelhoffer, Thomas, Tr. Kvaran and E. Nahmias (2009): Temperament and intuition: A commentary on Feltz and Cokely. Consciousness and Cognition, 18, 351 – 355. Nagel, Jennifer (2012): Intuitions and experiments: a defence of the case method in epistemology. Philosophy and Phenomenological Research, 85, 495 – 527. – Valerie San Juan und Raymon A. Mar (2013): Lay denial of knowledge for justified true beliefs. Cognition, 129, 652 – 6 61. Nahmias, Eddy, und Dylan Murray (2010): Experimental philosophy on free will. In: J.Aguilar et al. (Hg.): New Waves in Philosophy of Action. Basingstoke: Palgrave. Nelson, Hazel (2005): Cognitive-behavioural Therapy with Delusions and Hallucinations. 2. Aufl. Cheltenham: Nelson Thornes. Nichols, Shaun, und Joshua Knobe (2007): Moral responsibility and determinism. Nous 41, 663 – 6 85. Nisbett, Richard E. (2003): The Geography of Thought. New York: Free Press. Norton, John (1996): Are thought experiments just what you thought? Canadian Journal of Philosophy, 26, 333 – 366. Oppenheimer, Daniel M. (2004): Spontaneous discounting of availability in frequency judgment tasks. Psychological Science, 15, 100 – 105. 102
Philosophie der Philosophie
Parsons, Charles (1995): Platonism and mathematical intuition in Kurt Gödel’s thought. The Bulletin of Symbolic Logic, 1, 44 – 74. Peacokce, Christopher (1986): Explanation in computational psychology: Language, psychology, and level 1.5. Mind and Language, 1, 101 – 123. Petrinovich, Lewis, und Patricia O'Neill (1996): Influence of wording and framing effects on moral intuitions. Ethology and Sociobiology, 17, 145 – 171. Pinillos, Angel, Nick Smith, Gopal Shyam Nair, Peter Marchetto and Cecilia Mun (2011): Philosophy’s new challenge. Mind and Language, 26, 115 – 139. Plantinga, Alvin (1993): Warrant and Proper Function. Oxford: OUP. Pohl, Rüdiger (Hg.) (2004): Cognitive Illusions. New York: Psychology Press. Pust, Joel (2000): Intuitions as Evidence, London: Garland. – (2012): Intuition. In E. N. Zalta (Hg.), The Stanford Encyclopedia of Philosophy (Winter 2012 Edition), ‹http://plato.stanford.edu/archives/win2012/entries/intuition/›. Putnam, Hilary (1975): Philosophical Papers: Volume 2. Mind, Language and Reality. Cambridge: Cambridge University Press. Quine, Willard Van Orman (1953): Two dogmas of empiricism. In seinem From a Logical Point of View. Cambridge, MA: Harvard University Press. Raatzsch, Richard (2014): Philosophiephilosophie. 2. Aufl. Wiesbaden: Springer VS. Rawls, John (1971): A Theory of Justice. Cambridge, MA: Harvard University Press. Rey, Georges (1998): A naturalistic a priori. Philosophical Studies, 92, 25 – 43. Rosch, Eleanor (1975): Cognitive representation of semantic categories. Journal of Experimental Psychology, 104, 192 – 233. Russell, Bertrand (1905): On denoting. Mind, 14, 479 – 493. – (1918): The philosophy of logical atomism. The Monist, 29, 190 – 222. Ryle, Gilbert (1949): Concept of Mind. London: Hutchinson. Schaffer, Jonathan, und Joshua Knobe (2012): Contrastive Knowledge Surveyed. Nous 46, 675–708. Seyedsayamdost, Hamid (2015a): On normativity and epistemic intuitions: Failure of replication. Episteme, 12, 95 – 116. – (2015b): On gender and philosophical intuition: Failure of replication and other negative results. Review of Philosophy and Psychology, 28, 642 – 6 73. Shieber, Joseph (2012): A partial defence of intuition on naturalist grounds. Synthese, 187, 321 – 341. Simmons, Joseph P., und Leif D. Nelson (2006): Intuitive confidence: Choosing between intuitive and non-intuitive alternatives. Journal of Experimental Psychology: General 135, 409–428. Sloman, Steven A. (1996): The empirical case for two systems of reasoning. Psychological Bulletin, 119, 3 – 22. Smith, David (2002): The Problem of Perception. Cambridge, MA: Harvard UP. Sosa, Ernest (1998): Minimal intuition. In: M. DePaul und W. Ramsay (Hg.): Rethinking Intuition (S. 257 – 70). Lanham: Rowman and Littlefield. – (2007): Intuitions: their nature and epistemic efficacy. Grazer Philosophische Studien, 74, 51 – 6 7. 103
II. Die Philosophie der Formal- und Geisteswissenschaften
Stich, Stephen, und Kevin Tobia (2016): Experimental philosophy and the philosophical tradition. In: Justin Sytsma und Wesley Buckwalter (Hg.), Blackwell Companion to Experimental Philosophy, 5–21. Malden, MA: Wiley Blackwell. Thompson, Valerie A., Jamie A. Prowse Turner and Gordon Pennycook (2011): Intuition, reason, and metacognition. Cognitive Psychology, 63, 107 – 140. Thomson, Judith J. (1971): A defence of abortion. Philosophy and Public Affairs, 1, 47 – 66. – (1985): The trolley problem. Yale Law Journal, 94, 1395 – 1415. Tobia, Kevin, Wesley Buckwalter und Stephen Stich (2012): Moral intuitions: Are philosophers experts? Philosophical Psychology, 26, 629 – 6 38. Turri, John (2013): A conspicuous art: putting Gettier to the test. Philosophers' Imprint, 13, 1 – 16. Tucker, Chris (2013): Seemings and justification: An introduction. In: Chris Tucker (Hg.), Seemings and Justification: New Essays on Dogmatism and Phenomenal Conservatism, Oxford: OUP. van Inwagen, Peter (1997): Materialism and the psychological-continuity account of personal identity. In: J. Tomberlin (Hg.): Philosophical Perspectives 11: Mind, Causation, and World, 305 – 319. Boston: Blackwell. Weinberg, Jonathan M. (2014): Cappelen between a rock and a hard place. Philosophical Studies 171, 545 – 553. – (2015): Humans as instruments, on the inevitability of experimental philosophy. In: E. Fischer und J. Collins (Hg.): Experimental Philosophy, Rationalism, and Naturalism, 171 – 187. London: Routledge. – (2016): Intuitions. In: H. Cappelen, T. Gendler und J. Hawthorne (Hg.), Oxford Handbook of Philosophical Methodology, 287-308. Oxford: OUP. –, S. Nichols und S. Stich (2001): Normativity and epistemic intuitions. Philosophical Topics, 29, 429–460. Weinberg, Jonathan M., J. Alexander, C. Gonnerman und S. Reuter (2012): Restrictionism and reflection. The Monist, 95, 200 – 222. Weisberg, Jonathan (2015): Formal Epistemology. In: E. N. Zalta (Hg.): The Stanford Encyclopedia of Philosophy. URL = http://plato.stanford.edu/archives/sum2015/ entries/formal-epistemology/. Werning, Markus, Wolfram Hinzen und Edouard Machery (2012): Oxford Handbook of Compositionality. Oxford: Oxford University Press. Winograd, Terry (1972): Understanding Natural Language. Edinburgh: Edinburgh University Press. Williamson, Timothy (2007): The Philosophy of Philosophy. Oxford: Blackwell. – (2011): Philosophical expertise and the burden of proof. Metaphilosophy, 42, 215 – 229. Wittgenstein, Ludwig (1953): Philosophische Untersuchungen. Frankfurt: Suhrkamp. Wright, Crispin (1986): How can a theory of meaning be a philosophical project? Mind and Language 1, 31 – 4 4. Wright, Jennifer C. (2010): On Intuitional Stability: the clear, the strong, and the paradigmatic. Cognition 115, 491 – 503. 104
3. Philosophie der Literaturwissenschaft Tilmann Köppe und Tobias Klauk
1 Einleitung Die Literaturwissenschaft befasst sich mit dem literarischen Text, insbesondere mit seiner bibliographischen Erfassung und editorischen Aufbereitung, mit seiner Beschreibung, Deutung und Wertung. Genauso ist die Literaturwissenschaft aber auch interessiert an verschiedenen Formen der Kontextualisierung des lite rarischen Textes (u. a. Literaturgeschichtsschreibung, Kanonbildung, Biographie, Literatursoziologie, Rezeptionsforschung). Ferner widmet sich die Literaturwissenschaft auch einer Theor iebildung, die sowohl auf die Texte selbst und ihre Kontexte als auch auf die Verfahren des Umgangs mit dem literarischen Text bezogen ist (u. a. Poetik, Metrik, Erzähltheor ie, Theor ie der Autorschaft, Interpretationstheor ie). Die vorstehende Charakterisierung des Gegenstands sowie der Aufgaben der Literaturwissenschaft bedarf allerdings der einschränkenden Kommentierung, insofern als hier ein eher traditionelles Bild zugrunde gelegt wird, das in der neueren literaturtheoretischen Diskussion (etwa ab den 1960er Jahren) nicht unwidersprochen geblieben ist. So wurden, sowohl was den Gegenstandsbereich als auch was die Verfahren des Umgangs mit demselben angeht, vielfältige Neuausrichtungen angestrebt und auch praktiziert. Dies gilt etwa für die Forderung, Gegenstand der Literaturwissenschaft dürfe nicht allein der im engeren Sinne ›literarische‹ (also ästhetisch bedeutsame) Text sein, sondern man könne oder müsse jeden beliebigen Text untersuchen (vgl. Winko/Jannidis/Lauer 2006), oder für die Forderung, Aspekte der gesamten ›Kultur‹ (u. a. Geld, Mode, Hochzeitsrituale) könnten als ›Text‹ angesehen und folglich auch im Rahmen der Literaturwissenschaft und mit literaturwissenschaftlichen Verfahren untersucht werden (vgl. Bachmann-Medick 1996; Köppe/Winko 2008, Kap. 11 u. 12). Entsprechend breit gefächert ist das Spektrum der Verfahren, die im Rahmen der Literaturwissenschaft zur Anwendung kommen. Je nachdem, mit welcher Ausrichtung man es zu tun hat, steht die Literaturwissenschaft so unterschiedlichen Fächern wie der Linguistik, der Psychologie, der Ethnologie, der Geschichtsschreibung, der Philosophie oder der Informatik nahe bzw. bedient sich deren jeweiliger Methoden. Die Philosophie der Literaturwissenschaft lässt sich, vereinfacht gesagt, in zwei Gegenstandsbereiche unterteilen: Zum einen gibt es die philosophische Untersuchung literaturwissenschaftlicher Verfahren, Theor ien oder Methoden (die Philosophie der Literaturwissenschaft im eigentlichen Sinne), zum anderen die 105
II. Die Philosophie der Formal- und Geisteswissenschaften
philosophische Untersuchung bestimmter Aspekte des Gegenstands der Literaturwissenschaft, also literarischer Texte. Eigentlich handelt es sich beim Letzteren eher um Philosophie der Literatur als um Philosophie der Literaturwissenschaft, da der Forschungsgegenstand hier nicht die Literaturwissenschaft ist (zum Problem der Abgrenzung s. a. Abschnitt 1.2). Der Begriff ›Philosophie der Literaturwissenschaft‹ ist in der Literaturwissenschaft selbst nicht gebräuchlich (zu den Gründen siehe ebenfalls die Abschnitte 1.2 und 3). Der vorliegende Beitrag konzentriert sich nach einleitenden Bemerkungen zur Geschichte der Philosophie der Literaturwissenschaft (1.1) sowie zur grundsätzlichen Charakterisierung der heutigen Philosophie der Literaturwissenschaft in ihrem Verhältnis zur Literaturwissenschaft (1.2) zum einen auf die Darstellung ausgewählter philosophischer Bemühungen um den Gegenstandsbereich der Literaturwissenschaft, nämlich um die Begriffe der Literatur, des literarischen Werks (insbes. Werkidentität, Ontologie) sowie der Fiktionalität/Fiktivität (2.1). Anschließend werden ausgewählte philosophische Aspekte epistemischer/methodologischer Grundfragen der Literaturwissenschaft erläutert; der Schwerpunkt liegt hier auf philosophischen Problemen der Interpretation literarischer Texte (2.2). Der Beitrag schließt mit einem knappen Resümee sowie einer Einschätzung besonderer Herausforderungen der Philosophie der Literaturwissenschaft (3).
1.1 Geschichte der Philosophie der Literaturwissenschaft Die Geschichte der Philosophie der Literaturwissenschaft lässt sich, entsprechend der oben vorgeschlagenen Unterscheidung von Philosophie der Literaturwissenschaft und Philosophie der Literatur, grob in zwei einander teilweise überlagernde Stränge unterteilen. Der erste Strang umfasst philosophische Bemühungen um die Gegenstände der Literaturwissenschaft vor dem Aufkommen der Literaturwissenschaft als (akademischer) Disziplin. Diese Bemühungen beginnen wohl zeitgleich mit dem westlichen Philosophiekanon und treiben bedeutende Blüten in den Werken von Plato und Aristoteles. In Platos Der Staat, 607b5 – 6, ist bereits die Rede davon, »daß zwischen Philosophie und Dichtkunst ein alter Streit besteht«, Plato (1923), 408; eine Einführung gibt z. B. Griswold 2014. Gegenstand dieser frühen Ansätze sind Versuche einer Einteilung der Dichtungsarten und die Erläuterung ihrer Struktur sowie – insbesondere – auch erkenntnistheoretische und ethische Anliegen: So bedarf der Klärung, ob und inwiefern Dichtung (gemeint ist: fiktionale Literatur, s. u.) als Quelle von Wissen oder Erkenntnis ernst genommen zu werden verdient und worin ihr auf das Verhalten oder den Charakter von Rezipienten bezogener Nutzen oder Schaden gesehen werden kann. Es mag der Prominenz dieser Ursprungsvertreter geschuldet sein, dass sich viele der ›großen‹ (kanonischen) Philosophen der folgenden Jahrhunderte Fragen der Philosophie der Kunst gewidmet haben, die auch für eine Philosophie 106
Philosophie der Literaturwissenschaft
der Literatur im engeren Sinne bedeutsam sind. In spätantiker Zeit gilt das etwa für Plotin, es gilt für Augustinus und Thomas von Aquin im Mittelalter, für den Neuplatonismus der Renaissance sowie die Poetiken der Neuzeit (vgl. Beardsley 1966). Einen entscheidenden Schub erfährt die Philosophie der Kunst mit den systematischen Ästhetiken der Aufklärung (u. a. Alexander Gottlieb Baumgarten, Aesthetica, 1750 – 1758; Immanuel Kant, Kritik der Urteilskraft, 1790; Übersichtsdarstellungen und Einführungen in die Problematik bieten Guyer 2003; Strube 2004). Das Erbe der Ästhetik der Aufklärung treten die Philosophen des deutschen Idealismus (u. a. Georg Wilhelm Friedrich Hegel, Vorlesungen über Ästhetik, 1835 ff.) sowie der Romantik an (u. a. Friedrich Schlegel, u. a. Gespräche über die Poesie, 1800; eine Einführung findet sich bei Schaeffer 2000, Kap. 2; zu den Auswirkungen auf neuere literaturtheoretische Ansätze siehe Zima 1999). Im 20. Jahrhundert erfährt die philosophische Ästhetik (und mit ihr die Philosophie der Literatur) einen zeitverzögerten, dabei jedoch entscheidenden Aufschwung durch das Aufkommen der analytischen Philosophie. Probleme wie das der Ontologie von Kunstwerken, des Abbild- oder Repräsentationscharakters darstellender Kunst, der Natur ästhetischer Eigenschaften, der Psychologie ästhetischer Erfahrungen oder die Frage nach der Expressivität von Kunst werden neu debattiert. (Einen Überblick bietet z. B. Levinson 2003a.) Gesonderter Erwähnung in einer Geschichte der Philosophie der Literatur bedarf die Tradition der Hermeneutik, also der Lehre vom Verstehen (für ausführliche Darstellungen siehe Scholz 2001, 13 – 144; Detel 2011, Teil I). Ihre antiken Wurzeln sind zunächst allgemeine Lehren des Verstehens unterschiedlicher Gegenstände (u. a. der Homerischen Epen), die sich später, mit dem Entstehen unterschiedlicher Disziplinen wie der Theologie oder Rechtswissenschaft, in verschiedene Bereichshermeneutiken ausdifferenzieren. Der zweite Strang einer Philosophie der Literaturwissenschaft setzt die Existenz der Literaturwissenschaft voraus, insofern sie deren Verfahren untersucht. Je nachdem, welche Bedingungen man ansetzt, um von einer ›wissenschaftlichen‹ Beschäftigung mit einem Gegenstandsbereich zu sprechen, lässt sich die Existenz einer Literaturwissenschaft mehr oder minder weit zurückverfolgen. Eine »professionalisierte Beschäftigung mit Literatur« fand sich bereits in der Antike (Danneberg/Höppner/Klausnitzer/Müller 2007, 1), und diese Beschäftigung ist in zunehmendem Maße auch ihrerseits Gegenstand von Systematisierungsversuchen geworden; neben der Hermeneutik (s. o.) sind hier insbesondere Poetik und Rhetorik sowie die Theologie zu nennen (für eine Darstellung zentraler Stationen des geschichtlichen Verlaufs vgl. Danneberg 2007). In der ersten Hälfte des 19. Jahrhunderts beginnt sich das Fach ›deutsche Literaturgeschichte‹ an den Universitäten zu etablieren (eine Darstellung dieser Geschichte findet sich bei Weimar 2000, 486 f., oder in Klausnitzer 2007), zunächst primär in Form von Textkritik, Kommentar sowie Einflussforschung; später etabliert sich die Literaturwissenschaft als »Prinzipienwissenschaft« (Weimar 2000, 487), d. h. sie versucht, das ›Wesen‹ ihrer Gegenstände durch (insbesondere genetische) Gesetzmäßigkeiten 107
II. Die Philosophie der Formal- und Geisteswissenschaften
zu erläutern und anhand solcher Gesetzmäßigkeiten ihre Einzelgegenstände zu beschreiben; wichtige Rollen spielen etwa die Auffassungen, die Dichtung sei ihrem Wesen nach die Transformation der ›Erlebnisse‹ des Dichters oder sie lasse sich aus dessen ›Weltanschauung‹ verständlich machen (für eine Übersicht über Entwicklungen weiterer Nationalphilologien vgl. Höppner 2007). Vorreiter der in der zweiten Hälfte des 20. Jahrhunderts prominent werden den Literaturtheor ien (die sich u. a. mit den auch philosophisch relevanten Fragen ›Was ist Literatur?‹ oder ›Wodurch zeichnet sich ein wissenschaftlicher Umgang mit Literatur aus?‹ beschäftigen) sind die russischen Formalisten (u. a. Tomaševskij 1925), die der Literaturwissenschaft ausdrücklich ein wissenschaftstheoretisch durchdachtes Fundament geben wollen, etwa zur Beschreibung und Erklärung literarischen Wandels, oder die phänomenologische Literaturtheor ie Roman Ingardens (Ingarden 1931) mit ihrem Einfluss insbesondere auf die sog. Rezeptionsästhetik. Ab den 1970er Jahren werden im Zuge des sog. ›Methodenstreits‹ der Germanistik zumindest im Rahmen der Neueren deutschen Literaturwissenschaft intensiver auch wissenschaftstheoretische Fragen diskutiert (Pasternack 1975). Profiliert haben sich hier insbesondere der literaturwissenschaftliche Strukturalismus (vgl. Titzmann 1977) sowie die Empirische Literaturwissenschaft, letztere mit programmatischen Forderungen zur Neuausrichtung des Gegenstandsbereichs der Literaturwissenschaft sowie der Orientierung ihrer Methodologie an sozialwissenschaftlichen (d. h. empirischen) Verfahren (vgl. Schmidt 1991). Für vergleichbare Bestrebungen um eine philosophisch orientierte Erhellung der zentralen Aufgaben und Verfahren der Literaturwissenschaft (meist verbunden mit dem Plädoyer gegen methodische Beliebigkeit bzw. für eine ›Verwissenschaftlichung‹) im englischsprachigen Raum vgl. etwa Hirsch 1967; Beardsley 1970; Ellis 1974; Olsen 1978. Ein wichtiges Motiv dieser Auseinandersetzungen mit den Verfahrensweisen der Literaturwissenschaft lieferte der französische Poststrukturalismus der 1960er Jahre, der (meist auf zeichentheoretischer Grundlage) u. a. gegen die methodische Anleitung von Interpretationen eintrat (für eine Analyse aus philosophischer Sicht vgl. Ellis 1989).
1.2 Philosophie der Literaturwissenschaft und Literaturwissenschaft In institutionalisierter Form gibt es eine Philosophie der Literaturwissenschaft bis heute nicht. Es gibt sie, wiederum der oben vorgenommenen (und im nächsten Abschnitt näher erläuterten) Unterscheidung entsprechend, einerseits als jenen Teilbereich der philosophischen Ästhetik, der sich mit Fragen befasst, die (auch) auf literaturwissenschaftliche Gegenstände angewendet werden können (so z. B. Lamarque 2001). Auch die philosophische Ästhetik fristet jedoch eher ein Schattendasein, vergleicht man sie mit anderen philosophischen Subdisziplinen wie etwa der Ethik oder Erkenntnistheorie und berücksichtigt man die An108
Philosophie der Literaturwissenschaft
zahl der Lehrstühle und thematisch einschlägigen Zeitschriften (insbesondere: The Journal of Aesthetics and Art Criticism; British Journal of Aesthetics). Andererseits gibt es zumindest vereinzelt Versuche, allgemeine wissenschaftstheoretische Überlegungen auf im engeren Sinne literaturwissenschaftliche Verfahren anzuwenden (s. Abschnitt 2.2). Die Literaturwissenschaft, wie sie eingangs charakterisiert wurde, verfügt über mindestens drei verschiedene Bezüge zur Philosophie: (1) Es gibt eine Reihe von Literaturtheor ien, die mehr oder minder explizit philosophische Rahmenannahmen beinhalten. Unter ›Literaturtheor ie‹ wird hier eine Praxis ›zweiter Stufe‹ verstanden: Während die Interpretation oder literaturgeschichtliche Einordnung eines Textes eine Praxis ›erster Stufe‹ darstellt, bemüht sich die Literaturtheor ie um (systematische) Aussagen zu den Begriffen, Modellen oder Verfahren, die etwa im Zuge der Interpretation oder der Literaturgeschichtsschreibung zur Anwendung kommen. Ein typischer Bestandteil einer Literaturtheor ie besteht in Annahmen dazu, worin sprachliche Bedeutung besteht und wie sie zu erheben ist. Solche Rahmenannahmen werden nicht selten aus philosophischen Kontexten übernommen oder verstehen sich als unmittelbare Beiträge zur Klärung philosophischer Probleme (vgl. Abschnitt 2.2). Dabei wird jedoch selten der Theor iestand der philosophischen Fachdiskussion berücksichtigt. (2) Es gibt philosophische Untersuchungen der Literaturwissenschaft. Hier werden entweder methodologische Programmatiken oder etablierte literaturwissenschaftliche Verfahren (meist der Textinterpretation, aber auch der literaturwissenschaftlichen Klassifikation oder Wertung) mit philosophischen Mitteln analysiert (vgl. Beardsley 1970; Fricke 1977; Freundlieb 1978; Strube 1993); auch dies ist eine Praxis ›zweiter Stufe‹ (vgl. Beardsley 1981, 3; Carroll 2009, 2 f.), die erstens eine empirische Komponente (›Wie reden und handeln Literaturwissenschaftler de facto?‹) und zweitens eine philosophisch-analytische Komponente hat (›Wie lässt sich der Befund rational rekonstruieren und welche Regeln liegen ihm zugrunde?‹). Manchmal schließt sich eine reformatorische Stoßrichtung an, d. h. ein Plädoyer für eine Verbesserung der Praxis. (3) Schließlich gibt es philosophische Überlegungen zu den Gegenständen der Literaturwissenschaft, also eine Philosophie der Literatur (vgl. New 1999; Lamarque 2009). Hier geht es beispielsweise darum, die Begriffe des literarischen Werkes oder der Fiktio nalität oder der (literarischen) Bedeutung mit philosophischen Verfahren zu erläutern. Sieht man genauer hin, ist die hier vorgeschlagene Darstellung dreier verschiedener Bezüge zwischen Literaturwissenschaft und Philosophie aus mindestens zwei Gründen nicht unproblematisch: Erstens setzt die Annahme, es gebe philosophische Rahmenannahmen in Literaturtheorien, voraus, dass man zwischen literaturtheoretischen Aussagen einerseits und philosophischen Aussagen andererseits hinreichend klar unterscheiden kann; eben dies wird zuweilen bezweifelt, und zumal die Frage, was denn eigentlich Philosophie ausmache bzw. von anderen Aktivitäten unterscheide (↑ Philosophie der Philosophie), wird kontrovers beantwortet (vgl. am Beispiel der ›analytischen‹ Philosophie Glock 2008). Vor diesem 109
II. Die Philosophie der Formal- und Geisteswissenschaften
Hintergrund verliert auch die Unterscheidung zwischen philosophischen Annahmen als Bestandteilen von Literaturtheorien einerseits und der philosophischen Untersuchung von literaturwissenschaftlichen Annahmen oder Verfahren andererseits an Trennschärfe. Zweitens hat Peter Lamarque geltend gemacht, dass es im Bereich einer Philosophie der Literatur keine strikte Trennung zwischen einer Untersuchung des literarischen Gegenstands einerseits und einer Untersuchung unseres Umgangs mit diesem Gegenstand andererseits geben könne, da sich unsere Antworten etwa auf die gegenstandsbezogene Frage, was Literatur sei, in recht unmittelbarer Weise unserem Umgang mit dem Gegenstand verdanke: »There is an internal or logical connection between the works and the discourse dedicated to them, so merely to put these on different levels, as if they were logically distinct, is not satisfactory.« (Lamarque 2009, 7). Unkontrovers ist diese Auffassung selbstredend nicht (vgl. Abschnitt 2.1).
2 Probleme der Philosophie der Literaturwissenschaft 2.1 Philosophische Untersuchungen im Gegenstandsbereich der Literaturwissenschaft Im Zusammenhang mit literarischen Werken existiert eine ganze Reihe interessanter inhaltlicher Fragen, die auch und zum Teil vor allem in der Philosophie diskutiert wurden. Angesprochen werden nachstehend philosophische Untersuchungen zum Literaturbegriff (1), zum Werkbegriff und zur Ontologie des (literarischen) Werks (2) sowie zur Fiktionalität der Literatur und zur Fiktivität ihrer Gegenstände (3). (1) Die Frage ›Was ist Literatur?‹ wird bisweilen als eine Art Grundfrage der Literaturwissenschaft angesehen, von deren Beantwortung die Literaturwissenschaft geradezu abhänge. Dass dies in irgendeinem interessanten Sinne der Fall ist, ist gleichwohl bestritten worden; in jedem Fall ist es nicht so, dass die Verfahrensziele und Verfahren der Literaturwissenschaft aus der Bestimmung des Literaturbegriffs hervorgehen könnten (vgl. zu dieser Position Ellis 1974, 63; Gottschalk/ Köppe 2006, 8 f.). In der jüngeren Diskussion um den Literaturbegriff lassen sich verschiedene Trends ausmachen: Erstens die Auffassung, ›Literatur‹ sei ein unscharfer Sammelbegriff, dessen Struktur nach dem Muster Wittgenstein’scher Familienähnlichkeitsbegriffe verstanden werden müsse (so Hirsch 1978; Strube 2009). Entsprechend gebe es keine Menge notwendiger und zusammen hinreichender Bedingungen, die allen literarischen Werken (und nur diesen) zukomme, sondern vielmehr lediglich eine (meist als historisch variabel charakterisierte) Menge hinreichender Bedingungen, zu der etwa eine besonders anspruchsvolle sprachliche Struktur, Fiktionalität oder auch die Urheberschaft durch einen als literarischen Schriftsteller anerkannten Autor gehören (Stecker 1996). Zweitens wird in Bezug auf den Literaturbegriff argumentiert, es handele sich um einen ›in110
Philosophie der Literaturwissenschaft
stitutionellen‹ Begriff. So wie eine Schachfigur nicht durch eine bestimmte äußere Form bestimmt ist, sondern vielmehr durch die Züge, die man mit ihr im Rahmen des Schachspiels machen dürfe, sei ein literarischer Text durch die soziale Praxis der Literatur – oder mit einem anderen Wort: durch die Literaturinstitution – bestimmt. Entsprechend nehmen Peter Lamarque und Stein Olsen an, zur Literatur würden genau jene Texte gezählt, denen gegenüber eine bestimmte Umgangsweise (d. h. im Wesentlichen bestimmte interpretative Verfahren) für angemessen gehalten werden (Lamarque/Olsen 1994, Kap. 10). (Vorläufer dieser Positionen sind sogenannte institutionelle Begriffe der Kunst; für eine jüngst geübte Kritik siehe Neill/Ridley 2012; für einen Überblick Carroll 1999, Kap. 5.) (2) Unter welchen Bedingungen etwas als literarisches Werk gilt, ist umstritten. Ein literarisches Werk erschöpft sich zumindest prima facie nicht einfach im Text. Man stelle sich etwa vor, wie Jorge Louis Borges es in Pierre Menard, Autor des Quijote tut, dass ein Autor des 20. Jahrhunderts ein Werk schreibt, das Wort für Wort mit Cervantes’ Don Quijote übereinstimmt, ohne einfach abzuschreiben. Dann kann man argumentieren, dass zwar identische Texte, nicht aber identische Werke vorliegen. Die Verwendung einer Sprache des 17. Jahrhunderts etwa muss im 20. Jahrhundert anders interpretiert werden als im 17. Jahrhundert (vgl. Currie 1989, 66 ff. und 102 ff.). Wir gehen etwas ausführlicher auf die Frage nach dem ontologischen Status literarischer Kunstwerke ein: Was für eine Art von Ding sind (literarische) Kunstwerke? Die Beantwortung dieser Frage wird in der oben angesprochenen Diskussion, unter welchen Bedingungen etwas als Kunstwerk gilt, schlicht vorausgesetzt. Sie schlägt sich nieder in unserem Umgang mit Kunstwerken – der Abbruch einer Theateraufführung mag uns z. B. weniger empören als das Zertrümmern einer Statue, unter anderem weil mit dem Zerschlagen ein Kunstwerk vernichtet wird, nicht aber mit dem Abbruch der Aufführung (aber siehe unten zu verschiedenen Arten von Statuen). Manche unserer Redeweisen legen nahe, dass es sich um konkrete Einzeldinge handelt, so etwa der Satz »Die Strudlhofstiege liegt auf dem Couchtisch.« Hier ist vom konkreten Exemplar eines Buches die Rede. Aber das konkrete Exemplar des Buches kann nicht das Werk sein, denn es hat die falschen Persistenzbedingungen. Das Werk wird nicht vernichtet, wenn ein einzelnes Exemplar vernichtet wird. Vielleicht ist nur ein bestimmtes Exemplar, nämlich das Originalmanu skript des Autors, das Werk? Wenn es vernichtet wird, so könnte man sagen, dass das Werk vernichtet wird – Kopien aber möglicherweise bestehen bleiben. Aber es gibt nicht immer ein Originalmanuskript, wie bei mündlich überlieferten Werken, so dass wir gezwungen wären zu sagen, dass solche Werke nie existierten. (Locus classicus der Diskussion ist Ingarden 1931. Für eine ausführliche Diskussion siehe z. B. Wollheim 1980; Wolterstorff 1980; eine gute Sammlung deutschsprachiger Beiträge ist Schmücker 2003.) Manche Autoren sind der Ansicht, dass das Werk nicht Ergebnis eines Schaffensprozesses ist, sondern in der kompositorischen Aktivität besteht (Davies 2004). 111
II. Die Philosophie der Formal- und Geisteswissenschaften
Könnten Werke Mengen von konkreten Einzeldingen oder Ereignissen sein, wie Goodman (1976) annimmt? Nein, denn Mengen sind extensional bestimmt. Eine Menge mit drei Elementen ist auf jeden Fall verschieden von einer Menge mit vier Elementen. Wären Werke Mengen von konkreten Exemplaren, so müsste sich das Werk ändern, wenn ein Exemplar vernichtet würde. Doch das ist nicht der Fall. Die meisten Philosophen vertreten heutzutage eine Typentheor ie, der zufolge das literarische Werk ein Typus ist, dessen Tokens je nach Theor ie einzelne Textvorkommnisse, Buchexemplare, Aufführungen, Handlungen etc. sind (vgl. Wollheim 1980; Wolterstorff 1980; Currie 1989; Walters 2013 u. v. a.). Auch hier gibt es Redeweisen, die solche Theor ien nahe legen, etwa die von einem »Exemplar des Werkes«. So kann man etwa versuchen, die einzelnen Exemplare der Jahrestage als Tokens des Typus Jahrestage aufzufassen. Der Typus verändert sich nicht, wenn einzelne Exemplare vernichtet werden, und er hört deshalb auch nicht auf zu existieren. Auch Typentheorien sind allerdings mit Problemen behaftet. Typen sind abstrakte Objekte, die, zumindest prima facie, bestimmte Arten von Eigenschaften nicht besitzen können. So ist zumindest fraglich, ob und wie Typen erschaffen werden können. Manche Autoren sind daher der Meinung, dass Kunstwerke nicht erschaffen, sondern entdeckt werden bzw. dass im Schöpfungsakt des Autors ein abstraktes Objekt, der Kunstwerktypus, ausgewählt wird (Wolterstorff 1980). Andere verteidigen die Idee, dass manche Abstrakta erschaffen werden können und dass Kunstwerke zu dieser Kategorie gehören. (Urheber dieser Idee ist wiederum Ingarden [z. B. Ingarden 1931], der allerdings nicht wörtlich von »abstrakten« Gegenständen spricht. Moderne Vertreter sind z. B. van Inwagen 1977 und Thomasson 1999.) Grundsätzlich stellt sich das Problem, ob und wie wir Typen wahrheitsgemäß Eigenschaften zuschreiben können, die prima facie nur (kausal wirksame, in Raum und Zeit befindliche) Tokens haben können wie erschaffen zu sein, jemanden zum Nachdenken angeregt zu haben, oder (wie vorgeblich Goethes Werther) Selbsttötungen ausgelöst zu haben. Tatsächlich ist die allgemeine Diskussion zur Typus/Token-Unterscheidung zeitweise anhand des Kunstwerkfalles geführt worden (so z. B. Wollheim 1980; Wolterstorff 1980). Manche Philosophen halten die im Zusammenhang mit der Typus/Token-Unterscheidung bzw. der Erschaffung abstrakter Objekte auftretenden Probleme für so gewichtig, dass sie die Rede von Kunstwerken ganz aufgeben wollen (Rudner 1950; Bachrach 1974; Pettersson 1984; Cameron 2008). Vor diesem radikalen Schritt sollte jedoch eine Auseinandersetzung mit den vorgeschlagenen Lösungen stehen. Wolterstorff (1980) z. B. versucht das Problem zu lösen, indem er Sätze wie »Das zweite Wort der Jahrestage ist ›Wellen‹« nicht so versteht, dass hier dem Typus zugeschrieben wird, ein Vorkommnis des Wortes »Wellen« zu enthalten, sondern so, dass dem Typus zugeschrieben wird, dass jeder Token, der zu diesem Typus gehört, als zweites Wort ein Vorkommnis des Wortes »Wellen« enthalten muss. Weitere Fragen bezüglich der Ontologie literarischer Werke drängen sich auf: Was sind die Persistenzbedingungen literarischer Werke? Unter welchen Bedin112
Philosophie der Literaturwissenschaft
gungen also (falls überhaupt) werden literarische Werke geschaffen oder vernichtet? Literarische Werke, so scheint es, werden erschaffen und können aufhören zu existieren. Aber nicht nur legen manche Antworten auf die obigen Fragen nahe, dass diese Intuitionen irreführend sein könnten, es fragt sich auch, unter welchen Bedingungen Erschaffen und Vernichten literarischer Werke stattfindet. Ebenso kann man nach den Identitätsbedingungen literarischer Kunstwerke fragen. Dass diese Frage durchaus praktische Auswirkungen haben kann, lässt sich an vielen Plagiatsstreitigkeiten erkennen. Generell lässt sich fragen, unter welchen Bedingungen wir es mit einem oder zwei Kunstwerken zu tun haben – bzw. wann zwei Werke hinreichend ähnlich sind, um das eine als ein Plagiat des anderen zu begreifen. In der vorstehenden Diskussion blieb zudem offen, ob all diese Fragen für literarische Kunstwerke (oder gar Kunstwerke im Allgemeinen) einheitlich beantwortet werden können oder sollten. Viele Autoren möchten z. B. zwischen Kunstwerken unterscheiden, die im Prinzip wiederholbar sind, und solchen, für die das nicht gilt. Ein Roman fiele typischerweise in die erste Kategorie, eine aus Marmor gehauene Skulptur nicht. (Dagegen mögen Skulpturen, die mit Hilfe von wiederverwendbaren Gussformen hergestellt werden, durchaus wiederholbar sein.) Wenn wir z. B. in einem Hotel ein Exemplar eines Buches finden, von dem wir zu Hause ein anderes Exemplar haben, so können wir im Hotelexemplar einfach weiterlesen, ohne dass unsere ästhetische Wertschätzung darunter leidet. Für eine Kopie einer Skulptur oder die Aufführung eines Dramas dagegen gilt das möglicherweise nicht (siehe z. B. Wollheim 1980 für eine Position, die diese Unterschiede betont, Currie 1989 für einen Versuch, trotz dieser Unterschiede eine einheitliche Theor ie zu geben). Alle ontologischen Fragen bezüglich (literarischer) Kunstwerke begleitet die metaontologische Frage, nach welchen Kriterien wir sie eigentlich beantworten sollen. Inwiefern sind unsere Intuitionen, aber auch unser alltäglicher Umgang mit literarischen Kunstwerken philosophisch belastbar? (Vgl. Thomasson 2005; Lamarque 2010 für eine positive Beantwortung dieser Frage; Matheson/Caplan 2011 für eine skeptische Haltung.) Gute, generelle Einführungen in die Ontologie von Kunstwerken sind z. B. Livingston 2013; Matheson/Caplan 2011. (3) Fiktionalität und Fiktivität wurden in Literaturwissenschaft und Philosophie gleichermaßen diskutiert. Dabei verstehen wir unter Fiktionalität eine Eigenschaft von Werken, Texten oder Ausschnitten daraus: Ein fiktionales Werk erschafft eine Fiktion. Do Androids Dream of Electric Sheep ist fiktional, weil es eine Fiktion entwirft, die Kritik der reinen Vernunft nicht. Fiktiv sind Gegenstände in Fiktionen, wie Sherlock Holmes oder die Madeleine aus Prousts À la recherche du temps perdu. Fontanes Roman Effi Briest ist also fiktional, die Hauptfigur Effi Briest fiktiv. Diese einführenden Bestimmungen sind allerdings noch sehr holzschnittartig, wie sich im Folgenden zeigen wird. Wir wenden uns zunächst Fragen der Fiktionalität zu. Eine wichtige Aufgabe besteht darin, genauer zu bestimmen, welche Eigenschaften fiktionale Texte (oder 113
II. Die Philosophie der Formal- und Geisteswissenschaften
auch Werke, Rede, Äußerungen, Sprechakte) und nur diese aufweisen. Man kann Theorien, die sich dieser Frage widmen, grob anhand der Frage sortieren, welchen Stellenwert sie einzelnen Aspekten der literarischen Kommunikation beimessen: . Textbezogene Theor ien, die die Fiktionalität eines Textes an syntaktischen oder semantischen Merkmalen festzumachen versuchen (als Vertreterin der syntaktischen Position wird oft Hamburger 1957 genannt, als Vertreter der semantischen Doležel 1998), sind mit schier unüberwindlichen Problemen behaftet. Sämtliche textuellen Merkmale fiktionaler Texte (z. B. das linguistische Phänomen der ›erlebten Rede‹, in dem typischerweise Mentales einer Figur in der dritten Person sowie im Erzähltempus der Vergangenheit ausgedrückt wird, z. B. »War er wirklich schon so spät dran?« im Gegensatz zur direkten Rede »Bin ich wirklich schon so spät dran?« oder der indirekten Rede »Sie fragte sich, ob sie wirklich schon so spät dran sei.«) kommen auch in nichtfiktionalen Texten vor, und manche fiktionalen Texte imitieren nichtfiktionale Texte perfekt. Allerdings spielen textuelle Merkmale trotzdem eine Rolle als Fiktionssignale. ›Erlebte Rede‹ beispielsweise definiert zwar nicht Fiktionalität, ist aber durchaus ein (falsifizierbarer) Hinweis auf sie. Das heißt, findet sich häufig erlebte Rede in einem Text, so ist dies ein mit anderen Hinweisen abzuwägender Grund dafür, anzunehmen, dass es sich um einen fiktionalen Text handelt. Vertreter semantischer Theor ien setzen auf die Idee, dass in fiktionalen Texten auf Dinge oder Ereignisse Bezug genommen wird, die es nicht gibt, wobei diese Idee auf Wort- oder Satzebene ihre Ausprägung finden kann. Nun gibt es allerdings nichtfiktionale Texte, die viele falsche Sätze bzw. Referenzfehlschläge enthalten, man denke an Texte über griechische Götter, den Planeten Vulkan oder den Äther. Und es ist wenig hilfreich, die Fiktionalität von Texten darüber zu bestimmen, dass in ihnen auf fiktive Gegenstände Bezug genommen wird, solange man (wie oben vorgeschlagen) Fiktivität über Fiktionalität bestimmt. . Produktionsbezogene Fiktionalitätstheor ien betonen die Rolle des Autors: Fiktional sind Texte, wenn sie auf eine bestimmte Weise hervorgebracht wurden. (So Searle 1975, der allerdings gerade keine Textsortenunterscheidung im Sinn hat, sondern vielmehr klärt, wie fiktionale Rede mit bestimmten Annahmen der Sprechakttheorie vereinbar ist. Sprechakttheor ien gehen von der Idee aus, dass mit Äußerungen Handlungen ausgeführt werden. Eine Behauptung wie »Es ist kalt« aufzustellen etwa ist etwas ganz anderes, als die Frage »Kannst Du das Fenster schließen?« zu stellen oder mit »Schließe bitte das Fenster« zu etwas aufzufordern. Oft führt die Oberflächenstruktur in die Irre: So wird die hier gegebene Beispielaufforderung oft als indirekter Sprechakt durch die genannte Behauptung oder Frage transportiert.) Searles zentrale Idee ist, dass fiktionale Rede sich dadurch auszeichnet, dass Sprecher nur vorgeben, einen bestimmten Sprechakt auszuführen. Die Frage, ob fiktionale Rede eine eigene Art von direktem oder indirektem Sprechakt ist (so z. B. Currie 1985) oder nur das Vorgeben eines Sprechaktes, begleitet die Debatte seitdem. Viele der nachfolgenden Arbeiten, die sich 114
Philosophie der Literaturwissenschaft
auf den Begriff des Make-Believe stützen (s. den folgenden Gliederungspunkt 3), kann man als Versuch verstehen, Searles Idee sauber auszubuchstabieren. . Rezeptionsbezogene Fiktionalitätstheor ien (vor allem Walton 1990, der allerdings wiederum kaum Wert auf eine Textsortenunterscheidung legt) betonen die Rolle der Rezipienten. Laut Walton ist für repräsentationale Medien überhaupt eine Art von Rezeptionsverhalten typisch, das er über den Begriff des Make-Believe-Spiels analysiert. Rezipienten fiktionaler Medien treten demnach in eine regelgeleitete Vorstellungsaktivität ein, für die zentral ist, dass die Medien bestimmte Vorstellungsvorschriften enthalten. Steht beispielsweise in einem fiktionalen Text, dass der Meisterdetektiv Holmes heißt, werden Leser aufgefordert, sich eben dies vorzustellen, und es wird die fiktionale Wahrheit »Der Meisterdetektiv heißt Holmes« generiert. An dieser Stelle berührt sich die Theor ie der Fiktionalität mit der Theor ie der Interpretation (fiktionaler) literarischer Werke: Ein wichtiger Teil der Interpretation von Dichtung besteht nämlich zunächst einmal darin festzustellen, was in der (fiktiven) Welt des Werkes eigentlich der Fall ist (für ein Beispiel s. Abschnitt 2.2). Mit Walton gesprochen: Wir versuchen herauszubekommen, welche Sätze in der Fiktion wahr (oder kurz: ›fiktional wahr‹) sind. Dieses Projekt ist insofern nicht trivial, als für die fiktionale Wahrheit eines Satzes ›p‹ weder notwendig noch hinreichend ist, dass ›p‹ im Text steht (Stühring 2011, 99). Ersteres sieht man anhand einfacher Beispiele: In den fiktiven Welten der Sherlock-Holmes-Romane ist gewiss der Fall, dass Holmes an einem bestimmten Tag geboren wurde, obwohl dies nicht in den Texten steht. Und dass wir es nicht mit einer hinreichenden Bedingung zu tun haben, zeigt das Beispiel unzuverlässig erzählter fiktionaler Texte, für die charakteristisch ist, dass Leser über die Konturen der fiktiven Welt gezielt in die Irre geführt werden (vgl. ebd.). Die fiktionalitätstheoretische Diskussion zum Problem fiktionaler Wahrheiten nimmt ihren Ausgang meist von David Lewis, der selbst allerdings keinen abschließenden Vorschlag unterbreitet hat (Lewis 1978). . Institutionelle Theor ien der Fiktionalität greifen die bislang beschriebenen Phänomene auf und versuchen sie zu verbinden (so vor allem Lamarque/ Olsen 1994; Currie 1990). Es wird angenommen, dass Produktion und Rezeption fiktionaler Texte gleichermaßen einer wohlbestimmten Menge an sozialen Regeln folgen, dass also beispielsweise Autoren fiktionale Texte mit der Absicht hervorbringen, dass sie von Rezipienten auf eine bestimmte Weise verstanden werden. Ein wichtiger Streit bezüglich fiktiver Gegenstände dreht sich um die Frage, ob sie existieren, genauer gesagt, ob man fiktive Gegenstände im Gegenstandsbereich annehmen muss, vor allem um eine befriedigende Semantik und Pragmatik fiktionaler Rede zu geben. Dabei wird typischerweise zwischen intrafiktionaler Rede, also den Sätzen eines fiktionalen Werkes, und extrafiktionaler, metafiktionaler Rede, also nichtfiktionaler Rede über ein fiktionales Werk, unterschieden. Die meisten Philosophen sind heute der Ansicht, dass in fiktionaler Rede nicht auf fiktive Objekte Bezug genommen wird. Der eigentliche Streit be115
II. Die Philosophie der Formal- und Geisteswissenschaften
trifft metafiktionale Rede. Es haben sich mehrere vielversprechende Antworten etabliert: a) Antirealisten nehmen an, dass fiktive Gegenstände nicht existieren und auch nicht benötigt werden, um unseren Umgang mit Fiktionen zu erklären. Sie können sich auf gewisse sprachliche und ontologische Intuitionen berufen (etwa »Sherlock Holmes gibt es nicht wirklich«) und betonen die Kontinuität von intrafiktionaler und metafiktionaler Rede (vgl. Walton 1990; Friend 2007; Everett 2013; Sainsbury 2010). b) Meinongianer (Parsons 1975; Parsons 1981; Priest 2005; Berto 2013) nehmen zwar an, dass fiktive Gegenstände nicht existieren, fassen Existenz aber als ein diskriminierendes Prädikat auf – manche Gegenstände haben die Eigenschaft zu existieren, andere nicht. Dementsprechend erlauben sie, dass auf (nichtexistente) fiktive Gegenstände Bezug genommen wird und über sie quantifiziert werden kann. Das rückt diese Positionen eher in die Nähe eines Realismus, da typische Antirealisten all dies leugnen. c) Die meisten Realisten fassen fiktive Objekte als abstrakte Objekte auf (vgl. Van Inwagen 1977; Zalta 1983, der zugleich Existenz als diskriminierendes Prädikat versteht; Thomasson 1999; Voltolini 2006; Lamarque 2010; Kripke 2011). Abstrakte Objekte sind im Gegensatz zu konkreten Objekten nicht raumzeitlich bzw. nicht kausal wirksam. Auch Realisten können einige metafiktionale Sätze besonders gut erklären, wie zum Beispiel Generalisierungen über fiktive Objekte wie in »Es gibt fiktive Detektive«. Die größte Trennlinie zwischen verschiedenen Positionen läuft hier entlang der Frage, ob fiktive (und also abstrakte) Gegenstände erschaffen werden können (so z. B. Thomasson) oder nicht (so z. B. Zalta). Manche Realisten halten fiktive Gegenstände nicht für abstrakt, sondern verstehen sie als bloß mögliche Gegenstände (vgl. für diese Position Heintz 1979; Howell 1979). Fiktionalität und Fiktivität geben Anlass zu vielen weiteren Fragestellungen, die zu tun haben mit der Semantik und Pragmatik fiktionaler Rede, theoretischer wie empirischer Rezeptionspsychologie oder der historischen Entwicklung der Fiktionalität. Für einen Einstieg in diese und andere Themenfelder siehe Klauk/ Köppe 2014. Die philosophischen Beiträge zu Themen, die direkt mit Literatur, Fiktionen oder Literaturwissenschaft zu tun haben, erschöpfen sich nicht in den bislang angerissenen Themenfeldern. Wie z. B. sollten wir ästhetische Eigenschaften literarischer Werke verstehen? Handelt es sich um Eigenschaften, die Werke zusätzlich zu Eigenschaften wie Wortwahl, Textgestalt und dergleichen besitzen, und in welcher Weise ist das Verhältnis ästhetischer Eigenschaften zu sonstigen Eigenschaften zu verstehen? Wie lassen sich Urteile über ästhetische Eigenschaften begründen? Welche Rolle spielen ästhetische Eigenschaften für die Bewertung von Literatur? (Als Übersicht über die allgemeine Problemlage vgl. Zangwill 2003; für eine Theor ie in Bezug auf fiktionale Literatur vgl. Stecker 1997, Kap. 13.) Ein anderes Problemfeld betrifft sogenannte expressive Eigenschaften literarischer Werke: Was soll es überhaupt heißen, dass beispielsweise ein Gedicht traurig ist? 116
Philosophie der Literaturwissenschaft
Sicherlich soll nicht dem Gedicht selbst ein emotionaler Zustand zugeschrieben werden. Genauso wenig müssen aber Autoren oder Leser traurig sein, damit ein Gedicht traurig ist (vgl. für eine Übersicht Budd 1995; eine an das bereits in der Romantik entwickelte Verständnis künstlerischer Expressivität angelehnte Theo rie bietet Robinson 2005). Ein weiteres großes Themenfeld sind die möglichen Funktionen fiktionaler Literatur. Fortgeführt wird damit jene Debatte, die bereits die Anfänge der philosophischen Auseinandersetzung mit Literatur entscheidend prägten (s. Abschnitt 1.1). Man kann der Überzeugung sein, Literatur habe einen erzieherischen Wert, ermögliche emotionale Beteiligung (und Reifung) oder eröffne die Chance, propositionales Wissen über beliebige Themen zu erwerben (für ein Plädoyer für die Vielfalt der Erkenntnisbedeutsamkeit fiktionaler Literatur vgl. Scholz 2014; eine Übersicht über die Debatte vermitteln die Beiträge in Demmerling/Ferran 2014). Genauso vehement ist diese These der Erkenntnisbedeutsamkeit (von Kunst im Allgemeinen und fiktionaler Literatur im Besonderen) verneint worden (Sirridge 1975; Stolnitz 1992).
2.2 Methodologische Aspekte der Literaturwissenschaft Eine wesentliche Aufgabe der Literaturwissenschaft liegt nach wie vor in der Interpretation literarischer Texte. Man fasst den Interpretationsbegriff am besten als einen Sammelbegriff auf, unter den im Einzelnen recht unterschiedliche Aktivitäten fallen können (vgl. Hermerén 1983). Unterscheiden kann man diese Aktivitäten insbesondere anhand der Ziele, die Interpreten sich setzen, der konkreten Gegenstände, denen sie sich widmen (u. a. der fiktiven Psychologie fiktiver Figuren, Symbole, Themen, Erzählstrukturen), sowie anhand der Verfahren, derer sie sich bedienen, aber auch anhand des Zielpublikums (etwa: die wissenschaftliche Öffentlichkeit) oder des Geltungsanspruchs der getätigten Aussagen. Entsprechend viele verschiedene Aktivitäten werden als ›Interpretation‹ aufgefasst (zur »Vielfalt des Interpretierens« vgl. Bühler 2003 sowie auch die Beiträge in Carlshamre/Pettersson 2003). Die Philosophie der Literaturwissenschaft hat sich insbesondere in den 1970er Jahren um eine rationale Rekonstruktion und Kritik der etablierten interpretativen Praxis von Literaturwissenschaftlern bemüht (vgl. Göttner 1973; Grewendorf 1975; Savigny 1976; Eibl 1976; Fricke 1977; Freundlieb 1978; Strelka 1978). Grundlegend ist hier die Annahme, dass Literaturwissenschaftler zwar keiner explizit ausgewiesenen Methode folgen, ihrer Praxis jedoch implizite Regeln zugrunde liegen, d. h. Regeln, die den Akteuren typischerweise nicht selbst bewusst sind, die jedoch (als echte Regeln) handlungsleitend sind und u. a. durch Sanktionen aufrechterhalten werden (vgl. Savigny 1976, 12 – 27; kritisch dagegen Dutton 1973). Auch im angelsächsischen Raum finden sich entsprechende Analysen; zum Teil werden sie in rein deskriptiver Absicht vorgenommen (vgl. Stout 1982), zum Teil auch in normativer Absicht, d. h. mit dem Anspruch verbunden, eine ange117
II. Die Philosophie der Formal- und Geisteswissenschaften
messene Weise des Umgangs mit Literatur zu identifizieren (vgl. Beardsley 1970; Ellis 1974; Hrushovski 1976; Lamarque/Olsen 1994). An dieser Stelle sollen zwei Diskussionszusammenhänge etwas näher vorgestellt werden: die Diskussion um die angemessenen (materialen) Ziele der literaturwissenschaftlichen Interpretation (1); die Diskussion um die hypothetischdeduktive Methode als (formales) Verfahren der literaturwissenschaftlichen Interpretation (2). (1) Als allgemeinstes Ziel der Interpretation literarischer Texte kann man das Verstehen derselben ausweisen. Damit ist gleichwohl noch nichts darüber gesagt, worin dieses Verstehen besteht bzw. was der Fall sein muss, damit jemand recht hat mit einer Aussage des Typs ›Der Interpret I hat den Text T verstanden‹ (zum de facto bestehenden Zielpluralismus literarischer Interpretationen vgl. erneut Carlshamre/Pettersson 2003; Bühler 2003). Im Einzelnen müssen hier verschiedene Fragen auseinandergehalten werden: Zunächst bedarf der Klärung, ob das Verstehen literarischer Texte nach dem Muster des Verstehens sonstiger sprachlicher Äußerungen aufgefasst werden kann. Während diese Frage von vielen Teilnehmern der Debatte selbstverständlich bejaht wird – immerhin sind literarische Texte sprachlich verfasst –, argumentieren Stein H. Olsen und Peter Lamarque, dass nicht zuletzt eine Prüfung der interpretativen Praxis anderes nahe lege: So versuchten Interpreten typischerweise, die Entfaltung eines Themas nachzuzeichnen und die Weise seiner werkspezifischen Gestaltung zu rekonstruieren (Lamarque/Olsen 1994, Kap. 10). Lamarque und Olsen gehen dementsprechend davon aus, dass sich das ›literarische Verstehen‹ (Olsen 1978) durch eigene, für die soziale Praxis der Literaturinterpretation spezifische Erfolgsbedingungen auszeichne. Als Ziel des Umgangs mit literarischen Texten wird dementsprechend auch nicht das ›Erfassen von Bedeutung‹ der Texte, sondern vielmehr deren ästhetische Wertschätzung (literary appreciation) ausgewiesen. Unter Vertretern der Annahme, dass das Verstehen literarischer Texte prinzipiell nach dem Muster des allgemeinen Sprachverstehens aufzufassen sei, ist dagegen ein Streit über die Frage entbrannt, welche Rolle den kommunikativen Absichten von Autoren im Rahmen der Interpretation zukommen könne oder solle. Ein Klassiker der Debatte ist der Aufsatz »The Intentional Fallacy« von Monroe Beardsley und William K. Wimsatt (Wimsatt/Beardsley 1954), der als Begründung des interpretationstheoretischen Antiintentionalismus gelten kann und im Übrigen auch ein Beispiel dafür ist, dass philosophische Überlegungen Bestandteile von Literaturtheorien (dem New Criticism nämlich) werden können. Die Autoren argumentieren, die Berücksichtigung kommunikativer Absichten sei weder möglich noch wünschenswert: Nicht möglich sei sie, da es sich bei Inten tionen um private mentale Zustände handele, die aus der Perspektive der dritten Person ohnehin nicht zugänglich seien; und nicht wünschenswert sei sie, da sie die Aufmerksamkeit des Interpreten vom Werk selbst ab- und auf dessen kausale Vorgeschichte hinlenke. Beide Überlegungen wurden in der Debatte vielfach angegriffen, unter anderem mit dem Hinweis darauf, dass sich Absichten erstens in 118
Philosophie der Literaturwissenschaft
den Artefakten selbst manifestierten und zweitens anhand der Artefakte selbst auch erkennbar seien (vgl. Lyas 1992). Ein früher und besonders vehementer Vertreter des Intentionalismus, demzufolge allein die Absichten von Autoren die ›Bedeutung‹ eines literarischen Textes festlegen können, ist Eric D. Hirsch, der zudem eine detaillierte Widerlegung der antiintentionalistischen Position des New Criticism, wie sie von Wimsatt/Beardsley profiliert wurde, versucht (Hirsch 1967). Die neuere Debatte innerhalb des intentionalistischen Lagers diskutiert insbesondere die Stimmigkeit sowie Vorzüge und Nachteile zweier Ansätze, nämlich des ›Hypothetischen Intentionalismus‹ und des ›Starken Intentionalismus‹ (vgl. Irvin 2006): Der Starke Intentionalismus (Actual Intentionalism), zu dessen Vertretern u. a. Noël Carroll und Robert Stecker zählen (vgl. Carroll 2001, Part III; Stecker 2005, Kap. 7), vertritt (vereinfacht gesagt) die Auffassung, das Ziel der Interpretation eines literarischen Textes bestehe darin herauszubekommen, was der Autor des Werkes seinen Lesern zu verstehen geben wollte (so wie das Ziel der Interpretation einer alltagssprachlichen Äußerung darin gesehen werden kann herauszubekommen, was der Gesprächspartner zu verstehen geben wollte). Die wichtigste Quelle zur Stützung entsprechender Interpretationshypothesen ist der literarische Text selbst, es können jedoch auch u. a. biographische oder sonstige Kontextdaten herangezogen werden. Vertreter des Hypothetischen Intentionalismus, zu denen u. a. Jerrold Levinson gehört (Levinson 2010), argumentieren dagegen, dass die Bedeutung eines literarischen Textes nach dem Muster von ›Äußerungsbedeutung‹ (utterance meaning, das Konzept geht auf H. P. Grice zurück; vgl. einführend Newen/v. Savigny 1996, 179 – 185) verstanden werden kann: »utterance meaning is best understood as the intention which a member of the intended audience would be most justified in attributing to the author based on the knowledge and attitudes which he possesses in virtue of being a member of the intended audience.« (Tolhurst 1979, 11) Entsprechend wird als Bedeutung eines literarischen Textes jene Bedeutung angenommen, von der die intendierte Leserschaft gerechtfertigter Weise annehmen würde, dass sie dem Text zuzuordnen ist. (2) Unabhängig von den materialen Zielen der Interpretation stellt sich die Frage nach der Art und Weise, in der Literaturwissenschaftler beim Interpretieren ihrer Gegenstände vorgehen. In ihrem Buch Rationale Argumentation. Ein Grundkurs in Argumentations- und Wissenschaftstheorie (Føllesdal/Walløe/Elster 1988, 107 – 115) vertreten die Autoren Dagfinn Føllesdal, Lars Walløe und Jon Elster die These, dass die hypothetisch-deduktive Methode als grundlegendes wissenschaftliches Verfahren auch in der Literaturinterpretation zur Anwendung komme. (Man versteht diese These vermutlich am besten so: Wenn man betrachtet, was Literaturwissenschaftler de facto tun, dann stellt man fest, dass sich diese Tätigkeiten als mehr oder minder gelungene Anwendungen der hypothetischdeduktiven Methode rekonstruieren lassen.) Ihr Beispiel ist die Interpretation von Hendrik Ibsens dramatischem Gedicht Peer Gynt und hier insbesondere die Interpretation der Figur des blinden Passagiers im fünften Akt. Interpreten stel119
II. Die Philosophie der Formal- und Geisteswissenschaften
len typischerweise Thesen auf wie ›Der blinde Passagier in Peer Gynt ist der Teufel‹ oder ›Der blinde Passagier in Peer Gynt steht für Ibsen‹, d. h. sie formulieren Hypothesen über fiktive Tatsachen (s. Abschnitt 1.1) oder Bedeutungsrelationen. Diese Hypothesen lassen sich nicht unmittelbar anhand beobachtbarer Tatsachen überprüfen: Wer (in der Fiktion) der blinde Passagier ist oder für welche Person in der Wirklichkeit die fiktive Person stehen mag, steht nun einmal nicht im Text. Føllesdal et al. schlagen daher vor, die besagten Hypothesen könnten gemäß der hypothetisch-deduktiven Methode geprüft und ggf. widerlegt werden. Im Einzelnen bedeutet das, dass aus den Hypothesen sowie Zusatzannahmen weitere Hypothesen (deduktiv) abgeleitet werden, die dann entweder zu Textdaten ›passen‹ oder aber nicht. Ist Letzteres der Fall, so kann die Ausgangshypothese als widerlegt gelten und muss aussortiert werden. ›Passt‹ die Ausgangshypothese dagegen zu den Textdaten, d. h. steht sie zu diesen nicht im Widerspruch, so kann man unterschiedliche Grade ihrer Bestätigung anhand zusätzlicher Kriterien bemessen: Die Hypothese sollte möglichst viele signifikante (d. h. für ein Verständnis des Textes in irgendeiner Weise bedeutende) Textstellen erklären und möglichst wenigen Textstellen widersprechen, sie sollte möglichst einfach sein (also z. B. keine kontroversen Zusatzannahmen erfordern und keine bescheidenere Hypothese implizieren, die denselben explanatorischen Wert hat) und sie sollte eine möglichst ›einheitliche‹ Deutung ermöglichen (vgl. ebd., 64 f. u. 72 – 78; für Erläuterungen entsprechender Kriterien der allgemeinen Wissenschaftstheor ie vgl. Quine/Ullian 1978, Kap. 6). Als Beispiel diskutieren Føllesdal et al. die Hypothese, der blinde Passagier sei der Teufel. Legt man eine Theor ie über das Aussehen und Verhalten des Teufels zugrunde, der zufolge der Teufel am rechten Bein über einen Pferdehuf verfügt, was dieses Bein zum Rudern ungeeignet macht, so passt die Folgerung, der Passagier müsse mit dem linken Bein rudern, gut zum Text – dort nämlich heißt es von Seiten des blinden Passagiers: »Ich rudre mit dem linken Bein« (Føllesdal/Walløe/Elster 1988, 110). Die aus der Ausgangshypothese abgeleitete Hypothese steht zum Text also nicht im Widerspruch, und sie muss anhand der genannten Kriterien überprüft werden. Deutungshypothesen können, wiederum allgemein gesprochen, relativ zueinander bewertet werden; als rational akzeptierbar gilt diejenige Hypothese, die insgesamt am besten abschneidet. Die hypothetisch-deduktive Methode der Literaturinterpretation versteht sich ausdrücklich nicht als Verfahren zur Generierung von Hypothesen, sondern lediglich als Methode ihrer Prüfung. (Für eine einführende Charakterisierung der hypothetisch-deduktiven Methode vgl. Hempel/Oppenheim 1948; zur Kritik vgl. etwa Salmon 1989.) In der Philosophie der Literaturwissenschaft ist sie verschiedentlich zur Rekonstruktion ins Spiel gebracht worden, etwa bereits von Heide Göttner (Göttner 1973, mit reformatorischer Absicht; zur Kritik vgl. Savigny 1976, 18 – 23) oder neuerdings von Wolfgang Detel (2011, 296 – 303). Allerdings handelt es sich dabei bislang lediglich um punktuelle Bezugnahmen. Eine grundsätzliche Klärung der Leistungen der Methode – etwa auch in Hinblick auf die erwähnte »Vielfalt des Interpretierens« (Bühler 2003) sowie unter Berück120
Philosophie der Literaturwissenschaft
sichtigung der in der allgemeinen Wissenschaftstheorie identifizierten eklatanten Schwächen der hypothetisch-deduktiven Methode (vgl. einführend Bartelborth 2007, 23 – 26) – steht unterdessen noch aus. Neben der Diskussion um die Ziele der Interpretation und deren formales Verfahren haben sich philosophische Bemühungen auch um weitere methodologische Aspekte der Literaturwissenschaft gedreht. So wurde in Bezug auf die literaturwissenschaftliche Interpretation etwa diskutiert, welche Konsequenzen aus Interpretationskonflikten gezogen werden sollten: Sind im Falle zweier konkurrierender (d. h. miteinander unvereinbarer) optimaler Interpretationen beide akzeptabel? Und wenn ja, in welchem Sinne? Gibt es immer eine beste Interpretation? (Vgl. zu diesen Fragen Krausz 2002.) Verwandt damit ist die Frage nach den Wahrheitsbedingungen interpretativer Aussagen. Von Aussagen wie ›Camus’ Roman L’Etranger steht für die Vereinzelung des modernen Individuums‹ oder ›Hans Castorp symbolisiert den Streit zwischen Künstler- und Bürgertum‹ ist nicht einfach zu sagen, was der Fall sein muss, damit sie wahr sind. (Im ersten Falle liegt das daran, dass unklar ist, was ›Bedeutungstatsachen‹ sein könnten, im zweiten Falle ist unklar, ob oder in welcher Weise in entsprechenden Sätzen auf Fiktives Bezug genommen wird.) Grundsätzlich gibt es für die Analyse solcher Sätze folgende Möglichkeiten (vgl. Werner 2014, 126): Antideskriptivisten verneinen, dass entsprechende Aussagen wahr sein können; sie müssen dann klären, ob es dennoch Unterschiede in Bezug auf die rationale Akzeptierbarkeit der Aussagen gibt, und (wenn ja) worin diese liegen könnten. Deskriptivisten sind dagegen der Auffassung, dass die entsprechenden Aussagen grundsätzlich wahr sein können; sie unterscheiden sich wiederum in Hinblick auf die Frage, ob es de facto wahre Aussagen gibt oder nicht. Es liegt auf der Hand, dass hier ein echtes Grundlagenproblem der Literaturwissenschaft formuliert ist: Die Literaturwissenschaft versteht sich als Wissenschaft, der es als solcher um die Formulierung wahrer Sätze über ihren Gegenstand geht (oder gehen sollte). Ein weiteres Untersuchungsfeld betrifft die Rolle hermeneutischer Billigkeitsprinzipien in der Interpretation (vgl. Scholz 2001, 147 – 253; Petraschka 2014). Weitere Untersuchungsgegenstände der Philosophie der Literaturwissenschaft sind die literaturwissenschaftliche Klassifikation und Wertung. Fragen der Klassifikation betreffen die Definition literaturwissenschaftlicher Termini (s. o. zur Frage ›Was ist Literatur?‹; vgl. grundsätzlich Wagenknecht 1989; konkrete Analysen bietet Strube 1993). Dabei spielten insbesondere auch grundlegende Theorien zur Struktur von Begriffen eine Rolle – etwa die Frage, ob sich Terme als Äquivalenzdefinition (unter Angabe notwendiger und hinreichender Bedingungen) bestimmen lassen oder ob für zumindest einige der Begriffe eine Familienähnlichkeits- oder Prototypenstruktur angenommen werden muss (vgl. die einführende Übersicht in Laurence/Margolis 1999). Die Philosophie der Wertung literarischer Werke unterscheidet literaturspezifische Werte (also solche, die Werken der Lite ratur als Literatur zukommen) von sonstigen Werten und diskutiert, worin der (literaturspezifische) Wert eines Werkes bestehen kann (›Wie wird der literatur121
II. Die Philosophie der Formal- und Geisteswissenschaften
spezifische Wert eines Werkes individuiert?‹), was der Status dieser Werte ist (›Handelt es sich um relative oder absolute Werte? Sind sie subjektiv oder objektiv? Handelt es sich um Eigenschaften der Werke selbst oder um Projektionen von Lesern?‹) sowie die epistemologische Frage, wie sich literaturspezifische Werte erkennen und zuschreiben lassen (vgl. zur Übersicht der Fragestellungen Budd 1995; eine Theor ie wird entfaltet in Walton 2008). Auch philosophische Fragen der Wertung betreffen die Grundlagen der Literaturwissenschaft recht unmittelbar. Erstens hat es, wie eingangs erwähnt, im Verlauf des 20. Jahrhunderts in der Literaturwissenschaft eine deutliche Hinwendung zu Texten gegeben, die nicht einem klassischen Kanon entsprechen. Populärliteratur, nichtfiktionale Texte wie Sachbücher und wissenschaftliche Veröffentlichungen oder Alltagstexte wie z. B. Werbetexte sind ins Blickfeld der Literaturwissenschaft gerückt. Zweitens ist die Debatte darum, was ›wertvolle‹, ›gute‹ oder ›echte‹ Literatur sei, schon immer Teil der literarischen Kultur gewesen. Das liegt nicht zuletzt daran, dass über diese Fragen knappe Ressourcen wie Aufmerksamkeit, Ansehen und Einkommen von Autoren verteilt werden (vgl. Bourdieu 1997). Grundsätzlich stellt sich die Frage, ob materiale Fragen der Kunstbewertung überhaupt wissenschaftlich beantwortet werden können und sollten.
3 Ausblick So etwas wie ein einheitliches Forschungsprogramm der Philosophie der Literaturwissenschaft gibt es nicht. Das liegt zum einen daran, dass, wie eingangs bemerkt, die Literaturwissenschaft selbst kein einheitliches Forschungsprogramm hat, sondern vielmehr in verschiedene Schulen, Ansätze oder Richtungen zerfällt, die jeweils unterschiedliche Gegenstände, Erkenntnisziele und Verfahren für wesentlich halten (vgl. Olafson 1990, 186). Zwar hat die Literaturwissenschaft richtungsübergreifend ein gewisses Interesse an philosophischen Grundfragen (etwa: ›Was ist sprachliche Bedeutung?‹); man kann jedoch nicht sagen, dass damit ebenso richtungsübergreifend eine Bereitschaft zur Auseinandersetzung mit der (aktuellen) philosophischen Diskussion einherginge. Das ist insofern verständlich, als im Studium der Literaturwissenschaft die dafür nötigen Kompetenzen auch gar nicht vermittelt werden. Zum anderen gibt es im Rahmen der Literaturwissenschaft ›postmoderne‹ Strömungen wie die Dekonstruktion, die das Bemühen um wissenschaftstheoretische Klärungen programmatisch ächten; diese Ablehnung steht im Kontext einer allgemeinen Rationalitätskritik, die entsprechende Anliegen gerne als ›szientistischen‹ Irrweg kennzeichnet (einen Überblick über solche Strömungen bietet Novitz 2001; für philosophische Argumente gegen solche Positionen siehe z. B. Putnam 1992). Entsprechend weit entfernt sind die Schriften dieser Literaturwissenschaftler vom Ideal rationaler Argumentation. Im Jahr 1981 beklagt John M. Ellis: »Never have we been faced with criticism which so obviously strains for orig122
Philosophie der Literaturwissenschaft
inality at all costs. Critical essays by well-known and well-regarded critics seem often to ramble from one ill-defined but grandiose concept to another, attempting to enrich a vacuous argument with fashionable jargon and names, as well as bons mots and aphorisms of questionable relevance. The result is a veritable caricature of discussion, a reduction of criticism to an entertainment of scholars, a narrowly clubby kind of discourse.« (Ellis 1981, 25) Es ergibt sich damit der etwas paradoxe Befund, dass jene Literaturtheor ien (wie etwa die Dekonstruktion), für die besonders starke philosophische Rahmenannahmen charakteristisch sind, die Philosophie der Literatur oder Wissenschaftstheor ie pauschal ablehnen (für weitere wissenschaftsskeptische Traditionen vgl. Norris 2001). Dies gilt allerdings nicht für alle Literaturtheor ien, insbesondere nicht für die analytische Literaturwissenschaft (vgl. Finke/Schmidt 1984), bestimmte Richtungen des literaturwissenschaftlichen Strukturalismus sowie die Empirische Literaturwissenschaft. Peter Swirski (2010) plädiert explizit dafür, Einsichten der analytischen Philosophie insbesondere zur Theorie der Interpretation oder Fiktionalität im Rahmen der Literaturwissenschaft stärker zu berücksichtigen. Mit Blick auf die Zukunft der Philosophie der Literaturwissenschaft wäre eine Neuauflage der in den 1970er Jahren vorgenommenen Untersuchungen der literaturwissenschaftlichen Praxis wünschenswert, gerade vor dem Hintergrund der in den vergangenen Jahrzehnten stattgehabten Ausweitung von Gegenstandsbereich und Verfahren der Literaturwissenschaft (vgl. Fricke 1992; vgl. jüngst die Diskussionsbeiträge in Albrecht/Danneberg/Krämer/Spoerhase 2015). Die Philosophie der Literaturwissenschaft im engeren Sinne kann hier sicherlich von einer Kombination mit der (bereits fundierten) Wissenschaftsgeschichte des Faches sowie den (noch zu entwickelnden) Science Studies des Faches profitieren. Ob eine institutionalisierte Form der Philosophie der Literaturwissenschaft das Fach vor ausufernden Methodendiskussionen einerseits und Theoriefeindlichkeit andererseits bewahren kann und ob auf diese Weise Literaturwissenschaftlern geholfen werden kann, die sich mit der philosophischen Klärung der Grundlagenfragen des Faches überfordert sehen – dies ist schwer zu sagen.
123
II. Die Philosophie der Formal- und Geisteswissenschaften
Literatur Empfehlungen: Einen umfassenden Überblick über die Geschichte, Gegenstände und Grundbegriffe der Literaturwissenschaft, ihre Methoden und Theo r ien sowie Institutionen und Praxisfelder bieten die Beiträge in Anz (2007). Einführende Darstellungen der Philosophie der Literatur sind New (1999), Skilleås (2001) sowie Lamarque (2009). Das Verhältnis von Literaturwissenschaft und Philosophie/ Wissenschaftstheor ie wird einführend beleuchtet in Lamarque (2001). Für die Philosophie der Literatur und die Philosophie der Literaturwissenschaft bedeutende Grundlagentexte der (analytischen) philosophischen Ästhetik finden sich in Lamarque/Olsen (2003), einführende Darstellungen in Grundthemen bieten die Beiträge in Levinson (2003).
Albrecht, Andrea/Lutz Danneberg/Olav Krämer/Carlos Spoerhase (Hg.) (2015): Theorien, Methoden und Praktiken des Interpretierens. Berlin, New York: de Gruyter. Thomas Anz (Hg.) (2007): Handbuch Literaturwissenschaft. Stuttgart, Weimar: Metzler. Bachmann-Medick, Doris (Hg.) (1996): Kultur als Text. Die anthropologische Wende in der Literaturwissenschaft. Frankfurt a. M.: Fischer. Bachrach, Jay E. (1974): Type and Token and the Identification of the Work of Art. In: Philosophy and Phenomenological Research 31, 415 – 4 20. Bartelborth, Thomas (2007): Erklären. Berlin, New York: de Gruyter. Beardsley, Monroe C. (1966): Aesthetics from Classical Greece to the Present. A Short History. Tuscaloosa, London: The University of Alabama Press. – (1970): The Possibility of Criticism. Detroit: Wayne State University Press. – (1981): Aesthetics. Problems in the Philosophy of Criticism. 2. Aufl. Indianapolis, Cambridge: Hackett. Berto, Francesco (2013): Existence as a Real Property. Dordrecht: Springer. Borges, Jorge Louis (1992): Pierre Menard, Autor des Quijote. In: Jorge Louis Borges, Fiktionen. Frankfurt a. M.: Fischer, 35 – 46. Bourdieu, Pierre (1997): Zur Soziologie der symbolischen Formen. Frankfurt a. M.: Suhrkamp. Budd, Malcolm (1995): Values of Art. Pictures, Poetry and Music. London: Penguin Books. Bühler, Axel (2003): Die Vielfalt des Interpretierens. In: ders.: Hermeneutik. Basistexte zur Einführung in die wissenschaftstheoretischen Grundlagen von Verstehen und Interpretation. Heidelberg: Synchron 99 – 119. Cameron, Ross P. (2008): There Are no Things that Are Musical Works. In: British Journal of Aesthetics 48, 295 – 314. Carlshamre, Staffan und Anders Pettersson (Hg.) (2003): Types of Interpretation in the Aesthetic Disciplines. Montréal: McGill Queens University Press. Carroll, Noël (1999): Philosophy of Art. A Contemporary Introduction. London, New York: Routledge. 124
Philosophie der Literaturwissenschaft
– (2001): Beyond Aesthetics. Philosophical Essays. Cambridge: Cambridge University Press. – (2009): On Criticism. New York, London: Routledge. Currie, Gregory (1985): What is Fiction? In: The Journal of Aesthetics and Art Criticism 43, 385 – 392. – (1989): An Ontology of Art. London: MacMillan. – (1990): The Nature of Fiction. Cambridge: Cambridge University Press. Danneberg, Lutz (2007): Altphilologie, Theologie und die Genealogie der Literaturwissenschaft. In: Thomas Anz (Hg.): Handbuch Literaturwissenschaft. Bd. 3: Institutionen und Praxisfelder. Stuttgart, Weimar: Metzler, 3 – 25. –, Wolfgang Höppner, Ralf Klausnitzer und Dorit Müller (2007): Geschichte der Literaturwissenschaft: Einleitung. In: Thomas Anz (Hg.): Handbuch Literaturwissenschaft. Bd. 3: Institutionen und Praxisfelder. Stuttgart, Weimar: Metzler, 1 – 3. Davies, David (2004): Art as Performance. Oxford: Blackwell. Demmerling, Christoph und Íngrid Vendrell Ferran (Hg.) (2014): Wahrheit, Wissen und Erkenntnis in der Literatur. Philosophische Beiträge. Berlin: Akademie Verlag. Detel, Wolfgang (2011): Geist und Verstehen. Historische Grundlagen einer modernen Hermeneutik. Frankfurt a. M.: Vittorio Klostermann. Doležel, Lubomir (1998): Heterocosmica. Fiction and Possible Worlds. Baltimore: Johns Hopkins University Press. Dutton, Denis (1973): Criticism and Method. In: British Journal of Aesthetics 13, 232 – 242. Eibl, Karl (1976): Kritisch-rationale Literaturwissenschaft. Grundlagen zur erklärenden Literaturgeschichte. München: Fink. Ellis, John M. (1974): The Theory of Literary Criticism. A Logical Analysis. Berkeley: University of California Press. – (1981): The Logic of the Question ›What is Criticism?‹ In: Paul Hernadi (Hg.): What Is Criticism? Bloomington: Indiana University Press, 15 – 29. – (1989): Against Deconstruction. Princeton: Princeton University Press. Everett, Anthony (2013): The Nonexistent. Oxford: Oxford University Press. Finke, Peter und Siegfried J. Schmidt (Hg.) (1984): Analytische Literaturwissenschaft. Braunschweig: Vieweg & Sohn Verlagsgesellschaft. Føllesdal, Dagfinn, Lars Walløe und Jon Elster (1988): Rationale Argumentation. Ein Grundkurs in Argumentations- und Wissenschaftstheorie. Dt. Bearb. von Matthias Kaiser u. Georg Meggle. Berlin, New York: de Gruyter. Fricke, Harald (1977): Die Sprache der Literaturwissenschaft. Textanalytische und philosophische Untersuchungen. München: C. H. Beck. – (1992): Methoden? Prämissen? Argumentationsweisen! Überlegungen zur Konkurrenz wissenschaftlicher Standards in der Literaturwissenschaft. In: Lutz Danneberg und Friedrich Vollhardt (Hg.): Vom Umgang mit Literatur und Literaturgeschichte. Positionen und Perspektiven nach der »Theoriedebatte«. Stuttgart: Metzler, 211 – 227. Friend, Stacie (2007): Fictional Characters. In: Philosophy Compass 2, 141 – 156. 125
II. Die Philosophie der Formal- und Geisteswissenschaften
Freundlieb, Dieter (1978): Zur Wissenschaftstheorie der Literaturwissenschaft. Eine Kritik der transzendentalen Hermeneutik. München: Fink. Glock, Hans-Johann (2008): What is Analytic Philosophy? Cambridge University Press. Goodman, Nelson (1976): Languages of Art: An Approach to a Theory of Symbols. 2. Aufl. Indianapolis: Hackett. Göttner, Heide (1973): Logik der Interpretation. Analyse einer literaturwissenschaft lichen Methode unter kritischer Betrachtung der Hermeneutik. München: Fink. Gottschalk, Jürn und Tilmann Köppe (2006): Was ist Literatur? Eine Einleitung. In: dies. (Hg.): Was ist Literatur? Paderborn: mentis, 7 – 21. Grewendorf, Günther (1975): Argumentation und Interpretation. Wissenschaftstheoretische Untersuchungen am Beispiel germanistischer Lyrikinterpretation. Kronberg/ Ts.: Scriptor-Verlag. Griswold, Charles L. (2014): Plato on Rhetoric and Poetry. In: Edward N. Zalta (Hg.): The Stanford Encyclopedia of Philosophy (Fall 2014 Edition), URL = . Guyer, Paul (2003): History of Modern Aesthetics. In: Jerrold Levinson (Hg.): The Oxford Handbook of Aesthetics. Oxford: Oxford University Press, 25 – 6 0. Hamburger, Käte (1957): Die Logik der Dichtung. Stuttgart: Klett. Heintz, John (1979): Reference and Inference in Fiction. In: Poetics 8, 85 – 9 9. Hempel, Carl G. und Paul Oppenheim (1948): Studies in the Logic of Explanation. In: Philosophy of Science 15, 135 – 175. Hermerén, Göran (1983): Interpretation: Types and Criteria. In: Grazer Philosophische Studien 19, 131 – 161. Hirsch, Eric D. (1967): Validity in Interpretation. New Haven, London: Yale University Press. – (1978): What Isn’t Literature? In: Paul Hernadi (Hg.): What Is Literature? Bloomington: Indiana University Press. Höppner, Wolfgang (2007): Literaturwissenschaft in den Nationalphilologien. In: Thomas Anz (Hg.): Handbuch Literaturwissenschaft. Bd. 3: Institutionen und Praxisfelder. Stuttgart, Weimar: Metzler, 25 – 70. Howell, Robert (1979): Fictional Objects: How They Are and How They Aren’t. In: Poetics 8, 129 – 177. Hrushovski, Benjamin (1976): Poetics, Criticism, Science: Remarks on the Fields and Responsibilities of the Study of Literature. In: PTL: A Journal for Descriptive Poetics and Theory of Literature 1, iii-xxxv. Ingarden, Roman (1931): Das literarische Kunstwerk. Halle: Niemeyer. Irvin, Sherry (2006): Authors, Intentions, and Literary Meaning. Philosophy Compass 1/2, 114 – 128. Klauk, Tobias und Tilmann Köppe (Hg.) (2014): Fiktionalität, Ein interdisziplinäres Handbuch. Berlin: de Gruyter. Klausnitzer, Ralf (2007): Institutionalisierung und Modernisierung der Literaturwissenschaft seit dem 19. Jahrhundert. In: Thomas Anz (Hg.): Handbuch Literaturwissenschaft. Bd. 3: Institutionen und Praxisfelder. Stuttgart, Weimar: Metzler, 70 – 147. 126
Philosophie der Literaturwissenschaft
Köppe, Tilmann und Simone Winko (2008): Neuere Literaturtheorien. Stuttgart, Weimar: Metzler. Krausz, Michael (Hg.) (2002): Is there a Single Right Interpretation? University Park: Pennsylvania State University Press. Kripke, Saul (2011): Vacuous Names and Fictional Entities. In: Saul Kripke, Philosophical Troubles. Collected Papers, vol. I, Oxford: Oxford University Press, 52 – 74. Lamarque, Peter (2001): Criticism, Aesthetics and Analytic Philosophy. In: Christa Knellwolf und Christopher Norris (Hg.): The Cambridge History of Literary Criticism. Vol. 9: Twentieth-Century Historical, Philosophical and Psychological Perspectives. Cambridge: Cambridge University Press, 323 – 334. – (2009): The Philosophy of Literature. Malden: Blackwell. – (2010): Work and Object. Explorations in the Metaphysics of Art. Oxford: Oxford University Press. Lamarque, Peter und Stein Haugom Olsen (1994): Truth, Fiction, and Literature. A Philosophical Perspective. Oxford: Clarendon Press. – und Stein Haugom Olsen (Hg.) (1994): Aesthetics and the Philosophy of Art. The Analytic Tradition. Malden: Blackwell. Laurence, Stephen und Eric Margolis (1999): Concepts and Cognitive Science. In: Eric Margolis und Stephen Laurence (Hg.): Concepts. Core Readings. Cambridge, London: The MIT Press. Levinson, Jerrold (Hg.) (2003): The Oxford Handbook of Aesthetics. Oxford: Oxford University Press. Levinson, Jerrold (2003a): Philosophical Aesthetics. An Overview. In: Jerrold Levinson (Hg.): The Oxford Handbook of Aesthetics. Oxford: Oxford University Press, 3 – 24. – (2010): Defending Hypothetical Intentionalism. In: British Journal of Aesthetics 50, 139 – 150. Lewis, David (1978): Truth in Fiction. In: American Philosophical Quarterly 15, 37 – 46. Livingston, Paisley (2013): History of the Ontology of Art. In: Edward N. Zalta (Hg.): The Stanford Encyclopedia of Philosophy (May 6, 2013 Edition), http://plato.stanford.edu/entries/art-ontology-history/. Lyas, Colin (1992): Wittgensteinian Intentions. In: Gary Iseminger (Hg.): Intention and Interpretation. Philadelphia: Temple University Press, 132 – 151. Matheson, Carl und Ben Caplan (2011): Ontology. In: Theodore Gracyk und Andrew Kania (Hg.): The Routledge Companion to Philosophy and Music. London, New York: Routledge, 38 – 47. Neill, Alex und Aaron Ridley (2012): Relational Theor ies of Art: The History of an Error. In: British Journal of Aesthetics 52, 141 – 151. New, Christopher (1999): Philosophy of Literature. An Introduction. London, New York: Routledge. Newen, Albert und Eike von Savigny (1996): Analytische Philosophie. Eine Einführung. München: Fink. Norris, Christopher (2001): Literary Theory, Science and Philosophy of Science. In: 127
II. Die Philosophie der Formal- und Geisteswissenschaften
Christa Knellwolf und Christopher Norris (Hg.): The Cambridge History of Literary Criticism. Vol. 9: Twentieth-Century Historical, Philosophical and Psychological Perspectives. Cambridge: Cambridge University Press, 401 – 417. Novitz, David (2001): Postmodernism: Barthes and Derrida. In: Berys Gaut und Dominic McIver Lopes (Hg.): The Routledge Companion to Aesthetics. London, New York: Routledge, 155 – 165. Olafson, Frederick A. (1990): »Human Sciences« or »Humanities«: The Case of Literature. In: Midwest Studies in Philosophy 15, 183 – 193. Olsen, Stein Haugom (1978): The Structure of Literary Understanding. Cambridge: Cambridge University Press. Parsons, Terence (1975): A Meinongian’s Analysis of Fictional Objects. In: Grazer Philosophische Studien 1, 73 – 86. – (1981): Nonexistent Objects. New Haven: Yale University Press Pasternack, Gerhard (1975): Theoriebildung in der Literaturwissenschaft. München: Fink. Petraschka, Thomas (2014): Interpretation und Rationalität. Billigkeitsprinzipien in der philologischen Hermeneutik. Berlin, New York: de Gruyter. Pettersson, Anders (1984): The Ontology of Literary Works. In: Theoria 50, 36 – 51. Platon (1923): Der Staat. (Sämtliche Dialoge, Bd. V). Hg. von Otto Apelt. Hamburg: Felix Meiner. Priest, Graham (2005): Towards Non-Being. The Logic and Metaphysics of Intentionality. Oxford: Oxford University Press. Putnam, Hillary (1992): Irrealism and Deconstruction. In: Hillary Putnam, Renewing Philosophy. Cambridge, London: Harvard University Press, 108 – 133. Quine, W. V. O. und J. S. Ullian (1978): The Web of Belief. 2. Aufl. New York: Random House. Robinson, Jenefer (2005): Deeper than Reason: Emotion and its Role in Literature, Music, and Art. Oxford: Clarendon Press. Rudner, Richard (1950): The Ontological Status of the Esthetic Object. In: Philosophy and Phenomenological Research 10, 380 – 388. Sainsbury, Richard M. (2010): Fiction and Fictionalism. Oxford: Routledge. Salmon, Merrilee H. (1989): Explanation in the Social Sciences. In: Philip Kitcher und Wesley H. Salmon (Hg.): Scientific Explanation. Minneapolis: University of Minnesota Press, 384 – 409. Savigny, Eike von (1976): Argumentation in der Literaturwissenschaft. Wissenschaftstheoretische Untersuchungen zur Lyrikinterpretation. München: C. H. Beck. Schaeffer, Jean Marie (2000): Art of the Modern Age. Philosophy of Art from Kant to Heidegger. Princeton: Princeton University Press. Schmidt, Siegfried J. (1991): Grundriß der empirischen Literaturwissenschaft. Frankfurt a. M.: Suhrkamp. Schmücker, Reinhold (Hg.) (2003): Identität und Existenz. Studien zur Ontologie der Kunst. Paderborn: Mentis. Scholz, Oliver R. (2001): Verstehen und Rationalität. Untersuchungen zu den Grundlagen von Hermeneutik und Sprachphilosophie. 2. Aufl. Frankfurt a. M.: V. Klostermann. 128
Philosophie der Literaturwissenschaft
– (2014): Fiktionen, Wissen und andere kognitive Güter. In: Tobias Klauk und Tilmann Köppe (Hg.): Fiktionalität. Ein interdisziplinäres Handbuch. Berlin: de Gruyter, 209 – 234. Searle, John (1975): The Logical Status of Fictional Discourse. In: New Literary History 6, 319 – 332. Sirridge, Mary J. (1975): Truth from Fiction? In: Philosophy and Phenomenological Research 35, 453 – 471. Skilleås, Ole Martin (2001): Philosophy of Literature. An Introduction. Edinburgh: Edinburgh University Press. Spoerhase, Carlos (2007): Autorschaft und Interpretation. Methodische Grundlagen einer philologischen Hermeneutik. Berlin: de Gruyter. Stecker, Robert (1996): What Is Literature? In: Revue internationale de philosophie 50, 681 – 6 94. – (1997): Artworks. Definition, Meaning, Value. University Park: The Pennsylvania State University Press. Stolnitz, Jerome (1992): On the Cognitive Triviality of Art. In: British Journal of Aes thetics 32, 191 – 2 00. Stout, Jeffrey (1982): What Is the Meaning of a Literary Text? In: New Literary History 14, 1 – 12. Strelka, Joseph (1978): Methodologie der Literaturwissenschaft. Tübingen: Niemeyer. Strube, Werner (1993): Analytische Philosophie der Literaturwissenschaft. Untersuchungen zur literaturwissenschaftlichen Definition, Klassifikation, Interpretation und Textbewertung. Paderborn u. a.: Ferdinand Schöningh. – (2004): Die Entstehung der Ästhetik als einer wissenschaftlichen Disziplin. In: Scientia Poetica 8, 1 – 30. – (2009): Die Grenzen der Literatur oder Definitionen des Literaturbegriffs. In: Simone Winko, Fotis Jannidis und Gerhard Lauer (Hg.): Grenzen der Literatur. Zu Begriff und Phänomen des Literarischen. Berlin, New York: de Gruyter, 45 – 77. Stühring, Jan (2011): Unreliability, Deception, and Fictional Facts. In: Journal of Literary Theory 5, 95 – 108. Swirski, Peter (2010): Literature, Analytically Speaking. Explorations in the Theory of Interpretation, Analytic Aesthetics, and Evolution. Austin: University of Texas Press. Thomasson, Amie L. (1999): Fiction and Metaphysics. Cambridge: Cambridge University Press. – (2005): The Ontology of Art and Knowledge in Aesthetics. In: The Journal of Aes thetics and Art Criticism 63, 221 – 229. Titzmann, Michael (1977): Strukturale Textanalyse. Theorie und Praxis der Interpretation. München: Fink. Tolhurst, W. E. (1979): On What a Text Is and How It Means. In: British Journal of Aesthetics 19, 3 – 14. Tomaševskij, Boris (1985): Theorie der Literatur, Poetik [russ. 1925]. Hg. u. eingel. von Klaus-Dieter Seemann. Wiesbaden: Harrassowitz. 129
II. Die Philosophie der Formal- und Geisteswissenschaften
Van Inwagen, Peter (1977): Creatures of Fiction. In: American Philosophical Quarterly 14, 299 – 308. Voltolini, Alberto (2006): How Ficta Follow Fiction. Dordrecht: Springer. Wagenknecht, Christian (Hg.) (1989): Zur Terminologie der Literaturwissenschaft. Akten des IX. Germanistischen Symposions der Deutschen Forschungsgemeinschaft Würzburg 1986. Stuttgart: J. B. Metzlersche Verlagsbuchhandlung. Walters, Lee (2013): Repeatable Artworks as Created Types. In: British Journal of Aesthetics 53, 461–477. Walton, Kendall L. (1990): Mimesis as Make-Believe. On the Foundations of the Representational Arts. Cambridge (Mass.): Harvard University Press. – (2008): »How Marvelous!«: Toward a Theory of Aesthetic Value. In: Kendall L. Walton, Marvelous Images: On Values and the Arts. Oxford: Oxford University Press, 3 – 2 0. Weimar, Klaus (2000): Literaturwissenschaft. In: Harald Fricke u. a. (Hg.): Reallexi kon der deutschen Literaturwissenschaft. Berlin, New York: de Gruyter, Bd. II, 485 – 489. Werner, Jan C. (2014): Fiktion, Wahrheit, Referenz. In: Tobias Klauk und Tilmann Köppe (Hg.): Fiktionalität. Ein interdisziplinäres Handbuch. Berlin: de Gruyter, 125 – 158. Wimsatt, William K. und Monroe C. Beardsley (1954): The Intentional Fallacy [1946]. In: William K. Wimsatt, The Verbal Icon: Studies in the Meaning of Poetry. Lexington: University Press of Kentucky, 3 – 18. Winko, Simone, Fotis Jannidis und Gerhard Lauer (2006): Geschichte und Emphase. Zur Theorie und Praxis des erweiterten Literaturbegriffs. In: Jürn Gottschalk / Tilmann Köppe (Hg.): Was ist Literatur? Paderborn: mentis, 123 – 154. Wollheim, Richard (1980): Art and its Objects. 2. Aufl. Cambridge: Cambridge University Press. Wolterstorff, Nicholas (1980): Works and Worlds of Art. Oxford: Clarendon. Zalta, Edward (1983): Abstract Objects. An Introduction to Axiomatic Metaphysics, Dordrecht: Springer. Zangwill, Nick (2003): Aesthetic Realism. In: Jerrold Levinson (Hg.): The Oxford Handbook of Aesthetics. Oxford: Oxford University Press, 63 – 79. Zima, Peter V. (1999): The Philosophy of Modern Literary Theory. London, New Brunswick: The Athlone Press.
130
4. Philosophie der Geschichtswissenschaft1 Dietmar Hübner
1 Einleitung 1.1 Der Begriff der Geschichte Im Begriff der Geschichte (history) lassen sich drei wesentliche Bedeutungsebenen unterscheiden. Erstens versteht man unter ›Geschichte‹ bestimmte Geschehnisse der Vergangenheit. Dies können Ereignisse jenseits menschlicher Erfahrung oder Einwirkung sein, etwa im Fall einer Kosmos-, Erd-, Natur- oder Artengeschichte. Häufiger jedoch geht es um Vorgänge, die von Menschen erlebt und gestaltet werden, wie in einer Lebens-, Völker-, Klassen- oder Kunstgeschichte. ›Geschichte‹ (history) in diesem ersten Sinne meint die historischen Begebenheiten (res gestae) und grenzt diese in ihrem Status als reale Tatsachen (res factae, res verae) insbesondere von literarischen Erdichtungen oder propagandistischen Verfälschungen ab. Dabei können die fraglichen Geschehnisse Personen, Gruppen, soziale Strukturen oder abstrakte Ideen betreffen, sie können als Handlungen, Widerfahrnisse, anonyme Transformationen oder eigenlogische Entwicklungen verstanden werden. Zweitens bezeichnet ›Geschichte‹ die rückblickende Darstellung jener Geschehnisse. Genauer kann dies die Tätigkeit des Darstellens selbst oder aber die Ergebnisse jener Tätigkeit umfassen. ›Geschichte‹ in diesem zweiten Sinne meint die Geschichtsschreibung (historiography), ihre Prozesse und ihre Produkte (historia rerum gestarum), die der Autor als Berichte aus eigener Erfahrung oder als Rekurse auf externe Quellen anlegen mag. Dabei besteht Geschichtsschreibung nicht einfach in Auflistungen von Ereignissen oder in Tabellen mit Daten, sondern tritt immer als eine interpretative Gestaltung solchen faktischen Materials auf. Sie geht mit spezifischen Formen der Sinnkonstruktion und Bedeutungsstiftung einher und realisiert sich erst im Akt des Erzählens bzw. in Gestalt einer Erzählung (narratio rei gestae). Drittens bezeichnet ›Geschichte‹ die professionelle Untersuchung der Vergangenheit. Auch hier geht es um Prozeduren und Resultate, nun aber einer dezi Der Autor bedankt sich für wertvolle Kommentare und konstruktive Kritik bei den Teilnehmerinnen und Teilnehmern des Forschungskolloquiums des Instituts für Philosophie der Leibniz Universität Hannover im Sommersemester 2014. Insbesondere geht der Dank an Uljana Feest und Yannick Weiler für hilfreiche Literaturhinweise. 1
131
II. Die Philosophie der Formal- und Geisteswissenschaften
diert wissenschaftlichen Tätigkeit. ›Geschichte‹ in diesem dritten Sinne meint die Geschichtsforschung (historiographic research), als akademische Disziplin mit spezifischen Methoden und Theor ien, durch die sie sich insbesondere von laienhaften Geschichtszugängen abhebt. Sie hat professionelle Instrumentarien, um verschiedene Typen historischer Quellen zu erschließen und auf ihre Echtheit, Glaubwürdigkeit, Fruchtbarkeit und Wichtigkeit hin zu beurteilen (lebende Zeitzeugen, überlieferte Zeitzeugnisse, tradierte Erinnerungen, Archive, Annalen, Chroniken, Gesetze, Verordnungen, Urkunden, Briefe, Register, Statistiken, Ruinen, Relikte, Werkzeuge, Gemälde, Skulpturen, Textfragmente, Münzen, Inschriften, Spuren, Grabstätten, Knochen, DNA etc.). Und sie entwickelt professionelle Standards, um hieraus valide Bilder bestimmter Zeitabschnitte oder Gegenstandsbereiche zu erstellen (als wissenschaftliche Untersuchungen von Ereignissen, Prozessen, Epochen, Übergängen, als Völker-, Sozial-, Politik-, Sitten-, Religions-, Ideen-, Kultur-, Kunst-, Wissenschafts-, Rechts-, Wirtschafts-, Kriegsgeschichte etc.).
1.2 Zugänge der Philosophie Die drei skizzierten Verständnisdimensionen von Geschichte eröffnen unterschiedliche Zugangsweisen, in denen sich Philosophie mit Geschichte bzw. Geschichtswissenschaft befassen kann. Als Philosophie der Geschichte bzw. Geschichtsphilosophie im engeren Sinne (philosophy of history, manchmal auch ›materiale Geschichtsphilosophie‹) untersucht sie die Geschehnisse der Vergangenheit in spezifisch philosophischer Perspektive: So wie Naturphilosophie die Wesensmerkmale der belebten oder unbelebten Natur bestimmen will, in unmittelbar philosophischer Reflexion natürlicher Gegenstände, so will Geschichtsphilosophie den Charakter der Geschichte durchdringen, in direkter philosophischer Betrachtung historischer Ereignisse und Vorgänge. Insbesondere stellt sie ontologische Überlegungen zu Subjekt und Verlauf der Geschichte an. Als Philosophie der Geschichtsschreibung (philosophy of historiography, zuweilen auch ›formale Geschichtsphilosophie‹) geht es ihr um die philosophische Reflexion historiographischer Prozesse und Produkte: So wie Philosophie des Naturdenkens sich mit Wesen und Bedingungen der Naturerkenntnis auseinandersetzt, indem sie etwa Raum und Zeit oder Kausalität als konstitutive Momente menschlicher Erfahrung auszeichnet, so bestimmt Philosophie der Geschichtsschreibung die Konstitutionsmerkmale historischen Denkens und Wissens, in Abgrenzung von anderen Denk- und Wissensformen. Namentlich bemüht sie sich um eine epistemologische Einordnung historischer Praxen und Werke. Als Philosophie der Geschichtsforschung (philosophy of historiographic research) schließlich untersucht sie die charakteristischen Methoden und Theo rien der historischen Disziplinen: So wie Philosophie der Naturwissenschaften 132
Philosophie der Geschichtswissenschaft
sich mit Instrumenten und Konzepten von Physik, Astronomie, Chemie oder Biologie auseinandersetzt, so reflektiert Philosophie der Geschichtsforschung die Standards der Geschichtswissenschaft, etwa in Fragen der Faktenerschließung oder der Interpretationserstellung. Sie wählt einen wissenschaftstheoretischen Zugang zu einer forschenden Tätigkeit, wobei, analog zu anderen Feldern der Wissenschaftstheor ie, die Grenzen zur Grundlagenreflexion innerhalb der untersuchten Fachdisziplin selbst fließend sind.
1.3 Philosophie der Geschichtswissenschaft Der Gedanke liegt nahe, dass sich Philosophie der Geschichtswissenschaft ganz auf den letztgenannten Bereich, d. h. die wissenschaftstheoretische Behandlung professioneller Geschichtsforschung, beschränken könnte. Dies ist jedoch ein Irrtum. Erstens muss sich Geschichtswissen, auch professioneller Art, zuletzt immer in Geschichtsschreibung formieren, so dass epistemologische Befunde zu Formen und Grenzen historischer Weltzugänge für ein vollständiges Bild der historischen Wissenschaften unentbehrlich bleiben. Zweitens sind auch ontologische Betrachtungen zu Wesen und Gestalt vergangener Geschehnisse von Relevanz für die Frage, wie jene Geschehnisse wissenschaftlich zu behandeln sind. Philosophie der Geschichtswissenschaft muss daher alle drei genannten Zweige philosophischer Geschichtsbetrachtung im Blick behalten. Die folgenden Abschnitte 2 bis 4 skizzieren diese Zweige sukzessiv in ihren Zentralthemen und Hauptpositionen, der abschließende Abschnitt 5 fasst aktuelle Fragen und künftige Aufgaben zusammen.
2 Philosophie der Geschichte Schon in Antike, Spätantike und früher Neuzeit werden philosophische Überlegungen zum historischen Geschehen angestellt, die in einem weiten Sinne unter den Titel Geschichtsphilosophie gebracht werden können. Dies gilt insbesondere dann, wenn sie nicht nur vereinzelte Ereignisse und ihre jeweiligen Hintergründe kommentieren, sondern allgemeine Formmerkmale historischer Vorgänge herauszuarbeiten versuchen. Der Zugang ist dabei allerdings zumeist insofern beschränkt, als die Fragehorizonte auf politische Aspekte bzw. theologische Perspektiven fokussiert bleiben: Unterliegt menschliche Geschichte einem permanenten Wechsel oder sogar einem zyklischen Muster, indem verschiedene Staatsformen beständig auseinander hervorgehen (Platon Politeia: Buch VIII–IX, 543a–576b; Platon Politikos: 291c–292a, 301a–301c, 302c–303b; Aristoteles Nikomachische Ethik: VIII.12, 1160a–1160b; Aristoteles Politik: III.7, 1279a–1279b, IV.2, 1289a–1289b; Polybios Historien: Buch VI, 3.1–9.14; Machiavelli Discorsi: I.2, 20–23)? Ist für sie ein statischer Zustand denkbar oder sogar erreichbar, in133
II. Die Philosophie der Formal- und Geisteswissenschaften
dem eine geeignete Mischung verschiedener Staatsformen sich zuletzt als stabil erweisen könnte (Polybios Historien: Buch VI, 11.1–18.8; Cicero De re publica: Buch I, 29, 35, 42, 45, Buch II, 39, Buch III, 23, 29; Machiavelli Discorsi: I.2, 23– 25)? Oder hat sie eine lineare Gestalt mit einsinnigem Verlauf, namentlich gemäß dem christlich-eschatologischen Modell von Weltschöpfung, Heilsgeschehen und Weltgericht (Augustinus De civitate dei: XXII.30; Thomas von Aquin Summa Theologica: I, q. 45–46, III, q. 1, III Suppl., q. 74, 88)? Gegenüber diesen frühen Geschichtsdeutungen entwickelt sich ab dem 18. Jahrhundert eine Form von Geschichtsphilosophie, die sich in wesentlich weitgespannterer und nachdrücklicherer Weise des Gegenstands Geschichte zu bemächtigen sucht. Zwei Bewegungen sind dabei maßgeblich. Zum einen wird die politische Dimension historischer Entwicklungen überschritten zugunsten einer umfassenden Gesamtsicht menschlicher Verhältnisse: Politik und Recht, aber auch Wissenschaft, Technik, Wirtschaft, Kunst, Moral und Religion werden in ihrer geschichtlichen Verfasstheit betrachtet und dabei als einheitliches Gesamtgeschehen verstanden. Insbesondere kommt der Gedanke eines übergreifenden historischen Fortschritts auf, den man in all diesen Bereichen erkennen zu können meint und dessen tieferes verbindendes Wesen man ergründen will. Diese Umorientierung schlägt sich nicht zuletzt in einer bezeichnenden Verschiebung im Begriff ›Geschichte‹ selbst nieder: Während ›Geschichte‹ noch bis ins 18. Jahrhundert hinein ein Plural ist, der als solcher eine Vielzahl separater Begebenheiten, mit je unterschiedlichen Gegenständen und eigenständigen Logiken anzeigt, wird es ab der Mitte des 18. Jahrhunderts zu dem noch heute gebräuchlichen Singular, der eine übergreifende Universalgeschichte menschlicher Verhältnisse, eine einheitliche Bewegung menschlicher Kultur in ihren sämtlichen Sektoren bezeichnen soll. In dieser Sichtweise wird die ›Geschichte‹ selbst letztlich zum Subjekt aller Veränderung und zum Maßstab jeder Bewertung (vgl. Koselleck 1979, 50 f., 59 f.; Koselleck et al. 1975, 639 f., 647–653, 667 f.; Vašíček 2011, 27 f., 36). Zum anderen wird das theologische Deutungsmuster abgelegt und stattdessen eine philosophische Interpretation historischer Ereignisse gefordert: Zwar ähneln die entwickelten Geschichtssichten aufgrund ihres formalen Konzepts eines linearen Geschichtsverlaufs zuweilen säkularisierten Versionen einer eschatologischen Heilserwartung (Löwith 1949/53, 12, 217 f.) oder auch einer apokalyptischen Katastrophenerwartung (Derrida 1983, 64). In inhaltlicher Hinsicht besteht ihr expliziter Anspruch jedoch darin, ohne Rückgriff auf theologische Vorgaben, allein auf Grundlage philosophischer Erwägungen, jene Linearität des Historischen zu erfassen. Es ist dieses Projekt, zu dessen Bezeichnung der Begriff ›Geschichtsphilosophie‹ erstmals im 18. Jahrhundert auftaucht: ›Geschichtsphilosophie‹ bezeichnet seinem Ursprung nach nicht jegliche Form philosophischer Geschichtsbetrachtung, sondern den speziellen Ansatz einer philosophischen Universalgeschichte. Die Wirkung dieser Perspektive ist so nachhaltig, dass das Wort ›Geschichtsphilosophie‹ bis heute vielfach in dieser spezifischeren Bedeu134
Philosophie der Geschichtswissenschaft
tung verwendet wird (vgl. Baumgartner 1987, 152–155; Marquard 1973/97, 14; Nagl-Docekal 1996b, 7–28; Vašíček 2011, 26 f.). Geschichtsphilosophie im skizzierten Sinne reflektiert dabei selten die Merkmale von Geschichtsschreibung als solcher. Zwar betreibt sie selbst eine bestimmte Art historischer Darstellung. Aber sie stellt keine epistemologischen Untersuchungen zu Bedingungen und Grenzen historischen Denkens und Wissens an. Dies mag für ihre Ursprünge im frühen 18. Jahrhundert nicht verwundern, da moderne Erkenntnistheor ie sich erst zu einem späteren Zeitpunkt herausbildet. Doch es gilt oftmals auch für nachfolgende Phasen geschichtsphilosophischer Aktivität. Der Grund hierfür dürfte sein, dass geschichtsphilosophische Auffassungen zu der Einschätzung neigen, mit ihren Konzepten und Instrumentarien den Bereich üblicher historiographischer Tätigkeit zu transzendieren und daher nicht von dessen Voraussetzungen und Beschränkungen betroffen zu sein. Zudem befasst sich Geschichtsphilosophie kaum in intensiverer Weise mit Methoden und Theorien der professionellen Geschichtsforschung. Dies mag darauf zurückzuführen sein, dass eine entwickelte historische Fachdisziplin mit eigenständigen akademischen Standards im frühen 18. Jahrhundert noch nicht existiert. Es gilt aber wiederum auch für nachfolgende Phasen geschichtsphilosophischen Denkens. Der Grund hierfür dürfte darin liegen, dass geschichtsphilosophische Ansätze den wissenschaftlichen Zugriff auf die Historie üblicherweise für sich selbst reklamieren. Das große Vertrauen, welches man dabei in das eigene, originär philosophische Deutungsschema für die Geschichte setzt, führt nicht selten dazu, die empirische Arbeit historischer Fachwissenschaftler als nachrangig einzuschätzen. Fichtes Bemerkung, der »bloße Empiriker« mit seiner »zufälligen Beobachtung« bleibe für das eigentliche Wesen seines eigenen Zeitalters blind, während allein der Philosoph »ohne Rücksicht auf irgend eine Erfahrung und schlechthin a priori« die »nothwendigen Phänomene dieses Zeitalters« zu erfassen vermöge, ist in dieser Hinsicht nicht untypisch für geschichtsphilosophische Positionen (Fichte 1806, VII 5).
2.1 Aufklärung Die Auffassung von Geschichte als einheitlicher Fortschrittsprozess in sämtlichen Lebensbereichen ist prägend für das aufklärerische Denken. Der genaue Fokus und die philosophische Verankerung differieren freilich von Autor zu Autor. Als erster Hauptvertreter aufklärerischen Fortschrittdenkens gilt gemeinhin Vico. Gemäß seinem Konzept einer ›ewigen idealen Geschichte‹ muss, aufgrund der gemeinsamen Natur aller Menschen, jede einzelne Nation ein dreistufiges Stadienmodell kultureller Entfaltung durchschreiten, in dem ihr jeweiliger Zeitgeist sich vor allem in den Sphären von Sitte, Recht, Politik, Sprache, Religion und Kunst ausprägt. Vico unterscheidet auf dieser Grundlage ein ›göttliches Zeitalter‹, das von einem roh-furchtsamen, sinnlich-konkreten, poetisch-mythologi135
II. Die Philosophie der Formal- und Geisteswissenschaften
schen Denken gekennzeichnet ist, ein ›heroisches Zeitalter‹, das von ehrsüchtigen, hierarchischen, gewaltbezogenen Beziehungen geprägt wird, und schließlich ein ›menschliches Zeitalter‹, in dem ein rationales, gütiges, pflichtbewusstes Denken dominiert und die rechtliche Gleichheit aller Bürger gewonnen ist. Eher ungewöhnlich für einen Autor der Aufklärung hält Vico dabei neben dem Fortschritt in spätere Stufen auch den Niedergang bestehender Verhältnisse und die Wiederkehr früherer Zustände für möglich (Vico 1725/44, §§ 915–1045). Condorcets Ansatz ist hiervon in zweierlei Hinsicht verschieden. Zum einen erstreckt er seine Perspektive über die einzelnen Völker hinaus auf die Entwicklung der Menschheit insgesamt, zum anderen behauptet er ein unaufhaltsames Fortschreiten menschlicher Vernunft und damit eine beständige Vervollkommnung von Tugend und Erkenntnis, Freiheit und Glück. Insgesamt neun Epochen jenes Fortschrittsgeschehens lassen sich nach Condorcet in der bisherigen Menschheitsgeschichte unterscheiden, wobei so streng gültige und sicher erkennbare Gesetze wirksam sein sollen, dass auch ihre künftigen Errungenschaften mit hoher Gewissheit vorhersagbar werden. Insbesondere muss es nach Condorcet unweigerlich zu wachsender Gleichheit und steigender Freiheit, zu Frieden zwischen den Staaten und zur Anerkennung von Menschenrechten kommen (Condorcet 1793, 30–39, 193–222). Auch Kant bekennt sich zum optimistischen Gedanken einer vollständigen Entwicklung sämtlicher Anlagen der menschlichen Gattung. Dies umfasst insbesondere die Einrichtung einer gerechten bürgerlichen Verfassung sowie die Schaffung eines gesetzmäßigen äußeren Staatenverhältnisses, die nach Kant Bedingungen für jene menschliche Vervollkommnung sind. Allerdings ist dieser Optimismus bei Kant kritisch gebremst, insofern er den Fortschrittsgedanken ausdrücklich als ›Idee‹ bezeichnet. Eine ›Idee‹ ist innerhalb von Kants System ein Vernunftbegriff, der als solcher zwar praktischer Rechtfertigung zugänglich ist und theoretische Regulationsfunktion ausüben kann, aber keine objektive Gegebenheit behaupten oder gar philosophische Gewissheit reklamieren darf, sondern allein den Status einer im eigenen Handeln zu befördernden Aufgabe und einer zu diesem Zweck legitimen Deutungsfolie innehat (Kant 1781/87, B 670–732; Kant 1784, A 388–411; Kant 1788, A 72–87, A 238–241).
2.2 Idealismus Diese kritische Zurückhaltung wird von den nachfolgenden Vertretern des deutschen Idealismus aufgegeben. Für sie ist der Gedanke des Fortschritts nicht bloß eine regulative Idee in praktischer Absicht, wie bei Kant, und auch nicht allein eine Aussage mit empirischer Sicherheit aufgrund der Beschaffenheit der menschlichen Natur oder der Wirkkraft historischer Gesetze, wie bei Vico oder Condorcet. Vielmehr wird bei ihnen die These des Fortschritts zu einem philosophischen Theorem mit apriorischer Gewissheit: Sie verstehen die Geschichte als 136
Philosophie der Geschichtswissenschaft
eigenlogisches, notwendiges Entfaltungsgeschehen einer allumfassenden, überindividuellen Vernunftgestalt. Historischer Fortschritt gilt ihnen als zeitliche Auswicklung von Strukturmomenten einer Vernunftsubstanz, die sich als solche mit begrifflicher Notwendigkeit entfaltet und philosophischer Einsicht zugänglich ist. Dabei bezieht sich diese philosophische Deutung der Geschichte ausdrücklich in die eigene Auffassung des Historischen mit ein: Philosophie ist nichts anderes als die rationale Selbsterfassung der sich in der Geschichte entfaltenden Vernunft. Damit erschließt sie nicht allein den Prozess, durch den die Vernunft in der Geschichte zu sich selbst findet, sondern ist ihrerseits Teil und letztlich Vollendung dieses Prozesses. Nach Fichte kann der Philosoph, ohne Rückgriff auf die Erfahrung, allein aus der Einheit seines Begriffs den historischen »Weltplan« und dessen fünf »Haupt epochen« ableiten (Fichte 1806, VII 6). Jene Epochen sind durch den jeweiligen Stand der menschlichen Vernunft definiert, welche sich mit strenger Notwendigkeit von anfänglicher Unbewusstheit und Instinktleitung zu zunehmender Bewusstheit und Freiheit entwickelt: Anfänglich wirkte sie als bloßer Vernunft instinkt und Naturkraft, danach als äußerliche Autorität mit Zwangsmitteln. Gegenwärtig ist es zum Zusammenbruch jener Herrschaft und einem vorübergehenden Zustand intellektueller Gleichgültigkeit gekommen. Künftig wird eine strenge Vernunftwissenschaft eingerichtet werden, ehe zuletzt eine freie Vernunftkunst walten wird (Fichte 1806, VII 3–15, VII 64–70). Für Schelling ist Geschichte nichts anderes als die allmähliche Offenbarung des »Absoluten«, d. h. der Einheit von Subjekt und Objekt, das sich in insgesamt drei »Perioden« entfaltet und in seiner zunehmenden Selbsterfassung kundtut (Schelling 1800, III 603 f.). Genauer ist Geschichte zum einen die Entwicklung jenes Absoluten selbst, von ursprünglicher Einheit über vorübergehende Scheidung hin zu absoluter Identität, zum anderen die Entwicklung der Vernunft, die jenes Absolute zu erfassen sucht, letztlich mit ihm eins ist und damit dessen Selbsterkenntnis hin zur eigenen Identität mitvollzieht: In der Mythologie erschien das Absolute als einheitlicher Gott, der sich zu Beginn der Geschichte in eine Vielzahl von Göttern aufgespalten hat. In der Philosophie erscheint es als zwei getrennte Wesen, als Geist und Materie, als Ich und Natur, denen sich Trans zendentalphilosophie bzw. Naturphilosophie mit ihren gleichberechtigten, irreduziblen Perspektiven zuwenden. In der Religion wird es einst als göttliche Einheit erscheinen, in der sich Gott zuletzt selbst offenbaren und insbesondere alle notwendige Prozessualität als seine freie Tat zu erkennen geben wird (Schelling 1797/1803, II 11–56; Schelling 1800, III 329–342; Schelling 1801, IV 107–123; Schelling 1813, VIII 239, VIII 269; Schelling 1841, XIV 3–12; Schelling 1842, XI 119– 198). Bei Hegel ist niemand anderes als der »Geist« in seiner zunehmenden Selbstbewusstwerdung das maßgebliche Moment in der »Weltgeschichte« (Hegel 1817/27/30, §§ 536, 548–549; Hegel 1821/33, §§ 259, 341–342). Seine Bewegung vollzieht sich im dialektischen Dreischritt von Ansich, Fürsich und An-und-für-sich, zudem in 137
II. Die Philosophie der Formal- und Geisteswissenschaften
den sukzessiven Errungenschaften einzelner Völker sowie in zwei wesentlichen Schichten: Zum einen findet sie auf der politischen Ebene des objektiven Geistes statt, der sich in den normativen Ordnungen Recht, Moralität und Sittlichkeit und damit insbesondere im Staat verwirklicht. Zum anderen geschieht sie auf der kultürlichen Ebene des absoluten Geistes, der seine reflexive Selbsterfassung in Kunst, Religion und Philosophie betreibt. Anders als bei Fichte oder Schelling darf diese Entwicklung dabei im Wesentlichen als abgeschlossen gelten, da der Geist gerade im Begriff und damit im Medium der Philosophie zu sich selbst gelangt, genauer in den dialektischen Begriffen der idealistischen Philosophie und damit innerhalb von Hegels eigenem System, statt diese Vollendung erst einer künftigen Vernunftkunst oder Offenbarungsreligion überlassen zu müssen (Hegel 1817/27/30, §§ 548–577; Hegel 1821/33, §§ 341–354; Hegel 1805–31, XIII 68–70; Hegel 1822–31, IX 3–98).
2.3 Nachhegelianische Geschichtsphilosophie Namentlich die Hegel’sche Geschichtsphilosophie wirkt erheblich im philosophischen Geschichtsdenken nach. Zwar kommt es mitunter zu spezifischen Verschiebungen, etwa indem die idealistische Perspektive durch materialistische Zugänge ersetzt wird oder indem das optimistische Fortschrittsmodell pessimistischen Verfallskonzepten weicht. Der leitende Grundgedanke, historisches Geschehen als eigengesetzliche Entwicklung einer allumfassenden Geschichtssubstanz zu begreifen, wird jedoch oftmals beibehalten. Solange Letzteres der Fall ist, werden die entsprechenden Geschichtsbilder berechtigt als Abkömmlinge bzw. Varianten Hegel’schen Geschichtsdenkens eingestuft. Das Schema einer Fortschrittsgeschichte lebt u. a. in Comtes positivistischem Geschichtsansatz fort, dem zufolge menschliche Kultur, Politik und Erkenntnis aufgrund soziologischer Gesetzmäßigkeiten die drei Zustände theologisch-fiktivmilitärischen, metaphysisch-abstrakt-juristischen sowie zuletzt wissenschaftlichpositiv-technischen Denkens und Handelns durchlaufen müssen (Comte 1822, §§ 25–27, 35–37, 52). Marx wendet den idealistischen Gedanken geistiger Entfaltung in ein materialistisches Konzept ökonomischer Entwicklung, wonach menschliche Gesellschaften notwendig verschiedene klassenbezogene Produktions- und Besitzverhältnisse durchschreiten und schließlich in eine kommunistische Gesellschaft münden (Marx 1845/46, 405–421; Marx 1848, 594–608). Noch im 20. Jahrhundert kommt es zu unmittelbaren Rückgriffen auf das Hegel’sche Fortschrittsmodell, nicht zuletzt bei jenen Autoren, die ein ›Ende der Geschichte‹ proklamieren. So pflichtet Kojève Hegel ausdrücklich darin bei, dass Napoleons Herrschaft den wesentlichen Abschluss aller historischen Entwicklung bedeutet habe (Kojève 1933–39, 36–38, 44–46, 67 f.). Auch Fukuyama beruft sich explizit auf Hegel, wenn er stattdessen die liberale Demokratie als Ende aller relevanten Geschichte ausruft (Fukuyama 1992, 11–26, 93–112, 183–188, 277–287). 138
Philosophie der Geschichtswissenschaft
Ebenfalls im 20. Jahrhundert wird das alternative Schema einer Verfallsgeschichte prominent. Spengler vertritt eine ›Morphologie der Weltgeschichte‹, der zufolge menschliche Kulturen eine grundsätzlich parallele, quasi organismische Entwicklung von Jugend über Reife bis Untergang durchlaufen (Spengler 1918/22). Ähnlich beschreibt Toynbee übereinstimmende Muster von Entstehung, Aufstieg und Verfall in unterschiedlichen Kulturen, wenngleich er dabei weniger von unausweichlichen Dynamiken ausgeht und eher offene Möglichkeiten der Bewältigung oder des Scheiterns angesichts von spezifischen Herausforderungen annimmt (Toynbee 1946). Horkheimer und Adorno invertieren das Hegel’sche Modell besonders nachdrücklich, indem sie namentlich der aufklärerischen Vernunft eine inhärente Niedergangsbewegung attestieren (Horkheimer, Adorno 1947). Gelegentliche Erscheinungen apokalyptischer Geschichtsvisionen ordnen sich ebenfalls diesem Schema ein (vgl. Briese 1995; Rehfus 1989; Vondung 1988). Freilich folgen bei weitem nicht alle Geschichtsphilosophen dem im weiteren Sinne Hegel’schen Paradigma: Einige Autoren lehnen den Gedanken, Geschichte lasse sich als notwendige Entfaltungsbewegung einer überindividuellen Geschichtssubstanz begreifen, nachdrücklich ab. Stattdessen verstehen sie Geschichte als Fortgang einzelner Völker und Kulturen, die in ihrer Eigenständigkeit und Vielgestaltigkeit anzuerkennen sind (Herder 1784/85; Litt 1956), oder als Werk und Schicksal einzelner Menschen, die vor dem totalitären Zugriff einer allumfassenden Vernunftperspektive bewahrt werden müssen (Burckhardt 1870/71; Marquard 1973/97; Popper 1945/79; 1950/92). Viele Autoren überschreiten in diesem Zusammenhang allerdings auch die spezifische Perspektive geschichtsphilosophischen Denkens selbst: Philosophische Kritik an substanzialistischen Geschichtsbildern gründet oftmals darin, dass jene Geschichtsbilder dem epistemologischen Status historischen Wissens oder den wissenschaftstheoretischen Standards professioneller Historie widersprechen. Somit sind es nicht selten bereits die Befunde einer Philosophie der Geschichtsschreibung bzw. einer Philosophie der Geschichtsforschung, die gegen den spekulativen Ansatz einer substanzialistischen Geschichtsphilosophie aufgeboten werden.
3 Philosophie der Geschichtsschreibung Philosophische Reflexionen historiographischer Darstellungen finden bereits in Antike, Mittelalter und früher Neuzeit statt. Üblicher Kontext ist dabei das klassische Trivium von Grammatik, Rhetorik und Dialektik, innerhalb dessen Geschichtsschreibung, gegenüber dem mathematisch-naturwissenschaftlichen Quadrivium, zu verorten ist. Vor diesem Hintergrund entstehen Klassifikationen der historischen Praxis, die etwa ihren Bezug zu Ethik oder Theologie klären, oder Typologien historischer Werke, die einzelne Gattungen wie ›Annalen‹, ›Chroniken‹ und ›Vitae‹ voneinander unterscheiden (vgl. Koselleck et al. 1975, 610– 139
II. Die Philosophie der Formal- und Geisteswissenschaften
624). Zudem wird das genaue Verhältnis zwischen historischer und fiktionaler Erzählung erörtert, indem man beispielsweise die ›Wahrheit‹ des Historischen der bloßen ›Wahrscheinlichkeit‹ des Poetischen gegenüberstellt oder aber die beschränkte ›Besonderheit‹ des Historischen mit der ›Allgemeinheit‹ des Poetischen kontrastiert (vgl. Zammito 2011, 65 f.). Bezugspunkt moderner Debatten zur Geschichtsschreibung, speziell ab dem 20. Jahrhundert, ist im weitesten Sinne die Erkenntnistheor ie, insofern es darum geht, historisches Denken und Wissen von alternativen Formen der Weltbetrachtung abzugrenzen. In diesem Zusammenhang ist insbesondere der Begriff der Erzählung von zentraler Bedeutung, wobei die Perspektiven, die sich an diesen Begriff anschließen, sehr unterschiedlich ausfallen: In postmodernen Diskursen geht es vor allem um eine kritische Entlarvung, dahingehend dass historische Darstellungen bloß Erzählungen seien, letztlich nicht mit höherem Wahrheitsanspruch als literarische Texte einhergingen und vorrangig der Stützung politischer Machtansprüche dienten. Linguistische Ansätze neigen zu einer neutraleren Haltung, der zufolge historische Darstellungen de facto Erzählungen seien, sich innerhalb der gleichen Kategorien wie literarische Werke bewegten und letztlich frei in der Wahl ihrer rhetorischen Mittel blieben. Narratologische Entwürfe schließlich wählen einen konstruktiven Zugang, insofern historische Darstellungen notwendig Erzählungen seien, eine wichtige Praxis neben dem literarischen Erzählen bildeten und als unentbehrlicher Weltzugang genauerer philosophischer Rechtfertigung bedürften. Gemeinsam ist diesen Ansätzen, dass sie Geschichte wieder nachdrücklich in den Plural setzen, da historische Erzählungen bevorzugt partikulare Ereignisfolgen erfassen (statt eine umfassende Universalgeschichte zu zeichnen) und zudem alternative Perspektiven auf das jeweilige Geschehen wählen können (statt auf ein bestimmtes Deutungsschema festgelegt zu sein). Philosophie der Geschichtsschreibung distanziert sich typischerweise von geschichtsphilosophischen Entwürfen insbesondere Hegel’schen Typs. Dies liegt vor allem daran, dass geschichtsphilosophische Zugänge, in ihrem charakteristischen Ausgriff auf eine umfassende Weltgeschichte, eben jene Konstitutionsbedingungen zu verletzen drohen, welche die Philosophie der Geschichtsschreibung, nicht zuletzt im Begriff der Erzählung, geltend macht. Zugleich erfasst Philosophie der Geschichtsschreibung selten die professionelle Geschichtsforschung. Dies liegt insbesondere daran, dass die von ihr markierten Strukturen für jegliches historisches Denken und Wissen gelten, laienhafte Kenntnisse nicht weniger als wissenschaftliche Befunde, so dass die besonderen Methoden und Theorien akademischer Historie kaum in ihr Blickfeld geraten.
140
Philosophie der Geschichtswissenschaft
3.1 Postmoderne Kritik an der großen Erzählung Das Verständnis von Geschichte als Erzählung ist nicht auf postmoderne Zugänge festgelegt. Tatsächlich ist die narrative Gestalt historischer Texte schon seit der Antike ein fester Topos in der Bestimmung des Historischen und wird auch gegenwärtig von vielen Autoren hervorgehoben, die keinerlei Nähe zu poststrukturalistischen Thesen aufweisen. Dessen ungeachtet stammt die wohl bekannteste Verknüpfung von Geschichtsdenken und Erzählstruktur aus der Post moderne. Namentlich Lyotards Rede vom Ende der ›großen Erzählung‹ hat nicht nur innerhalb der Philosophie, sondern auch innerhalb der Geschichtswissenschaften selbst großen Nachhall gefunden und gilt vielfach als Paradigma narrativer Geschichtsdeutungen. Lyotard zufolge werden Erkenntnisansprüche zuletzt immer durch Narrative legitimiert. Insbesondere das aufklärerische Fortschrittsdenken stützt sich auf eine »große Erzählung«, welche die gesamte Menschheitsgeschichte in einem einheitlichen Entfaltungsgeschehen zu erfassen sucht (Lyotard 1979, 13, 87–95, 101–105, 112). Unter den postmodernen Bedingungen einer Zerstreuung in unterschiedlichste Sprachspiele sei diese Perspektive indessen nicht mehr haltbar. Vielmehr sei sie durch geringerformatige Wissensgestalten sowie eine entsprechend »kleine Erzählung« zu ersetzen, wobei es auch hierbei stets um die Durchsetzung eigener Geltungsansprüche gehe und die Wahl zwischen den diesbezüglichen Alternativen letztlich beliebig sei (Lyotard 1979, 112–122, 175). Damit ist Lyotards Haltung gegenüber der Erzählung insgesamt eher skeptisch als affirmativ: Er sieht in ihr nicht eine notwendige Konstitutionsform historischen Wissens, sondern ein gezieltes Legitimationskonstrukt bestehender Geltungsansprüche. Entsprechend unterscheidet sich seine postmoderne Deutung grundlegend von narratologischen Ansätzen im engeren Sinne: Dort gilt Erzählung nicht als verräterisches Attribut beliebiger Sinnkonstrukte, sondern als das unhintergehbare Merkmal eines berechtigten Weltzugangs.
3.2 Linguistische Kategorien der historischen Erzählung Detailliertere Ausarbeitungen narrativer Strukturen sind seitens der Literatur theorie vorgelegt worden. Insbesondere White hat eine konzise Klassifikation historischer Erzählungen anhand von linguistischen Kategorien vorgeschlagen. Ihm zufolge stehen dem Historiker für seine Darstellung vier grundsätzliche Erzählweisen (›emplotments‹: Romanze, Satire, Komödie, Tragödie) mit zugehörigen rhetorischen Grundfiguren (›Tropen‹: Metapher, Ironie, Synekdoche, Metonymie) zur Verfügung. Diese sind jeweils affin zu bestimmten Arten historischer Argumentation (formativistische, kontextualistische, organizistische, mechanistische) sowie zu gewissen Typen politischer Ideologie (anarchistische, liberale, konservative, radikale) (White 1973, 9–18, 21–57). 141
II. Die Philosophie der Formal- und Geisteswissenschaften
Das entstandene Raster dient White zunächst zu einer beispielhaften Charakterisierung wichtiger Historiker und Geschichtsphilosophen aus dem 19. Jahrhundert. Es stellt für ihn zudem die formale Tiefenstruktur der historischen Einbildungskraft als solcher dar, liefert also ein übergreifendes Schema von Grundformen historischer Erkenntnis, mit denen Historiker ihr jeweiliges Feld präfigurieren und ihre Theorien zum geschichtlichen Geschehen entwickeln können (White 1973, 177–346). Was White nicht unternimmt, ist eine philosophische Verankerung jener narrativen Modi. Insbesondere können Fragen der Angemessenheit oder Unangemessenheit historischer Darstellungen, die über die vorgeordnete Frage faktischer Korrektheit hinausgehen, innerhalb seines Konzepts nicht beantwortet werden. Sein rein linguistischer Zugang bleibt darauf beschränkt, ein poetologisches Arsenal möglicher Erzählformen aufzulisten, aus dem sich der Historiker nach eigenem Gutdünken bedienen kann. Eine normative Perspektive, die bestimmte strukturelle Vorgaben für die historische Tätigkeit machen könnte, sei es in epistemologischer oder in ethischer Absicht, eröffnet sein Ansatz nicht.
3.3 Narratologische Fundierung der historischen Erzählung Dezidiert philosophische Betrachtungen zur Narrativität von Geschichte versuchen, dieses Defizit zu beheben. Sie wollen historisches Erzählen als eine besondere Strukturform menschlichen Denkens und Wissens ausweisen, so dass es ein sicheres Fundament innerhalb der menschlichen Erkenntnisformen erhält und in der Wahl seiner Mittel von postmoderner Beliebigkeit und linguistischer Unbestimmtheit befreit wird. Ricœur nähert sich der historischen Erzählung mit einem phänomenologischen Ansatz. Im Zentrum steht für ihn der Zusammenhang von Erzählung und Zeitlichkeit: Erzählen dient nach Ricœur wesentlich dazu, auf die Spannung von subjektiver (psychologischer, phänomenologischer) und objektiver (physikalischer, kosmologischer) Zeit im menschlichen Zeiterleben zu reagieren und beide Zeitdimensionen in einer erzählten Zeit miteinander zu vermitteln (Ricœur 1983/84/85, Bd. 1, 13; Bd. 3, 7–9, 131, 156 f., 159, 392; Ricœur 1987, 233, 237). In dieser Funk tion sind nicht zuletzt historische und literarische Erzählung eng miteinander verbunden, wobei ihr Verhältnis genauer als eine »gekreuzte[] Referenz von Geschichte und Fiktion« zu verstehen ist: Beide Erzählformen nehmen wechselseitige Anleihen vor, indem einerseits die Historie zur Aktualisierung der Vergangenheit auf die Kraft der Phantasie zurückgreift, andererseits die Fiktion ihre Geschichten im Modus des Nachahmens von Wirklichkeit vorträgt. In diesem Sinne wohnt der Historie ein quasi-fiktives Moment der Anschaulichkeit, der Fiktion ein quasi-historisches Moment des Als-ob inne, woraus nach Ricœur gerade die menschliche Zeit, eben als erzählte Zeit in ihrer Vermittlung von subjektiver 142
Philosophie der Geschichtswissenschaft
und objektiver Zeit, entspringt (Ricœur 1983/84/85, Bd. 3, 10 f., 159–163, 294–311, 394; Ricœur 1987, 237–239). Danto befasst sich aus Sicht der analytischen Philosophie mit der Gestalt historischer Sprache. Ihm zufolge gehorchen historische Aussagen dem Schema »erzählender Sätze«: Sie schildern ein früheres Ereignis E aus der Perspektive eines späteren Ereignisses E, wobei beide Ereignisse in der Vergangenheit des Historikers liegen und E von E her seine spezifische Bedeutung gewinnt (Danto 1965, 232, 246, 257, 265). Dieses einfache Grundmodell dient Danto dazu, die besondere Verfasstheit historischen Wissens zu erläutern: Anders als etwa psychologisches oder soziologisches Wissen, welches das Auftreten eines Ereignisses vor allem kausal aus seiner Vergangenheit heraus zu begründen sucht, ist historisches Wissen ein Wissen um die Bedeutung, die einem Ereignis allein retrospektiv im Lichte seiner Zukunft zukommt. Während also ein Zeitzeuge womöglich bessere Informationen über die rein faktischen Aspekte von E hat, bleibt er hinsichtlich der eigentlich historischen Dimension von E notwendig blind (Danto 1965, 23 f., 27 f., 244–247, 272, 294, 315, 464 f.). Baumgartner geht es um eine transzendentalphilosophische Verortung historischen Wissens innerhalb der menschlichen Erkenntnis. Ausgangspunkt ist der Gedanke, dass sich Geschichte nicht in den Ereignissen der Vergangenheit selbst, sondern erst im Erzählen jener Ereignisse konstituiert: Historisches Wissen entsteht nach Baumgartner allein durch die narrative Gestaltung realer Vorkommnisse, womit die Erzählung transzendental-konstitutive Bedeutung für die Historie gewinnt (Baumgartner 1972/97, 211 f., 249, 295; Baumgartner 1975, 48, 56 f.; Baumgartner 1979a, 267 f.). Indessen gehören historische Erzählungen nicht zu den notwendigen Gegenstandsbezügen endlicher Vernunftwesen: Anders als Erscheinungen und Erfahrungen sind geschichtliche Zusammenhänge nicht Objekte der Wahrnehmungswelt, anders als Sinnlichkeit und Verstand zählt historisches Denken nicht zu den Konstitutionsbedingungen des Selbstbewusstseins. Obgleich also Erzählung eine konstitutive Bedingung historischen Wissens ist, hat sie keinen konstitutiven Status innerhalb der menschlichen Erkenntnis, wie eine Anschauungsform oder eine Kategorie, womit sich der durch sie gestiftete Zusammenhang historischen Wissens allein als regulative Idee im kantischen Sinne, d. h. als »narrative Konstruktion in praktischer Absicht« erweist (Baumgartner 1972/97, 11–14, 63–65, 119, 140, 156, 197, 212–214, 220 f., 248–250, 267–269, 320 f., 323 f.).
4 Philosophie der Geschichtsforschung Ob man in Antike, Mittelalter und früher Neuzeit von Geschichtsforschung im Sinne einer wissenschaftlichen Tätigkeit sprechen kann, ist fragwürdig. Geschichtsschreibung erscheint in jenen Phasen vorrangig als Beschäftigung gebildeter Autoren, die sich durch umfassende Kenntnisse und rhetorisches Talent 143
II. Die Philosophie der Formal- und Geisteswissenschaften
auszeichnen, nicht so sehr als Wissenschaft im engeren Verständnis, die durch besondere Standards epistemischer Art gekennzeichnet wäre. Die Hauptgestalten der antiken Geschichtsschreibung, Herodot, Thukydides, Polybios, Sallust, Livius oder Tacitus, werden vor allem für Detailtreue und Erzählkraft, teilweise auch für Gewissenhaftigkeit und Unparteilichkeit geschätzt, ohne dass sie hierdurch in die Nähe von Forschergestalten wie Pythagoras, Thales oder Archimedes rücken bzw. ihre Werke als Fälle von epistēmē bzw. scientia angesehen würden. Wenn Philosophen zur Geschichte arbeiten, wie Cicero oder Augustinus, später Hobbes oder Hume, so wird dies ebenfalls eng auf ihren grundsätzlichen Status als versierte Schriftsteller bezogen, nicht aber als zusätzliches Engagement in einer externen Wissenschaft angesehen, wie es bei den mathematischen bzw. naturwissenschaftlichen Studien von Aristoteles, Descartes, Pascal oder Leibniz geschieht. Was sie betreiben, ist Geschichtsschreibung, teilweise auch Geschichtsphilosophie. Es ist keine Geschichtsforschung im eigentlichen Sinne und schon gar keine Philosophie der Geschichtsforschung. Erst im frühen 19. Jahrhundert kommt es zu einer ernsthaften Professionalisierung der historischen Tätigkeit. Namentlich die durch Ranke begründete deutsche Historikerschule trägt wesentlich dazu bei, dass sich Geschichtsforschung als Wissenschaft mit eigenen methodischen und theoretischen Standards etabliert. Hierzu gehören vor allem kritisches Quellenstudium, neutrale Objektivität, akribische Nutzung einschlägiger Archive sowie dokumentarische Strenge gegenüber dem historisch Partikularen. Erst vor diesem Hintergrund einer autonomen Geschichtswissenschaft kann auch eine eigentliche Philosophie der Geschichtsforschung entstehen. Für jene Philosophie der Geschichtsforschung bleibt Philosophie der Geschichte weitgehend irrelevant. Oftmals erscheint sie sogar als Gegenentwurf, welcher der eigenen Untersuchung akademischer Geschichtswissenschaft zuwiderläuft. Diese Spannung ist insofern vorgeprägt, als die im 19. Jahrhundert entstehende professionelle Geschichtsforschung sich selbst gerade in Abgrenzung von philosophischen Geschichtsauffassungen namentlich Hegel’schen Typs definiert. Leopold von Rankes berühmtes Diktum, mit seiner Arbeit weder die »Vergangenheit […] richten« noch die »Mitwelt […] belehren«, sondern »blos zeigen« zu wollen, wie »es eigentlich gewesen«, schlägt zwar äußerlich den Ton der Bescheidenheit an, artikuliert tatsächlich aber das Selbstbewusstsein einer neuen und unabhängigen Disziplin, die sich von philosophischen Bevormundungen emanzipiert und gegenüber der idealistischen Vorgabe, historische Ereignisse unter das spekulative Schema einer umfassenden Vernunftentfaltung fassen zu sollen, ihre autonomen wissenschaftlichen Maßstäbe formuliert (Ranke 1824/74, VII). Philosophie der Geschichtsforschung bildet allerdings auch vergleichsweise wenige Berührungspunkte zur Philosophie der Geschichtsschreibung aus. Dies ist insofern überraschend, als sich professionelle Geschichtsforschung, und damit auch ihre wissenschaftstheoretische Reflexion, den epistemologischen Standards fügen muss, die für jegliche Geschichtsschreibung, gleich ob von Laien oder von 144
Philosophie der Geschichtswissenschaft
Historikern ausgeübt, gültig sind. Dennoch zieht Philosophie der Geschichtsforschung es häufig vor, ihre wissenschaftstheoretischen Überlegungen unabhängig von Konstitutionsfragen historischen Wissens zu entwickeln. Hierfür ist insbesondere der Umstand verantwortlich, dass das in der Philosophie der Geschichtsschreibung hervorgehobene Konzept der Narrativität oftmals als Bedrohung wissenschaftlicher Objektivität wahrgenommen wird.
4.1 Individualisierung und Verstehen Philosophie der Geschichtsforschung entsteht in der zweiten Hälfte des 19. Jahrhunderts, vor allem in Neukantianismus und Hermeneutik. Dies geschieht im Zuge einer umfassenden wissenschaftstheoretischen Reflexion der ›Geistes-‹, ›Kultur-‹ bzw. ›Humanwissenschaften‹ insgesamt, die sich seit Beginn des 19. Jahrhunderts zu formieren beginnen und deren spezifische Merkmale gegenüber den Naturwissenschaften man zu bestimmen sucht. Als wesentlicher Charakterzug jener Geisteswissenschaften wird dabei gerade ihre historische Sichtweise eingeschätzt. Die geschichtswissenschaftliche Perspektive wird somit zum wissenschaftstheoretischen Paradigma der Geisteswissenschaften überhaupt, Philosophie der Geschichtsforschung setzt ein als übergreifende Philosophie der historischen Geisteswissenschaften. Neukantianismus und Hermeneutik heben vor allem zwei Merkmale hervor, durch welche sich jene geschichtswissenschaftliche Perspektive auszeichnen soll. Beide Merkmale sind grundsätzlich trennbar, werden aber typischerweise miteinander kombiniert. Insbesondere sind sie bis heute relevant, um die historischen Geisteswissenschaften (humanities) von den empirischen Naturwissenschaften (natural sciences) abzuheben. Wo Wissenschaften diese Merkmale vermissen lassen, sich aber dennoch mit psychischen oder sozialen Gegenständen befassen, werden sie folgerichtig als sciences, genauer als social sciences eingestuft. Der Neukantianismus gründet seine Unterscheidung darauf, dass die naturwissenschaftlichen Disziplinen »nomothetisch«, die historischen Disziplinen »idiographisch« verfahren (Windelband 1894, 145, 158) bzw. dass die Naturwissenschaften »generalisierend«, die Kulturwissenschaften »individualisierend« vorgehen (Rickert 1898/1926, 8, 12, 125): Während im ersteren Fall aus einzelnen Vorgängen allgemeine Gesetze abgeleitet werden bzw. das einzelne Geschehnis unter eine allgemeine Regularität subsumiert wird, soll im letzteren Fall jenes Einzelne in seiner spezifischen Besonderheit und unverwechselbaren Einmaligkeit zur Darstellung gebracht werden (Windelband 1894, 142–146, 149 f.; Rickert 1898/1926, 32, 58–83). Dies bedeutet nicht, dass allein Individuen im Sinne von Einzelpersonen als Geschichtsgegenstände zugelassen wären. Vielmehr kommen auch Personengruppen, Strukturen oder Ideen als historische Objekte in Frage. Wichtig ist aber, dass auch diese dabei als Individuen, d. h. in ihrer historischen Einmaligkeit betrachtet werden. Sie werden nicht als Hinweise auf allgemeine 145
II. Die Philosophie der Formal- und Geisteswissenschaften
Gesetzmäßigkeiten oder als Beispiele wiederkehrender Muster angeführt, sondern als eigenständige Erscheinungen in ihrer jeweiligen Unterschiedenheit thematisiert. Die Hermeneutik stützt ihre Differenzierung darauf, dass die physikalische Methode »erklären«, die historische Methode »verstehen« will (Droysen 1857/82, 423 f.) bzw. dass die Naturwissenschaften »erklären«, die Geisteswissenschaften »verstehen« wollen (Dilthey 1894, 143 f.): Während im ersteren Fall gegebene Ereignisse als notwendige Erscheinungen aufgrund früherer Geschehnisse und entsprechender Gesetze begriffen werden, sollen sie im letzteren Fall als innere Vorgänge in ihrem erlebnishaften Charakter zugänglich gemacht werden (Droysen 1857/82, 423–425, 431–435; Dilthey 1907–10, 81–86, 205–213). Die Terminologie weicht gelegentlich ab, insofern auch bei naturwissenschaftlichen Untersuchungen zuweilen zwanglos von ›Verstehen‹ die Rede ist, dann jedoch im Sinne der Einsicht in eine Gesetzhaftigkeit, nicht der Teilhabe an einer Erlebnishaftigkeit. Umgekehrt wird bei historischen Betrachtungen durchaus von ›Erklären‹ gesprochen, allerdings typischerweise mit Zusätzen wie ›rationale‹ oder ›intentionale‹ Erklärung, im Gegensatz zu ›kausalen‹ oder ›nomologischen‹ Erklärungen. In jedem Fall kommen für jenen historischen Zugang nur Gegenstände in Frage, die Sinn vermitteln oder Bedeutung tragen, d. h. intentionale Wesen (Personen oder Gruppen, mit ihren Gründen, Zielen, Absichten, Handlungen) oder semantische Gebilde (Kulturvorgänge oder Kulturprodukte, auch Strukturen oder Ideen, mit ihren Sinngehalten und ihrem Interpretationsbedarf). Objekte ohne derartigen Bezug fallen demgegenüber aus dem Bereich der so definierten historischen Wissenschaften heraus (beispielsweise eine Geschichte des Kosmos, der Erde, der Natur oder der Arten). Dass Individualisierung und Verstehen die spezifischen Merkmale der historischen Geisteswissenschaften gegenüber den naturwissenschaftlichen Disziplinen darstellen sollen, ist nicht unwidersprochen geblieben. Insbesondere Logischer Empirismus (Hempel 1942, 35–48) und Kritischer Rationalismus (Popper 1945/79, 112–119) haben stattdessen auf einer Einheit von Methodenrepertoires und Theor ietypen in beiden Zweigen bestanden und in diesem Sinne die Bedeutung allgemeiner Gesetze sowie wissenschaftlicher Erklärungen auch für die Geschichtswissenschaft hervorgehoben (covering law model). Die meisten Autoren befürworten indessen eine systematische Trennung von naturwissenschaftlichen Disziplinen und historischen Geisteswissenschaften und folgen dabei im Wesentlichen den Vorschlägen von Neukantianismus und Hermeneutik. Als Thema der Geschichtswissenschaft sehen sie menschliche Gedanken und Handlungen an, die als solche nicht unter das Schema allgemeiner Gesetze zu bringen sind, sondern in einer hermeneutischen Haltung kritischen Nachvollzugs erfasst werden müssen (re-enactment) (Collingwood 1946, 221–228, 239 f., 294–329), historische Erklärungen konzipieren sie nicht als nomologische Subsumtionen unter empirische Gesetze, sondern als rationale Rekonstruktionen entlang praktischer Gründe (rational explanation) (Dray 1957, 1–21, 118–155). 146
Philosophie der Geschichtswissenschaft
Das Bekenntnis zu diesen Unterscheidungen ist unter den klassischen Theoretikern der Geschichtsforschung durchweg stark (Croce 1916, 32 f., 48–51, 103, 262–265; Gallie 1964/68, 1–9, 22–71, 105–125; Marrou 1954, 115–143; Mink 1987, 48–54, 125–132; Oakeshott 1933, 106, 124, 127 f.; von Wright 1971, 1–33, 132–143, 153–156, 160–166). Gelegentlich kommt es zu gewissen Einschränkungen oder Richtigstellungen, aber dem Grundsatz nach wird die skizzierte Differenzierung beibehalten (Gardiner 1952, 28–64; Walsh 1951/67, 30–71). In der Tat scheinen mit Individualisierung und Verstehen zwei Aspekte benannt zu sein, die für eine trennscharfe Bestimmung der historischen Geisteswissenschaften von bleibender Bedeutung sind. Insbesondere dürften sie unentbehrlich sein, um zwischen geschichtswissenschaftlicher Tätigkeit einerseits und anderen wissenschaftlichen Betrachtungen der Vergangenheit andererseits zu unterscheiden: Wo es primär darum geht, vergangene Geschehnisse auf allgemeine Gesetzmäßigkeiten zurückzuführen, sie zu klassifizieren, zu vergleichen oder kausale Erklärungen für sie zu liefern, bleibt unklar, inwiefern von einer spezifisch historischen Perspektive zu sprechen ist, statt etwa allein von einem psychologischen bzw. soziologischen Zugriff auf das Vergangene. Individualisierung und Verstehen bleiben daher attraktive Konzepte, um den spezifisch historischen Blickwinkel gegenüber anderen wissenschaftlichen Betrachtungen vergangener Ereignisse, etwa psychologischer oder soziologischer Art, zu akzentuieren. Ungeachtet dessen muss eine genauere Erörterung der Geschichtswissenschaft über diese Aspekte hinausgehen und sich detaillierter mit spezifisch historischen Methoden und Theorien auseinandersetzen. Entsprechende Untersuchungen betreffen vor allem die Erhebung historischer Fakten sowie die Erstellung historischer Interpretationen. Die Konzepte der Individualisierung und des Verstehens bleiben dabei jederzeit virulent: Historische Fakten sind einzelne, unwiederholbare Ereignisse, historische Interpretationen bedürfen hermeneutischer, sinnerschließender Zugänge.
4.2 Historische Fakten Ein grundsätzliches Problem historischer Forschung liegt darin, ob und wie sich überhaupt aus vorliegenden Befunden verlässliche Aussagen über vergangene Fakten gewinnen lassen. Die entsprechenden Standards variieren je nach der herangezogenen Quelle, wobei sich im ersten Zugriff zwei Arten solcher Quellen unterscheiden lassen: Die erste Gruppe umfasst direkte Zeugnisse, d. h. solche, die von ihren Urhebern gezielt als Mitteilungen an die Nachwelt hervorgebracht wurden (mündliche Berichte noch lebender Augenzeugen, schriftliche Aufzeichnungen damals lebender Zeitzeugen, Traditionswissen, Archivbestände etc.). Die zweite Gruppe enthält indirekte Zeugnisse, d. h. Objekte des jeweiligen Gegenwartsgebrauchs, die sich bis in die heutige Zeit erhalten haben und Rückschlüsse auf die Vergangenheit erlauben (staatliche Verzeichnisse, kirchliche Register, 147
II. Die Philosophie der Formal- und Geisteswissenschaften
ökonomische Aufstellungen, juristische Dokumente, statistische Erhebungen, private Korrespondenz, Gebäude, Infrastruktur, Gebrauchsgegenstände, Grabmäler, bis hin zu biologischen Überresten oder geologischen Spuren). Für jede dieser Gruppen gibt es professionelle Standards, wie die entsprechenden Quellen zu erschließen und auszuwerten sind. Dabei werden zuweilen technische Hilfsmittel aus anderen Wissenschaften hinzugezogen (Röntgen-, Infrarot-, DNA-, Radiocarbon-Analysen etc.). Gelegentlich entstehen eigene Disziplinen, deren Status als Teile der Geschichtswissenschaft oder aber als Zwischenformen von Geschichtswissenschaft und anderen Wissenschaftsfeldern unterschiedlich beurteilt werden kann (etwa Evolutionsbiologie, Paläontologie, Geologie oder Archäologie). Die Details dieser Standards sind in der Regel von keinem größeren philosophischen Interesse. Wo sich Philosophie der Geschichtsforschung mit der Faktenerhebung im Historischen befasst, geht es meist um die grundsätzlichere Frage, was historische Rechtfertigung oder Begründung in den genannten Zusammenhängen überhaupt bedeuten und leisten kann. Auf den ersten Blick ähnelt die historische Problemstellung dabei der grundlegenden Situation jeder empirischen Wissenschaft, etwa auch der Physik oder der Biologie: Erstens lässt sich der fragliche Gegenstand (hier das vergangene Geschehen in seiner zeitlichen Unzugänglichkeit, dort die naturwissenschaftliche Gesetzmäßigkeit oder die theoretische Größe) nicht unmittelbar beobachten, sondern muss aufgrund gegebener Befunde indirekt erschlossen werden. Diese Art des Zugangs lässt per se keine absolute Sicherheit zu (Problem der Unter bestimmtheit von Theor ien durch Beobachtungen). Zweitens sind die angestellten Beobachtungen ihrerseits nicht unabhängig von der vorausgesetzten Theor ie, sondern werden durch sie mitgeprägt (aufgrund von Denkkategorien, Begriffsbildung, Klassifikationen, Framing). Folglich können sie nicht ohne Abstriche zur neutralen Bewährung oder Widerlegung jener Theor ie herangezogen werden (Problem der Theor iebeladenheit von Beobachtungen). Vor diesem Hintergrund widmen sich einige Autoren dem Versuch, historische Wissenschaft im üblichen Begriffsrahmen von Evidenz, Inferenz, Bestätigung, Verifikation bzw. Falsifikation zu erfassen. Beispielsweise wird historische Forschung als bayesianistische Anpassung von Hypothesen-Wahrscheinlichkeiten oder als Schluss auf die beste Erklärung rekonstruiert (Tucker 2004, 92–140). Bei genauerem Hinsehen zeigen sich indessen einige Besonderheiten, die speziell historische Befunde gegenüber allgemein empirischen Daten aufweisen, etwa auch in Psychologie oder Soziologie: Erstens lassen bestimmte historische Quellen (Dokumente, Berichte) Fragen nach ihrer Verlässlichkeit entstehen, die sich in anderen Wissenschaften nicht in dieser Form stellen. So geht es bei ihnen u. a. um Authentizität oder Wahrhaftigkeit, die bei Labordaten in der Regel kein Thema sind (Experimente können fehlschlagen oder irreführen, aber üblicherweise nicht unecht sein oder lügen). Zweitens lassen sich historische Ereignisse nicht zwecks empirischer Prüfung wiederholen (anders als grundsätzliche Kausalverläufe etwa in Psychologie oder Soziologie, die experimentelle Wiederholung 148
Philosophie der Geschichtswissenschaft
erlauben). Selbst wenn man glaubt, dass bestimmte Muster im geschichtlichen Verlauf wiederkehren, ist man nicht imstande, ein historisches Ereignis als solches in seiner zeitlichen Situierung erneut ablaufen zu lassen (man kann womöglich eine weitere Revolution in Gang setzen, aber nicht die Oktoberrevolution von Neuem starten). Die sich hieraus ergebenden Probleme können nicht mehr vollumfänglich mit dem vertrauten Vokabular empirischer Hypothesenprüfung erfasst werden. Entsprechend vergleichen einige Autoren Geschichtswissenschaft nicht so sehr mit der Testung von Hypothesen im Labor, sondern eher mit Indizienerhebung und Zeugenbefragung vor Gericht (Kosso 2011, 15–20). Auf diese Weise unterscheidet sich Geschichtsforschung bereits auf der Ebene der historischen Faktenerhebung von anderen empirischen Wissenschaften, die mit ihren Methodenrepertoires gleichfalls von einer begrenzten Informationsbasis auf unbeobachtbare Größen schließen müssen. Noch deutlicher werden diese Differenzen mit Blick auf die historische Konstruktion, die an jenen Fakten ansetzt und sie erst zu einem im eigentlichen Sinne historischen Bild der Vergangenheit zusammenfügt.
4.3 Historische Interpretationen Geschichtsforschung findet ihren Abschluss nicht schon in der Auflistung vergangener Ereignisse, sondern erst in der Vorlage einer historischen Interpretation. Sie muss ein gehaltvolles Bild der Vergangenheit zeichnen, sie muss das spezifische Sinngefüge einer Epoche erschließen, das sich aus dem Zusammenspiel historischer Ereignisse ergibt und umgekehrt jenen Ereignissen ihre historische Bedeutung zuweist. Eine solche Interpretation ergibt sich nicht von allein aus den erhobenen Fakten, sondern geht stets auf eine konstruktive Tätigkeit seitens des Historikers zurück: Er muss entscheiden, welche Geschehnisse er überhaupt in seinen Bericht aufnehmen will (›selection‹) und in welcher Weise er jene Geschehnisse miteinander verbinden will (›colligation‹). Er muss wählen, welche Zeitstellen seine Darstellung begrenzen sollen (Bestimmung von Anfang und Ende) und welche Verknüpfungen innerhalb jener Ereignisfolge herausgearbeitet werden sollen (bloße temporale Sukzessionen, genauere inhaltliche Bezüge, etwaige kausale Zusammenhänge, mögliche rationale Schemata). Er muss festlegen, welche Begriffe und Klassifikationen er heranzieht (bezeichnet er ein Ereignis als Revolution oder als Aufstand?) und welche Perspektiven und Standpunkte er dabei zur Geltung bringt (aus Sicht welcher Partei schildert er ein Ereignis?). Dieser konstruktive Charakter historischer Darstellungen sowie die entstehenden Wahlmöglichkeiten für den jeweiligen Historiker haben in der jüngeren Vergangenheit vor allem zu drei Effekten innerhalb der Geschichtsforschung geführt: Erstens ist es gelegentlich zu starken Umorientierungen gekommen, was den inhaltlichen Fokus und die zugehörigen konzeptuellen Schwerpunkte angeht, neben 149
II. Die Philosophie der Formal- und Geisteswissenschaften
cultural turn, material turn, spatial turn und iconic turn etwa auch ein ecological turn (de Vries/Goudsblom 2002; Fagan 2004), die Konzentration auf langfristige Transformationen sozialer Strukturen in der longue durée der Annales-Schule (Bloch/Braudel/Febvre et al. 1977) oder die kürzliche Renaissance weltgeschichtlicher Betrachtungen in der world history, global history, macro-history bzw. big history (Bayly 2004; Christian 2004; Manning 2003; Osterhammel 2009). Zweitens wurde spezifische Kritik an hergebrachten Darstellungsmustern geübt, indem etwa feministische und postkoloniale Geschichtsforschung an geschlechterspezifischen oder eurozentrischen Darstellungsformen Anstoß genommen und entsprechende Korrekturen hin zu einer genderneutralen bzw. transnationalen Geschichtsforschung angemahnt haben (Bennett 2006; Chakrabarty 2007; Lerner 1979; Said 1978/2003; Smith 2000; Spivak 1999; Spongberg 2002). Drittens ist es zu einer generellen Infragestellung historischer Objektivität gekommen, insofern poststrukturalistische Strömungen die unauflösliche Beliebigkeit historischer Konstruktionen behauptet und damit eine umfassende Legitimationskrise der professionellen Geschichtsforschung ausgelöst haben (Berkhofer 1995; Brown 2013; Jenkins 1991/2003; 1999). Der Problemkreis historischer Interpretationserstellung bildet somit ein weiteres Charakteristikum von Geschichtsforschung gegenüber anderen empirischen Wissenschaften, deren Theor iebildung nicht auf die Anfertigung von Sinnkon strukten ausgerichtet ist. Ob und wie solche Konstruktionen zu rechtfertigen bzw. welche Konstruktionen zu bevorzugen sind, markiert dabei eine schwerwiegende Frage, die über das Feld der Wissenschaftstheor ie im engeren Sinne hinausweist und in die Bereiche der Ethik und der politischen Philosophie hinüberleitet.
5 Aktuelle Themen und künftige Herausforderungen 5.1 Aktuelle Fragen Alle drei skizzierten Formen philosophischer Geschichtsbetrachtung sind bis heute für die Philosophie der Geschichtswissenschaft relevant. Insbesondere gehören in ihr Gesichtsfeld unverändert ontologische Fragen nach Wesen und Beschaffenheit der Geschichte, epistemologische Aspekte historischen Wissens und Denkens sowie wissenschaftstheoretische Probleme professioneller Geschichtsforschung. Philosophie der Geschichte befasst sich nach wie vor mit der grundsätzlichen Frage nach Träger und Prozessform der Geschichte, wobei als wesentliche Kandi daten Individuen mit ihren Handlungen (Personen), Kollektive mit ihren Interaktionen (Gruppen, Organisationen, Nationen, Staaten, Zivilisationen, Gesellschaften), soziale Strukturen mit ihren inhärenten Transformationen (Klassen, Schichten, Systeme, Institutionen) oder abstrakte Ideen in ihrer eigenlogischen Entfaltung (etwa politischer, weltanschaulicher, wissenschaftlicher, religiöser, 150
Philosophie der Geschichtswissenschaft
künstlerischer oder philosophischer Art) zur Debatte stehen (Grinin 2010; Little 2010; Pomper 1996). Eng hiermit zusammenhängend werden Größenordnung und Gestalt historischer Ereignisse bzw. Prozesse diskutiert. Zum einen geht es um die Frage der Skala, insbesondere im Spektrum von Mikro- und Makro-Geschichte (in temporalem wie in regionalem Sinne, d. h. von punktuellen Geschehnissen bis zur longue durée der Annales-Schule, von lokalen Begebenheiten bis zur weltumspannenden Perspektive der world history). Hier sind namentlich Fragen der Individuierung und Klassifikation, der Persistenz und Kontinuität historischer Gegenstände zu klären (Little 2010). Zum anderen geht es um die Optionen, Geschichte entweder als Ergebnis freier Handlungen, als Resultat verantwortlicher Entscheidungen, oder aber als kausalen Prozess, möglicherweise als vorherbestimmtes Geschehen, anzusehen. Hier werden das grundsätzliche Verhältnis von Notwendigkeit und Freiheit in der Geschichte (Baumgartner 1979b; Baumgartner 1987; Berlin 1969), Typen historischer Kausalität (Brien 2013; Froeyman 2009), der Sinn historischer Counterfactuals (de Mey/Weber 2003; Demandt 1984; Kaye 2010; Lebow 2010; Nolan 2013; Reiss 2009; Rosenfeld 2002) oder die Gestalt historischer Gesetzmäßigkeiten (Adcock 2007; Beatty/Carrera 2011; Berry 1999; Leuridan/Froeyman 2012; Reisch 1991) erörtert. Eine jüngere Diskussionslinie betrifft die Frage nach Realismus oder Antirealismus bzgl. der Vergangenheit. Dabei geht es nicht allein um die narratologische Auffassung, dass vergangene Ereignisse wechselnde historische Bedeutungen im Lichte künftiger Ereignisse annehmen können, sondern um die metaphysische Frage, ob vergangenen Ereignissen überhaupt eine eigenständige Existenz und Beschaffenheit unabhängig von menschlicher Betrachtung und Beschreibung zugesprochen werden kann (Goldstein 1976; 1996; Hacking 1995; Roth 2002; 2012). Andere Autoren erörtern Geschichtlichkeit als Grunddimension menschlicher Existenz. Im Anschluss an phänomenologische und hermeneutische Traditionen versuchen sie, Historizität als einen speziellen Modus weltbezogenen Daseins zu erfassen (Carr 1974/2009; 1986). Schließlich gibt es unverändert Ansätze, bestimmte kulturelle, soziale, politische, religiöse, technische oder ökonomische Entwicklungen in einen umfassenden historischen Kontext zu stellen. Sofern hierbei notwendige kulturelle Konfrontationen (Huntington 1996), wiederkehrende politische Verschiebungen (Kennedy 1987) oder fortdauernde wissenschaftliche, technische bzw. wirtschaftliche Fortschritte (Rohbeck 2000) postuliert werden, ist neben einschlägigen einzelwissenschaftlichen Perspektiven auch ein dezidiert geschichtsphilosophischer Impetus spürbar. Philosophie der Geschichtsschreibung versucht, verschiedene Formen des individuellen und kollektiven Vergangenheitszugriffs zu identifizieren und ihre jeweilige Bedeutung für das historische Denken und Wissen zu bestimmen. Die Narrativität historischer Arbeiten, das Typenspektrum historischer Erzählungen, ihre Beziehung zu literarischen Ausdrucksformen sowie ihre Beschaffenheit aus linguistischer Perspektive gehören dabei nach wie vor zu den zentralen Forschungsthemen (Ankersmit 2001; Mink 1987; Rüsen 2001; 2005). Zudem wer151
II. Die Philosophie der Formal- und Geisteswissenschaften
den spezifische Erkenntnisformen und -inhalte erörtert, die eng mit der historischen Erfassung vergangener Ereignisse zusammenhängen. Es geht um Typen historischer Zeiterfahrung und -strukturierung (Blum 2014; Corfield 2007; Dux 1989; Koselleck 1979; 2000), um persönliche und soziale Vergangenheitszugänge wie Erfahrung, Erinnerung, Zeugnis oder Gedenken (Ankersmit 1996; 2005; Assmann 2006; Assmann 1992/2007; Bevernage 2012; Clift 2014; Nora 1984–92; Proust 1994; Tamm 2013), um die identitätsstiftende Funktion historischer Betrachtungen (Angehrn 1985), um metaphorische Zugänge zur Geschichte (Demandt 1978), um das Verhältnis zwischen Geschichte und Mythos (Angehrn 1996; Heehs 1994) oder um die historische Relevanz psychoanalytischer Kategorien wie Trauma oder Verdrängung (Gay 1985; LaCapra 1994; 2001; Straub/Jüsen 2011). Zudem wird die grundsätzliche Gestalt untersucht, die vergangene Ereignisse in historischer Perspektive annehmen. Ungeachtet der ontologischen Beschaffenheit des Geschehens selbst kann die historische Erzählung ihren Gegenstand unterschiedlich rekonstruieren, was nicht zuletzt Fragen nach der Verortung historischen Denkens im Spektrum von theoretischer und praktischer Vernunft nach sich zieht. So wird auf der einen Seite dafürgehalten, dass der historische Zugriff sich gerade dadurch auszeichne, vergangenes Geschehen als kontingentes Widerfahrnis statt als intentionales Handeln darzustellen. Die historische Konstruktion sei demzufolge auf die Perspektive der Schicksalhaftigkeit festgelegt, aus der sie die Individualität ihres Gegenstands herleite, nicht der Verantwortlichkeit, die eine ethische Beurteilung jenes Gegenstands zuließe (Lübbe 1977). Auf der anderen Seite wird betont, dass gerade das historische Denken vergangenes Geschehen sehr wohl unter dem Paradigma der Handlung betrachte, indem es Handlungen im Lichte ihrer Folgen präsentiere. Das Ungeplante erscheine dabei als ein Element der Tragik, welches die ethische Valenz keineswegs aufhebe, sondern lediglich die spezielle Perspektive einer askriptiven Ethik, neben der üblichen präskriptiven oder retributiven Ethik, zur Geltung bringe (Hübner 2001; Hübner 2004; Hübner 2007). Philosophie der Geschichtsforschung bemüht sich um eine wissenschaftstheo retische Erfassung von Methoden und Theor ien der historischen Disziplinen. Hierbei geht es vor allem um eine deskriptive wie normative Reflexion historischer Faktenerhebung und Interpretationserstellung. Ein wesentliches Thema ist unverändert die genaue Bestimmung historischer Erklärungen im klassischen Spektrum von nomologischem Erklären und hermeneutischem Verstehen (Bevir/Stueber 2011; Hammer 2008; Jakob 2008; Kaiser et al. 2014; Murphey 1986; Northcott 2008; Roth 2008; Stueber 2002; Van Bouwel/Weber 2008). Damit zusammenhängend steht das Verhältnis der Geschichtswissenschaft zu anderen Disziplinen auf dem Prüfstand, namentlich zu Psychologie und Soziologie (Kincaid 2011; MacDonald/MacDonald 2011). Gelegentliche Bestrebungen, Geschichtsforschung gänzlich auf andere Wissenschaften zurückzuführen, etwa auf die quantitative bzw. statistische Sozialwissenschaft wie in der Social Science History, erscheinen dabei wenig zufriedenstel152
Philosophie der Geschichtswissenschaft
lend (Little 2010). Gleichzeitig ist nicht zu übersehen, dass solche Bestrebungen durch Befürchtungen gespeist werden, Geschichtsforschung, gerade wo sie sich von Psychologie oder Soziologie emanzipiere, diskreditiere sich durch einen Mangel an Methodik und Theor ie und verfalle in Fragmentierung und Relativität (Zammito 2011). Vor diesem Hintergrund entsteht zuweilen der Eindruck eines Dilemmas, entweder Geschichtswissenschaft auf andere Wissenschaften reduzieren zu müssen oder aber ihren Anspruch auf Objektivität nicht bewähren zu können. Dieses Dilemma zufriedenstellend aufzulösen, wird eine der bleibenden Herausforderungen für eine Philosophie der Geschichtswissenschaft sein.
5.2 Künftige Aufgaben Philosophie der Geschichte, Philosophie der Geschichtsschreibung und Philosophie der Geschichtsforschung treten insgesamt in überraschend wenig Austausch miteinander. Teilweise tun sich sogar ernsthafte Spannungen zwischen ihnen auf: Die letzteren beiden wenden sich typischerweise von geschichtsphilosophischen Überlegungen ab, insofern sich diese oftmals nicht den Konstitutionsbedingungen historischen Wissens fügen bzw. Ansätze und Resultate professioneller Geschichtsforschung ignorieren. Aber auch das Verhältnis zwischen Philosophie der Geschichtsschreibung und Philosophie der Geschichtsforschung stellt sich bislang nicht als stringente Fokussierung dar, von einer allgemeinen Reflexion historischen Wissens zu einer speziellen Untersuchung professioneller Historie, sondern ist eher durch wechselseitige Isolation bestimmt. Wahrscheinlich könnten alle drei Zweige davon profitieren, sich stärker auf die Belange und Befunde der jeweils anderen Zugänge einzulassen. Philosophie der Geschichte, Philosophie der Geschichtsschreibung und Philosophie der Geschichtsforschung können nur gemeinsam ein adäquates Verständnis dessen ermöglichen, welche Stellung die Vergangenheit hat, wie sich Menschen auf diese Vergangenheit beziehen und welche Forschungen sie zu jenem Zweck anstellen. Insbesondere Philosophie der Geschichtsschreibung und Philosophie der Geschichtsforschung sollten sich stärker einander zuwenden, als es bislang der Fall ist. Nur eine solche Annäherung kann eine gehaltvolle und umfassende Philosophie der Geschichtswissenschaft entstehen lassen. Philosophie der Geschichte ist gut beraten, ihre Gegenstände dahingehend auszuwählen und zu bestimmen, dass sie als Objekte von Geschichtsschreibung und Geschichtsforschung in Frage kommen. Denn nur wenn sie ihre ontologischen Konzepte und Darstellungen mit den epistemologischen Bestimmungen historischen Wissens und den wissenschaftstheoretischen Grundlegungen historischer Forschung abgleicht, können ihre Aussagen zur Geschichte den Konstitutionsbedingungen historischen Wissens und den Professionalitätsstandards historischer Forschung entsprechen. Kategorisch lassen sich ihre ontologischen Fragen wohl ohnehin nicht beantworten (wahrscheinlich gibt es im Vergangenen Individuelles 153
II. Die Philosophie der Formal- und Geisteswissenschaften
wie Kollektives, Mikroskopisches wie Makroskopisches, Freies wie Notwendiges, Kontingentes wie Gesetzhaftes etc.). Die Frage muss stattdessen lauten, welche Auffassung der Vergangenheit den spezifischen Rahmenvorgaben genügt, die durch historisches Wissen und Forschen vorgegeben sind, etwa dem Konzept der Erzählung oder den Gedanken von Individualisierung und Verstehen (d. h. als was die Vergangenheit aufzufassen ist, damit sie Gegenstand tatsächlich historischen Zugriffs wird). Nur auf Grundlage eines solchen Abgleichs kann die ›Geschichte‹, über die Geschichtsphilosophie sprechen will, kongruent sein mit jener ›Geschichte‹, die in historischem Wissen und historischer Forschung gemeint ist. Beschränkt man sich demgegenüber, wie manche modernen Arbeiten zur Ontologie des Geschichtlichen, auf letztlich ahistorische Zugänge zu den Ereignissen der Vergangenheit, indem man allein nach psychologischen Konstellationen oder soziologischen Mechanismen, nach allgemeinphilosophischer Freiheit oder kausalitätstheoretischer Notwendigkeit in früherem Geschehen fragt, so betreibt man nicht eigentlich Philosophie der Geschichte, sondern allein Philosophie von Vergangenem. Philosophie der Geschichtsschreibung liefert, ihrem eigenen Anspruch gemäß, eine grundsätzliche Bestimmung historischen Denkens und Wissens. Insbesondere geht es ihr darum, historische Weltzugänge von anderen Erkenntnisformen abzugrenzen. Zentraler Reflexionspunkt ist dabei der Begriff der Erzählung, da geschichtliches Wissen stets narrativ verfasst ist. Zugleich bleibt Philosophie der Geschichtsschreibung für sich allein genommen zu fundamental, um die spezifischen Probleme wissenschaftlicher Historik zu reflektieren: Ihre Analysen historischer Darstellungen und insbesondere ihre Akzentuierung narrativer Formgebungen gelten vollumfänglich bereits für historisches Alltagswissen. Solange sie indessen bei diesen Aspekten stehen bleibt, gerät das spezifisch Wissenschaftliche namentlich an den Geschichtswissenschaften nicht in ihren epistemologischen Fokus. Philosophie der Geschichtsforschung fokussiert auf das professionelle Moment akademischer Geschichtsbetrachtungen. Gerade indem sie dabei jedoch um die Objektivität entsprechender Standards bemüht ist, neigt sie dazu, das unhintergehbar narrative Moment jeglichen historischen Wissens, laienhaften wie professionellen, auszublenden. Der Grund hierfür ist, dass in der allgemeinen Wahrnehmung postmoderne und linguistische Deutungen des Erzählkonzepts dominieren, welche die grundsätzliche Beliebigkeit und rhetorische Unbestimmtheit historischer Konstruktionen behaupten, nicht narratologische Entwürfe, welche Erzählung als eine berechtigte Gestalt rationalen Weltzugangs fundieren und ihre genaueren Strukturmerkmale bestimmen. Wenn Philosophie der Geschichtsforschung indessen vor diesem Hintergrund den Erzählaspekt vernachlässigt, so droht ihr der charakteristische Unterschied zwischen historischen Wissenschaften einerseits und sonstigen Geisteswissenschaften oder sogar Naturwissenschaften andererseits zu entgleiten: Dann neigt sie dazu, allein Probleme der Hypothesenabwägung und Wahrscheinlichkeitszuschreibung zu erörtern, in Parallele zu 154
Philosophie der Geschichtswissenschaft
entsprechenden Aktivitäten naturwissenschaftlicher Forschung, dann tendiert sie dazu, allein Fragen nach historischen Erklärungen oder historischer Kausalität zu stellen, um in ihren Antworten lediglich auf psychologische Mechanismen oder soziologische Gesetze zu verweisen. Solange sie allerdings bei derartigen Themen verharrt, verliert sie das spezifisch Geschichtliche an den Geschichtswissenschaften aus ihrem wissenschaftstheoretischen Blick. Geschichtswissenschaft ist keine Alltagshistorie. Sie ist aber auch keine bloße Naturbetrachtung, Psychologie oder Soziologie im Präteritum. Sie ist Geschichtsforschung und Geschichtsschreibung in einem, eine dezidiert akademische Form der allgemeinen kulturellen Tätigkeit des Erinnerns und Auswählens, des Arran gierens und Deutens, die Geschichte als Erzählung hervorbringt. Entsprechend wird Philosophie der Geschichtswissenschaft stets darauf angewiesen sein, Philosophie der Geschichtsschreibung und Philosophie der Geschichtsforschung zusammenzuführen und die narrative Gestalt historischen Wissens und Denkens überhaupt auf die spezifischen Methoden und Theorien akademischer Geschichtsforschung zu beziehen. Zum einen muss Philosophie der Geschichtsschreibung sich öffnen für jene Standards, durch die sich professionelles Geschichtswissen von laienhaftem Geschichtsdenken abhebt. Zum anderen muss Philosophie der Geschichtsforschung ihre Scheu vor dem Konzept der Erzählung ablegen und begreifen, dass spezifisch historische Objektivität nur innerhalb der Vorgaben dieses Konzepts gefunden werden kann. Erzählung ist nicht, wie durch Postmoderne und Linguistik nahegelegt, ein Synonym für beliebige Konstrukte oder rhetorische Arsenale. Sie ist, wie in der Narratologie erarbeitet, eine unhintergehbare Form menschlichen Weltverständnisses. Sie ist ein gestaltender Bezug auf vergangene Ereignisse, der diese überhaupt erst zu historischen Objekten im eigentlichen Sinne macht und auf diese Weise menschliche Geschichtlichkeit entstehen lässt. Ihre Konstitutionsmerkmale können dabei durch einschlägige philosophische Zugänge etwa phänomenologischer, sprachanalytischer oder transzendentalphilosophischer Art abgesichert werden. Philosophie der Geschichtswissenschaft tut gut daran, diese philosophische Verankerung historiographischen Denkens anzunehmen, damit ihre wissenschaftstheoretischen Überlegungen nicht ohne epistemologisches Fundament bleiben. Insbesondere wenn sie sich nicht auf Fragen historischer Faktenerhebung beschränken, sondern das Problem der historischen Interpretationserstellung angehen will, kommt sie nicht umhin, sich auf den Gesichtspunkt der Narrativität einzulassen. Denn historische Interpretationen, auch und gerade professioneller Art, sind nichts anderes als historische Erzählungen. Wenn man daher ihre Formen analysieren und ihre Optionen bestimmen will, so muss man jene Grundlegungen und Strukturmomente berücksichtigen, welche die Philosophie der Geschichtsschreibung für die historische Erzählung erschlossen hat. Dies mag die Einsicht zur Folge haben, dass es stets alternative Möglichkeiten der historischen Darstellung einer Ereignisfolge gibt und dass die Entscheidung für eine solche Möglichkeit nicht unabhängig von einer bestimmten Perspektive zu fällen ist. Es 155
II. Die Philosophie der Formal- und Geisteswissenschaften
mag sich zudem zeigen, dass Geschichtswissenschaft niemals ethisch neutral sein kann, sondern in der Wahl ihrer Darstellung unhintergehbar an moralische Perspektiven und praktische Interessen gebunden ist. Dies impliziert jedoch nicht, wie befürchtet, Beliebigkeit oder Voreingenommenheit, Subjektivität oder Relativität. Vielmehr fundiert es erst die spezifische Objektivität und Wahrhaftigkeit historischen Wissens, indem es dieses im Horizont praktischer Vernunft statt lediglich theoretischer Vernunft verankert (vgl. Kistenfeger 2011; Nagl-Docekal 1982; Newall 2011; Rüsen 2005). Bezüge zwischen Philosophie der Geschichtsschreibung und Philosophie der Geschichtsforschung sind bislang nur in Ansätzen ausgearbeitet worden. Dies betrifft vor allem die elementaren Konzepte der Individualisierung und des Verstehens, die sich immer schon nahtlos mit dem Gedanken narrativer Gestaltung zusammenführen ließen (vgl. Baumgartner 1979a; Danto 1995; Dray 1957; Gallie 1964/68; Mink 1987; Ricœur 1994). Es wird darauf ankommen, diese Verbindungen in Zukunft auszubauen und auch weiterführende Fragen etwa der historischen Erklärung oder der historischen Interpretation systematisch auf die narrative Gestalt historischen Wissens zu beziehen (vgl. Ankersmit 2011; Carr 2008; Kosso 2011; Roth 1988; 1989; Stueber 2008). Geschichtswissenschaft kann nur dann korrekt analysiert und stimmig angeleitet werden, wenn man anerkennt, dass ihre professionellen Methoden und Theor ien nicht allein der Sammlung von Daten und der Bestätigung von Hypothesen dienen, sondern stets im Horizont der Anfertigung von historischen Erzählungen stehen.
Literatur Empfehlungen: Fruchtbare Einblicke in die Thematik liefern vor allem verschiedene Handbücher, Einführungen und Sammelbände. Diese mögen in Titel und Konzeption gewisse Schwerpunkte innerhalb der Felder Geschichtsphilosophie, Philosophie der Geschichtsschreibung bzw. Philosophie der Geschichtsforschung setzen, enthalten aber meist Beiträge zu allen drei Bereichen. Zugleich ist die Auswahl an aktuellen Werken zu diesem Thema nicht übermäßig groß. Philosophie der Geschichte, der Geschichtsschreibung bzw. der Geschichtsforschung genießt gegenwärtig offensichtlich nicht das Interesse, das ihr etwa noch in der zweiten Hälfte des 20. Jahrhunderts entgegengebracht wurde. In der Reihe der Blackwell Companions bietet der »Companion to the Philosophy of History and Historiography« [Tucker 2011] eine umfangreiche Sammlung von Beiträgen zu wesentlichen Themen, wichtigen Einzelautoren und maßgeblichen Strömungen in Geschichtsphilosophie, Geschichtsschreibung und Geschichtsforschung. Die Reihe der Oxford Handbooks führt derzeit keinen einschlägigen Spezialband, im »Oxford Handbook of Philosophy of Social Science« (Kincaid 2012) findet sich lediglich ein Aufsatz, der speziell die Geschichtswissenschaften behandelt und dabei korrekterweise strikt gegen die Sozialwissenschaften abgrenzt (Tucker 2012). Ähnlich 156
Philosophie der Geschichtswissenschaft
gibt es keinen Spezialband in der Reihe der SAGE Handbooks, das »SAGE Handbook of the Philosophy of Social Sciences« (Jarvie/Zamora-Bonilla 2011) enthält keinen gesonderten Eintrag für die Philosophie der Geschichtswissenschaften. Die Cambridge Companions wie auch die Routledge Companions bieten keinen Band, der sich mit Philosophie der Geschichtswissenschaft oder auch Philosophie der Geistes- oder Sozialwissenschaften befasst. Als monographische Einführungen geben Day 2008, Lemon 2003 und Stanford 1998 hilfreiche Überblicke über die Diskussionslage. Bei den Sammelbänden liefern Ankersmit/Kellner 1995 und Nagl-Docekal 1996a aufschlussreiche Bestandsaufnahmen insbesondere zur Diskussion um den Erzählaspekt in den Geschichtswissenschaften, indem sie einschlägige Arbeiten aus Philosophie, Geschichtstheor ie und Literaturtheor ie zusammenführen. Adcock, Robert (2007): Who’s Afraid of Determinism? The Ambivalence of MacroHistorical Inquiry. In: Journal of the Philosophy of History 1 (3), 346–364. Angehrn, Emil (1985): Geschichte und Identität. Berlin/New York: Walter de Gruyter. – (1996): Ursprungsmythos und Geschichtsdenken. In: Nagl-Docekal 1996a, 305– 332. Ankersmit, Frank R. (1996): Die postmoderne »Privatisierung der Vergangenheit«. In: Nagl-Docekal 1996a, 201–234. – (2001): Historical Representation. Stanford: Stanford University Press. – (2005): Sublime Historical Experience. Stanford: Stanford University Press. – (2011): Narrative and Interpretation. In: Tucker 2011, 199–208. Ankersmit, Frank R. und Hans Kellner (Hg.) (1995): A New Philosophy of History. London: Reaktion Books. Aristoteles. Nikomachische Ethik. Hg. von Günther Bien. Hamburg: Felix Meiner 1985. – Politik. Hg. von Eugen Rolfes. Hamburg: Felix Meiner 1995. Assmann, Aleida (2006): Der lange Schatten der Vergangenheit. Erinnerungskultur und Geschichtspolitik. München: C. H. Beck. Assmann, Jan (1992/2007): Das kulturelle Gedächtnis. Schrift, Erinnerung und politische Identität in frühen Hochkulturen. 6. Aufl. München: C. H. Beck. Augustinus, Aurelius (ca. 413–426): De civitate dei. Hg. von Carl Andresen. München: Deutscher Taschenbuch Verlag 2007. Baumgartner, Hans Michael (1972/97): Kontinuität und Geschichte. Zur Kritik und Metakritik der historischen Vernunft. 2. Aufl. Frankfurt a. M.: Suhrkamp. – (1975): Narrative Struktur und Objektivität. Wahrheitskriterien im historischen Wissen. In: Jörn Rüsen (Hg.): Historische Objektivität. Aufsätze zur Geschichtstheo rie. Göttingen: Vandenhoeck & Ruprecht, 48–67. – (1979a): Erzählung und Theor ie in der Geschichte. In: Jürgen Kocka, Thomas Nipperdey (Hg.): Theorie und Erzählung in der Geschichte. München: Deutscher Taschenbuch Verlag, 259–289. – (1979b): Freiheit als Prinzip der Geschichte. In: Hans Michael Baumgartner (Hg.): 157
II. Die Philosophie der Formal- und Geisteswissenschaften
Prinzip Freiheit. Eine Auseinandersetzung um Chancen und Grenzen transzendentalphilosophischen Denkens. Freiburg i.Br./München: Karl Alber, 299–321. – (1987): Philosophie der Geschichte nach dem Ende der Geschichtsphilosophie. Bemerkungen zum gegenwärtigen Stand des geschichtsphilosophischen Denkens. In: Nagl-Docekal 1996a, 151–172. Bayly, Christopher Alan (2004): The Birth of the Modern World. Global Connections and Comparisons, 1780 –1914. Malden: Blackwell. Beatty, John und Isabel Carrera (2011): When What Had to Happen Was Not Bound to Happen: History, Chance, Narrative, Evolution. In: Journal of the Philosophy of History 5 (3), 471–495. Bennett, Judith M. (2006): History Matters. Patriarchy and the Challenge of Feminism. Philadelphia: University of Pennsylvania Press. Berkhofer, Robert F. (1995): Beyond the Great Story. History as Text and Discourse. Cambridge (Mass.): Belknap Press / Harvard University Press. Berlin, Isaiah (1969): Historical Inevitability. In: Four Essays on Liberty. Oxford: Oxford University Press 1979, 41–117. Berry, Stephan (1999): On the Problem of Laws in Nature and History: A Comparison. In: History and Theory 38 (4), 121–137. Bevernage, Berber (2012): History, Memory, and State-Sponsored Violence. Time and Justice. New York: Routledge. Bevir, Mark und Karsten Stueber (2011): Empathy, Rationality, and Explanation. In: Journal of the Philosophy of History 5 (2), 147–162. Bloch, Marc, Fernand Braudel, Lucien Febvre et al. (1977): Schrift und Materie der Geschichte. Vorschläge zur systematischen Aneignung historischer Prozesse. Hg. von Claudia Honegger. Frankfurt a. M.: Suhrkamp. Blum, Mark E. (2014): Phenomenological Time, Historical Time, and the Writing of History. In: Journal of the Philosophy of History 8 (1), 39–77. Brien, James Aston (2013): The Role of Causation in History. In: History in the Making 2 (1), 72–81. Briese, Olaf (1995): Einstimmung auf den Untergang. Zum Stellenwert »kupierter« Apokalypsen im gegenwärtigen geschichtsphilosophischen Diskurs. In: Allgemeine Zeitschrift für Philosophie 20 (2), 145–156. Brown, Callum G. (2013): Postmodernism for Historians. New York: Routlegde. Burckhardt, Jacob (1870/71): Weltgeschichtliche Betrachtungen. In: Gesamtausgabe, Bd. 7, hg. von Albert Oeri. Stuttgart: Deutsche Verlagsanstalt 1929. Carr, David (1974/2009): Phenomenology and the Problem of History. A Study of Hus serl’s Transcendental Philosophy. 2nd ed. Evanston: Northwestern University Press. – (1986): Time, Narrative, and History. Bloomington: Indiana University Press. – (2008): Narrative Explanation and its Malcontents. In: History and Theory 47 (1), 19–30. Chakrabarty, Dipesh (2007): Provincializing Europe. Postcolonial Thought and Historical Difference. Princeton: Princeton University Press. 158
Philosophie der Geschichtswissenschaft
Christian, David (2004): Maps of Time. An Introduction to Big History. Berkeley / Los Angeles: University of California Press. Cicero, Marcus Tullius. De re publica. Hg. von Karl Büchner. Stuttgart: Reclam. Clift, Sarah (2014): Committing the Future to Memory. History, Experience, Trauma. New York: Fordham University Press. Collingwood, Robin George (1946): Philosophie der Geschichte [The Idea of History]. Stuttgart: Kohlhammer 1955. Comte, Auguste (1822): Plan der wissenschaftlichen Arbeiten, die für eine Reform der Gesellschaft notwendig sind [Plan des traveaux scientifiques nécessaires pour réorganiser la société]. Hg. von Dieter Prokop. München: Hanser 1973. Condorcet, Marie Jean Antoine Nicolas Caritat, Marquis de (1793): Entwurf einer historischen Darstellung der Fortschritte des menschlichen Geistes [Esquisse d’un tableau historique des progrès de l’esprit humain]. Hg. von Wilhelm Alff. Frankfurt a. M.: Suhrkamp 1963. Corfield, Penelope (2007): Time and the Shape of History. New Haven: Yale University Press. Croce, Benedetto (1916): Theorie und Geschichte der Historiographie [Teoria e storia della storiografia]. In: Gesammelte philosophische Schriften, Bd. I.4, hg. von Hans Feist. Tübingen: J. C. B. Mohr / Paul Siebeck 1930. Danto, Arthur C. (1965): Analytische Philosophie der Geschichte [Analytical Philosophy of History]. Frankfurt a. M.: Suhrkamp 1980. – (1995): The Decline and Fall of the Analytical Philosophy of History. In: Ankersmit/Kellner 1995, 70–85. Day, Mark (2008): The Philosophy of History. An Introduction. London: Continuum. de Mey, Tim und Erik Weber (2003): Explanation and Thought Experiments in History. In: History and Theory 42 (1), 28–38. de Vries, Bert und Johan Goudsblom (Hg.) (2002): Mappae Mundi. Humans and Their Habitats in a Long-Term Socio-Ecological Perspective. Myths, Maps and Models. Amsterdam: Amsterdam University Press. Demandt, Alexander (1978): Metaphern für Geschichte. Sprachbilder und Gleichnisse im historisch-politischen Denken. München: C. H. Beck. – (1984): Ungeschehene Geschichte. Ein Traktat über die Frage: Was wäre geschehen, wenn …? Göttingen: Vandenhoeck & Ruprecht. Derrida, Jacques (1983): Von einem neuerdings erhobenen apokalyptischen Ton in der Philosophie [D’un ton apocalyptique adopté naguère en philosophie]. In: Apokalypse, hg. von Peter Engelmann. Graz/Wien: Böhlau 1985, 9–90. Dilthey, Wilhelm (1894): Ideen über eine beschreibende und zergliedernde Psychologie. In: Gesammelte Schriften, Bd. 5. 7. Aufl. Stuttgart: B. G. Teubner 1982, 139–240. – (1907–10): Der Aufbau der geschichtlichen Welt in den Geisteswissenschaften. In: Gesammelte Schriften, Bd. 7. Leipzig: B. G. Teubner 1927. Dray, William (1957): Laws and Explanation in History. Oxford: Oxford University Press. Droysen, Johann Gustav (1857/82): Grundriß der Historik (3. Aufl.). In: Historik, 159
II. Die Philosophie der Formal- und Geisteswissenschaften
hg. von Peter Leyh, Bd. 1. Stuttgart-Bad Cannstatt: frommann-holzboog 1977, 413–450. Dux, Günter (1989): Die Zeit in der Geschichte. Ihre Entwicklungslogik vom Mythos zur Weltzeit. Frankfurt a. M.: Suhrkamp. Fagan, Brian (2004): The Long Summer. How Climate Changed Civilization. New York: Basic Books. Fichte, Johann Gottlieb (1806): Die Grundzüge des gegenwärtigen Zeitalters. In: Gesamtausgabe, Bd. I 8, hg. von Reinhard Lauth und Hans Gliwitzky. Stuttgart-Bad Cannstatt: frommann-holzboog 1991. Froeyman, Anton (2009): Concepts of Causation in Historiography. In: Historical Methods 42 (3),116–128. Fukuyama, Francis (1992): Das Ende der Geschichte. Wo stehen wir? [The End of History and the Last Man]. München: Kindler. Gallie, Walter Bryce (1964/68): Philosophy and the Historical Understanding. 2nd ed. New York: Schocken Books. Gardiner, Patrick (1952): The Nature of Historical Explanation. Oxford: Oxford University Press 1968. Gay, Peter (1985): Freud for Historians. Oxford: Oxford University Press. Goldstein, Leon (1976): Historical Knowing. Austin: University of Texas Press. – (1996): The What and the Why of History. New York: Brill. Grinin, Leonid (2010): The Role of the Individual in History: A Reconsideration. In: Social Evolution & History 9 (2), 95–136. Hacking, Ian (1995): Rewriting the Soul. Multiple Personality and the Sciences of Memory. Princeton: Princeton University Press. Hammer, Carl (2008): Explication, Explanation, and History. In: History and Theory 47 (2), 183–199. Heehs, Peter (1994): Myth, History, and Theory. In: History and Theory 33 (1), 1–19. Hegel, Georg Wilhelm Friedrich (1817/27/30): Encyclopädie der philosophischen Wissenschaften im Grundrisse (»System der Philosophie«). In: Sämtliche Werke, Bd. 8, 9, 10, hg. von Hermann Glockner. Stuttgart: Frommann 1929. – (1821/33): Grundlinien der Philosophie des Rechts (»Naturrecht und Staatswissenschaft im Grundrisse«): In: Sämtliche Werke, Bd. 7, hg. von Hermann Glockner. Stuttgart: Frommann 1928. – (1805–31): Vorlesungen über die Geschichte der Philosophie. Hg. von Karl Ludwig Michelet (1833 posth.): In: Sämtliche Werke, Bd. 17, 18, 19, hg. von Hermann Glockner. Stuttgart: Frommann 1928. – (1822–31): Vorlesungen über die Philosophie der Geschichte. Hg. von Eduard Gans und Karl Hegel (1837/40 posth.): In: Sämtliche Werke, Bd. 11, hg. von Hermann Glockner. Stuttgart: Frommann 1928. Hempel, Carl Gustav (1942): The Function of General Laws in History. In: The Journal of Philosophy 39 (26), 35–48. Herder, Johann Gottfried (1784/85): Ideen zur Philosophie der Geschichte der Mensch160
Philosophie der Geschichtswissenschaft
heit. In: Werke, Bd. 6, hg. von Martin Bollacher. Frankfurt a. M.: Deutscher Klassiker Verlag 1989. Horkheimer, Max und Theodor W. Adorno (1947): Dialektik der Aufklärung. Philosophische Fragmente. In: Max Horkheimer: Gesammelte Schriften, Bd. 5, hg. von Gunzelin Schmid Noerr. Frankfurt a. M.: S. Fischer 1987. Hübner, Dietmar (2001): Entscheidung und Geschichte. Rationale Prinzipien, narrative Strukturen und ein Streit in der Ökologischen Ethik. Freiburg i.Br. / München: Karl Alber. – (2004): ›Narrative Geschichtsethik‹. Über ethische Strukturen von historischen Erzählungen. In: Allgemeine Zeitschrift für Philosophie 29 (3), 271–279. – (2007): Ökologische Ethik und narrative Ethik. In: Karen Joisten (Hg.): Narrative Ethik. Das Gute und das Böse erzählen. Sonderband der Deutschen Zeitschrift für Philosophie. Berlin: Akademie-Verlag, 273–289. Huntington, Samuel P. (1996): The Clash of Civilizations and the Remaking of World Order. New York: Simon & Schuster. Jakob, Christian (2008): Wissenschaftstheoretische Grundlagen sozial- und geschichtswissenschaftlicher Erklärungen. Bern: Bern Studies in the History and Philosophy of Science. Jarvie, Ian C. und Jesús Zamora-Bonilla (Hg.) (2011): The SAGE Handbook of the Philosophy of Social Sciences. London: SAGE . Jenkins, Keith (1991/2003): Re-thinking History. London: Routledge. – (1999): Why History? Ethics and Postmodernity. Abingdon: Routledge. Kaiser, Marie I., Oliver R. Scholz, Daniel Plenge und Andreas Hüttemann (Hg.) (2014): Explanation in the Special Sciences. The Case of Biology and History. Dordrecht: Springer. Kant, Immanuel (1781/87): Kritik der reinen Vernunft. In: Werke, Bd. 2, hg. von Wilhelm Weischedel. Darmstadt: Wissenschaftliche Buchgesellschaft 1983. – (1784): Idee zu einer allgemeinen Geschichte in weltbürgerlicher Absicht. In: Werke, Bd. 6, hg. von Wilhelm Weischedel. Darmstadt: Wissenschaftliche Buchgesellschaft 1983. – (1788): Kritik der praktischen Vernunft. In: Werke, Bd. 4, hg. von Wilhelm Weischedel. Darmstadt: Wissenschaftliche Buchgesellschaft 1983. Kaye, Simon T. (2010): Challenging Certainty: The Utility and History of Counterfactualism. In: History and Theory 49 (1), 38–57. Kennedy, Paul (1987): The Rise and Fall of the Great Powers. Ecomomic Change and Military Conflict from 1500 to 2000. New York: Vintage Books. Kincaid, Harold (2011): Philosophy of Historiography and the Social Sciences. In: Tucker 2011, 297–306. – (Hg.) (2012): The Oxford Handbook of Philosophy of Social Science. Oxford: Oxford University Press. Kistenfeger, Jens (2011): Historische Erkenntnis zwischen Objektivität und Perspektivität. Frankfurt a. M.: Ontos Verlag. Kojève, Alexandre (1933–39): Hegel. Eine Vergegenwärtigung seines Denkens [Intro161
II. Die Philosophie der Formal- und Geisteswissenschaften
duction à la lecture de Hegel. Leçons sur la phénoménologie de l'esprit, professées de 1933 à 1939 à l’Ecole des Hautes-Etudes]. Hg. von Iring Fetscher. Stuttgart: Kohlhammer 1958. Koselleck, Reinhart (1979): Vergangene Zukunft. Zur Semantik geschichtlicher Zeiten. Frankfurt a. M.: Suhrkamp. – (2000): Zeitschichten. Studien zur Historik. Frankfurt a. M.: Suhrkamp. Koselleck, Reinhart, Christian Meier, Odilo Engels und Horst Günther (1975): Geschichte, Historie. In: Otto Brunner/Werner Conze/Reinhart Koselleck (Hg.): Geschichtliche Grundbegriffe. Historisches Lexikon zur politisch-sozialen Sprache in Deutschland, Bd. 2. Stuttgart: Klett 1975, 593–717. Kosso, Peter (2011): Philosophy of Historiography. In: Tucker 2011, 9–25. LaCapra, Dominick (1994): Representing the Holocaust: History, Theory, Trauma. Ithaca: Cornell University Press. – (2001): Writing History, Writing Trauma. Baltimore: Johns Hopkins University Press. Lebow, Richard Ned (2010): Forbidden Fruit. Counterfactuals and International Relations. Princeton: Princeton University Press. Lemon, Michael C. (2003): Philosophy of History. A Guide for Students. New York: Routledge. Lerner, Gerda (1979): The Majority Finds its Past. Placing Women in History. New York: Oxford University Press. Leuridan, Bert und Anton Froeyman (2012): On Lawfulness in History and Histo riography. In: History and Theory 51 (2), 172–192. Litt, Theodor (1956): Die Wiedererweckung des geschichtlichen Bewußtseins. Heidelberg: Quelle und Meyer. Little, Daniel (2010): New Contributions to the Philosophy of History. Dordrecht: Springer. Löwith, Karl (1949/53): Weltgeschichte und Heilsgeschehen. Die theologischen Voraussetzungen der Geschichtsphilosophie. In: Sämtliche Schriften, Bd. 2, hg. von Klaus Stichweh. Stuttgart: Metzler 1983, 7–239. Lübbe, Hermann (1977): Geschichtsbegriff und Geschichtsinteresse. Analytik und Pragmatik der Historie. Basel/Stuttgart: Schwabe & Co. Lyotard, Jean-François (1979): Das postmoderne Wissen. Ein Bericht [La condition postmoderne]. Hg. von Peter Engelmann. Graz/Wien: Böhlau 1986. MacDonald, Cynthia und Graham MacDonald (2011): Reductionism: Historiography and Psychology. In: Tucker 2011, 342–352. Machiavelli, Niccolò (1531): Discorsi. Staat und Politik [Discorsi sopra la prima deca di Tito Livio]. Hg. von Horst Günther. Frankfurt a. M. / Leipzig: Insel 2000. Manning, Patrick (2003): Navigating World History. Historians Create a Global Past. New York: Palgrave. Marquard, Odo (1973/97): Schwierigkeiten mit der Geschichtsphilosophie. Aufsätze. 4. Aufl. Frankfurt a. M.: Suhrkamp. Marrou, Henri-Irénée (1954): Über die historische Erkenntnis. Welches ist der richtige 162
Philosophie der Geschichtswissenschaft
Gebrauch der Vernunft, wenn sie sich historisch betätigt? [De la Connaissance Historique]. Freiburg i.Br. / München: Karl Alber 1973. Marx, Karl (1845/46): Die deutsche Ideologie. In: Die Frühschriften, hg. von Siegfried Landshut, 7. Aufl. Stuttgart: Kröner 2004, 405–554. – (1848): Manifest der kommunistischen Partei. In: Die Frühschriften, hg. von Siegfried Landshut, 7. Aufl. Stuttgart: Kröner 2004, 594–630. Mink, Louis O. (1987): Historical Understanding. Ed. by Brian Fay, Eugene O. Golob, Richard T. Vann. Ithaca: Cornell University Press. Murphey, Murray (1986): Explanation, Causes and Covering Laws. In: History and Theory 25 (4), 43–57. Nagl-Docekal, Herta (1982): Die Objektivität der Geschichtswissenschaft. Systematische Untersuchungen zum wissenschaftlichen Status der Historie. Wien/München: R. Oldenbourg. – (Hg.) (1996a): Der Sinn des Historischen. Geschichtsphilosophische Debatten. Frankfurt a. M.: Fischer. – (1996b): Ist Geschichtsphilosophie heute noch möglich? In: Nagl-Docekal 1996a, 7–63. Newall, Paul (2011): Historiographic Objectivity. In: Tucker 2011, 172–180. Nolan, Daniel (2013): Why Historians (and Everyone Else) Should Care about Counterfactuals. In: Philosophical Studies 163 (2), 317–335. Nora, Pierre (Hg.) (1984–92): Erinnerungsorte Frankreichs [Les lieux de mémoire]. München: C. H. Beck 2005. Northcott, Robert (2008): Weighted Explanations in History. In: Philosophy of the Social Sciences 38 (1), 76–96. Oakeshott, Michael (1933): Experience and its Modes. Cambridge: Cambridge University Press. Osterhammel, Jürgen (2009): Die Verwandlung der Welt. Eine Geschichte des 19. Jahrhunderts. München: C. H. Beck. Platon. Politeia. In: Werke, hg. von Gunther Eigler, Bd. 4. Darmstadt: Wissenschaftliche Buchgesellschaft 1990. – Politikos. In: Werke, hg. von Gunther Eigler, Bd. 6. Darmstadt: Wissenschaftliche Buchgesellschaft 1990. Polybios. Die Verfassung der römischen Republik [Historien, Buch VI]. Hg. von Kai Brodersen. Stuttgart: Reclam 2012. Pomper, Philip (1996): Historians and Individual Agency. In: History and Theory 35 (3), 281–308. Popper, Karl Raimund (1945/79): Das Elend des Historizismus [The Poverty of Historicism]. 5. Aufl. Tübingen: J. C. B. Mohr / Paul Siebeck 1979. – (1950/92): Die offene Gesellschaft und ihre Feinde [The Open Society and Its Enemies]. 2 Bde. 7. Aufl. Tübingen: J. C. B. Mohr / Paul Siebeck 1992. Proust, Françoise (1994): Die verschlungene Zeit. Der Verlust der Erfahrung [L’entrelacs du temps]. In: Nagl-Docekal 1996a, 270–301. Ranke, Leopold von (1824/74): Geschichten der romanischen und germanischen Völ163
II. Die Philosophie der Formal- und Geisteswissenschaften
ker von 1494 bis 1514, 2. Aufl. In: Sämmtliche Werke, Bd. 33/34, Leipzig: Duncker und Humblot 1874. Rehfus, Wulff D. (Hg.) (1989): Die Apokalypse denken. Langenfeld: Conzepke. Reisch, George (1991): Chaos, History, and Narrative. In: History and Theory 30 (1), 1–20. Reiss, Julian (2009): Counterfactuals, Thought Experiments, and Singular Causal Analysis in History. In: Philosophy of Science 76 (5), 712–723. Rickert, Heinrich (1898/1926): Kulturwissenschaft und Naturwissenschaft. 7. Aufl. Hg. von Friedrich Vollhardt. Stuttgart: Reclam 1986. Ricœur, Paul (1983/84/85): Zeit und Erzählung [Temps et récit]. 3 Bde. München: Wilhelm Fink 1988/89/91. – (1987): Erzählung, Metapher und Interpretationstheor ie. In: Zeitschrift für Theologie und Kirche 84 (2), 232–253. – (1994): Geschichte und Rhetorik [Histoire et rhétorique]. In: Nagl-Docekal 1996a, 107–125. Rohbeck, Johannes (2000): Technik − Kultur − Geschichte. Eine Rehabilitierung der Geschichtsphilosophie. Frankfurt a. M.: Suhrkamp. Rosenfeld, Gavriel (2002): Why Do We Ask »What If?« Reflections on the Functions of Alternate History. In: History and Theory 41 (4), 90–103. Roth, Paul A. (1988): Narrative Explanations: The Case of History. In: History and Theory 27 (1), 1–13. – (1989): How Narratives Explain. In: Social Research 56 (2), 449–478. – (2002): Ways of Pastmaking. In: History of the Human Sciences 15 (4), 125–143. – (2008): Varieties and Vagaries of Historical Explanation. In: Journal of the Philosophy of History 2 (2), 214–226. – (2012): The Pasts. In: History and Theory 51 (3), 313–339. Rüsen, Jörn (2001): Zerbrechende Zeit. Über den Sinn der Geschichte. Köln: Böhlau. – (2005): History. Narration – Interpretation – Orientation. New York: Berghahnbooks. Said, Edward D. (1978/2003): Orientalism. New York: Random House. Schelling, Friedrich Wilhelm Joseph (1797/1803): Ideen zu einer Philosophie der Natur als Einleitung in das Studium dieser Wissenschaft. In: Werke, Erster Hauptband und Erster Ergänzungsband, hg. von Manfred Schröter. München: C. H. Beck 1927/56. – (1800): System des transscendentalen Idealismus. In: Werke, Zweiter Hauptband, hg. von Manfred Schröter. München: C. H. Beck 1927. – (1801): Darstellung meines Systems der Philosophie. In: Werke, Dritter Hauptband, hg. von Manfred Schröter. München: C. H. Beck 1927. – (1813): Die Weltalter. Bruchstück. In: Werke, Vierter Hauptband, hg. von Manfred Schröter. München: C. H. Beck 1927. – (1841): Philosophie der Offenbarung, In: Werke, Sechster Hauptband und Sechster Ergänzungsband, hg. von Manfred Schröter. München: C. H. Beck 1927/54. – (1842): Einleitung in die Philosophie der Mythologie. In: Werke, Fünfter und Sechster Hauptband, hg. von Manfred Schröter. München: C. H. Beck 1928. 164
Philosophie der Geschichtswissenschaft
Smith, Bonnie G. (2000): The Gender of History. Men, Women, and Historical Practice. Cambridge (Mass.): Harvard University Press. Spengler, Oswald (1918/22): Der Untergang des Abendlandes. Umrisse einer Morphologie der Weltgeschichte. 2 Bde. 82./68. Aufl. München: C. H. Beck 1923. Spivak, Gayatri Chakravorty (1999): A Critique of Postcolonial Reason. Toward a History of the Vanishing Present. Cambridge (Mass.): Harvard University Press. Spongberg, Mary (2002): Writing Women’s History Since the Renaissance. Houndsmills: Palgrave Macmillan. Stanford, Michael (1998): An Introduction to the Philosophy of History. Oxford: Blackwell. Straub, Jürgen und Jörn Rüsen (Hg.) (2011): Dark Traces of the Past. Psychoanalysis and Historical Thinking. New York: Berghahn Books. Stueber, Karsten (2002): The Psychological Basis of Historical Explanation. Reenactment, Simulation, and the Fusion of Horizons. In: History and Theory 41 (1), 25–42. – (2008): Theor ies Explain, and so do Historical Narratives: But there are Differences. In: Journal of the Philosophy of History 2 (2), 237–243. Tamm, Marek (2013): Beyond History and Memory: New Perspectives in Memory Studies. In: History Compass 11 (6), 458–473. Thomas von Aquin (ca. 1265/66–1273): Summa Theologica. Bd. 4 (I, q. 44–64), Bd. 25 (III, q. 1–15), hg. vom Katholischen Akademikerverband. Salzburg/Leipzig: Anton Pustet 1935/36. Bd. 35 (III Suppl., q. 69–87), Bd. 36 (III Suppl., q. 88–99), hg. von der Albertus-Magnus-Akademie Walberberg bei Köln. Heidelberg: F. H. Kerle, Graz/Wien/Köln: Styria 1958/61. Toynbee, Arnold (1946): Der Gang der Weltgeschichte. Aufstieg und Verfall von Kulturen [A Study of History]. 3. Aufl. Stuttgart: Kohlhammer 1952. Tucker, Aviezer (2004): Our Knowledge of the Past. A Philosophy of Historiography. Cambridge: Cambridge University Press. – (Hg.) (2011): A Companion to the Philosophy of History and Historiography. Chichester: John Wiley. – (2012): Sciences of Historical Tokens and Theoretical Types: History and the Social Sciences. In: Kincaid 2012, 274–297. Van Bouwel, Jeroen und Erik Weber (2008): A Pragmatist Defense of Non-Relativistic Explanatory Pluralism in History and Social Science. In: History and Theory 47 (2), 168–182. Vašíček, Zdenĕk (2011): Philosophy of History. In: Tucker 2011, 26–43. Vico, Giambattista (1725/44): Prinzipien einer neuen Wissenschaft über die gemeinsame Natur der Völker [Principi di Scienza Nuova d'intorno alla commune Natura delle Nazioni]. 3. Aufl. Hg. von Vittorio Hösle und Christoph Jermann. 2 Bde. Hamburg: Felix Meiner 1990. von Wright, Georg Henrik (1971): Explanation and Understanding. Ithaca: Cornell University Press. 165
II. Die Philosophie der Formal- und Geisteswissenschaften
Vondung, Klaus (Hg.) (1988): Die Apokalypse in Deutschland. München: Deutscher Taschenbuch Verlag. Walsh, William Henry (1951/67): An Introduction to Philosophy of History. 3rd ed. Hassocks: Harvester Press. White, Hayden (1973): Metahistory. Die historische Einbildungskraft im 19. Jahrhundert in Europa [Metahistory. The Historical Imagination in Nineteenth-Century Europe]. Frankfurt a. M.: S. Fischer 1991. Windelband, Wilhelm (1894): Geschichte und Naturwissenschaft. In: Präludien. Aufsätze und Reden zur Philosophie und ihrer Geschichte, Bd. 2, 9. Aufl. Tübingen: J. C. B. Mohr / Paul Siebeck 1924, 136–160. Zammito, John (2011): Historians and Philosophy of Historiography. In: Tucker 2011, 63–84.
166
5. Philosophie der Rechtswissenschaft Benno Zabel
1 Einleitung Das Projekt einer Philosophie der Rechtswissenschaft ist in der hier konzipierten Form ein Novum. Weder in der Grundlagendiskussion noch in der interdisziplinären Debatte spielt eine wissenschaftstheoretische Durchdringung dieser Art eine besondere Rolle. Damit unterscheidet sich die Rechtswissenschaft, ähnlich wie die Politikwissenschaft (vgl. dazu das entsprechende Kapitel in diesem Buch), allerdings von anderen Einzelwissenschaften, wie etwa der Soziologie und Philosophie, der Wirtschafts- oder Geschichtswissenschaft. Nun versteht sich dieser Unterschied in der einzelwissenschaftlichen Selbstwahrnehmung aber alles andere als von selbst. Denn auch die Rechtswissenschaft hat es mit einem Ausschnitt des individuellen und gesellschaftlichen Lebens zu tun, dessen Binnenstruktur rational gedeutet und zur Sprache gebracht werden muss. Das betrifft beispielsweise die gängige Kommunikation über Recht und die konkreten Methoden der Konfliktlösung, die Frage nach dem Status und dem Verhältnis von Theorie, Dogmatik und konkreter Rechtsanwendung. Es betrifft aber auch die Analyse der Sprach- und Entscheidungsmuster, mit denen die Rechtswissenschaft arbeitet und die nicht selten ohne weitere Begründung vorausgesetzt werden. Rechtswissenschaft hat also ohne Zweifel wissenschaftstheoretische Probleme zu bewältigen. – Das Anliegen einer solchen Einzelwissenschaftsphilosophie kann nur darin bestehen, den theoretischen Bezugsrahmen, die systematische Ordnung, aber auch die allgemeinen Orientierungsleistungen einer Disziplin offenzulegen, deren Erkenntnisgegenstand das Recht ist. Angesprochen sind damit Fragen nach dem Wissenschaftscharakter der Rechtswissenschaft, nach den kategorialen Bestimmungen und Funktionen des Erkenntnisgegenstandes sowie nach der Bedeutung der Rechtswissenschaft für die forensische Praxis. Mit dieser Bündelung unterschiedlicher Perspektiven versucht die Philosophie der Rechtswissenschaft ein Feld zu sondieren, das in dieser Komplexität eben nur selten in den Blick kommt. Soweit das Verhältnis von Philosophie, Recht und Rechtswissenschaft bisher zur Debatte stand, ging es in der Regel um ein langfristig tradiertes, festgefügtes Arrangement von Diskursen und Erkenntnisinteressen – man denke nur an die Binnendifferenzierung in Rechtsphilosophie, Rechtsdogmatik, Rechtsanwendung usw. –, ohne dass freilich der zugrunde gelegte Theor ierahmen und die handlungsleitenden Prinzipien immer klar ausgewiesen oder hinterfragt wurden (dazu Lepsius 2008, 1; Jestaedt 2008, 185). Das wiederum hatte Konsequenzen 167
II. Die Philosophie der Formal- und Geisteswissenschaften
für die Selbstwahrnehmung der Rechtswissenschaft. Denn Rechtswissenschaft konnte danach in ganz unterschiedlicher Weise verstanden und prozeduralisiert werden. So war eine Gleichsetzung von Rechtswissenschaft mit Dogmatik ebenso möglich (Dreier 1981, 51), wie ein Verständnis der Rechtswissenschaft als »theoretische Gesellschaftswissenschaft« (Ehrlich 1989, 33; ähnlich A. Kaufmann 2008, 1) oder eine strikte Rückbindung der Jurisprudenz an das jeweils vorausgesetzte Wissenschaftsparadigma (Ballweg 1970, 9; Ross 1958, 25 f.). Die Schwierigkeiten, die sich bei der theoretischen, inter- und intradisziplinären Einordnung der Rechtswissenschaft zeigen, dürften ihren Grund nicht zuletzt in der Wissenschaftsgeschichte des 19. und 20. Jahrhunderts haben. Heute ist weitgehend unbestritten, dass spätestens mit dem umfassenden Mentalitäts- und Gesellschaftswandel am Ende des 18. Jahrhunderts auch ein Funktionswandel der Wissenschaft einhergeht (Breidbach 2005; Hagner 2001, 7; Hübner 2002, 361). Sichtbar wird das insbesondere an dem fortschreitenden Bedeutungsverlust, den die Philosophie in diesem Kontext hinnehmen muss. Der »revolutionäre Bruch im Denken«, der sich in der Entwicklung nach Hegels Tod bemerkbar macht (Löwith 1941, 91), hat zur Folge, dass sie ihr Definitionsmonopol für Wissenschaftlichkeit verliert oder nicht mehr in einem enzyklopädischen Sinne beanspruchen kann. Philosophische Begründungen, spekulative Argumentationen und metaphysische Annahmen erscheinen in anderen Bereichen der Forschung als entbehrlich oder nur noch randständig von Interesse (Hösle 1999, 125; Schnädelbach 1983, 89). Wissenschaftlichkeit hat sich vielmehr durch Spezialisierung und Methodenvielfalt, durch Erfahrungsbezug und Praxisrelevanz auszuzeichnen und damit einen Beitrag zur Selbstaufklärung moderner Gemeinwesen zu leisten. Die sich so bahnbrechende Emanzipation der Einzelwissenschaften, die schließlich in die Dualität von Geistes- und Naturwissenschaften mündet (Comte 1844; Helmholtz 1896; Dilthey 1883; 1910; dazu u. a. Habermas 1974, 155), hat – wie bereits angedeutet – auch die Rechtswissenschaft als universitäre Disziplin tief geprägt (Blühdorn 1969; Simon 1992, 351). Indes, durch die fundamentale Neujustierung der Rechtswissenschaft forciert(e) sich vor allem die Spannung zwischen Prinzipienorientierung und Pragmatik, Theor ie und Konfliktbewältigungskompetenz; und die eigentliche Herausforderung besteht offensichtlich darin, gerade dieses Spannungsfeld sachgerecht auszumitteln. Wir können die Rechtswissenschaft daher als doppelfunktionale Disziplin ansehen: Sie soll eine spezialwissenschaftliche Ratio garantieren und dementsprechend Juristen ausbilden, die das geltende Recht professionell handhaben und insofern zur Gestaltung von Staat, Gesellschaft und individuellen Rechten beitragen. Sie soll diese Ratio aber nicht nur a-politisch fortschreiben, sondern im Wege der Selbstreflexion die Legitima tionsprobleme, die sich im Umgang mit dem geltenden Recht stellen, zur Sprache bringen (Fischer-Lescano 2013; Menke 2011). Im Folgenden sollen diese Besonderheiten der Rechtswissenschaft reflektiert und erste Konturen einer modernen Einzelwissenschaftsphilosophie skizziert werden. Den Ausgangspunkt wird die Auseinandersetzung mit dem ge168
Philosophie der Rechtswissenschaft
genwärtigen Wissenschaftskonzept der Rechtswissenschaft bilden. Der Blick auf das Wissenschaftskonzept soll zudem die fachbezogene Selbstorganisation der Rechtswissenschaften verdeutlichen. Ferner lassen sich dadurch die originären Erkenntnisinteressen, die Vorannahmen, Techniken und Methoden der Rechtswissenschaft zum Vorschein bringen. Wie sich diese Programmatik auf das rechtswissenschaftliche Problembewusstsein, namentlich auf den interdisziplinären Diskurs auswirkt, wird zum Abschluss zu diskutieren sein.
2 Philosophie, Wissenschaft und Recht: Grundfragen Die Frage nach der Wissenschaftlichkeit verweist zum einen auf den Gegenstandsbereich, den besonderen Weltbezug (a), zum anderen auf die theoretische Rahmung (b) der modernen Rechtswissenschaft.
2.1 Recht als »Gegenstand« der Rechtswissenschaft Als Einzelwissenschaft wird die Rechtswissenschaft wesentlich durch ihren Gegenstandsbereich – das Recht – geprägt. Diese »Prägung« erfolgt indes nicht einseitig. Vielmehr ist jede Einzelwissenschaft nur in ihrer Wechselbezüglichkeit von Gegenstand und theoretischer Rahmung, von (sozialer) Tatsache und Erkenntnisinteresse zu begreifen (vgl. dazu auch die Erläuterungen unter b). Dennoch kommt dem Recht als originärer »Gegenstand« für das Selbstverständnis der Rechtswissenschaft eine zentrale Bedeutung zu. Das folgt bereits aus der Eigenart des Rechts, dessen Aufgaben und Funktionen. Im Unterschied zu den »klassischen« Naturwissenschaften oder auch den Life Sciences, beispielweise der Physik und Chemie, den Neuro- oder Biowissenschaften (Breil 2011, 39), hat es die Rechtswissenschaft immer schon mit einer normativ begründeten – in diesem Sinne erst hervorgebrachten – und praktisch realisierten Interaktionsform zu tun. Unterschieden ist der Gegenstand der Rechtswissenschaft auch von den »allgemeinen Sozialwissenschaften«, etwa der Soziologie oder Anthropologie. Geht es doch um den besonderen Charakter dieser Interaktionsform – des Rechts –, um das Zusammenspiel damit verknüpfter Rechte und Pflichten (zur Überschneidung der Erkenntnisinteressen vgl. aber 3a) und b)). Das Recht stellt insofern eine weitgehend anerkannte, allgemeingültige und notfalls mit Zwang durchsetzbare Kultur- und Werteordnung dar. Als Kulturund Werteordnung bündelt das Recht individuelle und gesellschaftliche Freiheitsvorstellungen und entschärft damit bestehende oder drohende Konflikte (Kant 1797; Kelsen 1934/1960; Habermas 1992; Bundesverfassungsgerichtsentscheidung Bd. 123, 267). Diese im und durch das Recht zum Vorschein kommende integrative Kraft bezeichnet zuallererst dessen Eigenart (zu den Paradoxien des Rechts vgl. Luhmann 1981, 45; Foucault 2005 und die Analyse unter 4 f). Gleichzeitig wird so 169
II. Die Philosophie der Formal- und Geisteswissenschaften
auch die für das geltende Recht typische Gestaltungsmacht sichtbar. Bezieht doch das moderne Recht seine Legitimation nicht zuletzt daraus, dass es durch effektive Steuerung, Regulierung und Intervention auf gesellschaftliche Entwicklung und gewandelte Staatsaufgaben reagiert. Recht, ob staatlich, transnational oder gesellschaftlich organisiert, tritt hier – im Gegensatz zur normtranszendenten Ausrichtung vormoderner Kodifikationen – als funktionales Gewährleistungsinstrument auf (Grossi 2010; Prodi 2005). Als positiv gesetzte Norm soll es verbindlicher Orientierungsmaßstab sein; dementsprechend hat es für Verfahrensrationalität und Willkürbegrenzung, für Rechtssicherheit und Einzelfallgerechtigkeit zu sorgen. Gerade dieses Funktionskalkül macht aber auch die Ambivalenz des modernen Rechts zumal als Gegenstand der Rechtswissenschaft aus. Denn die »Allzuständigkeit« des positiven Rechts gekoppelt mit der Regelungsbedürftigkeit heutiger Gemeinwesen erfordert eine permanente Anpassung des Normhaushalts durch den parlamentarischen Gesetzgeber und verstärkt damit einen Prozess, der die integrative Kraft und Gestaltungsmacht des Rechts neu definiert. Recht hat inzwischen – zumindest auch – den Charakter einer Sozialtechnologie, die Vernunft mit Fungibilität, Wertorientierungen mit Flexibilität verbinden soll. Für die Rechtswissenschaft ist diese Technologisierung der Rechtskultur eine große Herausforderung. Zwar ist die »dahinterstehende« Problematik nicht völlig neu, auch andere Epochen und Gesellschaften kannten sie (Troje 1969, 63). Aber erst mit dem Siegeszug des positiven Rechts ist sie wirklich virulent geworden. Zu klären galt und gilt es nämlich, inwiefern Recht und Gesetz einer »wissenschaftlichen Behandlungsart« zugänglich sind und worauf sich das konkrete Erkenntnisinteresse beziehen soll. Schon frühzeitig hatte der preußische Staatsanwalt Julius Hermann von Kirchmann auf den neuralgischen Punkt aufmerksam gemacht. Rechtswissenschaft und Rechtsdogmatik, so sein vielzitiertes Verdikt, hätten es »nur mit den Lücken, Zweideutigkeiten, Widersprüchen, mit dem Unwahren, Veralteten, Willkürlichen der positiven Gesetze zu tun. Die Unkenntnis, die Nachlässigkeit, die Leidenschaft des Gesetzgebers ist ihr Objekt … Die Juristen sind durch das positive Gesetz zu Würmern geworden, die nur von dem faulen Holz leben; von dem gesunden sich abwendend, ist es nur das kranke, in dem sie nisten und weben. Indem die Wissenschaft das Zufällige zu ihrem Gegenstand macht, wird sie selbst zur Zufälligkeit; drei berichtigende Worte des Gesetzgebers und ganze Bibliotheken werden zur Makulatur.« (Kirchmann 1848/1969, 16). Kirchmann artikuliert hier ein sich bis in die Gegenwart fortschreibendes Unbehagen der Rechtswissenschaft: Als Einzelwissenschaft kommt sie nicht umhin, sich mit einem heterogenen (hybriden), durch eine Interessensvielfalt »verflüssigten« Gegenstandsbereich zu beschäftigen, der sie aber zugleich auf ein beschränktes Wissenschaftsverständnis festzulegen scheint. Hans Kelsen spitzt diese Sicht noch zu, wenn er die Rechtswissenschaft als eine »dem Zentrum des Geistes entlegene Provinz« ansieht, die dem Fortschritt nur langsam nachzuhumpeln pflege (Kelsen 1934/1960, IV). Die mit der zunehmend pluralisierten Gesellschaft einhergehende »spezialisierte 170
Philosophie der Rechtswissenschaft
Rechtswissenschaft« sieht sich also nicht nur vor das Problem gestellt, einen kohärenten Gegenstandsbereich – (geltendes) Recht, Gesetz, faktische Normenordnung etc.– bestimmen und verteidigen, sondern auch das dafür in Anspruch genommene Theor ie- und Wissenschaftskonzept ausweisen zu müssen (Buckel/ Christensen/Fischer-Lescano, 2009).
2.2 Wissenschaft und Theoriebildung in der Rechtswissenschaft Der Begriff der Wissenschaft wird heute vor allem durch die moderne Wissenschaftstheor ie und die Wissenschaftsphilosophie näher bestimmt (Schurz 2014; Mühlhölzer 2011, 14). Im Rahmen einer kontroversen Debatte geht es insbesondere um das, was als Ideal oder Projekt der Wissenschaft bezeichnet werden kann. Für Tetens etwa verklammert dieses Ideal verschiedene semantische Differenzierungen und Praktiken: namentlich das Ideal der Wahrheit, das Ideal der Begründung, das Ideal des Verstehens, das Ideal der Intersubjektivität und das Ideal der Selbstreflexion. Das Ideal der Wahrheit soll besagen, dass eine Wissenschaft ohne die Unterscheidung von wahr und unwahr, richtig und falsch nicht bestehen kann, dass diese Unterscheidung vielmehr das zentrale Kriterium von Wissenschaftlichkeit darstellt. Das Ideal der Begründung soll verdeutlichen, dass Wissenschaftlichkeit notwendig mit Denken und Systematisieren, d. h. mit Praktiken des Argumentierens, des Schließens und des Urteilens verbunden ist. Das Ideal des Verstehens soll darauf hinweisen, dass es die Wissenschaft immer schon mit bestimmten Formen der (Welt-)Deutung und Interpretation zu tun hat. Das Ideal der Intersubjektivität soll klarstellen, dass Wissenschaft und wissenschaftliche Erfahrungen im Kontext einer konkreten Wissenschaftsgeschichte und einer scientific community zur Geltung gebracht werden. Das Ideal der Selbstreflexion soll schließlich dafür sensibilisieren, dass Wissenschaft nur dann funktionieren kann, wenn sie ihre eigenen Voraussetzungen, die Erkenntnisinteressen und Methoden, diskutiert (Tetens 2013, 17). Mit dem Ideal der Wissenschaft – soweit wir es als Argumentationstopos zugrunde legen – ist aber nur der abstrakte Rahmen von Wissenschaftlichkeit bezeichnet. Für die Rechtswissenschaft, wie für jede Einzelwissenschaft, kommt es darauf an, diesen Rahmen erkenntnis- und handlungsleitend auszufüllen (Kirste 2010, 29; Röhl/Röhl 2008, § 9). Mit welchen Friktionen und Problemen eine solche Selbstverortung der Einzelwissenschaften einhergehen kann, lässt sich an der »Emanzipations- und Spezialisierungsgeschichte« der Rechtswissenschaft ersehen (dazu s. o.). Diese Selbstverortung hat sich regelmäßig an der im 19. Jahrhundert etablierten Unterscheidung von Natur- und Geisteswissenschaften orientiert (Schröder 2012, 193). Zwar konnte das Recht als Gegenstand der Rechtswissenschaft nur unter den zweiten Bereich fallen; die Heterogenität des Rechts und die Ausdifferenzierung der Rechtswissenschaft schienen dazu aber nicht mehr zu passen. Die von juristischer Seite gezogene Konsequenz, die theor iebezogene 171
II. Die Philosophie der Formal- und Geisteswissenschaften
Reflexionsebene von der anwendungsbezogenen Konfliktlösungstechnik abzugrenzen, hat bis heute Bestand. Der Anwendungsbezug geht insoweit in einem weitgehend theor ieabstinenten Verständnis von Jurisprudenz als Rechtsdogmatik auf. Kirchmanns Menetekel hatte wohl diese Seite der Rechtswissenschaft im Blick (Jestaedt 2006, 5; Röhl/Röhl 2008, § 9). Der gleichzeitige Theorie- und Anwendungsbezug des Rechts ist nicht zu bestreiten. Es dürfte aber einem abgespeckten Wissenschaftskonzept entsprechen, den Anwendungsbezug des Rechts nicht für theoriefähig zu halten. In der aktuellen Debatte wird dagegen mit guten Gründen betont, dass zwischen der konkreten praktischen Tätigkeit des Juristen und der Frage nach den legitimitätsbegründenden (dogmatischen) Voraussetzungen der Rechtsanwendung unterschieden werden muss (Günther 1988, 335; vgl. auch die Erläuterungen unter 3b). Rechtswissenschaft wäre danach als eine Geisteswissenschaft »im weiten Sinne« aufzufassen und würde geistes-, sozial- sowie anwendungswissenschaftliche Perspektiven vereinigen. Das gegenwärtig diskutierte Modell einer »Rechtswissenschaftstheorie« (Lepsius 2008, 1; Jestaedt 2008, 185) will diesen Perspektivenpluralismus in einen angemessenen Theorierahmen überführen. Dem liegt die Einsicht zugrunde, dass rechtswissenschaftliche Theorie zweierlei zu leisten hat. Zum einen muss sie die rechtsprinzipiellen Grundlagen liefern, mittels derer das Recht als normative und komplex geordnete Kategorie identifiziert werden kann. Zu explizieren ist insofern, dass die Rede von der Allgemeinheit, der Wert- und Freiheitsorientierung des Rechts, auf ein bestimmtes Menschen- und Gesellschaftsbild, auf eine conditio humana abhebt; und zu explizieren sind die dafür in Anspruch genommenen Begrifflichkeiten, Kriterien und Semantiken; etwa der Person, der Normativität oder der Verfassung. Zum anderen muss eine rechtswissenschaftliche Theorie den divergierenden methodischen Zugängen, Erkenntnisinteressen und Deutungspara digmen innerhalb der Rechtswissenschaft gerecht werden. Gerade weil Recht auch als geschichtliche, soziale, faktische oder kulturelle Tatsache in Erscheinung tritt, gilt es die verschiedenen (Erkenntnis-)Perspektiven wissenschaftstheoretisch ernst zu nehmen. Rechtsdogmatik, Rechtspolitik, Rechtssoziologie etc. sind durch einen gemeinsamen Gegenstand verbunden, der aber erst durch die Mobilisierung der je spezifischen Methoden, Interessen und Deutungen seine lebenswirklichen Konturen gewinnt (dazu Abschn. 3.). Eine Rechtswissenschaftstheorie dieses Zuschnitts ist daher sowohl holistisch als auch pluralistisch programmiert. Damit löst sie sich nicht von der Tradition rechtswissenschaftlichen Denkens, wie sie sich vor allem im 19. und 20. Jahrhundert herausgebildet hat. Durch die Öffnung des Wissenschaftsbegriffs gelingt es ihr vielmehr, die bestehenden Polarisierungen – Theorie vs. Dogmatik, Grundlagen- vs. Anwendungsbezug – aufzubrechen. Die hier beobachteten Tendenzen der jüngeren (Rechts-)Wissenschaftsgeschichte haben zudem einen weiteren Effekt: Denn neben dem intradisziplinären Dialog rückt die interdisziplinäre Kommunikation und damit die interdisziplinäre Anschlussfähigkeit der Rechtswissenschaft in den Blick. Die Rechtswissenschaft ist als Geisteswissenschaft »im weiteren Sinne« auf die Expertise ihrer Nachbar172
Philosophie der Rechtswissenschaft
wissenschaften angewiesen. Nur durch Rückgriff auf externes Fachwissen kann sie das Niveau ihrer »Gegenstandsanalyse« langfristig behaupten. Im Gegenzug kann sie ihre Kompetenzen als »Norminterpretin« – als hermeneutische Dis ziplin – und »Ordnungsgestalterin« in die Waagschale werfen (Larenz/Canaris 1995, 11). Die Wissenschaftlichkeit der Rechtswissenschaft gründet sich insofern auf einen funktionierenden intra- und interdisziplinären Wissenstransfer. Dieser Wissenstransfer war und ist es dann aber auch, der wesentlich zur Selbstreflexivität, d. h. zur kritischen Befragung »herrschender« Dogmatisierungs- und Konfliktlösungspraktiken beitrug und beitragen kann.
3 Infrastruktur und Methoden der Rechtswissenschaft 3.1 Die Infrastruktur Die moderne, akademisch etablierte Rechtswissenschaft ist ohne eine intradisziplinär angelegte Infrastruktur nicht denk- und praktizierbar (Kühl, Reichold, Ronellenfitsch, 2015). Eine intradisziplinär angelegte Infrastruktur bezeichnet in diesem Kontext ein dynamisches Bezugssystem, wenn man so will, ein Netzwerk (Cluster) von methodischen Strategien, Erkenntnisperspektiven und Deutungsparadigmen, die in verschiedenen Teil- und Subdisziplinen repräsentiert werden (dazu auch unter b). Zu nennen sind hier die Rechtsdogmatik – namentlich des Straf-, Zivil-, des Öffentlichen Rechts –, die Rechtsphilosophie, die Rechtsgeschichte, Rechtspsychologie und die Rechtssoziologie, darüber hinaus die Rechtstheor ie, einschließlich der Logik und juristischen Methodenlehre, die Rechtspolitik, die Rechtstechnologie und die ökonomische Analyse des Rechts. Das Netzwerkverständnis konkretisiert den Wissenschaftsbegriff einer gesellschaftsrelevanten Rechtswissenschaft, indem es sowohl das pluralistische als auch das holistische Element theoretischer Erkenntnis zur Geltung bringt. Die genannten Teil- und Subdisziplinen der Rechtswissenschaft stehen deshalb auch nicht in einem hierarchischen, sondern in einem gegenstandsbezogenen Ergänzungsverhältnis zueinander. Das heißt hinsichtlich ihrer Erkenntnisinteressen und methodischen Strategien sind sie eigenständig; mit Blick auf das Gesamtprojekt der Rechtswissenschaft »perspektivenrelativ«. Insofern sind die je besonderen Erkenntnisinteressen der Teil- und Subdisziplinen aber immer auch zu kontextualisieren, zu regionalisieren und wenn nötig zu depotenzialisieren. Dem Bild einer reflektierten Rechtswissenschaft würde es gerade nicht entsprechen, wenn sich das gesamte Fach nur über eine Perspektive – etwa die Rechtsdogmatik – definierte und sich die Bedeutung aller anderen Teildisziplinen (allein) nach dem Nutzen bemessen würde, den sie für die Dogmatik erbringen können (Jestaedt 2008, 185, 197). Das Erkenntnisinteresse und die Methode der Dogmatik würden so zur einzigen, alternativlos verbindlichen Leitlinie rechtswissenschaftlichen 173
II. Die Philosophie der Formal- und Geisteswissenschaften
Denkens. Gleiches würde mutatis mutandis für jede andere Teilsdisziplin gelten. Welche Bedeutung dagegen das gegenstandbezogene Ergänzungsverhältnis für die Rechtswissenschaft hat, wird ersichtlich, wenn die »Logik« der Erkenntnis interessen und Methoden zur Debatte steht.
3.2 Erkenntnisinteressen und Methoden Während mit der Infrastruktur in erster Linie die Form angesprochen ist, mittels derer sich die Rechtswissenschaft als Geisteswissenschaft im weiten Sinne organisiert, beziehen sich die Erkenntnisinteressen und Methoden zugleich auf die Art und Weise, mit der »das Recht« als gesellschaftliches Phänomen erschlossen und die dem Recht immanenten Norm- oder Zwecksetzungen »verarbeitet« werden sollen. Die Erkenntnisinteressen und Methoden lassen sich – idealtypisch – nach drei Richtungen differenzieren: hinsichtlich der Normauslegung und Interpretation (1), einer Erfahrungs-, Geschichts- und Gesellschaftsanalyse (2) und hinsichtlich einer rechtsphilosophischen Struktur- und Begriffsanalyse (3).
3.2.1 Normauslegung und Interpretation Zentraler Bezugspunkt der Rechtswissenschaft ist die geltende Normenordnung. Unter Rückriff auf die Rechtsdogmatik soll einerseits die Eigenlogik und Wissensproduktion, andererseits die Anwendungs- und reale Konfliktlösungskompetenz der Rechtswissenschaft garantiert werden. Nach gängiger Definition ist Dogmatik als ein »innersystematisch erarbeitetes Gefüge juristischer Begriffe, Institutionen, Grundsätze und Regeln« zu verstehen, »die als Bestandteil der positiven Rechtsordnung unabhängig von einer gesetzlichen Fixierung allgemein Anerkennung und Befolgung beanspruchen (Brohm 1972, 246). Die Frage nach Grund und Struktur des Vertrages, der Strafzumessung oder der Grundrechte sind Beispiele für das konkrete Erkenntnisinteresse der Dogmatik. Dieser innersystematische Ordnungsanspruch der Rechtsdogmatik soll vor allem eine kohärente Deutung, Sprache und Technik des geltenden Rechts ermöglichen. Insofern hat die Dogmatik zugleich eine Orientierungs-, Stabilisierungs-, aber auch eine Rationalisierungs- und Legitimationsfunktion (Lepsius 2008, 17). Um diese Funktionen wahrnehmen zu können, bedarf es nach allgemeiner Überzeugung zielführender, d. h. handlungsleitender Methoden (Vesting 2007, 99). Hier mobilisiert die Dogmatik das Instrumentarium juristischer Argumentationslogik und Methodenlehre. Juristische Argumentationslogik und Methodenlehre geben damit die Standards vor, mittels derer Sinn, Prinzipien und Reichweite einzelner Normen oder Normenkomplexe begriffen und für die konkrete Rechtsanwendung fruchtbar gemacht werden können (Savigny/Neumann/Rahlf 1976; Larenz/ Canaris 1995, 133; Funke/Lüdemann 2009; Muthorst 2011, 15; vgl. dazu die nach174
Philosophie der Rechtswissenschaft
folgenden Erläuterungen). Auch wenn so der Doppel- oder Hybridcharakter der Rechtsdogmatik mit ihrer sowohl theoretischen als auch praktischen Ausrichtung unterstrichen wird, ist doch deren Orientierungsfunktion für die Rechtsanwendung heute unbestritten. Rechtsdogmatik und konkrete Rechtsanwendung sind zwar in der Normanalyse und Normverarbeitung unterschieden, konstruktiv generalisierend einerseits, rekonstruktiv einzelfallbezogen andererseits, weitgehend anerkannt dürfte aber in der Rechtswissenschaftstheorie sein, dass Rechtsdogmatik und Rechtsanwendung keine völlig getrennten, nebeneinanderher laufende Diskurse darstellen (Lepsius 2008). Dogmatik expliziert vielmehr den normspezifischen Theorierahmen, den die Rechtsanwendung ihren Entscheidungen implizit zugrunde legen muss, wenn sie nachvollziehbare und einzelfallgerechte Konfliktlösungen produzieren will (siehe bereits 2b). Dogmatik und Rechtsanwendung sind daher zwei Seiten einer Wissenschaft, die als Geisteswissenschaft im weiten Sinne zugleich eine hermeneutische Verstehenswissenschaft ist (Radbruch spricht im Anschluss an die neukantianische Philosophie auch von einer verstehenden Kulturwissenschaft, vgl. Radbruch 1993, 9, 53, 206, 354; dazu auch Schreiber 1993, 92). Die methodischen und argumentativen Standards konkretisieren diese Ausrichtung. Das betrifft zunächst die Argumentationsstrategien dogmatischer Tätigkeit. Normanalyse und Normverarbeitung erfolgen insoweit aus deskriptivempirischer, aus logisch-analytischer und aus normativ-praktischer Sicht (Dreier 1991, 217; Kirste 2010, 38). Mit dem deskriptiv-empirischen Zugriff ist die Operationalisierung der vorgegebenen Rechtsmaterie angesprochen, mit dem logischanalytischen die erwähnte Systematisierung und mit dem normativ-praktischen Zugriff Kritik und daran anknüpfende Lösungsansätze. Parallel dazu werden verschiedene Argumentationsmethoden in Anschlag gebracht: die induktive, die deduktive und die topische. Die induktive Methode bezieht sich auf die (klassifikatorische) Einordnung und Steuerung spezialrechtlicher Entscheidungsroutinen (Luhmann 1974, 15). Demgegenüber betont die deduktive Methode die Notwendigkeit axiomatischer Verallgemeinerungen im Recht, etwa im Kontext wiederspruchsfreier Begründungen von Strafbarkeitsvoraussetzungen etc. (Schuhr 2006, 59, 77). Die Topik wiederum verweist auf die innovative Dynamik juristischer Argumentation, indem sie bestimmte Schlüsse nicht nur als Wahrheitstechniken einsetzt, sondern auch zur Rechtsfortbildung und Entwicklung neuer Rechtsregeln nutzt, prominentes Beispiel ist der Analogieschluss (Schröder 2012, 25, 126; Viehweg 1974). Diese Methoden der Argumentation sind Signaturen der Interpretation und des Verstehens. Denn es ist gerade Zweck dogmatischer Methoden, Normen, Texte und Aussagen eine anerkannte oder anerkennbare Deutung, d. h. Sinn zu verleihen. Diese Deutung ist keine statische oder ein für allemal vorgegebene. Verständnis durch Dogmatik ist relativ zu den Bedingungen und Diskursen, mit denen sie verbunden ist (Bung 2007, 271; Legendre 2012, 37). Mit Blick auf die Anwendungsseite der Rechtswissenschaft definiert die Dogmatik zugleich das framework juristisch möglicher Auslegungs- und Verstehensleistungen. 175
II. Die Philosophie der Formal- und Geisteswissenschaften
Daraus ergibt sich das Methodenprogramm der Rechtspraxis. Ausgehend von der Entscheidungsbezogenheit, der Rechts- und Gesetzesbindung aktualisiert die Rechtspraxis den Interpretationsauftrag durch ein Ensemble von Auslegungspraktiken. Die bis in die zweite Hälfte des 20. Jahrhunderts kontrovers geführte Debatte, ob insofern einem subjektiven Standpunkt des historischen Gesetz gebers oder dem zu ermittelnden Willen des Gesetzes der Vorzug zu geben ist, spielt heute kaum noch eine Rolle (Heck 1914, 56; Kohler 1886, 1). Als Auslegungspraktiken kommen heute die grammatische, die systematisch-logische, die historische und die teleologische Auslegung in Betracht. Die grammatische Auslegung zielt auf den Wortlaut des Gesetzes und fokussiert dabei auf die Semantik und die Syntax der Gesetzesformulierung. Die systematisch-logische Auslegung versucht eine gerechte Normanwendung durch einen Blick auf den (weiteren) Normkontext zu ermöglichen; so kann u. a. verhindert werden, dass etwaige Unklarheiten der Norm Wertungswidersprüche zur Folge haben. Die historische Auslegung stellt die Norm in einen genealogisch-genetischen Kontext. Ein besseres Verständnis der Norm soll hier dadurch erreicht werden, dass auf die Dogmengeschichte der Regelung, auf den historischen Gesetzgebungsprozess oder die Sozialgeschichte der Zeit Bezug genommen wird, in der sie geltendes Recht wurde. Die teleologische Auslegung fragt schließlich nach der ratio legis – dem Zweck und den konkreten Folgen – der Norm. Danach soll unter den alternativen Normzweckdeutungen immer diejenige gewählt werden, die die bestmögliche Antwort auf den Interessenskonflikt darstellt. Neben diese vier, sich regelmäßig ergänzenden Auslegungspraktiken tritt als weitere Methode die (richterliche) Rechtsfortbildung. In Dogmatik und Methodenlehre ist heute unbestritten, dass es Konstellationen gibt, in denen Normen eine durch den Gesetzgeber oder die Verfassung nicht intendierte Regelungslücke aufweisen. Während es bei der typischen Auslegung um die Verarbeitung eines normbezogenen »Deutungsüberschusses« geht, bezeichnet die Regelungslücke ein planwidriges Regelungsdefizit, ein nicht (weiter) auslegbares Schweigen der Norm. Der Rechtsanwender soll dann unter bestimmten Voraussetzungen berechtigt oder sogar verpflichtet sein, das Schweigen des Rechts, etwa mit Hilfe des Analogieschlusses, in eine normangemessene Sprache zu übersetzen und dadurch eine sachgerechte Konfliktlösung zu gewährleisten. Das kann durch das Schließen von Regelungslücken oder aber durch die Einführung neuer Rechtsinstitute praeter legem erfolgen (Larenz/Canaris 1995, 191; Röhl/Röhl 2008, § 77; Bumke 2012; Rüthers/Fischer/Birk 2015, 421). So gewährt etwa § 1004 Abs. 1 S. 2 BGB nur einen Unterlassungsanspruch gegen drohende Beeinträchtigungen des Eigentums. Er wird aber analog auf Fälle der Verletzung des Allgemeinen Persönlichkeitsrechts angewandt. Eine solche Rechtsanalogie zum Zweck der Lückenfüllung soll möglich sein, weil § 823 Abs. 1 BGB gegen Verletzungen des Allgemeinen Persönlichkeitsrechts als »sonstigem Recht« einen Schadensersatzanspruch vorsieht. 176
Philosophie der Rechtswissenschaft
Wenn aber der Gesetzgeber das Allgemeine Persönlichkeitsrecht vor stattgefundenen Beschädigungen schützt, so die Begründung, dann muss er auch den vorbeugenden Schutz gegen drohende Verletzungen dieses Rechts schützen. – Nicht nur um eine gesetzesausfüllende, sondern um eine gesetzesübersteigende Rechtsfortbildung handelt es sich in bestimmten Fällen der Schmerzensgeld gewährung. § 253 BGB beschränkt Schadensersatz grundsätzlich auf Vermögensschäden. Schmerzensgeld gibt es nur in den im Gesetz nach § 847 BGB geregelten Ausnahmefällen: Körper, Gesundheit, Freiheitsentziehung. Der Bundesgerichtshof hat bei Verletzung des Allgemeinen Persönlichkeitsrechts aus Art. 1 I, 2 I GG aber trotzdem finanzielle Entschädigungen gewährt (BGHZ 26, 349; 35, 363; 39, 124). – Allerdings zeigt sich gerade bei der sog. Rechtsfortbildung ein häufig nicht explizit gemachtes Rechtsanwendungsproblem. Denn mit der Technik der »Lückenausfüllung«, der Einführung neuer Institute o. ä. wird zwar ein umfassendes Regelungspotential des geltenden Rechts behauptet. Die Frage ist aber, ob damit nicht die Grenzen von Recht und Rechtspolitik, von Norminterpretation und Normsetzung überschritten werden. Rechtswissenschaftlich muss deshalb geklärt werden, welcher Rechts- und Normbegriff diesen Praktiken zugrunde liegt. Geklärt werden muss auch, wie strikt man die Bindung des Richters an die Vorgaben des Gesetzgebers und mit Blick auf das Verfassungsrecht (vgl. Art. 20 III, 97 GG) sehen will (Zabel 2013, 315). Systematisierungs- und Deutungsanspruch der Rechtsdogmatik sind stark von dem geprägt, was Luhmann »Kompaktkommunikation« genannt hat (Luhmann 2008, 146). Die Rede von der Kompaktkommunikation macht auf die Idee westlicher Rechtstradition aufmerksam, die Verfassung von Gesellschaften durch das Projekt der kodifikatorischen Rechtseinheit zu organisieren, wie sie ab dem 19. Jahrhundert in den »staatlichen« Gesetzbüchern und Codices Gestalt angenommen hat. Abgelöst wurde damit zugleich die »aufgelockerte Ordnung« des vormodernen Normenpluralismus (Berman 1991; Kesper-Biermann 2009; Prodi 2005; Vesting 2011). Der Dogmatik ging es deshalb zuallererst darum, diesem Kodifikationsprojekt der Moderne Rechnung zu tragen. Dass Rechtswissenschaft immer wieder mit Jurisprudenz oder Dogmatik gleichgesetzt wurde, hat nicht nur damit zu tun, dass das (staatliche) Gesetz zentrale Referenz dieses Projekts war, sondern dass Dogmatik zu Recht als eine moderne juristische Freiheitsgarantie angesehen wurde. Dogmatik konnte und kann bis heute gerade durch ihre Methoden juristische Kompetenzen im Umgang mit Erfahrungen und Texten freisetzen, was im Gegenzug der autonomiesichernden Wirkung des Rechts zu Gute kommen sollte. Dass mit Dogmatik zugleich gegenteilige Effekte verbunden waren, dass sie hermetisch, legitimitätssichernd und ideologisch sein konnte, hat ihr zugleich den Ruf einer abschottenden und verdeckt politisch agierenden Arbeits- und Autoritätstechnik eingebracht (Lepsius 2008, 17; Samuel 2009, 431; Essen/Jansen 2011). An dieser Metaanalyse der Dogmatik lässt sich der Wechsel von einer innersystematischen zu einer externen, das geltende Recht transzendierenden Perspektive beobachten, wie sie innerhalb der Rechtswissenschaft vornehmlich durch 177
II. Die Philosophie der Formal- und Geisteswissenschaften
die Grundlagenfächer eingenommen wird. Diese externe Perspektive artikuliert sich entweder durch eine Erfahrungs-, Geschichts- und Gesellschaftsanalyse oder durch eine rechtsphilosophische Struktur- und Begriffsanalyse.
3.2.2 Erfahrungs-, Geschichts- und Gesellschaftsanalyse Die Erfahrungs-, Geschichts- und Gesellschaftsanalyse ist das Metier von Subdisziplinen der Rechtswissenschaft, die das Recht aus seiner historischen Genese, seinen ökonomischen, gesellschaftlichen und politischen Kontexten heraus zu erklären versuchen. Dazu gehören die Rechtssoziologie (in zunehmend stärkeren Maße auch Rechtsanthropologie und Rechtsethnologie) und die Rechtsgeschichte, die Rechtspolitik und die Rechtspsychologie, des Weiteren die ökonomische Analyse des Rechts und die Rechtstechnologie. Das damit verknüpfte Erkenntnisinteresse beruht auf einer Kopplung mit den Erkenntnisinteressen der Nachbarwissenschaften – der Soziologie, der Ökonomie, Geschichte usw. – und führt letztlich zu einer Dopplung des Spezialfachs innerhalb der Rechtswissenschaft. Der Standpunkt der Erklärung ist in aller Regel ein beobachtend-strukturierender, in dem Recht als faktische, soziale, kulturbedingte und insofern empirisch bestimmbare Tatsache aufgefasst wird. Diesem Interesse entspricht auch das Methodenrepertoire. Zu erwähnen ist hier die (hermeneutische) Quellenanalyse und -kritik, etwa um die wirtschaftlichen, ordnungspolitischen und sozialgeschichtlichen Bedingungen von Rechtsentwicklungen, von Kodifikations- und Dogmengenesen, aber auch von epochenspezifischen Devianz- und Sanktionsformen verstehen zu können (Rüsen 1983; Wesel 1974, 337). – Großen Einfluss auf die rechtswissenschaftliche Grundlagenforschung hat(te) zudem das durch Max Weber eingeführte Wertfreiheitsparadigma. Diesem Paradigma lag die Idee zugrunde, dass moderne Sozialwissenschaften nach Wertfreiheit streben sollten, weil politische und moralische Werte nicht (mehr) objektiv begründbar seien und wertimprägnierte Forschung mit dem Problem der Einseitigkeit zu kämpfen habe. Wissenschaft hätte demzufolge zur umfassenden Demystifizierung von Wahrheits- und Geltungsansprüchen beizutragen (Weber 1904/1988). Innerhalb der Rechtswissenschaft wurde dieser Anspruch vor allem dort virulent, wo er unter Rückgriff auf Karl R. Poppers Kritischen Rationalismus auf dem »Problemstatus« unseres Wissens beharrte und die Steuerungswirkung tatsächlich geltender Normen mit Blick auf ihre erfahrungsbezogene Falsifizierbarkeit interpretierte (Popper 2005, 3, 26; Albert 1972, 80; Lenk 1986, 52). Konkretisiert wurde diese Methodologie durch die in der (Rechts-)Soziologie entwickelten Konzepte der qualitativen und quantitativen Sozialforschung, der Alltags- und Milieuforschung, der Macht- und Herrschaftstheorien etc. (Kern 1982; Beck 1986; Bourdieu 1982; Goffman 1967; Foucault 2005), deren rechtswissenschaftliches Potential gegenwärtig in der Gesetzgebungslehre, der Kriminologie oder in der Gover178
Philosophie der Rechtswissenschaft
nance- und Compliance-Forschung mobilisiert wird (Göppinger 2008; Schuppert 2011). Psychologie und Rechtspsychologie nutzen, neben naturwissenschaftlicher Expertise, den bekannten sozialwissenschaftlichen Methodenrahmen, legen den Schwerpunkt aber auf eine Analyse des menschlichen Erlebens und der damit verknüpften Interaktionsmuster. Die heute gängige Ausdifferenzierung der (empirischen) Psychologie in Verhaltenswissenschaft, Kognitionswissenschaft und Neurowissenschaft wirkt vor allem dort in das Recht und in die Rechtswissenschaft hinein, wo es um die personalen Kompetenzen, die Erlebnis- und Verantwortungsfähigkeit der Akteure, ferner um die institutionellen und kommunikativen Verfahren juristischer Konfliktlösung geht (Pauen/Roth, 2008; Volbert 2008). Die ökonomische Analyse des Rechts verbindet in methodischer Hinsicht sozialwissenschaftliche Rationalitäts- und Handlungsmodelle mit einer normorientierten Effizienzanalyse. Leistungsfähigkeit und Probleme des Rechts werden zum einen aus der Perspektive des homo oeconomicus, zum anderen an regelungsspezifischen Kosten-Nutzen-Kalkülen ausdiskutiert. Insofern könne Menschen eine grundsätzliche Affinität zu rational-choice-Praktiken unterstellt werden. Rechtsnormen erhöhten oder verringerten die Kosten bestimmter Handlungen, stellten demnach »versteckte Preise« oder »Subventionen« dar. Die ökonomische Analyse des Rechts reformuliert hier einen aktuellen Trend jedenfalls in einigen Bereichen der Sozialwissenschaften, nämlich die Ökonomie als Leitwissenschaft zu akzeptieren und deren Grundannahmen einzelwissenschaftlich zu adaptieren (van Aaken 2003; Eidenmüller 2005; Ladeur 2000, 60; Mathis 2009). Für das Selbstverständnis des Rechts und der Rechtswissenschaft spielt zudem die Technologisierung der Gesellschaft eine immer wichtigere Rolle. Mit Hilfe der »Rechtstechnologie« als Grundlagenwissenschaft wird deshalb reflektiert, ob und in welcher Weise der Einsatz von neuer Technik, etwa von Robotik, zu neuen Erfahrungen, anders gearteten Rechtspositionen und Konflikten führt. Rechtstechnologie ist insoweit »normbezogene Technikfolgenabschätzung« und markiert damit die eminente Schutzbedürftigkeit, aber auch die Wandelbarkeit subjektiver Rechte und Pflichten (Kornwachs 2013; Roßnagel 1993; Beck/Zabel 2015, 197, vgl. auch die Erläuterungen unter 4g). Schutzbedürftigkeit und Wandelbarkeit von subjektiven Rechten und Pflichten ist schließlich das zentrale Thema der Rechtspolitik. Rechtspolitik hat als »rechtsexterne« Perspektive nur mittelbar etwas mit dem vorhandenen Normhaushalt zu tun. Zwar muss sie, um Anschlussfähigkeiten und Kompatibilitäten zu ermöglichen, das geltende Recht im Auge behalten, ihr eigentliches Interesse gilt jedoch dem noch nicht gesetzten, d. h. zukünftigen Recht. Rechtspolitik als Theorie der Rechtsgestaltung greift einerseits auf den sozialwissenschaftlichen Methodenrahmen und entsprechende Wissensressourcen zurück, etwa in Form von »Auftragsforschung«, um gesellschaftliche Entwicklung und Erwartungen auszuloten. Andererseits ist Rechtspolitik immer schon mit einer weitreichenden Konflikt- und Risikoprognostik verbunden. Rechtspolitik ist deshalb nie nur 179
II. Die Philosophie der Formal- und Geisteswissenschaften
beobachtend-analytisch, sondern zugleich praktisch-normativ. Der Erkenntnisund Gestaltungsanspruch der Rechtspolitik zielt insofern auf die Frage, ob und wie ein bestimmter Rechtszustand sein soll. Er zielt aber auch und darüber hinaus auf das Verhältnis von Recht und Politik als solches. Rechtswissenschaftlich ist das von Interesse, weil damit die bis in die Moderne hereinreichende Kontroverse um den Primat von Recht oder Politik angesprochen ist (Braun 2007, 96; Joerden 2004; Schmitt 1919/1998). Der Kern des Problems, nämlich die Reichweite von Freiheits- und Machtssphären bestimmen zu müssen, war allerdings zu keiner Zeit Gegenstand rechtspolitischer Theor ie; als »zuständig« galt und gilt hier immer die Rechtsphilosophie.
3.2.3 Rechtsphilosophische Struktur- und Begriffsanalyse Rechtsphilosophie oder rechtsphilosophische Struktur- und Begriffsanalyse ist eine besondere Subdisziplin der Rechtswissenschaft. Wie jedes andere Grund lagenfach hat sie das Recht zum Gegenstand der theoretischen »Arbeit«. Anders als die innersystematisch ausgerichtete Rechtsdogmatik und juristische Methodenlehre, aber auch anders als die »rechtsexternen«, empirisch und beobachtend verfahrenden Grundlagenfächer, geht es der Rechtsphilosophie um eine (auch) normative, begriffliche und kritische Bestimmung des (geltenden) Rechts. Insoweit nimmt die Rechtsphilosophie eine Metaperspektive ein. Metaperspektive bedeutet, dass die Rechtsphilosophie – neben einer Vielzahl von Detailfragen – zuallererst die Bedingung der Möglichkeit von Recht überhaupt thematisiert (Kant 1797; Radbruch 1932; Hart 1961; Dworkin 1986). Die rechtsphilosophische Per spektive macht also darauf aufmerksam, dass das Recht kein ausschließlich empirisches, nur auf der Erfahrung des Einzelnen oder von Kollektiven beruhendes Phänomen ist; Recht muss vielmehr als eine ebenso vorgegebene wie von uns (geistig) hervorgebrachte, in diesem Sinne auch problematische Kultur des institutionellen Handelns und Urteilens verstanden werden. Methodisch wird diese Perspektive durch eine Begriffs- und Sprachanalyse eingefangen (Wittgenstein 1953; Thompson 2008; Tiersma/Solan 2012; Stekeler-Weithofer 2015). Nach allgemeiner Überzeugung geht es einer Begriffs- und Sprachanalyse darum, zentrale Kategorien des Rechts sowie in der Rechtswissenschaft häufig vorausgesetzte Denk- und Redeformen – beispielhaft: der Norm, der Würde oder der Gleichheit – in ihrer Bedeutung für die Gesellschaft resp. den Einzelnen zu bestimmen und Probleme ihrer konkreten Verwirklichung aufzuzeigen (Stekeler-Weithofer 2014). Wissenschaftstheoretisch soll die Engführung von Sprache und Recht klarstellen, dass es im Recht und der Rechtswissenschaft um allgemeine Aussagen über normative Sachverhalte geht. Insoweit ermöglichen Theorien und Theoreme überhaupt tragfähige Normalfallannahmen (Urteile usw.). Eine Begriffs- und Sprachanalyse des Rechts expliziert deshalb den im Recht und der Rechtswis180
Philosophie der Rechtswissenschaft
senschaft vorhandenen Wissensbestand und die daran geknüpften Orientierungsmuster (Stekeler-Weithofer 2014; Tiersma/Solan 2012). Rechtsphilosophie, und hier besonders die Rechtsethik, fragt schließlich nach dem Gerechtigkeitsmaßstab sozialer Praktiken (Pettit 2015, 29). Dieser Gerechtigkeitsmaßstab ist in der Moderne unmittelbar mit dem Autonomie- und Freiheitsbegriff verbunden. Betrachtet die Rechtstheorie die »demokratische Freiheitskultur« in der Regel von ihrer formalen und funktionsbezogenen Seite, so wird es als Aufgabe der Rechtsphilosophie angesehen, den materialen Gehalt und den Begründungsstatus von Autonomie- und Freiheitsansprüchen auszuweisen (Hegel 1821; Habermas 1992; Honneth 2011; Pippin 2005). Diese theoretische Stossrichtung soll nicht nur ganz generell jeglichen Willkürargumenten vorbeugen, etwa indem die Ungleichbehandlung von Personen ohne ersichtlichen Grund oder die Missachtung von subjektiven Rechten durch den Staat verhindert werden. Sie soll aber vor allem helfen, die in einer Gesellschaft mit dem Recht in Beziehung stehenden Interessens- und Handlungsfelder, man denke nur an Politik, Wirtschaft, Religion und Moral, in den Blick zu bekommen und die Grenzen ihrer rechtlich relevanten Gestaltungsmacht zu markieren. Infrastruktur, Erkenntnisinteressen und Methoden der Rechtswissenschaft dokumentieren eine auf Pluralität ausgerichtete, selbstreflexive und praxisbezogene Wissenschaft. Mit dieser »Programmierung« der Rechtswissenschaft geht zugleich ein komplex verfasstes Selbstverständnis einher. Gerade weil das Recht als Gegenstand der Rechtswissenschaft ein Resultat fortlaufender gesellschaftlicher Aushandlungsprozesse ist und gerade weil auf diese Weise eine Vielzahl von Methoden und Erkenntnisinteressen, Zwecksetzungen und ideologische Standpunkte zur Geltung gebracht werden, ist die Rechtswissenschaft »zwangsläufig« in die aktuellen Debatten und Entwicklung involviert und aufgefordert, mit der Expertise ihrer Subdisziplinen Stellung zu beziehen. Einige der wichtigsten Problemkreise sind nachfolgend kurz zu skizzieren.
4 Rechtswissenschaft im Kontext: Debatten und Entwicklungen 4.1 Wissenschaft und Normativität – einige Vorüberlegungen Eine Philosophie der Rechtswissenschaft verknüpft formelle und materielle Aspekte der Gegenstands- und Problemanalyse. Gesagt ist damit, dass sich Fragen des je originären Wissenschaftsverständnisses – der Eigen- und Argumentationslogik, der Methoden und Erkenntnisinteressen etc. – und Fragen der Norm- und Praxisbewertung, der Beurteilung von Gründen und der Rechtsgestaltung zwar analytisch voneinander trennen lassen (und im Rahmen verschiedener Perspektiven und Subdisziplinen auch getrennt werden sollten), dass eine Philosophie der Rechtswissenschaft als Gesamtprojekt aber zugleich die Verweisungszusammenhänge zwischen wissenschaftstheoretischen und wissenschaftspraktischen Vor181
II. Die Philosophie der Formal- und Geisteswissenschaften
aussetzungen und Konsequenzen herstellen muss, soll sie das gesamte Feld des Rechts als eine besondere Organisationsform der menschlichen Kultur abdecken. Wissenschaftsphilosophische Forschung ist insofern immer auch an die zeitbedingten Überzeugungen dessen gebunden, was unter Recht und Gerechtigkeit, unter Gesetzgebung und Rechtskritik verhandelt wird.
4.2 Recht und Moral Ebenso kontrovers wie aktuell ist die Frage nach den typischen Gegenstands bereichen und dem Verhältnis von Recht und Moral. Wissenschaftsphilosophisch ist die Debatte um den Rechtsbegriff und das Verhältnis von Recht und Moral vor allem mit Blick auf verschiedene methodische Zugangsweisen umstritten. Das hatte sich bereits in der Ehrlich-Kelsen-Kontroverse gezeigt (Kelsen 1914/1915, 839; Ehrlich 1916, 845). Ausdifferenziert hat sich die Diskussion sowohl im anglo amerikanischen als auch im kontinentaleuropäischen Raum im Anschluss an die Hart-Dworkin-Debatte. Hart hatte seine Überzeugung zuallererst in Abgrenzung zum Regelskeptizismus rechtsrealistischer Positionen entwickelt und daraufhin eine Theor ie vorgeschlagen, die sich an einem gestuften Regel-Konzept und an einer weitgehenden Moralabstinenz des Rechts orientiert (Hart 1961). Die Auseinandersetzung mit dieser Position prägt die »Rechtswissenschaftsphilosophie« bis heute (Fuller 1964; Hart 1983; Dworkin 1986; 2011; Shapiro 2007; 2011; Alexy 1978; 1986; 1992; Hoerster 2013; 2014). Ersichtlich wird das zum einen an dem Verständnis philosophischer Grundlegung. Soll insoweit ein »weiches«, für rechtssoziologische und rechtsgeschichtliche Einflüsse offenes Theoriedesign den Vorrang genießen oder soll ein »starkes«, d. h. autonomes rechtsphilosophisches Modell in Anschlag gebracht werden? Es zeigt sich andererseits an der Vielfalt der inzwischen vertretenen Ansätze; erwähnt seien nur die Konzeptionen eines ex- und inklusiven Positivismus (Raz 1975; Coleman 1998, 381) oder kohärenztheoretische und neopragmatische Rechtsauffassungen (Rawls 2006; Günther 1989, 163; Brandom 1994; Christensen/Lerch 2007, 438). Dennoch ist bei allen Ansätzen zu erkennen, dass der methodische Zugriff immer schon eine Idee der materialen Rechtsbegründung mit sich führt; methodische Zugangsweisen also zugleich sachlich-normativ informiert sind. Auf der Sachebene besteht in der gegenwärtigen Diskussion noch weitgehend Einigkeit darin, dass das Recht einen Kernbestand an gesellschaftlich anerkannten Normen durchsetzen soll, etwa das Tötungs- und Körperverletzungsverbot, die Vertrags- oder Willkürfreiheit. Neben diese Durchsetzungsfunktion tritt die Schutz- bzw. Abwehrfunktion. Das Recht soll darüber hinaus auch Übergriffe anderer, der Gesellschaft oder des Staates unterbinden. Durchaus umstritten ist nun aber hinsichtlich der Durchsetzungsfunktion, wie sehr das Recht von gesellschaftsmoralischen Normen geprägt oder sogar bestimmt sein muss, um überhaupt Geltung beanspruchen zu können. Muss also das positive Recht u. U. 182
Philosophie der Rechtswissenschaft
zurückstehen, wenn es gegen gesellschaftsmoralische – vernunftrechtliche, sozialethische – Prinzipien verstößt? Fraglich ist hinsichtlich der Abwehr- und Schutzfunktion, inwiefern sich positives Recht an konkurrierende überpositive Gerechtigkeitsmaßstäbe binden darf, ohne dass es seine Allgemeinverbindlichkeit einbüßt, oder ob es sich auf einen im Großen und Ganzen »moralneutralen« Friedensschutz zu beschränken hat (Kant 1797; Hegel 1821/1970; Kelsen 1934/1960; Hart 1983; Dworkin 1986; Raz 1975; Feinberg 1984 ff.; zusammenfassend Seelmann/Demko 2014, § 3). Der rechtswissenschaftliche Zugriff auf diese Problemstellungen erfolgt insbesondere über die rechtstheoretische und rechtsphilosophische Perspektive. Im ersten Fall – der Durchsetzungsfunktion – ist dementsprechend zu klären, wie weit die Eigenrationalität des Rechts und seine gesellschaftlichen Bindungskräfte reichen. Die Frage nach der Rechtsqualität des positiven Rechts spielt namentlich dann eine zentrale Rolle, wenn, wie nach politischen Transformations- und Umwälzungsprozessen, eine Reihe staatlich sanktionierter (Menschen-)Rechtsverletzungen zu beklagen sind und eine juristische »Aufarbeitung« ermöglicht werden soll. Hier wird deutlich, mit welcher Wucht methodische und wissenschaftstheo retische »Vorentscheidungen« auf die normativ-sachliche Ebene durchschlagen können (Lepsius 2008). Radbruch etwa hat die Spannung, die zwischen der Legalität der Norm und seiner Legitimität bestehen kann, durch die nach ihm benannte Formel aufzulösen versucht. Insofern könne eine Norm dann keine Geltung beanspruchen, wenn sie in unerträglichem Maße gegen die Gerechtigkeit verstoße oder diese gar nicht erst erstrebe (Radbruch 1946, 106; dazu Saliger 1995). Radbruch hatte diese Theor ie zwar auf bestimmte nationalsozialistische Gesetze – und darauf beruhendem Unrecht – bezogen, mobilisiert wurde sie aber auch bei der strafrechtlichen Beurteilung von Tötungen an der innerdeutschen Grenze (sog. »Mauerschützenprozesse«, Bundesgerichtshofentscheidung, amt liche Sammlung Bd. 39, 1; dazu Alexy 1993; Jakobs 1992, 37). Radbruch und mit ihm große Teile der rechtstheoretischen und rechtsphilosophischen Forschung wollen diese Entscheidung mit Gleichheits- und Würdeschutzgesichtspunkten begründen, was plausibel erscheint. Dennoch sollte nicht unterschlagen werden, dass dieser Standpunkt im Gegenzug die Rechtssicherheitsgarantie des positiven Rechts beschneiden muss. Im zweiten Fall – der Abwehr- und Schutzfunktion – geht es vor allem darum, Reichweite und Leistungsfähigkeit des positiven Rechts zu begründen. Zu entscheiden hat insoweit jede moderne Rechtsordnung, welchen Bereich an Normen, Verhalten und Konflikten sie dem Gewährleistungsrahmen des positiven Rechts unterstellen will. Zwei Fragenkreise sind hier von Belang: Der erste beschäftigt sich mit dem Umfang des (individuellen) Freiheitsschutzes. Dass Tötungs- und Verletzungsverbote dazu gehören, ist unbestritten, soll aber auch der Schutz von religiösen Gefühlen, kulturellen Überzeugungen etc. davon umfasst sein? Um das Recht nicht zu überfordern, die Freiheitsspielräume aber auch nicht über Gebühr einzuschränken, wird heute vorgeschlagen, die Gewährleistungen des Recht 183
II. Die Philosophie der Formal- und Geisteswissenschaften
jedenfalls dann eingreifen zu lassen, wenn ansonsten die Orientierungskompetenz des Einzelnen und folglich sein Subjektstatus auf dem Spiel steht (Feinberg 1984 ff.; Seelmann 2007, 893). Der zweite Fragenkreis beschäftigt sich mit den in diesem Zusammenhang problematischen Rechtspflichten. Das betrifft zum einen Rechtspflichten aus Solidarität und paternalistisch motivierte Rechtspflichten. Beide Arten von Rechtspflichten sind deshalb problematisch, weil sie an der Grenze – für Kant sogar innerhalb der Grenzen – der Moral zu verorten sind; handelt es sich doch entweder um Pflichten, sich anderen positiv – mit Empathie – zuzuwenden, oder um Rechtspflichten gegen sich selbst. Das geltende (deutsche) Recht kennt etwa mit der strafrechtlich normierten Hilfspflicht bei Unglücksfällen oder dem Verbot einer Tötung auf Verlangen genau solche Regelungen. Das ist rechtsphilosophisch zu kritisieren, wenn an einer strikt liberalen Unterscheidung zwischen Recht und Moral/Tugendpflichten festgehalten wird. Rechtfertigen lässt es sich dagegen, wenn die Rechtsordnung mit Blick auf ein weit verstandenes Interventionskonzept auch umfassende Aufgaben der Wertvermittlung und Daseinsvorsorge übernehmen soll (zur Debatte vgl. Köhler 2006, 425; Anderheiden 2006; v. Hirsch/Neumann 2007, 671). Das Problem der Grenzziehung von Recht und Moral betrifft aber auch Rechtsdogmatik und Methodenlehre als Subdisziplinen. Akut wird die Frage vor allem dann, wenn in das geltende Recht eingefügte Generalklauseln juristisch und fallbezogen prozeduralisiert werden müssen. Unter Generalklauseln versteht die Rechtswissenschaft Verweisungsnormen auf außergesetzliche oder außerrechtliche Standards und Beurteilungsmaßstäbe. Erwähnt seien hier »die guten Sitten« in den §§ 138, 826 BGB, § 228 StGB oder »Treu und Glauben mit Rücksicht auf die Verkehrssitte« in §§ 157, 242 BGB. In diesen Fällen sind Dogmatik und Rechtsanwendung gehalten, die jeweiligen Wertungen und Interessen durch konfliktangemessene Interpretation in den gesetzlichen oder rechtlichen Rahmen zu inkorporieren, was in der Praxis nicht immer ohne Schwierigkeiten abgeht.
4.3 Recht und Pluralismus Die Grenzziehung von Recht und Moral ist mit einem anderen Problemkreis verbunden, der regelmäßig als Rechtspluralismus bezeichnet wird. Klassische rechtspluralistische Positionen sind vor allem von Rechtssoziologie und Rechts anthropologie entwickelt worden. Dem staatlichen, an Homogenität, Allgemeinheit und Universalität orientierten Recht wird ein gleichermaßen dynamisches, heterarchisches und fragmentiertes gegenübergestellt, das sich in »informellen Normen«, Sitten und geschichtlich gewachsenen kulturellen Praktiken manifestiere. Das »offizielle« Recht gewinne seine konkreten Gehalte erst durch Rückgriff auf das »gesellschaftliche Recht« (Ehrlich 1913; Benda-Beckmann 1991, 97). Der moderne Rechtspluralismus reagiert zugleich auf innergesellschaftliche Transformationsprozesse, insbesondere auf die Ausdifferenzierung der Lebens184
Philosophie der Rechtswissenschaft
formen, die Ablösung der einheitsstiftenden Religion durch ein Ensemble von (religiösen) Weltanschauungen, aber auch die Auffächerung der Wertüberzeugungen usw. In der gegenwärtigen rechtswissenschaftlichen Debatte geht es weniger darum, dem traditionell staatlich gehegten Recht die Bedeutung als Ordnungsmedium abzusprechen. Die Diskussion zielt eher auf die Frage, wie mit konkurrierenden Rechtsüberzeugungen »unterhalb« des staatlichen Rechts oder mit »rechtsaffinen« Kulturpraktiken zu verfahren ist (Teubner 1996, 255; Seinecke 2015). Insofern geht es einerseits darum, die »normativen Räume« auszuloten, die das geltende staatliche Recht individuellen Lebensformen zugestehen kann oder zur Stabilisierung von Gruppenidentitäten sogar zugestehen muss. In der Bundesrepublik Deutschland wurde die Problematik zuletzt bei der Kontroverse um die nicht medizinisch indizierte Beschneidung von Knaben sichtbar (Manok 2015). Andererseits geht es darum, den Entwicklungen gesellschaftlicher Selbstregu lierung Rechnung zu tragen. Governance und Compliance zeigen Tendenzen sozialer Eigenrationalität an, bei denen der Staat eher eine moderierende oder politische Rahmungsfunktion einnimmt oder einnehmen soll (Schuppert 2011). Schließlich konstituieren sich heute rechtliche Strukturen und Institutionen jenseits des Staates. Am prominentesten dürfte die als Staatenverbund ausgestaltete Europäische Union sein. Zu erwähnen sind aber auch Internationale Gerichtshöfe (IStGH, EGMR, EuGH) oder Non Governemental Organizations (z. B. Transparency International oder Tax Justice Network), die gleichermaßen keine homogene ethische oder nationale Basis im »herkömmlichen« Sinne aufweisen, aber dennoch weitreichende Ordnungs- und Regulierungsfunktionen haben können (Kadelbach/Günther 2011). Sollen »dem Recht« gleichwohl die von ihm erwarten Bindungs- und Integrationskräfte erhalten bleiben, dann stellt sich für die (nationale) Rechtswissenschaft vor allem das Problem einer kohärenten Begründung von Rechten und Pflichten, der Legitimation von neuen politischen Machtzentren und der adäquaten Transformation nicht der eigenen Rechtsordnung entstammenden Legislativentscheidungen (vgl. dazu auch die Erläuterungen unter d).
4.4 Recht und Transnationalität Wie stark sich verschiedene Theorie- und Problemkreise der Rechtswissenschaft überlagern können, zeigt sich gerade an der »Transnationalisierung« des Rechts. In diesem Transformationsprozess laufen neuartige soziale, politische und rechtsplurale Entwicklungen ineinander (Habermas 2011). Die Transnatio nalisierung, konkret die Europäisierung des Rechts, berührt vor allem dann das rechtswissenschaftliche Erkenntnisinteresse, wenn die Legitimität und die demokratische »Organisation« des gesellschaftlichen Strukturwandels zur Debatte stehen (Calliess 2014; Franzius 2010; Möllers 2009). Kontrovers ist hier aber nicht nur die Frage des rechtspolitischen Ordnungskonzepts, sondern auch, 185
II. Die Philosophie der Formal- und Geisteswissenschaften
welches Freiheitsniveau rechtsphilosophisch zugrunde gelegt oder verfassungstheoretisch angestrebt werden soll (Zabel 2015, 19). Insofern scheint es um das Problem und die Einsicht zu gehen, dass die Freiheitsermöglichungsaufgabe einer transnational verrechtlichten Ordnung mit den traditionellen theoretischen (Legitimations-)Kategorien – der Volkssouveränität, dem Allgemeinwillen, dem Staatsbürger usw. – nicht oder nur begrenzt erfasst werden kann. Vorgeschlagen wird deshalb, die Verständnisse und Begrifflichkeiten den neuen Gegebenheiten anzupassen. Dementsprechend ist in der Debatte von einer »staatengelösten« Volkssouveränität, von einem »transnational-demokratischen Allgemeinwillen« die Rede, der nicht mehr an ein staatliches Bürgersubjekt, sondern an den Unionsbürger zurückgebunden wird. Die demokratische Legitimation soll durch zwei Legitimationsstränge vermittelt werden: Der eine verläuft von der Gesamtheit der Unionsbürger – als die wir alle gelten – über das Europäische Parlament, der andere von den europäischen Völkern – zu denen wir ebenso gehören – über den Rat, der wiederum auf die parlamentarische Basislegitimation der Mitgliedstaaten zurückbezogen bleibt (Habermas 2011). In theoretischer Perspektive führt das zu einer vom herkömmlichen Staatsmodell abweichenden Aufspaltung des verfassungsgebenden Subjekts und damit zugleich zu einer Teilung der traditionell einheitlich verstandenen Souveränität. Vom Einzelnen aus gedacht wird das Subjekt in zweifacher Weise an der Konstituierung des bzw. der Gemeinwesen beteiligt: in seiner Rolle als Unionsbürger und in seiner Rolle als Angehöriger eines europäischen Volkes. Konsequenterweise wird deshalb auch von einem pouvoir constituante mixte gesprochen (Franzius 2010, 38; Peters 2006, 579). Insofern geht es um das Versprechen einer institutionalisierten europäischen Freiheitskultur, um Rechtsgewährleistung und Willkürbeschränkung, die die handelnden europäischen Bürger selbst einlösen sollen. – Dieses Projekt einer nachhaltigen Begründung rechtspolitischer Entwicklungen hat allerdings das Problem, dass damit noch kein Weg aufgezeigt ist, der von der sinnstiftenden Macht staatlicher Ordnungen zu einem transnationalen Ethos führt. Die wissenschaftsphilosophische Herausforderung besteht also darin, den (rechtstheoretischen) Rahmen zu bestimmen, innerhalb dessen in adäquater Weise über individuelle Lebensformen und Praktiken der Freiheit jenseits des Nationalstaates nachgedacht werden kann.
4.5 Recht und Ökonomie Die Frage, in welcher Weise Werte innerhalb eines Gemeinwesens oder Staatenverbunds generiert resp. erhalten werden können, rückt zugleich das Verhältnis von Recht und Ökonomie in das Blickfeld. Denn ein Kennzeichen der Moderne dürfte es sein, dass sie die Sphären des Politischen, des Rechtlichen und Ökonomischen genau markiert und darüber hinaus die notwendigen Wechselbeziehungen betont. Kritische Rechtswissenschaft kann insoweit nicht bei einer ökonomischen Wirkungs- und Effizienzanalyse stehen bleiben, sondern muss die 186
Philosophie der Rechtswissenschaft
gesellschaftliche Bedeutung, die Logik des Ökonomischen zur Geltung bringen (Weber 1920, 1; Schumpeter 1954; Polanyi 1957). Mit der Sphäre des Ökonomischen artikuliert sich sowohl das rationale Eigeninteresse des homo oeconomicus als auch eine Kooperationsdynamik der Gesellschaft. Umstritten ist nach wie vor, in welcher Form das Recht die Eigenlogik von Ökonomie und Markt fördern darf, aber auch regulieren muss, um eklatante Ungleichheiten und soziale Desintegration verhindern oder begrenzen zu können (Anter 2007, 143). Während das an der klassischen politischen Ökonomie ansetzende Konzept eines liberalen Individualismus Recht und Staat nur als flankierende Bereiche einer sich ansonsten eigenständig entwickelnden Ordnung verstehen, Ressourcenallokation und Einkommensverteilung im Kern eine Aufgabe des Marktes sein sollen (Becker 1993; Hayek 1971, 304; Nozick 1974), gehen alternative Theorien von einer sozial integrativen, Markt und Ökonomie »einbettenden« Funktion des Rechtsstaates aus. Markt und Ökonomie sind danach für ihre interne Stabilisierung auf einen externen, institutionellen Rahmen angewiesen oder darauf bezogen. Der liberale Individualismus erhält auf diese Weise eine soziale und politische Dimension (Keynes 1936; Mises 1933; Ulrich 1997). Die Konfliktlinien verlaufen also dort, wo zu klären ist, wie die Abschöpfung von Mehrwert zur Finanzierung öffentlicher Aufgaben, die Schaffung steuerlicher Anreize, wie Wohlstand, Sicherheit und Daseinsvorsorge zu organisieren sind und welche Freiheitskultur zunehmend global vernetzte Gemeinwesen zu ermöglichen haben (Hoffmann 2009). In der aktuellen Debatte um die Struktur subjektiver Rechte, um ihre Ausgestaltung als Abwehr-, Teilhabe- und Leistungsgarantien findet dieser Problemkreis seinen verfassungstheoretischen und rechtsphilosophischen Niederschlag (Jellinek 1892; Berlin 1958, 1; Vesting/Korioth/Augsberg 2014; Menke 2015). Insofern ist die Frage nach dem Zusammenspiel von Ökonomie, Recht und Freiheit immer auch eine Gerechtigkeitsfrage (Rawls 1971/1999, 228; Pettit 2015, 115; Honneth 2011, 221).
4.6 Recht und Rechtskritik, Macht und staatliche Gewalt Eine philosophische und deshalb kritische Rechtswissenschaft ist reflexiv. Das zeigt sich jedenfalls dann, wenn sie das Legitimationsnarrativ – den Rationalitäts- und Vernunftanspruch – als solches zum Thema macht. Rechtswissenschaft geht hier auf Abstand zu sich und zu ihrem Gegenstand und wird so in einem radikalen Sinne politisch (Zabel 2013, 315). Zur Sprache gebracht wird hier ein Misstrauen gegenüber der unbefragten Leistungs- und Legitimationsfähigkeit des Rechts, namentlich gegenüber dem (unreflektierten) Freiheitspathos der Aufklärung. Damit richtet sie sich sowohl gegen die starken Annahmen einer allein naturrechtlich begründeten Rechtsvernunft als auch gegen die rechtspositivistische Geltungsabsicherung etwa Kelsens (Kelsen 1934/1960). – Hintergrund dieses Misstrauens ist der Verdacht, dass das Recht Macht und Gewalt nicht nur nor187
II. Die Philosophie der Formal- und Geisteswissenschaften
mativ bändigt, rechtstheoretisch transformiert und dogmatisch reguliert, sondern dass das Recht selbst Macht und Gewalt sein kann; dass sie diese Tatsache aber u. U. verschleiert, sie als gesellschaftliche Notwendigkeit ausgibt und so in die Gefahr gerät, Ideologie zu werden. Wir finden diese Debatte schon frühzeitig bei Georges Sorel und Walter Benjamin (Sorel 1908; Benjamin 1920, 179) und bei Carl Schmitt (Schmitt 1922/1996, 13). Gegenwärtig wird sie bei Giorgio Agamben und der Theor ie des Ausnahmezustands (Agamben 2004) und in der Machtkritik Michel Foucaults (Foucault 2005) ausbuchstabiert. Neue Entwicklungen der Rechts- und Institutionenanalyse lassen sich im Anschluss an Jacques Derridas Konzept der Dekonstruktion (Derrida 1991), bei Stanley Fish (1989), Cornelia Vismann (2005) und Christoph Menke (2011, 34), darüber hinaus bei den am Poststrukturalismus orientierten Vertretern der Critical Legal Studies beobachten (Kennedy 2004; Goodrich 1993, 389). Die Verknüpfung von Recht, Macht, Gewalt und Ideologie ist für den Dogmatiker und Rechtsanwender eine Provokation. Er hat nur dieses geltende Recht und muss nach diesem Recht entscheiden. Recht ist Konfliktlösung (Vismann/Weitin 2006). Gleichzeitig verweist diese Erkenntnisperspektive darauf, dass Recht selbst eine kulturelle Technik darstellt, die nur prima facie selbstverständlich ist, genauer betrachtet aber immer wieder der Rechtfertigung und Reflexion bedarf. Geltendes Recht, so die kritische Rechtswissenschaft, ist menschengemachtes Recht mit dem Ziel, gerecht sein zu wollen. Die Bedeutung dieser Analyse liegt aber vor allem in der Thematisierung einer Paradoxie: dass nämlich Kritik und Entideologisierung nur durch das Recht selbst und durch dieses hindurch machbar ist. Es geht also um die unauflösliche Verbindung von Selbstermächtigung und Selbstrelativierung des Rechts. Besonders deutlich wird das am Strafzwang und der Strafgerechtigkeit. Strafzwang und Strafgerechtigkeit des Rechts gelten in der Strafrechtsdogmatik als legitim, weil sie auf individuelles Unrecht reagieren und insoweit die Rechtlichkeit wiederherstellen. Der Akt der Wiederherstellung beruft sich dafür auf die Allgemeinverbindlichkeit des Gesetzes, d. h. die Gleichheit der Bürger. Aber diese Allgemeinverbindlichkeit des Strafgesetzes, die der Richter im Wege der Einzelfallgerechtigkeit durchsetzen soll, ist nur eine Chiffre für den politischen Grund, auf dem das Recht aufruht, den es aber in seiner formgebundenen Praxis ausblenden, vergessen muss. Die »Politik des Rechts« wird dort offensichtlich, wo sie sich als Herrschaft des Rechts gegen jegliches Andersein behauptet. Das mag in vielen Fällen einleuchtend und notwendig sein. Gerade im Kontext gewissenhafter oder revolutionärer Entscheidungen – man denke an die Problematik des Überzeugungs- oder Attentäters – zeigt sich allerdings die Tiefe des Problems. Auch hier ist es der mögliche Irrtum, die »Spitze der Subjektivität« (Hegel 1821/1970: §§ 139 f.), die diese Entscheidung verdächtig oder gefährlich macht. Aber es ist auch das Gewissen, die revolutionäre Überzeugung, die mit dem Wahrheits- und Herrschaftsanspruch des Rechts konkurriert. Die Geschichte und Gegenwart des Rechts ist voll von Beispielen, an denen wir ablesen können, wie das Recht seine Deutungs- oder Strafmacht zur Geltung bringt. 188
Philosophie der Rechtswissenschaft
Gleichzeitig ist nicht zu übersehen, dass das Recht versucht, das Andere in sein Regime zu inkorporieren, das religiöse Bekenntnis ebenso wie Formen zivilen Ungehorsams oder die politische Tat. Was wir daran erkennen können, ist eine Dialektik des Rechts und der Rechte. Geltung und Allgemeinverbindlichkeit sind nichts ein für allemal Feststehendes, sie begründen eine Rechts- und Strafmacht, die selbst immer mit dem schlechten Gewissen des herrschenden Strafgesetzes leben muss. Die Verknüpfung von Recht und Rechtskritik, Macht, Gewalt und Ideologie eröffnet einen Deutungshorizont, innerhalb dessen die Fragen nach der Gerechtigkeit des Rechtlichen notorisch werden. Ungeachtet der Unterschiede und Überzeugungskraft der einzelnen Positionen dürfte eine Einsicht konsentiert sein: Recht darf weder zu einer unerreichbaren Utopie des Gerechten stilisiert noch in der Logik des Totalitären zum Verschwinden gebracht werden. Die Wechselbeziehung zwischen dem Vernunft- bzw. Legitimitätsanspruch und der Fehlbarkeit des Rechts ist insofern selbst ambivalent. Einerseits braucht es einen »Vernunftvorschuss« und die sich dadurch herstellende Rechtswirklichkeit, um im konkreten Vollzug die Macht der Ordnung und individuelle Autonomie garantieren zu können. Jede andere Rechtstheor ie müsste erklären, wie sie den kontroversen Freiheitsinteressen gerecht werden will, ohne einer Anarchie des Politischen oder einem autonomievernichtenden Naturzustand das Wort reden zu müssen. Andererseits ist nicht zu verkennen, dass in dieser »Rechts-Macht« zugleich die Gefahr der Überwältigung des Subjekts begründet liegt; dass das Subjekt nur zum Mittel des Rechts erklärt wird. Die Aufgabe einer Philosophie der Rechtswissenschaft besteht vor allem darin, an den politischen Ursprung des Rechts zu erinnern und darüber hinaus in das Bewusstsein zu rücken, dass das Freiheitsversprechen nicht nur eine große Errungenschaft, sondern auch ein Problem des Rechts ist.
4.7 Rechtswissenschaft im Wandel: Aktuelle Entwicklungen Neben den hier skizzierten zeichnen sich gegenwärtig neue Praxis- und Forschungsfelder ab, die entweder schon Gegenstand einer (meta-)wissenschaftlichen Analyse sind oder es in Zukunft werden sollten. Zwei relevante Praxis- und Forschungsfelder sollen kurz skizziert werden: Hingewiesen sei zum einen auf das bereits erwähnte Technologierecht und die damit verknüpften Fragen nach der Einbeziehung neuer Akteure in das geltende Rechtsregime, etwa von Robotern aller Art oder sonstiger »künstlicher Intelligenz« im Bereich der Krankenpflege (Ambient Assisted Living), der modernen Industrie- und Sicherheitsproduktion (Drohnen) oder bei militärischen Auseinandersetzungen (automatisierte Waffensysteme etc.). Eine Philosophie der Rechtswissenschaft muss hier zunächst klären, wie sich die Einzelwissenschaft zu diesem Problemkomplex positionieren soll und wie dadurch das Recht als menschliche Organisationsform verändert oder neu codiert wird. Sie muss außerdem klären, ob und, wenn ja, welcher Rechtssta189
II. Die Philosophie der Formal- und Geisteswissenschaften
tus diesen Akteuren zukommen kann (inzwischen spricht die Rechtswissenschaft von sog. »elektronischen Personen«). Und mit Blick auf die Dogmatik kann sie gegebenenfalls den normativen Gestaltungsrahmen festlegen, d. h. bestimmen, welche rechtlichen Konsequenzen bei Konflikten oder Schäden in Betracht kommen können (Beck/Zabel 2015, 197; Hilgendorf 2014). Zum anderen betrifft es den Status der Rechtswissenschaft selbst. Die dargestellten Forschungs- und Handlungsfelder zeigen eine Rechtswissenschaft, die eine höchst diversifizierte Rechtsentwicklung reflektieren muss. Besonders deutlich wird diese Spannung zwischen Theor ie und Praxis an den Phänomenen des Rechtspluralismus und der Transnationalität. Rechtswissenschaft – traditions gemäß national oder eben von der (weitgehend homogenen/als homogen behaupteten) Kultur eines Gemeinwesens geprägt – wird inzwischen, etwa im Kontext des europäischen Einigungsprozesses, mit der Frage konfrontiert, ob sie diese Entwicklung mit ihrem herkömmlichen Selbstverständnis und dem entsprechenden (Begriffs-)Instrumentarium noch angemessen bewältigen kann. Eine Philosophie der Rechtswissenschaft hätte zu diskutieren, ob und in welcher Weise eine sich zumindest auch als transnational und pluralistisch verstehende Rechtswissenschaft etabliert werden kann. Zu diskutieren wäre ebenso, ob noch von einer Rechtswissenschaft oder vielmehr von den Rechtswissenschaften – national, transnational usw. – gesprochen werden müsste. Auszuloten wäre dann aber auch, in welchem Verhältnis die verschiedenen Rechtswissenschaften zueinander stehen und welche Folgen das für die wissenschaftsinterne Systematik, die Dogmatik und Konfliktverarbeitung hätte. Unabhängig davon, wie die zukünftige Entwicklung verlaufen wird, zeigt sich aber einmal mehr, dass die Dynamik und Diversität des modernen Rechts nicht nur die Rechtswissenschaft(en) verändert, sondern auch in einer Philosophie der Rechtswissenschaft ihren Niederschlag finden muss.
Literatur Empfehlungen: Ein guten deutschsprachigen Überblick über eine Reihe der im Text angesprochenen Frage- und Problemstellungen bietet nunmehr die Monographie von Adrian (2015), der insbesondere den Einfluss zeitgenössischer Philosophie auf das Wissenschafts- und Methodenverständnis der Rechtswissenschaft thematisiert. Aktuelle und kontroverse Sachfragen der Rechtswissenschaft werden dagegen in dem Band von Heun/Schorkopf (2014) diskutiert. Aus dem englischsprachigen Bereich dokumentieren vor allem die Bände von Freeman (2014) und Twining (2009) sehr ausführlich die aktuelle Diskussion zu klassischen und neuen Fragenstellungen, aber auch zu gegenwärtigen (globalen) Entwicklungen des Rechts und der Rechtswissenschaftstheor ie.
190
Philosophie der Rechtswissenschaft
Aaken, Anne van (2003): »Rational Choice« in der Rechtswissenschaft, Baden-Baden. Adrian, Axel (2015): Grundzüge einer allgemeinen Wissenschaftstheorie auch für Juristen, Berlin. Agamben, Giorgio (2004): Der Ausnahmezustand, Frankfurt a. M. Albert, Hans (1972): Erkenntnis und Recht, in: Jahrbuch für Rechtssoziologie und Rechtstheorie 2, 80 – 9 6. Alexy, Robert (1978): Theorie der juristischen Argumentation, Frankfurt a. M. – (1986): Theorie der Grundrechte, Frankfurt a. M. – (1992): Begriff und Geltung des Rechts, Freiburg i. Br. – (1993): Mauerschützen, Göttingen. Anderheiden, Michael (Hg.) (2006): Paternalismus und Recht, Tübingen. Anter, Andreas (2007): Die Macht der Ordnung. Aspekte einer Grundkategorie des Politischen, 2. Aufl., Tübingen. Ballweg, Otmar (1970): Rechtswissenschaft und Jurisprudenz, Basel. Beck, Susanne und Benno Zabel (2015): Menschenrechte und Robotik. Zur Techno logisierung des Sozialen, in: K. Seelmann (Hg.), Menschenrechte, Würzburg, 197 – 223. Beck, Ulrich (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne, Frankfurt a. M. Becker, Gary (1976): The Economic Approach to Human Behavior, Chicago, London. Benda-Beckmann, Franz v. (1991): Unterwerfung oder Distanz: Rechtssoziologie, Rechtsanthropologie und Rechtspluralismus aus rechtsanthropologischer Sicht, in: Zeitschrift für Rechtssoziologie 12, 97 – 119. Benjamin, Walter (1999): Zur Kritik der Gewalt, in: Gesammelte Schriften Bd. 2.1, Frankfurt a. M., 179 – 2 04. Berlin, Isaiah (1958): Two Concepts of Liberty, Oxford. Berman, Herold (1991): Recht und Revolution. Die Bildung der westlichen Rechtstradition. Frankfurt/M. Blühdorn, Jürgen (Hg.) (1969): Philosophie und Rechtswissenschaft im 19. Jahrhundert, Frankfurt a. M. Bourdieu, Pierre (1982): Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft, Frankfurt a. M. Brandom, Robert (1994): Making it Explicit. Reasoning, Representing and Discursive Commitment, Cambridge, Mass. Braun, Johann (2007): Einführung in die Rechtswissenschaft, 3. Aufl., Tübingen. Breidbach, Olaf (2005): Bilder des Wissens, Paderborn, München. Breil, Reinhold (2011): Grundlagen der Naturwissenschaften, Würzburg. Brohm, Winfried (1972): Die Dogmatik des Verwaltungsrechts vor den Gegenwartsaufgaben der Verwaltung, in: Veröffentlichungen der Vereinigung der Staatsrechtslehrer (VVDStrL) 30, 245 – 312. Buckel, Sandra/Ralph Christensen/Andreas Fischer-Lescano (Hg.) (2009, 2. Aufl.): Neue Theorien des Rechts. Bumke, Christian (Hg.) (2012): Richterrecht zwischen Gesetzesrecht und Rechtsgestaltung, Tübingen. 191
II. Die Philosophie der Formal- und Geisteswissenschaften
Bung, Jochen (2007): Theor ie der Interpretation: Davidson, in: Sandra Buckel/Ralph Christensen/Andreas Fischer-Lescano (Hg.), Neue Theorien des Rechts, Stuttgart, 2007, 271 – 284. Callies, Christian (2014): Zur Demokratie in Europa, Tübingen. Christensen, Ralph/Kent D. Lerch (2007): Dass das Wahre das Ganze ist, ist nicht ganz unwahr, in: Juristenzeitung, 438 – 4 44. Coleman, Jules (1998): Incorporationism, Conventionality, and the Practical Difference Thesis, in: Legal Theory 4, 381 – 4 25. Comte, Auguste (1844): Discours sur l’esprit positif, Paris. Derrida, Jacques (1991): Gesetzeskraft. Der »mystischen Grund der Autorität«, Frankfurt a. M. Dilthey, Wilhelm (1883): Einleitung in die Geisteswissenschaften, Berlin. – (1910): Der Aufbau der geschichtlichen Welt in den Geisteswissenschaften, in: Abhandlungen der Preußischen Akademie der Wissenschaften, Berlin, 1 – 123. Dreier, Ralf (1981): Recht – Moral – Ideologie, Frankfurt a. M. – (1991): Recht – Staat – Vernunft, Frankfurt a. M. Dworkin, Ronald (1986): Law’s Empire, Cambridge. – (2011): Justice for Hedgehogs, Cambridge. Ehrlich, Eugen (1913): Grundlegung der Soziologie des Rechts, 4. Aufl., Berlin 1989. – (1916): Entgegnung auf H. Kelsens: Grundlegung der Rechtssoziologie, Archiv für Sozialwissenschaft und Sozialpolitik, 41. Bd., 844 – 849. Eidenmüller, Horst (2005): Effizienz als Rechtsprinzip, 3. Aufl., Tübingen. Essen, Georg und Nils Jansen (Hg.) (2011): Dogmatisierungsprozesse in Recht und Religion. Feinberg, Joel (1984 ff.): The Moral Limits of Criminal Law, Vol. 1 – 4 , Oxford. Fischer-Lescano, Andreas (2013): Postmoderne Rechtstheor ie als kritische Theor ie, in: Deutsche Zeitschrift für Philosophie 61, 179 – 196. Fish, Stanley (1989): Doing what comes naturally. Change, Rhetoric, and the Practice of Theory in Literary and Legal Studies, Durham/London. Foucault, Michel (2005): Analytik der Macht, Frankfurt a. M. Goffman, Erving (1967): Stigma. Über Techniken der Bewältigung beschädigter Identität, Frankfurt a. M. Franzius, Claudio (2010): Europäisches Verfassungsdenken, Tübingen. – (Hg.) (2014): Strukturfragen der Europäischen Union, Baden-Baden. Freeman, Michael (2014): Lloyd's Introduction to Jurisprudence, 9. Aufl. London. Fuller, Lon L. (1964): The Morality of Law, New Haven/London. Funke, Andreas und Jörn Lüdemann (Hg.) (2009): Öffentliches Recht und Wissen schaftstheor ie, Tübingen. Goodrich, Peter (1993): Sleeping with the Enemy. An Essay on the Politics of Critical Legal Studies in America, in: J. Leonard (Hg.), Legal Studies and Cultural Studies, New York University Law Review, 389 – 4 25. Göppinger, Hans und Michael Bock (2008): Kriminologie, 6. Aufl., München. Grossi, Paolo (2010): Das Recht in der europäischen Geschichte, München. 192
Philosophie der Rechtswissenschaft
Günther, Klaus (1988): Der Sinn für Angemessenheit, Frankfurt a. M. – (1989): Ein normativer Begriff der Kohärenz für eine Theor ie der juristischen Argumentation, in: Rechtstheorie 20, 163 – 190. Habermas, Jürgen (1974): Analytische Wissenschaftstheor ie und Dialektik, in: T. W. Adorno et al. (Hg.), Der Positivismusstreit in der deutschen Soziologie, Neuwied, 155 – 191. – (1992): Faktizität und Geltung. Beiträge zur Diskurstheorie und des demokratischen Rechtsstaates, Frankfurt a. M. – (2011): Die Verfassung Europas, Frankfurt a. M. Hagner, Michael (Hg.) (2001): Ansichten der Wissenschaftsgeschichte, Frankfurt a. M. Hart, Herbert Lionel Adolphus (1961): The Concept of Law, Oxford. – (1983): Essays in Jurisprudence and Philosophy, Oxford. Hayek, Friedrich A. (1971): Die Verfassung der Freiheit, Tübingen. Heck, Philip (1914): Gesetzgebung und Interessensjurisprudenz, in: AcP 112, 1 – 318. Hegel, Georg Wilhelm Friedrich (1821/1970): Grundlinien der Philosophie des Rechts, Berlin. Helmholtz, Heinrich v. (1986): Vorträge und Reden, Bd. 1 und 2, 4. Aufl., Braunschweig. Heun, Werner/Frank Schorkopf (Hg.) (2014): Wendepunkte der Rechtswissenschaft: Aspekte des Rechts in der Moderne, Göttingen. Hilgendorf, Eric (2014): Robotik im Kontext von Recht und Moral, Baden-Baden. Hirsch, Andrew v./Ulfrid Neumann (2007): »Indirekter« Paternalismus im Strafrecht am Beispiel der Tötung auf Verlangen (§ 216 StGB), in: Goldtdammer’s Archiv, 671 – 6 94. Hoffmann, Thomas Sören (2009): Wirtschaftsphilosophie, Wiesbaden. Honneth, Axel (2011): Das Recht der Freiheit. Grundriß einer demokratischen Sittlichkeit, Frankfurt a. M. Hoerster, Norbert (2010): Was kann die Rechtswissenschaft?, in: Rechtstheorie 41, 13 – 23. – (2013): Was ist Recht?, 2. Aufl., München. – (2014): Wie lässt sich Moral begründen?, München. Hösle, Vittorio (1999): Die Philosophie und die Wissenschaften, München. Hübner, Kurt (2002): Kritik der wissenschaftlichen Vernunft, 4. Aufl., Freiburg, München. Jakobs, Günther (1992): Vergangenheitsbewältigung durch Strafrecht?, in: J. Insensee (Hg.), Vergangenheitsbewältigung durch Recht, Berlin, 37 – 64. Jellinek, Georg (1892): System der subjektiven öffentlichen Rechte, Tübingen. Jestaedt, Matthias (2006): Das mag in der Theorie richtig sein …, Tübingen. – und Oliver Lepsius (Hg.) (2008), Oliver: Rechtswissenschaftstheorie, Tübingen. Joerden, Jan C. (Hg.) (2004): Recht und Politik, Stuttgart. Kadelbach, Stefan/Klaus Günther (Hg.) (2011): Recht ohne Staat, Frankfurt a. M. Kant, Immanuel (1968): Metaphysische Anfangsgründe der Rechtslehre von 1797, in: Akademieausgabe (AA), Berlin 1900 ff., 203 – 492. 193
II. Die Philosophie der Formal- und Geisteswissenschaften
Kaufmann, Arthur (2011): Rechtsphilosophie, Rechtstheor ie, Rechtsdogmatik, in: ders. et al. (Hg.), Einführung in die Rechtsphilosophie und Rechtstheorie der Gegenwart, 8. Aufl., Heidelberg, 1 ff. Kelsen, Hans (1914/15): Grundlegung der Rechtssoziologie, in: Archiv für Sozialwissenschaft und Sozialpolitik, 39. Bd., 839 – 876. – (1934): Reine Rechtslehre. Einleitung in die rechtswissenschaftliche Problematik, 2. Aufl., Wien 1960. Kennedy, David (2004): The Dark Side of Virture, Oxford. Kern, Horst (1982): Empirische Sozialforschung. Ursprünge, Ansätze, Entwicklungslinien, München. Kesper-Biermann, Sylvia (2009): Einheit und Recht, Frankfurt a. M. Keynes, John M. (1936): The General Theory of Employment, Interests and Money, London. Kirchmann, Julius Hermann von (1969): Von der Wertlosigkeit der Jurisprudenz, orig. 1848, Darmstadt. Kirste, Stephan (2010): Einführung in die Rechtsphilosophie, Darmstadt. Kohler, Josef (1886): Über die Interpretation von Gesetzen, in: Zeitschrift für das Privat- und öffentliche Recht der Gegenwart 13, 1 – 61. Köhler, Michael (2006): Die Rechtspflicht gegen sich selbst, in: Jahrbuch für Recht und Ethik 14, 425 – 4 46. Kornwachs, Klaus (2013): Philosophie der Technik, München. Kühl, Kristian, Hermann Reichold und Michael Ronellenfitsch (2015): Einführung in die Rechtswissenschaft, 2. Aufl., München. Ladeur, Karl Heinz (2000): Die rechtswissenschaftliche Methodendiskussion und die Bewältigung des gesellschaftlichen Wandel. Zugleich ein Beitrag zur Bedeutung der ökonomischen Analyse des Rechts, in: RabelZ 64, 60 – 103. Larenz, Karl, Claus-Wilhelm Canaris (1995): Methodenlehre der Rechtswissenschaft, 3. Aufl., Berlin u. a. Legendre, Pierre (2012): Das politische Begehren Gottes, Wien und Berlin. Lenk, Hans (1986): Zwischen Wissenschaftstheorie und Sozialwissenschaft, Frankfurt a. M. Löwith, Karl (1941): Von Hegel zu Nietzsche. Der revolutionäre Bruch im Denken des 19. Jahrhunderts, Zürich. Luhmann, Niklas (1974): Rechtssystem und Rechtsdogmatik, Stuttgart . – (1981): Subjektive Rechte, in ders., Gesellschaftsstruktur und Semantik, Bd. 2, Frankfurt a. M., 45 – 104. – (2008): Schriften zur Kunst und Literatur. Frankfurt/M. Manok, Andreas (2015): Die medizinisch nicht indizierte Beschneidung des männ lichen Kindes, Berlin. Mathis, Klaus (2009): Effizienz statt Gerechtigkeit?, 3. Aufl., Berlin. Menke, Christoph (2011): Recht und Gewalt, 2. Aufl. Berlin. – (2015): Kritik der Rechte, Frankfurt a. M. Mises, Ludwig von (1933): Grundprobleme der Nationalökonomie, Jena. 194
Philosophie der Rechtswissenschaft
Möllers, Christoph (2009): Demokratie. Zumutungen und Versprechen, 2. Aufl., Berlin. Mühlhölzer, Felix (2011): Wissenschaft, Stuttgart. Muthorst, Olaf (2011): Grundlagen der Rechtswissenschaft, München. Nozick, Robert (1974): Anarchy, State, Utopia, New York. Pauen, Michael und Gerhard Roth (2008): Freiheit, Schuld, Verantwortung. Grundzüge einer naturalistischen Theorie der Willensfreiheit, Frankfurt a. M. Pfordten, Dietmar von der (2004): Was ist und wozu Rechtsphilosophie?, in: Juristenzeitung, 157 – 166. Peters, Anne (2006): Compensatory Constitutionalism, in: Leiden Journal of International Law 19/ 3, 579 – 610. Pettit, Philip (2015): Gerechte Freiheit. Ein moralischer Kompass für eine komplexe Welt, Frankfurt as. M. Pippin, Robert (2005): Die Verwirklichung der Freiheit, Frankfurt a. M. Polanyi, Karl (1957): The Great Transformation, Glencoe. Popper, Karl R. (1934): Logik der Forschung, 11. Aufl., Tübingen 2005. Prodi, Paolo (2005): Eine Geschichte der Gerechtigkeit, 2. Aufl., München. Radbruch, Gustav (1. Aufl. 1914): Grundzüge der Rechtsphilosophie, Radbruch- Gesamt ausgabe, Bd. 2, Heidelberg 1993. – (1932): Rechtsphilosophie, 3. Aufl., Leipzig. – (1946): Gesetzliches Unrecht und übergesetzliches Recht, in: Süddeutsche Juristenzeitung, 105 – 108. – (1993): Rechtsphilosophie, Radbruch-Gesamtausgabe, Bd. 2, Heidelberg. Rawls, John (1971/1999): A Theory of Justice, Cambridge Mass. – (2006): Gerechtigkeit als Fairness. Ein Neuentwurf, Frankfurt a. M. Raz, Joseph (1975): Practical Reason and Norms, Oxford. Röhl, Klaus F. und Hans Christian Röhl (2008): Allgemeine Rechtslehre, 3. Aufl., Köln. Ross, Alf (1958): On Law and Justice, London. Roßnagel, Andreas (1993): Rechtswissenschaftliche Technikfolgenabschätzung. Umrisse einer Forschungsdisziplin, Baden-Baden. Rüsen, Jörn (1983): Historische Vernunft. Grundzüge einer Historik I. Die Grundlagen der Geschichtswissenschaft, Göttingen. Rüthers, Bernd, Christian Fischer und Axel Birk (2015): Rechtstheorie, 8. Aufl., München. Saliger, Frank (1995): Radbruchsche Formel und Rechtstaat, Heidelberg. Samuel, Goeffrey (2009): Interdisciplinarity and the Authority Paradigm: Should Law be taken seriously by Scientists or Social Scientists?, Journal of Law and Society 36, 431 – 459. Savigny, Eike v., Ulfrid Neumann und Joachim Rahlf (1976): Juristische Dogmatik und Wissenschaftstheorie, München. Schmitt, Carl (1919): Politische Romantik, 6. Aufl., Berlin 1998. Schnädelbach, Herbert (1983): Philosophie in Deutschland 1831 – 1933, München. Schreiber, Hans-Ludwig (1993): Jurisprudenz auf dem Weg zum Recht – von den Möglichkeiten und Grenzen der Rechtswissenschaft, in: H. Mainusch/J. Toellner (Hg.), Die Einheit der Wissenschaft, 92 – 100. 195
II. Die Philosophie der Formal- und Geisteswissenschaften
Schröder, Jan (2012): Recht als Wissenschaft, 2. Aufl., München. Schuhr, Jan (2006): Rechtsdogmatik als Wissenschaft, Berlin. Schumpeter, Joseph (1954): History of Economic Analysis, Oxford. Schuppert, Gunnar Folke (2011): Governance und Rechtssetzung, Baden-Baden. Schurz, Gerhard (2014): Einführung in die Wissenschaftstheorie, 4. Aufl., Darmstadt. Seelmann, Kurt/Daniela Demko (2015): Rechtsphilosophie, 6. Aufl., München. Seinicke, Ralf (2015): Das Recht des Rechtspluralismus, Tübingen. Shapiro, Scott J. (2011): Legality, Cambridge/ Mass. Shapiro, Scott J. (2007): The »Hart-Dworkin« Debate. A short Guide for Perplexed, University of Michigan Public Working Paper No. 77. Simon, Dieter (1992): Die Rechtswissenschaft als Geisteswissenschaft, in: Rechtshistorisches Journal 11, 351 – 366. Sorel, George (1908): Réflexions sur la violence, Paris. Stekeler-Weithofer, Pirmin (2014): Eine Kritik der juridischen Vernunft, Baden-Baden. – (2015): Sprachphilosophie, München. Tetens, Holm (2013): Wissenschaftstheorie, München. Teubner, Gunther (1995): Die zwei Gesichter des Janus: Rechtspluralismus in der Spätmoderne, in: E. Schmidt et al. (Hg.) Liber Amicorum Josef Esser, Heidelberg. Thompson, Michael (2011): Leben und Handeln. Grundstrukturen der Praxis und des praktischen Denkens, Frankfurt a. M. Tiersma, Peter M./Laurence M. Solan (Hg.) (2012): The Oxford Handbook of Language and Law, Oxford. Troje, Hans Erich (1969): Wissenschaftlichkeit und System in der Jurisprudenz des 16. Jahrhunderts, in: J. Blühdorn/J. Ritter (Hg.), Philosophie und Rechtswissenschaft, Frankfurt a. M. Twining, William (2009): General Jurisprudence. Understandig Law from a Global Perspective, Cambridge. Ulrich, Peter (1997): Integrative Wirtschaftsethik, Bern usw. Vesting, Thomas (2007): Rechtstheorie, München. – (2011): Medien des Rechts. Schrift, Weilerswist. –, Stefan Korioth und Ino Augsberg (Hg.) (2014): Grundrechte als Phänomene kol lektiver Ordnungen. Zur Wiedergewinnung des Gesellschaftlichen in der Grund rechtstheorie und Grundrechtsdogmatik, Tübingen. Viehweg, Theodor (1974): Topik und Jurisprudenz, 5. Aufl., München. Vismann, Cornelia (2005): Derrida, Philosopher of Law, in: German Law Journal 6. – und Thomas Weitin (Hg.) (2006): Urteilen – Entscheiden, Paderborn usw. Volbert, Renate (Hg.) (2008): Handbuch der Rechtspsychologie (Handbuch der Psychologie Bd. 9), Göttingen u. a. Weber, Max (1904): »Die »Objektivität« sozialwissenschaftlicher und politischer Erkenntnis, in: Gesammelte Aufsätze zur Wissenschaftslehre, Tübingen 1988. – (1920): Die protestantische Ethik und der Geist des Kapitalismus, in: Aufsätze zur Religionssoziologie, Tübingen, 1 – 2 06. Wesel, Uwe (1974): Zur Methode der Rechtsgeschichte, in: Kritische Justiz, 337 – 368. 196
Philosophie der Rechtswissenschaft
Wittgenstein, Ludwig (1953): Philosophical Investigations (Philosophische Untersuchungen), Oxford. Zabel, Benno (2013): Das Schweigen des Rechts. Anmerkungen zum Legitimationsdiskurs der Moderne, in: S. Markewitz (Hg.), Jenseits des beredten Schweigens, Bielefeld, 315 ff. – (2015): Europa denken. Das Recht zwischen staatlicher und entstaatlichter Freiheitsverwirklichung, in: W. Griesser (Hg.), Philosophie und Europa, Würzburg, 19 – 41.
197
III. Die Philosophie der Natur- und Biowissenschaften
1. Philosophie der Physik Christian Wüthrich
1 Einleitung In der Philosophie der Physik kann man unscharf zwei Hauptrichtungen erkennen. Zum einen findet man das, was man als Philosophie der Physik in einem engeren Sinne bezeichnen mag; darin werden originär philosophische Fragestellungen an die Physik herangetragen und mit deren Hilfe zu beantworten versucht. Als Beispiele dafür dienen etwa die Frage, ob unsere Welt deterministisch oder indeterministisch sei, oder die Frage nach den fundamentalen Bausteinen der Natur oder, etwas spezifischer vielleicht, die Frage, ob es denn ein physisches Korrelat der von uns in der Welt gesehenen oder in die Welt hineinprojizierten Kausalzusammenhänge gebe. Die Determinismus-Frage zum Beispiel, obwohl von ihrem Ursprung her der Philosophie zuzuordnen, muss mit den Ressourcen der Physik beantwortet werden: Man untersucht dabei, ob unsere besten physikalischen Theor ien deterministisch oder indeterministisch sind. Obwohl dazu der philosophische Begriff einer deterministischen Theor ie geschärft wird – und geschärft werden muss –, zeigt sich bei einer solchen Analyse, dass die Antwort überraschend schwerfällt. Zudem ist es nicht klar, ob nicht Grenzen unserer Erkenntnisfähigkeit uns grundsätzlich davon abhalten, die Antwort je zu kennen (Wüthrich 2011 und Referenzen darin). Zum andern gibt es die Grundlagen der Physik, worin eigentlich physikalische Fragestellungen mit in einem weit gefassten Sinn philosophischen Methoden behandelt werden. Das traditionell wichtigste Beispiel dabei ist das Messproblem in der Quantenmechanik und damit verbunden das grundsätzliche Problem der Interpretation der Quantenmechanik. Das Messproblem tritt bereits in der nichtrelativistischen Quantenmechanik auf und muss für ein kohärentes Verständnis der Theor ie notwendigerweise aufgelöst werden.1 Dabei hat die Philosophie der Physik gerade in den 1990er Jahren wichtige Beiträge zur Schärfung der Problem stellung erbracht. Ein weiteres wichtiges Beispiel in dieser Kategorie ist die Reduktion des Zweiten Hauptsatzes der Thermodynamik auf die statistische Physik. Diese Reduktion ist deshalb nicht-trivial, weil der Zweite Hauptsatz ganz klar eine zeitliche Asymmetrie zwischen Vergangenheit und Zukunft impliziert – die gesamte Entropie eines geschlossenen Systems kann in zeitlicher Richtung nur Zumindest wenn die Theor ie realistisch aufgefasst wird, d. h., wenn die Theor ie als eine Theor ie über unsere Welt angeschaut wird (vgl. Abschnitt 3). 1
201
III. Die Philosophie der Natur- und Biowissenschaften
zu-, aber nicht abnehmen –, die klassische statistische Physik aber gemeinhin als zeitumkehrinvariante Theor ie gilt, d. h., als Theor ie, die die beiden zeitlichen Richtungen von Vergangenheit zu Zukunft und von Zukunft zu Vergangenheit als gleichwertig betrachtet. Schließlich ist auch die im nächsten Abschnitt behandelte Debatte zwischen Leibniz und Newton ein wichtiges Beispiel für eine philosophische Grundlagendebatte in der Physik. Diese Unterteilung der Philosophie der Physik in zwei Grundkategorien soll nicht den falschen Eindruck erwecken, dass sämtliche oder schon nur die meisten Fragestellungen klar in einen der beiden Bereiche fallen. Oft zeichnet sich erfolgreiche Arbeit in der Philosophie der Physik gerade dadurch aus, dass die Analyse unablässig vor und zurück in beiden Richtungen betrieben wird, ohne sich dabei um disziplinäre Grenzen zu kümmern. Damit werden »eigentlich physikalische« oder »originär philosophische« Fragestellungen höchstens noch graduell unterscheidbar. In einer ersten Näherung sind diese beiden ›Richtungen‹ eher so etwas wie ›Modi‹, wonach man entweder von der Physik oder der Philosophie ausgeht und sich dem andern Ende sozusagen annähert. Viele Arbeiten in der Philosophie der Physik sind so interdisziplinär – sie ›treffen‹ sich gewissermassen in der Mitte zwischen Physik und Philosophie –, dass es unmöglich wird, letztlich eine prinzipielle Trennung zwischen der Physik und der Philosophie zu ziehen. Hier gehen Philosophie und Physik nahtlos Hand in Hand. Zudem ist das Verhältnis von Philosophie und Physik durch die Geschichte hindurch alles andere als konstant geblieben. Betrachten wir die historische Entwicklung, dann erkennen wir, dass zunächst für eine sehr lange Zeitspanne – von der Antike bis zur wissenschaftlichen Revolution im 16. und 17. Jahrhundert – die Physik ein zentraler Aspekt der Naturphilosophie und damit ein wichtiger, aber eigentlicher Teil der Philosophie war. Auch in und nach der wissenschaftlichen Revolution bis hin zu Kant blieb die Physik mit der Philosophie eng verwoben und eine eigenständige Philosophie der Physik im obigen Sinn ist – wenn überhaupt – nur schwer zu erkennen. Eine solche Philosophie der Physik tritt vielleicht bei Kant oder spätestens im logischen Positivismus zum ersten Mal als eine selbstständige und selbstreflektierte Unternehmung auf. Die zeitgenössische Philosophie der Physik bleibt dem logischen Positivismus bis heute stark verbunden, was auch damit zu tun hat, dass zumindest im englischsprachigen Raum die logischen Positivisten viele der gegenwärtig führenden Philosophen und Philosophinnen der Physik direkt oder indirekt ausgebildet haben. Der vorliegende Artikel wird im abschließenden Abschnitt 5 kurz auf das heutige Verhältnis zwischen der Philosophie und der Physik zurückkommen. Davor behandeln die Abschnitte 2 und 3 metaphysische, insbesondere ontologische Aspekte und Abschnitt 4 widmet sich erkenntnistheoretischen, insbesondere methodologischen Fragestellungen der Philosophie der Physik. Die Struktur des Kapitels ist also in erster Linie thematisch motiviert; zu den Themen in allen Abschnitten kann man sowohl Arbeiten, die tendenziell eher der einen als der an202
Philosophie der Physik
dern der oben unscharf umrissenen ›Hauptrichtungen‹ zuzuordnen sind, als auch solche, die nicht in dieser Weise zuordenbar sind, ausmachen. Im Abschnitt 2 wird nach der Existenz und der Natur von Raum und Zeit gefragt. Dabei beginne ich mit der klassischen Debatte zwischen dem Relationa listen Gottfried Wilhelm Leibniz und seinen substantialistischen Widersachern Isaac Newton und Samuel Clarke, gehe zur Interpretation der allgemeinen Relativitätstheorie über und schließe mit der scheinbaren Implikation zeitgenössischer Theorien der Quantengravitation, dass Raum und Zeit fundamental überhaupt nicht existieren und bloss ›emergente‹ Phänomene sind, ab. Im Abschnitt 3 wende ich mich der philosophischen Behandlung von physikalischen Theor ien der Materie zu. Hier werden natürlich verschiedene Theor ien der Quantenphysik die Hauptrolle spielen. Dabei wird einerseits das berüchtigte ›Messproblem‹ der Quantenmechanik thematisiert und andererseits das Verhältnis zwischen der wie auch immer fundamental gearteten Materie und der sie enthaltenden Raumzeit diskutiert. Es ist klar, dass das Resultat nicht zuletzt auch davon abhängen wird, ob denn fundamental überhaupt eine Raumzeit vorhanden ist. Schließlich werden im Abschnitt 4 zwei methodologische Problemstellungen analysiert, die in der letzten Zeit in der Philosophie der physikalischen Wissenschaften große Prominenz errungen haben. Beide betreffen die Möglichkeit und eventuell die Reichweite nicht-empirischer Theor ienbestätigung oder zumindest der nur sehr eingeschränkt oder indirekt empirischen Theor ienbestätigung. Erstens entfernen sich fundamentale Theor ien der Physik, wie wir sie zum Beispiel in der Quantengravitation finden, immer weiter von den traditionell empirischen Methoden der Mutterdisziplin. Folglich drängt sich hier die Frage nach möglichen alternativen, nicht-empirischen Methoden der Bestätigung auf. Zweitens muss die Kosmologie damit umgehen, dass das Universum im Gegensatz zum Untersuchungsgegenstand anderer Wissenschaften einmalig ist und typischerweise keine direkte Beobachtung wichtiger Größen, wie zum Beispiel der Anfangsbedingungen im sehr frühen Universum, zulässt. Zudem erwachsen der Kosmologie Schwierigkeiten der Selbstlokalisation und der verzerrten Auswahl der Evidenz, und sie muss sich philosophischen Debatten zur geforderten Erklärungsleistung stellen.
2 Ontologische Aspekte: Raum und Zeit Zu den zentralen ontologischen Betrachtungen einer philosophischen Beurteilung physikalischer Theor ien zählt ohne Zweifel die Frage nach den fundamentalen Bestandteilen und nach der Beschaffung der Materie. Die Gesamtheit des materiellen Gehalts des Universums wird dabei traditionellerweise als dadurch gegeben angeschaut, was in Raum und Zeit existiert, anders etwa als – falls sie existieren – Gott, mentale Entitäten, mathematische Objekte und andere Ab 203
III. Die Philosophie der Natur- und Biowissenschaften
strakta. Materielle Objekte zeichnen sich danach unter den verschiedenen Arten von Entitäten gerade dadurch aus, dass sie raumzeitlich sind. Damit wird klar, dass nicht nur der ontologische Status der elementaren Konstituenten der Materie am Anfang steht, sondern auch derjenige von Raum und Zeit selber. Letzterer soll in diesem Abschnitt behandelt werden; ersterer im nächsten. Die Debatte zwischen Leibniz und Newton, respektive seinem Sprachrohr Samuel Clarke, steht am Anfang der modernen Entwicklungen in der Ontologie von Raum und Zeit.2 Nach Newton sind Raum und Zeit unendlich und unendlich teilbar, völlig homogen und selbstähnlich, euklidisch in ihrer Geometrie, und vor allem sind sie eigenständige Substanzen, d. h. sie existieren unabhängig von ihrem Materiegehalt. Letzteres impliziert insbesondere, dass ein leerer Raum und eine leere Zeit existieren können. Raum und Zeit sind alles Materielle durchdringende, unverrückbare Medien, die sich ad infinitum erstrecken. Dabei verbindet eine primitive – also nicht weiter analysierbare – Relation der räumlichen oder raumzeitlichen ›Lokalisiertheit‹ materielle Objekte mit den Orten im Raum oder in der Raumzeit. Diese Position wird Substantialismus genannt. Leibniz hält dem Substantialismus entgegen, dass dadurch, dass materielle Objekte ihre räumlichen oder raumzeitlichen Eigenschaften von der Raum- oder Raumzeitregion, die sie besetzen, gewissermaßen erben, eine zusätzliche, nicht beobachtbare und theoretisch redundante ontische Ebene zwischen die Objekte eingeschoben wird. Diese Ebene ist deshalb nicht beobachtbar, weil wir immer nur räumliche (oder eventuell raumzeitliche) Distanzen zwischen Objekten beobachten, aber niemals wie sie im Raum oder in der Raumzeit selber lokalisiert sind. Statt Relationen zwischen Objekten und Orten haben wir bloß Objekte, die in räumlichen oder raumzeitlichen Beziehungen stehen. Deshalb sind Raum und Zeit für Leibniz etwas bloß Relatives, d. h. sie sind nicht absolut und deshalb auch keine eigenständigen Substanzen. Der Raum ist nichts anderes als die Ordnung der koexistierenden materiellen Substanzen; die Zeit ist nichts als die Ordnung des Aufeinanderfolgens von Ereignissen. Raum und Zeit existieren bloß, insofern die materielle Existenz raumzeitlich geordnet ist. Ohne Materie gibt es nichts, das so zu ordnen wäre, und deshalb kann weder ein leerer Raum noch eine leere Zeit existieren. Zumindest in der kruden Form der leibnizschen Position existieren nicht einmal raumzeitliche Orte, die von keinem materiellen Objekt eingenommen werden. Diese Position heißt Relationalismus. Ein Vorteil, den Leibniz in seiner berühmten Korrespondenz mit Clarke für den Relationalismus (des Raumes) reklamiert, erwächst aus der Ununterscheidbarkeit gewisser verwandter Situationen. Etwas anachronistisch kann man drei Arten von räumlichen Verschiebungen unterscheiden. Erstens haben wir statische Verschiebungen, bei denen der gesamte materielle Inhalt des Universums Vgl. Kapitel 6 in Earman 1989; obwohl nicht mehr ganz aktuell, liefert dieses Buch immer noch eine der besten Einführungen in die Philosophie von Raum und Zeit und speziell in einige der hier behandelten Fragestellungen. 2
204
Philosophie der Physik
gleichmäßig um eine konstante Strecke verschoben wird, so dass die relativen Distanzen und Bewegungen zwischen den Objekten gleichbleiben. Zweitens gibt es kinematische Verschiebungen, bei denen der Bewegungszustand aller Körper ohne diese zu beschleunigen so verändert wird, dass die relativen Distanzen und Bewegungen unverändert bleiben. Schließlich existieren noch dynamische Verschiebungen, bei denen alle Materie im Universum um den gleichen Betrag und in die gleiche Richtung beschleunigt wird, ohne dass dabei die relativen Distanzen oder Bewegungen zwischen den Körpern verändert werden. Wie Leibniz erkannt hat, ist nun die gesamte Newton’sche Physik so beschaffen, dass weder die absolute Position noch die absolute Geschwindigkeit eine physikalisch relevante Rolle spielen. Da zwei Situationen, die sich um eine statische oder um eine kinematische Verschiebung unterscheiden, nur um absolute Positionen und Geschwindigkeiten verschieden und deshalb in allen physikalisch relevanten Größen identisch sind, sind statische und kinematische Verschiebungen nicht detektierbar. Durch solche Verschiebungen verwandte Situationen sind deshalb ununterscheidbar. Nach Leibniz’ berühmtem Prinzip der Identität des Ununterscheidbaren sind deshalb diese beiden Situationen in Tat und Wahrheit ein und dieselbe. Weil aber der Substantialismus auf einem Unterschied zwischen den beiden Situationen bestehen muss, ist er falsch. Dem kann man entgegenhalten, dass das für dieses Argument notwendige Prinzip der Identität des Ununterscheidbaren alles andere als unumstritten ist. 3 Zudem kann eine Substantialistin abstreiten, dass die zwei Situationen, bloß weil sie sich in beobachtbaren Größen nicht unterscheiden, auch ununterscheidbar simpliciter sein müssen. Allerdings scheint dieser Ausweg einer empiristischen Substantialistin nicht zugänglich. Falls das Prinzip also akzeptiert wird, so zeigt Leibniz’ Argument zumindest eine Spannung zwischen Substantialismus und Empirismus auf. Es scheint, als ob der Substantialismus an dieser Stelle die ontische Stipulation von Raum und Zeit durch andere – theoretische – Tugenden einer solchen Stipulation rechtfertigen muss. Dieses Argument übersieht allerdings die dritte Art von Verschiebungen, der dynamischen nämlich. Im berühmten Scholium zu den Definitionen in der Principia argumentiert Newton, dass, obwohl Raum und Zeit selber nicht direkt beobachtbar sind (und deshalb auch absolute Positionen und Geschwindigkeiten nicht), sie sehr wohl beobachtbare Konsequenzen haben. Dies zeigt er am Beispiel des sogenannten ›Eimer-Gedankenexperiments‹ auf. Dieses Gedankenexper i ment vergleicht zwei Situationen, die sich durch eine gleichmäßige Rotation – also durch eine absolute Beschleunigung – unterscheiden. In der ersten Situation stehen sowohl der aufgehängte runde Eimer als auch das darin enthaltene Wasser still, d. h., sie rotieren relativ zum Laborsystem nicht. Im zweiten Fall rotieren beide um die an der Symmetrieachse angebrachte Aufhängung. Newton zeigt, dass die beiden Situationen sich durch Effekte der Fliehkraft und also durchaus 3
Vgl. Black 1952.
205
III. Die Philosophie der Natur- und Biowissenschaften
auf eine beobachtbare Weise unterscheiden – in der ersten Situation bleibt die Wasseroberfläche flach, in der zweiten wird sie konkav. Das Problem für den Relationalisten ist, so Newton, dass die beiden Situationen nur durch eine absolute, aber nicht durch eine relative Beschleunigung verschieden sind. Dem Relationalisten fehlen deshalb schlicht und einfach die Ressourcen, um die Physik adäquat zu beschreiben. Über mehrere Jahrhunderte bleibt dieses Problem für den Relationalismus bestehen. Erst im späten 19. Jahrhundert findet Ernst Mach einen raffinierten Ausweg: Die beobachteten Konsequenzen der Fliehkraft können statt durch eine absolute Rotation des nahen Systems durch eine Rotation der fernen Sternmassen erzeugt werden. Damit kann wiederum nur eine relative Beschleunigung zwischen dem Wasser im Eimer und den fernen Sternmassen des Universums beobachtet werden. Trotz dieses Erfolgs, Newtons Gedankenexperiment zu entkräften, ist damit der Sieg des Relationalismus nicht gesichert. Erstens bleibt der Relationalistin immer noch die Aufgabe, eine vollständige Mechanik mit kompletten Zustandsbeschreibungen und dynamischen Gleichungen zu formulieren, die bloß auf relationale Größen zurückgreift; solange unsere Mechanik – wie das in der üblichen klassischen Physik der Fall ist – zu ihrer Formulierung sich auch auf absolute Größen stützen muss, können sich die Substantialisten immer auf deren Unverzichtbarkeit berufen, um ihre Realität zu verteidigen. Falls Raum und Zeit also keine eigenständigen Substanzen sind, sollte eine physikalische Theor ie grundsätzlich auch so formulierbar sein, dass keine Referenzen auf Raum und Zeit qua solche Substanzen notwendig sind. Es gibt mehrere vollständige relationistische Formulierungen der klassischen Mechanik, wie zum Beispiel diejenigen von Julian Barbour und Bruno Bertotti (1982), Gordon Belot (1999) und Nick Huggett (2006). Zweitens kompliziert das Auftreten der allgemeinen Relativitätstheor ie ab 1915 die Debatte, zunächst für den Relationalismus.4 Aus einer relationalistischen Sicht sollte eine wahre physikalische Theor ie eine Bedingung erfüllen, die dem, was Albert Einstein ›Machsches Prinzip‹ genannt hat, ähnelt: Raum und Zeit sind durch die raumzeitliche Ordnung aller existierenden physischen Objekte in all ihren Eigenschaften vollständig bestimmt. Einsteins anfängliche Hoffnungen, dass seine allgemeine Relativitätstheor ie diesem Prinzip genügt, wurden bald zerschlagen. Es stellt sich nämlich heraus, dass es in der allgemeinen Relativitätstheorie mehrere sogenannte ›Vakuumlösungen‹ gibt, d. h., Raumzeiten, in denen sich keine Materie oder materieähnliche Substanz findet. Die sogenannten Minkowski- und de-Sitter-Raumzeiten sind beides solche – physikalisch ernstgenommenen – Vakuumlösungen und sind also in ihrem Materiegehalt tri Malament 2012 liefert eine hervorragende, wenn auch nicht mühelos zugängliche Einführung in die allgemeine Relativitätstheor ie, die gleichzeitig mathematisch rigoros und philosophisch informiert ist. Um den Umfang dieses Essays nicht zu sprengen, gehe ich nicht weiter auf die spezielle Relativitätstheor ie ein; vgl. Brown 2005 für einen wichtigen – und kontroversen – jüngeren Beitrag zu den philosophischen Grundlagen der speziellen Relativitätstheor ie. 4
206
Philosophie der Physik
vialerweise identisch. Trotzdem unterscheiden sie sich in ihrer Raumzeit-Geometrie wesentlich voneinander. Natürlich sind die dynamischen Raumzeiten der allgemeinen Relativitätstheor ie weit von den Stipulationen der Newton’schen Konzeption entfernt; trotzdem sieht es also zunächst so aus, als ob die moderne Physik den Substantialismus stützen würde. Das Blatt hat sich aber in den 1980er Jahren mit der Wiederentdeckung des sogenannten ›Locharguments‹ von Einstein durch John Stachel, John Earman und John Norton wieder gewendet.5 Dabei ist der Leitgedanke, dass die gleich erläuterte ›Diffeomorphismus-Invarianz‹ der allgemeinen Relativitätstheor ie dazu verwendet wird, dem Substantialismus ein Bekenntnis zu numerisch distinkten, aber physikalisch ununterscheidbaren Raumzeiten anzuhängen. Das bedarf einer etwas ausführlicheren Erklärung. In der allgemeinen Relativitätstheor ie besteht eine Raumzeit aus einer Mannigfaltigkeit (im mathematischen Sinn), die mit einer Topologie und Differenzierbarkeitsstruktur ausgestattet ist, und einem darauf überall definierten metrischen Feld, das es erlaubt, raumzeitliche Abstände und Winkel zu messen. Ein Modell der Theorie (oder äquivalent, eine Lösung) besteht aus einer Raumzeit und einer durch den Energie-Impuls-Tensor gegebenen Massen- (und Energie-)dichte. Um ein Modell zu sein, müssen zudem die Metrik und der Energie-Impuls-Tensor die Einstein’schen Feldgleichungen erfüllen, die diese Größen in Beziehung zueinander setzen. Sowohl die Metrik als auch der EnergieImpuls-Tensor sind (tensorielle) Felder auf der zugrundeliegenden Mannigfaltigkeit. Diese Mannigfaltigkeit dient also gewissermassen als ›Hintergrund‹, vor dem sich die Physik, also die Wechselwirkung zwischen Geometrie der Raumzeit und der Verteilung der Materie und der Energie, abspielt. Da in der allgemeinen Relativitätstheorie die Metrik also ›dynamisch‹ wird, so Earman/Norton (1987), ist sie nicht Teil der Substanz, zu der sich der Substan tialismus bekennt. Der Substantialismus wird so also zum ›Mannigfaltigkeitssub stantialismus‹. Dieser Substantialismus – so die Voraussetzung des Lochargu ments – muss nicht nur die Mannigfaltigkeit als Substanz annehmen, sondern damit auch die Existenz aller Teile der Mannigfaltigkeit, also ihrer Punkte, unabhängig von den darauf sitzenden physikalischen Feldern anerkennen. Das bedeutet, so das Argument weiter, dass verschiedene Weisen, diese Felder auf die Hintergrundsmannigfaltigkeit zu legen, als numerisch distinkte physikalische Situationen angeschaut werden müssen.6 Es ist also gemäß dem Substantialismus eine Tatsache, ob die Weltlinie eines Planeten durch einen bestimmten Punkt der Mannigfaltigkeit führt oder nicht. Nun ist es so, dass in der allgemeinen Relativitätstheor ie ›Diffeomorphismen‹ eine dynamische Symmetrie darstellen. Diffeomorphismen sind bijektive, stetig Vgl. Norton 2014. Die Felder können zum Beispiel außerhalb eines kleinen ›Lochs‹ identisch auf die Mannigfaligkeit gelegt werden; in diesem Fall unterscheiden sich die Situation nur innerhalb des ›Lochs‹ – daher ›Lochargument‹. 5 6
207
III. Die Philosophie der Natur- und Biowissenschaften
differenzierbare Abbildungen, deren Umkehrabbildung ebenfalls stetig differenzierbar ist. Anschaulich gesagt sind Diffeomorphism kontinuierliche Abbildungen, die die auf der Mannigfaltigkeit lebenden Felder kontinuierlich – also ohne zu ›reißen‹ – deformieren. Diese Symmetrien sind dynamisch, was bedeutet, dass falls ein Tripel bestehend aus einer Mannigfaltigkeit, einer Metrik und einem Energie-Impuls-Tensor ein Modell der Theor ie darstellt, dieselbe Mannigfaltigkeit zusammen mit der um den gleichen Diffeomorphismus verschobenen Me trik und dem ebenso verschobenen Energie-Impuls-Tensor ebenfalls ein Modell darstellt, wobei eben die Metrik und der Energie-Impuls-Tensor Beispiele von vom Diffeomorphismus herumgeschobenen und deformierten Feldern sind. Der Substantialismus muss nun aber behaupten, dass sich das ›verschobene‹ Modell vom ersten unterscheidet, da die Felder unterschiedlich auf der Mannigfaltigkeit sitzen. Diese Implikation ist darum nicht willkommen, weil die beiden Modelle in all ihren beobachtbaren Größen identisch sind und sich deshalb prinzipiell nicht durch Beobachtung unterscheiden lassen. Zudem ist es so, dass die Bewegungsgesetze der allgemeinen Relativitätstheor ie damit indeterministisch würden: Unter den dynamischen Gesetzen würde sich so ein beliebiger Anfangszustand in zwei Endzustände entwickeln, die zwar empirisch ununterscheidbar, aber physikalisch verschieden wären. Ein solcher Indeterminismus bedeutet aber, dass die Theor ie eine unliebsame – weil unphysikalische – ›Determinierungsimpotenz‹ aufweisen würde. Aus diesen Gründen, so das Argument von Earman und Norton, sollte der Mannigfaltigkeitssubstantialismus aus Gründen der ontologischen Redundanz abgelehnt werden. Um den Rahmen dieses Artikels nicht zu sprengen, will ich nur ganz kurz die wichtigsten Reaktionen auf das Lochargument skizzieren.7 Eine populäre Gruppe von Antworten insistiert, dass eine Raumzeit nicht durch eine bloße Mannigfaltigkeit repräsentiert werden kann, weil Letzterer essentielle Eigenschaften von Raum und Zeit wie Dauer, Distanz und Zeitrichtung fehlen. Eine Raumzeit besteht danach nicht nur aus der Mannigfaltigkeit allein, sondern zwingend auch aus dem darauf definierten metrischen Feld.8 Welches Raumzeitereignis durch einen bestimmten Punkt in der Mannigfaltigkeit repräsentiert wird, hängt so davon ab, wie das metrische Feld auf der Mannigfaltigkeit zu liegen kommt. Da für den ›raffinierten‹ (engl. ›sophisticated‹) Substantialismus Punkte der Mannigfaltigkeit zwar die Objekte der Prädikation von raumzeitlichen Eigenschaften und Relationen darstellen, besitzen diese Objekte keine ›Haecceitas‹, also keine primitive spezifische ›Diesheit‹, und stellen daher nur zusammen mit Für eine detailliertere Beschreibung vgl. Norton 2014 und die Bibliographie darin sowie Pooley 2013. Einer der wichtigsten Vertreter des ›raffinierten‹ Substantialismus ist Pooley (i. E.). 8 Verschiedene Positionen innerhalb dieser Familie unterscheiden sich unter anderem darin, ob das metrische Feld in die ›Ontologie‹ oder die ›Ideologie‹ der Raumzeit einfließt. 7
208
Philosophie der Physik
der durch das metrische Feld erfolgten Prädikation ein Individuum dar. Der Indeterminismus verschwindet, da die Metrik mit dem Ereignis zusammen transformiert werden muss, damit wir überhaupt von ›diesem‹ oder ›jenem‹ Raumzeitereignis reden können. Eine in ihrem Geiste ähnliche Reaktion nimmt das Fehlen einer Haecceitas der Punkte der Mannigfaltigkeit zum Anlass, überhaupt die fundamentale Existenz von Objekten mit intrinsischen Eigenschaften zu verwerfen. Diese strukturalistische Antwort sieht die Raumzeit in ihrer Gesamtheit als eigenständige Substanz, besteht aber darauf, dass sie eine relationale Struktur ist, d. h. dass Raumzeitereignisse nur insofern überhaupt Objekte sind, als sie eine Position oder Rolle vis-à-vis der Gesamtheit der durch raumzeitliche Relationen verbundenen Raumzeitereignisse innehaben. Dieser strukturalistische Realismus ist in letzter Zeit auf verschiedene Bereiche der modernen Physik, insbesondere auch auf die Quantenmechanik, fruchtbar angewendet worden.9 Die allgemeine Relativitätstheorie ist eine klassische Feldtheorie, d. h. sie beschreibt räumlich ausgedehnte und zum Beispiel durch die Metrik oder den Energie-Impuls-Tensor dargestellte Felder, die sich mittels einer klassischen, also nicht-quantentheoretischen, Dynamik entwickeln. Als solche kann sie die Quanteneffekte, die zum Beispiel in den sehr starken Gravitationsfeldern des ganz frühen Universums und in der Nähe von schwarzen Löchern relevant werden, nicht beschreiben. Sie kann deshalb die Gravitationsphysik in unserer Welt im besten Fall bloß annähern und wird letztlich durch eine Quantentheor ie der Gravitation ersetzt werden müssen; durch eine Theorie also, die starke Gravitationsfelder mit den dabei auftretenden Quanteneffekten korrekt erfasst. Leider gibt es momentan eine solche vollständige Theorie noch nicht, sondern nur sehr unterschiedliche – und sehr unterschiedlich weit ausgereifte – Ansätze, eine solche zu formulieren. Nicht nur herrscht überhaupt kein Konsens darüber, was die theoretisch vielversprechendsten Ansätze sind, sondern es gibt auch keine Beobachtungen oder experimentelle Daten, die uns eine empirische Anleitung zur Formulierung einer solchen Theor ie geben könnten. Es bleibt uns also nichts anderes übrig, als bestehende Forschungsprogramme theoretisch zu beurteilen und an ihren eigenen Ansprüchen zu messen und dabei nicht zu vergessen, dass alle Konklusionen nur sehr vorläufig sein können. Trotz dieser Vielfalt zeigt sich allgemein, dass in der Quantengravitation Raum und Zeit wahrscheinlich nicht mehr wie bis anhin Teil der fundamentalen Onto logie sind, sondern zu emergenten Entitäten werden.10 In Analogie zu Tischen und Stühlen, die zwar existieren, aber sicher nicht Teil der Ontologie einer fundamentalen physikalischen Theor ie sind, wird dadurch nicht die Existenz, sondern Ladyman und Ross (2007) legen eine kraftvolle Verteidigung des (ontischen) strukturalistischen Realismus vor. 10 Vgl. Huggett und Wüthrich 2013. Das beschriebene Problem ist Hauptthema der im Erscheinen begriffenen Monographie von Huggett und Wüthrich. 9
209
III. Die Philosophie der Natur- und Biowissenschaften
bloß die Fundamentalität der Raumzeit in Frage gestellt. Genauso wie Tische und Stühle aus den letztlich elementaren Bausteinen der Materie aufgebaut sind und aus bestimmten Kombinationen von bestimmten elementaren Objekten erwachsen und über emergente Eigenschaften wie zum Beispiel ihre Festigkeit verfügen, sollte man die Raumzeit hier als Struktur verstehen, die erst durch eine günstige Kombination von elementaren Objekten entsteht und deren Eigenschaften wie zum Beispiel Dauer, Distanz und Zeitrichtung zu einem grossen Teil emergent sind. Raum und Zeit werden so zu ›emergenten‹ Phänomenen, die aus der grundlegenden Physik erwachsen. In der Sprache der Physik sind Raumzeittheorien wie die allgemeine Relativitätstheor ie ›effektive‹ Theor ien und die Raumzeit selber ›emergent‹, ähnlich wie Thermodynamik eine effektive Theorie ist und Temperatur emergent ist, da sie sich aus dem kollektiven Verhalten der Gasmoleküle herausbildet. ›Emergenz‹ ist dabei Platzhalter der näher zu verstehenden Relation und soll zunächst einfach ausdrücken, dass auf der Makroebene etwas Neuartiges auftritt, das so auf der Mikroebene nicht vorhanden ist. Obwohl die Art und Weise und auch die Radikalität, mit welcher Raum und Zeit in der Quantengravitation nicht mehr fundamental existieren, von Ansatz zu Ansatz verschieden sind, drängt sich so eine philosophische Auseinandersetzung mit einer fundamental nicht raumzeitlichen Welt auf. Die Idee, dass das Universum und sein materieller Gehalt letztlich nicht in Raum und Zeit sind, erschüttert unsere Konzeption der materiellen Welt und von physischer Existenz überhaupt so profund wie keine Revolution zuvor. Eines der Hauptprobleme einer physikalischen Theor ie, die die fundamentale Existenz von Raum und Zeit ablehnt, stellt zum Beispiel die Sicherstellung ihrer empirischen Kohärenz dar. Mit Jeffrey Barrett (1999, § 4.5.2) bezeichnen wir eine Theorie dann als empirisch inkohärent, wenn die Wahrheit der Theor ie die Rechtfertigung, die wir dafür haben, sie als wahr zu akzeptieren, unterminiert. Nach dieser Definition scheint eine Theor ie, die die fundamentale Existenz der Raumzeit leugnet, empirisch inkohärent zu sein, weil die empirische Rechtfertigung einer Theorie letztlich nur auf beobachtbaren Effekten eines in Raum und Zeit situierten ›Etwas‹ beruhen kann, wie zum Beispiel das Leuchten der dritten Diode von links um Mitternacht oder die raumzeitliche Koinzidenz des Zeigers mit einer Zahl auf der angezeigten Skala. Wenn nun aber eine solche Theor ie wahr ist, dann kann es keine so situierten Objekte geben – zumindest nicht auf der fundamentalen Ebene.11 Neben der Frage der Emergenz der Raumzeit selber muss mit der fundamentalen Nicht-Existenz von Raum und Zeit auch die aristotelische Konzeption der Materie als in der Raumzeit existierend neu gedacht werden. Falls letztlich Materie nicht in Raum und Zeit existiert, kann die Raumzeitlichkeit auch nicht ohne Weiteres als Abgrenzungsmerkmal des Physischen vom Mentalen oder Abstrakten verwendet werden. Vgl. wiederum Huggett und Wüthrich 2013 für eine detailliertere Darstellung des Problems der empirischen Kohärenz und seiner Lösung. 11
210
Philosophie der Physik
Es scheint zwei grundsätzliche Möglichkeiten zu geben, Materie in die fundamentale Struktur der Quantengravitation einzubinden und damit vielleicht wieder ein Abgrenzungsmerkmal zu gewinnen. Entweder ist Materie trotz der Emergenz der Raumzeit Teil der fundamentalen Struktur und also letztlich nicht raumzeitlich; oder Materie emergiert, genauso wie die Raumzeit, von der fundamentalen, nicht-raumzeitlichen, nicht-materiellen Struktur. Diese Optionen sollen hier nicht weiterverfolgt werden; es sollte jedoch klar sein, dass Erstere eine Überwindung der altehrwürdigen aristotelischen Konzeption von Materie bedingt und dass Letztere die große Frage nach der Natur dieser fundamentalen Struktur zurücklässt. Damit sind wir so oder so philosophisch gefordert.
3 Ontologische Aspekte: Materie 3.1 Das Messproblem und die Interpretation der Quantenmechanik Damit kommen wir zur Besprechung der Ontologie der Materie in der zeitgenössischen Philosophie der Physik. Unsere beste Theorie der letzten Bestandteile der Materie ist das sogenannte ›Standardmodell der Elementarteilchenphysik‹, eine atomistisch verstandene Quantentheorie des Materiegehalts des Universums.12 Während in der klassischen Mechanik die Interpretation der dabei auftretenden ›punktförmigen‹ Teilchen im Vakuum oder der ausgedehnten starren Körper oder Flüssigkeiten oder Gase vergleichsweise unproblematisch ist, stellen uns Quantentheor ien vor riesige interpretative Herausforderungen.13 Dieser Abschnitt befasst sich mit einigen der wichtigsten dieser Schwierigkeiten, ohne dabei Anspruch auf Vollständigkeit zu erheben. Zunächst könnte man meinen, dass zumindest die nicht-relativistischen Quantentheor ien (›Quantenmechanik‹) ontologisch gesehen nahezu klassische Theorien von atomistischen, also nicht weiter zerlegbaren, elementaren Systemen – von ›Teilchen‹ – seien und dass sich deren radikale Neuerungen auf die Zustände und damit auf die Eigenschaften dieser Teilchen beschränken. Die Wahrheit ist allerdings wesentlich komplizierter, wie wir schrittweise sehen werden. Da momentan darüber noch sehr wenig gesagt werden kann, lasse ich Dunkle Materie und Dunkle Energie außer Betracht. Der Leser oder die Leserin sollte daraus nicht den falschen Schluss ziehen, dass diese irrelevant sind, denn möglicherweise wird ein besseres Verständnis des ›Dunklen Gehalts‹ unseres Universums zu einer radikalen Umschrift des Folgenden führen. 13 »Vergleichsweise« sollte hier nicht überlesen werden, da es falsch wäre anzunehmen, dass die klassische Physik frei von Schwierigkeiten ist. Punktteilchen sind Idealisierungen, die zu diversen Arten von dynamischen Singularitäten führen, von denen nicht von vornherein klar ist, dass sie auf die Idealisierung zurückzuführen sind; die Grundannahmen der Undurchdringlichkeit und der Wechselwirkung durch Kontakt der Kontinuumsmechanik führen zu Paradoxien (Smith 2007), ebenso wie die Anwendung der Newton’schen Gravitationstheor ie auf die Kosmologie (Norton 1999). 12
211
III. Die Philosophie der Natur- und Biowissenschaften
Am Anfang steht das Messproblem.14 Dieses berüchtigte Problem folgt direkt aus grundlegenden Annahmen der Quantenmechanik. In der mathematischen Formulierung der Theor ie stellt die sogenannte ›Wellenfunktion‹ den Zustand des beschriebenen Quantensystems dar. Die Zustände von Quantensystemen werden allgemeiner als Vektoren in Vektorräumen dargestellt. Dass Vektorräume dazu besonders geeignet sind, hat mit dem Superpositionsprinzip zu tun: Superposition. Falls A und B beides zulässige Zustände eines Quantensystems sind, dann ist αA + βB ebenfalls ein zulässiger Zustand des Systems, wobei α und β beliebige komplexe Zahlen sind (deren Normquadrate sich zu summieren). Dieses Prinzip gilt für alle Zustände und deshalb zum Beispiel auch für den Ortszustand des Systems. Daran erkennt man sofort, dass in der klassischen Physik das Prinzip nicht gültig ist: Obwohl ein System an zwei verschiedenen Positionen sein kann, kann es zu jedem Zeitpunkt bloß in einer Position lokalisiert sein – im Gegensatz zur Quantenmechanik, wonach das System sich in einem Superpositionszustand der beiden Positionen befinden kann. In dieser Situation kann man nicht mehr sagen, dass sich das System in irgendeiner bestimmten Position befindet. Die Dynamik eines Quantensystems wird dabei als durch die Schrödingergleichung beschrieben angenommen. Die genaue Form der Schrödingergleichung spielt für unsere Zwecke keine Rolle, sondern nur zwei ihrer allgemeinen Eigenschaften. Erstens ist die Gleichung deterministisch, d. h. für einen gegebenen Anfangszustand eines physikalischen Systems und alle Kräfte, die darauf wirken, bestimmt die Schrödingergleichung eindeutig den Zustand des Systems zu allen Zeiten.15 Zweitens ist die Gleichung linear: Falls die Gleichung ein System, das sich zur Zeit t im Zustand A befindet, so entwickelt, dass es sich zur Zeit t ʹ im Zustand Aʹ befindet und das gleiche System, das sich zur Zeit t im Zustand B befindet, in den Zustand Bʹ zur Zeit t ʹ entwickelt, dann entwickelt die Gleichung das System im Zustand αA + βB zur Zeit t in den Zustand αAʹ + βBʹ zur Zeit t ʹ. Die Linearität der Schrödingergleichung garantiert also, dass sich ein Superposi tionszustand nur in einen Superpositionszustand entwickeln kann. Einmal in Superposition, immer in Superposition. Albert 1992 liefert eine nachvollziehbare Einführung in das Messproblem der Quantenmechanik und verschiedene der wichtigsten dazu vorgeschlagenen Lösungen. Meine Präsentation des Messproblems folgt teilweise der besonders scharfen Darstellung in Maudlin 1995. Für eine ausführlichere Darstellung vgl. Wüthrich (in Erscheinen). Die kürzlich erschienene Sammlung von Friebe et al. (2015) bietet eine hervorragende deutschsprachige Einführung in die wichtigsten Themen in der Philosophie der Quantenphysik. 15 Wüthrich 2011, § 2 – 3 , diskutiert die vielschichtige Frage, ob die Quantenmechanik deterministisch oder indeterministisch ist, inklusive des kürzlich publizierten ›Theorems des freien Willens‹ von John Conway und Simon Kochen, das einige Wellen geworfen hat. 14
212
Philosophie der Physik
Die Kombination dieser Grundannahmen führt nun ziemlich direkt zum Mess problem. Ohne auf die Details einzugehen – diese findet man in den Referenzen –, soll hier festgehalten werden, dass es in der Quantenmechanik zum Mess problem kommt, da wir den Zustand eines Systems nie in einer Superposition finden, wenn wir ihn messen. Zum Beispiel beobachten oder messen wir ein System immer an einem bestimmten Ort (vorausgesetzt, dass wir dessen Ort messen können) und nie in einer Superposition von zwei verschiedenen Orten. Oder wenn wir den ›Spin‹ eines Quantensystems in einer bestimmten Richtung messen, dann finden wir, mit gewissen statistischen Wahrscheinlichkeiten, immer eines von zwei möglichen Messresultaten (› + ‹ oder ›parallel‹ und › – ‹ oder ›antiparallel‹) und niemals eine Superposition der beiden, obwohl das System unmittelbar vor der Messung oft in einem solchen Zustand ist. Quantenmechanische Systeme sind im Allgemeinen in Superpositionszuständen, womit wir das Messproblem haben. Hier in einer freien Übersetzung von Tim Maudlins präziser Formulierung: Die folgenden drei Aussagen sind gegenseitig inkonsistent: (A) Die Wellenfunktion eines Systems ist komplett, d. h. die Wellenfunktion spezifiziert (direkt oder indirekt) alle physikalischen Eigenschaften eines Systems. (B) Die Wellenfunktion entwickelt sich immer nach einer dynamischen linearen Gleichung (wie beispielsweise der Schrödingergleichung). (C) Messungen haben immer (oder wenigstens meistens) bestimmte Ergebnisse, d. h. am Ende einer Messung des Spins eines Elektrons ist der Messapparat in einem Zustand der › + ‹ (und nicht › – ‹) oder › – ‹ (und nicht › + ‹) anzeigt. (1995, 7) Da (A), (B) und (C) gegenseitig inkonsistent sind, muss mindestens eine dieser Aussagen verworfen werden. Das stellt aber eben gerade das Problem dar: Zwei der drei Aussagen ((A) und (B)) entsprechen nahezu Grundprinzipien der Quantenmechanik – einer enorm erfolgreichen Theor ie, deren Erfolg uns ja gerade dazu motivierte, die Theor ie zu verstehen – und Aussage (C) scheint eine unkontroverse Annahme bezüglich unserer experimentellen Praxis zu sein. Das bedeutet, dass keine der Aussagen fallengelassen werden kann, ohne entweder die Theorie selber zu ändern oder aber unsere bis anhin unproblematischen Annahmen darüber, in welcher Beziehung die Theorie zu unserer Beobachtungswelt steht. Eine naheliegende Auflösung des Messproblems liegt darin, dass ganz grundsätzlich abgestritten wird, dass die Theorie direkt Aspekte der Welt repräsentiert. Mit andern Worten, eine realistische Interpretation der Theor ie wird abgelehnt. In diese Gruppe fallen zum Beispiel instrumentalistische ›Interpretationen‹, die davon ausgehen, dass grundsätzlich zumindest nicht alle (oder radikaler: keine) der Propositionen der Theor ie wahrheitswertfähig sind in dem Sinn, dass sie Fakten in der Welt repräsentieren oder dass ihre Terme Entitäten in der Welt bezeichnen. Obwohl die Details und auch die instrumentalistische Prägung stark 213
III. Die Philosophie der Natur- und Biowissenschaften
variieren, gehören zum Beispiel die übliche Kopenhagener Deutung, wie sie von Niels Bohr, Werner Heisenberg, Wolfgang Pauli und John von Neumann vertreten wurde, dazu. Ebenso sind auch ›epistemische‹ Interpretationen, wonach Quantenzustände nicht tatsächliche Zustände von Systemen darstellen, sondern bloß das Wissen eines mit dem System konfrontierten epistemischen Agenten, vergleichbare ›informationstheoretische‹ Interpretationen wie der QuantenBayesianismus dazuzuzählen. Schließlich sind pragmatistische Interpretationen wie beispielsweise diejenige Richard Healeys (2015) auch von dieser Art. Vertreter dieses Lagers verneinen, dass Quantentheor ien neue ontologische Lektionen erteilen. Ontologische Implikationen scheinen aber bei den in der Philosophie der Physik populäreren realistischen Varianten nicht vermeidbar zu sein. Wenn wir also die Quantenmechanik als annähernd wahr und ihre theoretischen Terme als zumindest ungefähr referierend annehmen – und der enorme Erfolg von Quantentheor ien gibt uns eine gute Legitimation dafür –, dann muss das Pro blem direkt angegangen werden und mindestens eine der Aussagen (A) – (C) verworfen werden. Je nachdem, welche der Aussagen fallengelassen wird, können nun realistische Interpretationen grob in drei Kategorien unterteilt werden. VerborgeneVariablen-Theor ien wie zum Beispiel die bohmsche Mechanik (Bohm 1952) lehnen (A) ab und erweitern die Quantenmechanik um zusätzliche Freiheitsgrade und dynamische Gleichungen, die deren Entwicklung beschreiben (sowie deren Wechselwirkung mit der Wellenfunktion). Diese zusätzlichen Freiheitsgrade werden als Teilchen mit ihren Positionen im dreidimensionalen Raum interpretiert. Der gesamte Zustand eines Systems ist dann erst durch die Kombination von Wellenfunktion und Teilchenposition gegeben. Da diese zusätzlichen Freiheitsgrade, d. h. die Positionen der elementaren Teilchen, im Allgemeinen nicht direkt beobachtbar sind, muss die Evidenz für Verborgene-Variablen-Theor ien indirekt sein. Obwohl in der bohmschen Mechanik die Ontologie völlig klassisch scheint – Punktteilchen mit wohldefinierten Trajektorien, die deterministischen Bewegungsgesetzen folgen –, trügt dieser Schein. Zum einen verletzt die Theor ie die intuitive Annahme der ›Nicht-Kontextualität‹, wonach »die Messung einer Observablen das gleiche Resultat liefern muss unabhängig davon, welche anderen Messungen zeitgleich gemacht werden mögen« (Bell 1987, 9, meine Übersetzung). Diese Kontextualität der Theor ie ist allerdings insofern kein Problem, als dass bloß Teilchenpositionen als fundamental angesehen werden und alle andern Observablen bloß instrumentalistisch betrachtet werden. Zum andern ist die Theorie wie von John Bells Theorem gefordert nicht-lokal. Da Bells Theorem allerdings unabhängig der Interpretation gilt, sind alle Quantentheor ien nicht-lokal; diese Nicht-Lokalität lässt sich in einer adäquaten Theor ie schlicht nicht vermeiden. Zum letzten kann die Frage nach dem ontologischen Status der Wellenfunktion nicht vermieden werden. Wir kommen weiter unten noch auf die beiden letzten Punkte zurück. 214
Philosophie der Physik
Die zweite Option ist die Verneinung von (B). Diese sogenannten ›Kollapstheo rien‹ modifizieren die Dynamik der Theor ie, typischerweise hin zu einem ingesamt indeterministischen und – damit ja das Messproblem gelöst wird – nichtlinearen dynamischen Regime. Das geschieht entweder häppchenweise während ›Messepisoden‹ (wie in der letztlich unvollständigen Kopenhagener Deutung, wenn sie denn realistisch verstanden wird) oder universell wie in der stochastischen Theorie von Giancarlo Ghirardi, Alberto Rimini und Tullio Weber (›GRW‹, 1986), die die Schrödingerdynamik um stochastische Kollapse erweitert. Die GRW-Theorie interpretiert deshalb streng gesehen nicht die vorhandene Quantenmechanik, sondern modifiziert sie zu einer neuen Theor ie. Sie führt dabei zwei neue Konstanten ein. Wegen des sogenannten ›Schwanzproblems‹ (von Schrödingers Katze) wurde angezweifelt, ob sie tatsächlich das Messproblem gänzlich löst.16 Die Ontologie von GRW bleibt in der ursprünglichen Theor ie von 1986 vollkommen unspezifiziert. Die beiden beliebtesten Varianten sind ›GRWm‹ und ›GRWf‹. In GRWm determiniert die Wellenfunktion ein physikalisches Feld in der vierdimensionalen Raumzeit, das als kontinuierliche Verteilung der Massendichte interpretiert wird. In GRWf wird dieses kontinuierliche Feld durch punktförmige Ereignisse in der vierdimensionalen Raumzeit (›flashes‹) ersetzt. Damit haben wir in GRWf weder Teilchen, die Weltlinien folgen, wie in der klassischen Physik oder in der bohmschen Mechanik, noch Felder wie in GRWm oder in den Quantenfeldtheorien der modernen Physik, sondern bloß endlich viele diskrete Ereignisse in jeder begrenzten Region der Raumzeit. Als letzte Möglichkeit kann (C) verworfen werden. Gemäss den auf Hugh Everett (1957) zurückgehenden ›Viele-Welten-Interpretationen‹ ist das eindeutige und ausschließliche Auftreten von bestimmten Messresultaten bloß eine Illu sion; in Wahrheit wird durch eine Messung eine Superposition nicht ›kollabiert‹, sondern bleibt weiter bestehen.17 Da die ganze Welt quantenmechanisch ist und nicht – wie etwa in der Kopenhagener Deutung postuliert – in eine Mikro- und eine Makrowelt partitioniert wird, verschränkt sich der Quantenzustand des Beobachters mit demjenigen des bereits verschränkten kombinierten Systems bestehend aus dem ursprünglich zu messenden Quantensystem und dem Messapparat. Durch diesen Prozess entstehen zwei ›Welten‹ – je eine pro mögliches Messresultat –, bestehend aus dem Tripel Quantensystem – Messapparat – Beobachter, wobei der Zustand des Quantensystems in jeder ›Welt‹ konsistent ist mit denjenigen des Messapparats und des Beobachters. Die Theorie ist damit ontologisch äußerst verschwenderisch, postuliert sie doch eine letztlich nicht abzählbar unendliche Menge von ›Welten‹. Warum der Schwanz von Schrödingers Katze nicht ganz verschwindet und warum das ein Problem ist, liest man am besten bei Ghirardi (2011, § 12) nach. 17 Für eine autoritative Übersicht über alle wichtigen Aspekte der Interpretationen in diesem Lager ist die Sammlung von Saunders et al. (2010) empfohlen und dabei insbesondere der einführende Artikel von Saunders. 16
215
III. Die Philosophie der Natur- und Biowissenschaften
Da Viele-Welten-Theor ien deterministisch sind – die Schrödingergleichung bestimmt die Dynamik vollständig –, ist ihre größte Herausforderung, eine physikalisch motivierte und metaphysisch annehmbare Darstellung zu geben, wie die Wahrscheinlichkeiten in die Quantenmechanik kommen und wie wir durch die Statistik unserer Messresultate die Theor ie glaubhaft bestätigen können.18 Dies ist nicht trivial, da gemäß diesen Theor ien immer alle möglichen Ergebnisse auch tatsächlich sind und es gewisse ›Welten‹ gibt, in denen die Experimentatorin immer nur parallel ausgerichtete Spins misst. Diese Forscherin wird kaum Grund haben zu glauben, dass die Quantenmechanik eine zumindest annähernd wahre Theorie ist; mit andern Worten, wie kann die empirische Kohärenz der Theor ie etabliert werden? Je nach Lösung des Messproblems wird die Ontologie der Quantenmechanik, d. h. der Menge der ›Objekte‹, die die Theor ie postuliert, anders aussehen. Man könnte nun versucht sein, eine ontologisch gesehen konservative Interpretation zu wählen und sich dann auf den Standpunkt zu stellen, dass die Quantenrevolution in unserer Ontologie der Welt keine große Revolution ausgelöst hat – im Gegensatz natürlich zur ›Ideologie‹, d. h. zur Menge der Eigenschaften und Relationen, die den Dingen in der Welt oder der Welt insgesamt zugeschrieben werden. Abgesehen von den bekannten philosophischen Problemen, die man sich mit einer metaphysisch harten Unterscheidung zwischen Ontologie und Ideologie einhandelt (und auf die hier nicht eingegangen werden soll), ist diese Antwort aus zwei Gründen unbefriedigend. Erstens muss die Quantenmechanik (zunächst) mit der speziellen Relativitäts theorie in Einklang gebracht werden, was eine Modifizierung der Theorie mit sich bringt. Die Quantenmechanik der Teilchen wird so zu einer Quantenfeldtheo rie, und die dabei ontologisch hinter die Felder zurückgestuften Teilchen werden zu Feldquanten, also Aspekten der relevanten Felder, degradiert. Dass Teilchen nicht mehr fundamental zur Ontologie gehören, zeigt sich insbesondere in Tatsachen wie zum Beispiel, dass die ›Anzahl Teilchen‹ eine im Prinzip messbare Eigenschaft von Feldern ist und dass diese Felder in Superpositionszuständen von verschiedenen Anzahlen von Teilchen sein können. Ist das der Fall, dann ist die vorhandene Anzahl Teilchen indeterminiert. Angesichts solcher Möglichkeiten scheint es unangebracht, die klassische Vorstellung von Teilchen als fundamentale Konstituenten der Ontologie einer relativistischen Quantenfeldtheor ie zu betrachten.19 Die Aufsätze von Saunders, Wallace, Greaves und Myrvold, Kent, Albert und Price in Saunders et al. 2010 ergeben zusammen ein hervorragendes Bild des Problems der Wahrscheinlichkeiten und der Lösungsansätze dazu. 19 Dies ist zumindest die orthodoxe Lehrmeinung (vgl. Malament 1996); dagegen argumentiert hat zum Beispiel Bain (2011). Es muss allerdings beachtet werden, dass die meisten Quantenfeldtheor ien nicht auf einer soliden mathematischen Grundlage formuliert sind; entsprechend sind Interpretationen ihrer Ontologie mit Vorsicht zu genießen. Der 18
216
Philosophie der Physik
Zweitens ist es auch schon in der nicht-relativistischen Quantenmechanik der Fall, dass die Ontologie von den üblichen klassischen Teilchen abweicht, um das Messproblem zu lösen. Diese Abweichung ist vielleicht nicht zwingend, aber bei allen Hauptvertretern der drei Lösungsansätze zumindest scheinbar der Fall. In den Viele-Welten-Theorien sind wir zumindest in der traditionellen Auffassung mit einer ausufernden Menge von ›Welten‹ konfrontiert. Das ist allerdings bei der gegenwärtig häufig rezipierten Version von David Wallace (2012) nicht der Fall: Das Universum umfasst bloß eine Unmenge von nur sehr schwach wechselwirkenden Teilsystemen, aber es handelt sich dabei nicht wörtlich um viele verschiedene Welten. Unter diesem Gesichtspunkt wäre die neutralere Bezeichnung ›Everett-Interpretation‹ dem irreführenden ›Viele-Welten-Theorien‹ vorzuziehen. Im Fall der GRW-Theor ie haben wir entweder ein alles durchdringendes, aber nicht in natürliche Untereinheiten geteiltes Dichtefeld oder aber bloß Galaxien von punktförmigen ›Blitzen‹. In der bohmschen Mechanik schließlich müssen wir neben den elementaren Teilchen möglicherweise auch noch der Wellenfunktion in der Ontologie Platz machen – davon gleich mehr –, da im allgemeinen der Gesamtzustand eines Systems mit verschränkten Freiheitsgraden nicht über den Zuständen der Einzelteile des Systems superveniert.20 In diesem ontologischen Zusammenhang wurde in letzter Zeit gerade von Seiten der Bohmianer die Forderung laut, dass eine quantenmechanische Theor ie mit einer ›primitiven Ontologie‹ ausgestattet sein muss, damit sie überhaupt minimalen Grundanforderungen genügt. Diese Forderung ist primär gegen Autoren gerichtet, die damit liebäugeln, die Wellenfunktion, die im Konfigurationsraum ›lebt‹ und nicht in der vierdimensionalen Raumzeit, als fundamentaler als der ›materielle‹ Gehalt des Universums anzunehmen.21 Unter einer ›primitiven Ontologie‹ wird eine Sammlung von Objekten (›local beables‹, in Bells einprägsamem Ausdruck), die zur Erklärung der Quantenphänomenologie individuell notwendig und gemeinsam hinreichend sind, verstanden. Diese ›local beables‹ sind die gemäß der Theor ie fundamentalen Elemente der Realität. Was sie sonst auch immer sein mögen – es ist eben gerade Aufgabe einer Theor ie, das zu spezifizieren –, sind es doch Objekte in der Raumzeit.22 Falls sich also die Nicht-Fundamentalität der Raumzeit bestätigen sollte, dann muss entweder das Konzept einer ›local beable‹ reformiert werden, so dass wir auch auf einer nicht-raumzeitlichen fundamentalen Stufe eine durch ›beables‹ bevölkerte Ontologie haben können,
Beitrag von Kuhlmann und Stöckler in Friebe et al. 2015 dient als idealer deutschsprachiger Einstiegspunkt in die Philosophie der Quantenfeldtheor ie. 20 Die Frage nach dem ontologischen Status der Wellenfunktion muss von jeder Interpretation beantwortet werden. Die in Ney und Albert 2013 gesammelten Essays geben einen guten Einstieg in die aktuelle Forschung. 21 Wie zum Beispiel Albert (1996). 22 Vgl. Ney und Phillips 2014, die eine sorgfältige Wertung der bestehenden Literatur zu diesem Thema liefern.
217
III. Die Philosophie der Natur- und Biowissenschaften
oder die gefordertete primitive Ontologie ist bloß auf einer raumzeitlichen, aber daher emergenten, Ebene integrierbar. Gerade weil die bohmsche Mechanik durch ein klassisches Weltbild motiviert wird – obwohl das von den Bohmianern selber dezidiert betritten wird –, haben einige Bohmianer (z. B. Esfeld et al. 2014) argumentiert, dass die Wellenfunktion nicht als Teil der Ontologie der Theor ie verstanden werden sollte, sondern als wesentlicher Bestandteil ihrer nomologischen Struktur. Die Wellenfunktion ist deshalb gemäß diesem Ansatz mehr Naturgesetz denn physikalisches Objekt. Die Wellenfunktion ist kein physisches Objekt, dessen Dynamik durch ein Naturgesetz – die Schrödingergleichung – regiert wird; vielmehr ist die Wellenfunktion selber ein Naturgesetz (das eventuell einem allgemeineren Naturgesetz unterliegt). Dabei scheint gerade ein ›Hume’sches‹ Verständnis von Naturgesetzen attraktiv, weil da die Naturgesetze bloß auf den kategorischen Tatsachen supervenieren und deshalb nicht dem ontologischen ›Erdgeschoss‹ hinzugefügt werden müssen.23 Damit bleibt die Ontologie sehr klassisch – elementare Teilchen mit definiten Positionen im drei-dimensionalen Raum. Das sollte allerdings nicht darüber hinwegtäuschen, dass auch die bohmsche Mechanik in wesentlichen Punkten von klassischen Theor ien abweichen muss, um die Quantenphänomene zu beschreiben. Zum einen unterscheiden sich doch die Naturgesetze (die die Wellenfunktion beinhalten) von den klassischen. Wie schon oben erwähnt, ist die Theorie zudem kontextuell und nicht-lokal.
3.2 Quantenmechanische Nicht-Lokalität Die Nicht-Lokalität tritt allerdings nicht nur in Verborgene-Variablen-Theor ien auf, wie manchmal behauptet wird, sondern ist ganz allgemeiner Natur und muss von jeder Theor ie respektiert werden. Das ist das, was Bells Theorem und seine experimentelle Bestätigung etablieren. Bells Theorem besagt, dass jede Theo rie, die gewisse intuitive Annahmen macht, eine Ungleichung impliziert, die sowohl in der Quantenmechanik wie auch in Experimenten nachweislich verletzt ist (Bell 1964). Zu den intuitiven Annahmen, die gemacht werden müssen, zählen insbesondere gewisse – scheinbar unproblematische – Lokalitätsthesen. Da die Verletzung der Ungleichung auch experimentell bestätigt ist, steht Bells Theorem und die damit bewiesene Nicht-Lokalität sogar unabhängig von der Wahrheit der Quantentheorie. Die wesentliche Idee hinter Bells monumentalem Resultat kann einfach erläutert werden.24 Die angenommene Versuchsanordnung geht von einer zentralen Quelle aus, die paarweise Teilchen mit verschränkten Freiheitsgraden (z. B. Elektronenspin in eine bestimmte Richtung, Photonenpolarisation in eine be23 24
Vgl. Esfeld 2014; Miller 2014; Callender 2015. Ich folge hier Mermin 1985.
218
Philosophie der Physik
stimmte Richtung) produziert und je eines davon in den linken und rechten Zweig sendet. Jeder der beiden Zweige enthält einen Detektor (›A‹ und ›B‹), bei dem in drei verschiedenen Richtungen gemessen werden kann. Die Einstellung der drei Richtungen (›‹, ›‹ und ›‹) wird in jedem Zweig frei und rein zufällig gewählt, so dass die Experimentatorin im jeweils andern Zweig die Messeinstellung nicht besser antizipieren kann als durch reines Erraten. Der Detektor hat eine Diode, die entweder rot (›R‹) oder grün (›G‹) aufleuchtet und damit eines von zwei möglichen Messresultaten anzeigt. Außer den Teilchen, die von der Quelle nach A und B fliegen, gibt es zwischen den drei Teilen der Versuchanordnung keinen Kontakt und es werden keinerlei Signale gesandt. Nun werden viele Durchgänge durchgeführt, die jeweils daraus bestehen, dass an der Quelle ein verschränktes Paar erzeugt wird, dessen Teile anschließend in die beiden gegenüberliegenden Zweige geschickt und dort gemessen werden. Die Daten jedes Durchgangs (11GG, 23GR etc.) werden gesammelt und anschließend ausgewertet. Es zeigt sich (in der Quantenmechanik oder im tatsächlich durchgeführten Experiment), dass diese Daten folgende zwei Eigenschaften aufweisen: (1) Für alle Durchgänge, für die die Einstellungen in A und B dieselben waren, leuchten die beiden Dioden in A und B jeweils in der gleichen Farbe, sind also perfekt korreliert. (2) Über alle Durchgänge insgesamt gesehen (unabhängig von den gewählten Einstellungen) finden sich keine Regelmäßigkeiten und keine Korrelationen; insbesondere finden wir in der Hälfte der Fälle, dass beide Dioden in der gleichen Farbe aufleuchten, und in der anderen Hälfte der Fälle, dass die beiden Dioden in verschiedenen Farben leuchten. Die Herausforderung besteht nun darin, eine Theor ie zu finden, die beide Merkmale der gesammelten Datensätze erklären kann. Bloß die perfekte Korrelation (1) zu erklären, wäre trivial: Die Detektoren könnten vorher so programmiert worden sein, dass sie immer nur grün leuchten, was aber (2) verletzen würde; oder die Detektoren könnten zufällig rot oder grün leuchten und damit (2) erklären, was wiederum aber im Widerspruch zu (1) stehen würde. Eine natürliche Annahme zur Erklärung einer Korrelation wie in (1) ist die Existenz einer gemeinsamen Ursache. Zum Beispiel könnten die Teilchen in jedem Durchgang an der Quelle ein geordnetes Tripel von ›Anweisungen‹ erhalten, die dem Detektor für die drei möglichen Einstellungen jeweils mitteilen, in welcher Farbe er aufzuleuchten hat. Ein solches Tripel bestünde aus drei Bits an Information, z. B. RRG, GRG etc., bei insgesamt = Möglichkeiten. Damit kann (1) einfach erklärt werden: Beiden Teilchen wird das identische Tripel mitgegeben. Leider ist keine solche Erklärung, die auf gemeinsamen Ursachen fußt, auch mit (2) konsistent! Um das zu sehen, nehme man sich ein mögliches Tripel an Anweisungen vor, z. B. RRG. In diesem Fall leuchten die Detektoren für die fünf Einstellungen 11, 22, 33, 12 und 21 in der gleichen Farbe und für die andern vier von insgesamt Einstellungen 13, 31, 23 und 32 in verschiedenen Farben. Da die 219
III. Die Philosophie der Natur- und Biowissenschaften
Einstellungen zufällig und unabhängig ausgewählt werden, ist jede dieser neun Kombinationen gleich wahrscheinlich. Das bedeutet aber, dass für das Tripel RRG die Detektoren in / aller Fälle in der gleichen Farbe aufleuchten werden. Das gleiche gilt offensichtlich auch für RGR , GRR , GGR , GRG und RGG. Damit verbleiben aber nur noch zwei Tripel: RRR und GGG. In diesen beiden Fällen ist es allerdings so, dass die Detektoren mit Wahrscheinlichkeit 1 in der gleichen Farbe aufleuchten. Zusammengenommen kann Folgendes festgehalten werden: Falls es lokale (im Teilchen eingeprägte) Anweisungen gibt, dann werden in mindestens / aller Durchgänge die Detektoren in der gleichen Farbe aufleuchten, und zwar unabhängig davon, wie oft an der Quelle die verschiedenen Anweisungstripel ausgewählt werden. Damit haben wir im Wesentlichen Bells berühmte Ungleichung: Die Wahrscheinlichkeit, dass die Detektoren in der gleichen Farbe aufleuchten ist größer oder gleich /. Damit ist auch offensichtlich, dass (2) damit verletzt ist; mit andern Worten: (2) verletzt Bells Ungleichung! Die Konjunktion von (1) und (2) kann also von keinem lokalen Modell erklärt werden. Wenn wir damit nicht den Erklärungsversuch der perfekten Korrelation (1) aufgeben, müssen wir also eine nicht-lokale oder ›holistische‹ oder ›nicht-separable‹ Erklärung finden, die auf mehr zurückgreift als nur auf die lokalen Zustände der Teile des Gesamtsystems. Damit zeigt sich, gemäß Bells autoritativer Interpretation, dass »gewisse bestimmte, gemäß der Quantenmechanik realisierbare Korrelationen lokal unerklärbar sind« (1987, 151 f.). In seiner scharfsinnigen philosophischen Würdigung der quantenmechanischen Nicht-Lokalität hält Tim Maudlin (1994, Kapitel 1) fest, dass diese nichtlokale ›Quantenverbindung‹ drei bemerkswerte Eigenschaften aufweist. Erstens ist sie ungeschwächt: Im Gegensatz etwa zur klassischen Gravitationswirkung fällt sie mit zunehmender Distanz nicht ab. Zweitens ist sie wählerisch: Während die Gravitationskraft auf alle ähnlich positionierten Körper mit ähnlicher Masse ähnlich wirkt, ist die durch die Verschränkung geschaffene Quantenverbindung eine ›private‹ Angelegenheit zwischen den involvierten Teilchen. Drittens scheint sie instantan, also unabhängig von der Distanz ohne jegliche Verzögerung, zu wirken. Abschließend soll nochmals betont werden, dass die gefundene Nicht-Lokalität ganz allgemein gilt und nicht bloß für Theor ien mit verborgenen Variablen. Und damit muss jede Hoffnung aufgegeben werden, eine im Wesentlichen klassische Theor ie zu finden, die die Quantenphänomene erklären kann. Um auf die Themen des vorangegangenen Abschnitts zurückzukommen, muss angemerkt werden, dass die Nicht-Lokalität natürlich einen raumzeitlich strukturierten Hintergrund voraussetzt, der uns möglicherweise von der Quantengravitation verwehrt bleibt. Wenn die Raumzeit nicht fundamental ist, sondern bloß emergent, dann kann auch die sie voraussetzende Nicht-Lokalität erst auf der emergenten Stufe auftreten. Dies könnte dann umgangen werden, wenn die Nicht-Lokalität auf eine glaubhafte Weise in fundamentalen Begriffen redefiniert werden kann. Die Raumzeit spielt auch sonst in der gegenwärtigen Diskussion um eine ›primi220
Philosophie der Physik
tive Ontologie‹ der Quantenmechanik eine zentrale, wenn oft auch nicht beachtete Rolle (siehe oben). Die Grundlagen der Quantenmechanik sind neben den Raumzeittheorien (oder gegebenenfalls ›keine-fundamentale-Raumzeit-Theorien‹) ein Gebiet, auf welchem die Philosophie, oder philosophische Betrachtungen von Physikern, wichtige Beiträge geleistet hat. Zum Beispiel verdankt obige Formulierung des Messproblems ihre Prägnanz und ihre Unausweichlichkeit – aber natürlich nicht das Erkennen des Problems an sich, das in die Frühzeit der Quantenmechanik fällt – der unablässigen Arbeit von einigen Philosophen von den 1960er-Jahren bis in die 1990er-Jahre hinein. Auch einige der Lösungen des Messproblems sind zu wesentlichen Teilen das Ergebnis philosophischer Arbeit. So ist zum Beispiel das kürzlich erschienene Buch des Philosophen Wallace (2012) die wohl beste und kompletteste Verteidigung der Everett-Interpretation, die momentan erhältlich ist. Oftmals, und vielleicht sogar meistens, kann eine philosophische Betrachtung der Grundlagen der Physik allerdings nicht mehr klar von der Physik selber getrennt werden. Die Entwicklung der Kenntnis der Nicht-Lokalität unserer Welt liefert ein passendes Beispiel dazu. Diese Entwicklung beginnt 1935 mit dem wichtigen Artikel von Albert Einstein, Boris Podolsky und Nathan Rosen, die basierend auf der Voraussetzung der Lokalität die Unvollständigkeit der Quantenmechanik beweisen wollen. Zu erwähnen ist auch Bells Arbeit in den 1960erJahren, die zum Beweis seines Theorems führt. Diese Leistung, genauso wie Bells spätere Ausarbeitung ihrer Implikationen, ist stark durch letztlich philosophische Grundlagenfragen motiviert. Auch die weiterführende Bewertung der Nicht-Lokalität, z. B. in ihrer Allgemeinheit in Maudlin 1994, ist oft entweder philosophisch oder schwer davon zu trennen. Das bedeutet natürlich nicht, dass physikalische oder mathematische Aspekte dabei irrelevant sind; häufig resultieren entscheidende Fortschritte gerade im erfolgreichen Zusammenspiel aller drei Gebiete.
4 Methodologische Aspekte Obwohl in der zeitgenössischen Philosophie der Physik weniger zentral als physikalische und metaphysische Fragestellungen, spielen erkenntnistheoretische oder methodologische Probleme doch auch eine Rolle und sollen deshalb hier nicht unerwähnt bleiben und zumindest an zwei sehr aktuellen Beispielen kurz exemplifiziert werden. Erstens sehen wir uns in der gegenwärtigen Kosmologie mit grundsätzlichen methodologischen Fragen zur Selbstlokalisation, zur eventuell verzerrten Auswahl von Evidenz in der Bestätigung von Theorien, zur Rolle von Anfangsbedingung und darüber definierten Wahrscheinlichkeitsverteilungen bis hin zu allgemeinen Fragen in Bezug auf von wissenschaftlichen Theor ien geforderten Erklärungsleistungen konfrontiert. 221
III. Die Philosophie der Natur- und Biowissenschaften
Das auf der allgemeinen Relativitätstheorie fußende Standardmodell der Kosmologie beschreibt unser Universum als eine aus einer Anfangssingularität – dem ›Urknall‹ – entstandene, räumlich völlig homogene und isotrope Welt. Gemäss unseren besten Schätzungen hat dieser Urknall vor ungefähr 13,8 Milliarden Jahren stattgefunden. Dabei ist die geforderte Homogenität (oder wenigstens die Isotropie um unseren Standort herum) auf genügend großen Skalen mit bemerkenswerter Genauigkeit nachgewiesen worden. Obwohl insgesamt ziemlich erfolgreich, ist das Standardmodell aber nicht ohne Probleme. Eines davon ist das sogenannte ›Horizontproblem‹, wonach unser Universum zu ›groß‹ ist, als dass alle (heutigen) Orte seit dem Urknall in kausalem Austausch gestanden haben könnten. Da sich das Licht mit endlicher Geschwindigkeit ausbreitet, können wir desto ›weiter‹ in das All hinausschauen und entferntere Galaxien beobachten, je länger wir warten. Dabei finden wir bis anhin in der kosmischen Hintergrundstrahlung aber immer nur weitere Bestätigungen der angenommenen Homogenität und Isotropie. Das Problem ist nun: Wenn es so viele Orte im Universum gibt, die seit dem Urknall in keiner kausalen Beziehung gestanden haben können, wie kann es dann sein, dass sie trotzdem alle so ähnlich beschaffen sind? Es scheint, als ob diese Frage im Standardmodell nur dann beantwortet werden kann, wenn wir akzeptieren, dass das Universum aus sehr speziellen Anfangsbedingungen entstanden ist, Anfangsbedingungen nämlich, die nahezu perfekt homogen sind. Angesichts aller scheinbar möglichen Anfangsbedingungen scheint es deshalb extrem unwahrscheinlich – ein kosmischer Zufall sozusagen –, dass wir gerade mit so homogenen Anfangsbedingungen ausgestattet sind. Damit dieser Einwand allerdings überhaupt artikulierbar wird, muss es möglich sein, eine Wahrscheinlichkeitsverteilung über dem Raum der möglichen Anfangsbedingungen zu definieren und diese zu rechtfertigen, was sehr umstritten bleibt. Da die momentan populäre inflationäre Kosmologie – explizit durch das Horizontproblem und ähnliche Überlegungen motiviert und gerechtfertigt – auf empirisch noch ziemlich wackligen Beinen steht, nehmen diese methodologischen Fragen für die zeitgenössische Kosmologie eine zentrale Rolle ein.25 In der Kosmologie nimmt auch die sogenannte ›anthropische‹ Argumentation oder Beweisführung eine wichtige, aber umstrittene, Rolle ein.26 Eine Argumentation ist ›anthropisch‹, wenn die Erklärungsleistung für eine beobachtete Tatsache zumindest teilweise dadurch erbracht wird, dass auf die Konsistenz der Beobachtung mit der Existenz intelligenten Lebens hingewiesen wird und damit sonst nicht zu eliminierende Alternativen ausgeschlossen werden. Ein anthropisches Argument nützt damit eine bestimmte systematische Selektion von Beobachtungen aus (›observation selection bias‹). Steven Weinberg (1987) beispielsweise hat Vgl. Smeenk 2013, § 6. Die Rolle ist umstritten, weil anthropische Folgerungen von trivial bis inkohärent das ganze methodologische Spektrum abdecken und deshalb nicht in jeder Form universell anwendbar sind. Vgl. Smeenk 2013, § 7. 25 26
222
Philosophie der Physik
mit Hilfe von anthropischen Überlegungen eine obere Schranke für die kosmologische Konstante, Λ, berechnet. Ausgehend von einem ›Multiversum‹ von Regionen mit frei variierendem Λ, kommen bloß diejenigen mit einem Wert für Λ, die intelligentes Leben und damit mindestens gravitationell gebundene Zustände erlauben, für ›unsere‹ Region in Frage. Nachfolgende Messungen haben bis jetzt Weinbergs Vorhersage bestätigt. Das zweite Gebiet, auf dem wir beispielhalber die Wichtigkeit methodologischer Aspekte illustrieren wollen, ist die Quantengravitation. Leider ist es bis heute so, dass es keine Beobachtungen oder experimentelle Daten gibt, die eindeutig und weitherum akzeptiert schon nur die Notwendigkeit einer Quantentheo rie der Gravitation aufzeigen, geschweige denn zwischen verschiedenen Ansätzen einen als empirisch am adäquatesten auswählen können.27 Zwar machen einige der Theorien in der Quantengravitation im Prinzip empirisch überprüfbare Vorhersagen; diese zu testen liegt allerdings noch weit außerhalb unserer technischen Möglichkeiten. Interessanterweise akzeptieren die meisten Physiker in der Quantengravitation die Hawking-Strahlung und die Bekenstein-Hawking-Formel zur Berechnung der Entropie eines schwarzen Lochs als allgemein zu erreichende Messlatte, obwohl die Herleitungen auf zum Teil zweifelhaften – und in verschiedenen Ansätzen der Quantengravitation explizit verworfenen – semi-klassischen Prinzipien beruhen und weder die Hawking-Strahlung je beobachtet noch die Entropie eines schwarzen Lochs je gemessen wurde. Die Stringtheorie – eine der führenden Ansätze in der Quantengravitation – zum Beispiel hat das Problem, dass sie praktisch alles voraussagt und deshalb keine falsifizierbaren Vorhersagen macht.28 Die Theor ie umfasst eine schier unvorstellbare Menge an Modellen, wovon unser Standardmodell der Teilchenphysik bloß eines ist. Vertreter der Stringtheor ie haben diesen Einwand als einen ungerechtfertigten Schnellschuss der ›Popperazzi‹ bezeichnet. Richard Dawid (2013) zum Beispiel liefert eine über die Länge eines ganzen Buches entwickelte Verteidigung der Stringtheor ie als Vorbote einer neuen Phase wissenschaftlichen Fortschritts, die die ›nicht-empirische Theor ienbewertung‹ als legitim und zentral betrachtet. Sein Argument basiert hauptsächlich auf den folgenden drei Ideen. Erstens gebe es keine gangbare Alternative zur Stringtheor ie. Zweitens habe die Stringtheor ie mit zunehmender Erforschung eine a priori unerwartete explanatorische Kohärenz gezeigt. Und drittens verfolge die Stringtheor ie die erprobte Strategie der konservativen Erweiterung von bestehenden und nachweislich erfolgreichen physikalischen Theor ien (hier das Standardmodell der Teilchenphysik).
Diese Situation hat sich leider seit dem Erscheinen von Callenders und Huggetts Sammelband im Jahr 2001 nicht wesentlich verändert. 28 Dieser Vorwurf an die Adresse der Stringtheor ie wurde zum Beispiel mit großem Effekt von Peter Woit (2006) popularisiert. 27
223
III. Die Philosophie der Natur- und Biowissenschaften
Ohne diese Debatte hier weiterzuführen, ist damit hoffentlich klar, dass die gegenwärtige Physik auch reichlich Anlass zu methodologischer und erkenntnistheoretischer Arbeit, wie sie üblicherweise von Wissenschaftsphilosophen und Wissenschaftsphilosophinnen betrieben wird, gibt – und diese vielleicht sogar benötigt.
5 Abschließende Bemerkungen Dieser Artikel hat versucht, einen notwendigerweise unvollständigen und kursorischen Blick auf die aktuelle Philosophie der Physik zu vermitteln. Viele der im Literaturverzeichnis aufgelisteten Werke eignen sich hervorragend für eine vertiefte Beschäftigung mit dem Gebiet oder einzelnen Aspekten davon. Viele der hier angeschnittenen Fragen – etwa gerade derjenigen nach der fundamentalen Natur von Raum und Zeit und zwischen dieser Struktur und dem Materiegehalt des Universums – werden auf absehbare Zeit zentrale Themen sowohl der Physik als auch der Philosophie bleiben. Weiterhin beschäftigen wird uns auch die Frage nach der Rolle der Philosophie in der physikalischen Forschung sowie allgemeiner nach dem Verhältnis von Physik und Philosophie. Dieses Thema wurde in letzter Zeit gerade im englischsprachigen Raum zum Teil mit unerbittlicher Schärfe und bei manchen Gelegenheiten auf eine sehr antagonistische Art und Weise diskutiert – man denke etwa an David Alberts Buchrezension (2012) von Lawrence Krauss’ A Universe From Nothing und dessen bitterscharfe Replik in einem Interview mit Ross Anderson in The Atlantic (Anderson 2012). Obwohl diese beiden Autoren Amerikaner sind, wird das Thema momentan auch auf europäischen und globalen Konferenzen rege diskutiert. Ich hoffe auch, mit diesem Essay einen konstruktiven Beitrag zu dieser Debatte erbracht zu haben.
Literatur Empfehlungen: Leider gibt es kaum empfehlenswerte Textbücher, die die gesamte Philosophie der Physik abdecken. Als Einführung in die Philosophie der Raumzeit eignen sich Earman 1989, Dainton 2010 und insbesondere Huggett 2010. Für das Messproblem in der Quantentheor ie und die wichtigsten Interpretationen ist Albert 1992 eine sehr nachvollziehbare Einführung, Wallace 2012 ein lesbarer Überblick über die gegenwärtig am meisten diskutierte Version einer Everett-Interpretation und Barrett 1999 ein gutes Komplement dazu. Für die Nichtlokalität der Quantentheor ie und ihre Vereinbarkeit mit der Relativitätstheor ie ist Maudlin 1994 zu empfehlen, das 2011 bereits in dritter Auflage erschienen ist. Wer sich vertieft mit besonderen Themen beschäftigen will, der ist mit der hervorragenden Sammlung von Butterfield und Earman (2007) bestens bedient und kann aktuelle und im Allgemeinen sehr 224
Philosophie der Physik
gute Artikel zu speziellen Themen frei zugänglich in der Stanford Encyclopedia of Philosophy finden. Für deutschsprachige Leser und Leserinnen empfiehlt sich die preiswerte Sammlung von Esfeld (2012), deren Aufsätze kollektiv den größten Teil der Philosophie der Physik abdecken und einen idealen Einstieg in das Gebiet bieten. Sieroka 2014 ist ein kürzlich erschienenes Taschenbuch, das eine sehr lesbare und kurze Einführung gibt, mit einem Schwerpunkt in der Geschichte der Physik und bei erkenntnistheoretischen Fragen. Friebe et al. 2015 sammelt schon ein wenig anspruchsvollere Aufsätze, liefert aber einen idealen Einstieg in die Philosophie der Quantenphysik für all diejenigen, die sich tiefer mit dem Gebiet auseinandersetzen wollen. Albert, David Z. (1992): Quantum Mechanics and Experience. Cambridge, MA: Harvard University Press. – (1996): Elementary quantum metaphysics. In: James T Cushing, Arthur Fine und Sheldon Goldstein (Hg.). Bohmian Mechanics and Quantum Theory: An Appraisal. Dordrecht: Kluwer, 277 – 284. – (2012): On the origin of everything: ›A Universe From Nothing,‹ by Lawrence M. Krauss. New York Times: Sunday Book Review, 25. März 2012, BR 20. Anderson, Ross (2012): Has physics made philosophy and religion obsolete?. 23. April 2012. Abrufbar unter http://www.theatlantic.com/technology/archive/2012/04/hasphysics-made-philosophy-and-religion-obsolete/256203/. Bain, Jonathan (2011): Quantum field theor ies in classical spacetimes and particles. Studies in the History and Philosophy of Modern Physics, 42, 98 – 106. Barbour, Julian B., und Bertotti, Bruno (1982): Mach’s Principle and the structure of dynamical theor ies. Proceedings of the Royal Society of London A, 382, 295 – 306. Barrett, Jeffrey A. (1999): The Quantum Mechanics of Minds and Worlds. New York: Oxford University Press. Batterman, Robert (Hg.) (2013): The Oxford Handbook of Philosophy of Physics. New York: Oxford Unviersity Press. Bell, John S. (1964): On the Einstein-Podolsky-Rosen paradox. Physics, 1, 195 – 2 00. – (1987): Speakable and Unspeakable in Quantum Mechanics. Cambridge: Cambridge University Press. Belot, Gordon (1999): Rehabilitating relationalism. International Studies in the Philosophy of Science, 13, 35 – 52. Black, Max (1952): The identity of indiscernibles. Mind, 61, 153 – 164. Bohm, David (1952): A suggested interpreation of the quantum theory in terms of ›hidden‹ variables (Part I and II). Physical Review, 85, 166 – 179 und 180 – 193. Brown, Harvey (2005): Physical Relativity: Space-time structure from a dynamical perspective. Oxford: Oxford University Press. Butterfield, Jeremy, und Earman, John (Hg.) (2007): Philosophy of Physics. Zwei Bände. Amsterdam: Elsevier. Callender, Craig (2015): One world, one beable. Synthese, 192, 3153 – 3177. 225
III. Die Philosophie der Natur- und Biowissenschaften
– und Huggett, Nick (2001): Physics Meets Philosophy at the Planck Scale: Contemporary Theories in Quantum Gravity. Cambridge: Cambridge University Press. Conway, John H., und Kochen, Simon (2006): The free will theorem. Foundations of Physics, 36, 1441 – 1473. Dainton, Barry (2010): Time and Space. Oxford: Routledge. Dawid, Richard (2013): String Theory and the Scientific Method. Cambridge: Cambridge University Press. Earman, John (1989): World Enough and Space-Time: Absolute versus Relational Theories of Space and Time. Cambridge, MA: MIT Press. – und Norton, John D. (1987): What price spacetime substantivalism. British Journal for the Philosophy of Science, 38, 515–525. Einstein, Albert, Podolsky, Boris, und Rosen, Nathan (1935): Can quantum-mechanical description of physical reality be considered complete?. Physical Review, 47, 777 – 780. Esfeld, Michael (Hg.) (2012): Philosophie der Physik. Frankfurt a. M.: Suhrkamp. – (2014): Quantum Humeanism, or: physicalism without properties. Philosophical Quarterly, 64, 453 – 470. –, Hubert, Mario, Lazarovici, Dustin, und Dürr, Detlef (2014): The ontology of Bohmian mechanics. British Journal for the Philosophy of Science, 65, 773 – 796. Everett, Hugh (1957): ›Relative state‹ formulation of quantum mechanics. Reviews of Modern Physics, 29, 454 – 462. Friebe, Cord, Kuhlmann, Meinard, Lyre, Holger, Näger, Paul, Passon, Oliver und Stöckler, Manfred (2015): Philosophie der Quantenphysik: Einführung und Diskussion der zentralen Begriffe und Problemstellungen der Quantentheorie für Physiker und Philosophen. Heidelberg: Springer. Ghirardi, Giancarlo (2011): Collapse Theor ies. In: Edward N. Zalta (Hg.). Stanford Encyclopedia of Philosophy, http://plato.stanford.edu/entries/qm-collapse/. –, Rimini, Alberto, und Weber, Tullio (1986): Unified dynamics for microscopic and macroscopic systems. Physical Review D, 34, 470 – 491. Healey, Richard (2015): How pragmatism reconciles quantum mechanics with relativity etc. Interview in 3:AM Magazine, http://www.3ammagazine.com/3am/howpragmatism-reconciles-quantum-mechanics-with-relativity-etc/. Huggett, Nick (2006): The regularity account of relational spacetime. Mind, 115, 41 – 73. – (2010): Everywhere and Everywhen: Adventures in Physics and Philosophy. New York: Oxford University Press. – und Wüthrich, Christian (2013): Emergent spacetime and empirical (in)coherence. Studies in the History and Philosophy of Modern Physics, 44, 276 – 285. – und Wüthrich, Christian (i. E.): Out of Nowhere: The Emergence of Spacetime in Quantum Theories of Gravity. Oxford: Oxford University Press. Ladyman, James, und Ross, Don (2007): Every Thing Must Go: Metaphysics Naturalized. Oxford: Oxford University Press. Malament, David B. (1996): In defense of dogma: Why there cannot be a relativistic quantum mechanical theory of (localizable) particles. In: Rob Clifton (Hg.). Per226
Philosophie der Physik
spectives on Quantum Reality: Relativistic, Non-Relativistic, and Field-Theoretic. Dordrecht: Kluwer, 1 – 10. – (2012): Topics in the Foundations of General Relativity and Newtonian Gravitation Theory. Chicago und London: University of Chicago Press. Maudlin, Tim (1994): Quantum Non-Locality and Relativity: Metaphysical Intimations of Modern Physics. Oxford: Basil Blackwell. – (1995): Three measurement problems. Topoi, 14, 7 – 15. Mermin, N. David (1985): Is the moon there when nobody looks? Reality and the quantum theory. Physics Today, April, 38 – 47. Miller, Elizabeth (2014): Quantum entanglement, Bohmian mechanics, and Humean supervenience. Australasian Journal of Philosophy, 92, 567 – 583. Ney, Alyssa, und Albert, David Z. (2013): The Wave Function: Essays on the Metaphysics of Quantum Mechanics. New York: Oxford University Press. Ney, Alyssa, und Phillips, Kathryn (2013): Does an adequate physical theory demand a primitive ontology?. Philosophy of Science, 80, 454 – 474. Norton, John D. (1999): The cosmological woes of Newtonian Gravitation Theory. In: Hubert Goenner, Jürgen Renn, Jim Ritter und Tilman Sauer (Hg.). The Expanding Worlds of General Relativity: Einstein Studies, Volume 7. Boston: Birkhäuser, 271 – 322. – (2014): The Hole Argument. In: Edward N. Zalta (Hg.). The Stanford Encyclopedia of Philosophy. http://plato.stanford.edu/archives/spr2014/entries/spacetime-holearg/. Pooley, Oliver (2013): Substantivalist and relationalist approaches to spacetime. In: Robert Batterman (Hg.). The Oxford Handbook of Philosophy of Physics. New York: Oxford University Press, 522 – 586. – (i. E.): The Reality of Spacetime. Oxford: Oxford University Press. Saunders, Simon, Barrett, Jonathan, Kent, Adrian, and Wallace, David (Hg.) (2010): Many Worlds? Everett, Quantum Theory, and Reality. Oxford: Oxford University Press. Sieroka, Norman (2014): Philosophie der Physik: Eine Einführung. München: C. H. Beck. Smeenk, Chris (2013): Philosophy of Cosmology. In: Robert Batterman (Hg.): The Oxford Handbook of Philosophy of Physics. New York: Oxford University Press, 607 – 652. Smith, Sheldon R. (2007): Continuous bodies, impenetrability, and contact interactions: The view from the applied mathematics of continuum mechanics. British Journal for the Philosophy of Science, 58, 503 – 538. Wallace, David (2012): The Emergent Multiverse: Quantum Theory According to the Everett Interpretation. Oxford: Oxford University Press. Weinberg, Steven (1987): Anthropic Bound on the Cosmological Constant. Physical Review Letters, 59, 2607 – 2610. Woit, Peter (2006): Not Even Wrong: The Failure of String Theory and the Search for Unity the Physical Law. New York: Basic Books. 227
III. Die Philosophie der Natur- und Biowissenschaften
Wüthrich, Christian (2011): Can the world be shown to be indeterministic after all?. In: Claus Beisbart und Stephan Hartmann (Hg.). Probabilities in Physics. Oxford: Oxford University Press, 365 – 389. Wüthrich, Christian (i. E.): Putnam looks at quantum mechanics (again and again). In: Michael Frauchiger (Hg.). Themes from Putnam (Lauener Library of Analytical Philosophy, Vol. 5). Berlin: De Gruyter.
228
2. Philosophie der Chemie Joachim Schummer
1 Einleitung 1.1 Was ist Chemie? Die Chemie ist die Wissenschaft der Stoffe und ihrer Umwandlungen ineinander. Die schier unendliche Mannigfaltigkeit stofflicher Erscheinungen und ihre oft radikalen Eigenschaftsänderungen standen in allen Hochkulturen seit alters her im Zentrum naturphilosophischer Fragestellungen und Spekulationen. Lässt sich die Vielfalt auf eine begrenzte Anzahl von Elementen zurückführen, aus denen unsere materielle Welt besteht beziehungsweise einst entstanden sein könnte? Wie lässt sich der radikale Wandel der Stoffe erklären, wenn etwa aus Flüssigem Festes oder Gasförmiges wird, aus brennendem Holz Wärme, Rauch und Asche, aus Gesteinen unter Einwirkung von Hitze glänzende Metalle entstehen, aus Nährstoffen ein Lebewesen heranwächst oder bestimmte Stoffe einen kranken Körper in einen gesunden verwandeln? Sind den stofflichen Umwandlungen prinzipielle Grenzen gesetzt, oder lässt sich mit den richtigen Zutaten und dem entsprechenden Wissen jeder beliebige Wunschstoff herstellen? Die Chemie ist experimentelle Laborwissenschaft im prototypischen Sinne, denn bis weit ins 19. Jahrhundert waren Labore Arbeitsstätten chemischen Experimentierens, bevor andere Disziplinen diesem Beispiel folgten. Ihre zentralen Methoden sind bis heute die der chemischen Analyse und Synthese: die Bestimmung der elementaren Bestandteile eines Stoffes und seiner inneren Konstitution und die Reaktion bekannter Ausgangsverbindungen zur Bildung neuer Stoffe, die wiederum Gegenstand der Analyse werden. Durch die beständige Verfeinerung beider Methoden kennt die Chemie inzwischen über 100 Millionen verschiedene chemische Substanzen, die sie zum größten Teil nicht durch Naturisolierung, sondern durch Synthese gewonnen hat. Auf der Basis charakteristischer Eigenschaften erfasst sie diese in einer an Trennschärfe und Tiefe einzigartigen Klassifikation, die den Umfang aller wissenschaftlichen Taxonomien um ein Vielfaches übertrifft. Zugleich untersucht sie mit quantitativen und chemisch-analytischen Methoden chemische Prozesse, die im Labor als gezielte Synthesen durchgeführt werden, und typologisiert die dabei ablaufenden Reaktionsschritte in einer weiteren Klassifikation, die inzwischen mehr als eine Millionen Reaktionstypen unterscheidet.
229
III. Die Philosophie der Natur- und Biowissenschaften
Die experimentellen Studien und Klassifikationen der Chemie standen über ihre gesamte Geschichte hinweg in einem Anwendungs- und Inspirationskontext. Denn für eine Laborwissenschaft ist die Übertragung des im Labor erworbenen Wissens auf den Außenbereich stets eine Anwendung, unabhängig davon, ob es sich dabei um ein Verständnis natürlicher oder technischer Phänomene handelt. Neben den Kernbereichen der anorganischen, organischen und physikalischen Chemie, die selber wiederum nach Stoffgruppen, Fragestellungen und Untersuchungsmethoden in zahlreiche Teilgebiete aufgefächert sind, umfasst das Fach daher heute Hunderte von Subdisziplinen, die jeweils auf ein bestimmtes Anwendungsfeld spezialisiert sind. Dazu gehören einerseits die verschiedenen Bereiche und Aspekte der Natur, die beispielsweise von der Bio-, Geo-, Atmosphären-, Umwelt- und Astrochemie untersucht werden. Jeder dieser Bereiche umfasst überdies eine historische Dimension. Beispielsweise beschäftigt sich die kosmologische Chemie mit der ursprünglichen Bildung von Elementen und einfachen Stoffen, die Petrochemie mit Gesteinsbildungen, die präbiotische und evolutionäre Chemie mit der Entstehung und Entwicklung von organischen Stoffsystemen und Lebensformen und so weiter; zusammengenommen schreiben sie dabei eine chemische Naturgeschichte (Lamza 2014). Zur Chemie gehört aber auch das Studium aller Techniken, die mit der Herstellung oder Verarbeitung von Stoffen und Materialien befasst sind, was heute den größten Teil der produzierenden Industrietätigkeit ausmacht; also neben den klassischen Feldern der Pharmazie, Metallurgie, Glas- und Papierherstellung die Herstellung von Grund-, Werk-, Farb-, Bau-, Kleb-, Verpackungsstoffen und so weiter, ein rasant wachsender Anteil der Nahrungsmittelindustrie und weite Teile dessen, was heute Nanotechnologie genannt wird. Weil alle anderen Natur- und Technikwissenschaften sich mit materiellen Systemen beschäftigen, die stoffliche Eigenschaften haben und chemischen Veränderungen unterliegen, ist die Chemie wie keine andere Wissenschaft interdisziplinär verzahnt, was historisch zu unzähligen Brückendisziplinen geführt hat und gerade in den angewandten Feldern beständig neue Herausforderungen bildet. Vor diesem Hintergrund überrascht es nicht, dass die Chemie – gemessen an der Anzahl der Publikationen, die durch Chemical Abstracts im Vergleich zu anderen disziplinären Abstract-Organen erfasst werden – die bei Weitem größte Wissenschaft ist; lange Zeit war sie sogar größer als alle anderen Naturwissenschaften zusammen genommen (Schummer 2006). Erst durch die verstärkte Hinwendung zu traditionell chemisch orientierter Forschung verschiedener anderer Disziplinen in den letzten Jahrzehnten, insbesondere der Biologie zur Biochemie sowie der Physik zur Materialwissenschaft, wurde diese gewaltige Dominanz ein wenig abgeschwächt.
230
Philosophie der Chemie
1.2 Die späte Formierung der Chemiephilosophie Ungeachtet der außerordentlichen Größe der Chemie hat die Gegenwartsphilosophie diese bis vor kurzem fast vollständig ignoriert, und zwar gerade auch in denjenigen Bereichen, die sich selber Wissenschaftstheor ie oder Wissenschaftsphilosophie nennen. Durch ihre einseitige Fokussierung auf den relativ schmalen und in vielerlei Hinsicht besonderen Bereich der mathematischen Physik hat die »allgemeine Wissenschaftstheorie« Fragestellungen, Ansätze und Grundbegriffe formuliert, deren Relevanz für andere Disziplinen nicht immer erkennbar ist. Daher befindet sich auch die Chemiephilosophie, die sich seit etwa 1990 international formiert, noch in einer Phase der Neubesinnung und Sichtung, ob das, was die herkömmliche Wissenschaftstheor ie hervorgebracht hat, zum Verständnis der Chemie brauchbar sein könnte oder ob hierzu nicht ganz neue Ansätze entwickelt werden müssen. Die heute international vorherrschende angelsächsische Wissenschaftstheorie, die im Wesentlichen auf mathematisch oder physikalisch vorgebildete Emigranten des Wiener und Berliner Kreises der 1920er Jahre zurückgeht, konnte ihre Einseitigkeit nur durch einen Physikalismus rechtfertigen, der die Chemie wie alle anderen Wissenschaften lediglich als Anwendungsfall der theoretischen Physik begreift. Ehrgeizige Quantentheoretiker wie Paul Dirac leisteten dem Vorschub durch leichtfertige Behauptungen wie: »Die zugrundeliegenden physikalischen Gesetze für die mathematische Theor ie eines großen Teils der Physik und der gesamten Chemie sind vollständig bekannt.« (Dirac 1929). Eine historisch naive Philosophiegeschichtsschreibung zelebrierte überdies den Siegeszug der Mechanischen Naturphilosophie von Descartes bis Heisenberg/Einstein durch Ausblendung fast aller anderen naturphilosophischen und wissenschaftlichen Strömungen. Die Chemie kam (wie auch andere Disziplinen) bestenfalls in zurechtgerückten case studies vor, um für oder gegen das Modell der Theor iewahl von Popper, Lakatos, Kuhn usw. zu argumentieren (van Brakel 1996). Im Unterschied zur neuen angelsächsischen philosophy of science haben sich einige Wissenschaftsphilosophen anderer Länder, meist in Kontinuität des 19. Jahrhunderts, ausführlicher mit der Chemie (und anderen Disziplinen) auseinandergesetzt. Zum Beispiel spielte die Chemie in vielen marxistischen Ländern unter Rückgriff auf entsprechende Thesen in Friedrich Engels Dialektischem Materialismus bis in die 1980er Jahre eine wichtige Rolle (van Brakel/Vermeeren 1981; Laitko 1996). In Frankreich, wo traditionell Chemiker von Antoine Lavoisier bis Pierre Duhem philosophische Debatten mitgeprägt hatten, wurde die épistémologie entscheidend geformt durch chemisch gebildete Philosophen wie Auguste Comte, Émile Meyerson und Gaston Bachelard (Bensaude-Vincent 2009). Auch die deutsche Philosophiegeschichte hat eine reichhaltige Auseinandersetzung mit der Chemie vorzuweisen, von Immanuel Kant und G. W. F. Hegel bis zu Justus Liebig und Wilhelm Ostwald, was in einschlägigen Werken zur Philosophiegeschichte jedoch kaum Berücksichtigung findet. 231
III. Die Philosophie der Natur- und Biowissenschaften
Trotzdem blieb die Chemiephilosophie auch in den beiden zuletzt genannten Ländern bis Ende des 20. Jahrhunderts eher ein Randphänomen und artikulierte sich zumeist in Beiträgen von Chemikern, Chemiehistorikern und -didaktikern, die darin ein für ihr jeweiliges Fach notwendiges Anliegen sahen. Erst in den späten achtziger Jahren formierten sich daraus zusammen mit chemisch gebildeten Philosophen in verschiedenen Ländern nationale Gruppen, insbesondere in Holland, Italien, Polen, Deutschland und England, die sich bald auch international austauschten und vernetzten. Inzwischen gibt es zwei internationale Fachzeitschriften, Hyle: International Journal for Philosophy of Chemistry (seit 1995) und Foundations of Chemistry (seit 1999), und eine International Society for the Philosophy of Chemistry, die seit 1997 jährliche Sommersymposien ausrichtet. Obwohl die ursprünglichen Impulse alle aus Europa kamen, findet die Professionalisierung des Fachs heute zunehmend in innovationsfreundlichen Ländern statt, insbesondere in den USA, Großbritannien und einigen südamerikanischen Staaten, während es beispielweise an deutschen Universitäten unter den über hundert Wissenschaftsphilosophen inzwischen keinen einzigen Fachvertreter mehr gibt. Im Folgenden wird, den Vorgaben dieses Bandes entsprechend, kein allgemeiner Überblick über die gegenwärtige Chemiephilosophie geliefert. Stattdessen greife ich exemplarisch zwei Themen heraus: Anhand der Frage nach dem Gegenstandsbereich der Chemie diskutiere ich zunächst das ontologische Verhältnis zwischen Stoffen und Molekülen. Stellvertretend für den erkenntnistheoretischmethodologischen Themenkomplex behandele ich sodann die Frage nach der Reduzierbarkeit der Chemie auf die Physik. Die durch die Vorgaben bedingte einseitige Fokussierung auf Themen der theoretischen Philosophie versuche ich abschließend durch einen kurzen Überblick über einige praktisch-philosophische Fragestellungen zu korrigieren.
2 Ontologische Fragen am Beispiel der Differenz von Stoffen und Molekülen Die meisten allgemeinbildenden Lexika definieren die Chemie mit leicht unterschiedlichen Gewichtungen als die Lehre von den Stoffen, Stoffumwandlungen, Atomen und Molekülen. Solche gegenstandsbezogenen Definitionen enthalten zwei voneinander unabhängige ontologische Differenzen. Zum einen bleibt offen, ob die Chemie es primär mit Prozessen (Stoffumwandlungen beziehungsweise chemischen Reaktionen) zu tun hat, in denen die Stoffe oder Substanzen nur als temporäre Agentien auftreten, oder ob sie in erster Linie Substanzen studiert, zu deren Eigenschaften auch die Umwandlungsmöglichkeiten gehören. Für beide ontologische Positionen, welche die alte Differenz zwischen Prozess- und Sub stanzphilosophie fortführen, gibt es gute Argumente. Während die Substanzphilosophie dem Alltagsverstand näher zu liegen scheint, mehren sich in jüngerer Zeit Stimmen für eine prozessphilosophische Position in der Chemie (Earley 232
Philosophie der Chemie
1998; van Brakel 1997; Schummer 1998a; Weininger 2000; Stein 2004; zusammenfassend: Schummer 2004a). Zum anderen stellt sich die Frage, ob der eigentliche Gegenstandsbereich der Chemie die Stoffe oder die Moleküle (und ihre jeweiligen Umwandlungen) sind. In dieser Frage, die im Folgenden gesondert behandelt wird, lebt die ebenso alte Differenz zwischen Stoff- und Dingphilosophie weiter.
2.1 Stoffe und Dinge in der Philosophie Der Unterschied zwischen Stoffen und Molekülen wird oft epistemologisch dargestellt: Zu Stoffen haben wir einen sinnlichen oder »makroskopischen« Zugang, Moleküle sind hingegen mikroskopische Gegenstände, die sich wegen ihrer Kleinheit der direkten Wahrnehmung entziehen. Diese Unterscheidung ignoriert allerdings, dass Stoffe und Moleküle vor allem ontologisch zu unterschiedlichen Kategorien gehören. Ein Stoff wie Wasser hat keine Größe, Gestalt oder Anzahl, oder anders formuliert: Ob Wasser in einer großen oder kleinen Portion, in runder oder eckiger Form, in einer oder in mehreren Portionen vorliegt, ist völlig unerheblich; es handelt sich jedes Mal um dasselbe Wasser. Ganz anders verhält es sich bei Molekülen, die zur Kategorie der Dinge gehören. Hier sind Größe, Gestalt und Anzahl entscheidende Eigenschaften für ihre Charakterisierung. Die Unterscheidung zwischen Stoffen und Dingen ist so zentral, dass sie in allen indogermanischen und vielen anderen Sprachen syntaktisch fest verankert ist. Überall differenziert man zwischen mass terms (Stoffnomina, die keine Pluralbildung zulassen, wie »Wasser« oder Abstrakta wie »Gerechtigkeit«) und count terms (zählbare Nomina mit Pluralbildung wie »Flasche« oder »Tugend«). In der Philosophie sind seit der Antike solche sprachlichen Kategorien ausschlaggebend gewesen für die Bildung logischer und ontologischer Kategorien, weil die Sprache unser Denken und unsere Vorstellung von der Welt prägt. Aus der syntaktischen Unterscheidung zwischen Subjekt und Prädikat leitete Aristoteles die ontologische Unterscheidung zwischen Substanz und Eigenschaft ab und baute darauf seine syllogistische Logik auf, die in der heutigen Prädikatenlogik weitergeführt wird. Analog entwickelte er die ontologischen Kategorien Stoff und Form weiter: Jedes Einzelding besteht (entweder im wörtlichen oder metaphorischen Sinn) aus einem Stoff und einer Form, die ihm seinen Dingcharakter verleiht.1 Der kategoriale Unterschied zwischen Stoffen und Dingen ist seit der Antike auch bekannt über Theseus’ Paradoxon (Rosenberg 1993). Ist ein Holzschiff, dessen sämtliche Teile (sein »Material«) schrittweise ausgetauscht worden sind, noch dasselbe Schiff wie zuvor? Wenn es ein anderes ist, durch welchen Austausch änderte sich die Identität? Wenn es noch dasselbe ist, könnte man nicht mit den alten Teilen das alte Schiff wieder aufbauen und so ein von dem ersten unter Eine gute Einführung zu Aristoteles liefert Düring 1966/2005, zu dessen Chemie siehe insbesondere Düring 1944/1980. 1
233
III. Die Philosophie der Natur- und Biowissenschaften
schiedenes herstellen? Das Schiff besitzt sowohl eine stoffliche Identität als auch eine Dingidentität, die durch seine Gestalt und Funktion bestimmt ist. Wer beides miteinander vermischt, verwickelt sich in Paradoxien. Umgekehrt könnte man aus einem Stück Ton erst einen Krug und dann ein Pferd formen und analog fragen, ob der Gegenstand dabei seine Identität wechselt oder beibehält. Hierbei wird unser Verstand jedoch weniger verwirrt, weil wir nun klar zwischen der stofflichen und der gestalthaften Identität unterscheiden. Beim Schiff des Theseus ist das weniger eindeutig, weil die Teile des Schiffs für sich genommen Einzeldinge und zusammen genommen der Stoff des Schiffs sind. Die moderne Ontologie und Logik hat sich überwiegend auf Dinge konzen triert. Eine analoge Theorie des Stofflichen steckt hingegen bis heute noch in den Kinderschuhen, denn Stoffe verhalten sich mereologisch anders als Individuen: Zwei Tropfen Wasser vereinigen sich zu einem Tropfen Wasser, wobei die Teile sich im Ganzen auflösen. Umgekehrt kann man den Wassertropfen immer weiter teilen und erhält als Teile stets nur Wassertropfen. Ein Tropfen Wasser und ein Tropfen Alkohol bilden einen Tropfen alkoholische Lösung, der in stofflicher Hinsicht beiden Ausgangsteilen ähnelt. Nimmt man hingegen Öl statt Alkohol, dann bleiben die Teile getrennt. Ein Tropfen Quecksilber und ein Tropfen Brom ergeben zusammen einen weißen Festkörper, der keinerlei Ähnlichkeiten mehr mit beiden ursprünglichen Teilen aufweist. Zerteilt man den Festkörper mechanisch, erhält man stets nur Körner von Quecksilberbromid, aber niemals die Ausgangsstoffe zurück. Die Beispiele illustrieren bereits: Die stoffliche Welt lässt sich nicht durch eine einfache Ontologie und Logik beschreiben, die von der Besonderheit des jeweiligen Stoffes abstrahiert, wie man das mit einer Welt von Billardkugeln oder Einzeldingen machen kann. Stattdessen müsste hier das gesamte chemische Wissen eingehen. Wo das unterlassen und der kategoriale Unterschied zwischen Stoffen und Dingen ignoriert wird, entstehen Absurditäten oder Paradoxien. Mit dem gleichen nominalistischen Ehrgeiz, mit dem Prädikate semantisch auf Mengen von Individuen zurückgeführt wurden (»rot« bezeichnet demnach nicht eine Farbe, sondern die Menge aller roten Gegenstände), haben Philosophen versucht, die mass terms durch count terms zu umschreiben, also Stoffe als Dinge zu begreifen (Pelletier 1979). Der berühmteste Ansatz, von Willard Van Orman Quine (1960), betrachtet Stoffe als raum-zeitlich verstreute Gegenstände: Wasser ist demnach die Gesamtheit aller in der Raum-Zeit verteilten und über Koordinaten lokalisierbaren »Wasserteilchen«. Doch leider besteht Wasser nicht aus »Wasserteilchen«, denn die Mikrostruktur ist hochkomplex: Wassermoleküle sind über Wasserstoffbrücken dynamisch miteinander verbunden und befinden sich in einem Dissoziationsgleichgewicht mit Ionen, sind also gar keine Moleküle im modellhaften Sinne. Wasser gilt auch schon lange nicht mehr als Element: Es kann sich zersetzen, mit anderen Stoffen regieren, wird bei Reaktionen freigesetzt, ist stets gemischt mit Fremdstoffen, welche seine Mikrostruktur entscheidend prägen, wird quasi-chemisch in Kristallstrukturen (z. B. in Gips) oder in Gelen eingebunden und so weiter. Der auf Dinge fokussierte Philosoph müsste sich daher 234
Philosophie der Chemie
in die subtilsten Details der Chemie einarbeiten, um in jedem Einzelfall eine willkürliche Entscheidung zu treffen, ob die jeweilige Atomanordnung in diesem Moment gerade zu dem »verstreuten Gegenstand« Wasser gehören soll oder nicht. Ähnliche Anstrengungen wurden unternommen, um Stoffeigenschaften auf Dingeigenschaften zurückzuführen (Schummer 1995). Alle Stoffeigenschaften sind Dispositionen, d. h. ein Stoff hat die Fähigkeit, nur unter bestimmten Bedingungen ein bestimmtes Verhalten zu zeigen. Dass ein Salz wasserlöslich ist, bedeutet nicht nur, dass es in gelöstem Zustand vorliegt, nachdem man es in Wasser gegeben hat, sondern dass es sich jederzeit in Wasser auflösen kann, und zwar gerade dann, wenn es noch nicht aufgelöst ist. Dingeigenschaften wie Größe, Gestalt und Lage sind demgegenüber »manifeste« Eigenschaften, sie bestehen unabhängig von kontextuellen Bedingungen. In den Schwierigkeiten der Reduktion zeigen sich wieder die kategorialen Probleme. Der klassische Versuch von Rudolf Carnap (1953), das Dispositionsprädikat »wasserlöslich« durch das manifeste Prädikat »gelöst« zu ersetzen, führte wieder in eine Paradoxie: Solange das Salz nicht gelöst ist, kann seine Wasserlöslichkeit nicht festgestellt werden; sobald es jedoch gelöst ist, existiert das Salz gar nicht mehr, über das man etwas aussagen möchte. Keiner der zahlreichen folgenden Ansätze, die schlichten Dispositionsprädikate durch kontrafaktische Konditionalsätze zu umschreiben (»Wenn das Salz in Wasser gegeben worden wäre, dann läge es in aufgelöstem Zustand vor«) und ihnen durch Mögliche-Welten-Semantiken nicht-dispositionale Bedeutung zu verleihen (»In irgendeiner möglichen Welt ist das Salz gerade aufgelöst«) sind überzeugend. Sie illustrieren vielmehr die Hartnäckigkeit der ontologischen Kate goriendifferenz gegen alle spitzfindigen logischen und semantischen Versuche der analytischen Philosophie, die Stoffkategorie auf die metaphysisch präferierte Dingkategorie zu reduzieren.
2.2 Die experimentbasierte Stoffontologie der Chemie Wer sich wissenschaftstheoretisch mit der Chemie beschäftigen möchte, wird all diesen Ansätzen nicht viel abgewinnen können, weil sie bereits an simplen alltäglichen Stoffbeschreibungen scheitern und sich zu chemischen Fragen gar nicht erst vorgewagt haben. Stattdessen lohnt es sich gerade auch philosophisch, genauer auf die Chemie zu schauen. Als prototypische Experimentalwissenschaft, die nicht manifeste Eigenschaften isolierter Dinge und deren raumzeitliche Koordinaten vermisst, sondern seit vielen Jahrhunderten ausschließlich Dispositionseigenschaften in Laborkontexten studiert, hat die Chemie Ordnungsstrukturen ihres Gegenstandsbereichs entwickelt, die der auf Dinge fixierten Philosophie bis heute fremd geblieben sind. Das lässt sich, wie folgt, exemplarisch an der hierarchischen Ordnung der Stoffe nach Teil-Ganzes-Beziehungen illustrieren (Schummer 1997a). 235
III. Die Philosophie der Natur- und Biowissenschaften
Wissenschaftliche Dispositionseigenschaften sind im Unterschied zu manifesten Eigenschaften an experimentelle Kontexte und Handlungen gebunden, die reproduzierbar sind. Jede experimentelle Analyse, d. h. die Trennung eines Stoffes in unterschiedliche Stoffe, etabliert eine Teil-Ganzes-Beziehung genauso sowie umgekehrt jede Synthese, also die Bildung eines Stoffes aus unterschiedlichen Ausgangsstoffen. In der Chemie sind daher, im Unterschied zu ihren Vorläufern und der bis heute gängigen Praxis in der Philosophie, Analyse und Synthese keine logisch-begrifflichen Operationen, sondern experimentelle Verfahren, wie es übrigens auch die Etymologie nahelegt. Ein Stoff wird nicht mehr, wie es die fast zweitausend Jahre gültige Lehre des Aristoteles vorschrieb, begrifflich in seine Grundeigenschaften zerlegt, aus denen dann seine Zusammensetzung aus hypothetisch angenommen Elementen zu schließen ist. Stattdessen wird er einer geordneten Reihe von Zerlegungsoperationen unterzogen, sodass seine Zerlegbarkeiten (also bestimmte Dispositionseigenschaften) seine Position in einer hierarchischen Stoffordnung eindeutig anzeigen: Was sich durch mechanische Operationen (Schneiden, Sieben, Sortieren) in unterschiedliche Stoffe zerlegen lässt, ist eine heterogene Mischung; was darüber hinaus durch thermodynamische Verfahren (Destillation, Kristallisation, Chromatographie) aufgetrennt werden kann, ist eine homogene Mischung; und was sich dem widersetzt, ist ein Reinstoff oder eine chemische Substanz. Ist diese durch chemische oder elektrochemische Verfahren nicht weiter zerlegbar, handelt es sich definitionsgemäß um ein Element, ansonsten um eine Verbindung, deren elementare Zusammensetzung sich qualitativ und quantitativ aus genau dieser Analyse ergibt. Das Experiment ist in der Chemie daher nicht bloß das künstliche Herbeiführen von Phänomenen, auf die man im Prinzip auch untätig warten könnte, »bis die Situationen, die wir so scharfsinnig ersinnen, zufällig, wie man zu sagen pflegt, eintreten« (Bergmann 1972, 111), wie es die ältere analytische Wissenschaftstheo rie glaubte, die darin nur eine Bestätigungs- oder Widerlegungsinstanz für physikalische Theor ienentwicklung sah. In der täglichen Forschungspraxis ist Experimentieren vor allem das freie Ausprobieren, das Suchen nach neuen unbekannten Phänomenen, was kurioserweise erst in jüngerer Zeit ins Bewusstsein der Wissenschaftstheor ie gelangt ist, obwohl genau diese Bedeutung auch allgemeinsprachlich ist und selbst die Etymologie darauf hindeutet. Das chemische Experimentieren legt dabei ein Schwergewicht auf die Suche und Charakterisierung neuer Stoffe (Schummer 2004b). Im außeralltäglichen Bereich dient es zur Etablierung operationaler Begriffe und liefert, wie das Beispiel belegt und was im vorliegenden Zusammenhang bedeutsam ist, eine operationale Basis für onto logische Strukturen, hier: für die Etablierung einer Kette von mereologischen Teil-Ganzes-Relationen, die zusammen genommen eine hierarchische Ordnung aller denkbaren Stoffe ergeben (Schummer 1994). Weil die chemische Ontologie nicht begrifflich entworfen, sondern operational fundiert ist, sind alle Stoffe, die in Laborkontexten untersucht werden, überdies nicht einfach vorgefunden, sondern das Resultat definierter Herstellung, heute überwiegend industrieller 236
Philosophie der Chemie
Herkunft. In diesem Sinne schafft sich die Chemie die Gegenstände ihrer Unter suchung selber. Das gilt insbesondere für chemische Substanzen, die durch Reinigungsoperationen an das Ideal perfekter Reinheit angenähert werden. Darin zeigt sich eine Grundstruktur ontologischer Praxis experimenteller Wissenschaften: Die Chemie passt nicht nur ihre Begriffe an die vorgefundene Stoffwelt an, sondern auch umgekehrt die Stoffwelt durch Operationen (hier: durch Reinigungsverfahren) an ihre Begriffsstruktur. Begriffe und Gegenstände werden also unter Berücksichtigung experimenteller Widerständigkeiten wechselseitig aneinander angepasst. Zwar bleibt wegen der praktischen Unerreichbarkeit perfekter Reinheit stets eine Differenz zwischen Begriffen und Gegenständen übrig, aber der Ansatz liefert eine einzigartige experimentelle Lösung des philosophischen Universalienproblems, deren Bedeutung kaum überschätzt werden kann.2 Denn im Unterschied zu biologischen oder geologischen Klassifikationen werden in der Chemie die Artbegriffe den naturgegebenen Gegenständen nicht übergestülpt, sondern die Artbegriffe sind durch experimentelle Verfahren der Synthese, Analyse und Reinigung operational stabilisiert (Schummer 2014c). Wer nominalistisch bestreiten wollte, dass beispielsweise Ethanol oder Wasserstoff eine stabile chemische Art ist, die überall und jederzeit mit den entsprechenden Verfahren instanziiert werden kann, der müsste die Reproduzierbarkeit experimenteller Verfahren infrage stellen.
2.3 Stoffe und Moleküle in der Chemie Seit Mitte des 19. Jahrhunderts hat die Organische Chemie eine Strukturtheo rie entwickelt, die jedem solcherart stabilisierten Stoff ursprünglich genau eine Molekülstruktur zuordnet. Die Bestimmung der Struktur erfolgte bis Mitte des 20. Jahrhunderts ausschließlich aufgrund der chemischen Eigenschaften des jeweiligen Stoffes: seiner elementaren Zusammensetzung, seiner Umwandlungen mit anderen Stoffen und insbesondere seiner schrittweisen und kontrollierten Synthetisierbarkeit aus den Elementen oder einfachen Stoffen. Bestandteil der Strukturtheorie ist ein Regelwerk, das die wechselseitige Umwandlung von Im klassischen Universalienproblem streiten sich Realisten und Nominalisten über die Frage, ob die Unterscheidungen von Arten in der Natur der Gegenstände selber begründet sind (Realismus) oder ob sie nur menschliche Konzepte sind, die den individuellen Gegenständen für bestimmte Einteilungszwecke übergestülpt werden (Nominalismus). Traditionell wird die Debatte anhand von naturgegebenen Gegenständen geführt, beispielsweise ob eine biologische Spezies eine »natürliche Art« ist oder nur eine auf Konventionen beruhende Gruppierung von Individuen. In den Experimentalwissenschaften wie der Chemie geht es jedoch nicht um naturgegebene, sondern um operativ zugerichtete Gegenstände wie Reinstoffe. Die Kernfrage des Universalienproblems lautet hier also nicht, ob ein Reinstoff eine »natürliche Art« ist, sondern ob die Unterscheidung der Reinstoffe in ihrer Natur begründet ist. 2
237
III. Die Philosophie der Natur- und Biowissenschaften
Stoffarten als regelmäßige Umgestaltungen von Strukturgruppen, den sogenannten funktionellen Gruppen, beschreibt. Im Unterschied zu den röntgenkristallographisch bestimmten und quantenmechanisch errechneten Strukturen enthalten die chemischen Strukturen Informationen über die chemischen Eigenschaften eines Stoffes, wie er mit anderen Stoffen reagiert und sogar wie man ihn herstellen kann. Wer die Theor ie beherrscht, liest die chemischen Strukturformeln als Potentiale von Umwandlungsmöglichkeiten und kann damit Stoffeigenschaften erklären und voraussagen. Dadurch wurde die kategoriale Differenz zwischen den Dispositionseigenschaften der Stoffe und den manifesten Eigenschaften von Strukturen überwunden: Eine chemische Molekülstruktur besitzt in logischer Hinsicht gleichartige Eigenschaften wie Stoffe, nämlich Dispositionsrelationen, welche die Umwandlungspotentiale zweier oder mehrere Stoffe/Strukturen ineinander beschreiben. Seit den 1950er Jahren wurde die chemische Strukturbestimmung durch zahlreiche spektroskopische Verfahren ergänzt und schließlich sogar weitgehend ersetzt, insbesondere durch Infrarot-, kernmagnetische Resonanz- und Massenspektroskopie. Während man früher die Stoffe aufwändig reinigen und chemischen Analysen unterziehen musste, lassen sich mit den spektroskopischen Verfahren auch molekulare Strukturen in Mischungen, Gasphasen und Molekülstrahlen untersuchen. Im Unterschied zur klassischen Theor ie, die jede chemische Substanz durch möglichst genau eine schematische Molekülstruktur repräsentiert, zeigen die spektroskopischen Methoden bei entsprechender zeitlicher und energetischer Auflösung selbst für Reinstoffe ein großes Spektrum an Strukturen, das überdies bei Änderung äußerer Bedingungen wie Temperatur und Druck beträchtlich variiert. Die instrumentellen Veränderungen der letzten Jahrzehnte haben die Ontologie der Chemie grundlegend beeinflusst (Schummer 2002). Ein einfacher mikrostruktureller Essentialismus, der eine Struktur als das Wesen einer chemischen Substanz begreift, ist nicht mehr aufrecht zu erhalten, weil jeder Reinstoff eine Vielzahl von Strukturen zeigt, die überdies mit den thermodynamischen Bedingungen beträchtlich variieren (van Brakel 1991). Außerdem lassen sich Strukturen nachweisen (beispielsweise Fragmente in der Massenspektroskopie), zu denen es keine entsprechenden Stoffe gibt. Die eindeutige Zuordnung zwischen Stoff und Struktur ist also von zwei Seiten aufgehoben. Die Multiplikation der Strukturen erfordert eine Entscheidung, was als der eigentliche Gegenstandsbereich der Chemie gelten soll: Stoffe oder Strukturen? In dieser Frage sind sich sowohl Chemiker als auch Philosophen uneinig. In der Chemie ist die Differenz durch Mehrdeutigkeiten nicht immer unmittelbar erkennbar, denn sowohl die Stoffnamen als auch der Substanzbegriff werden häufig auch auf Molekülstrukturen angewandt. Beispielsweise bezeichnen Chemiker mit demselben Ausdruck »Ethanol« je nach Kontext den Stoff und die entsprechende Molekülstruktur. Der Unterschied wird jedoch deutlich bei der Frage, was bei der jeweiligen Forschung als Explanandum betrachtet wird. Werden die 238
Philosophie der Chemie
Stoffeigenschaften durch Eigenschaften der interatomaren Struktur erklärt, sind die Stoffe das Explanandum und damit der eigentliche Gegenstandsbereich. Wird hingegen eine bestimmte interatomare Struktur durch elektronische beziehungsweise quantenmechanische Modelle erklärt, ist sie der Gegenstandbereich. In vielen Fällen (z. B. bei reaktiven Zwischenstufen, Katalysatoren) ist die Strukturerklärung gleichsam eine tiefergelegte Erklärung und dient letztlich dem besseren Verständnis stofflicher Verhältnisse oder Reaktionen, die somit als der eigentliche Gegenstandsbereich gelten können. In anderen Fällen scheint an eine Erklärung oder Voraussage stofflicher Verhältnisse gar nicht mehr gedacht zu sein. Das gilt insbesondere in der Biochemie sowie allgemein beim Studium molekularer Strukturen als Agentien in raumzeitlich strukturierten Gebilden oder Nanosystemen (im Unterschied zu homogenen Mischungen), bei denen die stoffliche Betrachtung wenig sinnvoll ist. Für die Wirkungsweise eines Proteins beispielsweise ist die dreidimensionale Molekülstruktur entscheidend, bei Nukleinsäuren zählt in erster Linie die Nukleotidsequenz, während die stofflichen Eigenschaften der jeweiligen kristallinen Reinsubstanz oder ihrer Mischungen relativ unwichtig sind. Darüber hinaus wächst seit den 1980er Jahren aber auch eine Forschung, in der die Strukturerklärung als Selbstzweck erscheint, ohne dass weitere Bezüge unmittelbar erkennbar sind.3 Von außerordentlicher ontologischer Bedeutung sind nanokristalline Festkörper, weil sie die kategoriale Differenz zwischen Stoffen und Dingen verwischen und zu begrifflichen Verwirrungen bis in den juristischen Bereich hinein führen. Zur Stoffkategorie gehört, dass die Eigenschaften unabhängig von der Größe und Gestalt seiner Portionen sind; Ausdrücke wie »kleiner Lehm« oder »eckiges Gold« enthalten Kategorienfehler, richtig wäre »kleiner Lehmklumpen« und »eckiges Goldstück«. Werden hingegen reine Stoffportionen in den Nanometerbereich hinein verkleinert, verändern sich ihre Eigenschaften in Abhängigkeit von ihrer Größe und Gestalt; Gold wird z. B. purpurrot. Einerseits sind nanokristalline Festkörper wie Stoffe meist homogen in den Eigenschaften; andererseits tritt nun der Dingcharakter der Kristalle hervor, indem ihre Größe und Gestalt die Eigenschaften des Stoffes bestimmen. Unbeholfen mischt man dafür die onto logischen Kategorien in Ausdrücken wie »small materials« oder »kleine Stoffe«. Technisch steckt darin ein großes Potential. Juristisch offenbart sich hier eine große Regulierungslücke, weil alle Chemikaliengesetze die ontologische Stoff kategorie zugrunde legen: Wird ein Stoff in makrokristalliner Form als bedenkenlos eingestuft, kann er trotzdem in nanokristalliner Form hoch toxisch sein, ohne dass dies in den stoffbasierten Regulierungsansätzen Berücksichtigung finden muss (Schummer 2009, 108 f.). Das gilt eindeutig für die Herstellung neuer Stoffe, die ausschließlich wegen ihrer »ästhetisch reizvollen« Molekülstrukturen erfolgt (z. B. Vögtle 1989), ohne dass weitere Stoffeigenschaften untersucht werden, sowie, wenn auch weniger eindeutig, für eine wachsende Zahl von Arbeiten aus der Organischen Chemie. 3
239
III. Die Philosophie der Natur- und Biowissenschaften
In der Frage nach dem Gegenstandsbereich der Chemie spaltet sich die Philosophie traditionell auf in Ding- und Stoffphilosophie. Die an der Physik orientierte angelsächsische Wissenschaftstheor ie hat Stoffe kaum zur Kenntnis genommen. Zum Beispiel ist in der klassischen reduktionistischen Programmatik von Oppenheim/Putnam (1958) von Stoffen gar keine Rede; stattdessen springt man von Elementarteilchen über Moleküle zu Lebewesen und entsprechend von der Physik gleich zur Biologie. Das hat auch die gegenwärtige angelsächsische Chemiephilosophie beeinflusst,4 denn fast alle Beiträge gehen wie selbstverständlich davon aus, der Gegenstandsbereich der Chemie bestände in interatomaren Strukturen, die durch subatomare Strukturen zu erklären sind, was die Chemie automatisch in ein Konkurrenzverhältnis zur Molekül- und Festkörperphysik setzt und damit die Frage der Reduzierbarkeit provoziert (s. Abschnitt 3). Demgegenüber heben die meisten nichtangelsächsischen Chemiephilosophen die Stoffe als Gegenstandbereich hervor und sehen in der Erklärung, Voraussage, Ordnung und Gestaltung der sinnlich erfahrbaren Welt die Hauptzwecke der Chemie (z. B. van Brakel 1986; 2000; Schummer 1996a; Psarros 1999; Bensaude-Vincent/Simon 2008; Ruthenberg/van Brakel 2008). Man kann dann über den ontologischen Status von Stoffen streiten, ob sie das Produkt eines besonderen epistemischen Zugangs zur Welt sind (Schummer 2008) oder eine eigene, unabhängige Welt konstituieren (Lewowicz/Lombardi 2013), aber nicht mehr über ihre grundsätzliche Rolle als primärer Gegenstandsbereich der Chemie.
3 Epistemologisch-methodologische Fragen am Beispiel der Reduktion der Chemie auf die Physik 3.1 Die Rolle der Quantenmechanik in der Chemie Die angelsächsische Chemiephilosophie ist aufgrund der erwähnten Annahme dominiert von der Frage, ob die Chemie auf die Physik reduzierbar ist. Es geht dabei nicht, wie die Fragestellung suggeriert, um das Verhältnis zwischen den Disziplinen, geschweige denn um Inklusions- oder gar Machtverhältnisse. Denn Disziplinen sind komplexe epistemisch-soziale Gebilde, deren Identität in ihren spezifischen Forschungsfragen, -methoden und -werten sowie ihren Organisationsformen liegt und deren Autonomie im vorliegenden Fall unbestritten ist. Vielmehr fragt man, ob bestimmte Phänomen- oder Theor ienbereiche der Che Neben dem Einfluss der angelsächsischen physikorientierten Wissenschaftstheor ie mag auch die englische Sprache bei der Vernachlässigung von Stoffen eine Rolle spielen. Denn im Unterschied zu anderen europäischen Sprachen gibt es im Englischen kein Äquivalent zu dem deutschen Ausdruck »Stoff«: stuff bedeutet Zeug und wird oft pejorativ verwendet; matter meint umfassender die Materie schlechthin; material ist auf Feststoffe beschränkt, im engeren Sinne auf Werkstoffe; chemical substance bezeichnet einen Reinstoff und besitzt zudem die Bedeutung von Drogen. 4
240
Philosophie der Chemie
mie durch Theor ien der Physik (insbesondere durch die Quantenmechanik und statistische Mechanik) vollständig erklärbar sind. An der Frage selber ist die philosophische Dimension nicht unbedingt erkennbar. Denn die Entscheidung, ob eine bestimmte Theor ie etwas erklären kann oder nicht, obliegt normalerweise der Wissenschaft und nicht der Philosophie. Aus den quantenmechanischen Prinzipien lässt sich weder der Aufbau des Periodensystems der Elemente (nach der Elektronenkonfiguration) eindeutig ableiten (Hartmann 1965; Scerri 1991) noch der zentrale Begriff der chemischen Molekülstruktur (Woolley 1978; Primas 1981). Die Quantenmechanik liefert genauso wenig wie die klassische Mechanik klassifikatorische Begriffe, um die über 100 Millionen bekannten chemischen Verbindungen zu klassifizieren, sie kann nicht einmal ohne zusätzliche Hilfe zwischen spiegelbildlichen Strukturen unterscheiden (sog. Enantiomeren, die eine zentrale Rolle in der Organischen Chemie und Biochemie spielen). Von einer chemischen Theor ie erwartet man in erster Linie die Erklärung und Voraussage chemischer Reaktionen (»Welche Reaktionsprodukte erhalte ich, wenn ich die Stoffe A und B zusammen rühre?«), aber gerade darüber schweigt sich die Quantenmechanik im Unterschied zur chemischen Strukturtheorie weitgehend aus. Warum spielt sie trotzdem eine so bedeutsame Rolle in der Chemie, ist die Chemie vielleicht sogar ihr wichtigstes Anwendungsgebiet? Die Quantenmechanik liefert fast konkurrenzlose Erklärungsansätze für die chemische Bindung der meisten Stoffe – warum Atome überhaupt miteinander in Verbindung treten – und für alle elektromagnetischen Eigenschaften von Stoffen. Außerdem bietet sie zusammen mit der statistischen Mechanik Ansätze zur Erklärung von thermodynamischen und mechanischen Stoffeigenschaften. Um sie fruchtbar zu machen, bedarf es jedoch eines vielseitigen Inputs chemischer Grundlagen und Erkenntnisse zur sinnvollen Modellbildung im Rahmen der Quantenchemie. Die quantenchemischen Modelle sind nicht einfach »semantische Interpretationen« der Theor ie, wie es die ältere Wissenschaftstheor ie nach dem Vorbild beispielsweise der Berechnung eines Pendels aus der klassischen Mechanik meinte.5 Vielmehr gehen in die Modellbildungen konzeptionelle Annahmen aus verschiedenen Bereichen ein und oft sogar empirische Daten.
Die ältere Wissenschaftstheor ie unter dem Einfluss des Logischen Positivismus und der mathematischen Modelltheor ie glaubte, alle naturwissenschaftlichen Theor ien seien reine mathematische Formalismen (etwa die drei Newton’schen Axiome der klassischen Mechanik). Die Anwendungen des Formalismus auf konkrete Probleme (zum Beispiel die Ableitung der Bewegungsgleichung eines Pendels aus den Axiomen und den spezifischen Größen des Pendels) nannten sie »semantische Interpretationen« der Theor ie und identifizierten sie mit naturwissenschaftlichen Modellen. Verschiedene Arbeiten, insbesondere von Nancy Cartwright und Margaret Morrison, zeigten, dass diese Vorstellung von Modellen nicht einmal auf die Physik zutrifft, geschweige denn auf die Chemie und andere Wissenschaften. 5
241
III. Die Philosophie der Natur- und Biowissenschaften
Um einen Stoff wie Wasser quantenchemisch zu modellieren, setzt man nicht mit einem Ensemble aus n Sauerstoffkernen, n Protonen und n Elektronen an, wie es ein klassischer Modellansatz auf der Basis einer Elementaranalyse von Wasser erfordern würde. Stattdessen geht man von der chemisch-empirischen Formel aus, wonach Wasser vorzugsweise in Einheiten H O (statt HO, HO oder Kombinationen von H O, HO etc.) vorliegt. Im nächsten Schritt bedient man sich auf vierfache Weise der klassischen chemischen Strukturtheor ie: Erstens berechnet man nur ein einziges von der Strukturtheor ie postuliertes H OMolekül, das wie in der Strukturtheor ie stellvertretend für den Stoff stehen soll, anstelle eines Ensembles von Molekülen; zweitens gibt man meist die Symmetrie der klassischen Struktur als Randbedingung vor; drittens werden die Atomkerne in der Regel nicht quantenmechanisch, sondern (nach der Born-OppenheimerNäherung) klassisch-mechanisch behandelt, weil sich sonst keine der chemischen Strukturtheor ie entsprechenden Molekülstrukturen zeigen würden; viertens berechnet man nicht die Dynamik des Systems, sondern nur eine Reihe von statischen Zuständen nach der zeitunabhängigen Schrödingergleichung. Bei einfachen Systemen und großen Rechenleistungen lassen sich zwar einige der Annahmen zurücknehmen; der Grundansatz, chemisches Wissen in die Modellierung einzubeziehen, bleibt aber stets erhalten. Im Ergebnis erhält man, nachdem man eine Reihe von weiteren Nährungen durchgeführt und schließlich unplausible Rechenresultate eliminiert hat, eine geometrische Struktur, deren Abstände und Winkel zusammen ein energetisches Minimum bilden, eine energetische Struktur der Elektronen und ein klassisches Potentialfeld für mögliche Wechselwirkungen mit der Umgebung. Für Stoffe wie Wasser sind die vorausgesetzten Annahmen allerdings zu einfach, um für die meisten Fragestellungen brauchbare Ergebnisse zu erhalten, denn das chemische Modellkonzept von Molekülen greift hier zu kurz. Für andere Stoffe, insbesondere aus dem Bereich der Organischen Chemie, sind sie ausreichend. Die Kunst der quantenchemischen Modellbildung besteht nicht zuletzt auch darin, sie anhand von Vorwissen und Analogiebildungen auf bestimmte Stoffgruppen zu optimieren. Auch deswegen wäre es ganz abwegig, die Anwendung der Quantenmechanik auf die Chemie nach dem Vorbild der Pendelberechnung durch die klassische Mechanik zu betrachten.
3.2 Methodologischer Pluralismus der Modelle Die quantenchemische Modellbildung ist ein Musterfall gelungener Interdisziplinarität, sowohl historisch als auch systematisch, weil hierbei von verschiedenen Disziplinen konzeptionelle Ressourcen zusammengeführt werden. Das trifft auch auf die meisten Modellansätze der physikalischen Chemie zu, von kinetischen Theorien wie der Eyring-Theor ie, welche die chemische Reaktionsdynamik aus einer statistisch-mechanischen Modellbildung der Übergangszustände entwickelt, bis zu Absorptions- und Zustandsgleichungen stofflicher Mischungen. 242
Philosophie der Chemie
Deswegen erscheint es unangemessen, die interdisziplinäre Modellbildung durch Schemata der Theor ienreduktion zu beschreiben (Hettema 2012, dazu kritisch Lombardi 2013; 2014). In der Chemie, wie in allen Experimentalwissenschaften, sind Modelle nicht Interpretationen oder Anwendungen einer Theorie, wie es reduktionistische Schemata voraussetzen, sondern theoretische Konstruktionen, die verschiedenen epistemischen Zwecken dienen können, wie Vorhersage, Erklärung, Klassifikation und – gleichsam als Steigerung des Vorhersagepotentials – der Anleitung neuer Synthesen. Die Pluralität der Zwecke bedingt eine methodologische Pluralität und theoretische Arbeitsteilung. Während die klassische chemische Strukturtheor ie auf Klassifikation, Synthese und Vorhersage chemischer Eigenschaften zugeschnitten ist, liefern quantenchemische Modellbildungen in erster Linie Vorhersagen und Erklärungen elektromagnetischer Eigenschaften. Doch selbst innerhalb enger gefasster Themen, etwa bei thermodynamischen Zustandsgleichungen, quantenchemischen Ansätzen, Säure-Base-Konzepten oder molekularen Darstellungsformen, gibt es eine Pluralität von Modellen, die auf den jeweiligen Gegenstandsbereich und auf spezifische Fragestellungen optimiert sind (Schummer 1998b). Die Güte eines Modells besteht nicht in seiner Universalität, sondern in den klar umrissenen Grenzen seiner Anwendbarkeit, die sowohl empirisch als auch theoretisch aus den vorgenommenen Annahmen abgeschätzt werden kann. Modelle können modifiziert, eingeschränkt oder erweitert werden, aber nicht grundsätzlich falsifiziert oder verifiziert. Denn im Unterschied zu den theoretischen Wissenschaften, wie der mathematischen Physik, hat sich in den Experimentalwissenschaften ein instrumentalistisches Verständnis von Theor ien/Modellen etabliert (Schummer 2014a). Theor ien sind hier nicht der Zweck, sondern die Instrumente der eigentlichen Forschung, die nicht im Testen von Theor ien, sondern in der Verfolgung epistemischer Zwecke besteht. Niemand verwirft ein Instrument, weil es sich in einem Fall als untauglich erweist, stattdessen wird es entweder angepasst oder sein Anwendungsbereich schärfer eingegrenzt. Der methodologische Pluralismus der Chemie ist sowohl historisch ausführlich belegt als auch methodologisch und epistemologisch gerechtfertigt (Chang 2012; Schummer 2015). Er lässt sich aus der Pluralität der Zwecke und aus prinzipiellen Erkenntnisgrenzen der Chemie als notwendig begründen. Demgegenüber fordert der methodologische Monismus, wie er in der mathematischen Physik und deren Philosophie verbreitet ist, es könne letztendlich nur einen einzigen wahren theoretischen Ansatz geben, eine »Theory of Everything«, so dass alle konkurrierenden Ansätze im Forschungsprozess eliminiert werden müssten. Im Vergleich dazu weist der methodologische Pluralismus eine Reihe von Vorteilen auf, weil er flexibler ist für neue Fragestellungen, kreativer in der Entwicklung interdisziplinärer Konzepte, rationaler im Umgang mit theoretischen Ressourcen und sparsamer in den metaphysischen Voraussetzungen. Als allgemeine philosophische Position kann der methodologischer Pluralismus sowohl die disziplinäre Diversifizierung 243
III. Die Philosophie der Natur- und Biowissenschaften
der Wissenschaft seit Jahrhunderten als auch Formen der Interdisziplinarität begreifen. Der methodologische Monismus muss hingegen die faktische methodologische Vielfalt der Wissenschaft insgesamt sowie innerhalb der einzelnen Disziplinen als irrationales Unterfangen betrachten und sich mit zweifelhaftem Geltungsanspruch normativ dagegen wenden – als Reduktionismus beziehungsweise in seiner üblichen Form als Physikalismus. Die Frage, ob die Chemie auf die Physik reduzierbar ist, besitzt daher nur aus der monistischen Perspektive eine ausgezeichnete philosophische Bedeutung. Aus der pluralistischen Perspektive rücken stattdessen die Besonderheiten interdisziplinärer Forschung in den Vordergrund, wobei eine hierarchische Theo rienreduktion im Einzelfall zwar denkbar bleibt, aber nur eine der vielen möglichen Varianten ist.
4 Beispiele Praktischer Chemiephilosophie Die an der mathematischen Physik orientierte analytische Wissenschaftsphilosophie hat sich ihre philosophischen Themen traditionell nach den Besonderheiten ihrer Lieblingsdisziplin ausgewählt und sich insbesondere mit mathematischer Logik, Begründungs- und Rechtfertigungsmethodologie sowie Ontologie beschäftigt. Diese zur theoretischen Philosophie gehörenden Teildisziplinen begreifen Wissenschaft als reine kognitive Struktur und abstrahieren, ähnlich wie die Tradition des Deutschen Idealismus (vgl. Schummer 2014c, Kap. 12), von all ihren gesellschaftlichen Kontexten, Handlungs-, Wert- und Zweckbezügen, die zur praktischen Philosophie gerechnet werden. Eine solche Abstraktion und Selbstbeschränkung der Wissenschaftsphilosophie lässt sich jedoch weder systematisch rechtfertigen, noch erscheint sie sinnvoll für Disziplinen wie die Chemie, in denen experimentelle Handlungen konstitutiv für den Forschungsprozess sind und die zudem eine ganz spezifische gesellschaftliche Einbettung aufweisen. Nur weil beispielsweise die Mathematik keine besonderen handlungstheoretischen und ethischen Fragen aufwirft, kann das Spektrum wissenschaftsphilosophischer Themen für andere Disziplinen nicht nach dem Vorbild der Mathematikphilosophie beschnitten werden. Eine zeitgemäße und sachbezogene Wissenschaftsphilosophie im eigentlichen Sinne muss auch Bereiche der praktischen Philosophie umfassen. In der Biologiephilosophie ist dies inzwischen längst selbstverständlich, wie ein Blick in Standardwerke und Überblicksdarstellungen zeigt (z. B. Hull/Ruse 1998). Demgegenüber ist der Einfluss der Physikphilosophie insbesondere auf die angelsächsische Chemiephilosophie bis heute noch so stark, dass praktische Fragestellungen dort marginalisiert sind (vgl. z. B. die Sammelbände Hendry, Needham/Woody 2012; Scerri/McIntyre 2015). Gerade weil die Chemie nicht einfach das Sosein ihrer Gegenstände betrachtet und vermisst, sondern ihre Veränderungspotentiale beziehungsweise ihre chemischen Reaktionsmöglichkeiten studiert, ist sie im mehrfachen Sinne praktisch 244
Philosophie der Chemie
relevant. Bereits die Laborhandlungen verändern die materielle Welt auf sub stanzieller Ebene, indem neue Substanzen geschaffen werden, die es zuvor nicht gab. Das ist keineswegs ein Randphänomen chemischer Forschung. Vielmehr muss die chemische Erschließung des Reichs möglicher Stoffe nach, wie bereits eingangs erwähnt, über 100 Millionen solcher Synthesen in den vergangenen zwei Jahrhunderten als die zentrale Forschungshandlung der Chemie begriffen werden (Schummer 1997b). Aus methodologischer Perspektive wirft dies die Frage nach der Unterscheidung zwischen Wissenschaft und Technik auf, die traditionell unzureichend gefasst wurde, weil sie Veränderungswissen pauschal der Technik zuschreibt (Schummer 1997c). Aus ethischer Perspektive wird die Forschungshandlung selber relevant, weil sie im wörtlichen Sinne weltverändernd ist und zudem Gefahrenpotentiale für alle Beteiligten der Labortätigkeit birgt (Schummer 1996b; 2001). Weil das Wissen über Stoffveränderungen und -synthesen überdies oft technisch bedeutsam ist und industriell genutzt wird, übernehmen Chemiker auch eine besondere Verantwortung für die Ausrichtung und die Folgen ihrer Forschungstätigkeit (Schummer 2005). Daher gehören auch ethische Fragen zum Kern der Chemiephilosophie (Schummer 2001/2002; Børsen/Schummer 2016). Die außerordentliche praktische Relevanz des Wissens über Stoffveränderungsmöglichkeiten hat der Chemie und ihren handwerklich-technischen Vorläufern schon immer und in allen Hochkulturen eine besondere gesellschaftliche Aufmerksamkeit verliehen. In der jüdisch-christlichen Kultur wurde es beispielsweise mit dem göttlichen Schöpfungswissen identifiziert; jegliche stoffliche Umwandlung durch Menschen galt bis ins 18. Jahrhundert als verbotene Handlungen gegen den Willen des Schöpfergottes. Die Spannung lebt bis heute weiter in einem vormodernen Naturbegriff, der nichtsdestotrotz gesellschaftlich weit verbreitet ist und alles Chemische als unnatürlich begreift und ablehnt (Schummer 2003b). Diese und andere philosophiehistorische Besonderheiten, einschließlich des kaum zu unterschätzenden Einflusses der Alchemie, prägen bis heute das öffentliche Bild der Chemie, das moralische und wissenschaftspolitische Haltungen gegenüber der Wissenschaft insgesamt beeinflusst. Wissenschaftsphilosophie, die sich nicht auf die rationale Rekonstruktion kognitiver Strukturen beschränkt, muss auch solche gesellschaftlichen und kulturellen Besonderheiten einer Disziplin aus einem historischen Kontext heraus zu verstehen suchen (Schummer et al. 2007). Die Disziplinen, nach denen das Fachwissen noch weitgehend bis heute an Schulen und Universitäten getrennt gelehrt wird, sind überwiegend Konstruktio nen des 19. Jahrhunderts. Vorher war die einseitige disziplinäre Spezialisierung unüblich, heute ist sie wissenschaftspolitisch immer weniger opportun zugunsten interdisziplinärer Forschung. Die Chemie ist in ihrer Forschung so sehr vernetzt, dass gegenwärtig etwa ein Drittel aller Publikationen in einer reinen Chemiezeitschrift auch Autoren anderer Disziplinen aufweist. Wissenschaftsphilosophie, die sich nicht ausschließlich auf die Vergangenheit beziehen oder disziplinäre Kategorien künstlich konservieren will, muss die Dynamik der Forschung berücksich245
III. Die Philosophie der Natur- und Biowissenschaften
tigen und sich neuen Entwicklungen öffnen. Der im letzten Abschnitt erwähnte methodologische Pluralismus bietet die Möglichkeit dazu, nicht nur Formen der Interdisziplinarität zu untersuchen, sondern auch aktuelle Forschungstrends philosophisch zu begleiten. Weil Chemiker an vielen jüngeren und aktuellen Entwicklungen maßgeblich beteiligt sind, von der Gentechnik über die Materialwissenschaft und Nanotechnologie bis zur Synthetischen Biologie, ergeben sich hierbei für Chemiephilosophen zahlreiche weitere Betätigungsfelder im Sinne sowohl theoretischer als auch praktischer Philosophie, die überdies gesellschaftlich nachgefragt werden (Baird et al. 2004; Nordmann et al. 2006; Schummer/Baird 2006; Schummer 2009; 2011; Bensaude-Vincent/Benoit-Browaeys 2011). Weil die Chemiephilosophie sich mit Ausnahme einzelner Vorläufer international erst in den 1990er Jahren formiert hat, ist sie weniger verbunden mit den älteren Traditionen der physikorientierten Wissenschaftstheor ie und offener für neuere Fragen der Geschichte, Soziologie und Didaktik der Wissenschaft sowie des Public Understanding of Science. Und sie wirft neue Fragestellungen auf, wie etwa die Rolle von ästhetischen Werten und Visualisierungen in der Forschungspraxis, die in der Chemie traditionell eine herausragende Rolle spielten (Spector/ Schummer 2001; Schummer 2014b). Die internationale Formierung, die in den 1990er Jahren in dieser Form erstmals über das Internet möglich wurde, zeigt aber auch die kulturelle Verschiedenheit wissenschaftsphilosophischer Zugänge. Man wird daher von einer zeitgemäßen Chemiephilosophie kein monolithisches Gedankengebäude erwarten dürfen, sondern eine Pluralität von Ansätzen, die wohl nicht zufällig den methodologischen Pluralismus der Chemie auf philosophischer Ebene widerspiegelt und dadurch aufgeschlossen ist für neue Fragestellungen von gesellschaftlicher Relevanz. Mit Ausnahme der mathematischen Physik und einigen rein theoretischen Teildisziplinen sind heute fast alle Naturwissenschaften Experimentalwissenschaften, die die alten erkenntnistheoretischen Ideale apriorischer Wissensgewinnung schon lange verabschiedet haben, im Experimentieren weit mehr als eine Testinstanz von Theor ien sehen und ihre Forschung eingebettet in einen Komplex aus epistemischen und nichtepistemischen Zwecken betreiben. Als prototypische Experimentalwissenschaft von unvergleichbarer Größe und interdisziplinärer Vernetzung nimmt die Chemie in der heutigen Wissenschaftslandschaft eine herausragende Rolle ein. Ein philosophisches Verständnis dieser Disziplin verspricht daher in besonderer Weise, die traditionell höchst einseitigen Vorstellungen von Wissenschaft nach dem Modell der mathematischen Physik zu korrigieren. Deswegen besitzt die Chemiephilosophie auch das weiterreichende Potential, die traditionelle Wissenschaftsphilosophie aus ihrer selbstgeschaffenen gesellschaftlichen und interdisziplinären Isolation herauszuholen, in die sie sich durch Ausblendung der Zwecke sowohl wissenschaftlicher wie wissenschaftsphilosophischer Forschung manövriert hat (Schummer 2014d, Kap. 11). Denn wie jede menschliche Handlung sind auch Wissenschaft und Wissenschaftsphilosophie nur über ihre selbstgesetzten Zwecke verständlich, und dafür muss die theo246
Philosophie der Chemie
retische Philosophie mit der praktischen verknüpft bleiben. Von der zukünftigen Chemiephilosophie wäre daher zu erwarten, dass sie ihre Erträge auch fruchtbar aufbereitet, um zu einem besseren Verständnis der Wissenschaft insgesamt beizutragen, das in vielen gesellschaftlichen Bereichen – von der Bildung über den Wissenschaftsjournalismus bis zur Wissenschaftspolitik – nachgefragt wird.
Literatur Empfehlungen: Einführende Überblicksdarstellungen zur Philosophie der Chemie sind eher rar, oft einseitig und alle auf Englisch: van Brakel/Vermeeren 1981, van Brakel 1996; 2000, Kap. 1; Ramsay 1998; Brock 2002; Schummer 2003a; 2006; 2010; Bensaude-Vincent 2009 und Hendry/Needham/Woody 2012. Einen Überblick über aktuelle Themen erhält man über die Publikationen der beiden Zeitschriften Hyle: International Journal for Philosophy of Chemistry (www. hyle.org) und Foundations of Chemistry (http://link.springer.com/journal/10698) sowie über verschiedene thematisch allgemein gehaltene Sammelbände und Sonderhefte, z. B. Baird/Scerri/MacIntyre 2006; Schummer 2014d; Scerri/McIntyre 2015. Eine facettenreiche Darstellung des Stoffbegriffs in der Chemie liefern Ruthenberg/ van Brakel 2008. Die Zeitschrift Hyle hat darüber hinaus eine Reihe von thematischen Sonderheften publiziert, u. a. zu Modellen, Ethik, Ästhetik, Nano- und Bionanotechnologie, das öffentliche Bild und das Mathematikverhältnis der Chemie, die alle frei zugänglich sind. Bestandsaufnahmen der älteren Literatur zur Philosophie der Chemie liefern die Bibliographien von van Brakel/Vermeeren 1981 und Dittus/Mayer 1992. Eine durchsuchbare Online-Bibliographie zur Geschichte und Philosophie der Chemie findet sich unter http://www.hyle.org/service/biblio.htm.
Baird, Davis, Alfred Nordmann und Joachim Schummer (Hg.) (2004). Discovering the Nanoscale. Amsterdam: IOS Press. Baird, Davis, Eric Scerri und Lee MacIntyre (Hg.) (2006). Philosophy of Chemistry: Synthesis of a New Discipline. Dordrecht: Springer Bensaude-Vincent, Bernadette (2009). Philosophy of Chemistry. In: Anastasios Brenner und Jean Gayon (Hg.). French Studies in the Philosophy of Science, Dordrecht: Springer, 165 – 185. – und Dorothée Benoit-Browaeys (2011). Fabriquer la vie: Où va la biologie de synthèse? Paris: Seuil. – und Jonathan Simon (2008). Chemistry: The Impure Science. London: Imperial College Press. Bergmann, Gustav (1972). Sinn und Unsinn des methodologischen Operationalismus. In: Ernst Topitsch (Hg.). Logik der Sozialwissenschaften, Köln: Kiepenheuer & Witsch, 104 – 112. Børsen, Tom und Joachim Schummer (Hg.) (2016). Ethical Case Studies of Che247
III. Die Philosophie der Natur- und Biowissenschaften
mistry. Sonderband von Hyle: International Journal for Philosophy of Chemistry 22, 1 – 172. Brock, William (2002). The Philosophy of Chemistry. Ambix 49, 67 – 71. Carnap, Rudolf (1953). Testability and Meaning. In: Herbert Feigl und May Brodbeck (Hg.). Readings in the Philosophy of Science. New York: Appleton-Century-Crofts, 47 – 92. Chang, Hasok (2012). Is Water H O? Evidence, Pluralism and Realism. Dordrecht: Springer. Dirac, Paul A. M. (1929). Quantum mechanics of many-electron systems. Proceedings of the Royal Society of London, A123, 714 – 733. Dittus Sabrina und Matthias Mayer (1992). Bibliographie Chemie und Geisteswissenschaften. In: Jürgen Mittelstraß und Günter Stock (Hg.). Chemie und Geisteswissenschaften. Berlin: Akademie Verlag, 218 – 333. Düring, Ingemar (1944). Aristotle’s Chemical Treatise: Meteorologica, Book IV, Göteborg (Nachdruck: New York/London: Garland, 1980). – (1966). Aristoteles: Darstellung und Interpretation seines Denkens, Heidelberg: Winter, 2. Aufl. 2005. Earley, Joseph E. (1981). Self-Organization and Agency: In Chemistry and in Process Philosophy. Process Studies 11, 242 – 258. – (1998). Modes of Chemical Becoming. Hyle: International Journal for Philosophy of Chemistry 4(1), 105 – 115. Hartmann, Hermann (1965). Die Bedeutung quantenmechanischer Modelle für die Chemie. In: Sitzungsberichte der Johann Wolfgang Goethe-Universität, Wiesbaden: F. Steiner, 151 – 168. Hendry, Robin, Paul Needham und Andrea Woody (Hg.) (2012). Philosophy of Chemistry (Bd. 6 des Handbook of the Philosophy of Science), Amsterdam et al.: Elsevier. Hettema, Hinne (2012). Reducing Chemistry to Physics: Limits, Models, Consequences. Groningen: Rijksuniversiteit Groningen (Dissertation). Hull, David und Michael Ruse (1998). The Philosophy of Biology, Oxford: Oxford University Press. Laitko, Hubert (1996). Chemie und Philosophie: Anmerkungen zur Entwicklung des Gebietes in der Geschichte der DDR . In: Nikos Psarros, Klaus Ruthenberg und Joachim Schummer (Hg.). Philosophie der Chemie: Bestandsaufnahme und Ausblick. Würzburg: Königshausen & Neumann, 37 – 58. Lamza, Lukasz (2014). Six Phases of Cosmic Chemistry. Hyle: International Journal for Philosophy of Chemistry 20, 165 – 192. Lewowicz, Lucía, und Olimpia Lombardi (2013). Stuff versus individuals. Foundations of Chemistry 15, 65 – 77. Lombardi, Olimpia (2013). Book Review of Hinne Hettema: Reducing Chemistry to Physics. Hyle: International Journal for Philosophy of Chemistry 19(1), 135 – 137. – (2014). Linking chemistry with physics: arguments and counterarguments. Foundations of Chemistry 16, 181 – 192. Nordmann, Alfred, Joachim Schummer und Astrid Schwarz (Hg.) (2006). Nanotech248
Philosophie der Chemie
nologien im Kontext: Philosophische, ethische und gesellschaftliche Perspektiven. Berlin: Akademische Verlagsgesellschaft. Oppenheim, Paul, und Hilary Putnam (1958). Unity of Science as a Working Hypo thesis. Minnesota Studies in the Philosophy of Science 2, 3 – 36. Pelletier, Francis Jeffrey (Hg.) (1979). Mass Terms: Some Philosophical Problems. Dordrecht: Kluwer. Primas, Hans (1981). Chemistry, Quantum Mechanics and Reductionism. Perspectives in Theoretical Chemistry. Berlin-Heidelberg-New York: Springer. Psarros, Nikos (1999). Die Chemie und ihre Methoden: Eine philosophische Betrachtung. Weinheim: Wiley-VCH. Quine, Willard Van Orman (1960). Word and Object, Cambridge/ MA: MIT Press. Ramsey, Jeffry L. (1998). Recent Work in the History and Philosophy of Chemistry. Perspectives on Science 6, 409 – 4 27. Rosenberg, Jay F. (1993): Das Schiff des Theseus. Eine Fallstudie, in: Ders.: Philosophieren – Ein Handbuch für Anfänger, Klostermann: Frankfurt, S. 64 – 77. Ruthenberg, Klaus, und Jaap van Brakel (Hg.) (2008). Stuff: The Nature of Chemical Substances. Würzburg: Königshausen & Neumann. Scerri, Eric R. (1991). The Electronic Configuration Model, Quantum Mechanics and Reduction. The British Journal for the Philosophy of Science 42, 309 – 325. – und Lee McIntyre (Hg.) (2015). Philosophy of Chemistry: Grow of New Discipline. Dordrecht: Springer. Schummer, Joachim (1994). Die Rolle des Experiments in der Chemie. In: Peter Janich (Hg.). Philosophische Perspektiven der Chemie. Mannheim: Bibliographisches Institut, 27 – 51. – (1995). Die philosophische Entstofflichung der Welt. chimica didactica 21(1), 5 – 19. – (1996a). Realismus und Chemie. Philosophische Untersuchungen der Wissenschaft von den Stoffen. Würzburg: Königshausen & Neumann. – (1996b). Die stoffliche Weltveränderung der Chemie: Philosophische Herausforderungen. In: Christoph Hubig und Hans Poser (Hg.). Cognitio humana - Dynamik des Wissens und der Werte. XVII . Deutscher Kongreß für Philosophie, Leipzig 1996, Workshop-Beiträge, Bd. 1, Leipzig, 429 – 436. – (1997a). Towards a Philosophy of Chemistry. Journal for General Philosophy of Science 28, 307 – 336. – (1997b). Scientometric Studies on Chemistry I: The Exponential Growth of Chemical Substances, 1800 – 1995. Scientometrics 39, 107 – 123. – (1997c). Challenging Standard Distinctions between Science and Technology: The Case of Preparative Chemistry. Hyle: International Journal for Philosophy of Chemistry 3, 81 – 94. – (1998a). The Chemical Core of Chemistry, I: A Conceptual Approach. Hyle: International Journal for Philosophy of Chemistry 4, 129 – 162. – (1998b). Physical Chemistry: Neither Fish nor Fowl?. In: Peter Janich und Nikos Psarros (Hg.). The Autonomy of Chemistry. Würzburg: Königshausen & Neumann, 135 – 148. 249
III. Die Philosophie der Natur- und Biowissenschaften
– (2001a). Ethics of Chemical Synthesis. Hyle: International Journal for Philosophy of Chemistry 7, 103 – 124. – (Hg.) (2001 – 2 002). Ethics of Chemistry. Sonderband von Hyle: International Journal for Philosophy of Chemistry, 7(2), 83 – 167; 8(1), 3 – 48. – (2002). The Impact of Instrumentation on Chemical Species Identity: From Chemical Substances to Molecular Species. In: Peter Morris (Hg.). From Classical to Modern Chemistry: The Instrumental Revolution, Cambridge: Royal Society of Chemistry, 188 – 211. – (2003a) The Philosophy of Chemistry. Endeavour 27, 37 – 41. – (2003b). The Notion of Nature in Chemistry. Studies in History and Philosophy of Science 34, 705 – 736. – (2004a). Substances versus Reactions (Editorial). Hyle: International Journal for Philosophy of Chemistry 10, 3 – 4 . – (2004b). Why do Chemists Perform Experiments?. In: Danuta Sobczynska, Pawel Zeidler und Ewa Zielonacka-Lis (Hg.). Chemistry in the Philosophical Melting Pot, Frankfurt/M.: Peter Lang, 395 – 410. – (2005). Forschung für die Armen versus Forschung für die Reichen: Verteilungsgerechtigkeit als moralisches Kriterium zur Bewertung der angewandten Chemie. In: Clemens Sedmak (Hg.). Option für die Armen: Die Entmarginalisierung des Armutsbegriffs in den Wissenschaften, Freiburg: Herder, 605 – 626. – (2006). The Philosophy of Chemistry: From Infancy Towards Maturity. In: Davis Baird, Eric Scerri und Lee MacIntyre (Hg.). Philosophy of Chemistry: Synthesis of a New Discipline (Boston Studies in the Philosophy of Science, Vol. 242). Dordrecht: Springer, 19 – 39. – (2008). Matter versus Form, and Beyond. In: Klaus Ruthenberg und Jaap van Brakel (Hg.). Stuff: The Nature of Chemical Substances. Würzburg: Königshausen & Neumann, 3 – 18. – (2009). Nanotechnologie: Spiele mit Grenzen. Frankfurt: Suhrkamp. – (2010). Philosophy of Chemistry. In: Fritz Allhoff (Hg.), Philosophies of the Sciences: A Guide. Blackwell-Wiley, 163 – 183. – (2011). Das Gotteshandwerk: Die künstliche Herstellung von Leben im Labor. Berlin: Suhrkamp. – (2014a). The Preference of Models over Laws of Nature in Chemistry. European Review 22(S1), 87–101. – (2014b). Aesthetic Values in Chemistry. Rendiconti Lincei - Scienze Fisiche e Naturali 25, 317 – 325. – (2014c). Wozu Wissenschaft? Neun Antworten auf eine alte Frage. Berlin: Kadmos. – (Hg.) (2014d). General Lessons from Philosophy of Chemistry. Sonderheft von Hyle: International Journal for Philosophy of Chemistry 20, 1 – 192. – (2015). The Methodological Pluralism of Chemistry and Its Philosophical Implications. In: Eric R. Scerri und Lee McIntyre (Hg.). Philosophy of Chemistry: Grow of New Discipline. Dordrecht: Springer, 57 – 72. 250
Philosophie der Chemie
–, Bernadette Bensaude-Vincent und Brigitte Van Tiggelen (Hg.) (2007). The Public Image of Chemistry. Singapur: World Scientific. – und Davis Baird (Hg.) (2006). Nanotechnology Challenges: Implications for Philosophy, Ethics and Society. Singapur: World Scientific. Spector, Tami, und Joachim Schummer (Hg.) (2003). Aesthetics and Visualization in Chemistry. Sonderband von Hyle: International Journal for Philosophy of Chemistry, 9, 3 – 243. Stein, Ross L. (2004). Towards a Process Philosophy of Chemistry. Hyle: International Journal for Philosophy of Chemistry 10, 5 – 22. van Brakel, Jaap, und H. Vermeeren (1981). On the Philosophy of Chemistry. Philosophy Research Archives 7, 501 – 552. van Brakel, Jaap (1986). The Chemistry of Substances and the Philosophy of Mass Terms. Synthese 69, 291 – 324. – (1991). Chemistry. In: Hans Burkhardt und Barry Smith (Hg.). Handbook of Metaphysics and Ontology, Bd. I, München: Philosophia, 146 – 147. – (1996). Über die Vernachlässigung der Chemie. In: Nikos Psarros, Klaus Ruthenberg und Joachim Schummer (Hg.). Philosophie der Chemie: Bestandsaufnahme und Ausblick. Würzburg: Königshausen & Neumann, 13 – 26. – (1997). Chemistry as the Science of the Transformation of Substances. Synthese 111, 253 – 282. – (2000). Philosophy of Chemistry: Between the Manifest and the Scientific Image. Leuven: Leuven University Press. – (2014). Philosophy of Science and Philosophy of Chemistry. Hyle: International Journal for Philosophy of Chemistry 20, 11 – 57. Vögtle, Friedrich (1989). Reizvolle Moleküle der Organischen Chemie. Stuttgart: Teubner. Weininger, Stephen J. (2000). Butlerov’s Vision. The Timeless, the Transient, and the Representation of Chemical Structure. In: Nalini Bhushan und Stuart Rosenfeld (Hg.). Of Minds and Molecules. New York: Oxford University Press, 143 – 161. Woolley, R. Guy (1978). Must a Molecule Have a Shape? Journal of the American Chemical Society 100, 1073 – 1078.
251
3. Philosophie der Biologie Thomas Reydon
1 Einleitung Die Fragen, die in der Philosophie der Biologie erörtert werden, entspringen im Wesentlichen aus zwei unterschiedlichen Quellen. Erstens werden traditionelle Fragen der allgemeinen Wissenschaftsphilosophie, z. B. nach der Struktur wissenschaftlicher Erklärungen, nach der Möglichkeit einer realistischen Auffassung theoretischer Entitäten oder danach, was Naturgesetze eigentlich sind, anhand konkreter Beispiele aus der Biologie untersucht. Beispiele sind die bereits seit langem anhaltende Diskussion über die Frage, ob die Biologie ihre eigenen Naturgesetze hat oder lediglich die Gesetze der Physik und der Chemie im Bereich des Lebendigen anwendet, sowie die damit verknüpfte Frage, ob sich biologische Erklärungen vollständig zu physikalischen und chemischen Erklärungen reduzieren ließen.1 Zwar beziehen sich solche Diskussionen unmittelbar auf Charakteristika der Biologie, jedoch sind sie zuallererst durch allgemeine wissenschaftsphilosophische Fragen motiviert. Zweitens werden viele Fragen in der Philosophie der Biologie durch besondere Aspekte der Biologie aufgeworfen. Bei diesen Aspekten geht es u. a. um die Klärung fachspezifischer Begriffe, um Fragen nach der Struktur und Interpretation spezifisch biologischer Theor ien (insbesondere der Evolutionstheorie), um methodologische Spezifika der Biologie als Wissenschaft (wie z. B. für die Biologie charakteristische Forschungsmethoden, Paradigmen oder Erklärungsweisen) sowie um Fragen, die sich auf biologische Forschung im gesellschaftlichen Kontext beziehen.2 In diesem Kapitel werden Fragen aus dieser zweiten Kategorie im Fokus stehen. Zunächst soll eine kurze Charakterisierung der Biologie als Bezugswissenschaft der Philosophie der Biologie vorgenommen werden (Abschnitt 2). Diese Charakterisierung soll zeigen, dass die Biologie und, ihrer Bezugswissenschaft entsprechend, die Philosophie der Biologie vergleichsweise heterogene Arbeits Siehe dazu z. B. die Arbeiten des Philosophen Alexander Rosenberg, eines Verfechters der These, dass sich die Biologie zu fundamentaleren Naturwissenschaften reduzieren ließe (Rosenberg 1994; 2006). 2 Beispiele des letzteren Themenbereichs sind Fragen zu den evolutionären Hintergründen menschlichen Verhaltens (z. B. Kooperation und Altruismus: Kitcher 1993; Sober/Wilson 1998), zum wissenschaftlichen Status des intelligent-design-Ansatzes sowie zur Legitimität von religiös motivierten Kritiken an der Evolutionstheor ie (z. B. Dembski/ Ruse 2004; Kitcher 2007). 1
253
III. Die Philosophie der Natur- und Biowissenschaften
bereiche sind. In Abschnitt 3 werden dann die historischen Ursprünge der Philo sophie der Biologie sowie die Entwicklung des Faches näher betrachtet, um einige der Charakteristika des Faches, wie es in seiner heutigen Form existiert, besser verständlich zu machen. Dieser Abschnitt soll deutlich machen, dass die Philosophie der Biologie ihrem Wesen nach ein interdisziplinärer Arbeitsbereich ist, der tiefe Wurzeln in der seit der Antike bestehenden naturphilosophischen Beschäftigung mit dem Lebendigen bzw. dem Organischen, in der allgemeinen Wissenschaftsphilosophie sowie in der theoretischen Biologie des 19. und frühen 20. Jahrhunderts hat. Der Charakter des Faches ist dementsprechend zu einem großen Teil vor dem Hintergrund dieser Verwurzelung in drei z. T. sehr unterschiedliche Fachgebiete zu verstehen. Nach diesen allgemeinen Charakterisierungen der Philosophie der Biologie werden in Abschnitt 4 einige aktuelle epistemologische und metaphysische Pro bleme zu den biologischen Wissenschaften vorgestellt, um einen Eindruck von der Art der Fragestellungen und der Vorgehensweisen im Fachgebiet zu vermitteln. Als interdisziplinäres Forschungsfeld ist (wie zuvor in den Abschnitten 2 und 3 deutlich geworden sein sollte) die Philosophie der Biologie zu heterogen, um in diesem Kapitel in seiner vollständigen thematischen Breite dargestellt werden zu können. Daher sollen als Einführung in die gegenwärtige epistemologische und metaphysische Forschung zu den biologischen Wissenschaften nur einige wenige Beispiele reichen. Abschließend werde ich einige neuere Entwicklungen in der Philosophie der Biologie besprechen (Abschnitt 5) und Empfehlungen zur weiterführenden Lektüre geben (Abschnitt 6).
2 Die Biologie als Bezugswissenschaft philosophischer Forschung Weil viele der Fragestellungen, die in der Philosophie der Biologie erörtert werden, aus inhaltlichen und methodologischen Aspekten der Biologie hervorgehen, stellt sich die Frage, welche Inhalte und Methoden überhaupt für die Biologie spezifisch sind – d. h. welche Fragen, Theor ien, Forschungsmethoden usw. die Biologie ausmachen und sie von den anderen Wissenschaften unterscheiden. Dieser Frage soll in diesem Abschnitt nachgegangen werden, um die thematische Reichweite der Philosophie der Biologie abzustecken. Die Biologie wird oft einfach als die Wissenschaft des Lebendigen bzw. des Lebens charakterisiert. Eine solche Charakterisierung ist zwar nicht ganz falsch, aber sie ist auch in zumindest zweifacher Hinsicht problematisch. Erstens wäre es inadäquat, die Biologie in dieser Weise zu charakterisieren, weil die Biologie im strikten Sinne gar nicht den gesamten Bereich des Lebendigen betrachtet. Bestimmte, z. T. herausragende Aspekte lebendiger Systeme werden nicht primär durch die Biologie oder ihre Teilbereiche erforscht, sondern durch Wissenschaften, die üblicherweise nicht unter die Biologie subsumiert bzw. den biologischen Wissenschaften zugeordnet werden. Die Kognitionswissenschaften und 254
Philosophie der Biologie
die Psychologie z. B. erforschen das Phänomen des Bewusstseins – ein Phänomen, das (soweit wir wissen) ausschließlich in lebendigen Systemen vorkommt und für viele Lebewesen ein herausragendes Merkmal darstellt. Weder die Kognitionswissenschaften noch die Psychologie werden jedoch als Teilbereich der Biologie im engeren Sinne angesehen, sodass philosophische Fragen zur Erforschung des Bewusstseins nicht in den Bereich der Philosophie der Biologie fallen. Sowohl für die Psychologie als auch für die Kognitionswissenschaften existieren eigene Bereiche der Wissenschaftsphilosophie (↑ Philosophie der Kognitionswissenschaft, ↑ Philosophie der Psychologie). Auch die Medizin bzw. die biomedizinischen Wissenschaften, die Biochemie, die organische Chemie, die Biophysik und die Soziologie erforschen bestimmte Aspekte lebendiger Systeme, ohne dass sie jedoch der Biologie hinzugerechnet würden. Die organische Chemie ist ein Teilbereich der Chemie und die Soziologie macht einen eigenständigen Wissenschaftsbereich aus, sodass die betreffenden philosophischen Fragen in eigenen Bereichen der Wissenschaftsphilosophie, der Philosophie der Chemie bzw. der Sozialwissenschaften, erörtert werden.3 Auch die Medizin und die biomedizinischen Wissenschaften sind mit eigenen Bereichen der Wissenschaftsphilosophie verbunden (↑ Philosophie der biomedizinischen Wissenschaften).4 Fragen zu Krankheit und Gesundheit gehören z. B. in die Bereiche der Human- und Tiermedizin und spielen in der Biologie keine besondere Rolle – wenn sie in der Biologie angesprochen werden, steht typischerweise der Begriff der Funktion bzw. Fehlfunktion von organismischen Eigenschaften im Fokus und dann geht es nicht um Krankheit oder Gesundheit im medizinischen Sinne.5 Dementsprechend werden philosophische Fragen zu Krankheit und Gesundheit nicht in der Philosophie der Biologie, sondern primär in der Philosophie der Medizin verhandelt. Zweitens ist eine Charakterisierung der Biologie als Wissenschaft des Lebens bzw. des Lebendigen problematisch, weil die im späten 18. bzw. frühen 19. Jh. eingeführte Bezeichnung ›Biologie‹ als die Zusammensetzung der griechischen Wörter für ›Leben‹ und ›Erklärung‹ bereits analytisch beinhaltet, dass die For-
Bereiche wie die Biochemie oder die Biophysik sind vielmehr als Brückendisziplinen zwischen einerseits der Chemie bzw. der Physik und andererseits der Biologie zu sehen und werden üblicherweise nicht eindeutig einer der beiden Seiten hinzugerechnet. Für sie existieren dementsprechend keine eigenen Bereiche der Wissenschaftsphilosophie. 4 Für einen Überblick über die Philosophie der Medizin siehe Gifford (2011). 5 Zum Beispiel Boorse (1977) oder Murphy (2008; 2015). Selbstverständlich wird auch bei Pflanzen von Krankheit und Gesundheit gesprochen, allerdings mehr im biologischfunktionalen als im medizinischen Sinne. Die Frage, was genau Krankheit und Gesundheit im medizinischen Sinne eigentlich sein soll, kann hier nicht angesprochen werden. In der Philosophie der Medizin gibt es zu diesem Thema eine einschlägige Diskussion, die jedoch die Begriffe ›Krankheit‹ und ›Gesundheit‹ noch nicht endgültig hat klären können (z. B. Nordenfeldt 2007; Carel/Cooper 2012). 3
255
III. Die Philosophie der Natur- und Biowissenschaften
schungsgegenstände der Biologie in den Bereich des Lebendigen fallen.6 Mit der Aussage, dass die Biologie die Wissenschaft des Lebendigen wäre, ist also eigentlich noch gar nichts gesagt: Zwar klärt diese Aussage, was unter Biologie verstanden werden sollte, aber solange nicht ausreichend geklärt ist, was den Bereich des Lebendigen genau ausmacht, bleibt unklar, womit sich die Biologie eigentlich befasst. Darin nun liegt ein Problem: Wie ich in Abschnitt 4.1 näher erläutern werde, ist der Bereich des Lebendigen nicht klar umrissen, und es kann wahrscheinlich auch nicht abschließend geklärt werden, welche Entitäten und Phänomene überhaupt zu diesem Bereich gezählt werden sollten. Dadurch ist die Charakterisierung der Biologie als die Wissenschaft des Lebendigen eigentlich nur eine Verschiebung des Problems. Die Biologie lässt sich also mit Hinblick auf ihren Forschungsgegenstand – die Phänomene des Lebendigen oder auch die belebte Natur – nur schwer umreißen. Aber auch mit Bezug auf ihre spezifischen Forschungsweisen und -methoden ist die Biologie nur schwer charakterisierbar. Während z. B. die Chemie als prototypische experimentelle Laborwissenschaft charakterisiert werden kann (↑ Philosophie der Chemie), lassen sich innerhalb der gegenwärtigen Biologie sehr unterschiedliche Forschungsmodi erkennen. Zu nennen wären u. a.: •
Feldforschung, wie die Erstellung von Inventuren der in einem bestimmten Gebiet lebenden Arten oder die Beobachtung einzelner Tiere oder Tiergruppen in freier Wildbahn; • experimentelle Laborwissenschaft (in Bereichen wie der Biochemie und der Biophysik, die beide zumindest zum Teil der Biologie zugeordnet werden können, aber insbesondere auch in der Molekularbiologie und der Entwicklungsbiologie); • funktionale Analyse, d. h. die Erklärung der Funktionsweise von Organismen, Ökosystemen usw. als Systeme, die aus funktionalen Komponenten aufgebaut sind (z. B. in den Bereichen der organismischen Morphologie bzw. der funktio nalen Anatomie sowie der Ökologie);
Der Name ›Biologie‹ als Bezeichnung eines bestimmten Wissenschaftsgebiets wird üblicherweise auf den deutschen Arzt Karl Friedrich Burdach (1776 – 1847), den französischen Botaniker und Zoologen Jean-Baptiste de Lamarck (1744 – 1829) und den deutschen Arzt Gottfried Reinhold Treviranus (1776 – 1837) zurückgeführt. Burdach (im Jahre 1800), Lamarck und Treviranus (beide in 1802) prägten den Namen unabhängig voneinander (Mayr 1982, 108; Jahn 2000, 283 – 2 88; Toepfer 2011, 254 ff.). Mayr sowie Jahn weisen jedoch darauf hin, dass im frühen 19. Jh. noch keine biologische Wissenschaft im heutigen Sinne existierte und die damaligen Autoren den Begriff ›Biologie‹ nicht in der heutigen Bedeutung verwendeten. Lamarcks Definition z. B. »bezeichnet die Biologie als einen Zweig der terrestrischen Physik, nicht aber als Disziplin, die der Chemie oder der Physik gegenübergestellt wird« (Jahn 2000, 288). McLaughlin (2002) weist auf frühere Autoren hin, die den Begriff bereits verwendeten, allerdings auch nicht in der gegenwärtig üblichen Bedeutung. 6
256
Philosophie der Biologie •
•
•
•
klassifizierende und systematisierende Wissenschaft, insbesondere die Einteilung von Lebewesen in Arten, die Beschreibung und offizielle Namensgebung neu entdeckter Arten sowie die Ordnung von Arten im Linné’schen System in höhere Taxa wie Genera, Familien, Ordnungen, Klassen und Phyla;7 naturgeschichtliche Forschung, insbesondere die Rekonstruktion von Stammbäumen und Verwandtschaftsverhältnissen zwischen Arten und höhere Taxa sowie die Beschreibung von wichtigen Ereignissen in der Evolutionsgeschichte (wie z. B. das Aufkommen von Zellkernen, von mehrzelligen Organismen, von sexueller Fortpflanzung und von sozialen Organismen);8 theoretische Forschung, wie z. B. die Ausarbeitung mathematischer Modelle von biologischen Phänomenen oder die Simulation der Evolution abstrakter Populationen im Computer (siehe auch Abschnitt 3.2); herstellende Ingenieurwissenschaft (in der synthetischen Biologie, aber z. B. auch bei der genetischen Modifikation von Bakterien, Lebensmittelpflanzen oder Nutztieren).
Die Biologie lässt sich demnach auch nicht als eine bestimmte Art von Wissenschaft beschreiben: Sie untersucht ihren – nur unscharf umrissenen – Forschungsgegenstand in einer Vielzahl von Weisen, die im Übrigen nicht strikt voneinander getrennt werden können und z. T. (wie experimentelle Laborforschung und die herstellende Ingenieurwissenschaft) nicht spezifisch für die Biologie sind. Während einige der genannten Forschungsmodi, wie die funktionale Analyse, die klassifizierende Wissenschaft und die naturgeschichtliche Forschung, bereits seit längerer Zeit Gegenstand philosophischer – aber auch wissenschaftshistorischer – Forschung sind, sind einige (z. B. die herstellende Ingenieurwissenschaft in der synthetischen Biologie) erst seit Kurzem in den Blick der Philosophie der Biologie geraten und werden wiederum andere (wie die Feldforschung) derzeit kaum philosophisch erfasst. Während sich die Philosophie der Biologie als philosophische Reflexion der spezifischen Inhalte und Arbeitsweisen der biologischen Wissenschaft charakterisieren lässt, ist die Biologie hinsichtlich sowohl ihres Forschungsgegenstands als auch der in ihr verwendeten Forschungsweisen eine vergleichsweise heterogene Wissenschaft. Ihrer Bezugswissenschaft entsprechend ist auch die Philosophie der Biologie ein sehr heterogenes Arbeitsgebiet, das nicht darauf abzielt, die Biologie in allgemeinen Zügen zu beschreiben. Vielmehr befasst sich die Philo Taxa sind die in der biologischen Taxonomie anerkannten Gruppen von Organismen, die für die Einordnung einzelner Organismen in das biologische Klassifikationssystem verwendet werden. 8 Unter diesen evolutionsgeschichtlichen Ereignissen sind insbesondere die sogenannten major transitions interessant – siehe Maynard Smith/Szathmáry (1995), Szathmáry/ Maynard Smith (1995). Naturgeschichtliche Forschung (natural history) findet oft in Verbindung mit klassifizierender/systematisierender Forschung statt, insbesondere im Rahmen der in naturhistorischen Museen betriebenen Forschung. 7
257
III. Die Philosophie der Natur- und Biowissenschaften
sophie der Biologie derzeit oft gezielt mit einzelnen Aspekten der biologischen Forschung, ohne dass der Anspruch besteht, diese einzelnen Betrachtungen zu einem übergreifenden oder gar einheitlichen Gesamtbild der Biologie als Wissenschaft zusammenzufügen. Obwohl dieser Sachverhalt seine Ursache in der Heterogenität der Bezugswissenschaft des Faches findet und man ihn dementsprechend als dem Gegenstand des Faches angemessen empfinden könnte, kann er durchaus auch kritisch gewertet werden: Die Philosophie der Biologie kann ja in dieser Weise kaum eine Charakterisierung der Biologie als Wissenschaft liefern, sondern droht bei Charakterisierungen von Teilaspekten der Biologie stehen zu bleiben. Die Heterogenität des Faches zeigt sich in der Breite des Themenspektrums, das in der Philosophie der Biologie erforscht wird. Zu nennen wären u. a. die Grundlagen biologischer Klassifikationen und die Ontologie biologischer Taxa (Arten sowie höhere Taxa, aber auch Unterarten – siehe Abschnitt 4.2), die Onto logie der Gene, die Rolle von Modellen und Simulationen bei der Entdeckung, Beschreibung und Erklärung biologischer Phänomene, die möglichen evolutionären Grundlagen der Moral, die Natur der natürlichen Selektion und die Ebenen, auf denen Selektion auftreten kann, die Funktionsweise unterschiedlicher Arten von Erklärungen in der Biologie (siehe dazu Abschnitt 4.3), die Autonomie biologischer Erklärungen bzw. ihre Reduzierbarkeit auf physikalische und chemische Erklärungen, die Rolle verschiedener Denkweisen (wie z. B. Populationsdenken, typologisches Denken, adaptationistisches Denken oder teleologisches Denken) in den biologischen Wissenschaften die Struktur der Evolutionstheor ie und ihre kontinuierliche, immer noch nicht abgeschlossene Weiterentwicklung (siehe dazu Abschnitt 5), die theoretische Verbindung von Evolution und organismischer Entwicklung (evo-devo), und noch vieles mehr. Auch die Klärung zentraler Begriffe der Biologie, wie z. B. die Klärung des Artbegriffs (siehe dazu Abschnitt 4.2), des Funktionsbegriffs, des Genbegriffs, des Fitnessbegriffs, des Homologiebegriffs oder des Begriffs der genetischen Information, nehmen eine wichtige Position in der Philosophie der Biologie ein. Es wird nicht überraschen, dass es im Rahmen dieses Kapitels nicht möglich ist, die Philosophie der Biologie auch nur annähernd in ihrer gesamten thematischen Breite darzustellen. Im Folgenden werde ich stattdessen nur einige Beispiele ontologischer und epistemologischer Fragen ansprechen, die aktuell in der Philosophie der Biologie kontrovers diskutiert werden (Abschnitt 4). Bevor ich zu diesen Beispielen komme, möchte ich jedoch in Abschnitt 3 die Diskussion der Frage, was Philosophie der Biologie eigentlich ist, weiter vertiefen, indem ich das Aufkommen des Faches, seine historische Entwicklung sowie einige charakteristische Merkmale kurz bespreche.
258
Philosophie der Biologie
3 Eine kurze Entstehungsgeschichte der Philosophie der Biologie Die Entstehungsgeschichte der Philosophie der Biologie als akademisches Fach ist kompliziert. Als spezialisierter und (zumindest teilweise) eigenständiger Teilbereich der Wissenschaftsphilosophie ist die Philosophie der Biologie erst in der zweiten Hälfte des 20. Jh. sichtbar geworden. Allerdings fließen in ihr mehrere unterschiedliche Forschungstraditionen zusammen, die alle eine deutlich längere Geschichte aufweisen – zu nennen sind (1.) die Beschäftigung mit der lebendigen bzw. organischen Welt, die schon seit ihren Anfängen in der griechischen Antike Teil der Philosophie war, (2.) die im späten 19. und frühen 20. Jh. aufkommende theoretische Biologie sowie (3.) die ebenfalls ab dem 19. und 20. Jh. sich entwickelnde allgemeine Wissenschaftsphilosophie. Die Philosophie der Biologie in ihrer heutigen Form ist an der Schnittstelle dieser drei Arbeitsbereiche entstanden und trägt nach wie vor Elemente dieser Bereiche in sich: Neben den vielen Arbeiten im Bereich der Wissenschaftsphilosophie der Biologie umfasst die gegenwärtige Philosophie der Biologie auch Forschung, die als eher naturphilosophisch motiviert oder als eher theoretisch-biologischer Art gekennzeichnet werden kann. Diesen Sachverhalt möchte ich im Folgenden näher beleuchten.9
3.1 Philosophie der Biologie als Naturphilosophie des Lebendigen Philosophen haben sich schon immer mit der Welt des Lebendigen beschäftigt. Bekannte Beispiele philosophischer Werke, die sich mit der lebendigen Welt befassen, sind Aristoteles’ Historia Animalium, De Partibus Animalium, De Motu Animalium, De Generatione Animalium und De Incessu Animalium, Kants Kritik der Urteilskraft (im zweiten Teil, der Kritik der teleologischen Urteilskraft) oder auch Henri Bergsons Die schöpferische Evolution. Der Forschungsgegenstand der genannten aristotelischen Werke ist die lebendige Natur. Aristoteles versucht, sowohl den Bereich des Lebendigen systematisch zu beschreiben als auch durch systematische Wahrnehmung und die Entwicklung metaphysischer Hypothesen die Existenz und Eigenschaften von Lebewesen zu erklären.10 Die beschreibenden Teile der aristotelischen Werke würden heutzutage wohl eher als naturgeschichtliche Arbeiten (d. h. als Arbeiten im Bereich der natural history) Die historischen Wurzeln der Philosophie der Biologie sind in der heutigen Forschung meistens zu stark miteinander vermischt, um noch deutlich erkennbar zu sein. Zwar können einzelne Forschungslinien als eher theoretisch-biologisch, eher naturphilosophisch usw. charakterisiert werden, doch kommen oftmals unterschiedliche Forschungstraditionen in einer Forschungslinie zusammen, sei es nur, weil verschiedene Forscher sich dem gleichen Thema aus unterschiedlichen Hintergründen nähern. 10 Zu den biologischen bzw. biophilosophischen Arbeiten von Aristoteles siehe Grene / Depew (2004, Kap. 1). Laut Grene / Depew (2004, 1, 35) ist Aristoteles der einzige große Philosoph, der gleichzeitig ein bedeutender Biologe war. 9
259
III. Die Philosophie der Natur- und Biowissenschaften
den biologischen Wissenschaften als der Philosophie zugeordnet werden.11 Die erklärenden Teile befinden sich im Grenzbereich der beiden Bereiche, die heute Biologie und Naturphilosophie (d. h. der Erforschung der Natur mit philosophischen Mitteln) genannt werden würden.12 Kants Überlegungen in der Kritik der teleologischen Urteilskraft beziehen sich sowohl auf die Natur von Organismen als auch auf die Weise, in der die Naturwissenschaften organische Phänomene als zweckmäßige Entitäten erklären (McLaughlin 1989; Grene / Depew 2004, Kap. 4). Kants Forschungsgegenstände in diesem Werk sind also sowohl die Natur selbst als auch die Naturwissenschaft. Die Kritik der teleologischen Urteilskraft kann dementsprechend als Beispiel einer Arbeit aufgeführt werden, die sich sowohl im Bereich der Naturphilosophie als auch im Bereich der Wissenschaftsphilosophie bewegt.13 Auch Bergsons Projekt ist ein naturphilosophisches, indem es versucht, das Wesen des Lebendigen sowie des natürlichen Evolutionsprozesses zu klären (dazu: Lawlor / Moulard-Leonard 2013, Abschnitt 5). Aristoteles, Kant und Bergson sind drei Vertreter der langen naturphilosophischen Tradition, die versucht, Phänomene aus dem Bereich des Lebendigen mit philosophisch-spekulativen Mitteln zu untersuchen, zu beschreiben und zu erklären.14 Bergson war einer der letzten Vertreter dieser Tradition: Die am Anfang des 20. Jh. aufkommende Metaphysikkritik des Wiener Kreises hatte nicht nur das Aufkommen der Wissenschaftsphilosophie als eines eigenständigen philosophischen Forschungsbereichs, sondern auch einen Legitimitätsverlust für spekulativ-metaphysische Arbeiten in der Philosophie und damit verbunden einen drastischen Rückgang der Naturphilosophie zur Folge. Für die Vertreter des Wiener Kreises waren metaphysische Aussagen sinnlos und die Metaphysik somit ein nicht-legitimes Unternehmen, das überwunden werden musste. Statt Metaphysik zu betreiben, sollten sich Philosophen mit Sprachanalyse befassen. Diese Position ist klar dargestellt in Rudolf Carnaps berühmtem Aufsatz »Überwindung der Metaphysik durch logische Analyse der Sprache« (Carnap 1931). Seit den einflussreichen Arbeiten der Mitglieder des Wiener Kreises und mit dieser Gruppe verbundenen Philosophen in den 1920er und 1930er Jahren stand die Na Die Naturgeschichte ist im 18. Jh. als Teildisziplin der Biologie aufgekommen und hatte zum Ziel, die Diversität der Lebewesen (aber auch der Gesteine) zu beschreiben, zu ordnen und mittels Sammlungen zugänglich zu machen. Zur Geschichte der ›natural history‹ siehe Jardine, Secord / Spary (1996) oder Farber (2000). 12 Zur Naturphilosophie siehe z. B. Kummer (2009) oder Esfeld (2011). 13 Dass Kant nicht als Philosoph der Biologie im heutigen Sinne oder zumindest als wichtiger Vorläufer dieses Fachgebiets gilt, liegt wahrscheinlich daran, dass es nicht Kants primäres Anliegen war zu klären, wie die biologische Wissenschaft funktioniert (siehe z. B. Grene / Depew 2004, 92). 14 Damit soll allerdings nicht gesagt sein, dass diese Autoren ausschließlich als Naturphilosophen im genannten Sinne gesehen werden sollten. Aristoteles hat z. B. auch viel empirische Forschung betrieben und wird dementsprechend auch als Biologe avant la lettre gesehen. 11
260
Philosophie der Biologie
turphilosophie lange Zeit nicht im Zentrum der Philosophie – allerdings war sie auch nie ganz verschwunden. Seit Kurzem genießt die Naturphilosophie erneute Aufmerksamkeit: Unter dem Namen scientific metaphysics oder metaphysics of science wird zurzeit ein naturphilosophisches Forschungsprogramm für die Wissenschaftsphilosophie aufgebaut (siehe dazu z. B. Ross / Ladyman / Kincaid 2013) und im spezifischen Rahmen der Philosophie der Biologie vertritt Peter GodfreySmith (Godfrey-Smith 2014) eine Auffassung der Philosophie der Biologie, die eine Naturphilosophie der lebendigen Welt mit beinhaltet. Es waren jedoch nicht nur Berufsphilosophen, die versuchten, auf philosophischem Wege einen Zugang zur Natur zu erlangen: Auch Naturwissenschaftler bedienten sich oftmals philosophischer Überlegungen und Methoden, und betrieben in diesem Sinne nicht nur naturphilosophische, sondern auch erkenntnistheoretische Arbeit. So bildete sich z. B. am Anfang des 20. Jahrhunderts die theoretische Biologie als eine eigenständige Teildisziplin der Biologie heraus, die sich mit der Ausarbeitung eines begrifflichen und philosophischen Fundaments für die biologische Forschung und Theoriebildung befasste.
3.2 Philosophie der Biologie als theoretische Biologie Laut dem deutschen Biologen Johannes Reinke, der den Namen ›theoretische Biologie‹ prägte, »fällt die Arbeit der Philosophen und der Biologen vielfach zusammen« (Reinke 1901, 5) und »besitzen wir innerhalb der biologischen Fachliteratur die reichste Fülle naturphilosophischer Speculationen« (ebd., 6). Für Reinke ist es die Aufgabe der theoretischen Biologie, »Fühlung zu halten […] mit der Naturphilosophie, sofern auch letztere auf dem festen Fundamente der Erfahrung sich aufbaut« (ebd., 7), um in dieser Weise das biologische Wissen zu erweitern. Es geht dabei jedoch nicht nur darum, die Ergebnisse der Naturphilosophie in die Biologie einfließen zu lassen, sondern auch darum, als Biologen selbst Naturphilosophie zu betreiben. Statt der heutzutage vielfach vertretenen strikten Abgrenzung zwischen den Naturwissenschaften und den Geisteswissenschaften als zwei völlig unterschiedliche und kaum mit einander kommunizierende akademische Bereiche15 sah Reinke vielmehr eine Kontinuität zwischen der Philosophie und der Naturwissenschaft: »Beide, der Biologe und der Philosoph, mühen sich oft um das gleiche Object, suchen die gleichen Probleme zu lösen; und man nennt eine Arbeit gewöhnlich nur darum eine philosophische, weil ein Philosoph vom Fach sie geschrieben hat, eine biologische, weil ein Biologe von Beruf der Verfasser war.« (ebd., 1). Auch spätere Vertreter der theoretischen Biologie sahen die Erhaltung und Verfestigung der Verknüpfung von Biologie und Philosophie als zentrale Aufgabe der theoretischen Biologie. So versuchte Julius Schaxel in seinem Buch Grundzüge 15
Vgl. C. P. Snows bekannte These der »zwei Kulturen« (Snow 1959).
261
III. Die Philosophie der Natur- und Biowissenschaften
der Theorienbildung in der Biologie (Schaxel 1919) sowie in der von ihm gegründeten Schriftenreihe Abhandlungen zur theoretischen Biologie den biologischen Theoriekorpus auf ein neues begriffliches Fundament zu stellen und gleichzeitig eine Brücke zwischen Biologie und Philosophie zu schlagen (Reiß et al. 2008). Dabei ging es auf der philosophischen Seite sowohl um Metaphysik/Naturphilosophie als auch um Erkenntnistheorie. Besonders einflussreich war diesbezüglich Hans Driesch, der sowohl als empirisch forschender Biologe als auch als theoretischer Biologe und später als Professor für Philosophie tätig war und in seinen theoretischen Arbeiten biologische und naturphilosophische Theoriebildung miteinander verknüpfte (z. B. in seiner Philosophie des Organischen: Driesch 1909). Als weitere Vertreter der theoretischen Biologie, die versuchten, ein neues begriffliches Gerüst für die biologische Wissenschaft aufzubauen, sollen hier noch die Biologen James Johnstone (The Philosophy of Biology: Johnstone 1914) und Jakob Johann von Uexküll (Theoretische Biologie: Uexküll 1920) erwähnt werden. Im Zuge der fortschreitenden Entwicklung mathematischer Formalismen und Modelle in der Biologie in den 1920er bis 1940er Jahren wurden unter dem Nenner der theoretischen Biologie in steigendem Maße mathematisch-biologische Arbeiten verstanden und bekamen philosophische Arbeiten einen immer geringeren Stellenwert (Jeuken 1976; Reydon / Dullemeijer / Hemerik 2005). Außerdem hat sich die theoretische Biologie als eigenständige Teildisziplin der Biologie nicht wirklich durchsetzen können, sodass im Jahre 1968 der Biologe Conrad Waddington schreiben konnte, dass »von der theoretischen Biologie kaum gesagt werden kann, dass sie als akademische Disziplin existiere« (Waddington 1968, 525; eigene Übersetzung). Gegenwärtig gibt es die theoretische Biologie zwar noch, aber fast ausschließlich als mathematische Biologie. Das naturphilosophische und erkenntnistheoretische Erbe der frühen theoretischen Biologie wurde durch die gegenwärtige Philosophie der Biologie angetreten, wobei jedoch auch hauptberufliche Biologen wichtige Beiträge lieferten. Besondere Erwähnung verdient in diesem Kontext der Biologe Ernst Mayr, der einen prägenden Einfluss auf die Entwicklung sowohl der Biologie des 20 Jh. als auch der Philosophie der Biologie hatte.16 Die historische Verbindung der Philosophie der Biologie zur theoretischbiologischen Forschung existiert jedoch auch heute noch, z. B. in einigen Fachzeitschriften, die versuchen, die Brücke zwischen der Philosophie der Biologie und der theoretischen Biologie aufrecht zu erhalten.17
Zu Mayrs wichtigen Veröffentlichungen zu philosophischen (erkenntnistheoretischen sowie metaphysischen) Themen gehören Arbeiten zum Artbegriff (u. a. Mayr 1987; 1996a), zur Autonomie der Biologie als Wissenschaft (Mayr 1996b) sowie ein klassischer Aufsatz zu Ursächlichkeit und ursächlicher Erklärung in der Biologie (Mayr 1961). Mayrs wichtigste philosophischen Arbeiten sind in mehreren Büchern versammelt (u. a. Mayr 1989; 2004). 17 Zum Beispiel Acta Biotheoretica, Biological Theory sowie Theory in Biosciences. 16
262
Philosophie der Biologie
3.3 Philosophie der Biologie als Wissenschaftsphilosophie der Biologie Neben der naturphilosophischen Tradition und der theoretischen Biologie ist die allgemeine Wissenschaftsphilosophie eine wichtige Quelle der gegenwärtigen Philosophie der Biologie, obwohl die Biologie als Bezugswissenschaft in der allgemeinen Wissenschaftsphilosophie lange Zeit nur eine untergeordnete Rolle spielte. Seit dem Aufkommen der allgemeinen Wissenschaftstheorie im späten 19. und frühen 20. Jh. in den Arbeiten des Wiener Kreises (um u. a. Moritz Schlick, Rudolf Carnap und Otto Neurath), des Berliner Kreises (der von Hans Reichenbach gegründeten »Gesellschaft für empirische Philosophie«) sowie deren Vorgänger war sie stark auf die logische Analyse der Wissenschaftssprache ausgerichtet. Die Physik spielte dabei die Rolle einer Modellwissenschaft, an der wegen ihrer starken Mathematisierung eine solche logische Analyse am besten ausgeführt werden konnte.18 Erst in der Mitte des 20. Jh. erschienen vermehrt Veröffentlichungen, die sich mit (insbesondere erkenntnistheoretischen) Aspekten der biologischen Wissenschaft befassen, allerdings auch hier, ohne die Biologie als solche in den Vordergrund zu stellen. Das heißt, es ging auch hier nicht um die Klärung von spezifischen Inhalten der Biologie oder die Untersuchung spezifischer biologischen Arbeitsweisen, sondern um die Analyse der Logik der Wissenschaft im Allgemeinen. Die Biologie war typischerweise nur eine unter mehreren Wissenschaften, für die eine übergreifende Wissenschaftstheor ie gefunden werden musste.19 Erst in den 1970er Jahren wird die Philosophie der Biologie als das Teilgebiet einer Wissenschaftsphilosophie sichtbar, in dem die Biologie selbst das Forschungssubjekt ist. Griffiths (2008) nennt dementsprechend die 1950er und 1960er Jahre die »Prähistorie der Philosophie der Biologie«. Allerdings gibt es auch in dieser Prähistorie bereits vereinzelt Werke, die die Biologie als Subjekt wissenschaftstheoretischer Forschung in den Blick nehmen. Bekannt ist Morton Beckners The Biological Way of Thought (Beckner 1959), aber auch Max Hartmanns viel früheres Werk Biologie und Philosophie hatte bereits als Ziel, »die eigentlichen Wissenschaftsgrundlagen der Biologie einer Untersuchung zu unterziehen und die methodologischen und erkenntnistheoretischen Probleme [zu] behandeln, die uns in der Biologie als Wissenschaft entgegentreten« (Hartmann 1925, 1). Es ist nicht unwahrscheinlich, dass die Rolle der Physik als Modellwissenschaft auch mit dem Umstand verbunden ist, dass viele Vertreter der frühen Wissenschaftsphilosophie selbst Physiker waren. Allerdings soll hier nicht suggeriert werden, dass die frühe Wissenschaftsphilosophie die Biologie ignorierte – die Behauptung ist lediglich, dass die Biologie deutlich weniger im Fokus stand als die stärker formalisierte Physik. Im Umkreis des Wiener Kreises wurde vereinzelt auch die Biologie in den Blick genommen, z. B. in den Arbeiten des theoretischen Biologen und Philosophen der Biologie J. H. Woodger (für eine neue Würdigung von Woodgers Arbeiten, siehe Nicholson / Gawne 2014). 19 Als Beispiel kann Ernest Nagels einflussreiches Werk The Structure of Science (Nagel 1961) genannt werden. 18
263
III. Die Philosophie der Natur- und Biowissenschaften
In den 1970er Jahren fangen einzelne Wissenschaftsphilosophinnen und -philosophen an, sich als professionelle Philosophinnen bzw. Philosophen der Biologie zu präsentieren. Es werden Tagungen zur Wissenschaftsphilosophie der Biologie organisiert und es erscheinen auch die ersten beiden Lehrbücher mit dem Begriff ›Philosophie der Biologie‹ im Titel – diese waren von zwei Philosophen verfasst, die als die »Gründerväter« des Fachs gelten, nämlich Michael Ruse und David Hull (Ruse 1973; Hull 1974).20 Spätestens seit der Gründung der International Society for the History, Philosophy and Social Studies of Biology (ISHPSSB, 1989) als Fachgesellschaft ist die Philosophie der Biologie als eigenständiger Teilbereich der Wissenschaftsphilosophie fest etabliert. Obwohl jetzt die spezifischen Inhalte und Arbeitsweisen der Biologie in den Fokus gerückt sind, spielen auch die traditionellen Fragen der allgemeinen Wissenschaftsphilosophie nach wie vor eine große Rolle. Sie werden allerdings mit einem spezifischen Bezug zur biologischen Wissenschaft neu formuliert. Aus der klassischen wissenschaftstheoretischen Frage »Was ist die Struktur wissenschaftlicher Erklärungen?« wurde z. B. die Frage »Was für unterschiedliche Erklärungsstrukturen gibt es in den biologischen Wissenschaften?« (siehe dazu Abschnitt 4.3). Im folgenden Abschnitt werde ich einige Beispiele aus der gegenwärtigen Forschung in der Philosophie der Biologie vorstellen. Diese Beispiele sollen einen Einblick in die Diversität der Fragestellungen und der Vorgehensweisen innerhalb des Fachgebiets geben.
4 Beispiele ontologischer und epistemologischer Fragestellungen 4.1 Ontologie: Was ist Leben? Was sind Lebewesen? Wie in Abschnitt 2 bereits angesprochen wurde, wird die Biologie oft als die Wissenschaft des Lebendigen charakterisiert, wobei allerdings nicht deutlich ist, welche Entitäten und Phänomene genau zu diesem Bereich gehören. Ökosysteme, Biozönosen, Populationen und Kolonien bestehen zwar zu wesentlichen Teilen oder gar gänzlich aus Lebewesen, aber sie sind selbst keine Lebewesen. Dennoch sind sie wichtige Gegenstände biologischer Forschung und fallen zweifellos in den Bereich des Lebendigen. Auch Gene sind selbst keine lebendigen Entitäten, aber nehmen dennoch einen zentralen Platz in der biologischen Wissenschaft ein und können zweifellos dem Bereich des Lebendigen zugeordnet werden. Der Gegenstandsbereich der biologischen Forschung, der Bereich des Lebendigen, fällt also nicht eindeutig mit dem Bereich der Lebewesen zusammen. Darüber hinaus ist der letztere Bereich selbst nicht klar abgegrenzt. Viren stellen diesbezüglich einen viel diskutierten Grenzfall dar: Es ist nach wie vor nicht deutlich, ob es sich Neben Hull und Ruse hat die Philosophie der Biologie auch eine »Gründermutter«, nämlich die Philosophin Marjorie Grene. 20
264
Philosophie der Biologie
bei Viren um tatsächlich lebendige Wesen oder lediglich um selbst-replizierende »RNA-Pakete« oder »DNA-Pakete« handelt (Forterre 2010). Obwohl die Begriffe ›Leben‹, ›Lebewesen‹ und ›lebendig‹ sowie die Frage, was genau lebendige Entitäten von nicht-lebendigen Entitäten unterscheidet, bereits seit geraumer Zeit ein Diskussionsthema in der Philosophie der Biologie darstellen, sind die genauen Kriterien, denen eine Entität entsprechen muss, um als lebendig gelten zu können, nach wie vor nicht geklärt (Cleland / Chyba 2002; Ruiz-Mirazo et al. 2004; 2010; Morange 2010). Die ontologischen Fragen danach, was Leben ist und was Lebewesen sind, sind unmittelbar mit weiteren problematischen Begriffen verknüpft, insbesondere mit den Begriffen des Organismus und des Individuums. Weder für Organismen noch für Individuen sind die Kriterien eindeutig bestimmt, denen eine biologische Entität entsprechen muss, um als Organismus bzw. Individuum zu zählen (Clarke 2011; Godfrey-Smith 2014, 66 – 8 0; Wilson / Barker 2014). Außerdem gibt es viele Fälle, in denen nicht deutlich ist, ob man es mit einem wirklichen Organismus bzw. einem wirklichen Individuum oder mit einer Gruppe von Organismen/Individuen zu tun hat. So ist es z. B. im Falle von Kolonien sozialer Insekten oder kolonialen »Organismen« (wie die portugiesische Galeere, Physalia physalis, eine quallenähnliche Kolonie von Polypen) unklar, ob sie »nur« Kolonien sind oder selbst als Organismen und somit ggf. als eigenständige Lebewesen zählen können. Seit langem wird argumentiert, dass Kolonien sozialer Insekten und koloniale »Organismen« nicht nur aus Organismen aufgebaute Gruppen sind, sondern selbst als »Superorganismen« oder gar wirkliche Organismen aufgefasst werden sollten, da sie sich zu einem gewissen Grade als integrierte Individuen verhalten, als Organismen in evolutionären Selektionsprozessen auftreten und eine Arbeitsteilung zwischen den sie konstituierenden Organismen aufweisen (z. B. Wheeler 1911; Sober / Wilson 1989; Godfrey-Smith 2013). Wenn diese Argumente stichhaltig sind – was derzeit allerdings noch eine offene Frage ist –, würden sie auch dafürsprechen, solche Kolonien als eigenständige Lebewesen anzusehen. Während in der Philosophie der Biologie die Begriffe ›Organismus‹ und ›Individuum‹ Gegenstand kontroverser Diskussionen sind (für neuere Beiträge, siehe Bouchard / Huneman 2013; Guay / Pradeu 2015), stehen die Begriffe des Lebens und des Lebendigen deutlich weniger im Fokus der Forschung. Interessant ist diesbezüglich auch die Tatsache, dass die Frage nach Kriterien für Leben, Lebendigkeit, Organismalität und Individualität überhaupt nicht als zentrale Frage innerhalb der biologischen Forschung angesehen wird. Biologen erforschen zwar die verschiedensten Phänomene im Bereich des Lebendigen und wollen verstehen, wie lebendige Systeme entstanden sind und wie diese funktionieren, sie versuchen jedoch nicht grundsätzlich zu klären, was diese Phänomene genau gemeinsam haben (in dem Sinne, dass sie alle Phänomene des Lebens sind). Die Fragen danach, was Leben ist und was die Bereiche des Lebendigen und der Lebewesen genau ausmacht, sind selbst keine Kernfragen der Biologie – u. a. weil sich Leben als biologisches Phänomen in zu unterschiedlichen Weisen manifestiert, um 265
III. Die Philosophie der Natur- und Biowissenschaften
durch eine übergreifende Definition charakterisiert werden zu können. Eine Antwort auf Fragen nach dem Begriff des Lebens und den Grenzen des Lebendigen würde für die meisten Teilbereiche der Biologie auch kaum einen praktischen Unterschied machen: Mit Ausnahme einiger weniger Arbeitsbereiche können die meisten Teilbereiche der Biologie ihre Ziele auch sehr gut ohne eine Definition des Lebensbegriffs erreichen. Vielmehr nimmt die Biologie den phänomenalen Bereich des Lebendigen einfach als gegeben (obwohl ungenau umrissen) hin. Als Ausnahmen wären allenfalls die Exobiologie (die Suche nach extraterrestrischem Leben), die synthetische Biologie (ein eher ingenieurwissenschaftlicher Arbeitsbereich, der versucht, lebendige Systeme technisch herzustellen), die Forschung nach dem Ursprung des Lebens sowie die artificial-life-Forschung zu nennen, die eine Definition des Lebensbegriffs bräuchten, um bestimmen zu können, ob sie ihre Ziele tatsächlich erreicht haben. Wenn heutzutage die Fragen nach den Begriffen des Organismus, des Individuums oder des Lebens oder nach dem charakteristischen Unterschied zwischen lebenden und nicht-lebenden Entitäten aufgegriffen werden, dann geschieht dies meistens nicht durch Biologen, sondern durch Philosophen, Theologen, Soziologen, Politiker usw. im Kontext der Klärung wissenschaftlich geprägter Alltagsbegriffe.21 Die Frage »Was ist Leben?« wird innerhalb der Wissenschaftsphilosophie der biologischen Wissenschaften nicht als besonders wichtige ontologische Fragestellung angesehen. Mehrere Autoren haben bereits dazu aufgerufen, die Suche nach einer Definition des Begriffs ›Leben‹ und nach Kriterien, mit deren Hilfe zwischen lebendigen und nicht-lebendigen Entitäten unterschieden werden könnte, aufzugeben (z. B. Machery 2012).22 Wichtige Gründe sind diesbezüglich (1) die Schwierigkeit, eine Definition bzw. Kriterien zu finden, die sowohl der Heterogenität des Phänomens entsprechen als auch den Anforderungen aller verschiedenen Forschungsbereiche genügen, sowie (2) die Tatsache, dass die o. g. Bereiche anscheinend auch jetzt schon gut funktionieren, ohne dass eine klare Definition bzw. eindeutige Kriterien vorliegen. Wenn die Frage nach den Begriffen des Lebens und des Lebendigen in der Philosophie erörtert werden, dann geschieht dies vielmehr im Rahmen dessen, was in Abschnitt 3 »Naturphilosophie des Lebendigen« genannt wurde. Ein Beispiel ist die Frage, wann genau das menschliche Leben anfängt. Dies ist zwar eine wichtige Frage im Rahmen der Debatten über Forschung mit embryonalen Stammzellen, Abtreibung, In-vitroFertilisation usw. Es ist jedoch eine Frage, die sich nicht primär auf den naturwissenschaftlichen Begriff des Lebens bezieht, sondern auf den gesellschaftlichen, Eine Ausnahme ist vielleicht der Organismusbegriff: Es gibt auch innerhalb der Biologie eine (wenngleich kleine) Diskussion über den Nutzen und den Inhalt dieses Begriffs (Pepper / Herron 2008). Brenner (2009) bietet einen guten Überblick über die philosophischen, religiösen, gesellschaftlichen sowie wissenschaftlichen Debatten zur Frage »Was ist Leben?« 22 Allerdings gibt es auch Autoren, die diese Suche nicht aufgeben möchten – siehe z. B. Ruiz-Mirazo et al. (2004; 2010) und Morange (2010). 21
266
Philosophie der Biologie
moralischen und religiösen Lebensbegriff und insbesondere auf den Unterbegriff des menschlichen Lebens. Ähnliches gilt für die Frage nach der Verlängerung des Lebens (siehe dazu Knell / Weber 2009). Es geht hier um die Klärung eines zwar biologisch fundierten und informierten Begriffs des Lebens, der allerdings nicht selbst ein wissenschaftlicher Begriff ist.
4.2 Ontologie und Epistemologie: Was sind eigentlich Arten? Verbunden mit der ontologischen Frage nach den verschiedenen Arten von Entitäten, mit denen sich die Biologie befasst, wie Organismen, Individuen und Lebewesen, ist die ontologische Frage nach den Grundlagen der Klassifikation solcher Entitäten. Hier stechen insbesondere die Fragen nach der Natur biologischer Arten und der korrekten Definition des Begriffs ›Art‹ hervor. Diese konstituieren seit langem sowohl in der Philosophie der Biologie als auch in der Biologie selbst ein stark umstrittenes Forschungsthema, u. a. durch ihren unmittelbaren Bezug zu praktischen Fragen zum Schutz bedrohter Arten. Tatsächlich haben diese Fragen eine deutlich längere Geschichte als das Fachgebiet selbst – sie stammen ursprünglich aus der biologischen Forschung und wurden bereits zu Darwins Zeiten kontrovers diskutiert.23 Bereits seit dem Aufkommen der modernen Biologie wird versucht, eine befriedigende Definition des Begriffs der biologischen Art zu finden, der klären würde, was Arten eigentlich sind (Wilkins 2009a, 1). Bislang jedoch ohne Erfolg. Es existieren, je nach der Weise, in der man zählt, mehrere Dutzend Definitionen des Begriffs: Mayden (1997; 1999) zählt zwischen 22 und 24 Definitionen, während Wilkins (2009b) 26 Definitionen zählt.24 Außerdem haben einzelne Autoren sehr unterschiedliche Formulierungen vorgeschlagen, die allerdings zum Teil Variationen des gleichen Gedankens sind: Lherminer / Solignac (2000) listen mehr als 90 solcher Formulierungen auf, bei Wilkins (2009b) sind mehr als 100 Vorschläge aus dem gesamten Zeitraum von der griechischen Antike bis heute zu finden. Keine der bisher vorgeschlagenen Definitionen und Formulierungen hat sich als allgemein akzeptierte Definition des Artbegriffs bzw. endgültige Klärung der Natur biologischer Arten durchsetzen können, sodass die Debatte sowohl in der Sie sind dementsprechend ein klassisches Beispiel der eingangs hervorgebrachten These, dass viele der Fragestellungen, die in der Philosophie der Biologie erörtert werden, aus inhaltlichen und methodologischen Aspekten der Biologie hervorgehen. 24 Es ist nach wie vor eine ungeklärte Frage, ob sich diese Definitionen als Konkretisierungen einer oder mehrerer übergreifender Definitionen verstehen lassen. Wilkins (2011) behauptet, dass es lediglich sieben grundlegend verschiedene Definitionen gibt und die übrigen Definitionen Variationen dieser sieben sind. Laut Mayden (1997; 1999) und De Queiroz (1998; 1999) können alle Definitionen unter eine einzige Definition subsumiert werden, allerdings schlagen diese Autoren unterschiedliche übergreifende Definitionen vor. 23
267
III. Die Philosophie der Natur- und Biowissenschaften
biologischen als auch der philosophischen Literatur fortdauert. Obwohl die Frage, was Arten eigentlich sind, nach wie vor unbeantwortet ist, hat die Debatte auch deutlich gemacht, dass die Frage vielleicht zu einfach gestellt war: Klar geworden ist, dass der Begriff ›Art‹ (oder: ›species‹) nicht auf eine homogene Kategorie biologischer Entitäten verweist, die alle im Wesentlichen gleich sind. Vielmehr konstituieren biologische Arten eine sehr heterogene Gruppe von Entitäten, sodass es keine eindeutige, allgemeingültige Antwort auf die Frage geben kann, was Arten eigentlich sind. Eine natürliche Reaktion auf dieses Ergebnis wäre die Einnahme einer instrumentalistischen Position zum Artbegriff, die auf der Sichtweise beruhen würde, dass Arten nicht als reale Entitäten in der Natur existieren, sondern lediglich von uns für bestimmte Zwecke konstruierte Gruppierungen sind (z. B. Levin 1979; Mallet 2007, 8 – 13). Es gäbe viele verschiedene Weisen, in denen Organismen in Gruppen zusammengefasst werden könnten, und davon sei keine in dem Sinne privilegiert, dass sich aus ihr die Arten von Organismen, die in der Natur vorhanden sind, ergeben würden – so das Argument.25 Außerdem ist Evolution ein kontinuierlicher Prozess der Veränderung von Populationen von Organismen, dessen Produkt keine diskret abgegrenzten Gruppen von Organismen, sondern kontinuierliche Abstammungslinien sind. Die Einteilung von Organismen in Arten und höhere Taxa ist dementsprechend ein Problem der Zerteilung eines Kontinuums in diskrete Einheiten, bei dem subjektive Kriterien eine Rolle spielen müssen. Eine solche Sichtweise ist nicht neu. So vertrat Charles Darwin bereits vor mehr als anderthalb Jahrhunderten die Ansicht, dass die Frage nach der Natur biologischer Arten nicht lösbar sei, weil die Einstufung einer Gruppe von Organismen als eine »wirkliche« Art auf subjektiven Grundlagen geschehe: Was der eine Biologe als »wirkliche« Art ansehe, könnte ein anderer Biologe mit gleich guter Begründung als Varietät innerhalb einer Art sehen. In seinem Hauptwerk Über die Entstehung der Arten schrieb Darwin diesbezüglich: »wir werden die Arten auf dieselbe Weise zu behandeln haben, wie die Naturforscher jetzt die Gattungen behandeln, welche annehmen, daß die Gattungen nichts weiter als willkürliche der Bequemlichkeit halber eingeführte Gruppirungen seien. Das mag nun keine eben sehr heitere Aussicht sein; aber wir werden wenigstens hierdurch das vergebliche Suchen nach dem unbekannten und unentdeckbaren Wesen der ›Species‹ los werden.« (Darwin 1876, 574; eigene Hervorhebung). Für Darwin war die Einstufung einer bestimmten Gruppe von Organismen als eine eigenständige Art oder als lediglich eine Unterart oder auch als ein Genus primär eine Frage der Sichtweise des klassifizierenden Biologen. Dies anzuerkennen würde die ta Einflussreiche Formulierungen dieses Arguments sind in den Arbeiten des Wissenschaftsphilosophen John Dupré zu finden (z. B. Dupré 1993; 1999). Dupré zieht aus dem Argument allerdings nicht den Schluss, dass eine instrumentalistische Auffassung von biologischen Arten gerechtfertigt sei. Stattdessen vertritt Dupré eine pluralistischrealistische Position (siehe weiter unten im Text). 25
268
Philosophie der Biologie
xonomische und systematische Arbeit in der Biologie jedoch sehr erleichtern. Wie Darwin schrieb: »Die Systematiker werden ihre Arbeiten so wie bisher verfolgen können, aber nicht mehr unablässig durch den gespenstischen Zweifel geängstigt werden, ob diese oder jene Form eine wirkliche Art sei. Dies wird sicher, und ich spreche aus Erfahrung, keine kleine Erleichterung gewähren. Der endlose Streit, ob die fünfzig britischen Rubus-Sorten wirkliche Arten sind oder nicht, wird aufhören.« (Darwin 1876, 573; eigene Hervorhebung). Eine rein instrumentelle Auffassung von Arten bringt für die Biologie jedoch schwerwiegende Probleme mit sich. So wird z. B. die biologische Taxonomie meistens als Prozess der Entdeckung und Beschreibung neuer Arten verstanden: Biologen entdecken neue Arten im Feld oder auch in naturhistorischen Sammlungen, beschreiben die Charakteristika der Mitglieder der neuen Art, versehen die Art mit einem Namen und veröffentlichen die Beschreibung sowie den Namen in einer Fachzeitschrift. Wenn Arten aber Gruppen von Organismen sind, die wir für bestimmte Zwecke selbst konstruieren – wie Darwin schrieb, willkürliche, der Bequemlichkeit halber eingeführte Gruppen –, dann scheint es nicht wirklich möglich, von der Entdeckung neuer Arten zu sprechen. Auch entstehen im Laufe der Evolution neue Arten, sterben existierende Arten aus und versuchen wir, bedrohte Arten mithilfe von Schutzmaßnahmen vor dem Aussterben zu bewahren. Auch eine solche Interpretation des Evolutionsprozesses und die Praxis des Artenschutzes würden nicht zu einer Auffassung von Arten als nicht wirklich existierende Entitäten, sondern lediglich zu einer solchen als rein instrumentelle Gruppen passen. Denn was wäre die bekannte, durch die International Union for Conservation of Nature zusammengestellte »Rote Liste« der bedrohten Arten wert, wenn die in diese Liste aufgenommenen Arten nichts mehr sind als willkürliche Gruppierungen von Organismen?26 Aus diesen Gründen werden rein instrumentalistische Positionen zur Natur biologischer Arten weitgehend abgelehnt und es wird angenommen, dass Arten von Organismen zumindest in irgendeiner Form in der Natur begründet sind. Diese Annahme führt jedoch zu der ontologischen Frage, wie sich Arten (sowie Taxa auf anderen klassifikatorischen Ebenen) genau zur Natur verhalten: Was in der Natur wird durch eine Art repräsentiert (so Arten denn eine repräsentierende Rolle haben)? Wie sind Arten in der Natur begründet? Und: Wenn Arten keine rein willkürlich konstruierten Gruppen sind, was sind sie dann? Für diese Fragen wurden innerhalb der Philosophie der Biologie verschiedene Lösungsvorschläge entwickelt, die jedoch noch nicht zu einem Konsens über die Natur biologischer Arten oder die Begründung von Arten in der Natur geführt haben. Das Artproblem, wie dieser Fragenkomplex heutzutage oft genannt wird, umfasst sowohl metaphysische bzw. ontologische als auch epistemologische Elemente, die eng miteinander verknüpft sind.27 Auf der epistemologischen Seite 26
Siehe http://www.iucnredlist.org. Gute Übersichtswerke und neuere Diskussionsbeiträge zum Artproblem sind u. a.
27
269
III. Die Philosophie der Natur- und Biowissenschaften
sind die zentralen Fragen, welche epistemische Rollen binomiale Artnamen, wie Ornithorhynchus anatinus, Sciurus vulgaris oder Heliconius melpomene sowie der Begriff ›Spezies‹ in der biologischen Wissenschaft spielen. Sind biologische Artnamen z. B. Bezeichnungen von Klassen von Entitäten, über die verallgemeinerte Aussagen gemacht werden können (»natural kinds«28), ähnlich wie den Namen der Elemente oder von Substanzen in der Chemie oder den Namen der verschiedenen Arten von Elementarteilchen im Standardmodell der Teilchenphysik? In der Chemie ist es z. B. möglich auf der Grundlage von Forschung an einigen Proben einer Substanz wie Ethanol (C H OH), in der eine bestimmte Eigenschaft wie der Gefrierpunkt bestimmt wird, die Aussage zu treffen, dass alle Proben von Ethanol den gleichen Gefrierpunkt besitzen (unter den gleichen Umständen wie denjenigen, unter denen die Bestimmung stattgefunden hat). Auf den ersten Blick erfüllen biologische Artnamen die gleiche Rolle als Substanz namen wie ›Ethanol‹ in der Chemie: Wenn man einige Exemplare der Art Sciurus vulgaris erforscht hat, ist man ja in der Lage, verlässliche Aussagen über die Eigenschaften von Eichhörnchen im Allgemeinen zu treffen (Griffiths 1999). Hat man ein Eichhörnchen gesehen, dann hat man sie alle gesehen – so scheint es zumindest. Allerdings ist die Situation bei näherem Hinsehen komplizierter. Wie oben bereits erwähnt, ist Evolution ja ein kontinuierlicher Veränderungsprozess. Arten bleiben nicht über den gesamten Zeitraum ihrer Existenz unveränderlich, sondern evolvieren, sodass spätere Mitglieder einer Art früheren Mitgliedern nicht in allen Eigenschaften ähneln. Verallgemeinerungen über die Eigenschaften aller Mitglieder einer Art werden dadurch in vielen Fällen nicht möglich sein, sodass es fraglich ist, ob biologische Arten die epistemische Rolle von natural kinds überhaupt erfüllen können. Über kürzere Zeiträume hinweg ist dies zwar oft kaum bemerkbar, da sich evolutionäre Prozesse typischerweise auf geologischen Zeit skalen abspielen.29 Aber dennoch ist deutlich, dass Arten in einem bestimmten Zeitfenster neu entstehen, irgendwann aussterben und sich in der Zwischenzeit oft stark verändern. Der Biologe Michael Ghiselin schlug vor, dass Arten nicht als natural kinds aufgefasst werden sollten, sondern eine Ontologie von Arten als Individuen diesem evolutionären Bild von Artbildung, Artwandlung und Artensterben besser entspräche als eine Ontologie von Arten als Klassen (Ghiselin 1966; 1974) – ein Vorschlag, der von David Hull aufgenommen und weiter ausgearbeitet wurde (Hull 1976; 1978) und mittlerweile sowohl in der Philosophie Howard / Berlocher (1998), Wilson (1999), Stamos (2003), Wilkins (2009), Richards (2010), Kunz (2012) und Slater (2013). 28 Zumindest nach einer bestimmten Auffassung davon, was natural kinds sind, wie z. B. durch Ian Hacking (1991), Richard Boyd (1999) oder auch Paul Griffiths (1999) vertreten. 29 Aber es gibt auch Beispiele schneller Evolution und Artbildung. Bei Cichliden in afrikanischen Seen können neue Eigenschaften und sogar neue Arten z. B. innerhalb weniger Generationen entstehen (siehe z. B. Seehausen et al. 1997; Seehausen 2002).
270
Philosophie der Biologie
der Biologie als auch in der Biologie selbst verbreitet angenommen wird (Reydon 2003). Die Diskussion ist damit jedoch längst nicht zu Ende: Nach wie vor gibt es viele Vertreter von Klassen-Ontologien von Arten und weiterhin stehen sich die beiden Positionen in der Debatte gegenüber (Reydon 2004; 2005). Das Artproblem ist einer der vielen Fragenkomplexe in der Philosophie der Biologie, in denen ontologische und epistemologische Fragen im Zusammenhang diskutiert werden. Wenn Arten Klassen von Organismen sind, können sie vielleicht als die Grundlagen für verallgemeinerte Aussagen in der Biologie dienen, in einer ähnlichen Weise wie Elemente oder Substanzen in der Chemie oder die Arten von Elementarteilchen in der Physik. Wenn Arten aber tatsächlich Individuen sind, dann scheinen sie eine solche Rolle nicht erfüllen zu können (Reydon 2006): Wie kann man über die Bestandteile eines Individuums verallgemeinern, wenn das Individuum sich durch die Zeit hindurch in einer solchen Weise verändert, dass spätere Bestandteile früheren Bestandteilen nicht unbedingt in bestimmten Eigenschaften ähnlich sein müssen? Es geht im Artproblem dementsprechend nicht nur um ontologische Fragen, deren Antworten für die Praxis der biologischen Wissenschaft vielleicht wenig Unterschied machen – es geht auch um epistemologische Fragen, die den wissenschaftlichen Kern der Biologie tangieren, wie die Frage nach der Möglichkeit allgemeingültiger Aussagen über die verschiedenen Arten von Organismen, die die Biologie studiert.
4.3 Epistemologie: Wie erklärt die Biologie? Eine weitere epistemologische Besonderheit der Biologie bezieht sich auf die Art und Weise, in der die Biologie die Phänomene erklärt, die sie erforscht. In Abschnitt 2 wurde bereits auf die Heterogenität hingewiesen, die in der Biologie hinsichtlich ihrer Forschungsmodi zu sehen ist. Eine solche Heterogenität besteht auch in Bezug auf biologische Erklärungen: Unterschieden wird u. a. zwischen funktionalen Erklärungen, teleologischen Erklärungen, evolutionären Erklärungen, Adaptationserklärungen, mechanistischen Erklärungen, topologischen Erklärungen, semiotischen Erklärungen, historischen Erklärungen, Design- Erklärungen usw. (für eine Übersicht siehe z. B. Wouters 2013; Kaiser et al. 2014; Braillard / Malaterre 2015; für Erläuterungen einiger dieser Erklärungsweisen siehe auch das Kapitel zur Philosophie der Soziologie in diesem Band, Abschnitt 2.2.1). Bezüglich dieser Erklärungsvielfalt tun sich jedoch mehrere Fragen auf: Erstens, sind all diese Erklärungsmodi tatsächlich unterschiedliche Weisen der Erklärung oder können nur einige als wirkliche Erklärungen angesehen werden? Und zweitens, wenn es sich tatsächlich um Erklärungsweisen handelt, sind die aufgelisteten Erklärungsmodi wirklich deutlich voneinander verschieden? Oder handelt es sich zum Teil um Variationen eines oder mehrerer Erklärungstypen? In welcher Weise sind die verschiedenen Erklärungsmodi, oder zumindest einige von Ihnen, miteinander verknüpft? 271
III. Die Philosophie der Natur- und Biowissenschaften
Der erste Fragenkomplex, der im Folgenden im Fokus stehen wird, steht mit der allgemein-wissenschaftsphilosophischen Frage im Zusammenhang, was denn eigentlich genau eine wissenschaftliche Erklärung sei. Traditionelle Antworten auf diese Frage beziehen sich auf Naturgesetze als erklärende Faktoren. So geht das bekannte deduktiv-nomologische Erklärungsmodell davon aus, dass der Kern einer jeden guten wissenschaftlichen Erklärung durch ein oder mehrere Naturgesetze gebildet wird (Hempel / Oppenheim 1948; Hempel 1962; 1965). Laut dem deduktiv-nomologischen Modell sind wissenschaftliche Erklärungen logisch gültige Schlüsse, in denen ein Satz, der das zu erklärende Phänomen (das Explanandum) beschreibt, aus Prämissen abgeleitet wird, die für das Explanandum relevante Naturgesetze und Anfangskonditionen beschreiben. Eine wissenschaftliche Erklärung ist also eine Ableitung (Deduktion) aus einem Naturgesetz oder einer Menge von Naturgesetzen. Für die biologische Wissenschaft ergeben sich diesbezüglich jedoch einige Fragen. So wird – obwohl es nicht klar ist, was Naturgesetze genau sind – oft davon ausgegangen, dass die Biologie nur über sehr wenige Naturgesetze oder vielleicht über gar keine Naturgesetze verfügt (Beatty 1995; Rosenberg 1994; 2001; 2006, 134 – 156). Wenn dies tatsächlich der Fall ist und gute wissenschaftliche Erklärungen auf Naturgesetzen basieren müssen, ist somit fraglich, ob die Biologie als Wissenschaft überhaupt in der Lage ist, eigenständig die Phänomene zu erklären, die sie studiert. Wenn die Biologie nicht über eigene Naturgesetze verfügt, muss sie ihre Erklärungen auf Naturgesetzen anderer Wissenschaften, insbesondere der Physik und der Chemie, aufbauen und liefert sie somit keine eigenständigen Erklärungen. Für den wissenschaftlichen Status der Biologie könnte eine solche Situation eine klare Abwertung bedeuten: Die Biologie wäre, zumindest was die von ihr gelieferten Erklärungen angeht, auf die Physik und die Chemie reduzierbar und hätte, wie z. B. Rosenberg (1994) argumentiert, lediglich den Status einer Instrumentalwissenschaft. Allerdings kann das Problem auch umgekehrt werden: Vielleicht liegt das Problem nicht bei der Biologie, sondern vielmehr bei der traditionellen Auffassung von Naturgesetzen und/oder bei dem deduktiv-nomologischen Erklärungsmodell. Die Annahme, dass die Biologie nicht über Naturgesetze verfügt, wird durch die traditionelle Auffassung von Naturgesetzen als universell und ausnahmslos gültige Verallgemeinerungen motiviert. Zwar ist es richtig, dass es in der Biologie kaum solche Verallgemeinerungen gibt, allerdings wird die traditionelle Auffassung von Naturgesetzen als universell und ausnahmslos gültige Verallgemeinerungen heutzutage oft als zu eng abgelehnt (z. B. Cartwright 1983; Mitchell 1997; 2000). Außerdem wird auch das deduktiv-nomologische Modell, das in der Wissenschaftsphilosophie des 20. Jh. verbreitet akzeptiert wurde, heutzutage oft als zu strikt abgelehnt. Bereits von Anfang an war das Modell starker Kritik ausgesetzt und es ist seit langem deutlich, dass es als übergreifendes Modell von Erklärungen in den Wissenschaften problematisch ist, weil es nicht zu vielen Erklärungen passt, die in den Einzelwissenschaften aufgestellt werden, und gute 272
Philosophie der Biologie
Erklärungen nicht unbedingt in der Anwendung von Naturgesetzen bestehen müssen (siehe dazu z. B. Salmon 1989; Woodward 2000; 2008, 173 – 174). Tatsächlich spielen in vielen biologischen Erklärungen Naturgesetze keine oder lediglich eine untergeordnete Rolle. In funktionalen Erklärungen z. B. geht es primär darum, Fragen danach zu beantworten, für was bestimmte organismische Eigenschaften da sind (Canfield 1964) oder was bestimmte Eigenschaften für das System leisten, in das sie eingebettet sind (Cummins 1975).30 In solchen Erklärungen wird das Vorhandensein und/oder das Verhalten des Explanandums primär durch den Beitrag erklärt, den das Explanandum zum Erhalt oder das Funktionieren des Systems leistet, in das es eingebettet ist, oder (im Falle ätiologischer Funktionstheor ien) zu Vorgängern dieses Systems, ohne dass dabei auf Naturgesetze Bezug genommen wird. Auch in mechanistischen Erklärungen, die gegenwärtig in den Philosophien der Biologie und der Kognitionswissenschaft stark propagiert und kontrovers diskutiert werden (z. B. Machamer et al. 2000; Bechtel / Abrahamsen 2005; Glennan 2008; Bechtel 2011), wird im Allgemeinen kein direkter Bezug auf Naturgesetze genommen. In mechanistischen Erklärungen wird das Explanandum dadurch erklärt, dass gezeigt wird, wie es aus der organisierten Aktivität verschiedener Teile eines Systems hervorgeht. In solchen Erklärungen wird primär die Organisation eines Mechanismus in Betracht gezogen, der das zu erklärende Phänomen produziert: Es wird gefragt, wie die verschiedenen »Bauteile« des Mechanismus zusammenhängen und wie die Aktivitäten der Teile einander beeinflussen, sodass aus dieser gegenseitigen Beeinflussung das zu erklärende Phänomen entsteht. Naturgesetze sind in solchen Erklärungen allenfalls nur indirekt im Blick, indem sie für die Erklärungen der Aktivitäten der verschiedenen Teile des Mechanismus herangezogen werden können. Die Erklärungsleistung mechanistischer Erklärungen in der Biologie hängt jedoch nicht primär vom Vorhandensein von biologischen Naturgesetzen ab. Damit soll jedoch nicht gesagt sein, dass funktionale und mechanistische Erklärungen gänzlich ohne Naturgesetze oder Verallgemeinerungen auskommen: Sie spielen als Bestandteile von Erklärungen nach wie vor eine Rolle, aber stehen nicht im Vordergrund und sind nicht die primären Träger der Erklärungsleistung.31 Ein weiterer Erklärungsmodus, in dem nicht auf Naturgesetze Bezug genommen wird, ist der Modus der historischen Erklärungen. Wesentliche Teile der Biologie erklären Phänomene zumindest zum Teil durch Rückgriffe auf die Geschichte des Evolutionsprozesses, sodass historische Narrative auch hier eine Was genau als Explanandum funktionaler Erklärungen angesehen wird, hängt mit von der Interpretation des Funktionsbegriffs ab, die man annimmt. Wie viele Begriffe aus der biologischen Wissenschaft ist auch der Funktionsbegriff sehr umstritten und gibt es mehrere, nebeneinander existierende Definitionen dieses Begriffs. Zu dieser Debatte siehe z. B. Ariew et al. (2002), Wouters (2003), Lewens (2007) oder Garson (2008). 31 So haben Craver / Kaiser (2013) argumentiert, dass das mechanistische Erklärungsmodell nicht als Alternative zum gesetzesbasierten Erklärungsmodell aufgefasst werden solle und die Frage, ob die Biologie über Naturgesetze verfügt, überholt sei. 30
273
III. Die Philosophie der Natur- und Biowissenschaften
wichtige Rolle spielen. Allerdings ist es im Falle historischer Narrative fraglich, ob diese als wirklich erklärend angesehen werden können, insbesondere wenn das deduktiv-nomologische Modell als Standard für wissenschaftliche Erklärung angenommen wird.32 Der Philosoph William Dray argumentierte – gegen das zu seiner Zeit prominente deduktiv-nomologische Modell wissenschaftlicher Erklärungen –, dass Narrative in der Geschichtswissenschaft wirkliche erklärende Kraft haben (Dray 1957; 1964; 1968). Laut Dray sind historische Erklärungen allerdings eine spezielle Form von Erklärungen: Sie erklären nicht, warum das zu erklärende Phänomen auftreten musste, sondern, warum es gegen alle Erwartung auftreten konnte. Historische Erklärungen erklären dementsprechend die Möglichkeit des Explanandums – es sind »how-possibly explanations«. Mehrere Autoren haben argumentiert, dass solche »Möglichkeitserklärungen« auch in der Biologie eine wichtige Rolle spielen (Brandon 1990; Resnik 1991; Bokulich 2014).33 Die obige Diskussion zeigt, dass es in der biologischen Wissenschaft mehrere Erklärungsmodi gibt, in denen Naturgesetze keine zentrale Rolle spielen (obwohl Gesetze oder gesetzesähnliche Verallgemeinerungen oft im Hintergrund stehen) und die dementsprechend nicht in das deduktiv-nomologische Modell wissenschaftlicher Erklärungen passen. Grundsätzlich kann diese Situation auf zwei unterschiedliche Weisen interpretiert werden: Man kann an dem deduktivnomologischen Modell festhalten und negieren, dass funktionale, mechanistische und historische Erklärungen tatsächlich Erklärungen sind. Und man kann funktionale, mechanistische, historische und sonstige Erklärungen als wirkliche Erklärungen anerkennen und das deduktiv-nomologische Modell als übergreifendes Modell wissenschaftlicher Erklärungen ablehnen. Die gegenwärtige Tendenz in der Philosophie der Biologie sowie in der Wissenschaftsphilosophie im Allgemeinen ist, nicht am deduktiv-nomologischen Modell festzuhalten und stattdessen eine pluralistische Auffassung von Erklärungsmodi zu vertreten (wie es auch in anderen Wissenschaften der Fall ist; ↑ Philosophie der Soziologie, Abschnitt 2.1.1).
5 Neuere Entwicklungen und Herausforderungen Von Anfang an war die Philosophie der Biologie stark auf das Phänomen der Evolution sowie auf die unterschiedlichen Aspekten der Evolutionstheorie orientiert: Die Evolutionstheor ie wurde als das unterscheidende Element der Biologie hervorgehoben und viele der Leitfragen in der Philosophie der Biologie hatten einen direkten oder indirekten Bezug zur Evolutionstheorie bzw. zum biologischen Siehe dazu auch das Kapitel zur Philosophie der Geschichtswissenschaft in diesem Band. 33 Allerdings bleibt fraglich, inwiefern solche »how-possibly explanations« tatsächlich als Erklärungen gelten dürfen (Reydon 2012). 32
274
Philosophie der Biologie
Phänomen der Evolution.34 Beispiele dieses Fokus auf Aspekte der Evolution sind die Debatten zum Artbegriff, über die Ebenen und Einheiten der Selektion, zum möglichen Status zentraler evolutionärer Prinzipien als Naturgesetze, zur Struktur evolutionärer Erklärungen oder zum Wesen der natürlichen Selektion. In der Debatte zu den Ebenen und Einheiten der Selektion geht es z. B. um die Frage, auf welchen Organisationsebenen (die genetische Ebene, die Zellebene, die Organismenebene, die Populationsebene usw.) Selektionsprozesse auftreten können und welche »Dinge« (Gene, Organismen, Populationen usw.) dabei selektiert werden (z. B. Lloyd 2007; Okasha 2008). In der Debatte zum Wesen der natürlichen Selektion – dazu, was natürliche Selektion eigentlich ist – geht es primär darum, ob Selektion als natürlicher Prozess oder eher als das statistische Ergebnis anderer Prozesse aufgefasst werden sollte (z. B. Walsh et al. 2002). Solche evolutionsorientierten Debatten spielten seit der Etablierung des Fachs eine zentrale Rolle in der Philosophie der Biologie – und spielen diese immer noch. Eine erste Herausforderung für das Fachgebiet besteht darin, die Diskussion weniger auf Aspekte der Evolutionsbiologie und mehr auf andere Bereiche der Biologie zu fokussieren. Während Teilbereiche der Biologie wie die Ökologie, die Mikrobiologie, die Entwicklungsbiologie, die Verhaltensbiologie oder die organismische Biologie immer auch im Blick waren, wurden diese Bereiche doch vergleichsweise wenig von Philosophen beachtet. In den letzten Jahren ist jedoch ein erneutes Interesse zu sehen für Teilbereiche der Biologie, in denen Evolution nicht die Hauptrolle spielt. Zum Teil hängt diese Entwicklung mit dem Bestreben zusammen, die Philosophie der Biologie zu einer umfassenden Philosophie der Lebenswissenschaften zu erweitern, in der nicht nur die klassischen Teilbereiche der Biologie reflektiert werden, sondern auch die Biotechnologie, die biomedizinischen Wissenschaften sowie neuere Bereiche wie die synthetische Biologie und die Systembiologie und gar die biologische Anthropologie (siehe dazu Netzwerk Philosophie der Lebenswissenschaften, 2013). Eine weitere Herausforderung ist mit der stetigen Weiterentwicklung der biologischen Evolutionstheorie verknüpft. Diesbezüglich muss angemerkt werden, dass es die Evolutionstheorie eigentlich gar nicht gibt. Wie Mayr hervorgehoben hat, ist das, was wir üblicherweise »Evolutionstheorie« nennen, tatsächlich ein Gebilde mehrerer theoretischer Ansätze, die unabhängig voneinander angenommen bzw. verworfen werden können – darunter die Theorie der natürlichen Selektion als zentraler Mechanismus in Evolutionsprozessen, die Theorie der gemeinsamen Oft wird diesbezüglich der Slogan des Biologen Theodosius Dobzhansky zitiert, nach dem »nichts in der Biologie einen Sinn ergebe, außer wenn es im Lichte der Evolution betrachtet wird« (Dobzhansky 1964; 1973; eigene Übersetzung). Dobzhansky meint allerdings nicht, dass alle biologischen Phänomene evolutionär erklärt werden müssten oder dass die Biologie sich von allen anderen Wissenschaften besonders durch die Evolutionstheor ie unterscheide. Vielmehr meint er, dass alle Lebewesen Produkte evolutionärer Prozesse sind und dementsprechend evolutionäre Aspekte bei der Analyse von biologischen Phänomenen immer mit in Betracht gezogen werden sollten. 34
275
III. Die Philosophie der Natur- und Biowissenschaften
Abstammung allen Lebens und die Theorie der Vervielfältigung der Arten.35 Bereits bevor Charles Darwin und Alfred Russel Wallace ihre Theorien der Evolution durch natürliche Selektion veröffentlichten (Darwin 1858; 1859; Wallace 1858), wurden Evolutionstheorien vertreten, die allerdings nicht alle Elemente der Theorie von Darwin und Wallace enthielten. Bekanntlich vertrat z. B. Lamarck eine Evolutionstheorie, in der weder die natürliche Selektion noch die gemeinsame Abstammung allen Lebens eine Rolle spielte. Lamarck akzeptierte zwar die Theorie der Vervielfältigung der Arten, d. h. er ging davon aus, dass andauernd neue Arten in Existenz kämen, aber für ihn war die Ursache der Artbildung eine andere als bei Darwin und Wallace: Darwin und Wallace erklärten die Artenvielfalt durch die Abspaltung neuer Arten von bereits existierenden Arten. Lamarck ging hingegen von einer fortdauernden spontanen Entstehung einfachster Arten aus, die sich dann entlang eines weitgehend gleichen Pfades weiterentwickelten. Lamarck erklärte die bestehende Artenvielfalt durch die unterschiedlich langen Entwicklungszeiten der einzelnen Arten, sodass diese unterschiedlich weit fortgeschritten sind. Während sich die Philosophie der Biologie bislang hauptsächlich mit der Version der Evolutionstheorie befasst hat, die sich in den 1930 – 1940er Jahren herausgebildet hat (die sogenannte »Moderne Synthese«), steht das Fach jetzt vor der Herausforderung, die neuesten Entwicklungen der Theorie aufzugreifen und zu reflektieren. Diesbezüglich wäre insbesondere das Aufkommen einer »erweiterten Synthese« zu nennen, die aus gegenwärtigen Versuchen hervorgeht, die Entwicklungsbiologie und die Evolutionsbiologie in einen integrierten theoretischen Rahmen zu vereinen (z. B. Müller 2007; Pigliucci / Müller 2010; Weber 2011). Wenn die Biologie sich zu einer »neuen Biologie« (Rose / Oakley 2007) weiterentwickelt, muss die Philosophie der Biologie dieser Entwicklung folgen. Wie in Abschnitt 2 skizziert, ist ein historisches Charakteristikum der Philosophie der Biologie die enge inhaltliche Verbindung zwischen der Philosophie und ihrer Bezugswissenschaft. David Hull kritisiert die frühe Philosophie der Biologie für ihre vermeintliche Biologieferne, meint jedoch vor allem die Beschäftigung der allgemeinen Wissenschaftsphilosophie mit der Biologie. So beendet er einen 1969 (also vor der Etablierung des Fachs) veröffentlichten Übersichtsartikel mit dem Titel »Was die Philosophie der Biologie nicht ist« mit einem sehr kritischen Urteil: »Was die Philosophie der Biologie nicht ist? Man muss zugestehen, dass sie bislang weder sehr relevant für die Biologie ist noch die Biologie für sie.« (Hull 1969, 179; eigene Übersetzung). Etwas mehr als 25 Jahre später ist sein Urteil deutlich positiver: »[E]ine der Stärken des spezifischen Gebiets der Wissenschaftsphilosophie, das Philosophie der Biologie genannt wird, ist die Tatsache, dass Philosophen und Biologen diesen Unterschied [zwischen Naturwis Mayr (1985; 2004, 97 – 115) spricht diesbezüglich von »Darwins fünf Theor ien«. Allerdings ist fraglich, ob man wirklich in allen Fällen von Theor ien in einem strikten, wissenschaftstheoretischen Sinne sprechen kann. 35
276
Philosophie der Biologie
senschaft und Wissenschaftsphilosophie – Anm. des Verfassers] ignoriert haben und auf beiden Seiten der Grenze zusammenarbeiten.« (Hull 2002, 117; eigene Übersetzung).36 Ein Grund für dieses positivere Urteil ist vielleicht die Hinwendung zur wissenschaftlichen Praxis, die in der Philosophie der Biologie deutlich zu sehen ist (siehe dazu Netzwerk Philosophie der Lebenswissenschaften, 2013). So befassen sich Wissenschaftsphilosophinnen und -philosophen der Biologie immer stärker mit den verschiedenen Aspekten der konkreten biologischen Forschungspraxis, wie z. B. mit der Konstruktion von Modellen oder der Verbreitung und Aufbewahrung von Daten, statt primär die Ergebnisse der Forschung (d. h. Theorien, fertige Erklärungen, Taxonomien usw.) in den Blick zu nehmen. Darüber hinaus gibt es in der gegenwärtigen Philosophie der Biologie vergleichsweise viele Forschungskooperationen zwischen Biologen und Philosophen. Biologen veröffentlichen regelmäßig in philosophischen Fachzeitschriften und umgekehrt veröffentlichen Philosophen in biologischen Fachzeitschriften. Außerdem gibt es auf beiden Seiten Bestrebungen, eine gegenseitige inhaltliche Relevanz zu entwickeln (Reydon / Hoyningen-Huene 2011, 139 f.).
Literatur Empfehlungen: Im englischsprachigen Raum existiert heute eine Fülle von einführenden Lehrbüchern in die Philosophie der Biologie. Die beiden allerersten Lehrbücher in diesem Fach, die in Abschnitt 3 bereits erwähnten Werke von Michael Ruse (1973) und David Hull (1974), präsentieren zwar den Stand der Diskussion der 1970er Jahre, sind aber zu Klassikern des Faches geworden und auch aus heutiger Perspektive noch sehr lesenswert. Dies gilt insbesondere für Hulls Buch, das nicht nur als Lehrbuch, sondern auch als Forschungsbeitrag seinen Wert bewiesen hat. (Das erste Kapitel dieses Buchs ist ein klassischer Forschungsbeitrag zur Frage, ob die Mendel’sche Genetik auf die molekulare Genetik reduziert werden kann.) Weltweit wohl die meist gebrauchten Lehrbücher sind die Werke von Sterelny / Griffiths (1999) und Sober (2000). Beide sind zwar auch schon etwas älter und decken sicherlich nicht das gesamte Fach ab, sind als erste Begegnung mit der Philosophie der Biologie dennoch ausgezeichnet geeignet. In den vergangenen zehn Jahren sind einige einführende Werke hinzugekommen (u. a. Garvey 2007; Rosenberg / McShea 2008), von denen das erst vor Kurzem erschienene, ausgezeichnete Lehrbuch von GodfreySmith (2014) hier besonders hervorgehoben werden soll. Der Sammelband von Ayala / Arp (2010) bietet eine gelungene Gegenüberstellung von je einem »Pro«-Aufsatz und einem »Contra«-Aufsatz zu neun zentralen Fragen des Faches. Neben diesen Texten stehen mehrere Übersichtswerke zur Verfügung, die jedes für sich einen umfangreichen Überblick über die einzelnen Themen des Faches bieten – diesbezüglich Die Ähnlichkeit von Hulls Bemerkung mit der weiter oben angesprochenen Position des theoretischen Biologen Johannes Reinke ist bemerkenswert. 36
277
III. Die Philosophie der Natur- und Biowissenschaften
sollten insbesondere die Bände von Hull / Ruse (2007), Matthen / Stephens (2007), Ruse (2008) sowie Sarkar / Plutynski (2008) erwähnt werden. Ein bislang einzigarti ges Werk ist der von Kampourakis (2013) herausgegebene Band, in dem 30 Beiträge gesammelt sind, die den aktuellen Stand der Diskussion in der Philosophie der Biologie explizit im Kontext des Schulunterrichts in der Biologie besprechen und versuchen, Forschungsergebnisse aus der Philosophie der Biologie für den Biologieunterricht fruchtbar zu machen. Im deutschen Sprachraum ist das Angebot guter einführender Texte oder Übersichtswerke noch alles andere als umfangreich. Das Werk von Mahner / Bunge (2000), das ursprünglich 1997 auf Englisch erschienen ist, deckt die Philosophie der Biologie zwar breiter ab als viele andere Lehrbücher, es nimmt allerdings auch eine stark logisch-formalistische Perspektive ein und ist dadurch weniger leicht zugänglich. Als zugängliche, erste Einführung sollte der Band von Köchy (2008) erwähnt werden. Das Werk von Janich und Weingarten (1999) bietet eine lesenswerte, aber gleichzeitig auch sehr spezifische Perspektive auf das Fachgebiet: Die Autoren begreifen die Philosophie der Biologie aus der Perspektive der philosophischen Schule des methodischen Kulturalismus. Als empfehlenswert hervorgehoben werden soll der Sammelband von Krohs / Toepfer (2005), der in 23 Beiträgen einen ausgezeichneten Überblick über verschiedene Kernthemen der Philosophie der Biologie bietet. Ich danke meinem Mitherausgeber Simon Lohse sowie zwei anonymen GutachterInnen für ihre konstruktiven Anmerkungen zu früheren Fassungen dieses Kapitels. Leon Schäfer danke ich für die kritische Durchsicht und sprachliche Korrektur des Textes. Ariew, Andre, Cummins, Robert undPerlman, Mark (Hg.) (2002): Functions: New essays in the Philosophy of Psychology and Biology, Oxford: Oxford University Press. Ayala, Francisco J. und Arp, Robert (Hg.) (2010): Contemporary Debates in Philosophy of Biology, Chichester: Wiley-Blackwell. Beatty, John (1995): ›The evolutionary contingency thesis‹, in: Wolters, Gereon und Lennox, James G. (Hg.): Concepts, Theories, and Rationality in the Biological Sciences, Konstanz/Pittsburgh: Universitätsverlag Konstanz / University of Pittsburgh Press, 45 – 81. Bechtel, William (2011): ›Mechanism and biological explanation‹, Philosophy of Science 78, 533 – 557. – und Abrahamsen, Adele (2005): ›Explanation: A mechanist alternative‹, Studies in History and Philosophy of Biological and Biomedical Sciences 36, 421 – 4 41. Beckner, Morton (1959): The Biological Way of Thought, New York: Columbia University Press. Bokulich, Alisa (2014): ›How the Tiger Bush got its stripes: ›How possibly‹ vs. ›how actually‹ model explanations‹, The Monist 97, 321 – 338. Boorse, Christopher (1977): ›Health as a theoretical concept‹, Philosophy of Science 44, 542 – 573. Bouchard, Frédéric und Huneman, Philippe (Hg.) (2013): From Groups to Indivi278
Philosophie der Biologie
duals: Perspectives on Biological Associations and Emerging Individuality, Cambridge, MA: MIT Press. Boyd, Richard N. (1999): ›Homeostasis, species, and higher taxa, in: Wilson, R. A. (Hg.): Species: New Interdisciplinary Essays, Cambridge, MA: MIT Press, 141 – 185. Braillard, Pierre-Alain und Malaterre, Christophe (Hg.) (im Druck): Explanation in Biology: An Enquiry Into the Diversity of Explanatory Patterns in the Life Sciences, Dordrecht: Springer. Brandon, Robert N. (1990): Adaptation and Environment, Princeton, NJ: Princeton University Press. Brenner, Andreas (2009): Leben, Stuttgart: Reclam. Canfield, Jack (1964): ›Teleological explanation in biology‹, British Journal for the Philosophy of Science 14, 285 – 295. Carel, Havi und Cooper, Rachel (Hg.) (2012): Health, Illness & Disease: Philosophical Essays, Durham: Acumen. Carnap, Rudolf (1931): ›Überwindung der Metaphysik durch logische Analyse der Sprache‹, Erkenntnis 2, 219 – 241. Cartwright, Nancy (1983): How the Laws of Physics Lie, Oxford: Oxford University Press. Clarke, Ellen (2011): ›The problem of biological individuality‹, Biological Theory 5, 312 – 325. Cleland, Carol E. und Chyba, Christopher F. (2002): ›Defining ›life‹‹, Origins of Life and Evolution of Biosphere 32, 387 – 393. Craver, Carl F. und Kaiser, Marie I. (2013): ›Mechanisms and laws: Clarifying the debate‹ in: Chao, Hsinag-Ke, Chen, Szu-Ting und Millstein, Roberta L. (Hg.): Mechanisms and Causality in Biology and Economics, Dordrecht: Springer, 125 – 145. Cummins, Robert (1975): ›Functional analysis‹, Journal of Philosophy 72, 741 – 765. Darwin, Charles R. (1876): Über die Entstehung der Arten durch natürliche Zuchtwahl, oder die Erhaltung der begünstigten Rassen im Kampfe um’s Dasein (übers. H. G. Bronn, J. V. Carus), sechste Auflage, Stuttgart: E. Schweizerbart’sche Verlagshandlung (E. Koch). Dembski, William A. und Ruse, Michael (Hg.) (2004): Debating Design: From Darwin to DNA, Cambridge: Cambridge University Press. De Queiroz, Kevin (1998): ›The General Lineage Concept of Species, species criteria, and the process of speciation‹, in: Howard, Daniel J. und Berlocher, Stephen H. (Hg.): Endless Forms: Species and Speciation, New York: Oxford University Press, 57 – 75. – (1999): ›On the impossibility of a monistic account of species‹, in: Wilson, Robert A. (Hg.): Species: New Interdisciplinary Essays, Cambridge, MA: MIT Press, 49 – 89. Dobzhansky, Theodosius (1964): ›Biology, molecular and organismic‹, American Zoologist 4, 443 – 452. – (1973): ›Nothing in biology makes sense except in the light of evolution‹, American Biology Teacher 35, 125 – 129. 279
III. Die Philosophie der Natur- und Biowissenschaften
Dray, William H. (1957): Laws and Explanation in History, London: Oxford University Press. – (1964): Philosophy of History, Englewood Cliffs, NJ: Prentice-Hall. – (1968): ›»Explaining what« in history‹, in: Brodbeck, May (Hg.): Readings in the Philosophy of the Social Sciences, London: Macmillan, 343 – 348. Driesch, Hans (1909): Philosophie des Organischen (2 Bände), Leipzig: Verlag von Wilhelm Engelmann. Dupré, John A. (1993): The Disorder of Things: Metaphysical Foundations for the Disunity of Science, Cambridge, MA: Harvard University Press. – (1999): ›The General Lineage Concept of species and the defining properties of the species category‹, in: Wilson, Robert A. (Hg.): Species: New Interdisciplinary Essays, Cambridge, MA: MIT Press, 3 – 22. Esfeld, Michael (2011): Einführung in die Naturphilosophie (2. Auflage), Darmstadt: Wissenschaftliche Buchgesellschaft. Farber, Paul L. (2000): Finding Order in Nature: The Naturalist Tradition from Linnaeus to E. O. Wilson, Baltimore, MD/London: Johns Hopkins University Press. Forterre, Patrick (2010): ›Defining life: The virus viewpoint‹, Origins of Life and Evolution of the Biosphere 40, 151 – 160. Garson, Justin (2008): ›Function and teleology‹, in: Sarkar, Sahotra und Plutynski, Anya (Hg.): A Companion to the Philosophy of Biology, Malden (MA): Blackwell, 525 – 549. Garvey, Brian (2007): Philosophy of Biology, Stocksfield: Acumen. Ghiselin, Michael T. (1966): ›On psychologism in the logic of taxonomic controversies‹, Systematic Zoology 15, 207 – 215. – (1974): ›A radical solution to the species problem‹, Systematic Zoology 23, 536 – 544. Gifford, Fred (Hg.) (2011): Philosophy of Medicine (Handbook of the Philosophy of Science, Vol. 16), Amsterdam: North Holland. Glennan, Stuart (2008): ›Mechanisms‹, in: Psillos, Stathis und Curd, Michael (Hg.): The Routledge Companion to Philosophy of Science, Abingdon: Routledge, 376 – 384. Godfrey-Smith, Peter (2013): ›Darwinian individuals‹, in: Bouchard, Frédéric und Huneman, Philippe (Hg.): From Groups to Individuals: Perspectives on Biological Associations and Emerging Individuality, Cambridge, MA: MIT Press, 17 – 36. – (2014): Philosophy of Biology, Princeton, NJ: Princeton University Press. Grene, Marjorie und Depew, David (2004): The Philosophy of Biology: An Episodic History, Cambridge: Cambridge University Press. Griffiths, Paul E. (1999): ›Squaring the circle: Natural kinds with historical essences‹, in: Wilson, Robert A. (Hg.): Species: New Interdisciplinary Essays, Cambridge, MA: MIT Press, 209 – 228. – (2008): ›Philosophy of biology‹, in: Zalta, Ed N. (Hg.): The Stanford Encyclopedia of Philosophy (Summer 2011 Edition), online auf http://plato.stanford.edu/archives/ sum2011/entries/biology-philosophy/. Guay, Alexandre und Pradeu, Thomas (Hg.) (2015): Individuals Across the Sciences, New York: Oxford University Press. 280
Philosophie der Biologie
Hacking, Ian (1991): ›A tradition of natural kinds‹, Philosophical Studies 61, 109 – 126. Hartmann, Max (1925): Biologie und Philosophie, Berlin: Verlag von Julies Springer. Hempel, Carl G. (1962): ›Explanation in science and history‹, in: Colodny, Robert G. (Hg.): Frontiers of Science and Philosophy, Pittsburgh: University of Pittsburgh Press, 7 – 33. – (1965): ›Aspects of scientific explanation‹, in: Hempel, Carl G.: Aspects of Scientific Explanation and Other Essays in the Philosophy of Science, New York: Free Press, 331 – 496. – und Oppenheim, Paul (1948): ›Studies in the logic of explanation‹, Philosophy of Science 15, 135 – 175. Howard, Daniel J. und Berlocher, Stewart H. (Hg.) (1998): Endless Forms: Species and Speciation, New York: Oxford University Press. Hull, David L. (1969): ›What philosophy of biology is not‹, Synthese 20, 157 – 184. – (1974): Philosophy of Biological Science, Englewood Cliffs (NJ): Prentice-Hall. – (1976): ›Are species really individuals?‹, Systematic Zoology 25, 174 – 191. – (1978): ›A matter of individuality‹, Philosophy of Science 45, 335 – 360. – (2002): ›Recent philosophy of biology: A review‹, Acta Biotheoretica 50, 117 – 128. – und Ruse, Michael (Hg.) (2007): The Cambridge Companion to the Philosophy of Biology, Cambridge: Cambridge University Press. Jahn, Ilse (Hg.) (2000): Geschichte der Biologie: Theorien, Methoden, Institutionen, Kurzbiographien, Berlin: Spektrum Akademischer Verlag. Janich, Peter und Weingarten, Michael (1999): Wissenschaftstheorie der Biologie, München: Wilhelm Fink Verlag/ UTB. Jardine, Nicholas, Secord, James A. und Spary, Emma C. (Hg.) (1996): Cultures of Natural History, Cambridge: Cambridge University Press. Jeuken, Marius (1976): ›Note of the editor‹, Acta Biotheoretica 25: i. Johnstone, James (1914): The Philosophy of Biology, Cambridge: Cambridge University Press. Kaiser, Marie I., Scholz, Oliver R., Plenge, Daniel und Hüttemann, Aandreas (Hg.) (2014): Explanation in the Special Sciences: The Case of Biology and History, Dordrecht: Springer. Kampourakis, Kostas (2013): The Philosophy of Biology: A Companion for Educators, Dordrecht: Springer. Kitcher, Philip (1993): ›The evolution of human altruism‹, Journal of Philosophy 90, 497 – 516. – (2007): Living with Darwin: Evolution, Design, and the Future of Faith, New York: Oxford University Press. Knell, Sebastian und Weber, Marcel (Hg.) (2009): Länger Leben? Philosophische und biowissenschaftliche Perspektiven, Frankfurt am Main: Suhrkamp. Köchy, Kristian (2008): Biophilosophie: Zur Einführung, Hamburg: Junius. Krohs, Ulrich und Toepfer, Georg (Hg.) (2005): Philosophie der Biologie: Eine Einführung, Frankfurt a. M.: Suhrkamp. 281
III. Die Philosophie der Natur- und Biowissenschaften
Kummer, Christian (Hg.) (2009): Was ist Naturphilosophie und was kann sie leisten?, Freiburg i.B.: Karl Alber. Kunz, Werner (2012): Do Species Exist? Principles of Taxonomic Classification: Weinheim: Wiley-Blackwell. Lawlor, Leonard und Moulard-Leonard, Valentine (2013): ›Henri Bergson‹, in: Zalta, Ed N. (Hg.): The Stanford Encyclopedia of Philosophy (Winter 2013 Edition), online auf http://plato.stanford.edu/archives/win2013/entries/bergson/. Levin, Donald A. (1979): ›The nature of plant species‹, Science 204, 381 – 384. Lewens, Tim (2007): ›Functions‹, in: Matthen, Mohan und Stephens, Christopher (Hg.): Philosophy of Biology (Handbook of the Philosophy of Science, Volume 3), Amsterdam: North Holland, 525 – 547. Lherminer, Philippe und Solignac, Michel (2000): ›L’espèce: Définitions d’auteurs‹, Comptes Rendus de l’ Académie des Sciences de Paris, Sciences de la Vie 323, 153 – 165. Lloyd, Elisabeth A. (2007): ›Units and levels of selection‹, in: Hull, David L und Ruse, Michael (Hg.): The Cambridge Companion to the Philosophy of Biology, Cambridge: Cambridge University Press, 44 – 65. Machamer, Peter, Darden, Lindley und Craver, Carl F. (2000): ›Thinking about mechanisms‹, Philosophy of Science 67, 1 – 25. Machery, Edouard (2012): ›Why I stopped worrying about the definition of life … and why you should as well‹, Synthese 185, 145 – 164. Mahner, Martin und Bunge, Mario (2000): Philosophische Grundlagen der Biologie, Berlin/Heidelberg: Springer. Mallet, James (2007): ›Species, concepts of‹, in: Levin, Simon A. (Hg.): Encyclopedia of Biodiversity, Volume 5, Oxford: Academic Press, 1 – 15. Matthen, Mohan und Stephens, Chrostopher (Hg.): Philosophy of Biology (Handbook of the Philosophy of Science, Volume 3), Amsterdam: North Holland. Mayden Richard L. (1997): ›A hierarchy of species concepts: The denouement in the saga of the species problem‹, in: Claridge, Michael F., Dawah, Hassan A. und Wilson, Michael R. (Hg.): Species: The Units of Biodiversity, London: Chapman & Hall. – (1999): ›Consilience and a hierarchy of species concepts: Advances toward closure on the species puzzle‹, Journal of Nematology 31, 95 – 116. Maynard Smith, John und Szathmáry, Eörs (1995): The Major Transitions in Evolution, Oxford: Oxford University Press. Mayr, Ernst (1961): ›Cause and effect in biology‹, Science 134, 1501 – 1506. – (1982): The Growth of Biological Thought: Diversity, Evolution, and Inheritance, Cambridge, MA: Harvard University Press. – (1985): ›Darwin’s five theor ies of evolution‹, in: Kohn, David (Hg.): The Darwinian Heritage, Princeton: Princeton University Press, 755 – 772. – (1987): ›The ontological status of species: Scientific progress and philosophical terminology‹, Biology and Philosophy 2, 145 – 166. – (1989): Toward a New Philosophy of Biology: Observations of an Evolutionist, Cambridge, MA: Harvard University Press. 282
Philosophie der Biologie
– (1996a): ›What is a species, and what is not?‹, Philosophy of Science 63, 262 – 277. – (1996b): ›The autonomy of biology: The position of biology among the sciences‹, Quarterly Review of Biology 71, 97 – 106. – (2004): What Makes Biology Unique? Considerations on the Autonomy of a Scientific Discipline, Cambridge: Cambridge University Press. McLaughlin, Peter (1989): Kants Kritik der teleologischen Urteilskraft, Bonn: Bouvier. – (2002): ›Naming biology‹, Journal of the History of Biology 35, 1 – 4 . Mishler, Brent D. (1999): ›Getting rid of species?‹, in: Wilson, Robert A. (Hg.): Species: New Interdisciplinary Essays, Cambridge, MA: MIT Press, 307 – 315. – (2010): ›Species are not uniquely real biological entities‹, in: Ayala, Francisco J. und Arp, Robert (Hg.): Contemporary Debates in Philosophy of Biology, Chichester: Wiley-Blackwell, 110 – 122. Mitchell, Sandra (1997): ›Pragmatic laws‹, Philosophy of Science 64: 468–479. – (2000): ›Dimensions of scientific law‹, Philosophy of Science 67, 242 – 265. Morange, Michel (2010): ›The resurrection of life‹, Origins of Life and Evolution of the Biosphere 40, 179 – 182. Müller, Gerd B. (2007): ›Evo-devo: Extending the evolutionary synthesis‹, Nature Reviews Genetics 8, 943 – 949. Murphy, Dominic (2008): ›Health and disease‹, in: Sarkar, Sahotra und Plutynski, Anya (Hg.): A Companion to the Philosophy of Biology, Malden (MA): Blackwell, 287 – 297. – (2015): ›Concepts of disease and health‹, in: Zalta, Ed N. (Hg.): The Stanford Encyclopedia of Philosophy (Spring 2015 Edition), online auf http://plato.stanford.edu/ archives/spr2015/entries/health-disease/. Nagel, Ernest (1961): The Structure of Science: Problems in the Logic of Scientific Explanation, London: Routledge & Kegan Paul. Netzwerk Philosophie der Lebenswissenschaften (15 Autoren) (2013): ›Philosophie der Lebenswissenschaften: Entwicklungen und Tendenzen‹, Information Philosophie 4/2013, 14 – 27; online-Version: http://www.information-philosophie. de/?a=1&t=7281&n=2&y=4&c=109. Nicholson, Daniel J. und Gawne, Richard (2014): ›Rethinking Woodger’s legacy in the philosophy of biology‹, Journal of the History of Biology 47, 243 – 292. Nordenfeldt, Lennart (2007): ›The concepts of health and illness revisited‹, Medicine, Health Care and Philosophy 10, 5 – 10. Okasha, Samir (2008): ›The units and levels of selection‹, in: Sarkar, Sahotra und Plutynski, Anya (Hg.): A Companion to the Philosophy of Biology, Malden (MA): Blackwell, 138 – 156. Pepper, John W. und Herron, Matthew D. (2008): ›Does biology need an organism concept?‹, Biological Reviews 83, 621 – 627. Pigliucci, Massimo und Müller, Gerd B. (2010): Evolution: The Extended Synthesis, Cambridge, MA: MIT Press. Reinke, Johannes (1901): Einleitung in die theoretische Biologie, Berlin: Verlag von Gebrüder Paetel. 283
III. Die Philosophie der Natur- und Biowissenschaften
Reiß, Christian, Hoßfeld, Uwe, Olsson, Lennart, Levit, Georgy S. und Lemuth, Oliver (2008): ›Das autobiographische Manuskript des Entwicklungsbiologen Julius Schaxel (1887 – 1943) vom 24. Juli 1938 – Versuch einer Kontextualisierung‹, Annals of the History and Philosophy of Biology 13, 4 – 52. Resnik, David B. (1991): ›How-possibly explanations in biology‹, Acta Biotheoretica 39, 141 – 149. Reydon, Thomas A. C. (2003): ›Discussion: Species are individuals – or are they?‹, Philosophy of Science 70, 49 – 56. – (2004): ›Why does the species problem still persist?‹, BioEssays 26, 300 – 305. – (2005): ›On the nature of the species problem and the four meanings of ›species‹‹, Studies in History and Philosophy of Biological and Biomedical Sciences 36, 135 – 158. – (2006): ›Generalizations and kinds in natural science: The case of species‹, Studies in History and Philosophy of Biological and Biomedical Sciences 37, 230 – 255. – (2012): ›How-possibly explanations as genuine explanations and helpful heuristics: A comment on Forber‹, Studies in History and Philosophy of Biological and Biomedical Sciences 43, 302 – 310. – und Hoyningen-Huene, Paul (2011): ›Philosophie und ihr Verhältnis zu den Einzelwissenschaften‹, in: Van Ackeren, Marcel, Kobusch, Theo und Müller, Jörn (Hg.): Warum noch Philosophie? Historische, systematische und gesellschaftliche Positionen, Berlin: De Gruyter, 127 – 145. –, Dullemeijer, Piet und Hemerik, Lia (2005): ›The history of Acta Biotheoretica and the natural of theoretical biology‹, in: Reydon, Thomas A. C. und Hemerik, Lia (Hg.): Current Themes in Theoretical Biology: A Dutch Perspective, Dordrecht: Springer, 1 – 8. Richards, Richard A. (2010): The Species Problem: A Philosophical Analysis, Cambridge: Cambridge University Press. Rose, Michael R. und Oakley, Todd H. (2007): »The new biology: Beyond the Modern Synthesis‹, Biology Direct 2, 30. Rosenberg, Alexander (1994): Instrumental Biology, or, The Disunity of Science, Chicago und London: University of Chicago Press. – (2001): ›How is biological explanation possible?‹, British Journal for the Philosophy of Science 52, 735 – 760. – (2006): Darwinian Reductionism, or, How to Stop Worrying and Love Molecular Biology, Chicago/London: University of Chicago Press. – und McShea, Daniel W. (2008): Philosophy of Biology: A Contemporary Introduction, New York/London: Routledge. Ross, Don, Ladyman, James und Kincaid, Harold (Hg.) (2013): Scientific Metaphysics, Oxford: Oxford University Press. Ruiz-Mirazo, Kepa, Peretó, Juli und Moreno, Alvaro (2004): ›A universal definition of life: Autonomy and open-ended evolution‹, Origins of Life and Evolution of the Biosphere 34, 323 – 346. 284
Philosophie der Biologie
– (2010): ›Defining life or bringing biology to life‹, Origins of Life and Evolution of the Biosphere 40, 203 – 213. Ruse, Michael (1973): The Philosophy of Biology, London: Hutchinson. – (Hg.) (2008): The Oxford Handbook of Philosophy of Biology, New York: Oxford University Press. Salmon, Wesley C. (1989): ›Four decades of scientific explanation‹, in: Kitcher, Philip und Salmon, Wesley C. (Hg.): Scientific Explanation, Minneapolis: University of Minnesota Press, 3 – 219. Sarkar, Sahotra und Plutynski, Anya (Hg.) (2008): A Companion to the Philosophy of Biology, Malden, MA: Blackwell. Schaxel, Julius (1919): Grundzüge der Theorienbildung in der Biologie, Jena: Gustav Fischer Verlag. Seehausen, Ole (2002): ›Patterns in fish radiation are compatible with Pleistocene desiccation of Lake Victoria and 14600 year history for its cichlid species flock‹, Proceedings of the Royal Society (London) B 269, 491 – 497. –, Van Alphen, Jacques J. M. und Witte, Frans (1997): ›Cichlid fish diversity threatened by eutrophication that curbs sexual selection‹, Science 277, 1808 – 1811. Slater, Matthew H. (2013): Are Species Real? An Essay on the Metaphysics of Species, Houndmills: Palgrave Macmillan. Snow, Charles P. (1959): The Two Cultures and the Scientific Revolution, Cambridge: Cambridge University Press. Sober, Elliott (2000): Philosophy of Biology (Second Edition), Boulder, CO: Westview Press. – und Wilson, David Sloan (1989): ›Reviving the superorganism‹, Journal of Theoretical Biology 136, 337 – 356. – und Wilson, David Sloan (1998): Unto Others: The Evolution and Psychology of Unselfish Behavior, Cambridge, MA: Harvard University Press. Stamos, David N. (2003): The Species Problem: Biological Species, Ontology, and the Metaphysics of Biology, Lanham, MD: Lexington Books. Sterelny, Kim und Griffiths, Paul E. (1999): Sex and Death: An Introduction to Philosophy of Biology, Chicago/London: University of Chicago Press. Szathmáry, Eörs und Maynard Smith, John (1995): ›The major evolutionary transitions‹, Nature 374, 227 – 323. Toepfer, Georg (2011): Historisches Wörterbuch der Biologie: Geschichte und Theorie der biologischen Grundbegriffe, Band 1 (Analogie-Ganzheit), Stuttgart/Weimar: J. B. Metzler. Uexküll, Jakob J. von (1920): Theoretische Biologie, Berlin: Verlag von Gebrüder P aetel. Waddington, Conrad H. (1968): ›Towards a theoretical biology‹, Nature 218, 525 – 527. Walsh, Denis M., Lewens, Tim und Ariew, André (2002): ›The trials of life: Natural selections and random drift‹, Philosophy of Science 69, 452 – 473. Weber, Bruce H. (2011): ›Extending and expanding the Darwinian synthesis: The role of complex systems dynamics‹, Studies in History and Philosophy of Biological and Biomedical Sciences 42, 75 – 81. 285
III. Die Philosophie der Natur- und Biowissenschaften
Wheeler, William M. (1911): ›The ant-colony as an organism‹, Journal of Morphology 22, 307 – 325. Wilkins, John S. (2009a): Species: A History of the Idea, Berkeley, CA: University of California Press. – (2009b): Defining Species: A Sourcebook From Antiquity to Today, New York: Peter Lang. – (2011): ›Philosophically speaking, how many species concepts are there?‹, Zootaxa 2765, 58 – 6 0. Wilson, Robert A. (Hg.) (1999): Species: New Interdisciplinary Essays, Cambridge, MA: MIT Press. – und Barker, Matthew (2014): ›The biological notion of individual‹, in Zalta, Ed N. (Hg.): The Stanford Encyclopedia of Philosophy (Spring 2014 Edition), http://plato. stanford.edu/archives/spr2014/entries/biology-individual/. Woodward, James (2000): ›Explanation and invariance in the special sciences‹, British Journal for the Philosophy of Science 51, 197 – 254. – (2008): ›Explanation‹, in: Psillos, Stathis und Curd, Martin (Hg.): The Routledge Companion to Philosophy of Science, Abingdon: Routledge, 171 – 181. Wouters, Arno G. (2003): ›Four notions of biological function‹, Studies in History and Philosophy of Biological and Biomedical Sciences 34, 633 – 6 68. – (2013): ›Explanation in biology‹, in: Dubitzky, Werner, Wolkenhauer, Olaf, Cho, Kwang-Hyun und Yokota, Hiroki (Hg.): Encyclopedia of Systems Biology, New York: Springer, 706 – 709.
286
4. Philosophie der biomedizinischen Wissenschaften Lara Huber und Lara Keuck
1 Einleitung »1945 hatte ich die Idee, dass die Sichelzellanämie eine Krankheit des Hämoglobinmoleküls sein könnte. […] Ich dachte, dass dies eine molekulare Krankheit ist und dass wir, wenn wir das Blut der Patienten untersuchten, herausfinden sollten, dass deren Hämoglobin-Moleküle anders als die von anderen Menschen sind.« Linus Pauling1
Biomedizinische Wissenschaften zielen auf die Erforschung medizinischer Probleme mit biowissenschaftlichen Methoden. Was diese Methoden und Probleme auszeichnet und wie sich diese Forschungsstrategien einerseits zur klinischen Medizin und andererseits zur Biomedizin im engeren Sinne einer Laborwissenschaft2 verhalten, ist Gegenstand dieses Beitrags.3 Vorangestellt haben wir ein Im englischen Original: »I had the idea in 1945 that the disease sickle cell anemia might be the disease of the hemoglobin molecule. […] I believe that this is the disease of the mole cule, and that if we look at the blood of these patients, we shall find that the hemoglobin molecules are different from those of other people.« Es handelt sich hierbei um einen Auszug aus einem Interview, das Pauling vermutlich in den 1970er Jahren für den Film »Linus Pauling. Crusading Scientist« (Richter 1977) gegeben hat. 2 Dieser hier vertretene, engere Sinn der Biomedizin als Laborwissenschaft ist nicht identisch mit dem in der historischen und soziologischen Wissenschaftsforschung sehr verbreiteten Verständnis, Biomedizin als genuines Forschungsprogramm der Nachkriegszeit zu verstehen (vgl. Abschnitt 1.1 und 1.2). Ebensowenig ist die in diesem Beitrag vorgenommene Charakterisierung der Biomedizin mit anthropologischen Lesarten gleichzusetzen, die die Biomedizin als »predominant medical theory and practice of Euro-American societies« (z. B. Hahn/Kleinman 1983, 305) fassen. Für eine weitergehende Analyse der Genealogie des Begriffs »Biomedizin« in historischen, sozial- und kulturwissenschaftlichen Beiträgen siehe Schlünder (2014) sowie Bruchhausen (2011). 3 Dieser Beitrag betritt angesichts der einzelwissenschaftlichen Herangehensweise des vorliegenden Sammelbandes (»Philosophie der X-wissenschaft«) Neuland. Und zwar aus zwei Gründen: Der Beitrag widmet sich, erstens, einem disziplinär sehr heterogenen Forschungsfeld, den sogenannten biomedizinischen Wissenschaften, die bis dato nicht als solche Objekt einer systematischen, sprich philosophischen Auseinandersetzung sind, wie sich dies etwa für die Philosophie der Biologie sagen ließe. Der Beitrag widmet sich, zweitens, aufgrund der Ausrichtung des genannten Forschungsfeldes auch Kernfragen der Medizintheor ie. Es handelt sich freilich nicht im engeren Sinne um einen Beitrag zur Philosophie der Medizin, die, das kann vor diesem Hintergrund bedauert 1
287
III. Die Philosophie der Natur- und Biowissenschaften
Zitat des Nobelpreisträgers und Biochemikers Linus Pauling (1901 – 1994), der die Genese des mittlerweile klassischen Modells der Sichelzellanämie als »molekulare Krankheit« beschreibt (Pauling et al. 1949; vgl. auch de Chadarevian 1998). In diesem Modell ist die veränderte Struktur des Hämoglobins – anstelle charakteristischer klinischer Symptome wie Knochenschmerzen und Organversagen – das definierende Kriterium dieser spezifischen Blutkrankheit. Die Sichelzellanämie wird auf ihre molekulare Ursache zurückgeführt, um eine (reduktive) Erklärung, ein (manipulierbares) kausales Modell der Krankheitsentstehung und eine (eindeutige) Identifizierung von individuellen Krankheitserscheinungen als Instanziierungen eines bestimmten Krankheitstyps zu erzielen. Hiermit sind zentrale Themen einer Philosophie der biomedizinischen Wissenschaften angesprochen: Erstens die Analyse grundlegender Eigenschaften von biomedizinischen Erklärungen und Modellen, bezogen auf das oben genannte Beispiel: Was macht das molekulare Modell der Sichelzellanämie zu einem aussagekräftigen Modell der Krankheitsentstehung? Ein zweites Thema betrifft den anwendungsbezogenen Charakter biomedizinischer Wissenschaften: Wie beeinflusst die Ausrichtung an klinischen, messbaren »Erfolgen«4 , wie die Möglichkeit der schnelleren Diagnose von genetischen Krankheiten, die Entwicklung und den Wert biomedizinischen Wissens? Drittens stellt sich die Frage, ob bzw. inwiefern sich Gegenstände biomedizinischer Forschung, weil sie genuine Eigenschaften aufweisen (lebendige Organismen, pathogene Veränderungen), standardisieren und folglich gemäß empirischer Strategien replizierbar erforschen lassen. Gerade in dieser Hinsicht sind zahlreiche Überschneidungen zur Philosophie anderer lebenswissenschaftlicher Einzeldisziplinen5 wie der Biologie (z. B. hinsichtlich der Debatte über Extrapolationen von Modellorganismen zum Menschen, vgl. Abschnitt 2.1; s. a. Schaffner 1986; Piotrowska 2013) oder der Neurowissenschaften und experimentellen Psychologie festzustellen. Dies ist nicht zuletzt Ausdruck davon, dass die biomedizinischen Wissenschaften selbst keine disziplinäre Einheit bilden, sondern institutionell wie methodologisch in unterschiedlichen Fachgebieten verortet sind. Insofern gibt es keine scharfe Trennung zwischen biowerden, nicht im Sammelband eigens vertreten ist. Beides sind Gründe für die besondere Herangehensweise: So fokussiert der Beitrag vor allem auf Fragen der Wissenschafts- und Erkenntnistheor ie. Weiterführende Fragen zur Metaphysik werden hier nur skizziert, da sie klassischerweise in die ↑ Philosophie der Biologie (z. B. zu ›natural kinds‹ und zur Frage, was einen Organismus bzw. ein biologisches Individuum als solches konstituiert) bzw. Philosophie der Medizin gehören (z. B. zu Krankheitsentitäten). 4 Jenseits von klassischen Zielen medizinischer Intervention wie der Linderung von Leiden oder der Heilung von Krankheiten. 5 Exemplarisch genannt sind hier Einzeldisziplinen, die in anderen Kapiteln des Sammelbands diskutiert werden. Neurowissenschaften und experimentelle Psychologie spielen vor allem bei der Erforschung und Diagnose sogenannter neuropsychiatrischer Erkrankungen wie der Alzheimer-Krankheit eine Rolle. Die Konzeptualisierung dieser Krankheiten als neuropsychiatrisch kann bereits als Beleg der Biologisierung der Medizin und insbesondere der Psychiatrie verstanden werden (vgl. Huber/Keuck 2009).
288
Philosophie der biomedizinischen Wissenschaften
logischer und biomedizinischer Forschung. Eine wichtige Unterscheidung lässt sich aber im Hinblick auf Forschungsfragen und -ziele ausmachen. Biomedizinische Wissenschaften orientieren sich hierbei maßgeblich an den übergeordneten Zielen der Medizin, wie etwa Aufrechterhaltung oder Wiederherstellung von Gesundheit und Vermeidung oder Heilung von Krankheit. Konzepte des »Gesunden« und »Krankhaften« erörtert in systematischer Hinsicht die akademische Medizintheor ie bzw. die Philosophie der Medizin (vgl. Abschnitt 2.2; zur deutschsprachigen Einführung vgl. z. B. Rothschuh 1975; Schramme 2012; Hucklenbroich/Buyx 2013).6 Besonders deutlich zeigt sich dies im Fall der Psychiatrie, wo unterschiedliche Erklärungsmodelle gegeneinander in Position gebracht werden: Müssen psychische Störungen nicht primär als psychosoziale Probleme verstanden werden oder sollte sich die Psychiatrie noch stärker als bisher der Fall als angewandte Neurowissenschaft verstehen (positiv zur neurowissenschaftlichen Ausrichtung der Psychiatrie z. B. Murphy 2006; kritisch zur Verdrängung von psychosozialen Erklärungsmodellen z. B. Schramme 2003)? Vorsorglich sei darauf hingewiesen, dass wir in diesem Kapitel keine biomedizinische Theorie von Krankheiten und psychischen Störungen im Sinne einer normativen Medizintheor ie vertreten, sondern vielmehr bestrebt sind, die Tendenz der biomedizinischen Vereinnahmung klinischer Fragen im Sinne einer »Philosophy of Science in Practice« darzustellen. Besondere Beachtung verdient dabei die Heterogenität der biomedizinischen Wissenschaften: Bislang gibt es weder einen innerwissenschaftlichen noch einen wissenschaftsphilosophischen Konsens über die Grenzen der Biomedizin. Je nachdem wie inklusiv biomedizinische Wissenschaften und damit biomedizinisches Wissen verstanden wird, fallen hierunter entweder nur Erkenntnisse aus Teilbereichen der medizinisch-ausgerichteten biologischen Forschung (enge Definition von »biomedical sciences«7) oder aber Erkenntnisse aus sämtlichen, d. h. auch aus nicht-laborbezogenen Grundlagenwissenschaften der Medizin, darunter fiele dann die Epidemiologie8 ebenso wie klinische Studien (weite Definition von »biomedical science«9). Die Brisanz der Differenzierung verschiede Als komplementär zur Medizintheorie in diesem engen Sinne ist das weitere Themenfeld »Geschichte, Theorie und Ethik der Medizin« als Pflichtfach in der universitären Ausbildung der Mediziner in Deutschland zu verstehen (vgl. z. B. Schulz et al. 2006). 7 Vgl. z. B. Schaffner (1993, 2, kursive Hervorhebung hinzugefügt): »many of the theories we encounter in the biomedical sciences are different from the standard type of theory we see in physics. In the medically related biological sciences such as molecular genetics, immunology, physiology, embryology, and the neurosciences, we find ›theories of the middle range,‹ theo ries in a sense midway between the universal mechanisms of biochemistry and the universal generalizations of neo-Darwinian evolution.« 8 Es gibt freilich auch philosophische Analysen medizinischer Wissenschaften, die sich ausschließlich auf nicht-laborbezogene Teildisziplinen beziehen und beispielsweise für eine dezidierte »Philosophie der Epidemiologie« plädieren (z. B. Broadbent 2013). 9 Diese weite Definition von biomedizinischer Wissenschaft (im Singular) findet sich beispielsweise bei Harold Kincaid und Jennifer McKitrick (Kincaid/McKitrick 2007, 1, kur6
289
III. Die Philosophie der Natur- und Biowissenschaften
ner Forschungsstrategien innerhalb der (bio-)medizinischen Wissenschaften wird nicht zuletzt am viel diskutierten Forschungsprogramm der sogenannten evidenzbasierten Medizin (EbM) deutlich: Hier wird strikt zwischen klinischen Studien und Laborforschung unterschieden, wobei der Klinik ein höherer Stellenwert als der laborbezogenen Forschung für die Fundierung medizinischen Handelns zugeschrieben wird (Evidence-Based Medicine Working Group 1992; Howick 2012; vgl. auch, kritisch zu EbM, z. B. Worrall 2002). Im Zentrum aktueller wissenschaftsphilosophischer Auseinandersetzungen um medizinisches Wissen steht gerade deshalb auch die Vielfalt (bio-)medizinischer Forschung und der hieraus resultierenden wissenschaftlichen Erklärungen (Abschnitte 1.1 und 2.2; vgl. auch Kronfeldner/Müller-Wille 2011; Lemoine 2011). Die Philosophie der (bio-)medizinischen Wissenschaften gemäß der weiten Definition verhandelt in der Folge grundlegende theoretische Fragen, die am Schnittfeld von medizinischer Praxis, modell-generierender Laborforschung und randomisierter kontrollierter klinischer Studien erwachsen. Es sei darauf hingewiesen, dass viele der Fragen, die in dieses Themenfeld fallen, in der angelsächsischen Tradition auch unter dem Label »Philosophy of Medicine« diskutiert werden, wobei »(bio-)medical science« hier sowohl als wissenschaftliche Grundlegung der Medizin verstanden wird als auch einer »medical practice« im engeren Sinne der ärztlichen Tätigkeit am kranken Patienten gegenübergestellt wird (vgl. Gifford et al. 2011; Simon et al. 2013). Diese Vorüberlegungen aufgreifend, gliedert sich der Beitrag in drei Analyseschritte: Zunächst wird näher ausgeführt, inwiefern von einer Philosophie der biomedizinischen Wissenschaften als systematischem Unternehmen gesprochen werden kann und wie sich ihre Genese zur Geschichte der biomedizinischen Wissenschaften verhält (Abschnitte 1.1 und 1.2). In einem zweiten Schritt werden grundlegende Fragen einer Philosophie der biomedizinischen Wissenschaften vorgestellt. Die detaillierte Analyse der Hauptuntersuchung (Abschnitt 2) fragt im Besonderen nach dem Status biomedizinischen Wissens. Grundlegende erkenntnistheoretische Kernfragen, die Aufschluss geben können, was unter biomedizinischem Wissen zu verstehen ist, werden in Bezug auf die Validität und Robustheit biomedizinischer Experimente und Modelle sowie im Hinblick auf Praktiken der Abstraktion und Idealisierung von Krankheiten erläutert. Der Beitrag schließt mit einem Ausblick auf zukünftige Entwicklungen und Forschungssive Hervorhebung hinzugefügt): »medicine should have a central place in epistemological and metaphysical debates over science. It is unarguably the most practically important of the sciences. It also draws by the far the greatest resources and research efforts of any area in biology. Yet philosophy of biology has focused almost exclusively on evolutionary biology, leaving the vast enterprises of immunology, cancer biology, virology, clinical medicine, and so on unexplored. Naturalized philosophy has emphasized the important interplay of historical and sociological aspects of science with its philosophical interpretation. Biomedical science as a large scale social enterprise is a natural target for such approaches«. Medizin wird hier als (biomedizinische) Wissenschaft bezeichnet, um eine größere wissenschaftsphilosophische Anschlussfähigkeit (insbesondere zur Philosophie der Biologie) zu erreichen.
290
Philosophie der biomedizinischen Wissenschaften
fragen und zeigt in diesem Kontext systematische Berührungspunkte zu anderen Bereichen der Wissenschaftsforschung bzw. Philosophien der Einzelwissenschaften auf (Abschnitt 3).10
1.1 Geschichte der Philosophie der biomedizinischen Wissenschaften Die Geschichte des systematischen Unternehmens, das den Namen Philosophie der biomedizinischen Wissenschaften verdienen könnte, ist, das sei an dieser Stelle vorausgeschickt, noch nicht geschrieben. Gleichwohl gibt es eine Reihe von mittlerweile klassischen Einzelstudien, die systematische Fragen zur Genese und Geltung biomedizinischen Wissens aufwerfen und sich folglich als konstitutive Beiträge einer Philosophie der biomedizinischen Wissenschaften fassen lassen. In seiner posthum berühmt gewordenen Studie zur »Entstehung und Entwicklung einer wissenschaftlichen Tatsache« aus dem Jahr 1935 untersucht Ludwik Fleck, wie sich in der modernen Medizin der Nachweis von Bakterien durchsetzen konnte und sich dadurch das Verständnis der Syphilis11 verändert hat (vgl. Fleck 1980). Fleck nutzt das ihm aus seiner eigenen bakteriologischen Arbeit wohlbekannte Beispiel, um ein allgemeines Modell davon zu entwerfen, wie neue Fragen entstehen, die zur Etablierung von wissenschaftlichen Sachverhalten führen. Die Syphiliskrankheit wird nach Fleck zu einem wissenschaftlichen Problem. Dies bedeute jedoch nicht, dass das medizinische Problem der Syphiliskrankheit mit dem Vorliegen von Bakterien gleichzusetzen sei.12 So weist Fleck in seinem 1927 publizierten Essay »Über einige besondere Merkmale des ärztlichen Denkens« darauf hin, dass es zwar notwendig, aber nicht hinreichend sei, Bakterien nachzuweisen, um eine Infektionskrankheit zu diagnostizieren: Ein gesunder Mensch könne unter Umständen mit den Bakterien infiziert sein, ohne dass die Krankheit bei ihm ausbreche (vgl. Fleck 2011). Mit dieser Überlegung lassen sich andere, bereits klassische Schriften, wie etwa Kurt Goldsteins »Der Aufbau des Teile des Beitrags sind im Rahmen der Aktivitäten des des DFG-geförderten Netzwerks »Philosophie der Lebenswissenschaften in Deutschland« entstanden und wurden bereits in ähnlicher Form publiziert (vgl. Philosophie der Lebenswissenschaften. Entwicklungen und Tendenzen, In: Information Philosophie 4 (2013), 14 – 27). Unser Dank geht an die Mitglieder des Netzwerks und insbesondere an Susanne Bauer für die inspirierende Zusammenarbeit im Rahmen der Arbeitsgruppe »Daten«. 11 Bei der Syphilis (Lues venerea), wie sie heute gefasst wird, handelt es sich um eine sexuell übertragbare Krankheit, die bakteriell verursacht wird (Treponema pallidum). Syphilis wird heute mit Antibiotika therapiert und gilt, wenn rechtzeitig erkannt, als gut behandelbar. Gefürchtet war und ist die Erkrankung durch Folge- und Spätschäden (z. B. Neurosyphilis), die auftreten können, wenn sich die bakterielle Infektion unbehandelt im gesamten Körper ausbreitet. 12 Zur Vorreiterrolle Ludwik Flecks in Hinblick auf die Philosophie der biomedizinischen Wissenschaften vgl. auch Löwy (2004). 10
291
III. Die Philosophie der Natur- und Biowissenschaften
Organismus. Einführung in die Biologie unter besonderer Berücksichtigung der Erfahrungen am kranken Menschen« (1934), in Verbindung bringen sowie »Das Normale und das Pathologische« von Georges Canguilhem aus dem Jahr 1966 (vgl. Canguilhem 1974). Beide Autoren beschreiben die Spezifität von (gesunden) Lebewesen dahingehend, dass diese in der Lage seien, sich einer veränderten Umwelt anzupassen. Um die Funktionsweise eines Organismus zu verstehen, gelte es, sowohl das ihn umgebende »Milieu« als auch sein inneres »Milieu« in den Blick zu nehmen. Je nach Beschaffenheit dieser elementaren Voraussetzungen fielen die Anforderungen an den Organismus folglich unterschiedlich aus. Was damals vitalistisch gedeutet wurde, wird heute gerne immunologisch erklärt: Eine Anomalie (oder um das Fleck’sche Beispiel zu bemühen: das Auftreten von Bakterien) ist in manchen Fällen als pathologisch zu bewerten, weil sie zu Einschränkungen der Lebensfunktionen bis hin zum Tod führen kann; in anderen Fällen ist die gleiche Auffälligkeit (oder das gleiche Bakterienaufkommen) aber ohne Krankheitswert, sprich sie liegt im Bereich »normaler« biologischer Funktion bzw. kann vom Organismus selbst in Schach gehalten werden. An die metaphysische Feststellung, dass Variabilität (als interindividuelle, d. h. zwischen Individuen auftretende, bzw. als intraindividuelle, d. h. innerhalb der Lebenszeit eines Individuums auftretende Wandelbarkeit) eine essentielle Eigenschaft biologischer Organismen sei, schließen sich erkenntnistheoretische Fragen an (vgl. auch Canguilhem 2009): Wie lässt sich ein allgemeines biologisches Wissen und erst recht eine allgemeine Wissenschaft der Krankheit (eine »objektive Pathologie«) begründen, wenn sich die Zielgegenstände der Forschung gerade durch ihre inter- und intraindividuelle Variabilität auszeichnen? Welche Anforderungen müssen biomedizinische Wissenschaften erfüllen, um verlässliches, wissenschaftliches Wissen zu generieren, das auf Einzelfälle in der Medizin (kranke Individuen) anwendbar ist? Die hier skizzierten Fragen haben nichts an ihrer Aktualität verloren. In zeitgenössischen Debatten werden sie meist unter anderen Vorzeichen verhandelt: In der Wissenschaftstheorie zeichnet sich ein zunehmendes Interesse an den Besonderheiten von Erklärungen, Theorien und Extrapolationen innerhalb der Lebenswissenschaften ab. Hier geht es oftmals darum, die Besonderheit von lebens- und sozialwissenschaftlicher Forschung gegenüber traditionell naturwissenschaftlichen Feldern wie der Physik hervorzukehren (vgl. Schaffner 1993; Thagard 1999; Machamer et al. 2000; Steel 2008). Bezeichnenderweise tragen diese Analysen dazu bei, biomedizinische Wissenschaften in erster Linie als biologische Forschung zu verstehen. Quasi komplementär dazu widmet sich die analytisch ausgerichtete Philosophie der Medizin der Neuauslotung von Krankheitsentitäten. Vor allem die Philosophie der Psychiatrie hinterfragt kritisch, inwiefern sich psychische Störungen auf biologische Phänomene reduzieren lassen (vgl. Kincaid/Sullivan 2014). Große Beachtung haben diesbezüglich Ian Hackings Studien zu sogenannten »interactive kinds« gefunden (Hacking 1986; 1999). Mit diesem Begriff bezeichnet Hacking Arten (»kinds«) wie etwa Krankheitsentitäten, die sich durch die Selbstwahrnehmung der klassifizierten Subjekte (hier: die als 292
Philosophie der biomedizinischen Wissenschaften
erkrankt klassifizierten Individuen) verändern können.13 Klassifizierungen, die Menschen betreffen, sind nach Hacking grundsätzlich von besonderer Art. Die wissenschaftliche Würdigung dieser Interaktionen zwischen Selbstwahrnehmungen und wissenschaftlichen Konzepten des Krankheitsbilds gilt es folglich – anders als dies in Bezug auf Klassifizierungsprojekte der Naturwissenschaft nötig wäre – methodisch möglichst breit anzulegen, namentlich durch die Einbindung sozialwissenschaftlicher Ansätze (vgl. Abschnitt 2.2: »Looping-Effekte«). Insgesamt betrachtet zeigt sich, dass die wissenschaftstheoretische Würdigung dezidiert biomedizinischer Fragen in den letzten 25 Jahren zwar zugenommen, bisher aber recht unterschiedliche Resonanz in der Philosophie der Biologie, der Neurowissenschaften, der Humanwissenschaften, der (Gesundheits-)Ökonomie und der Psychiatrie gefunden hat. Die philosophisch-systematische Würdigung dezidiert biomedizinischen Wissens, das per definitionem aus dem Kanon klassischer Themen der Philosophie der Medizin bzw. der Philosophie der Biologie herausfällt, stellt im Besonderen ein Desiderat dar. Dies mag angesichts der einschlägigen Studien, die die soziologische, anthropologische und historische Wissenschaftsforschung zu biomedizinischen Wissenschaftsbereichen mittlerweile vorgelegt hat, durchaus erstaunen (vgl. Keating/Cambrosio 2003; Lock/Nguyen 2010; Clarke et al. 2010). Festzuhalten wäre aber auch hier, dass im Rahmen der Wissenschaftsforschung ebenfalls recht unterschiedliche Positionen im Hinblick auf den Gegenstandsbereich biomedizinischer Wissenschaften vorherrschen und in den Studien entsprechend zu Grunde gelegt werden (vgl. auch Löwy 2011a; Schlünder 2014). Eine grundlegende Unterscheidung, die hier zum Tragen kommt, sei kurz angesprochen: Die Biomedizin lässt sich, was Forschungspraktiken und -techniken betrifft, aber auch Fragen der Ökonomisierung, Internationalisierung und Durchführung von großangelegten Forschungsprojekten, als genuine Nachkriegswissenschaft beschreiben: Nach dieser Lesart habe sich nach 1945, wie etwa die Wissenschaftshistoriker Peter Keating und Alberto Cambrosio in ihrer Studie »Biomedical Platforms« (2003) nahe legen, ein entscheidender Wandel abgezeichnet: Biologie und Medizin seien institutionell wie auch intellektuell zusammengerückt. Die sich hieran anschließende Ausbildung neuartiger Forschungspraktiken habe auch dazu beigetragen, dass klinische Krankheitssymptome ins Verhältnis zu einer Vielzahl an laborspezifischen Parametern aus der Immunologie, Onkologie bzw. Molekulargenetik gesetzt wurden (vgl. Keating/Cambrosio 2003). Das Humangenomprojekt, an dem sich wissenschaftliche Organisationen aus 18 Ländern beteiligten, um gemeinsam das menschliche Erbgut zu sequenzieren, ist ein besonders eindrückliches Beispiel für hybride Forschungspraktiken im Rahmen biomedizinischer Wissenschaften. Es ist 1990 von den Initiatoren selbst Dies unterscheide, so Hacking, »interaktive Arten« von klassischen Gegenständen der Physik: »Quarks in contrast do not form an interactive kind; the idea of the quark does not interact with quarks. Quarks are not aware that they are quarks and are not altered simply by being classified as quarks.« (Hacking 1999, 32) 13
293
III. Die Philosophie der Natur- und Biowissenschaften
auf den Begriff der »Big Science« gebracht worden, um etwa Herausforderungen zu thematisieren, die mit der Koordinierung von großen, aus unterschiedlichen Laboren stammenden Datenmengen, verbunden waren.14 Eine andere Lesart, die der Interpretation der Biomedikalisierung (›Biomedicalization‹: Clarke et al. 2010) als Phänomen der Nachkriegszeit nicht folgt, ist eine eher systematische, die den erkenntnistheoretischen Anspruch biomedizinischer Forschung betont. Nach dieser Lesart fallen sämtliche der modernen Medizin dienlichen Forschungsvorhaben, die Theor ien und Werkzeuge zur Feststellung von Pathologien (als Gegensatz zum physiologisch Normalen) in die Klinik transferieren, unter die Rubrik ›biomedizinische Wissenschaften‹: In der Histopathologie oder Cellularpathologie (vgl. Virchow 1859) wurden beispielsweise schon ein Jahrhundert vor Paulings Modell der »molekularen Krankheit« krankhafte Gewebeveränderungen unter dem Mikroskop untersucht, um Krankheiten zu identifizieren und zu erforschen. Auch der französische Physiologe Claude Bernard wollte mit der Übernahme experimenteller Verfahren das Methodenarsenal der klassischen Medizin, wie er dies in seiner wegweisenden Schrift über die experimentelle Medizin aus dem Jahr 1865 programmatisch entworfen hat, revolutionieren (vgl. Bernard 1961). Diese Forschungsstrategien sind freilich mit den neuen Optionen, die die biologische Forschung in den Nachkriegsjahrzehnten nachhaltig verändert haben, keineswegs gleichzusetzen. Rudolf Virchow und seine Zeitgenossen sind folglich nicht als Molekularbiologen15 avant la lettre misszuverstehen. In der Tat stellt sich die Frage, inwiefern die Hochtechnisierung der biologischen Forschung und der Einzug von Methoden der Molekulargenetik biomedizinisches Wissen im modernen Sinne überhaupt erst hervorbringen (s. Abschnitte 2.1 und 3). Es spricht aus systematischer Sicht gerade deshalb vieles dafür, biomedizinische Wissenschaften weder auf die sogenannte molekulare Medizin à la Pauling noch auf Forschungsvorhaben der Nachkriegszeit vom Format des ManhattanProjekts16 zu reduzieren. In die Analyse biomedizinischer Wissenschaften sind Vgl. Cantor (1990), 49 – 51. Der Artikel beginnt mit den Worten: »The human genome project is biology’s first large science project with a definite endpoint. Although it is small compared to most other Big Science efforts, many biologists are still somewhat fearful of the impact this project will have on biology research traditions and funding priorities.« Zur Geschichte und Philosophie des Humanen Genom Projekts vgl. Gannett (2010). Zur Konturierung der Physik als »Big Science« vgl. auch Galison/Hevly (1992). 15 Zur Einführung in die Geschichte und Epistemologie der (biomedizinischen) Mole kularbiologie vgl. Kay (1993), Morange (2000) und Rheinberger (2006). 16 Die ersten sogenannten »biomedical units« wurden im Zuge des »Manhattan Project« genannten US-amerikanischen Forschungsprogramms zur Entwicklung der Atombombe gegründet (vgl. Keating/Cambrosio 2003). Hieran anknüpfend charakterisiert Martina Schlünder (2014, 73) Biomedizin wie folgt: »In this historical context, new structures of labor division and organization emerged: tightly managed research programs were established based on team work, defined goals and strict deadlines; close collaborations between several centres had to be managed over long distances; and infrastructures with inbuilt rules for communication, data management, standardization and regulation had 14
294
Philosophie der biomedizinischen Wissenschaften
unseres Erachtens zahlreiche und sehr verschiedene medizinisch-technische Forschungs- und Praxisfelder einzuschließen – vom histologischen Mikroskopiersaal zum bakteriologischen Laboratorium bis hin zur Poliklinik und zu den virtuellen Plattformen heutiger Großforschungsprojekte. Was diese diversen Vorhaben eint, ist die spezifische Verflechtung von wissenschaftlichen Regimen und klinischer Relevanz (s. Abschnitt 1.2): Bis heute ist es etwa für Universitätskliniken charakteristisch, dass oftmals weder Personen noch Praktiken oder Konzepte eindeutig dem klinischen oder dem wissenschaftlichen Kontext zugeordnet werden können (z. B. Löwy 2011b). Schon im 19. Jahrhundert gingen häufig Routinearbeiten der Diagnosestellung mit dem Forschungsinteresse an allgemeinen Prozessen der Krankheitsentstehung einher (z. B. Sturdy 2007). Auch die zeitgenössischen biomedizinischen Wissenschaften stellen die strikte Grenzziehung zwischen biologischer Grundlagenforschung und klinisch-angewandter Forschung in Frage (z. B. Landecker 2007). Charakteristisch hierfür ist die Tatsache, dass Wissen nicht nur vom Labor zum Krankenbett »from bench to bedside« übermittelt wird. Wie bereits am Forschungsprogramm Linus Paulings deutlich wurde, beruhen die biomedizinischen Laborwissenschaften gerade auch auf der umgekehrten Weitergabe von klinischen Fragestellungen, Beobachtungen, Daten und Materialien »from bedside to bench«, vom Krankenbett ins Labor.17
1.2 Charakterisierung der Philosophie der biomedizinischen Wissenschaften Eine Philosophie der biomedizinischen Wissenschaften muss folglich dieser doppelten Ausrichtung des Forschungsfeldes Rechnung tragen, die als methodologische Besonderheit, als konstitutive und evaluative Bidirektionalität bezeichnet werden kann. Biomedizinische Forschungsstrategien richten sich nach diesem Verständnis eben nicht nur nach den (bio-)wissenschaftlichen Möglichkeiten des Labors (oder anderer im weitesten Sinne medizinisch-technischer Räume), sondern immer zugleich auch nach der klinischen Relevanz ihrer Forschungsfrage aus. Die Bidirektionalität ist folglich erstens konstitutiv, weil sich biomedizinische Forschung darauf gründet, dass sie auf die Medizin (Desiderate klinischer Praxis) blickt und hierauf zugeschnittene biowissenschaftliche Methoden heranzieht, die wiederum selbst nach Standards der biologischen Grundlagenwissento be created. Biomedicine then, is as much a product of new administrative techniques and political constellations as it is an effect of the molecularization and geneticization of medicine, or what historians of science often call the dominance of the lab and scientific knowledge over clinical practices and reasoning«. 17 Dies beschränkt sich nicht nur auf die Biomedizin der Nachkriegszeit, wie etwa Christoph Gradmanns Studie »Krankheit im Labor: Robert Koch und die medizinische Bakteriologie« zeigt (vgl. Gradmann 2005). Weiterhin ist anzumerken, dass sich die sogenannte personalisierte Medizin dem Slogan »from bedside to bench to bedside« verschrieben hat (vgl. Wanner 2011).
295
III. Die Philosophie der Natur- und Biowissenschaften
schaften bewertet werden. Das Bett, sprich die klinische Praxis, ist somit streng genommen selbst konstitutiv für jede laborbezogene Forschung. Biomedizinische Forschung kann in dieser Hinsicht als eine bestimmte Form der experimentellen Erprobung und Weiterführung genuin klinischer Fragen verstanden werden. Die Bidirektionalität ist zweitens evaluativ: Die Bewertung erfolgt in Bezug auf die Güte der biowissenschaftlichen Methoden wie auch im Hinblick auf das Ausmaß ihrer klinischen Relevanz. Ein pharmazeutischer Wirkstoff, der sich im experimentellen Organismus als besonders potent erweist, weil er das Tumorwachstum unterbindet oder erheblich verlangsamt, dessen Potenz sich aber im Rahmen klinischer Studien an ausgewählten Patientengruppen nicht reproduzieren lässt, hat folglich auch keine klinische Relevanz. Die abschließende Bewertung biomedizinischer Forschung verlangt somit idealerweise eine erfolgreiche Überführung in die Klinik und ist mit konkreten Problemen anwendungsbezogener Forschung konfrontiert (vgl. Carrier 2004). Diese methodologische Doppelgestalt aus Konstitution und Evaluation lässt sich, wie bereits beispielhaft angedeutet, an der Etablierung von Tiermodellen humaner Krankheitsbilder gut illustrieren (vgl. Huber/Keuck 2013): Die Etablierung von Tiermodellen ist von biowissenschaftlichen Forschungsstrategien abhängig, wie etwa der Möglichkeit des Einführens fremder Genabschnitte in das Erbgut von Mäusen (vgl. Lederman/Burian 1993; Rader 2004; Ankeny 2010). Dabei muss sichergestellt werden, dass das veränderte Erbgut relevant für die Krankheitsentstehung im Menschen ist. Idealerweise zeigen die gentechnisch veränderten Tiere die gleichen pathogenen Veränderungen, die auch beim Menschen belegt sind, d. h. Pathologien, die mit methodologisch äquivalenten Mitteln bei Mensch und Tier nachgewiesen werden können (z. B. Tumorwachstum). Um die Ergebnisse der Tierstudie auf den Menschen übertragbar zu machen und folglich von der klinischen Relevanz tierbasierter Forschung zu sprechen, muss sichergestellt werden, dass die Extrapolation gerechtfertigt ist (vgl. Steel 2008; Piotrowska 2013). Besondere Herausforderungen treten dabei dort auf, wo die Krankheit im Menschen Aspekte aufweist, die nicht ohne Weiteres im Tier nachgewiesen werden können, wie dies insbesondere bei psychischen Störungen der Fall ist. So wurden beispielsweise seit den 1990er Jahren von Seiten der biomedizinischen Forschung große Anstrengungen unternommen, klinische Symptome (insbesondere Gedächtnisverlust), die mit der Alzheimer-Erkrankung verbunden werden, auch im Tier zu reproduzieren und anhand von Verhaltensstudien zu diagnostizieren (Hsiao et al. 1996): Das ideale Mausmodell der Alzheimer-Krankheit instantiiert demnach nicht nur die Neuropathologie der humanen Erkrankung im Tier und weist diese methodologisch äquivalent nach, sondern beansprucht zugleich über den Umweg behavioraler Studien am Tier klinische Symptome zu reproduzieren, die typisch für humane Patienten sind. Doch lässt sich zuverlässig davon sprechen, dass Mäuse, die entsprechende Veränderungen im Gehirn und Verhaltensdefizite in der räumlichen Koordination zeigen, an »Morbus Alzheimer« erkrankt sind? Sind pharmazeutische Wirkstoffe, die kognitive Suchstrategien von Mäusen ver296
Philosophie der biomedizinischen Wissenschaften
bessern helfen, auch bei Patienten, die unter Gedächtnisverlust leiden, wirksam? Welche Rückschlüsse lässt die Biomedizin in diesem Fall für die Klinik, sprich die Entwicklung therapeutischer Optionen für den Menschen zu? Versteht man die konstitutive und evaluative Bidirektionalität als definierendes Charakteristikum von biomedizinischen Wissenschaften, so lassen sich diese nicht von Kernfragen und Forschungszielen der klinischen Medizin entkoppeln. Gleiches gilt folglich, wie bereits angedeutet, für die Philosophie der biomedizinischen Wissenschaften, und zwar unabhängig davon, ob man eine enge oder weite Definition des Forschungsfeldes zugrunde legt. Die philosophisch-systematische Würdigung biomedizinischer Wissenschaften ist weder aus den ideengeschichtlichen noch aus den wissenschaftstheoretischen Zusammenhängen der Philosophie der Biologie bzw. der Philosophie der Medizin herauszulösen.
2 Was ist biomedizinisches Wissen? Wie aus den einführenden Überlegungen bereits hervorgeht, orientieren sich Forschungsfragen und Forschungsziele biomedizinischer Wissenschaften an klassischen Themen der Medizin bzw. Biologie. Metaphysische Fragen der Philosophie der Biologie und Medizin, zum Beispiel, ob es sich bei Genen oder Krankheiten um »reale Entitäten« handelt, sind für die Philosophie der biomedizinischen Wissenschaften auch in erkenntnistheoretischer Hinsicht bedeutsam. Umgekehrt laden erkenntnistheoretische Analysen biomedizinischen Wissens dazu ein, klassische Themen der Philosophie der Medizin und Biologie neu zu beleuchten, wie etwa die folgenden Fragen zeigen, auf die hier aus Platzgründen nicht eigens eingegangen werden kann: Auf welcher Basis lassen sich unterschiedliche klinische Erscheinungsformen pathologischer Zustände unter eine Krankheitsentität, womöglich sogar im Sinne einer »natürlichen Art« (natural kind) subsumieren? Welchen Anteil an den unterschiedlichen Erscheinungsformen pathogener Veränderungen hat die biologische Variabilität von Individuen bzw. die pathophysiologische Heterogenität von Krankheiten? Wie verhalten sich biomedizinische Erklärungsmodelle von somatischen Erkrankungen und mentalen Störungen zu subjektiven Wahrnehmungen und gesellschaftlichen Implikationen des Krankseins? Die Erörterung der Frage, was biomedizinisches Wissen als solches auszeichnet, orientiert sich nicht nur an der grundlegenden bidirektionalen Ausrichtung der biomedizinischen Wissenschaften, sondern zudem an methodologischen Herausforderungen wie etwa den Folgenden: Können aus Einzelbeobachtungen (Fallstudien) generelle Aussagen über Therapieerfolge, wie etwa Heilungschancen (Prognosen) abgeleitet werden? Wie wird die Wirksamkeit von Therapien (z. B. Medikamententherapien) zuverlässig ermittelt? Wie sind die jeweiligen biomedizinischen Erklärungsmodelle gegenüber alternativen Modellen von Pathologie und Therapie, so diese überhaupt bestehen, zu bewerten? Grundlegende erkennt297
III. Die Philosophie der Natur- und Biowissenschaften
nistheoretische Kernfragen, die Aufschluss geben können, was unter biomedizinischem Wissen im Besonderen zu verstehen ist, lassen sich, wie wir hier zeigen möchten, vor allem im Hinblick auf zwei Bereiche ausweisen, nämlich in Bezug auf die Validität und Robustheit biomedizinischer Experimente und Modelle (Abschnitt 2.1) sowie im Hinblick auf Praktiken der Abstraktion und Idealisierung von Krankheiten (Abschnitt 2.2).
2.1 Validität und Robustheit biomedizinischer Experimente und Modelle In der Wissenschaftsphilosophie ist es mittlerweile recht geläufig, klassische Fragen der Verifizierung bzw. Falsifizierung unter dem Schlagwort der »Validierung« aufzugreifen bzw. Bewertungsmodelle, die darunter innerhalb der experimentalwissenschaftlichen Forschung gefasst werden, kritisch zu beleuchten.18 Dieser Trend spiegelt die Tatsache wider, dass in den empirischen Wissenschaften sehr unterschiedliche Bewertungsmodelle parallel existieren, wie etwa die Praxis, neuartige Methoden durch den Rekurs auf bereits etablierte Verfahren zu bewerten (»to validate«), sprich ihren wissenschaftlichen Nutzen zu bestätigen (»to confirm«). Dies geschieht, indem nachgewiesen wird, dass Ergebnisse, die mit Hilfe einer bereits etablierten Methode (dem sogenannten Goldstandard) erzielt wurden, auch mit der neuen Methode erzielt werden können, mit dem zusätzlichen Vorteil, dass das neuartige Verfahren insgesamt störungsunanfälliger ist, eine höhere Leistungsfähigkeit besitzt bzw. Ergebnisse präziser erfassen kann. Die Methodenlehre der empirischen Wissenschaften unterscheidet gemeinhin interne von externer Validität (Campbell/Stanley 1963; Cook/Campbell 1979). Interne Validität bezeichnet die Verlässlichkeit – meist im Sinne der Reproduzierbarkeit – von Ergebnissen im jeweiligen Experimentalkontext, in dem sie gewonnen werden. Als valide gelten demnach Ergebnisse, die frei von systematischen Fehlern sind und die tatsächlichen Effekte einer experimentellen Intervention abbilden. Externe Validität bezeichnet die Gültigkeit der Versuchsergebnisse außerhalb ihres Entstehungskontexts. In der Wissenschaftsphilosophie wurden diese Begriffe aufgegriffen, um beispielsweise Probleme der Translation von experimentellen Studienergebnissen in die Klinik zu charakterisieren: Selbst wenn deren interne Validität hoch ist, die Ergebnisse also innerhalb der Studie zuverlässig wiederholbar sind, bedeutet dies, wie etwa Nancy Cartwright (vgl. Cartwright 2009) gezeigt hat, nicht, dass eine so überprüfte Therapie auch außerhalb der Studie, sprich bei Patienten in der Routineversorgung, vergleichbare Effekte zeigt. Dies folgt in gewisser Weise aus der Orientierung wissenschaftlicher Praxis an der methodologischen Lesart von Objektivität, sprich: der begründeten intersubjektiven Übereinkunft (justified intersubjective agreement). Im Gegensatz etwa zur Orientierung wissenschaftlicher Praxis an der metaphysischen Lesart von Objektivität, im Sinne von »Wahrheitsgemäßheit«. Vgl. hierzu Carrier (2013). 18
298
Philosophie der biomedizinischen Wissenschaften
In den meisten wissenschaftsphilosophischen Abhandlungen wird dabei implizit oder auch explizit von einer zeitlichen und epistemischen Abfolge ausgegangen, sprich Probleme der internen Validität sollen denen der externen Validität vorangehen (vgl. Guala 2003). Im Bezug auf Wissenschaftsfelder, die wie die biomedizinischen Wissenschaften eine bidirektionale Dynamik zwischen Entstehungs- und Anwendungskontexten aufweisen, muss diese Reihenfolge jedoch grundsätzlich in Frage gestellt werden. Um noch einmal auf das Beispiel tierbasierter Forschung zurückzukommen: Bei der Etablierung von Tiermodellen menschlicher Krankheiten wirken sich Strategien der externen Validierung, die die Übertragbarkeit der Versuchsergebnisse in den klinischen Kontext betreffen, unmittelbar auf die Gestaltung des Experimentaldesigns aus (vgl. Nelson 2013; Huber/Keuck 2013). Die humane Pathophysiologie dient hier als Grundlage für genetische Modifikationen am experimentellen Organismus und leitet folglich auch den Nachweis der Signifikanz hervorgerufener Veränderungen im Tier (Auswahl von Outcome-Parametern) an. Vor diesem Hintergrund stellt sich die grundsätzliche Frage, ob die klassische Unterscheidung von interner und externer Validität für die Bewertung biomedizinischer Forschung überhaupt angemessen ist. In der Tat finden sich in biomedizinischen Abhandlungen, ähnlich wie in der psychologischen Forschung, vielfältige Validitätskonzepte, die unterschiedliche Teilaspekte der Gültigkeitsbewertung anführen, wie etwa im Hinblick auf Ähnlichkeit (»face validity«), konzeptuelle Schärfe (»construct validity«), ätiologische Aussagekraft (»aetiological validity«) bzw. prognostischen Wert (»prognostic validity«; zur Einführung vgl. van Dam/Deyn 2006; Belzung/Lemoine 2011). Darüber hinaus scheint das Verhältnis von interner und externer Validität, sprich von Verlässlichkeit bzw. Gültigkeit wissenschaftlicher Ergebnisse, einer grundsätzlichen Neubewertung unterzogen werden zu müssen. Anlass hierfür geben etwa Anforderungsprofile an die Robustheit von Datensätzen, wenn es sich nicht nur um sehr große Datenmengen, wie etwa in der Physik (Large Hadron Collider) oder Geowissenschaft (Klimamodelle) handelt, sondern um dezidiert datengetriebene Forschungsbereiche. Beispiele für lebenswissenschaftliche Forschungsfelder, die im Hinblick auf die Konturierung biomedizinischen Wissens im Besonderen zu nennen wären, sind die Genomik und die Proteomik.19 Mit Hilfe des Abgleichs von großen Mengen genetischer Daten von Patienten wird gegenwärtig beispielsweise in der psychiatrischen Forschung versucht, eine völlig Die so genannten »-omics«-Forschungsbereiche untersuchen nicht einzelne biologische Entitäten wie Gene oder Proteine, sondern die Gesamtheit der Gene oder Proteine eines biologischen »Systems«. Der Anspruch der Metagenomik geht sogar noch darüber hinaus: Im Fokus derartiger Forschungsansätze steht die Gesamtheit des Erbguts, das etwa im mit Mikroorganismen besiedelten menschlichen Darm vorhanden ist. Zur wechselvollen Geschichte der Begriffe »Gen«, »Genetik« und »Genomik« vgl. Müller-Wille/ Rheinberger (2009). Zur Frage wie sich metagenomische Analysen auf die Frage nach der biologischen Identität eines menschlichen Individuums auswirken, vgl. Dupré/O’Malley (2007). 19
299
III. Die Philosophie der Natur- und Biowissenschaften
neue Klassifikation psychischer Störungen zu erlangen, indem sogenannte Risiko Loci identifiziert werden (Cross-Disorder Group of the Psychiatric Genomics Consortium 2013). In der Wissenschaftsphilosophie wird gemeinhin unter Robustheit die epistemische Wertigkeit von Daten für Phänomene bezeichnet (vgl. Bechtel 1994): Wie kann sichergestellt werden, dass im Experiment gewonnene Daten tatsächlich zuverlässig Auskunft über das zu erklärende Zielphänomen (z. B. »Higgs-Boson« in der Physik oder »Schizophrenie« in der Psychiatrie) geben? Mit dem Konzept der Robustheit sind folglich unmittelbar elementare Anforderungen an die wissenschaftliche Praxis, wie etwa die Stabilisierung empirischer Fakten im experimentellen Setting berührt: Daten können streng genommen erst dann als robust gelten, wenn sie Zielphänomene störungsunanfällig (resilient) repräsentieren (vgl. Gandenberger 2010) oder diese instantiieren (vgl. Feest 2011). Dass die Robustheit von Daten überhaupt als erkenntnistheoretische Herausforderung betrachtet wird, ist Ausdruck einer Hinwendung der Wissenschaftsphilosophie zu experimentellen Praktiken in den Natur- und Lebenswissenschaften (u. a. Hacking 1996; Rouse 1987; Radder 2003). James Bogen und James Woodward problematisierten in diesem Zuge den bis dato exklusiven Status der Beobachtung (z. B. Hempel 1952) indem sie darauf hinwiesen, dass gerade auch nicht-observationale Verfahren der Datenanalyse einen wichtigen Stellenwert für die experimentelle Forschung besitzen (vgl. Bogen/Woodward 1988). Datengetriebene Regime in der Genomik und Proteomik unterstreichen diese Bewertung durch den vollzogenen Perspektivwechsel auf Forschungsfragen der Biomedizin. Überhaupt hat die Bewertung von Daten im Hinblick auf ihre Vernetzung über Forschungsplattformen (Datenbanken), sprich den Aufbau digitaler Infrastrukturen, neue Aufmerksamkeit erfahren. Die vermeintliche ›Robustheit‹ von Daten wird heute häufig zusätzlich dann problematisiert, wenn die Daten sekundär, d. h. für weiterführende Fragestellungen, z. B. im Rahmen epidemiologischer Forschungsvorhaben, Verwendung finden und somit außerhalb des ursprünglichen Experimentalkontexts nutzbar werden sollen (Bauer 2008; 2014).20 Wie schon in anderen Bereichen der »Big Sciences« zeigt sich auch in den biomedizinischen Wissenschaften, dass computergestützte Simulationen bzw. Modelle, die elementare biologische Prozesse in silico simulieren, neue Strategien erfordern, um die gewonnenen Daten in Bezug auf die Forschungsziele zu bewerten: In-silico-Modellierungen, wie etwa das virtuelle Modell des menschlichen Stoffwechsels, »Recon 2«, das aus über 100 000 Einzelcomputermodellen besteht (vgl. http://humanmetabolism.org), wären we Auch die computergestützten Modelle der Systembiologie nutzen fast ausschließlich Datensätze, die in anderen Forschungszusammenhängen (z. B. in verschiedenen molekularbiologischen Experimenten) erhoben werden. Gleiches gilt für biomedizinische In- silico-Modelle wie den »Oncosimulator«, der Datensätze aus unterschiedlichen Bereichen der biologischen und klinischen Forschung integriert, um weiterführende Erkenntnisse über das Entstehen von Tumoren zu gewinnen (zur Einführung vgl. Stamatakos et al. 2007). 20
300
Philosophie der biomedizinischen Wissenschaften
nig aussagekräftig, wenn sich die beobachteten Effekte nicht auch in vivo, sprich am Stoffwechsel des lebendigen Organismus zeigen ließen. Um die Robustheit der im Computermodell gewonnenen Daten zu konstatieren, ist es also notwendig, diese rückwärtig zu überprüfen, z. B. durch den Nachweis identischer Effekte in realen »Systemen« (Zellverbände, Organismen, Patienten). Die Robustheit wird dadurch kontrolliert, dass die zuerst im Computermodell simulierten Veränderungen von Stoffwechselmechanismen im zellbiologischen Labor (in vitro) bzw. im Tiermodell, zum Beispiel der Maus (in vivo) reproduziert und schließlich in klinisch relevante Anwendungen überführt werden. Grundlegende erkenntnistheoretische Kernfragen, die hier unter den Gesichtspunkten Validität und Robustheit biomedizinischer Experimente und Modelle skizziert wurden, wirken auch auf Praktiken der Abstraktion und Idealisierung biomedizinischer Zielphänomene wie etwa Krankheiten bzw. Störungsbilder zurück.
2.2 Praktiken der Abstraktion und Idealisierung von Krankheiten Abstraktion und Idealisierung sind etablierte, heuristische und/oder epistemische Strategien in sehr unterschiedlichen Forschungsfeldern und Wissenschaftsbereichen, ob es sich im Einzelnen um »Gedankenmodelle«, »paper-and-pencil-tools« oder um wissenschaftliche Erklärungsmodelle wie das Teilchenmodell der Physik handelt. Abstraktionen machen Typen verfügbar, in dem sie von individuellen Ausprägungen absehen. Idealisierungen heben ausgewählte Eigenschaften hervor. Die biomedizinischen Wissenschaften zeichnen sich dadurch aus, dass sie aufgrund ihrer methodischen Heterogenität sehr unterschiedliche Strategien der Abstraktion und Idealisierung ausgebildet haben,21 die innerhalb von Forschungsdesigns aber gegebenenfalls miteinander verknüpft werden: So rekurrieren etwa tierbasierte Modellierungen von Krankheitsbildern, wie am Beispiel der Alzheimer-Forschung gezeigt, auf ein idealisiertes, sehr stark abstrahiertes Konzept eines klinischen und psychopathologischen Krankheitsbildes, indem experimentelle Studiendesigns nur ganz bestimmte pathogene Veränderungen im Tier replizieren und mit der humanen Alzheimer-Krankheit identifizieren. Klinische Studien wiederum, setzen eigene, auf die Rahmenbedingungen von Forschung am Menschen abgestimmte Strategien der Abstraktion bzw. Idealisierung voraus: So ist die Homogenität der Kohorte (Studienteilnehmer) hinsichtlich krankheitsrelevanter Parameter, vor allem in Bezug auf den Schweregrad der Symptome und gegebenenfalls vorliegende Komorbiditäten sicherzustellen. Die klinischen Symptome bzw. Laborparameter, die die Studienteilnehmer zeigen, müssen idealiter repräsentativ für ein spezifisches Krankheitsbild sein, sprich, sie sollen an genau Hierunter ist folglich beides zu verstehen: die unterschiedliche Gewichtung von verschiedenen Aspekten, aber auch die experimentellen Tätigkeiten, um die entsprechenden Aspekte überhaupt erst verfügbar zu machen. 21
301
III. Die Philosophie der Natur- und Biowissenschaften
dieser und keiner anderen, ähnlichen und/oder verwandten Erkrankung leiden.22 Zu bedenken ist in diesem Zusammenhang, dass Krankheitsklassifikationen, also systematische Erfassungen von Schlüsselsymptomen, die differentialdiagnostisch stringent sind,23 selbst Abstraktion bzw. Idealisierung individueller Symptomatiken sind (Krankheit als abstrahierte Entität): Nicht jeder Patient, der an der Alzheimer-Krankheit leidet, zeigt alle für das Krankheitsbild typischen Symptome bzw. denselben Schweregrad (individuelle Manifestation einer Erkrankung). Mit dieser grundlegenden Herausforderung ist im Übrigen kein Sonderfall der Psychiatrie bezeichnet, sondern ein grundsätzliches Merkmal medizinischer Forschung und Praxis (vgl. Fleck 1980). Mit den dargestellten Idealisierungen und Abstraktionen sind unterschiedliche Formen und Praktiken der Repräsentation verknüpft: Im ersten Fall ist die Abstraktion des Krankheitsbildes etwa als signifikante pathogene Veränderungen im Gehirn des experimentellen Organismus, einer gentechnisch veränderten Maus, realisiert. Derartige Mäuse haben, wie Verhaltenstests zeigen, zudem Schwierigkeiten, sich im Raum zu orientieren. Es handelt sich folglich um ein vierdimensionales materielles Modell24 , ein so genanntes »Tiermodell« der humanen Krankheit. Im zweiten Fall, der klinischen Studie, ist die ausgewählte klinische Kohorte (gegebenenfalls inklusive der aus gesunden Probanden bestehenden Kontrollgruppe) eine reale Repräsentation des humanen Symptomkomplexes Morbus Alzheimer (bzw. von Zielsymptomen wie der sogenannten kognitiven Darüber hinaus sollen idealerweise sämtliche (akzidentiellen) Unterschiede zwischen Studienteilnehmern, die etwa auch erst im Rahmen des Studienverlaufs zum Ausdruck kommen, minimiert bzw. nivelliert werden. Methode der Wahl ist das Placebo-kontrollierte Studiendesign: Die Studiengruppe setzt sich hier aus zwei jeweils ausreichend großen Studienkollektiven zusammen, wobei nur ein Kollektiv das Therapeutikum tatsächlich erhält. Die Zuordnung der Studienteilnehmer zu den beiden Studienkollektiven erfolgt randomisiert und verblindet. Die Verblindung regelt, ob nur die Studienteilnehmer nicht wissen, ob sie den Wirkstoff erhalten (blind), oder ob auch die behandelnden Ärzte nicht wissen, welchem Kollektiv ihr Patient angehört (doppelblind). Zur Logik von randomisierten klinischen Studien (RCTs) z. B. Howick (2012). Zur Geschichte ihrer Einführung in die Onkologie und dem Status von RCTs als biomedizinische Experimente vgl. Keating/Cambrosio (2012). 23 Das Ausmaß der differentialdiagnostischen Stringenz variiert stark zwischen unterschiedlichen Klassifikationen: Zum einen sind manche Krankheiten oder Störungen präziser umschrieben als andere (vgl. Huntington’sche Krankheit versus Persönlichkeitsstörungen; zu methodologischen Problemen der Persönlichkeitstestung vgl. Huber 2014); zum anderen sind kontextspezifische Protokolle zum Ein- und Ausschluss von Studienteilnehmern meist aufwendiger, aber auch weniger idiosynkratrisch als die für administrative Zwecke genutzten Klassifikationen der Internationalen statistischen Klassifikation der Krankheiten (ICD) (Keuck 2011a). 24 Zur Funktion und den Herausforderungen materieller Modelle in den Lebenswissenschaften vgl. etwa Burian (1993), Keller (2000), Creager et al. (2007), Ankeny/Leonelli (2011); zu den spezifischen Herausforderungen von Tiermodellen in der Biomedizin vgl. oben. 22
302
Philosophie der biomedizinischen Wissenschaften
Einschränkung).25 Im dritten Fall, den Krankheitsklassifikationen, ist die Repräsentationsform der Abstraktion zunächst eine formale, d. h. primär sprachliche: Die Krankheit wird über die Beschreibung von klinischen Symptomen und/oder pathogenen Veränderungen in Organstrukturen differenziert erfasst, diagnostische Kriterien werden definiert, Krankheitstypen aufgrund des Schweregrads der Symptomatik bzw. der Ansprechbarkeit auf Pharmazeutika bestimmt.26 Bislang hat sich die Wissenschaftsphilosophie vor allem mit den genannten Praktiken der Abstraktion bzw. Idealisierung im Rahmen von Einzelstudien zur biologischen bzw. biomedizinischen Modellen auseinandergesetzt (siehe oben) oder etwa zu den besonderen Anforderungen, die an klinische Forschungsdesigns gestellt werden. Im Zuge der Debatten um den methodischen und explanatorischen Pluralismus rücken die Beziehungen zwischen den oben ausgeführten (und weiteren) Ebenen der Abstraktion in den Vordergrund der philosophischen Auseinandersetzung: Wie verhalten sich epidemiologische und genetische, klinische und neurowissenschaftliche Erklärungen zueinander? Lassen sich die verschiedenen Forschungsergebnisse zu einem integrativen, wissenschaftlichen Modell von Krankheit vereinen (vgl. Mitchell 2009; Lemoine 2011)? Grundsätzlich können Konzepte wie »Krankheit« und »Gesundheit« (hier als Abwesenheit spezifischer pathogener Veränderungen bzw. klinischer Symp tome)27 als zentrale Abstraktionen der biomedizinischen Wissenschaften verstanden werden. Jenseits der Debatte um Krankheitsbegriff und Krankheitswert (vgl. Abschnitt 1) müssen bestimmte Voraussetzungen erfüllt sein, um einen biomedizinischen Zugriff auf Krankheit zu ermöglichen: Die Krankheit muss sich nicht nur im Individuum zeigen, sondern losgelöst von diesem analysierbar sein. Dies kann beispielsweise folgende Form annehmen: Krankheitskonzepte werden von In der Tat schließt die überwiegende Mehrheit der derzeit durchgeführten klinischen Studien zur Alzheimer-Krankheit Menschen, die an einem fortgeschrittenen Stadium der Krankheit leiden, aus und adressieren stattdessen ein neues Patientenkollektiv von Menschen, die ein erhöhtes Risiko für die Alzheimer-Krankheit aufweisen oder an einem mutmaßlichen Vorläuferstadium leiden (s. u., vgl. auch Keuck 2012). 26 Zur Frage, nach welchen Kriterien Krankheiten bzw. insbesondere psychische Störungen in Klassen geordnet werden sollten, vgl. u. a. Keuck (2011b), Kendler/Parnas (2012), Kincaid/Sullivan (2014). 27 Krankheiten zeigen sich in Gestalt von pathogenen Veränderungen in Organstrukturen (»Störung«) und gehen je nach Krankheitsbild und Schweregrad in der Regel mit einem gewissen Leidensdruck einher (vgl. oben: die medizintheoretische Debatte um den Krankheitsbegriff). Die Gesundheit von Individuen wird in den medizinischen Wissenschaften ex negativo bestimmt (vgl. auch Canguilhem 1974) – nämlich entweder im Hinblick auf einen eingetretenen Heilerfolg nach einer therapeutischen Maßnahme oder aber durch das Nichtvorliegen eines konkreten, durch wissenschaftliche Methoden »objektiv« feststellbaren Krankheitsbildes (disease; »eine Krankheit haben«) bzw. durch die Abwesenheit von subjektiv empfundenem Leid (illness; »krank sein«). Zur Einführung vgl. Rosenberg (2007, v. a. Chapter 2: The Tyranny of Diagnosis: Specific Entities and Individual Experience, 13 – 37). 25
303
III. Die Philosophie der Natur- und Biowissenschaften
vorliegenden klinischen Einzelfällen (»case studies«) oder Fallserien abgeleitet (vgl. Ankeny 2011; 2014) und anschließend etwa im Sinne eines Symptomkomplexes in ihren Charakteristiken beschrieben und anhand von Zellgewebe (in vitro) bzw. am tierischen Organismus (in vivo) modelliert. Hier zeigt sich ein weiteres Mal die Bedeutung der bidirektionalen Ausrichtung biomedizinischer Forschung zwischen wissenschaftlichem Anspruch und klinischer Nützlichkeit. Um epistemischen Profit aus den Abstraktionen und ihren Repräsentationen zu ziehen, werden vor allem diejenigen Eigenschaften von kranken Individuen abstrahiert, die als klinisch relevant und biologisch ähnlich erachtet werden. Dies bedeutet jedoch nicht unbedingt, dass es eine einheitliche theoretische Grundlage für Abstraktionen in der Biomedizin gäbe. Denn die Konzepte von klinischer Relevanz wie auch von biologischer Ähnlichkeit sind selbst abhängig von Systematisierungen und Bewertungen neuartiger Diagnoseverfahren bzw. therapeutischer Optionen (z. B. Pharmazeutika) und damit auch von ökonomischen und anderen nichtepistemischen Interessen. Wie in anderen experimentellen Wissenschaften auch fällt der mentale Vorgang des Abstrahierens mit Strategien der »Operationalisierung« (zur Verflechtung von mentalen und instrumentalen Operationen vgl. Bridgman 1949) zusammen, gemeint sind Verfahren des technisch-vermittelten Beobachtens bzw. des experimentalwissenschaftlichen Intervenierens in lebende Organismen. Krankheitsrelevante Eigenschaften werden nicht nur im Denkvorgang von anderen akzidentiellen Eigenschaften des Individuums abstrahiert, sondern tatsächlich herauspräpariert, sprich sichtbar gemacht (z. B. Borck 1996; zu tierbasierten Modellierungen vgl. Creager et al. 2007; Huber/Keuck 2013). Eine wichtige epistemische Funktion von biomedizinischen Abstraktionen besteht folglich darin, die pathologische Welt zu ordnen und von der nicht-pathologischen mit Hilfe von wissenschaftlichen Methoden abzugrenzen. Bei der Bildung von Abstraktionen scheint die Auswahl einer geeigneten Stichprobe (z. B. von Patienten) eine besondere Rolle zu spielen. Schließlich zeichnet sich die moderne Medizin nicht zuletzt durch die Zusammenfassung von Einzelfällen zu Fallserien und das Schließen von Fallserien auf allgemeine Klassifikatio nen aus (vgl. Hess/Mendelsohn 2010; Ankeny 2014). Bei der Anwendung der so gewonnenen Abstraktionen wird einerseits immer wieder aufs Neue überprüft, inwiefern eine gegebene Klassifikation dazu geeignet ist, ihre Ordnungsfunktion zufriedenstellend und zuverlässig zu erfüllen. Die abgeleiteten Erklärungen, Vorhersagen und Interventionen müssen sich andererseits in ihrer Anwendung kontinuierlich bewähren. Dieses iterative Vorgehen des Abstrahierens und Rerealisierens gibt Anlass, die epistemische Wertigkeit von Abstraktionen in den Lebenswissenschaften ins Verhältnis zu ihrem Anwendungsbereich, der klinischen Medizin, zu stellen. Ian Hacking (z. B. 1999) hat unter dem Begriff der Looping-Effekte (↑ Philosophie der Soziologie) beschrieben, wie Krankheitsklassifikationen auf diagnostizierte Individuen zurückwirken, und umgekehrt, inwiefern die Betroffenen, über ihre Identifizierung mit dem »objektiven« Krankheitsbild, dazu beitragen, dass 304
Philosophie der biomedizinischen Wissenschaften
sich Klassifikationen verstetigen oder auch – je nach genuinen Eigenschaften der Kohorte – verändern können (vgl. Abschnitt 1.1: »interactive kinds«). Über die konkreten Auswirkungen, die mit der Internalisierung biomedizinisches Wissens einhergehen (vgl. Lock/Nguyen 2010), wird kontrovers diskutiert: Ist die Tatsache, dass sich, wie die klinische Praxis zeigt, betroffene Individuen zu medizinischen Klassifikationen verhalten, indem sie die hieraus resultierenden therapeutischen Regime konsequent befolgen bzw. sich ihnen widersetzen (Compliance vs. NonCompliance), Grund dafür, von einem essentiellen Unterschied zwischen naturwissenschaftlichen und medizinischen Klassifizierungen zu sprechen? Ist ferner ein wertneutraler Krankheits- und Gesundheitsbegriff, wie dies innerhalb der Philosophie der Medizin diskutiert wird (Boorse 1977), im Hinblick auf das Anwendungsfeld systematischer Klassifikationen überhaupt möglich (kritisch hierzu z. B. Agich 1983)? Es liegt auf der Hand, wissenschaftliche Vorhaben wie etwa die Klassifikation von chemischen Elementen in dieser Hinsicht von Vorhaben der Klassifikation von humanen Krankheiten grundlegend zu unterscheiden: Selbst Naturalisten, die davon ausgehen, dass Krankheiten »natürliche« Entitäten sind (z. B. Boorse 1977; Hucklenbroich 2007), müssen anerkennen, dass die von Hacking beschriebenen Looping-Effekte und die soziale Realität, die Krankheitsklassifikationen entfalten, maßgeblichen Anteil an der Stabilität bzw. Instabilität von Krankheitskategorien haben: Es ist nicht allein auf den medizinischen Fortschritt, also die Entwicklung von neuen diagnostischen und therapeutischen Verfahren zurückzuführen, dass medizinische Klassifikationssysteme regelmäßig überarbeitet werden und entsprechend modifizierte bzw. neue Krankheitskategorien Einzug in die klinische Praxis halten (vgl. z. B. Demazeux/Singy 2015). Nicht immer fällt die Überarbeitung derart tiefgreifend und umfassend aus wie in den 1980er Jahren, als das Diagnostische und Statistische Handbuch Psychischer Störungen (DSM) eine »neutralere« Terminologie einführte (Agich 2002, 102; »a kind of descriptive neutrality«): Das DSM-III ersetzte die Rede von der mentalen bzw. psychischen Erkrankung (mental disease) durch den Begriff der psychischen Störung (mental disorder) als Manifestation einer psychologischen oder biologischen Dysfunktion (American Psychiatric Association 1980).28 Vor allem ging damit eine Distanzierung von ätiologischen Theor ien und stattdessen eine Fokussierung auf möglichst eindeutig definierte Symptome einher. 29 Zum Konzept der psychischen Störung als »schädliche/gesundheitsgefährdete Dysfunktion« (harmful dysfunction) vgl. Wakefield (1992); zur philosophischen Kritik des dem DSM zugrundeliegenden »atheoretischen« Krankheits- bzw. Störungskonzepts vgl. Cooper (2005); zur Epistemologie von DSM-III vgl. Demazeux (2013); zur sozialgeschichtlichen Bedeutung von DSM-III vgl. Mayes/Horwitz (2005). Einen aktuellen Überblick über die Debatten bieten Kendler/Parnas (2012). 29 Der Psychiater Allen Frances (2013, 65) beschreibt dies wie folgt: »DSM-III was advertised as atheoretical in regard to etiology and equally applicable to the biological, psychological, and social models of treatment. This was true on paper but not in facto. It was true in that the criteria sets were based on surface symptoms and said nothing about 28
305
III. Die Philosophie der Natur- und Biowissenschaften
Die daraus resultierende Privilegierung von biologischen Markern gegenüber komplexeren psychologischen Modellen von psychischer Störung wird durch die »neurokognitive Wende« der Neuauflage des psychiatrischen Standardwerks der Diagnostik weiter vorangetrieben: Die im Jahr 2013 veröffentlichte fünfte Überarbeitung des Diagnostischen und Statistischen Manuals psychischer Störungen (DSM-5) führt etwa das etablierte Konzept der Demenz nicht länger (American Psychiatric Association 2013). Die Alzheimer-Krankheit wird nun als Ursache einer »schweren neurokognitiven Störung« (Major Neurocognitive Disorder) klassifiziert. Hierdurch verändert sich jedoch nicht nur die Bezeichnung, sondern auch das Kollektiv, das in diese Klasse fällt. Dies gilt vor allem für die neu hinzugefügte Kategorie der »leichten neurokognitiven Störung« (Mild Neuro cognitive Disorder). Dabei betonen die federführend für die Revision verantwortlichen Psychiater selbst, dass die Kategorie der leichten kognitiven Störung kaum verlässlich diagnostizierbar ist. Dass die Kategorie dennoch in den offiziellen Katalog aufgenommen wurde, wird erstens damit begründet, dass sich immer mehr Individuen bereits mit sehr leichten Beschwerden hilfesuchend an klinische Einrichtungen wenden und die Beeinträchtigung daher ein klinisches Problem darstelle.30 Hinzu kommt, zweitens, dass die Klassifizierung der »leichten kogni tiven Störung« für einen Wandel innerhalb der klinischen Forschung steht: Im Fokus aktueller Forschungsdesigns, wie etwa der multizentrischen Studien der US -amerikanischen und inzwischen auch europaweit agierenden Alzheimer-Initiative (ADNI, E-ADNI),31 stehen – neben Alzheimer-Patienten mit ausgeprägtem causes or treatments. But the surface symptoms method fit very neatly with a biological, medical model of mental disorder and greatly promoted it. The rejection of more inferential psychological constructs and social context severely disadvantaged these other models and put psychiatry into something of a reductionistic straitjacket.« 30 In der mittlerweile nicht mehr online verfügbaren Erläuterung der DSM-5-›taskforces‹ für die Überarbeitungen der DSM-Klassifikationen hieß es zur Einführung der neuen Kategorie: »as these conditions are increasingly seen in clinical practice, clinicians have a pressing need for reliable and valid diagnostic criteria in order to assess them and provide services including […] appropriate early interventions« (http://www.dsm5.org/ ProposedRevisions/Pages/Delirium, letzter Zugriff 15. Oktober 2010; vgl. Keuck 2012). 31 Die erste Phase der multizentrischen Studie der Alzheimer Disease Neuroimaging Initiative (ADNI) startete 2004 in den Vereinigten Staaten. Mittlerweile sind in den USA und Kanada rund 50 Forschungseinrichtungen an der Langzeitstudie (dritte Phase, ADNI-2, 2011 – 2 016) beteiligt. Neben dem nordamerikanischen Forschungsverbund gibt es mittlerweile Ableger in Europa, die European Alzheimer’s Initiative (E-ADNI) wurde 2005 durch die Alzheimer Association ins Leben gerufen und umfasst ebenfalls rund 50 Forschungseinrichtungen europaweit. Zum Forschungsverbund, zu den unterschiedlichen Forschungsdesigns (ADNI, ADNI-Go, ADNI-2) und weiteren beteiligten Ländern weltweit vgl. http://adni.loni.usc.edu (letzter Zugriff, 29. Dezember 2016). Die Forschungsinitiative vertritt eine offensive Datenpolitik: Beteiligte Forschungseinrichtungen sind verpflichtet, sämtliche Datensätze in ein digitales Netzwerk einzuspeisen. Externe Forscher können sich für die Nutzung dieser Daten online registrieren. Mittlerweile sind über 400 Forschungsartikel publiziert worden, die sich auf ADNI-Datensätze stützen.
306
Philosophie der biomedizinischen Wissenschaften
Krankheitsbild – zunehmend Individuen, die nur mit einer »leichten kognitiven Störung« diagnostiziert sind, deren ›Patientenstatus‹ also grundsätzlich hinterfragt werden kann, als auch bis dato gesunde Probanden, die keinerlei Symptome einer kognitiven Beeinträchtigung zeigen. Ziel dieser Studien ist es, Vorläuferstadien (Prodromi) der Erkrankung sicher zu identifizieren und Medikamente zu entwickeln, die das Fortschreiten der Erkrankung bereits in einem frühen Stadium unterbinden oder deren Entstehen ganz verhindern. Um Patienten- und Probandenkollektive zu finden, die keine oder nur geringe Beeinträchtigungen im kognitiven Spektrum zeigen, wurde die Rekrutierung von Studienteilnehmern in den letzten Jahren systematisch ausgedehnt (Lock 2013); mit dem doppelten Resultat, dass a) das eigentliche Patientenkollektiv, die Alzheimer-Patienten, für klinische Studien, die den Nutzen einer neuen Medikamentenklasse überprüfen, nicht mehr im Mittelpunkt steht und dass b) neue Kollektive – so sie zuverlässig identifiziert werden können – erst noch dahingehend zu sensibilisieren sind, dass sie selbst einen Bedarf haben, an einer entsprechenden Studie teilzunehmen. Die wissenschaftliche Legitimation von medizinischen Klassifikationen scheint besonders folgenreich zu sein, da sie auf gesellschaftliche Wahrnehmungen, was noch gesund oder schon krank ist, zurückwirken und gegebenenfalls zur Medikalisierung von ehemals primär sozialen Problemen, wie etwa dem Umgang mit »kognitiv eingeschränkten« älteren Menschen in einer Leistungsgesellschaft, beitragen (vgl. Conrad 2007). Die enge Verflechtung von ökonomischen, verwaltungstechnischen, klinischen und dezidiert forschungsbezogenen Interessen bei der Revision von Krankheitsklassifikationen und der Bestimmung von »klinischer Nützlichkeit« hat erhebliche innerpsychiatrische wie auch philosophische Kritik nach sich gezogen (vgl. Frances 2013; Murphy 2006). Zugleich spiegelt diese Interessenverflechtung die gesellschaftliche Bedeutung medizinischer Sachverhalte und die konstitutive Anwendungsorientiertheit biomedizinischer Forschung wider. Das soll nicht bedeuten, dass der in vielerlei Hinsicht unbefriedigende Status quo hinzunehmen sei, sondern vielmehr, dass sich die Philosophie der biomedizinischen Wissenschaften ebenso wie die der Medizin oder Psychiatrie eigens mit dem normativen Charakter biomedizinischen Wissens kritisch auseinanderzusetzen hat, will sie etwa dem wissenschaftlichen Stellenwert medizinischer Klassifizierungssysteme gerecht werden (z. B. Keuck 2011a). Besondere Relevanz hat diese Forderung auch in Bezug auf die methodisch-technische Hete rogenität biomedizinischen Wissens, was aus der Vielzahl an Entstehungs- und Anwendungskontexten resultiert, die, wie oben dargestellt, sehr spezifische Validierungsstrategien über Praktiken der Abstraktion und Idealisierung im Rahmen von modell-generierender Laborforschung bzw. randomisierter Placebo-kontrollierter klinischer Studien hervorbringen.
307
III. Die Philosophie der Natur- und Biowissenschaften
3 Fazit und Ausblick Die Philosophie der biomedizinischen Wissenschaften steht, wie dies hier in groben Zügen skizziert wurde, als systematisches Unternehmen in der Tradition etablierter Philosophien der Einzelwissenschaften, namentlich der Biologie bzw. der Medizin. Im weiteren Sinne widmet sie sich grundlegenden theoretischen Fragen, die am Schnittfeld von medizinischer Praxis, biomedizinischer Forschung und klinischer Studien entstehen. Vor allem im Hinblick auf grundlagenorientierte Bereiche der biologischen und biomedizinischen Forschung zeigt die Philosophie der biomedizinischen Wissenschaften eine Nähe zu systematischen Fragen der Technikphilosophie: Anteil an der Nähe zu gestalterischen Prinzipien der Ingenieurs- und Technikwissenschaft haben nicht nur die methodisch-technischen Praktiken der Genetik und Genomik (z. B. durch die Züchtung transgener Organismen, der Geneditierung oder durch die Verwendung von Mikrochip-Technologien), sondern auch die biotechnischen Verfahren der regenerativen Medizin (z. B. Züchtung von Haut- und Knorpelgewebe). Die Philosophie der biomedizinischen Wissenschaften hat sich ferner mit den epistemischen Werten und wissenschaftlichen Zielen anwendungsbezogener Bereiche auseinanderzusetzen. Explizit gilt dies in Bezug auf Fragen des Nutzens für die medizinische Praxis und der Umsetzbarkeit im Rahmen klinischer Forschungsdesigns.32 Die Philosophie der biomedizinischen Wissenschaften ist nicht zuletzt auch mit forschungsethischen Problemstellungen konfrontiert, zum Beispiel hinsichtlich der Vulnerabilität von Patientenkollektiven und dem Schutz von patientenbezogenen Daten. Die Nähe zu forschungsethischen Fragen als auch zu Fragen der sozialen Epistemologie zeigt sich besonders anschaulich in Bezug auf zukünftige Entwicklungen und Herausforderungen im Zuge der distributiven Forschung in Gestalt von computergestützten Forschungsplattformen.
3.1 Zukünftige Entwicklungen und Herausforderungen Mehr noch als die serologische Forschung der Jahrhundertwende, die Ludwik Fleck in seinem Werk »Entstehung und Entwicklung einer wissenschaftlichen Tatsache« von 1935 untersuchte (vgl. Fleck 1980), bringt die Biomedizin von heute eine Vielzahl unterschiedlicher Akteursgruppen zusammen, um Fragestellungen Was als veritable Forschung etwa im Zuge der evidenzbasierten Medizin bewertet wird, bemisst sich zu einem signifikanten Teil an wissenschaftlichen Standards, wie etwa des verblindeten, randomisierten klinischen Studiendesigns (vgl. Abschnitt 2.2). Zur Bedeutung der Standardisierung im Zuge der evidenzbasierten Medizin vgl. Timmermans/ Berg (2003); zu grundlegenden Herausforderung der Klassifizierung und Formalisierung in der Medizin vgl. Bowker/Star (1999); zur erkenntnisleitenden Bedeutung wissenschaftlich-technischer Normen, so genannter Standards, in den Lebenswissenschaften vgl. Huber (2015). 32
308
Philosophie der biomedizinischen Wissenschaften
an der Schnittfläche verschiedener (Sub-)Disziplinen zu bearbeiten. Zur Disposition steht hier die Spezifität von wissenschaftsphilosophischen Überlegungen zu neuen Forschungsimperativen wie dem sogenannten integrativen Pluralismus (vgl. Mitchell 2009; vgl. Abschnitt 2.2). Bei Forschungsverbünden wie dem Humangenomprojekt zeigt sich exemplarisch, wie gemeinsame Standards und Infrastrukturen zur koordinierten Akquise, Verwaltung und Verarbeitung von großen Datenmengen (»Big Data«) geschaffen werden. Hochtechnisierte Forschungs bereiche wie die »-omics« in den biomedizinischen Wissenschaften zeitigen unter Umständen auch neue Formen der Wissenschaftsorganisation sowie neue Zuständigkeiten in der Datenverarbeitung und -strukturierung. Das Humangenomprojekt hat maßgeblich zur Bedeutung einer neuen Berufssparte, der Bioinformatik, beigetragen (vgl. Lenoir 1998), die abgestimmt auf das jeweilige Anwendungsfeld grundlegende Software zur Datenintegration, -bearbeitung bzw. -visualisierung entwickelt hat. Für zahlreiche Forschungsfelder, darunter auch die Neurowissenschaften, ist die Expertise der Informatik (hier: Neuroinformatik) vor allem dort konstitutiv, wo es um die computergestützte Erhebung und Nachbearbeitung von Forschungsdaten geht oder aber um den Aufbau von Forschungsplattformen, die Daten unterschiedlicher Provenienz verfügbar machen und ausgefeilte Software instrumente zur Modellierung in silico bereitstellen (vgl. Huber 2011). Hinzu kommt die wachsende Bedeutung von Verwaltungsstrukturen wie digitalen Datenbanken insgesamt und den hiermit begünstigten maßgeblichen Einfluss von Datenbankkuratoren bei der Entscheidung, welche Art von Daten nach welchen Standards überhaupt eingespeist werden dürfen und somit im Zweifelsfall für weitere Forschung zugänglich werden (»Gatekeeping«). Die Notwendigkeit, Datensätze unterschiedlicher Provenienz mit dem Ziel der gemeinschaftlichen Nutzung verfügbar zu machen, hat zu veränderten Regimen der Datenarchivierung und -auswertung geführt. Bis dato hat vor allem die historische und soziologische Wissenschaftsforschung (STS) gezeigt, dass Strategien der inhärenten, d. h. datenbankspezifischen Standardisierung eine zentrale Rolle zukommt (vgl. Bowker 2005): Zu nennen sind hier etwa die Aushandlung und Implementierung von Minimalstandards digitaler Formate sowie die formale Festlegung und fortlaufende Generierung von Merkmalen (Metadaten) zu den jeweiligen Forschungsdesigns, die zusätzlich zu den eigentlichen Datensätzen gespeichert werden. Neuere Beiträge der Philosophie der Lebenswissenschaften erkennen in diesen Entwicklungen Minimalbedingungen für den Ausbau primärer Verwaltungsstrukturen zu genuinen Forschungsplattformen wie etwa für kollektive Forschungsvorhaben an bestimmten Modellorganismen wie der Fruchtfliege (vgl. Leonelli/Ankeny 2012). Was vor diesem Hintergrund wesentliche Herausforderungen sind, beantwortet die Wissenschaftsforschung für sich genommen sehr unterschiedlich: Die Forschungsethik, vor allem in Gestalt der Medizin- und Bioethik sowie der Technikfolgenabschätzung, verweist in diesem Zusammenhang auf grundsätzliche Probleme des Schutzes personenbezogenener Daten im Allgemeinen und patientenbezogener Daten, etwa im Rahmen von Biobanken, im Besonderen (z. B. 309
III. Die Philosophie der Natur- und Biowissenschaften
Deutscher Ethikrat 2010). Die soziologische Wissenschaftsforschung und die soziale Epistemologie hinterfragt angesichts zeitgenössischer Forschungspraktiken und der prinzipiellen Verfügbarkeit von Primärdaten klassische Konzepte wie Autorschaft und intellektuelles Eigentum (vgl. Biagioli/Galison 2003). Die Philosophie der biomedizinischen Wissenschaften steht vor der grundlegenden Herausforderung, Kriterien für die Bewertung von Wissen innerhalb der biomedizinischen Wissenschaften jenseits klarer disziplinärer Demarkationslinien anzugeben, auch weil durch die methodisch-technische Heterogenität des Forschungsfeldes nicht davon ausgegangen werden kann, dass diesen gemeinsame theoretische Annahmen, auf denen alle biomedizinischen Forschungsansätze beruhen, zugrunde liegen.
Literatur Empfehlungen: Eine grundlegende Einführung in das gesamte Forschungsfeld der biomedizinischen Wissenschaften liegt bisher nicht vor. Empfohlen seien daher im Folgenden Einzelstudien, die für sich genommen profunde Analysen der Heterogenität des Forschungsfeldes darstellen: Die Monographien von Schaffner (1993) und Tha gard (1999) bieten einschlägige Ausgangspunkte für die Auseinandersetzung mit den Besonderheiten von Erklärungen in der biomedizinischen Forschung aus Sicht der Wissenschaftstheorie. Zur Einführung in erkenntnistheoretische Fragen, die sich mit den Besonderheiten medizinischer Forschung verbinden, seien allen voran die Arbeiten Ludwik Flecks empfohlen (Gesammelte Schriften und Zeugnisse, 2011). Einen detaillierten Einblick in die laborzentrierte Zellforschung im Zeitalter der Biotechnologie erlaubt die Monographie von Landecker (2007). Die Bedeutung, die tierbasierte Ansätze für die biomedizinische Forschung haben, kann kaum überschätzt werden. Eine sehr lesbare Einführung in die Vielfalt von Modellorganismen und die hiermit verbundenen Herausforderungen für modellgestützte Experimentalsysteme innerhalb wie außerhalb der biomedizinischen Forschung stellt der Sammelband von Creager et al. (2007) dar. Die Genese biomedizinischer Wissenschaften und damit einhergehender neuartiger Forschungspraktiken verdanken sich einer Vielfalt von Entwicklungen, die sich aus der institutionellen wie auch intellektuellen Annäherung von Biologie und Medizin ergeben haben. Mit welchen Konsequenzen dies für die klinische Praxis verbunden ist, zeigt die Monographie von Keating/Cambrosio (2003).
310
Philosophie der biomedizinischen Wissenschaften
Agich, George J. (1983). Disease and Value: A Rejection of the Value-Neutrality Thesis. Theoretical Medicine 4, 27 – 41. – (2002). Implications of a Pragmatic Theory of Disease for the DSMs. In: John Z. Sadler (Hg.). Descriptions and Prescriptions. Values, Mental Disorders, and the DSMs. Baltimore, London: The Johns Hopkins University Press 2002, 97 – 113. American Psychiatric Association (1980). Diagnostic and Statistical Manual of Mental Disorders. Third Edition. Arlington: American Psychiatric Publishing. – (2013). Diagnostic and Statistical Manual of Mental Disorders. Fifth Edition. Arlington: American Psychiatric Publishing. Ankeny, Rachel A. (2010). Historiographic reflections on model organisms: Or, how the mureaucracy may be limiting our understanding of contemporary genetics and genomics. History and Philosophy of the Life Sciences 32, 91–104. – (2011). Using Cases to Establish novel Diagnoses: Creating Generic Facts by Making Particular Facts Travel Together. In: Peter Howlett und Mary S. Morgan (Hg.). How well do facts travel? The dissemination of reliable knowledge. Cambridge: Cambridge University Press 2011, 252 – 272. – (2014). The Overlooked Role of Cases in Casual Attribution in Medicine. Philosophy of Science 81, 999 – 1011. – und Sabina Leonelli (2011). What’s so special about model organisms? Studies in History and Philosophy of Science Part A 42, 313–323. Bauer, Susanne (2008). Mining Data, Gathering Variables and Recombining Information: The Flexible Architecture of Epidemiological Studies. Studies in History and Philosophy of Biological and Biomedical Sciences 39, 415 – 4 28. – (2014). From Administrative Infrastructure to Biomedical Resource: Danish Population Registries, the »Scandinavian Laboratory,« and the »Epidemiologist’s Dream«. Science in Context 27, 187 – 213. Bechtel, William (1994). Deciding on the Data: Epistemological Problems Surrounding Instruments and Research Techniques in Cell Biology. PSA : Proceedings of the Biennial Meeting of the Philosophy of Science Association 2, 167 – 178. Belzung, Catherine, und Maël Lemoine (2011). Criteria of validity for animal models of psychiatric disorders: focus on anxiety disorders and depression. Biology of Mood & Anxiety Disorders 1,9. Bernard, Claude (1961). Einführung in das Studium der experimentellen Medizin. Ins Deutsche übertragen von Paul Szendrö und biographisch eingeführt und kommentiert von Karl E. Rothschuh. Mit einem Anhang: Zur Bibliographie des Schrifttums von und über Claude Bernard, von Rudolph Zaunick. Leipzig: Johann Ambrosius Barth Verlag (Im Original: Introduction à l’étude de la médecine expérimentale. Paris: J.-B. Baillière et fils 1865). Biagioli, Mario, und Peter Galison (Hg.) (2003). Scientific Authorship. Credit and Intellectual Property in Science. New York: Routledge. Bogen, James, und James Woodward (1988). Saving the Phenomena. The Philosophical Review 97, 303 – 352.
311
III. Die Philosophie der Natur- und Biowissenschaften
Boorse, Christopher (1977). Health as a Theoretical Concept. Philosophy of Science 44, 542 – 573. Borck, Cornelius (Hg.) (1996). Anatomien medizinischen Wissens: Medizin, Macht, Moleküle. Frankfurt am Main: Fischer Taschenbuch Verlag. Bowker, Geoffrey C. (2005). Memory Practices in the Sciences. Cambridge/ MA: MIT Press. – und Susan Leigh Star (1999). Sorting Things Out. Classification and Its Consequences. Cambridge/ MA, London: The MIT Press. Broadbent, Alex (2013). Philosophy of Epidemiology. Basingstoke und New York/ NY: Palgrave Macmillan. Bridgman, Percy Williams (1949). The Operational Aspect of Meaning. Synthese 8, 251 – 259. Bruchhausen, Walter (2011). ›Biomedizin‹ in sozial- und kulturwissenschaftlichen Beiträgen. Eine Begriffskarriere zwischen Analyse und Polemik. NTM . Zeitschrift für Geschichte der Wissenschaften, Technik und Medizin 18, 497 – 522. Burian, Richard M. (1993). How the choice of experimental organism matters: Epistemological reflections on an aspect of biological practice. Journal of the History of Biology 26, 351–367. Campbell, Donald, und Julian C. Stanley (1963). Experimental and Quasi-Experimental Designs for Research. Boston: Houghton Mifflin Company. Canguilhem, Georges (1974). Das Normale und das Pathologische. Aus dem Französischen von Monika Noll und Rolf Schubert. München: Carl Hanser Verlag (im Original: Le normal et le pathologique. Paris: Presses Universitaires de France 1966). – (2009). Die Erkenntnis des Lebens. Übersetzt von Till Bardoux, Maria Muhle und Francesca Raimondi. Berlin: August Verlag (im Original: La connaissance de la vie. Paris: Vrin 1952). Cantor, Charles R. (1990). Orchestrating the Human Genome Project. Science 248, 49–51. Carrier, Martin (2004). Knowledge and Control: On the Bearing of Epistemic Values in Applied Science. In: Peter Machamer und Gereon Wolters (Hg.). Science, Values, and Objectivity. Pittsburgh: University of Pittsburgh Press 2004, 275 – 293. – (2013). Values and Objectivity in Science: Value-Ladenness, Pluralism and the Epistemic Attitude. Science and Education 22, 2547 – 2568. Cartwright, Nancy (2009). Evidence-based policy: what’s to be done about relevance? Philosophical Studies 143, 127 – 136. de Chadarevian, Soraya (1998). Following Molecules: Hemoglobin between the Clinic and the Laboratory. In: Soraya de Chadarevian und Harmke Kamminga (Hg.). Molecularizing Biology and Medicine: New Practices and Alliances 1910s–1970s. Amsterdam: Taylor & Francis 1998, 160 – 189. Clarke, Adele E., Laura Mamo, Jennifer Ruth Fosket, Jennifer R. Fishman und Janet K. Shim (2010). Biomedicalization: Technoscience, Health, and Illness in the U. S. Durham/ NC: Duke University Press. Conrad, Peter (2007). The Medicalization of Society. On the Transformation of Hu312
Philosophie der biomedizinischen Wissenschaften
man Conditions into Treatable Disorders. Baltimore: The Johns Hopkins University Press. Cook, Thomas D., und Campbell, Donald T. (1979). Quasi-experimentation: Design and analysis issues for field settings. Chicago/ IL: Rand-McNally. Cooper, Rachel (2005). Classifying Madness. A Philosophical Examination of the Diagnostic and Statistical Manual of Mental Disorders. Dordrecht: Springer. Creager, Angela N. H., Elizabeth Lunbeck und M. Norton Wise (Hg.) (2007). Science without laws. Model Systems, Cases, Exemplary Narratives. Durham/London: Duke University Press. Cross-Disorder Group of the Psychiatric Genomics Consortium (2013). Identification of risk loci with shared effects on five major psychiatric disorders: a genome-wide analysis. The Lancet 381, 1371 – 1379. van Dam, Debby, und Peter Paul de Deyn (2006). Drug discovery in dementia: The role of rodent models. Nature Reviews Drug Discovery 5, 956–970. Demazeux, Steeves (2013). Qu est-ce que le DSM? Genèse et transformations de la bible américaine de la psychiatrie. Paris: Les Éditions d’Ithaque. – und Patrick Singy (Hg.) (2015). The DSM-5 in Perspective: Philosophical Reflections on the Psychiatric Babel. Dordrecht: Springer. Deutscher Ethikrat (Hg.) (2010). Humanbiobanken für die Forschung. Stellungnahme. Berlin: Deutscher Ethikrat. Dupré, John, und Maureen A. O’Malley (2007). Metagenomics and biological ontology. Studies in History and Philosophy of Biological and Biomedical Sciences 38, 834 – 846. Evidence-Based Medicine Working Group (1992). Evidence-Based Medicine. A New Approach to Teaching the Practice of Medicine. JAMA 268, 2420 – 2425. Feest, Uljana (2011). What Exactly is Stabilized when Phenomena are Stabilized? Synthese 182, 57 – 71. Fleck, Ludwik (1980). Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv. Textidentische Ausgabe mit der 1935 bei Benno Schwabe & Co erschienenen Erstausgabe. Mit einer Einleitung herausgegeben von Lothar Schäfer und Thomas Schnelle. Frankfurt am Main: Suhrkamp Verlag. – (2011). Denkstile und Tatsachen. Gesammelte Schriften und Zeugnisse. Hrsg. v. Sylwia Werner und Claus Zittel. Berlin: Suhrkamp Verlag. Frances, Allen (2013). Normal: Gegen die Inflation psychiatrischer Diagnosen. Übersetzt von Barbara Schaden. Köln: DuMont Buchverlag (im Original: Saving Normal: An Insider’s Revolt Against Out-of-Control Psychiatric Diagnosis, DSM-5, Big Pharma, and the Medicalization of Ordinary Life, New York/ NY: William Morrow 2013). Galison, Peter, und Bruce William Hevly (Hg.) (1992). Big Science: The Growth of Large-Scale Research. Stanford/CA: Stanford University Press. Gandenberger, Gregory Stephen (2010). Producing a Robust Body of Data with a Single Technique. Philosophy of Science 77, 381 – 399. 313
III. Die Philosophie der Natur- und Biowissenschaften
Gannett, Lisa (2010). The Human Genome Project. In: Edward N. Zalta (Hg.). The Stanford Encyclopedia of Philosophy (Fall 2010 Edition), http://plato.stanford.edu/ archives/fall2010/entries/human-genome. Gifford, Fred; Thagard, Paul; Wood, John (Hg.) (2011). Philosophy of Medicine. Philadelphia/ PA: Elsevier. Goldstein, Kurt (1934). Der Aufbau des Organismus. Einführung in die Biologie unter besonderer Berücksichtigung der Erfahrungen am kranken Menschen. Den Haag: Martinus Nijhoff. Gradmann, Christoph (2005). Krankheit im Labor. Robert Koch und die medizinische Bakteriologie. Göttingen: Wallstein Verlag. Guala, Francesco (2003). Experimental Localism and External Validity. Philosophy of Science 70, 1195 – 1205. Hacking, Ian (1986). Making Up People. In: Thomas C. Heller, Morton Sosna und David E. Wellbery (Hg.). Reconstructing Individualism. Autonomy, Individuality, and the Self in Western Thought. Stanford: Stanford University Press 1986, 222 – 236. – (1996). Einführung in die Philosophie der Naturwissenschaften. Aus dem Englischen übersetzt von Joachim Schulte. Stuttgart: Philipp Reclam jun. (im Original: Representing and Intervening. Introductory Topics in the Philosophy of Natural Science. Cambridge, New York: Cambridge University Press 1983). – (1999). The Social Construction of What? Cambridge/ MA, London: Harvard University Press. Hahn, Robert A., und Arthur Kleinman (1983). Biomedical Practice and Anthropological Theory: Frameworks and Directions. Annual Review of Anthropology 12, 305 – 333. Hempel, Carl G. (1952). Fundamentals of Concept Formation in Empirical Science. Chicago: The University of Chicago Press. Hess, Volker, und Andrew J. Mendelsohn (2010). Case and Series: Medical Knowledge and Paper Technology, 1600 – 1900. History of Science 48, 287 – 314. Howick, Jeremy (2012). The Philosophy of Evidence-Based Medicine. Chichester: BMJ Books (Wiley-Blackwell). Hsiao, Karen, Chapman, Paul, Nilsen, Steven, Eckman, Chris, Harigaya, Yasuo, Younkin, Steven, Yang, Fusheng, und Greg Cole (1996). Correlative Memory Deficits, Aß Elevation, and Amyloid Plaques in Transgenic Mice. Science 274, 99 – 102. Huber, Lara (2011). LONI & Co: Die epistemische Spezifität digitaler Wissensräume in der kognitiven Neurowissenschaft. Berichte für Wissenschaftsgeschichte 34, 174 – 190. – (2014). »Are You Happy Most of the Time?« Eine kritische Würdigung standardisierter Individualität aus Sicht der Wissenschaftsphilosophie. In: Orsolya Friedrich und Michael Zichy (Hg.). Persönlichkeit. Neurowissenschaftliche und neurophilosophische Fragestellungen. Paderborn: Mentis Verlag 2014, 305 – 322. – (2015). Measuring by Which Standard? How Plurality Challenges the Ideal of Epistemic Singularity. In: Oliver Schlaudt und Lara Huber (Hg.). Standardization in Measurement. London: Pickering and Chatto Publishers 2015, 207 – 215. 314
Philosophie der biomedizinischen Wissenschaften
– und Lara K. Keuck (2009). Medicine in a Neurocentric World: About the Explanatory Power of Neuroscientific Models in Medical Research and Practice (Editorial notes). Medicine Studies 1, 307 – 313 (publiziert unter den Namen Lara Huber und Lara K. Kutschenko). – und Lara K. Keuck (2013). Mutant Mice: Experimental Organisms as Materialised Models. Studies in History and Philosophy of Biological and Biomedical Sciences 44, 385 – 391. Hucklenbroich, Peter (2007). Krankheit – Begriffsklärung und Grundlagen einer Krankheitstheor ie. Erwägen Wissen Ethik 1, 77 – 9 0. – und Alena Buyx (Hg.) (2013). Wissenschaftstheoretische Aspekte des Krankheits begriffs. Münster: mentis. Kay, Lily E. (1993). The Molecular Vision of Life. CALTECH, The Rockefeller Foundation, and the Rise of the New Biology. New York, Oxford: Oxford University Press. Keating, Peter, und Alberto Cambrosio (2003). Biomedical Platforms. Realigning the Normal and the Pathological in Late-Twentieth-Century Medicine. Cambridge/ MA, London: The MIT Press. – (2012). Cancer on Trial. Oncology as a new style of practice. Chicago/ IL: Chicago University Press. Keller, Evelyn Fox (2000). Models of and models for: Theory and practice in contemporary biology. Philosophy of Science 67, 72–86. Kendler, Kenneth S., und Josef Parnas (Hg.) (2012). Philosophical Issues in Psychiatry II: Nosology. Oxford: Oxford University Press. Keuck, Lara K. (2011a). How to Make Sense of Broadly Applied Medical Classification Systems: Introducting Epistemic Hubs. History & Philosophy of the Life Sciences 33, 583 – 6 02 (publiziert unter dem Namen Lara K. Kutschenko). – (2011b). In Quest for ›Good‹ Medical Classification Systems. Medicine Studies 3, 53 – 70 (publiziert unter dem Namen Lara K. Kutschenko). – (2012). Diagnostic Misconceptions? A Closer Look at Clinical Research on Alzheimer’s Disease. Journal of Medical Ethics 38, 57 – 59 (publiziert unter dem Namen Lara K. Kutschenko). Kincaid, Harold, und Jacqueline A. Sullivan (Hg.) (2014). Classifying Psychopathology: Mental Kinds and Natural Kinds. Cambridge/ MA: MIT Press. Kincaid, Harold, und Jennifer McKitrick (Hg.) (2007). Establishing Medical Reality. Essays in the Metaphysics and Epistemology of Biomedical Science. Dordrecht: Springer. Kronfeldner, Maria, und Staffan Müller-Wille (Hg.) (2011). Special Issue on Causation and Disease. History and Philosophy of the Life Sciences 33, 445 – 622. Landecker, Hannah (2007). Culturing Life. How Cells became Technologies. Cambridge/ MA, London: Harvard University Press. Lederman, Muriel und Richard M. Burian (1993). Special section on the right organism for the job. Journal of the History of Biology 26, 235–267. Lemoine, Maël (2011). La désunité de la médecine. Essai sur les valeurs explicatives de la science médicale. Paris: Hermann. 315
III. Die Philosophie der Natur- und Biowissenschaften
Lenoir, Timothy (1998). Shaping Biomedicine as an Information Science. In: Mary Ellen Bowden, Trudy Bellardo Hahn und Robert V. Williams (Hg.). Proceedings of the 1998 Conference on the History and Heritage of Science Information Systems. ASIS Monograph Series. Medford, NJ: Information Today, Inc. 1998, 27 – 45. Leonelli, Sabina, und Rachel A. Ankeny (2012). Re-thinking Organisms: The Impact of Databases on Model Organism Biology. Studies in History and Philosophy of Biological and Biomedical Sciences 43, 29 – 36. Lock, Margret (2013). The Alzheimer Conundrum. Entanglements of Dementia and Aging. Princeton, Oxford: Princeton University Press. – und Vinh-Kim Nguyen (2010). An Anthropology of Biomedicine. Malden/MA: Wiley-Blackwell. Löwy, Ilana (2004). Introduction: Ludwik Fleck’s epistemology of medicine and biomedical sciences. Studies in History and Philosophy of Science Part C 35, 437 – 445. – (2011a). Historiography of Biomedicine: »Bio,« »Medicine,« and In Between. ISIS 102, 116 – 122. – (2011b). Labelled bodies: classification of diseases and the medical way of knowing, History of Science 49, 299 – 315. Machamer, Peter, Lindley Darden und Carl F. Craver (2000). Thinking about Mechanisms. Philosophy of Science 67, 1‐25. Mayes, Rick, und Allan V. Horwitz (2005). DSM-III and the Revolution in the Classification of Mental Illness. Journal of the History of the Behavioral Sciences 41, 249 – 267. Mitchell, Sandra D. (2009). Unsimple truths. Science, complexity, and policy. Chicago/ IL: The University of Chicago Press. Morange, Michel (2000). A history of molecular biology. Aus dem Französischen von Matthew Cobb. Cambridge/ MA: Harvard University Press (im Original: Histoire de la biologie moléculaire. Paris: Editions La Découverte 1994). Müller-Wille, Staffan, und Hans-Jörg Rheinberger (2009). Das Gen im Zeitalter der Postgenomik: eine wissenschaftshistorische Bestandsaufnahme. Frankfurt am Main: Suhrkamp Verlag. Murphy, Dominic (2006). Psychiatry in the Scientific Image. Cambridge/ MA: MIT Press. Nelson, Nicole C. (2013). Modeling mouse, human, and discipline: Epistemic scaffolds in animal behavior genetics. Social Studies of Science 43, 3 – 29. Pauling, Linus, Harvey A. Itano, S. J. Singer und Ibert C. Wells (1949). Sickle Cell Anemia, A Molecular Disease. Science 110, 543 – 548. Piotrowska, Monika (2013). From humanized mice to human disease: Guiding Extrapolation from model to target. Biology & Philosophy 28, 439 – 455. Radder, Hans (Hg.) (2003). The Philosophy of Scientific Experimentation. Pittsburgh: University of Pittsburgh Press. Rader, Karen A. (2004). Making Mice. Standardizing Animals for American Biomedical Research, 1900 – 1955. Princeton, Oxford: Princeton University Press. 316
Philosophie der biomedizinischen Wissenschaften
Rheinberger, Hans-Jörg (2006). Experimentalsysteme und epistemische Dinge: Eine Geschichte der Proteinsynthese im Reagenzglas. Textidentische Ausgabe mit der 2001 im Wallstein Verlag erschienen deutschen Erstausgabe. Frankfurt a. M.: Suhrkamp Verlag. Richter, Robert (1977). Linus Pauling, Crusading Scientist. In: Online-Archiv der Oregon State Library: »It’s in the Blood. A Documentary History of Linus Pauling, Hemoglobin and Sickle Cell Anemia«, http://scarc.library.oregonstate.edu/coll/ pauling/blood/video/1977v.1-sicklecellanemia.html (13.11.2015). Rosenberg, Charles E. (2007). Our Present Complaint. American Medicine, Then and Now. Baltimore: The Johns Hopkins University Press. Rothschuh, Karl Eduard (Hg.) (1975). Was ist Krankheit? Erscheinung, Erklärung, Sinngebung. Darmstadt: Wissenschaftliche Buchgesellschaft. Rouse, Joseph (1987). Knowledge and Power. Toward a Political Philosophy of Science. Ithaca, London: Cornell University Press. Schaffner, Kenneth F. (1986). Exemplar reasoning about biological models and diseases: A relation between the philosophy of medicine and philosophy of science. Journal of Medicine and Philosophy 11, 63–80. – (1993). Discovery and Explanation in Biology and Medicine. Oxford: Oxford University Press. Schlünder, Martina (2014). Middleword I: Historicizing biomedicine: Toward a history of the present of BRCA. In: Sahra Gibbon, Galen Joseph, Jessica Mozersky, Andrea zur Nieden und Sonja Palfner (Hg.). Breast Cancer Gene Research and Medical Practices: Transnational Perspectives in the Time of BRCA. Abingdon: Routledge, 73 – 8 0. Schramme, Thomas (2003). Psychische Krankheit aus philosophischer Sicht. Gießen: Psychosozial-Verlag. – (Hg.) (2012). Krankheitstheorien. Berlin: Suhrkamp Verlag. Schulz, Stefan, Klaus Steigleder, Heiner Fangerau und Norbert W. Paul (Hg.) (2006). Geschichte, Theorie und Ethik der Medizin. Eine Einführung. Frankfurt am Main: Suhrkamp Verlag. Simon, Jeremy R., Etxeberria, Arantza, Casado da Rocha, Antonio (Hg.) (2013). Understanding the knowledge and practice of medicine: papers from the fourth Philosophy of Medicine Roundtable. Theoretical Medicine and Bioethics 34, 253 – 357. Stamatakos, Georgios S., Dionysiou, Dimitra D., Graf, Norbert M., Sofra, Nikoletta A., Desmedt, Christine, Hoppe, Alexander, Uzunoglu, Nikolaos K., und Manolis Tsiknakis (2007). The »Oncosimulator«: A Multilevel, Clinically Oriented Simulation System of Tumor Growth and Organism Response to Therapeutic Schemes. Towards the Clinical Evaluation of in Silico Oncology. Conference Proceedings IEEE Engineering in Medicine and Biology Society, 6629 – 6 632. Steel, Daniel P. (2008). Across the boundaries. Extrapolation in biology and social science. Oxford: Oxford University Press. Sturdy, Steve (2007). Knowing Cases. Biomedicine in Edinburgh, 1887 – 1920. Social Studies of Science 37, 659 – 6 89. 317
III. Die Philosophie der Natur- und Biowissenschaften
Thagard, Paul (1999). How Scientists Explain Disease. Princeton/ NJ: Princeton University Press. Timmermans, Stefan, und Marc Berg (2003). The Gold Standard. The Challenge of Evidence-Based Medicine and Standardization in Health Care. Philadelphia: Temple University Press. Virchow, Rudolf (1859). Die Cellularpathologie in ihrer Begründung auf physiologische und pathologische Gewebelehre. Zwanzig Vorlesungen, gehalten während der Monate Februar, März und April 1858 im pathologischen Institut zu Berlin. Zweite, neu durch gesehene Auflage. Berlin: A. Hirschwald. Wakefield, Jerome C. (1992). The Concept of Mental Disorder. On the Boundary Between Biological Facts and Social Values. American Psychologist 47, 373 – 388. Wanner, Mark (2011). From Bedside to Bench to Bedside: An Improved Cancer Research Platform. In: The Jackson Laboratory – Genetics and Your Health Blog, http://community.jax.org/genetics_health/b/weblog/archive/2011/10/25/from-bedside-to-bench-to-bedside-an-improved-cancer-research-platform.aspx (13.11.2015). Worall, John (2002). What evidence in evidence-based medicine? In: Philosophy of Science 69 (Supplement), 316–330.
318
5. Philosophie der Neurowissenschaften Holger Lyre
1 Einleitung 1.1 Neurowissenschaften und Philosophie Mit dem Begriff »Neurow issenschaften« lassen sich all diejenigen Disziplinen umreißen, deren Ziel die Aufklärung der strukturellen und funktionellen Organisationsweise des Nervensystems ist. Hirnforschung und Neurowissenschaften im eigentlichen Sinne entwickelten sich erst ab der zweiten Hälfte des 19. Jahrhunderts, es handelt sich also um einen vergleichsweise jungen Wissenschaftsbereich. Wesentlicher Aspekt bei der Herausbildung der modernen Neurowis senschaften ist die historisch gewachsene Erkenntnis, dass das Gehirn bzw. das zentrale Nervensystem den zentralen Sitz des Kognitiven und Bewussten darstellt und insofern entscheidender Träger oder Vehikel mentaler Fähigkeiten und Eigenschaften ist. Dem wird in jüngerer Zeit dadurch Rechnung getragen, dass von den derart inhaltlich fokussierten Neurowissenschaften als kognitiven Neurowis senschaften die Rede ist. Genau hierauf soll auch der Fokus des vorliegenden Artikels liegen. Spätestens seit den zur »Dekade des Gehirns« ausgerufenen 1990er Jahren erleben die Neurow issenschaften einen ungeahnten Aufwind. Hirnforschung ist zu einer der zentralen Forschungsfronten der Moderne herangewachsen, was sich nicht nur an einem hohen Aufkommen von Forschungsfinanzmitteln belegen lässt, sondern auch an der neumodischen Herausbildung einer großen Reihe von »Neuro-Bindestrich-Wissenschaften«: klassische Disziplinen, die durch das Präfix »Neuro-« neuartige, sich den Neurow issenschaften anschließende oder doch wenigstens zu ihnen hin orientierte Disziplinen (oder Pseudodisziplinen) bilden wie zum Beispiel die Neuropsychologie, Neuroinformatik, Neurolinguistik, Neurophilosophie und Neuroethik bis hin zu Neurodidaktik, Neuroökonomie und sogar Neurotheologie. Der disziplinäre Status zumindest der drei letztgenannten ist dabei durchaus umstritten. Neurow issenschaften und Philosophie berühren sich grundsätzlich sowohl im Bereich der theoretischen als auch der praktischen Philosophie. Letztere behandelt unter dem Titel Neuroethik zwei Fragestränge: zum einen Fragen der ethischen Dimension und Tragweite der Neurowissenschaften und ihrer lebenspraktischen Auswirkungen – Neuroethik in diesem Sinne ist weitestgehend eine Bereichsdisziplin der angewandten Ethik. Zum anderen lässt sich unter Neuro 319
III. Die Philosophie der Natur- und Biowissenschaften
ethik auch der Versuch verstehen, ethische Fragen unter Rückgriff auf neurowis senschaftliche Ergebnisse und Methoden zu behandeln. Beide Gebiete sollen hier jedoch nicht zur Sprache kommen. Für den Bereich der theoretischen Philosophie lässt sich eine systematische Unterscheidung treffen zwischen Neurophilosophie und Philosophie der Neuro wissenschaften (wenngleich es keine kanonische Verwendung der Termini gibt). Neurophilosophie, wie insbesondere in Patricia Churchlands Klassiker »Neuro philosophy: Toward a Unified Science of the Mind-Brain« (1986) vertreten, zielt auf eine neurowissenschaftlich informierte Philosophie des Geistes ab; demgegenüber kann die Philosophie oder spezieller noch Wissenschaftstheorie der Neurowissenschaften als diejenige Disziplin angesehen werden, die die methodologischen, epistemologischen und ontologischen Probleme der Neurowissenschaf ten behandelt. In einem weiten Verständnis von Neurophilosophie ist Letztere in Ersterer enthalten. Der vorliegende Artikel fokussiert auf Letztere, im Kern also auf die Wissenschaftstheorie der kognitiven Neurowissenschaften. Disziplinentheoretisch besitzt die Philosophie (im Sinne einer Wissenschafts theorie) der Neurowissenschaften in ihren Fragestellungen einen teilweise kontinuierlichen Übergang zu den Neurowissenschaften selbst – die nachfolgenden Inhalte demonstrieren dies. Zudem existieren bislang nur wenige Textsammlungen oder Überblicke (siehe Literaturempfehlungen). Dies zeigt, dass es sich um eine vergleichsweise junge Disziplin handelt, die noch keine relevante geschichtliche Dimension erkennen lässt.
1.2 Neuronale Komplexität und Stufenabfolge neurowissenschaftlicher Disziplinen Es ist entscheidend richtig, von den Neurowissenschaften im Plural zu sprechen, da es sich hierbei nicht um eine homogene Gruppe, sondern um ein heterogenes Gemenge von Fachgebieten handelt, das in verschiedenen Hinsichten disziplinär unterteilt werden kann. Mit Blick auf ihre praktische Ausübung gestatten die Neurowissenschaften eine Einteilung in theoretische, experimentelle und klinische Neurowissenschaften. Von Letzteren, zu deren Kerndisziplinen die klinische Neurophysiologie, Neuroanatomie, Neurologie und Neurochirurgie gehören, wird in diesem Aufsatz abgesehen. Die in der Forschung und akademisch betriebenen Neurowissenschaften sind im hohen Maße experimentell und zeigen einen Mangel an langreichweitigen Theor ien (also Theor ien, Prinzipien und Gesetzen mit dem Anspruch auf weitgehend universelle Geltung anstelle nur eingeschränkt gültiger, lokaler Modelle und Mechanismen). Auf diesen Umstand wird im Laufe des Artikels noch gelegentlich eingegangen. Neben einer vertikalen, an der Praxis orientierten Einteilung sind die Neuro wissenschaften auch von einer horizontalen Einteilung bzw. Stufenabfolge neuro wissenschaftlicher Teildisziplinen geprägt. Dies ergibt sich unmittelbar aus dem Forschungsgegenstand, also der Tatsache, dass Struktur und Funktion des neu320
Philosophie der Neurowissenschaften
ronalen Systems auf unterschiedlichen Größenskalen und Organisationsebenen betrachtet werden können. Es lassen sich grob folgende Ebenen unterscheiden: . die molekulare Ebene . die zelluläre Ebene (des einzelnen Neurons) . die Netzwerk-Ebene neuronaler Verbände (neuronale Netze) . die systemische Ebene großräumiger neuronaler Verbände und Strukturen . die kognitiv-behavioral-psychische Ebene einzelner kognitiver Individuen . die psychisch-soziale Ebene von Individuen als Teil sozialer Gemeinschaften Die Ebenen folgen einer Hierarchie wachsender neuronaler Komplexität. Entsprechend lassen sich gemäß einer horizontalen Aufteilung schichtenspezifische neurowissenschaftliche Subdisziplinen unterscheiden: • • • • •
Molekulare Neurowissenschaft (Ebene 1) Zelluläre Neurowissenschaft (Ebene 2) Computationale Neurowissenschaft (Ebenen 3 und 4, teilweise auch ab 2) Systemische Neurowissenschaft (Ebene 4, teilweise auch 5 und 6) Soziale Neurowissenschaft (Ebenen 5 und 6)
Nach herrschender Ansicht setzt die kognitive Funktionalität ab der zellulären Ebene bzw. im Zusammenspiel mehrerer Nervenzellen ein. In diesem Sinne sind computationale, systemische und soziale Neurowissenschaften die eigentlichen Unterdisziplinen der kognitiven Neurowissenschaften, hinzu kommen die Verhaltens-Neurowissenschaft (behavioral neuroscience) sowie Bio- und Neuropsychologie.1 Eine Sonderrolle nimmt die Neuroinformatik ein, die ursprünglich nicht von der computationalen Neurowissenschaft abgetrennt wurde, in jüngerer Zeit aber vermehrt als Unterdisziplin der Informatik angesehen wird, deren Frageinte resse die Entwicklung und der Einsatz künstlicher neuronaler Netze zur Erledigung ingenieurtechnischer Aufgabenstellungen ist, ohne dass dabei entscheidend wäre, inwieweit die verwendeten neurocomputationalen Modelle einem biologischen Vorbild entsprechen.
1.3 Computationale Neurowissenschaft, Konnektionismus und Kognition Das Feld der computationalen Neurowissenschaft (computational neuroscience) nimmt eine zentrale Stellung unter den neurowissenschaftlichen Arbeitsfeldern ein, insofern man hier neuronale Systeme als dezidiert informationsverarbeitend und computational ansieht (und sich in diesem Sinne für deren mathematische Modellierung interessiert). Dies beginnt auf der Einzelzellebene mit dem Hodgkin-Huxley-Modell als frühem und allgemeinen Neuronenmodell zur Entstehung Vgl. Kandel et al. (1995) zu Neurow issenschaften allgemein sowie Gazzaniga et al. (2014) und Karnath und Thier (2012) zu den kognitiven Neurow issenschaften. 1
321
III. Die Philosophie der Natur- und Biowissenschaften
und Dynamik von Aktionspotentialen. Besonderes Interesse gilt der Modellierung synaptischer Plastizität und den grundlegenden zellulären Mechanismen von Lernen und Gedächtnis. Den Schlüsselgedanken neuronaler Plastizität formuliert die von Donald Hebb 1949 neurophysiologisch begründete und bestätigte Hebbsche Lernregel, der zufolge die gleichzeitige Aktivität zweier Neuronen deren synaptische Verbindung verstärkt (Hebb 1949, S. 62). Hierdurch eröffnet sich ein grundlegendes Verständnis neuronaler Systeme als lernend, speichernd, adaptiv und assoziativ. Auf der Ebene mehrerer Zellen oder Zellverbände lassen sich nunmehr Dynamiken der Verbindung von Neuronen betrachten (Hebbian cell assemblies). Hebbs Grundgedanke steht somit Pate für den Konnektionismus als computationalem Paradigma neurokognitiver Systeme. Als Berechenbarkeits-Paradigma steht der Konnektionismus dem Symbolismus der klassischen Künstlichen Intelligenz (KI) gegenüber. Während grundlegende neuronale Netzwerk-Modelle wie die Lernmatrix oder das Perzeptron bereits in den 1950er und 60er Jahren entwickelt wurden, kam es in den 1970er Jahren zu einer weitgehenden Verdrängung durch die Dominanz der symbolverarbeitenden KI. Die 1980er Jahre führten dann zu einem explosionsartigen Wiedererstarken des (Neo-)Konnektionismus mit einer Vielzahl neuer Modelle wie dem Hopfield-Modell, Backpropagation, Boltzmann-Maschine und selbstorgansierenden Netzen nach Willshaw-Malsburg und Kohonen. Ab den 1990er Jahren treten mit Dynamizismus und situierter Kognition (Embodiment, Embeddedness; weitergehend auch Extended Cognition und Enaktivismus) paradigmatische Weiterentwicklungen auf2 (↑ Philosophie der Kognitionswissenschaft). In den computationalen Neurowissenschaften gewinnen gepulste Netzwerke zunehmend an Bedeutung (vgl. Fußnote 9 in Abschnitt 5.2).
1.4 Neuronale Systeme in physikalischer, funktionaler und intentionaler Hinsicht Mit der Stufenabfolge neuronaler Komplexität gehen auch kategorial unterschiedliche philosophische Fragestellungen einher. Die Fragen und Probleme der unteren Stufen betreffen vornehmlich Struktur und Funktion des neuronalen Systems, nicht aber die Frage, wie dieses System mentale Zustände, Geist und Bewusstsein hervorbringen kann. Da die spezifischen Fragen der Philosophie der Kognition und des Geistes nicht Gegenstand dieses Aufsatzes sind, soll hier der Fokus nur darauf liegen, inwiefern Annahmen und Erkenntnisse der Kognitions-
Vgl. Churchland und Sejnowski (1992), Dayan und Abbott (2001), Eliasmith und Anderson (2003), Gerstner et al. (2014) und Trappenberg (2010) zur computationalen Neurowissenschaft und Neuroinformatik sowie Bechtel and Abrahamsen (2002) zu Konnektionismus und Dynamizismus. 2
322
Philosophie der Neurowissenschaften
wissenschaften und der Philosophie des Geistes Implikationen für die kognitiven Neurowissenschaften haben. Die verschiedenen Frageebenen lassen sich gut anhand der drei von Daniel Dennett eingeführten Zuschreibungsarten illustrieren, die wir einem System gegenüber einnehmen können (Dennett 1987). Als Teil der physikalischen Welt kann jedes System von einer physikalischen Einstellung aus beschrieben werden (physical stance). Nimmt die Komplexität des Systems zu, so ist es angemessen, das System von einer funktionalen Einstellung aus zu beschreiben (design stance). Die Beschreibung der neuronalen Netzwerkstruktur oder des Konnektoms3 wäre ein Beispiel dafür, wie im Rahmen der computationalen und systemischen Neurowissenschaft das neuronale System zunächst von der physikalischen Einstellung aus in seiner physikalisch-biologischen Struktur und Organisation beschrieben wird. Geht man von der Struktur zur Funktion über, so wechselt die Beschreibungseinstellung (vom physical zum design stance). Neuronalen Systemen wird dann typischerweise eine computationale Funktion unterstellt: sie sind informationsverarbeitend und üben eine Form von Rechentätigkeit aus. Zeigt ein System darüber hinaus ein Verhalten, das absichtsvoll und planvoll erscheint, so ist es nach Dennett zwingend, ihm gegenüber eine intentionale Einstellung einzunehmen (intentional stance). Sie eröffnet das gesamte Arsenal mentalen Vokabulars zur angemessenen Beschreibung des Systems und betrifft die Ebenen kognitiver, behavioraler, psychischer und sozialer Zuschreibungen und damit die Schnittstellen, die die Neurowissenschaften zur Psychologie, Psychiatrie und sämtlichen Verhaltenswissenschaften besitzen. An diesen Schnittstellen hat das traditionelle Leib-Seele-Problem als Gehirn-Geist-Problem seinen modernen Sitz.
2 Ontologische Fragestellungen 2.1 Multirealisierbarkeit und Reduktionismus Zentrale ontologische Probleme der Neurowissenschaften ranken um die miteinander zusammenhängenden Themen Multirealisierbarkeit und Reduktionismus (↑ Philosophie der Psychologie). Der Hinweis auf Multirealisierbarkeit (MR) dient traditionell als antireduktionistisches Argument. Gleichzeitig kann die Dominanz des MR-Arguments in weiten Teilen der Philosophie verbunden mit der Vorherrschaft des Funktionalismus dafür geltend gemacht werden, dass die Philosophie des Geistes den Neurowissenschaften über Jahrzehnte keine hinreichende Aufmerksamkeit geschenkt hat (trotz bereits beachtlicher empirischer Erfolge der Neurowissenschaften). Mentale Zustände, so das MR-Argument, lassen sich auf multiple, drastisch heterogene Weise physikalisch, auch neurobiologisch, re Zur systemischen Neurowissenschaft, Netzwerktheor ie und Konnektomie siehe Abschnitt 3. 3
323
III. Die Philosophie der Natur- und Biowissenschaften
alisieren. Daher besteht keine Identität zwischen mentalen und physischen Typen. Um Kognition und das Wesen des Mentalen zu verstehen, genügt es, die höherstufigen funktionalen und computationalen Eigenschaften kognitiver Wesen und Systeme zu untersuchen, die Details der neuronalen Realisierung sind ohne Belang. Diese Sichtweise änderte sich erst allmählich mit dem Aufkommen des Neokonnektionismus in den 1980er Jahren. In Reaktion hierauf entstand (und entsteht) eine sich gegenüber der Philosophie des Geistes verselbstständigende Neurophilosophie und Philosophie der Neurowissenschaften erst ab den 1990er Jahren. Prominente Vorreiter der Neurophilosophie in den 1980er Jahren waren Patricia und Paul Churchland – bekannt für ihre radikale Position des eliminativen Materialismus. Nach dieser Position lässt sich unsere in der Alltagspsychologie sedimentierte Überzeugungs-Wunsch-Konzeption des Mentalen (belief-desire folk psychology) eines Tages durch neurowissenschaftlich fundiertes Vokabular verlustfrei ersetzen, so wie etwa unsere naive und in Teilen auch vorwissenschaftliche Konzeption dessen, was Licht ist, durch die Elektrodynamik und Redeweisen über elektromagnetische Strahlung abgelöst wurden. Gleichzeitig haben die Churchlands wesentlich dazu beigetragen, den in den 1980er Jahren aufkommenden Neokonnektionismus für die Philosophie des Geistes fruchtbar zu machen. In ihren Arbeiten (P. S. Churchland 1986, P. M. Churchland 1989) geht es beispielsweise darum, eine Art interne Funktionale-Rollen-Semantik für Systeme zu charakterisieren, deren Zustände nicht diejenigen eines klassischen symbolverarbeitenden Systems sind, sondern Zustände eines Klassifikations- oder Assozia tivspeicher-Netzwerks, die aber gleichwohl als begriffliche oder propositionale Zustände angesehen werden können. Oder es geht um den Versuch, eine funktio nalistisch-repräsentationalistische Auffassung von Qualia im Sinne sensorischneuronaler Zustände zu motivieren. Einer der prononciertesten Vertreter eines molekular-neurobiologischen Reduktionismus ist John Bickle. Er folgt dabei Paul Churchlands Auffassungen zur Theor ien-Reduktion. In Ernest Nagels klassischer Konzeption von Theor ienReduktion wird von der Leitidee ausgegangen, dass eine niederstufige Theor ie T eine höherstufige Theor ie T genau dann reduziert, wenn es möglich ist, die Gesetze von T auch im Rahmen von T herzuleiten (Nagel 1961). Da höher- und niederstufige Theorien typischerweise verschiedene Vokabularien verwenden, ist es ferner nötig, die theoretischen Terme von T und T mittels KorrespondenzRegeln oder Brücken-Prinzipien miteinander zu verbinden. Cum grano salis lassen sich Brücken-Prinzipien als empirisch bestimmbare Identitäts-Relationen zwischen höher- und niederstufigen Eigenschaftstypen auffassen; denn Terme oder Begriffe (oder deren logische Kombinationen) dienen im Rahmen einer Theorie dazu, Mengen von Eigenschaften, also Eigenschaftstypen, in der Welt zu repräsentieren. Eine Gleichsetzung von Begriffen verschiedener Theor ien über Brückenprinzipien entspricht also einer Gleichsetzung von Eigenschaftstypen verschiedener Stufe. Die Annahme strenger Typ-Typ-Identitäten führt jedoch zu 324
Philosophie der Neurowissenschaften
den bekannten Schwierigkeiten der Nagel’schen Theor ie; denn im Zuge des wissenschaftlichen Theorienwandels und Fortschritts werden höherstufige Theorien häufig durch feinkörnigere, niederstufige Theor ien ersetzt. Die höherstufigen Theor ien erweisen sich dabei meist als ungenaue und strenggenommen falsche Näherungen, höherstufige Begriffe besitzen keine exakten Entsprechungen in der verbesserten niederstufigen Theor ie, und strenge Typ-Typ-Identitäten sind in aller Regel nicht zu erwarten. Kenneth Schaffner (1967) und Clifford Hooker (1981) haben daher in Modifikation der ursprünglichen Nagelschen Konzeption vorgeschlagen, dass es hinreicht, die höherstufige Theor ie T lediglich durch ein angenähertes, theoretisches Analogon TA zu ersetzen, das im Vokabular der reduzierenden Theorie T formuliert ist. Das Problem der Brücken-Prinzipien entfällt somit. Als neues Problem taucht allerdings die Frage auf, wann und in welcher Weise TA dem ursprünglichen T hinreichend analog ist. Bickle (1998, 2003) verwendet zusätzlich die modelltheoretische, semantische Konzeption von Theo rien im Sinne des strukturalistischen Programms nach Sneed, Suppes und Stegmüller (vgl. Balzer et al. 1987), wonach Theorien nicht, wie in der syntaktischen Konzeption, als Mengen von Sätzen, sondern als Mengen von Modellen aufgefasst werden. Auf der Basis dieses Instrumentariums möchte er zeigen, dass sich beispielsweise die funktionale Charakterisierung von Gedächtnisleistungen mit einer funktionalen Charakterisierung der molekularen Grundlagen und Mechanismen von Gedächtnis gleichsetzen und insofern reduzieren lässt. Nach Bickle kann auf diese Weise eine »schonungslose« (»ruthless«) molekular- und zellbiologische Reduktion mentaler Eigenschaften vorgenommen werden. Die Mehrheit der Autoren aus dem anti-reduktionistischen Lager ist von der Churchland-Bickle-Strategie nicht überzeugt, vor allem mit Hinweis auf das psychophysische MR-Argument. Seit den 2000er Jahren zeigt sich dabei als Trend in der Literatur, MR nicht mehr allgemein und abstrakt, sondern mit konkretem Bezug auf die Neurowissenschaften zu diskutieren. Dennoch bleiben die Lager gespalten: Aizawa/Gillett (2009) verteidigen die massive multiple Realisierbarkeit psychologischer Typen auf allen Komplexitätsstufen der Neurowissenschaften. Zuvor hatten Bechtel/Mundale (1999) argumentiert, dass Neurowissenschaftler oftmals Hirnzustände als typidentisch in verschiedenen neuronalen Organisa tionsformen und Spezies ansehen, dass sie dort funktional gleiche Mechanismen aufweisen und dass das MR-Argument zudem von einer Unausgeglichenheit zwischen grobkörnig individuierten psychologischen Zuständen und feinkörnig individuierten Hirnzuständen unzulässig profitiert. Immer häufiger wird der empirische Charakter der MR-Fragestellung in der Diskussion betont. Während Shapiro (2008) die methodischen Voraussetzungen der empirischen Testbarkeit von MR evaluiert, versucht Figdor (2010) zu zeigen, dass MR als positive These innerhalb der kognitiven Neurowissenschaften selbst eine Rolle spielt. Ein genereller und viel beachteter Einwand gegen das MR-Argument stammt von Lawrence Shapiro (2000): In MR-Szenarios sind typischerweise nicht alle, sondern nur bestimmte Eigenschaften der Realisierer relevant. Hieraus folgt nach 325
III. Die Philosophie der Natur- und Biowissenschaften
Shapiro ein Dilemma: Falls die Realisierer viele relevante Eigenschaften teilen, sind sie nicht typverschieden, falls sie nur wenige Eigenschaften teilen, lassen sie nur wenige und uninteressante höherstufige Generalisierungen zu (vgl. Lyre 2013a).
2.2 Netzwerk-Ontologien Die generellen Fragen einer Ontologie der Neurowissenschaften lauten, welches die grundlegenden Bausteine, Einheiten und Entitäten neuronaler Systeme sind und wie sie sich identifizieren und individuieren lassen. Offenkundig hängen Antworten auf diese Fragen auch von der jeweiligen Ebene neuronaler Komplexität ab. Sie hängen zugleich von den Erklärungszielen und dem epistemisch-methodischen Zugriff auf das neuronale System ab, so dass auch die Diskussion in den Abschnitten 3 und 4 hier relevant ist. Eine notorische Fragestellung ist, inwieweit die Ontologie neuronaler Systeme vornehmlich über die Struktur oder die Funk tion zu bestimmen ist, ob wir also in Dennett’scher Terminologie die Ontologie eher vom physical, design oder intentional stance aus zu entwickeln suchen. Die Nervenzelle stellt nach herrschender Ansicht die kleinste Einheit im Bereich der computationalen und systemischen Neurowissenschaft dar. Mit aufsteigender Komplexität folgen (ohne Anspruch auf Vollständigkeit) neuronale Ensembles, kortikale Säulen, neuronale Karten, großräumige Netzwerk-Komponenten, Module und Hirnareale. Dabei ist fortgesetzt zu bedenken, dass im Übergang von der Ebene des Einzelneurons bis zum menschlichen Gehirn 9 bis 10, bei der Zahl der Synapsen sogar 13 bis 14 Größenordnungen zu überbrücken sind. Eine derart immense Komplexität gestattet prinzipiell eine übergroße Vielzahl an Zwischenstufen mit je eigenen Bausteinen. Die Frage der neuronalen Ontologie ist eng verbunden mit der Debatte um den Lokalismus versus Holismus des Gehirns. Zwar haben Annahmen über Lokalisierung, funktionelle Spezialisierung und Modularisierung im Gehirn seit jeher die Oberhand, eindeutig entschieden ist diese Frage jedoch bei Weitem nicht. Der Lokalismus speist sich zunächst aus anatomischer Evidenz: Neuronale Systeme zeigen anatomisch und physiologisch abgrenzbare Strukturen auf, die es nahelegen, diese Strukturen auch als funktional relevant anzusehen. Die klassischen Studien von Hubel/Wiesel (1962) zur Aufklärung der grundlegenden Mechanismen der visuellen Informationsverarbeitung in der Retina und den primären cortikalen Arealen stützen die Lokalisierungsstrategie auch von Seiten der neurocomputationalen Modellbildung. Auf der Retina finden sich rezeptive Felder, die aufrund ihrer Filtereigenschaften eine subsymbolische Verarbeitung visueller Merkmale (Kanten, Texturen, Farben etc.) im Gesichtsfeld ermöglichen. Diese gefilterten Informationen werden retinotop, also topologieerhaltend, von der Retina (über eine Schaltstation im seitlichen Kniehöcker) in den primären visuellen Cortex abgebildet, wobei den rezeptiven Feldern auf der Retina kortikale Säulen 326
Philosophie der Neurowissenschaften
(genauer: Hyperkolumnen) im Cortex entsprechen; sie können als elementare Verarbeitungsmodule des primären visuellen Cortex angesehen werden. Ein weiteres gewichtiges Argument für die kognitiv-funktionale Spezifizierung des Gehirns entspringt den vielfältigen Erfahrungen mit Läsionen, spezifischen Hirnerkrankungen und neuronalen Detektions- und vor allem Stimulationsexpe rimenten. Wie Hardcastle/Steward (2002) hervorheben, besteht hier jedoch ein erheblicher experimentell-methodischer Bias bezüglich des Lokalismus; die meisten Verfahren setzten die Lokalisierungsthese schon qua Methodik voraus, insofern in gängigen Stimulations- und Bildgebungsverfahren vornehmlich auf eine Unterscheidung mehr oder weniger aktiver Hirnregionen mit definiter Funktion abgezielt wird. Nach Jerry Fodors (1983) einflussreicher Analyse sprechen vor allem allgemein kognitiv-psychologische Gründe für die von ihm prominent vertretene Modularitätsthese: Die Reichhaltigkeit unserer kognitiven Fähigkeiten lässt sich nur unter der Annahme informatorisch und computatorisch voneinander abgrenzbarer, domänenspezifischer kognitiv-psychologischer Systeme und Mechanismen verstehen. Die Definition dessen, was ein Modul ist und welche kognitiven Bereiche modular organisiert sind, ist Gegenstand von Kontroversen. Carruthers (2006) vertritt die These massiver Modularität, dies beinhaltet die Idee, dass jegliche kognitive Funktion modularisiert vorliegt, wobei Fodors strenge Kriterien an Module (z. B. angeboren und klar abgegrenzt zu sein) hin zu rein funktional bestimmten Systemen umgewandelt werden. Ein weiterer Argumentstrang für kognitive Module entspringt der evolutionären Psychologie. Demnach ist die evolutionäre Hervorbringung höherer Kognition nur in Form modularer Adaptationen verstehbar (Tooby/Cosmides 1995). Ein gängiges Argument für diese These ist, dass von Problem zu Problem je unterschiedliches Verhalten zur Erhöhung der Fortpflanzungswahrscheinlichkeit führt und daher kein universeller, non-modularer Mechanismus alle Probleme optimal lösen kann. Ferner würde die Komplexität der Probleme in der realen Welt jedes generalistische, non-modulare System am Problem der kombinatorischen Explosion scheitern lassen. Seit gut zehn Jahren erwächst der theoretischen Neurowissenschaft ein neuer Zugang: die Netzwerk-Theor ie. Sie bedient sich des Datenmaterials der Bildgebung, vornehmlich f MRT und DTI.4 Die mathematische Netzwerktheor ie bietet theoretische Modelle zur Erfassung der großräumigen Verbindungsstrukturen des Gehirns – vornehmlich unter Verwendung des mathematischen Werkzeugs der Graphentheor ie (vgl. Sporns 2011). Großräumige Netzwerke der Hirnorga Zu Fragen der Bildgebung siehe Abschnitt B3. Die Diffusions-Tensor-Bildgebung (DTI – diffusion tensor imaging) ist eine Variante der diffusionsgewichteten MRT, die geeignet ist, die Diffusionsbewegung von Wassermolekülen in Körpergewebe darzustellen. Hierdurch lassen sich die Verläufe größerer Nervenfaserbündel visualisieren (Traktografie, fiber tracking). 4
327
III. Die Philosophie der Natur- und Biowissenschaften
nisation realisieren typischerweise Small-world-Topologien, also Netzwerkarchitekturen, die eine hohe lokale Clusterung bei gleichzeitig kurzer mittlerer Pfadlänge aufweisen. Clusterung und Modularisierung sind somit netzwerktheoretisch darstellbar. Wie Colombo (2013) hervorhebt, lässt sich die Modularitätsdebatte durch das mathematische Instrument der Netzwerktheor ie gegenüber ihrem vormals vagen hypothetischen Charakter präzisieren und damit empirisch zugänglicher machen. Um zu einer kognitiven Ontologie einzelner Hirnregionen als Elementen und Entitäten eines übergeordneten Netzwerks zu gelangen, benötigt man Kriterien, um die Funktionalität einer Region zu spezifizieren. Hirnregionen lassen sich dann als funktional individuierte Entitäten ansehen. Besitzt eine Hirnregion R eine spezifische Funktion F, so ist bei Abruf von F eine Aktivierung AR in R zu erwarten, die bedingte Wahrscheinlichkeit p(AR|F) ist also hoch. In der funktio nalen Bildgebung (siehe Abschnitt 3) schließt man umgekehrt von der Hirnaktivität auf die Funktion. Dies als reverse Inferenz bekannte Verfahren ist mit dem Problem behaftet, dass Hirnregionen in hohem Maße pluripotent, also typischerweise an zahlreichen kognitiven Aufgaben und Funktionen beteiligt sind. Aus der Aktivierung einer bestimmten Region kann man daher nicht unmittelbar darauf schließen, dass R eine definite Funktion erfüllt. Die bedingte Wahrscheinlichkeit p(F|AR) ist niedrig, auch wenn p(AR|F) hoch ist. Reverse Inferenz ist gängige Praxis in der funktionalen Bildgebung. Price/ Friston (2005) schlagen vor, dass man das Problem der reversen Inferenz dadurch lösen kann, dass man den jeweiligen Abstraktions- oder Verallgemeinerungsgrad von F genügend anpasst (und zwar typischerweise erhöht). Das aber hat zur Konsequenz, dass vermehrt allgemeine und somit zunehmend uninteressante funk tionale Attributionen verbleiben. Um bei Vorliegen regionaler Aktivität zu einer Verbesserung der Spezifität von F zu gelangen, sollte daher der Netzwerkkontext von R betrachtet werden. Nach Klein (2012) besteht so die Hoffnung, dass Netzwerkanalysen zukünftig auch einen Gewinn für die Frage kognitiver Ontologien darstellen.
3 Epistemische und explanatorische Fragestellungen 3.1 Mechanistische versus dynamische Erklärungen Das klassische Modell wissenschaftlicher Erklärungen ist das deduktiv-nomologische Modell, auch als DN-Schema oder covering-law-Modell bekannt. Dem DN-Schema zufolge spielen allgemeingültige Gesetze in wissenschaftlichen Erklärungen eine zentrale Rolle, genauer: Eine wissenschaftliche Erklärung ist ein deduktiver Schluss, der mindestens ein Naturgesetz sowie spezielle Antecedensbedingungen (typischerweise Anfangs- und Randbedingungen) als Prämissen enthält. Es wurde ab Mitte des 20. Jahrhunderts vor allem durch die Arbeiten 328
Philosophie der Neurowissenschaften
von Carl Hempel bekannt, die dann einsetzende Diskussion um das DN-Schema förderte aber auch schon bald Defizite zu Tage. So zeigte sich, dass die bloße Subsumption unter Naturgesetze nicht hinreichend ist, um notorische Gegenbeispiele zum DN-Schema auszuräumen. Insbesondere spielt, so scheint es, die Kausalität und der Unterschied von Ursache und Wirkung auch für die Richtung einer Erklärung eine entscheidende Rolle.5 Und schließlich scheint das DN-Schema mit seinem Fokus auf Naturgesetze die vielen Disziplinen nicht zu berücksichtigen, die theor iearm und damit arm an langreichweitigen Gesetzesmäßigkeiten sind. Die Neurow issenschaften und Lebenswissenschaften insgesamt bieten hierfür beredte Beispiele. In der seit den 1990er Jahren in den Fokus der Debatte gerückten mechanistischen Auffassung von Erklärungen wird die im DN-Schema enthaltene Forderung aufgegeben, dass wissenschaftliche Erklärungen unter allgemeine Naturgesetze subsumieren. So ist der Hinweis auf ein gebrochenes Federrad eine anstandslose Erklärung dafür, warum der Uhrenwecker nicht mehr funktioniert. Hierzu bedarf es auf Seiten des Uhrmachers keinerlei gesonderter Kenntnisse der Grundgesetze der Newton’schen Physik, wohl aber des inneren Mechanismus des Weckers. Was ist dabei unter einem Mechanismus zu verstehen? In der Erklärungsdebatte werden mehrheitlich vier Kriterien zur Definition von Mechanismen benannt (vgl. Bechtel/Richardson 2010, Machamer et al. 2000, Craver 2007; Bechtel 2008). Unter einem Mechanismus versteht man . ein mehr oder weniger komplexes System oder eine organisierte Struktur . bestehend aus Teilen, Komponenten oder Entitäten, . deren Operationen oder Aktivitäten . dem zu erklärenden Phänomen oder Systemverhalten zugrundeliegen. Es kann kein Zweifel bestehen, dass sowohl in der alltäglichen Erklärungspraxis als auch in nahezu allen komplexen Wissenschaften und speziell den Neurowis senschaften mechanistische Erklärungen eine dominante Rolle spielen. Die philosophische Debatte macht sich dabei an verschiedenen Punkten fest: Inwieweit grenzen sich mechanistische Erklärungen von rein kausalen oder funktionalen Erklärungen ab? Sind allgemeine Naturgesetze mechanistisch verzichtbar? Sind mechanistische Erklärungen reduktiv oder antireduktiv? Im Zusammenhang mit letzterer Frage haben verschiedene Autoren den Multi-Ebenen-Charakter mechanistischer Erklärungen hervorgehoben; denn typischerweise sind wenigstens Ein klassisches Beispiel zur Erklärungsasymmetrie lautet: Die Länge des Schattens eines Fahnenmastes S lässt sich mittels der Gesetze der Strahlenoptik, dem Stand der Sonne und der Mastlänge M erklären. Im Einklang mit dem DN-Schema lässt sich die Erklärung aber auch umdrehen: M wird durch S erklärt, was offenkundig unsinnig ist. Der Grund hierfür liegt darin, dass S eine Kausalfolge von M und nicht umgekehrt ist. Erst unter Berücksichtigung der kausalen Abfolge tritt die erwünschte Erklärungsasymmetrie zu Tage. Wesley Salmon ist daher dafür eingetreten, wissenschaftliche Erklärungen über das DN-Schema hinaus essentiell als Kausalerklärungen anzusehen (Salmon 1989). 5
329
III. Die Philosophie der Natur- und Biowissenschaften
zwei Ebenen involviert: die höherstufige Ebene des zu erklärenden Phänomens und die niederstufige Ebene der mechanistischen Organisation der Komponenten und ihrer Operationen. Da die Individuation des niederstufigen Mechanismus notwendig über das höherstufige Phänomen erfolgt, beharrt zum Beispiel Craver (2007) darauf, dass es sich um nichtreduktive Erklärungen handelt, während Bechtel (2008) für eine gemäßigt reduktionistische Position steht. Glauer (2012) argumentiert, dass mechanistische Erklärungen als reduktive funktionale Erklärungen im Sinne von Cummins (1983) angesehen werden können. Zahlreiche Beispiele mechanistischer Erklärungen entstammen der molekularen und zellulären Ebene der Biologie einschließlich der Neurobiologie. Auf höheren, systemischen Stufen bedienen sich die Neurowissenschaften aber teilweise auch einer anderen Strategie: der Modellierung und Erklärung neuronaler Systemdynamiken im Rahmen der Theor ie dynamischer Systeme. Unter einem dynamischen System versteht man sehr allgemein das zeitliche Entwicklungsmodell eines physikalischen Systems, das durch eine oder mehrere Zustandsgrößen beschrieben wird. Die Zustandsgrößen spannen einen Zustandsraum auf, die zeitliche Entwicklung des Systems ist als Trajektorie oder Orbit im Zustandsraum darstellbar. Neuronale Netze, speziell rekurrente neuronale Netze, stellen eine interessante Klasse dynamischer Systeme dar. Zwischen Mechanisten und Dynamizisten ist eine mitunter hitzig geführte Debatte um die Frage entbrannt, inwieweit dynamische Erklärungen von mechanistischen Erklärungen zu unterscheiden sind. Dynamizisten wie beispielsweise Stepp, Chemero/Turvey (2011) betrachten dynamische Erklärungen als in sich geschlossen und eigenständig. Dynamische Modelle sind Ihrer Meinung nach genuin explanatorisch. In ihrer Frontstellung gegenüber Mechanismen betonen Chemero/Silberstein (2008), dass dynamische Gesetze höherstufige, makroskopische Eigenschaften der betrachteten Systeme betreffen, was sie als Hinweis auf einen ontologischen Anti-Reduktionismus und explanatorischen Pluralismus werten. Das Lager der Verteidiger mechanistischer Erklärungen spaltet sich demgegenüber in wenigstens zwei Parteien auf: Kaplan/ Craver (2011) sehen dynamische Erklärungen als eine spezielle Variante mechanistischer Erklärungen an (s. a. Zednik 2011), während Bechtel (2012) dynamische und mechanistische Erklärungen als einander ergänzend ansieht. Worin aber liegen die Besonderheiten dynamischer Erklärungen gerade im Zusammenhang mit neuronalen Systemen? Wie schon Bechtel/Richardson (2010) betonen, müssen mechanistische Systeme in lokalisierbare Komponenten dekomponierbar sein. Bereits konnektionistische Systeme erfüllen diese Bedingungen ihrer Meinung nach nicht (s.a. Bechtel/Abrahamsen 2002). Die komplexe und nichtlineare Dynamik von Nervennetzen gestattet keine sequentielle Analyse in Form definiter Netzwerkkomponenten, denn die Komponenten und Operatio nen eines dynamischen Netzwerks fluktuieren zeitlich und werden kontextuell moduliert. An die Stelle definiter Netzwerkkomponenten und deren Operationen treten dynamische Variablen (Bechtel 2012). Silberstein/Chemero (2013) werten dies als Hinweis auf das Versagen der mechanistischen Doktrin. 330
Philosophie der Neurowissenschaften
3.2 Funktionale Erklärungen der Neurocomputation Die prädominante Erklärungsform der computationalen und systemischen Neurowissenschaft ist die funktionale bzw. computationale Erklärung. Ein kognitives System ist computational in dem Sinne, dass es Berechnungen ausführt. Es ist dann zugleich funktional im Sinne des mathematischen Funktionsbegriffs: gegebener Input wird in spezifischen Output überführt. Innerhalb des Systems stellt sich dies so dar, dass bestimmte systemische Zustände in funktionalen bzw. computationalen Relationen zu anderen Zuständen stehen. Cummins (1989) weist darauf hin, dass computationale Relationen über rein kausale Beziehungen hinausgehen: ein computationaler Zustand Z steht mit vielen anderen Zuständen des Systems in kausaler Beziehung, aber nur eine kleine Untermenge dieser Beziehungen erfüllt eine computationale Rolle in dem Sinne, dass Z gemäß einer Funktionsvorschrift in einen neuen Zustand Z' überführt wird. Ziel neurocomputationaler Erklärungen ist es, diejenige kausale Substruktur neuronaler Systeme herauszuheben, die als computationale Struktur aufgefasst werden kann (die also Zustände umfasst mit Relationen, die eine computationale Rolle spielen). In Dennetts Terminologie geht man dabei von der physikalischen zur funk tionalen Einstellung über. David Marr, Pionier im Bereich des maschinellen Sehens (computer vision), hat eine viel beachtete Darstellung der methodischen Vorgehensweise der computationalen Neurowissenschaft angegeben (Marr 1982, S. 25). Demnach muss die Analyse eines Systems, das eine computationale Aufgabe erledigen soll, auf drei Ebenen erfolgen (mit der ersten Ebene als Top-Level): 1. Rechenebene (»computational theory«): Was ist das Ziel der Berechnung? Und was ist die Logik der Strategie ihrer Ausführung? 2. Algorithmische Ebene (»representation and algorithm«): Durch welche algorithmischen Manipulationen und welche Input-/Output-Repräsentationen kann das Rechenziel erreicht werden? 3. Physische Implementierungs-Ebene (»hardware implementation«): Wie wird der Algorithmus physisch realisiert? Die Erklärungsrichtung in Marrs Ansatz ist top-down: Die erste Ebene restringiert die zweite und diese die dritte Ebene. Marrs eigene Analyse der frühen visuellen Verarbeitung in neuronalen Systemen liefert ein Beispiel. Der Einfachheit halber sei hier nur die Fähigkeit der Kantendetektion als eines spezifischen Informationskanals des visuellen Systems betrachtet. Die computationale Theo rie der frühen visuellen Verarbeitung besteht nun darin, diejenige mathematische Funktion zu spezifizieren, die die Kantenextraktion eines Bildes leistet und die damit das erzeugt, was Marr den »raw primal sketch« nennt (mathematisch geschieht dies etwa durch die Nulldurchgänge, »zero crossings«, einer Laplacefilter-Transformation – genau dies legt Marr seinem Modell zugrunde). Auf der algorithmischen Ebene ist der spezifische Algorithmus zu benennen, mit dessen 331
III. Die Philosophie der Natur- und Biowissenschaften
Hilfe das System in der Lage ist, die mathematische Funktion der computatio nalen Ebene auszuführen. Hierzu ist zu beachten, dass im Allgemeinen viele unterschiedliche Algorithmen zur Berechnung einer mathematischen Funktion existieren und dass es in Abhängigkeit vom jeweils gewählten Algorithmus entscheidend auf das Datenformat ankommt, in dem Input und Output (hier: Bild und Kantenbild) vorliegen. Schließlich muss, im biologischen Substrat, die neuronale Realisierung bzw., auf einer gegebenen Computerhardware, die spezifische Implementierung erfasst werden. Mit Blick auf das biologische Substrat konnte Marr auf die bedeutenden Arbeiten von Hubel und Wiesel zurückgreifen, die in ihren wegweisenden Arbeiten die rezeptiven Felder der Retina bei Katzen und Makakken ausgemessen hatten und dabei auf kantenselektive Rezeptorzellen gestoßen waren (s.a. Abschnitt 2). Marrs Unterscheidung vor allem der beiden oberen Ebenen ist nicht immer ganz klar. Im Vergleich zur Denett’schen Analyse wird dies deutlich: Während die Implementierungs-Ebene von der physikalischen Einstellung aus erfasst werden kann, ist nicht ganz klar, ob schon auf der algorithmischen oder erst auf der computationalen Ebene die funktionale oder nicht doch sogar schon die intentio nale Einstellung ins Spiel kommt (vgl. Shagrir 2010). Und während die untere Ebene wohl der Angabe eines Mechanismus entspricht, ist strittig, inwieweit dies auch die beiden höheren Ebenen mit einbezieht. Manche Autoren haben jüngst behauptet, dass computationale Erklärungen generell dem mechanistischen Erklärungstyp entsprechen (Kaplan 2011; Milkowski 2013; Piccinini 2015), andere widersprechen dem (Chirimuuta 2014).
3.3 Neurowissenschaftliche Erklärungen und das Verhältnis von Theorie und Experiment Ein Charakteristikum der Neurowissenschaften ist ihr Mangel an Theoretizität. Sie teilen das Schicksal aller Lebenswissenschaften, weitestgehend theor iearm voranzuschreiten. Anders als etwa in der Physik, in der das Wechselspiel zwischen experimenteller und theoretischer Physik eine lange und eingespielte Tradition besitzt, liegt der Fokus der neurowissenschaftlichen Forschung in großem Maße auf der experimentellen Seite. Dies hat explanatorische und methodologische Konsequenzen, denn während die Physik wenigstens in der Grundlagenforschung dominant hypothesengetrieben voranschreitet, geht es in den Neurowissenschaf ten eher um die Etablierung lokaler Mechanismen und Modelle. Wissenschaftsstrukturell bilden die Neurowissenschaften ein großangelegtes Patchwork lokaler Modelle. Aufgrund der Theor ieferne und der damit verbundenen Abstinenz langreichweitiger Gesetzmäßigkeiten finden sich in den Neurowissenschaften bedeutend weniger deduktive oder nomologische Erklärungs- und Schlussweisen als etwa in der Physik. Auch induktive Erklärungen, insofern sie auf die Bestätigung geset332
Philosophie der Neurowissenschaften
zesartiger Regularitäten abzielen, sind weniger verbreitet. Dies steht im Einklang mit der Beobachtung, dass mechanistische Erklärungen in den Lebenswissenschaften vorherrschend sind. Gleichzeitig spielt das explorative Experimentieren eine zentrale Rolle. Hierunter versteht man Formen experimenteller Aktivität, bei denen die Etablierung neuer Hypothesen und Regularitäten, das tastende experimentelle Voranschreiten in theoretisch noch unverstandenes Neuland und die Entwicklung geeigneter Kategorien und Darstellungsmittel des Experimentierens selber im Vordergrund stehen. Experimente, Experimentierpraktiken und deren Darstellungen besitzen insofern einen autonomen Status innerhalb der wissenschaftlichen Praxis. In der jüngeren Wissenschaftstheor ie sind diese Überlegungen unter dem Schlagwort »Neuer Experimentalismus« bekannt (Hacking 1983; Steinle 1997). Stärker theoretisierte Disziplinen der Neurowissenschaften sind die computationale und systemische Neurowissenschaft. Doch die Theor iebildung muss hier zum Teil auch praktische Hindernisse überwinden. Es gibt keine einheit lichen Standards zur graphischen und notationellen Darstellung neuronaler Netzwerkmodelle unterschiedlicher Komplexität und Bandbreite. Nordlie et al. (2009) schlagen daher eine »good model description practice« zur Darstellung und Simulation neuronaler Netzwerkmodelle vor.
3.4 Big Data, Konnektomik und neurowissenschaftliche Großforschung Vor allem computationale und systemische Neurowissenschaft erleben in jüngster Zeit einen bemerkenswerten Wandel hin zu datenintensiven und datengetriebenen Wissenschaften. Das in diesem Zusammenhang einschlägige Schlagwort lautet »Big data«. Hierunter werden Datenmengen großen Volumens und großer Variabilität verstanden, die sich nur mittels hohem computationalen Rechen- und Speicheraufwand und mittels statistischer Algorithmen erfassen und bearbeiten lassen. Big data hat in Wissenschaftsgebieten wie der Genetik, Klimaforschung oder Hochenergiephysik zu erheblichen Transformationen geführt, die Neurowis senschaften scheinen derzeit vor einem ähnlichen Wandel zu stehen (vgl. Kandel et al. 2013). Gut sichtbar ist dies durch die beiden Mega-Forschungsinitiativen des »Human Brain Project« (HBP) (2013 durch die EU bewilligt mit einer Fördersumme von 1,19 Mrd. EUR) und der »BRAIN Initiative« (2013 durch die US -Regierung initiiert mit anvisierten 300 Mio. Dollar pro Jahr bei einer Laufzeit von 10 Jahren). Hierbei zielt das HBP auf eine großangelegte Simulation, die BRAIN Initiative auf eine detaillierte Kartierung des menschlichen Gehirns. Die Vision einer umfassenden Kartierung der Verbindungsstrukturen des Gehirns hat unter dem Schlagwort Konnektomik (»connectomics«, in Analogie zu Genomik oder Proteomik) zu einem neuen, boomenden Teilgebiet der Neurowissenschaften geführt. Es liegt in der Natur der Sache, dass datenintensive Forschung weniger theo riegeleitet bzw. theor iegestützt und insofern weniger hypothesen- als datenge333
III. Die Philosophie der Natur- und Biowissenschaften
trieben ist. Genauer: Mittels statistischer Analysemethoden und DataminingProzeduren werden aus den Daten Hypothesen über Korrelationen generiert, die dann direkt »getestet« werden. Gegenstand datenintensiver Neurowissenschaft ist nicht mehr das primäre biologische Substrat, sondern sekundäre Daten. Der generelle Vorwurf lautet, dass Kausalzusammenhänge auf diese Weise weniger bis gar nicht in den Blick genommen werden. Pietsch (2015) verteidigt demgegenüber eine spezifische Form der Theor iebeladenheit der in der Datenanalyse eingesetzten algorithmischen Verfahren. Bedeutsam wird sein, wie Neurosystem- und Konnektom-Daten zukünftig gespeichert und zugänglich sind. Werden Kontext, spezielle Umstände der Datennahme sowie die Erfahrung der Experimentatoren mit erfasst? Und welche Spielräume explorativen Experimentierens gestatten die Daten? Insofern schließlich die gesammelten Daten zur Simulation großer Regionen des Gehirns oder des Gehirns als Ganzem genutzt werden sollen, lassen sich die typischen Fragestellungen der Wissenschaftstheor ie der Simulation an die Hirnforschung herantragen: Welchen Erklärungswert haben Simulationen? Handelt es sich um dynamische Modelle, Fiktionen oder Formen des Experiments (vgl. Winsberg 2010)? Keine dieser Fragen wurde in der Wissenschaftsphilosophie der Neurowissenschaften bislang spezieller behandelt.
4 Methodologische Fragestellungen der Neurowissenschaften Die Neurowissenschaften bewegen sich auf unterschiedlichen Ebenen neuronaler Komplexität. Jede Ebene erfordert jeweils angepasste und spezifische Herangehensweisen, was zu einer Vielzahl heterogener Experimentiermethoden führt: anatomische Schneide- und Färbetechniken, elektrophysiologische Einzel- und Multi-Zellableitungen, Mikroskopie, Tiermodelle und Bildgebung, um nur einige wichtige zu nennen.
4.1 Zur Elektrophysiologie der Nervenzelle Im Rahmen der molekularen und der zellulären Neurowissenschaft untersucht man sehr wesentlich Fragen der Signalleitung innerhalb von Nervenzellen (etwa mittels Ionenkanälen, Membran- und Aktionspotenzialen) sowie der sich daran anschließenden Signalübertragung zwischen Nervenzellen – speziell die synaptische Übertragung und Freisetzung von Neurotransmittern betreffend. Die hier auftretenden philosophischen Fragen werden weitgehend durch die Philosophie der Biologie, speziell der Molekular- und Zellbiologie, abgedeckt (↑ Philosophie der Biologie). Hardcastle/Steward (2003) haben methodologische Probleme im Zusammenhang mit Einzelzell-Ableitungen untersucht. Sie beziehen sich dabei auf Bogen/ Woodwards (1988) bekannte Unterscheidung von Phänomenen und Daten. Theo 334
Philosophie der Neurowissenschaften
rien erklären Phänomene, nicht Daten; die Phänomene selbst sind in der Regel unbeobachtbar und aus Daten abgeleitet. Als neurobiologische Phänomene können die Feuerungsrate und Amplitude von Neuronen angesehen werden, die Daten elektrophysiologischer Experimente liegen als Spannungsableitungen vor. Hardcastle und Steward zeigen auf, dass in der Neurophysiologie nahezu keine kodifizierten Standards oder Algorithmen existieren, ab wann ein Spannungssignal als Messdatum angesehen werden soll (man denke an überlagerte, verrauschte oder anderweitig kontaminierte Signale), die Experimentatoren schöpfen stattdessen aus ihrer erlernten Praxis. Zur notorischen Theor iebeladenheit der Beobachtung, einer in der Wissenschaftstheor ie weithin anerkannten These, gesellt sich eine Praxis der Datengenerierung auf der eher vagen und intuitiven Basis geteilter experimenteller Erfahrung in der wissenschaftlichen Community.
4.2 Methodologische Probleme im Zusammenhang mit Neuro-Bildgebung Keine Entwicklung hat die Neurowissenschaften in den letzten 20 Jahren derart vorangetrieben wie die Entwicklung bildgebender, nichtinvasiver Messmethoden der Hirntätigkeit. Hierzu zählen insbesondere die Elektroenzephalografie (EEG), Magnetenzephalografie (MEG), Positronen-Emissions-Tomographie (PET), Einzelphotonen-Emissionscomputertomographie (SPECT), Magnetresonanz- oder Kernspintomographie (MRT), funktionelle MRT (f MRT) und diffusionsgewichtete MRT (speziell DTI, siehe die Fußnote in Abschnitt 2). Bildgebungsverfahren dienen einerseits der strukturellen Untersuchung des Biosubstrats, andererseits aber auch der Aufklärung funktionaler Zusammenhänge. Hierbei ist f MRT das herausragende Verfahren, es gestattet die Darstellung neuronaler Aktivität über die Messung von Durchblutungsänderungen mittels MRT (Details s. u.).6 Bildgebende Verfahren messen neuronale Aktivität immer nur indirekt. Der Evidenzstatus der daraus gewonnenen »Bilder« ist signifikant ein anderer als bei Fotographien. Doch nicht nur Laien, sondern auch Experten lassen sich hiervon täuschen (Roskies 2007), wozu auch eine häufig stark überzogene Datendarstellung beiträgt (durch Färbung und willkürliche Schwellwertlegung). Bei vielen Verfahren ist die »inferentielle Distanz« (Roskies 2010) zwischen demjenigen, was die Bilder tatsächlich zeigen, und demjenigen, was idealerweise abgebildet werden soll, sehr groß, vor allem bei f MRT. Funktionale Bilder sind weder Daten noch Phänomene im Sinne der Unterscheidung von Bogen und Woodward (siehe oben), sondern eine Art graphische Aufarbeitung oder Interpretation der Daten (Bogen 2002). Dabei existieren keinerlei allgemeingültige und verlässliche Maße zur Abschätzung des Abstands zwischen den aufbereiteten Bilderdaten und dem intendierten Phänomen, also kognitiver Aktivität. Ein wichtiger Gesichtspunkt Vgl. Walter (2005) für einen Überblick zur funktionellen Bildgebung und Hanson/ Bunzl (2010) zu den wissenschaftstheoretischen Grundlagen. 6
335
III. Die Philosophie der Natur- und Biowissenschaften
ist, wie Stufflebeam/Bechtel (1997) bezüglich PET ausführen, die Ergebnisse einer speziellen Bildgebung mit anderen Verfahren abzugleichen. Auf den zusätzlich problematischen, von Hardcastle/Steward (2002) diagnostizierten methodischen Bias bezüglich der Lokalisierungsthese der Hirnfunktion wurde schon in Abschnitt 2 hingewiesen. Im Folgenden sei vor allem f MRT betrachtet. Messgröße der f MRT ist das BOLD -Signal, das dem Sauerstoffgehalt im Blut entspricht (die eigentlichen Messdaten sind damit einhergehende Magnetresonanzen von Wasserstoffkernen). Das BOLD -Signal ist also ein indirekter Indikator für neuronale Aktivität, welche wiederum Indikator für kognitive Aktivität ist. Die technischen Limitationen des f MRT-Verfahrens haben Logothetis (2008) und Stelzer et al. (2014) von neurow issenschaftl icher Seite beschrieben. f MRT besitzt eine vergleichsweise gute räumliche, aber schlechte zeitliche Auflösung (im Bereich von Sekunden). Die räumliche Auflösung wird durch die Voxelgröße vorgegeben: ein Scandaten-Volumenelement mit Kantenlänge im Millimeterbereich, das je nach Scanner, Magnetfeldstärke und Gewebe größenordnungsmäßig bis 6 Neuronen enthält. Das f MRI-Signal kann zwischen erregender und hemmender neuronaler Aktivität prinzipiell nicht unterscheiden, ebenso wenig unterscheidet es zwischen den hierarchisch differenten Bottom-up- (also sensorisch aufsteigenden) und Top-down-Prozessen (also rückgekoppelten Signalen aus höheren in niedere Areale). Schließlich wird sehr grob über individuelle anatomische Unterschiede der Probanden durch Abbildung auf ein Standardkoordinatensystem hinweg geglättet (Talairach-Atlas). Von besonderer Bedeutung ist der Umgang mit der Auswertungsstatistik. In ihrer viel beachteten Kritik zum »Non-Independence Error« haben Edward Vul und Nancy Kanwisher nachgewiesen, dass viele Bildgebungsstudien elementare statistische Fehler enthalten; denn häufig werden erst nachträglich diejenigen Regionen selektiert, die als »interessant« gelten und mit weiteren Testvariablen korreliert sein sollen. Ein derartiger Selektionsbias der ROI’s (regions of interest) führt jedoch zu massiv überschätzten Korrelationen (vgl. Vul/Kanwisher 2010). In ähnlicher Weise hat Colin Klein von wissenschaftstheoretischer Seite darauf hingewiesen, dass viele f MRT-Studien unsauber sind, da sie die ihnen zugrundeliegende Hypothese nicht gegenüber der Nullhypothese prüfen, was gegen elementare Bayesianische Einsichten verstößt (Klein 2010; Mole/Klein 2010; siehe aber auch Machery 2014).
4.3 Soziale Neurowissenschaft Die Entwicklung bildgebender Verfahren, vor allem f MRT, hat auch die Entstehung und Entwicklung der sozialen Neurowissenschaft stark vorangetrieben. Hier geht es unter anderem darum, die neuronalen Mechanismen sozialer Kognition zu klären. Das Feld der sozialen Kognition umfasst die gesamte Bandbreite 336
Philosophie der Neurowissenschaften
der Interaktion und des Austauschs von Artgenossen untereinander – speziell beim Menschen. Hierbei spielt die Fähigkeit, mentale Zustände im Gegenüber zu erkennen, eine zentrale Rolle. Diese Fähigkeit firmiert unter den Begriffen Mindreading, Mentalisierung oder Theor ie des Geistes (ToM – Theory of Mind; in Dennetts Terminologie die Fähigkeit, eine intentionale Einstellung einzunehmen). Zahlreiche konkurrierende Ansätze wurden entwickelt, um MindreadingFähigkeiten theoretisch zu erfassen. Hierzu zählen insbesondere die Theor ieTheorie, die Simulationstheorie sowie daraus entwickelte Hybride (vgl. Goldman 2012). Die Theorie-Theorie sieht unsere Alltagspsychologie als theorieartig strukturiert an. Alltagspsychologische Generalisierungen über mentale Zustände und Eigenschaften anderer stehen in Analogie zu den gesetzartigen Aussagen einer naturwissenschaftlichen Theorie, deren theoretische Terme (z. B. Elektron, schwarzes Loch oder Gen) in gleicher Weise über die direkte Beobachtung hinausgehen wie das Fremdpsychische und Fremdkognitive (z. B. Überzeugungen, Absichten oder qualitative Erlebniszustände anderer). Demgegenüber ist die Simulationstheorie ein fähigkeitsbasierter Ansatz, die den Ursprung unserer ToM-Fähigkeiten nicht in speziellen Rationalitätsannahmen sieht, sondern in der Fähigkeit, sich in die Lage des anderen zu versetzen, ihn insofern »offline« zu simulieren. Simulationstheoretiker wie Gallese/Goldman (1998) haben die These vorgetragen, dass die in den 1990er Jahren entdeckten Spiegelneuronen die neuronale Basis der Mindreading-Fähigkeiten bilden. Jacob (2008) diskutiert einige konzeptionelle Probleme dieser These, insbesondere die Unterbestimmtheit der eigentlichen Handlungsabsicht (prior intention) durch Körpermotorik, sodass die Spiegelthese allenfalls auf die unmittelbare Motorintention einzuschränken wäre, was nicht hinreichend für Mindreading ist.
4.4 Experimente in der Tierkognition Zahlreiche Experimente der sozialen Neurowissenschaft zielen darauf ab, die Ursprünge unserer ToM-Fähigkeiten zu ergründen. Sie bewegen sich daher in einem nicht unerheblichen Maße in den Bereichen der Entwicklungspsychologie und der kognitiven Ethologie, speziell der Primatenkognition. Dort wird unter anderem die Frage behandelt, ob und in welchem Maße Menschenaffen über eine ToM verfügen. Das experimentelle Paradigma hierzu sind »false belief tasks«, bei denen es darum geht, zu erkennen, dass andere Überzeugungen haben können, von denen man selber weiß, dass sie falsch sind (Call/Tomasello 2008). Bei Experimenten im Bereich der Tierkognition ergeben sich höchst interessante wissenschaftstheoretische Fragestellungen (Hurley/Nudds 2006; Lurz 2009). Experimente zur Primatenkognition sind, wie Povinelli/Vonk (2004) argumentieren, von einem »logischen Problem« gekennzeichnet, das man als eine Instanz des Problems der Theor ienunterbestimmtheit ansehen kann. Derzeitige 337
III. Die Philosophie der Natur- und Biowissenschaften
experimentelle Resultate sind sowohl im Einklang mit einer theoretischen Interpretation, die Menschenaffen Mindreading-Fähigkeiten unterstellt, als auch einer kognitiv weitaus weniger anspruchsvollen Variante, bei der sich evolutionär erfolg- und trickreiche »Behavior-Reading«-Fähigkeiten ausgebildet haben. Lurz (2011) legt ein experimentelles Design vor, anhand dessen sich die Frage, ob Primaten Behavior-Reader oder genuine Mindreader sind, entscheiden lassen soll. Die Idee ist, in geeigneter Weise auf die Unterscheidung von Erscheinung und Realität zurückzugreifen: Ein Tier kann gegebenenfalls lernen, dass ein Unterschied darin besteht, wie ein Stimulus ihm erscheint und wie er real vorliegt, aber nur ein Mindreader kann diese Unterscheidungsfähigkeit auch einem Artgenossen attribuieren.
4.5 (Neue) Interventionsmethoden Als letztes wichtiges Instrumentarium der Neurow issenschaften sei auf Interventionsmethoden verwiesen. Während Ableitung und Bildgebung lediglich detektieren, sind Interventionsmethoden geeignet, intendiert in neuronale Funktionskreise und Mechanismen einzugreifen und diese zu manipulieren. Erst auf diese Weise lassen sich Kausalzusammenhänge im Einklang mit der Interventionstheorie der Kausalität in zuverlässiger Weise aufdecken und bestimmen. Der Interventionstheor ie zufolge ist U eine Ursache der Wirkung W, falls durch eine Manipulation von U nicht nur U, sondern auch W verändert wird (vgl. Woodward 2008 für eine Darstellung des kausalen Interventionismus mit Blick auf neuronale Systeme). Zu den wichtigen neurowissenschaftlichen Interventions methoden zählen seit jeher Läsionsstudien und Elektrostimulation, aber auch pharmakologische Interventionen. In neuerer Zeit kommen vor allem transkranielle Magnetstimulation (TMS), transkranielle Gleichstrom- (tDCS) und Wechselstromstimulation (tACS), tiefe Hirnstimulation (DBS) und Optogenetik hinzu (bei Letzterer handelt es sich um eine noch relativ junge Methode zur Kontrolle und Manipulation genetisch modifizierter Zellen, also auch Nervenzellen, mittels Licht). TMS erlaubt die kurzfristige Stimulation oder Hemmung kortikaler Regionen auf nichtinvasivem Wege durch äußere Magnetfelder. Aufgrund der beschränkten Eindringtiefe können jedoch nur nahe des Schädels gelegene Hirnpartien direkt beeinflusst werden, ein weiteres Problem ist die diffuse räumliche Auflösung (wenige Quadratzentimeter Schädelfläche abhängig von der Magnetfeldstärke und dem Spulendesign bei guter zeitlicher Auflösung). Dennoch ist TMS ein wichtiger methodischer Schritt in Richtung auf funktionale und kognitive Ontologien. Dies ist von wissenschaftstheoretischer und philosophischer Seite bislang nur unzureichend wahrgenommen worden. Als eine der wenigen diesbezüglichen Arbeiten weisen Schutter et al. (2004) im Zusammenhang mit TMS auf die neuen Möglichkeiten zur Lokalisierbarkeit »psycho-neuraler Entitäten« hin. 338
Philosophie der Neurowissenschaften
Im Sinne des Entitätenrealismus von Ian Hacking (1983) lässt sich folgende Überlegung anstellen: Eine Hirnregion besitzt eine kognitive Funktion, falls es gelingt, die Wirkungen dieser Funktion intendiert zu manipulieren und dann entsprechend zu detektieren (etwa mithilfe von Bildgebung). Auf diese Weise lässt sich der Kreis aus Detektion und Intervention schließen. Für Hacking ist dies hinreichend für eine realistische Interpretation einer ansonsten nicht direkt beobachtbaren Entität, wie sein bekanntes Diktum über den Realstatus von Elektronen illustriert: »If you can spray them, they are real«. Diese Überlegung ließe sich gleichermaßen auf eine qua Interventionsmethoden begründete Onto logie funktional oder kognitiv individuierter Hirnregionen übertragen. Dies gilt für TMS ebenso für die Möglichkeiten von DBS und Optogenetik. Während DBS vornehmlich in der Klinik Anwendung findet, hat gerade die Optogenetik ein hohes forschungsrelevantes Potential. Für die Wissenschaftstheor ie stellt die Analyse neurowissenschaftlicher Interventionsmethoden ein Forschungsdesiderat dar (siehe jedoch Craver, im Druck).
5 Schluss 5.1 Weitere Probleme und Fragestellungen der Philosophie der Neurowissenschaften Viele Probleme und Zukunftsfragen der Philosophie der Neurowissenschaften sind eng verbunden mit offenen Fragen der Neurowissenschaften selbst. Letztere betreffen nach Bekunden von Neurowissenschaftlern nahezu alle großen Themen (vgl. Hemmen/Sejnowski 2006): Wie funktionieren (multimodale) Wahrnehmung, Bewegungssteuerung, Lernen und Gedächtnis? Wie entwickelt sich das Gehirn – sowohl evolutionär als auch ontogenetisch? Welche Beiträge leisten Genetik und Umgebung? Wie funktionieren Sprache, Entscheidungsfindung und Handlungskontrolle? Was sind Schlaf, freier Wille und Bewusstsein? Wie hängen Gehirn- und psychische Störungen zusammen? Es folgt eine vermischte Auswahl bislang noch unbehandelter Themen, die einerseits mit offenen Fragestellungen der Neurowissenschaften zusammenhängen, andererseits aber auch in philosophischen Debatten Aufmerksamkeit gefunden haben.
Die Willensfreiheitsdebatte Die Frage nach der Willensfreiheit hat im deutschsprachigen Raum in den 2000er Jahren bemerkenswert hohe Wellen geschlagen – bis hinein in die Medien. Wesentlicher Auslöser waren freiheitsskeptische und neurodeterministische Aussagen prominenter Neurowissenschaftler (vgl. Prinz, Singer und Roth in: Geyer 2004). Im Hintergrund steht ein von Benjamin Libet bereits Ende der 1970er Jahre durchgeführtes Experiment, bei dem er zeigen konnte, dass eine zeitliche 339
III. Die Philosophie der Natur- und Biowissenschaften
Verzögerung von mehreren hundert Millisekunden zwischen dem einer Handlung vorausgehenden neuronalen Bereitschaftspotential und dem Bewusstwerden der Handlungsentscheidung auftritt (Libet 1985). Unter Philosophen bestehen zum Teil große Meinungsverschiedenheiten zur Frage der Willensfreiheit. Die beiden dominanten Positionen, der Kompatibilismus und der Libertarianismus, gehen von sehr verschiedenen Grundannahmen aus. Kompatibilisten sind der Ansicht, dass Freiheit und Determinismus grundsätzlich vereinbar sind. Libertarianer sind nicht nur Inkompatibilisten, sondern nehmen an, dass der Determinismus falsch sein muss, da Willensfreiheit besteht. Der Freiheitsbegriff des Libertariers lässt sich durch die Annahme charakterisieren, dass man anders hätte handeln können – auch unter ansonsten völlig unveränderten physikalischen Umständen. Dies impliziert Indeterminismus. Die Willensfreiheitsfrage hat aber nicht nur mit kontroversen Auffassungen zum Determinismus zu tun, sondern ist zudem mit zahlreichen weiteren philosophischen Problematiken verwoben wie mentaler Verursachung, Kausalität, dem Handlungsbegriff sowie der Unterscheidung von Ursachen und Gründen. Beim Problem der Willensfreiheit handelt es sich also in gewisser Weise um eine ganze Klasse von Problemen, was nicht nur die Diskussion zwischen Neurowissenschaftlern und Philosophen, sondern auch von Philosophen untereinander erschwert. Dennoch lässt sich feststellen, dass der Kompatibilismus heute die Mehrheitsposition unter Philosophen darstellt. Dies hängt auch an einer scheinbar unvermeidlichen Konsequenz des Libertarianismus, dass nämlich Willensfreiheit auf die Zufälligkeit und damit Beliebigkeit des Handlungsverlaufs führt. Nach Mehrheitsauffassung ist freies Entscheiden und Handeln aber ein Entscheiden und Handeln nach Gründen (ohne äußere Zwänge). Um hiervon ausgehend eine naturalistische Theorie der Willensfreiheit zu entwickeln, muss man den Graben zwischen Ursachen und Gründen überwinden. Aber auch hier setzt sich die Überzeugung durch, dass dies prinzipiell möglich ist, indem die handlungsrelevante Wirksamkeit von Gründen mit neuronalen Realisierungen geeignet verknüpft wird (vgl. Beckermann 2008, Pauen/Roth 2008). Unter der Maßgabe unseres weiterhin unvollständigen neurow issenschaft lichen Wissens der Hirnfunktion erscheint ein strenger Neurodeterminismus eher als Chimäre (und viele Kompatibilisten sind ohnehin der Auffassung, dass die Frage, ob die Welt deterministisch oder indeterministisch ist, für die Frage der Willensfreiheit irrelevant ist). Interessanter ist die generelle Frage, inwiefern empirische Befunde einen Beitrag für eine kompatibilistisch verstandene Willensfreiheit leisten. Wie beispielsweise Sven Walter (2016) ausführt, zeigen sozialpsychologische Studien, dass ein nicht unerheblicher Teil unserer Handlungssteuerung unbewusst abläuft. Dies unterminiert unsere rationale Kontrollfähigkeit, wir sind in bestimmten Grenzen manipulierbar. Freiheit besteht demnach nicht uneingeschränkt, sondern nur graduell. Eine freiheitsskeptische Konsequenz ganz anderer Art zieht Carruthers (2007). Sie steht im Kontext seiner Auffassung, dass Metakognition das Resultat auf uns 340
Philosophie der Neurowissenschaften
selbst gerichteter Mindreading-Fähigkeiten ist (wodurch Fälle von Konfabulationen erklärbar werden). Das Selbst ist eine beständige Form nachträglicher Selbstzuschreibung und Selbstnarration. Nach Carruthers neigen wir fälschlich dazu, unsere inneren Verbalisierungen (etwa der Form »Ich werde jetzt dies tun«) als transparent anzusehen und nicht als reine Selbstinterpretation. Der freie Wille ist demnach eine Illusion.
Das Bindungsproblem Die subsymbolische Verarbeitungsstrategie des Konnektionismus bringt, bei allen Vorteilen, auch Probleme mit sich. Unsere Sinnesorgane zeigen spezifische Rezeptivität für ausgewählte Merkmale des sensorischen Inputs. Eine gegebene Szene, etwa das Gesichtsfeld im Falle der visuellen Wahrnehmung, wird in eine Vielzahl von einzelnen Merkmalen (»features«) zerlegt (wie Kantenorientierung, -stärke, Texturen, Farben etc.). Auf den frühen neuronalen Verarbeitungsstufen entsteht so das Problem, zusammengehörige Merkmale geeignet zu verbinden und zu einem einheitlichen Wahrnehmungserlebnis zu integrieren, wobei zusätzliche Mehrdeutigkeiten im Merkmalsraum zu überwinden sind. Liegt etwa ein grünes Dreieck und ein rotes Quadrat im Gesichtsfeld vor, so sind diejenigen Neuronen aktiv, die für die Merkmale rot, grün, dreieckig und quadratisch codieren.7 Allerdings rufen ein rotes Dreieck und ein grünes Quadrat dieselbe Aktivierung hervor, es kommt zur »Superpositions-Katastrophe« (Malsburg 1999). Um ihr zu entgehen, benötigt man einen geeigneten, neuronal plausiblen Bindungsmechanismus. Bereits Anfang der 1980er Jahre hat Christoph von der Malsburg vorgeschlagen, Neurone auf der Basis der Korrelationen ihrer zeitlichen Aktivitäten zu großen Ensembles zu verbinden (im Effekt handelt es sich um eine Hebb’sche Bindungsregel auf einer schnellen, dynamischen Zeitskala). Diese Lösung des Bindungsproblems durch neuronale Synchronizität hat aufgrund der experimentellen Funde vor allem durch Singer und seine Mitarbeiter in den 1990er Jahren große Beachtung gefunden (vgl. Malsburg et al. 2010; für eine kritische Diskussion der experimentellen Evidenz neocortikaler Rhythmen siehe den dortigen Text von Singer). Bennett/Hacker (2003, Kap. 4.2.3) halten ein derartiges Verständnis des Bindungsproblems für konfus. Das Problem entspringt ihrer Meinung nach der falschen Vorstellung und Redeweise, dass das Gehirn aus verschiedenen Merkmalen der Sinneswahrnehmung ein kohärentes Bild konstruiert. Aber die Fähigkeit eines Wesens zu sehen hieße nicht, interne Bilder zu konstruieren. Konziser ist die Kritik von Hardcastle (1994) und Garson (2001), die die Annahme vertreten, dass zwischen wenigstens zwei Varianten von Bindung zu unterscheiden ist, die Es ist für die Didaktik des Beispiels unerheblich, ob derartige Merkmale tatsächlich neuronal codiert sind, was vermutlich nicht der Fall ist. 7
341
III. Die Philosophie der Natur- und Biowissenschaften
man als funktionale und phänomenale Bindung bezeichnen kann. Funktionale bzw. perzeptionelle Bindung findet relativ unkontrovers im Bereich der Wahrnehmung und entsprechend auf den frühen Verarbeitungsstufen merkmalscodierender neuronaler Aktivitäten statt. Die funktionale Bindung von Stimulimerkmalen folgt dabei über weite Strecken den Gesetzen der klassischen Gestaltpsychologie, wie in Wahrnehmungsexperimenten demonstrierbar ist (Treisman/Gelade 1980). Kontrovers bleibt die Frage, ob es im Sinne phänomenaler Bindung darüber hinaus nötig und begrifflich sinnvoll ist, das subjektive Erleben der Einheit der Wahrnehmung und des Bewusstseins durch spezifische neuronale Mechanismen der Synchronisation zu erklären.
Bewusstseinsforschung Erst ab den 1980er Jahren setzt allmählich eine nennenswerte neurowissenschaft liche Bewusstseinsforschung ein. Francis Crick und Christof Koch (1990) postulieren das Phänomen synchroner 40 Hz-Oszillationen als neuronales Korrelat von Bewusstsein. Die Kritik an phänomenaler Bindung des vorangehenden Abschnitts bezieht sich hierauf, steht aber auch im Zusammenhang mit dem notorischen Qualia-Problem. Mittlerweile sind eine ganze Reihe theoretischer Ansätze zu den neuronalen Grundlagen von Bewusstsein vorgelegt worden, aber keiner dieser Ansätze kann den spezifisch qualitativen Charakter phänomenalen Bewusstseins zufriedenstellend erfassen. Ein früher Ansatz ist die Theorie des »global workspace« von Baars (1988), eines global verfügbaren Arbeitsspeichers für kurzlebige, wechselnde Repäsentationen. Tononi (2004) hält einen hohen Grad an Informations-Integration für entscheidend. Thomas Metzinger (2003) vertritt eine Selbstmodell-Theor ie, der zufolge repräsentationale Modelle der Außenwelt in ein Selbstmodell eingebettet werden, und zwar so, dass Weltmodell und Selbstmodell im selben neuronalen Format vorliegen und das Selbstmodell aufgrund seiner semantischen Transparenz vom System nicht mehr als Modell erkannt wird. Einen Ansatz besonderer Art stellt die Neurophänomenologie dar. Drei Stränge sollen nach Ansicht von Shaun Gallagher und Dan Zahavi (2008) in diesem Gebiet zusammenlaufen: neurowissenschaftliche Bewusstseinsforschung, verkörperlichte Kognition (»embodiment«; vgl. Varela/Thompson/Rosch 1991; Lyre 2013b) und die phänomenologische Tradition. Vor allem in Hinblick auf letzteren Punkt betonen die Vertreter der Neurophänomenologie die Akzeptanz und Bedeutung von Erster- (und neuerdings auch Zweiter-)Person-Perspektive zur wissenschaftlichen Untersuchung von Bewusstsein, ganz im Gegensatz etwa zu Dennett (1991), der mit seiner »Heterophänomenologie« eine strenge DrittePerson-Methodologie vertritt.
342
Philosophie der Neurowissenschaften
Menschenbild und kritische Neurowissenschaft Neurowissenschaften und Hirnforschung erleben seit einem guten Vierteljahrhundert einen ungebrochenen Boom. Dabei geht es auch, dem Selbstverständnis und den Erklärungsansprüchen vieler Neurowissenschaftler nach, um die Etablierung eines wissenschaftlich fundierten, neuen Bildes vom Menschen. Nicht selten werden diese Ansprüche in den Medien von großen Ankündigungen und Versprechungen begleitet (vgl. Elger et al. 2004). Die Fachphilosophie ist dem zum Teil entgegengetreten. Unter Rückgriff auf wittgensteinianische Überlegungen zeigen Bennett und Hacker sowohl systematisch (Bennett/Hacker 2003) als auch historisch (Bennett/Hacker 2008) einen weitverbreiteten »mereologischen Fehlschluss« auf, der in der gängigen neurow issenschaftlichen Praxis besteht, mentale und psychologische Prädikate nicht Personen als Ganzen, sondern dem Gehirn oder auch Teilen des Gehirns zuzuschreiben. Die zum Teil polemischen Ausführungen der beiden Autoren sind aber auch unter Philosophen nicht unumstritten. Wie beispielsweise Dennett (in Bennett et al. 2007, 85 ff.) anmerkt, muss die Frage, welche Sprachgebrauchsregeln etabliert sind, empirisch entschieden werden (und nicht durch Sprachverbote). Neurowissenschaftliche Deutungsansprüche markieren aber nicht nur das wissenschaftliche Selbstverständnis, sondern auch Hoheitsansprüche gegenüber benachbarten Disziplinen, und zielen zum Teil bewusst auf Öffentlichkeit und Politik. Projekte wie die »Kritische Neurowissenschaft« treten mit dem Versuch an, die Neurow issenschaften vor überzogenen, voreiligen Schlüssen und Interpretationen zu bewahren (Choudhury/Slaby 2011). Im Fokus stehen Konzepte wie Freiheit, Selbst, Subjektivität oder der psychische Krankheitsbegriff. Dennoch ist eine kritische Reflektion der Neurowissenschaften nicht automatisch gleichbedeutend mit einer Verabschiedung des naturalistischen Menschenbildes (vgl. Beckermann 2008). Mit Blick auf gesellschaftliche Konsequenzen der zunehmenden Entschlüsselung der Neurobiologie des Bewusstseins zielt Metzinger (2009) auf eine neue Bewusstseinsethik.
5.2 Zukünftige Entwicklungen und Herausforderungen der Philosophie der Neurowissenschaften Es ist nicht leicht, die zukünftigen Entwicklungen eines Gebiets auszumachen, das einen so raschen Wandel erfahren hat und auch absehbar erfahren wird wie die Neurowissenschaften (vgl. Marcus/Freeman 2014 für einen Blick auf die neuro wissenschaftliche Zukunft). Entsprechend sind auch die Herausforderungen für die begleitende Wissenschaftsphilosophie schwer abzuschätzen. Ein allgemeiner Punkt sei noch einmal wiederholt: Die Neurowissenschaften sind vergleichsweise theoriearm und experimentorientiert. Eine umfassende, vereinheitlichte Theorie des Gehirns ist nicht in Sicht. Eine visionäre Hoffnung wäre es, wenigstens einige 343
III. Die Philosophie der Natur- und Biowissenschaften
grundsätzliche Organisations- und Stilprinzipien des Gehirns benennen zu können. Umrisse und Ansätze hierzu sind immerhin vorhanden. Ein wichtiges Prinzip ist zweifellos Hebb’sche Plastizität, auch dynamische Selbstorganisation ist in der ein oder anderen Weise relevant. Beides zusammengenommen führt in den Ideenkreis von Synchronisation und dynamischer Koordination (siehe Abschnitt 5.1). Auf vielen Skalen und in vielen Bereichen findet sich das Grundmotiv lokaler Aktivierung bei lateraler Inhibition. Friston (2010) postuliert ein »free energy principle«, wonach kognitive biologische Systeme grundsätzlich danach streben, die freie Energie ihrer sensorischen Zustände (interpretiert als statistisches, informationstheoretisches Maß für deren Überraschungsgrad) zu minimieren. Ein verwandter Ansatz ist die generelle Idee des »predictive coding«, wonach das Gehirn keine rein passive Repräsentationsmaschinerie darstellt, sondern aktiv und beständig neue Vorhersagen oder Weltmodelle auf der Basis bekannter Zustände generiert, um sensorischen Input vorherzusagen bzw. mit der Vorhersage in Abgleich zu bringen (vgl. Clark 2013; Hohwy 2013). Beide Konzepte, free energy principle und predictive coding, sind über die wachsende Bedeutung bayesianischer Ansätze in den Neurowissenschaften verbunden (Schlagwort »Bayesian brain«, vgl. Knill/Pouget 2004). Wie Colombo/Seriès (2012) argumentieren, handelt es sich bei diesen Ansätzen nicht um mechanistische Erklärungsformen, man sollte daher Instrumentalist bezüglich der Frage sein, ob das Gehirn eine Bayesianische Maschinerie darstellt. Ein offensichtliches Hindernis auf dem Weg zu einem umfassenden Verständnis ist die schiere Komplexität des Gehirns. Man könnte dies das »Skalenproblem der kognitiven Neurowissenschaften« nennen: Angenommen, die Mechanismen und Dynamiken auf der Einzelzellebene und für überschaubare Netzwerke von bis zu 100 oder 1000 Neuronen seien halbwegs verstanden und modellierbar, wie ließen sich dann diese Mechanismen, Dynamiken und Modelle übertragen bzw. hochskalieren auf die Größenordnung der 1010 Neuronen des gesamten Gehirns? Immerhin müssen sieben bis acht Größenordnungen überbrückt werden, was zahlreiche praktische, technische und methodologische Fragen aufwirft, die Neuro wissenschaften aber auch vor das epistemische Problem stellt, welche Art Zugriff der menschliche Forscherverstand auf diese Komplexitätsebenen haben kann.
Der Code des Gehirns Zentrale Grundannahme der kognitiven Neurowissenschaften ist, dass das Gehirn informationsverarbeitend und repräsentational ist. In Strenge sind dies zwei miteinander verbundene Annahmen: Um informationsverarbeitend zu sein, muss das Gehirn erstens Information in bestimmten Datenformaten kodieren und zweitens nach gewissen syntaktischen Regeln verarbeiten.8 Es tritt dann die An8
Zum Begriff der Information siehe Lyre (2002).
344
Philosophie der Neurowissenschaften
nahme hinzu, dass die Syntax auf biologischen Vehikeln operiert, die semantisch bewertbar oder repräsentational sind. Man kann also eine syntaktische von einer semantischen Annahme unterscheiden. Während die Philosophie des Geistes traditionell auf Fragen der Semantik und der mentalen Repräsentation abzielt, wird häufig übersehen, dass bereits das syntaktische Problem neuronaler Codierung mit eminenten wissenschaftstheoretischen Fragen verknüpft ist. Es ist eine offene Frage, welche biologischen Elemente und Strukturen im Gehirn überhaupt als informationsverarbeitend und codierend anzusehen sind (Vreeswijk 2006; Stanley 2013). Vermutlich sind mehr als nur die Eigenschaften von Nervenzellen relevant. In jüngerer Zeit rücken beispielsweise Gliazellen ins Interesse, deren häufigste Form, die Astrozyten, an der neuronalen Signalübertragung und Reizleitung in unterschiedlicher Form beteiligt sind (vgl. Fields 2010). Dabei hängt nicht nur die Grundlagenforschung, sondern beispielsweise auch die neurotechnologische Entwicklung an einer Aufklärung dieser Fragen, denn der Einsatz von neuronalen Prothesen, Implantaten oder Gehirn-Computer-Schnittstellen setzt ein Verständnis des cerebralen Codes zur Informationsübertragung voraus. Doch auch mit dem Fokus auf rein neuronale Codes treten zahlreiche Fragen auf. Es ist davon auszugehen, dass neuronale Systeme keinen universellen Code verwenden, sondern in höchstem Maße kontextabhängig operieren. Differenzen hinsichtlich der neuronalen Codierung sind zwischen verschiedenen Spezies, Individuen, Hirnregionen und Typen neuronalen Gewebes zu erwarten. Sehr wahrscheinlich nutzt auch jede Modalität ein eigenes Datenformat (z. B. D auditorische Daten gegenüber D visuellen Daten). Neuronale Aktivität besitzt zwei augenfällige Charakteristika, die prinzipiell zur Codierung von Information dienen können: die (Feuerungs-) Rate der Aktivität eines Neurons pro Zeiteinheit (rate code, spike trains) und die zeitliche Struktur neuronaler Antworten sowie deren Bezogenheit aufeinander (temporal code). Doch wie schon Hebb betont, codieren nicht nur einzelne Zellen, sondern auch ganze Populationen (population coding). Die Betonung der zeitlichen Aspekte neuronaler Aktivität hat in der computationalen Neurowissenschaft zur bedeutsamen Kategorie der gepulsten Netzewerke (spiking networks) geführt.9 Man kann auch umgekehrt fragen: Ist jede neuronale Aktivität codierend? Wie ist es mit neuronaler Aktivität im Schlaf oder im sogenannten Hirnruhezustand (resting state, default mode network; vgl. Raichle/Snyder 2007)? Wissenschaftstheoretisch bemerkenswert ist das Problem neuronaler Codierung als exklusiv empirisches Problem. Was kann und will man herausfinden, wenn man rein em Nach Maas (1997) lassen sich Spiking Networks als dritte Generation neuronaler Netze verstehen. Zu den Netzen erster Generation zählen Netze mit digitalisierten Outputs wie etwa McCulloch-Pitts-Netzwerke. Netze zweiter Generation gestatten kontinuierliche neuronale Antwortfunktionen, Netze dritter Generation deren gepulsten, zeitlichen Charakter. Spiking Networks besitzen gegenüber klassischen neuronalen Netzen höhere biologische Plausibilität (Maass/Bishop 1999; Gerstner et al. 2014). 9
345
III. Die Philosophie der Natur- und Biowissenschaften
pirisch untersucht, wie das Gehirn Information verarbeitet und codiert? Und was kann als überzeugender empirischer Nachweis eines neuronalen Codes angesehen werden? Die übliche Vorgehensweise besteht darin, Korrelationen zwischen äußeren Stimuli und neuronalen Antworten aufzuzeigen. Auf diese Weise finden sich merkmalscodierende Neurone auf den frühen sensorischen Verarbeitungsstufen, Orts- und Gitterzellen im Hippocampus (Moser/Moser 2014, s.a. Bechtel 2014), Spiegelneurone und neuerdings auch »Jennifer-Aniston-Zellen« bzw. Konzeptzellen (eine abgemilderte Variante von Großmutterzellen, vgl. Quiroga et al. 2005, Quiroga 2012), um nur einige bekannte Beispiele zu nennen. Dennoch dürften Korrelationen zur Bestätigung codierender Elemente letztlich nicht ausreichend sein. Die Parallele zum genetischen Code der Molekularbiologie drängt sich auf, greift aber zu kurz. Denn der genetische Code lässt sich anhand der durch ihn codierten und hervorgebrachten Endprodukte individuieren, nämlich Proteine in der Zelle. Analog bringt der neuronale Code bedeutungshafte mentale Repräsentationen hervor. Diese sind aber nicht in gleicher Weise empirisch fassbar und nachweisbar wie Proteine. Kann man sagen, wie das Gehirn Information verarbeitet und codiert, ohne dass man weiß, wie das Gehirn bedeutungshaft operiert und repräsentiert? Falls nein, kann das Problem nicht (jedenfalls nicht ausschließlich) bottom-up angegangen werden. Da die Frage nach dem Wesen mentaler Repräsentation seit jeher im Zentrum der Philosophie des Geistes steht, findet die Wissenschaftstheor ie der Neurowis senschaften hier ihren natürlichen Übergang zur Philosophie des Geistes. Eine top-down geleitete Erforschung des neuronalen Codes durch die Neurowissen schaften könnte in diesem Sinne durch Arbeiten im Bereich der Philosophie assistiert und gestützt werden. Dabei könnte es sich als wesentlich erweisen, dass in weiten Teilen der Philosophie des Geistes und der Sprachphilosophie Fragen nach Bedeutung mit der These des semantischen Externalismus verknüpft sind. Nach dieser These supervenieren Bedeutungen nicht über neuronalen Zuständen allein, sondern hängen auch von Faktoren der physischen und sozialen Umgebung ab. Es ist eine bis heute offene Frage, ob und wie dies mit Fragen der neuronalen Codierung zusammenhängt.
Die Neurowissenschaften und die Ebene des Behavioralen, Psychischen und Sozialen Die wohl wichtigste Zukunftsaufgabe der Neurowissenschaften ist, den Anschluss zu den höherstufigen Wissenschaften wie der kognitiv und verhaltensorientierten Psychologie, der Psychiatrie und den Kognitionswissenschaften insgesamt herzustellen. In diesen Disziplinen nimmt man typischerweise Dennetts intentionale Einstellung ein. Eine Verbindung neurow issenschaftlicher Kategorien mit psychischen, kognitiven, behavioralen und sozialen Kategorien geht insofern mit einer Klärung der Fragen der Semantik und damit der Rückbindung an den 346
Philosophie der Neurowissenschaften
vorigen Abschnitt einher. Um etwa zu entscheiden, wie neuronale und zerebrale Zustände und Aktivitäten mit psychischen Zuständen und Aktivitäten, auch mit psychischen Störungen, zusammenhängen, ist es gleichermaßen entscheidend, den Code des Gehirns zu verstehen wie auch die psycho-neuronale Supervenienz zu überdenken. Die Berücksichtigung einer breiten transkraniellen Supervenienzbasis könnte, durchaus im Einklang mit einem geläuterten Naturalismus und Reduktionismus, eventuell dazu beitragen, die Zukunftsaufgaben der Neurowis senschaften und ihrer Philosophie anzugehen.
Literatur Empfehlungen:
Bechtel, William, Peter Mandik, Jennifer Mundale und Robert S. Stufflebeam (Hg.) (2001). Philosophy and the Neurosciences: A Reader. Oxford: Blackwell. Bickle, John (Hg.) (2009). Oxford Handbook of Philosophy and Neuroscience. New York: Oxford University Press. Bickle, John, Peter Mandik und Anthony Landreth (2012). »The Philosophy of Neuroscience«. In:Edward N. Zalta (Hg.): The Stanford Encyclopedia of Philosophy. URL = ‹http://plato.stanford.edu/archives/sum2012/entries/neuroscience/›. Bickle, John (Hg.) (2004, 2005, 2006); Kenneth Aizawa und John Bickle (Hg.) (2009); Gualtiero Piccinini (Hg.) (2011, 2012, 2014). Special Issue: Neuroscience and its Philosophy. Synthese. Brook, Andrew und Kathleen Akins (Hg.) (2005). Cognition and the Brain: The Philosophy and Neuroscience Movement. Cambridge: Cambridge University Press. Machamer, Peter, Rick Grush und Peter McLaughlin (Hg.) (2001). Theory and Method in Neuroscience. Pittsburgh: University of Pitt Press. Pauen, Michael und Gerhard Roth (Hg.) (2001). Neurowissenschaften und Philosophie: Eine Einführung. München: Fink (UTB 2208). Walter, Henrik (2013). Neurophilosophie und Philosophie der Neurow issenschaften. In:A. Stephan und S. Walter (Hg.): Handbuch Kognitionswissenschaft. Stuttgart: Metzler. * * * Aizawa, Kenneth und Carl Gillett (2009). Levels, individual variation, and massive multiple realization in neurobiology. In: Bickle (2009), 529–581. Baars, Bernard (1988). A Cognitive Theory of Consciousness. New York: Cambridge University Press. Balzer, Wolfgang, C. Ulises Moulines und Joseph D. Sneed (1987). An Architectonic for Science: The Structuralist Approach. Dordrecht: Reidel. Bechtel, William (2008). Mental Mechanisms: Philosophical Perspectives on Cognitive Neuroscience. New York: Routledge. – (2012). Understanding endogenously active mechanisms: A scientific and philosophical challenge. European Journal for the Philosophy of Science 2, 233 – 248 347
III. Die Philosophie der Natur- und Biowissenschaften
– (2014). Investigating neural representations: the tale of place cells. Synthese, online, DOI 10.1007/s11229 – 014 – 0480 – 8. – und Robert C. Richardson (1993, 22010). Discovering Complexity: Decomposition and Localization as Strategies in Scientific Research. Cambridge, MA: MIT Press. – und Adele Abrahamsen (1991, 22002). Connectionism and the Mind: Parallel Processing, Dynamics, and Evolution in Networks. Oxford: Blackwell. – und Jennifer Mundale (1999). Multiple realizability revisited: linking cognitive and neural states. Philosophy of Science 66, 175–207. Beckermann, Ansgar (2008). Gehirn, Ich, Freiheit. Neurowissenschaften und Menschenbild. Paderborn: Mentis. Bennett, Max, Daniel Dennett, Peter M. S. Hacker und John Searle (2007). Neuroscience and Philosophy. Brain, Mind and Language. New York: Columbia University Press. Bennett, Max und Peter M. S. Hacker (2003). Philosophical Foundations of Neuroscience. Oxford: Blackwell. – (2008). History of Cognitive Neuroscience. Oxford: Blackwell. Bickle, John (1998). Psychoneural Reduction: The New Wave. Cambridge, MA: MIT Press. – (2003). Philosophy and Neuroscience: A Ruthlessly Reductive Account. Dordrecht: Kluwer. Bogen, James und James Woodward (1988). Saving the phenomena. Philosophical Review 97, 303 – 352. Bogen, James (2002). Epistemological custard pies from functional brain imaging. Philosophy of Science 69 (3): 59–71. Call, Josep und Michael Tomasello (2008). Does the chimpanzee have a theory of mind? 30 years later. Trends in Cognitive Science 12, 187 – 192. Carruthers, Peter (2006). The Architecture of the Mind. Oxford: Oxford University Press. – (2007). The illusion of conscious will. Synthese 96(2), 197 – 213. Chemero, Anthony und Michael Silberstein (2008). After the philosophy of mind: replacing scholasticism with science. Philosophy of Science 75, 1 – 27. Chirimuuta, Mazviita (2014). Minimal models and canonical neural computations: The distinctness of computational explanation in neuroscience. Synthese 191, 127 – 153. Choudhury, Suparna und Jan Slaby (Hg.) (2011). Critical Neuroscience A Handbook of the Social and Cultural Contexts of Neuroscience. Chichester: Wiley-Blackwell. Churchland, Patricia S. (1986). Neurophilosophy: Toward a Unified Science of the Mind-Brain. Cambridge, MA: MIT Press. – und Terrence J. Sejnowski (1992). The Computational Brain. Cambridge, MA: MIT Press. Churchland, Paul M. (1989). A Neurocomputational Perspective. Cambridge, MA: MIT Press. 348
Philosophie der Neurowissenschaften
Clark, Andy (2013). Whatever next? Predictive brains, situated agents, and the future of cognitive science. Behavioral & Brain Sciences 36(3), 181–204. Colombo, Matteo (2013). Moving forward and beyond the modularity debate: a network perspective. Philosophy of Science 80(2), 356–377. – und Peggy Seriès (2012). Bayes in the brain – on Bayesian modelling in neuroscience. The British Journal for the Philosophy of Science 63(3), 697–723. Craver, Carl (2007). Explaining the Brain: Mechanisms and the Mosaic Unity of Neuroscience. Oxford: Oxford University Press. Craver, Carl (im Druck): Thinking about interventions: optogenetics and makers’ knowledge of the brain. In:K. Waters et. Al (Hg.): Causation in Biology and Philosophy. Minnesota Studies in Philosophy of Science. Minneapolis, MN, University of Minnesota Press. Crick, Francis und Christof Koch (1990). Towards a neurobiological theory of consciousness. Seminars in Neuroscience 2, 263 – 275. Cummins, Robert C. (1983). The Nature of Psychological Explanation. Cambridge, MA: MIT Press. – (1989). Meaning and Mental Representation. Cambridge, MA: MIT Press. Dayan, Peter und L. F. Abbott (2001). Theoretical Neuroscience. Cambridge, MA: MIT Press. Dennett, Daniel C. (1987). The Intentional Stance. Cambridge, MA: MIT Press. – (1991). Consciousness Explained. Boston, MA: Little, Brown and Co. Elger, Christian E., Angela D. Friederici, Christof Koch, Heiko Luhmann, Christoph von der Malsburg, Randolf Menzel, Hannah Monyer, Frank Rösler, Gerhard Roth, Henning Scheich und Wolf Singer (2004). Das Manifest. Elf führende Neurowissenschaftler über Gegenwart und Zukunft der Hirnforschung. Gehirn und Geist 6, 30 – 36. Eliasmith, Chris und Charles H. Anderson (2003). Neural Engineering. Cambridge, MA: MIT Press. Fields, R. Douglas (2010). The Other Brain. New York: Simon & Schuster. Figdor, Carrie (2010). Neuroscience and the multiple realization of cognitive functions. Philosophy of Science 77 (3), 419 – 456. Fodor, Jerry (1983): The Modularity of Mind: An Essay on Faculty Psychology. Cambridge, MA: MIT Press. Friston, Karl (2010). The free-energy principle: a unified brain theory? Nature Reviews Neuroscience 11(2), 127 – 38. Gallagher, Shaun und Dan Zahavi (2008). The Phenomenological Mind. An Introduction to Philosophy of Mind and Cognitive Science. London: Routledge. Gallese, Vittorio und Alvin I. Goldman (1998). Mirror neurons and the simulation theory of mind-reading. Trends in Cognitive Sciences 12, 493 – 501. Garson, James W. (2001). (Dis)solving the binding problem. Philosophical Psychology 14(4), 381 – 392. Gazzaniga, Michael S., Richard B. Ivry und George R. Mangun (2014, 4th edition). Cognitive Neuroscience: The Biology of the Mind. New York: W. W. Norton. 349
III. Die Philosophie der Natur- und Biowissenschaften
Gerstner, Wulfram, Werner M. Kistler, Richard Naud und Liam Paninski (2014). Neuronal Dynamics. From Single Neurons to Networks and Models of Cognition. Cambridge: Cambridge University Press. Geyer, Christian (2004). Hirnforschung und Willensfreiheit. Frankfurt a. M.: Suhrkamp. Glauer, Ramiro (2012). Emergent mechanisms. Münster: mentis. Goldman, Alvin I. (2012). Theory of mind. In: E. Margolis, R. Samuels und S. P. Stich (Hg.). Oxford Handbook of Philosophy of Cognitive Science. Oxford: Oxford University Press. Hacking, Ian (1983). Representing and Intervening: Introductory Topics in the Philosophy of Natural Science. Cambridge: Cambridge University Press. Hanson, Stephen José und Martin Bunzl (Hg.) (2010): Foundational Issues in Human Brain Mapping. Cambridge, MA: MIT Press. Hardcastle, Valerie G. (1994). The binding problem and possible solutions. Journal of Consciousness Studies 1, 66–90. Hardcastle, Valerie G. und C. Matthew Steward (2002). What do brain data really show? Philosophy of Science 69(3): 72–82. – (2003). Neuroscience and the art of single cell recordings. Biology and Philosophy 18(1), 195 – 2 08. Hebb, Donald (1949): The Organization of Behaviour. New York: Wiley. Hemmen, J. Leo van und Terrence J. Sejnowski (2006). 23 Problems in Systems Neuro science. Oxford: Oxford University Press. Hohwy, Jakob (2013). The Predictive Mind. Oxford: Oxford University Press. Hooker, Clifford A. (1981). Towards a general theory of reduction. Dialogue 20, 38 – 59, 201 – 236, 496 – 529. Hubel, David H. und Torsten N. Wiesel (1962). Receptive fields, binocular interaction and functional architecture in the cats visual cortex. Journal of Physiology 160, 106 – 154. Hurley, Susan und Matthew Nudds (Hg.) (2006). Rational Animals? Oxford: Oxford University Press. Jacob, Pierre (2008). What do mirror neurons contribute to human social cognition? Mind and Language 23(2), 190 – 223. Kandel, Eric R., Henry Markram, Paul M. Matthews, Rafael Yuste und Christof Koch (2013). Neuroscience Thinks Big (and Collaboratively). Nature Reviews Neuroscience 14(9), 659 – 6 64. –, James H. Schwartz und Thomas M. Jessel (1995). Neurowissenschaften. Eine Einführung. Heidelberg: Spektrum. Kaplan, David M. (2011). Explanation and description in computational neuroscience. Synthese 183, 339–373. – und Carl F. Craver (2011). The explanatory force of dynamical and mathematical models in neuroscience: a mechanistic perspective. Philosophy of Science 78, 601 – 627. 350
Philosophie der Neurowissenschaften
Karnath, Hans-Otto und Peter Thier (Hg.) (2003, 32012). Kognitive Neurowissenschaf ten. Berlin: Springer. Klein, Colin (2010). Images are not the evidence in neuroimaging. British Journal for the Philosophy of Science 61(2), 265 – 278. – (2012). Cognitive ontology and region- versus network-oriented analyses. Philosophy of Science 79, 952 – 9 60. Knill, D. C. und Pouget, A. (2004). The Bayesian brain: the role of uncertainty in neural coding and computation. Trends in Neurosciences 27(12), 712–719. Libet, Benjamin (1985). Unconscious cerebral initiative and the role of conscious will in voluntary action. The Behavioral and Brain Sciences 8, 529 – 539. Logothetis, Nikos K. (2008). What we can do and what we cannot do with f MRI. Nature 453, 869–78. Lurz, Robert W. (2009): The Philosophy of Animal Minds. Cambridge: Cambridge University Press. – (2011). Mindreading Animals. Cambridge, MA: MIT Press. Lyre, Holger (2002). Informationstheorie: Eine philosophisch-naturwissenschaftliche Einführung. München: UTB/Fink. – (2013a). Reduktionismus, Multirealisierbarkeit und höherstufige Näherungen. In: J. Michel und G. Münster (Hg.): Die Suche nach dem Geist. Mentis, Münster, 55 – 8 0. – (2013b). Verkörperlichung und situative Einbettung. In: A. Stephan und S. Walter (Hg.): Handbuch Kognitionswissenschaft. Stuttgart: Metzler, 186 – 192. Maass, Wolfgang (1996). Networks of Spiking Neurons: The Third Generation of Neural Network Models. Neural Networks 10(9) 1659 – 1671. Maass, Wolfgang und Christopher M. Bishop (1999). Pulsed Neural Networks. Cambridge, MA: MIT Press. Machery, Eduard (2014). Significance testing in neuroimagery. In: M. Sprevak und J. Kallestrup (Hg.): New Waves in the Philosophy of Mind. London: Palgrave Macmillan, S. 262 – 277. Machamer, Peter, Lindley Darden und Carl F. Craver (2000). Thinking about mechanisms. Philosophy of Science 67(1), 1 – 25. Malsburg, Christoph von der (1999). The what and why of binding: the modeler’s perspective. Neuron 24, 95–104. –, William A. Phillips und Wolf Singer (2010). Dynamic Coordination and the Brain: From Neurons to Mind. Cambridge, MA: MIT Press. Marcus, Gary und Jeremy Freeman (Hg.) (2014). The Future of the Brain: Essays by the World’s Leading Neuroscientists. Princeton: Princeton University Press. Marr, David (1982). Vision: A Computational Investigation into the Human Representation and Processing of Visual Information. New York: Freeman. Metzinger, Thomas (2003). Being No One. The Self-Model Theory of Subjectivity. Cambridge, MA: MIT Press. – (2009). Der Ego-Tunnel. Eine neue Philosophie des Selbst: Von der Hirnforschung zur Bewusstseinsethik. Berlin: Berlin Verlag. 351
III. Die Philosophie der Natur- und Biowissenschaften
Milkowski, Marcin (2013). Explaining the Computational Mind. Cambridge, MA: MIT Press. Mole, Christopher und Colin Klein (2010). Confirmation, refutation, and the evidence of f MRI. In: Hanson und Bunzl (2010), 99 – 111. Moser, May-Britt und Edvard I. Moser (2014). Understanding the cortex through grid cells. In: Marcus und Freeman (2014), S. 67 – 77. Nagel, Ernest (1961). The Structure of Science, New York: Harcourt, Brace, and World. Nordlie, Eilen, Marc-Oliver Gewaltig und Hans Ekkehard (2009). Towards reproducible descriptions of neuronal network models. PLoS Computational Biology 5(8): e1000456. Pauen, Michael und Gerhard Roth (2008). Freiheit, Schuld und Verantwortung. Grundzüge einer naturalistischen Theorie der Willensfreiheit. Frankfurt a. M.: Suhrkamp. Piccinini, Gualtiero (2015). Physical Computation: A Mechanistic Account. Oxford: Oxford University Press. Pietsch, Wolfgang (2015). Aspects of theory-ladenness in data-intensive science. Philosophy of Science 82, 905–916. Povinelli, Daniel J. und Jennifer Vonk (2004). We don't need a microscope to explore the chimpanzee's nind. Mind and Language 19(1), 1 – 28. (In: Hurley und Nudds 2006, 1 – 28). Price, Cathy und Karl Friston (2005). Functional ontologies for cognition: the systematic definition of structure and function. Cognitive Neuropsychology 22(3), 262–275. Quiroga, Rodrigo (2012). Concept Cells: The Building Blocks of Declarative Memory Functions. Nature Reviews Neuroscience 13, 587 – 597. –, Leila Reddy, Gabriel Kreiman, Christof Koch und Itzhak Fried (2005). Invariant visual representation by single neurons in the human brain. Nature 435, 1102 – 1107. Raichle, Marcus E. und Abraham Z. Snyder (2007). A default mode of brain function: a brief history of an evolving idea. Neuroimage 37(4), 1083 – 1090. Roskies, Adina L. (2010). Neuroimaging and Inferential Distance: The Perils of Pictures. In: Hanson und Bunzl 2010, Chap. 16. – (2007). Are neuroimages like photographs of the brain? Philosophy of Science 74, 860–72. Salmon, Wesley (1989). Four Decades of Scientific Explanation, Minneapolis: University of Minnesota Press. Schaffner, Kenneth F. (1967). Approaches to reduction. Philosophy of Science 34(2), 137 – 147. Schutter, Dennis J. L. G., Jack Van Honk und Jaak Panksepp (2004). Introducing transcranial magnetic stimulation (TMS) and its property of causal inference in investigating brain-function relationships. Synthese 141 (2), 155 – 173. Shagrir, Oron (2010). Marr on computational-level theor ies. Philosophy of Science 77(4), 477 – 500. Shapiro, Lawrence A. (2000). Multiple realizations. Journal of Philosophy 97(12), 635–654. 352
Philosophie der Neurowissenschaften
– (2008). How to test for multiple realization. Philosophy of Science, 75, 514–525. Silberstein, Michael und Anthony Chemero (2013). Constraints on localization and decomposition as explanatory strategies in the biological sciences. Philosophy of Science 80, 958–970. Sporns, Olaf (2011). Networks of the Brain. Cambridge, MA: MIT Press. Stanley, Garrett B. (2013). Reading and writing the neural code. Nature Neuroscience 16, 259 – 263. Steinle, Friedrich (1997). Entering new fields: exploratory uses of experimentation. Philosophy of Science 64: 65–74. Stelzer, Johannes, Gabriele Lohmann, Karsten Mueller, Tilo Buschmann und Robert Turner (2014): Deficient approaches to human neuroimaging. Frontiers in Human Neuroscience 8, 462. Stepp, Nigel, Anthony Chemero und Michael T. Turvey (2011). Philosophy for the rest of cognitive science. Topics in Cognitive Science 3, 425 – 437. Stufflebeam, Robert S. und William P. Bechtel (1997). PET: Exploring the myth and the method. Philosophy of Science 64(4), 95 – 106. Tononi, Giulio 2004: An information integration theory of consciousness. BMC Neuroscience 5, 42. Trappenberg, Thomas P. (2002, 22010). Fundamentals of Computational Neuroscience. Oxford: Oxford University Press. Treisman, Anne und Garry Gelade (1980). A feature-integration theory of attention. Cognitive Psychology 12, 97 – 136. Tooby, John und Leda Cosmides (1995). Mapping the evolved functional organization of mind and brain. In: M. Gazzaniga (Hg.): The cognitive neurosciences. Cambridge, MA: MIT Press. Vreeswijk, Carl van (2006). What is the neural code? In: Hemmen und Sejnowski (2006), 143 – 159. Varela, Francisco J., Evan Thompson und Eleanor Rosch (1991). The Embodied Mind: Cognitive Science and Human Experience. Cambridge, MA: MIT Press. Vul, Edward und Nancy Kanwisher (2010). Begging the question: The non-independence error in f MRI data analysis. In: Hanson und Bunzl (2010), 71 – 91. Walter, Henrik (Hg.) (2005). Funktionelle Bildgebung in Psychiatrie und Psychotherapie: Methodische Grundlagen und klinische Anwendungen. Stuttgart: Schattauer. Walter, Sven (2016). Illusion freier Wille? Grenzen einer empirischen Annäherung an ein philosophisches Problem. Stuttgart: Metzler. Winsberg, Eric (2010). Science in the Age of Computer Simulation. Chicago: University of Chicago Press. Woodward, James (2008). Mental causation and neural mechanisms. In: J. Hohwy und J. Kallestrup (Hg.): Being Reduced: New Essays on Reduction, Explanation, and Causation. Oxford: Oxford University Press. Zednik, Carlos (2011). The nature of dynamical explanation. Philosophy of Science 78, 238 – 263.
353
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
1. Philosophie der Ingenieurwissenschaften Sven Ove Hansson
1 Einführung Der Begriff »Ingenieurwissenschaften« unterscheidet sich von den meisten anderen Benennungen von Einzelwissenschaften darin, dass das Erstglied des zusammengesetzten Worts einen Beruf benennt, nicht ein Erkenntnisgebiet. So bezeichnen wir die Physik nicht als Physikerwissenschaft, die Literaturwissenschaft als Verfasserwissenschaft oder die Medizin als Arztwissenschaft.1 Vielleicht kann man diese sprachliche Eigenheit so deuten, dass die Ingenieurwissenschaften diejenigen Wissenschaften sind, die in der Ingenieursarbeit gebraucht werden. Die deutsche Akademie für dieses Wissenschaftsgebiet nennt sich die »Deutsche Akademie der Technikwissenschaften«, und auf Englisch ist »technological sciences« ein oft benutztes Synonym. Der Begriff einer Wissenschaft der Technik oder der Ingenieursarbeit entstand im neunzehnten Jahrhundert. Der Begriff Technologie und der Ingenieursberuf sind nicht viel älter. In Abschnitt 2 werden wir den geschichtlichen Hintergrund dieser Vorstellungen in älteren Erörterungen untersuchen. In Abschnitt 3 betrachten wir die Verwissenschaftlichung der Technik in der späteren Hälfte des neunzehnten Jahrhunderts und werden zwei konkurrierende Auffassungen über die wissenschaftliche Begründung der Ingenieursarbeit finden. In Abschnitt 4 suchen wir die Kennzeichen der Ingenieurwissenschaften und die Unterschiede zwischen Natur- und Ingenieurwissenschaften. In den folgenden zwei Abschnitten werden einige Beispiele von zentralen Fragen in der Philosophie der Ingenieurwissenschaften erörtert, aufgeteilt auf Ontologie (Abschnitt 5) und Erkenntnistheorie (Abschnitt 6). Im siebten, abschließenden Abschnitt werden einige Reflexionen über die Bedeutung und die künftigen Aufgaben der Philosophie der Ingenieurwissenschaften vermittelt. Zwei einleitende Leseanweisungen können vielleicht behilflich sein. Erstens bezeichnet das Wort »Ingenieurwissenschaft« keine Einzelwissenschaft. Es gibt eine breite Palette an spezialisierten Ingenieurwissenschaften, wie z. B. Metallurgie, Materialwissenschaft, Elektrotechnik, Biotechnologie und Informatik. Bis jetzt sind aber die philosophischen Aspekte der einzelnen Ingenieurwissenschaf-
Das letzere Wort gibt es aber auf Schwedisch (»läkarvetenskap«), Dänisch (»læge videnskab«) und Norwegisch (»legevitenskap«). 1
357
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
ten mit wenigen Ausnahmen fast völlig unerforscht (Hansson 2009). Deshalb ist die folgende Darstellung auf die gemeinsamen Charakteristika fokussiert. Zweitens ist es oft schwierig, zwischen der Philosophie der Ingenieurwissenschaften (oder Technikwissenschaften) und der Philosophie der Technik (oder Technologie) zu unterscheiden. Oft werden diese zwei Themen überhaupt nicht als verschiedene Bereiche aufgefasst. Der Mangel an einem von der allgemeinen Technikphilosophie abgegrenzten Diskurs über die Philosophie der Ingenieurwissenschaften hat natürlich auch dieses Kapitel beeinflusst.
2 Die Grundbegriffe 2.1 Die praktischen oder produktiven Künste Weder im klassischen Altertum noch im Mittelalter gab es einen Begriff der Technologie. Es gab aber eine klare Vorstellung von den Fähigkeiten, die gebraucht werden, um praktische Probleme zu lösen. Aristoteles nannte diese Fähigkeiten produktive Künste und bestimmte sie wie folgt: Da aber zum Beispiel das Vermögen zu bauen eine Kunst und ein mit Vernunft verbundener Habitus des Hervorbringens ist, und da ferner keine Kunst zu finden ist, die kein mit Vernunft verbundener Habitus des Hervorbringens wäre, und umgekehrt auch kein solcher Habitus, der nicht Kunst wäre, so wird Kunst und mit wahrer Vernunft verbundener Habitus des Hervorbringens ein und dasselbe sein. Vorwurf jeder Kunst ist das Entstehen, das regelrechte Herstellen und die Überlegung, wie etwas, was sowohl sein als nicht sein kann und dessen Prinzip im Hervorbringenden, nicht im Hervorgebrachten liegt, zustande kommen mag. Auf das, was aus Notwendigkeit ist oder wird, geht die Kunst so wenig, wie auf das, was von Natur da ist oder entsteht, da derartiges das bewegende Prinzip in sich selber hat. (Aristoteles, Nikomachische Ethik VI, 4.)
Die produktiven Künste wurden als niedere Tätigkeiten betrachtet und hauptsächlich von Sklaven und anderen abgewerteten Menschen ausgeführt. Sie wurden im Gegensatz zu den liberalen Künsten gestellt, d. h. zu den mit Lesen, Schreiben und Rechnen verbundenen Fähigkeiten, die zur Bildung des freien Bürgers gehörten. Auch unter den Römern wurden die produktiven Künste verachtet und mit geringschätzigen Ausdrücken bezeichnet (zum Beispiel artes illiberales, artes vulgares, artes sordidae und artes banausicae) (Van Den Hoven 1996, 90 f.; Ovitt 1983; Tatarkiewicz 1963; Whitney 1990). Im Mittelalter wurden die produktiven Künste meistens mechanische Künste (artes mechanicae) genannt. Dieser Ausdruck wird heute oft als Zeichen eines Diskurses über Technologie aufgefasst, aber die Bedeutung des Wortes »mechanisch« war im Mittelalter »mit manueller Arbeit zusammenhängend, aus Handwerk, Handwerkskunst oder Facharbeit bestehend oder damit verbunden« 358
Philosophie der Ingenieurwissenschaften
(»concerned with manual work; of the nature of or relating to handicraft, craftsmanship, or artisanship«; Oxford English Dictionary). Nicht alle mechanische Künste decken sich mit dem, was wir heute Technologie nennen. Auch im Mittelalter war die vorherrschende Haltung zu den produktiven Künsten negativ, aber es gab einige Ansätze für eine Gleichstellung der mechanischen mit den liberalen Künsten. Um 1130 schrieb der Theologe Hugo von Sankt Viktor, dass die Ausführung der mechanischen Künste, genau wie die der liberalen Künste, zur Weisheit und Seligkeit des Menschen beitragen könne. Außerdem klassifizierte er die mechanischen Künste in sieben Hauptformen oder Gruppen, wahrscheinlich um die Parallelität mit der herkömmlichen Liste der sieben liberalen Künste zu unterstreichen (Weisheipl 1965, 65). 1. lanificium: Webekunst, Schneiderhandwerk 2. armatura: Maurerhandwerk, Baukunst, Kriegskunst 3. navigatio: Handel zu Wasser und zu Land 4. agricultura: Landwirtschaft, Gärtnerei, Kochen 5. venatio: Jagd, Herstellung von Lebensmitteln 6. medicina: Heilkunst und Pharmazie 7. theatrica: Turnierkunst, Schauspielkunst (Hoppe 2011, 40 f.). Eine gesellschaftlich wesentliche Aufwertung der praktischen Künste erfolgte aber erst mit der Aufklärung. Ihr opus magnum, die große französische Enzyklopädie (Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers), integrierte wie nie zuvor die praktischen Künste und das Wissen der Handwerker in dem gelehrten Gedankengut. Im seinem Vorwort hebt Jean Le Rond d’Alembert (1717 – 1783) hervor, dass die mechanischen Künste nicht weniger wert seien als die liberalen.
2.2 Technologie Das Wort »Technologie« ist griechischen Ursprungs. »Techne« bedeutet Kunst oder Fähigkeit und »-logie« bezeichnet Erkenntnis.2 Obwohl es einmal von Cicero benutzt wird (Steele 1900, p. 389. Cicero, Epistulae ad Atticum 4, 16.), gehörte das Wort »Technologie« nicht zum allgemeinen Sprachgebrauch, bevor es Peter Ramus (1515 – 1572) als Bezeichnung für Kenntnisse über die Beziehungen zwischen den verschiedenen Künsten neu einführt. Die heutige Bedeutung des Wortes ist das Ergebnis von zwei Bedeutungswandlungen. Der erste Bedeutungswandel bestand zunächst darin, das Wort »Technologie« auf die handwerklichen Künste und die mit Maschinen arbeitenden Künste zu beschränken (Sebestik 1983). In Webster's Second New International Dictionary (1909) wird Technologie definiert Das griechische Wort »techne« (τέχνη) wurde von den Römern als Synonym des lateinischen »ars« betrachtet. 2
359
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
als »die Wissenschaft oder systematische Kenntnis der industriellen Künste, besonders derjenigen, die zu den wichtigeren Manufakturen wie Spinnen, Weben und Metallurgie gehören« (»the science or systematic knowledge of industrial arts, especially of the more important manufactures, as spinning, weaving, metallurgy, etc«; Tulley 2008). Diese erste Wandlung des Begriffes scheint parallel in den größeren europäischen Sprachen stattgefunden zu haben. Der zweite Bedeutungswandel ereignete sich primär in der englischen Sprache in der ersten Hälfte des zwanzigsten Jahrhunderts, verbreitete sich anschließend aber auch in anderen Sprachen. Statt als Kenntnis von Werkzeugen und Maschinen wurde Technologie als Bezeichnung für Werkzeuge und Maschinen selbst benutzt. Der erste Beleg dieser Verwendung des Wortes in der Oxford English Dictionary ist ein Text von 1898 über die Schieferölindustrie, in dem von neuen Patente zur »Verbesserungen dieser Technologie« (»improvements in this technology«) berichtet wird (Peckham 1898, 119). Heute ist dies die Hauptbedeutung des Wortes auf Englisch, und nur selten bezieht es sich auf Wissenschaft oder systematische Kenntnis (Mertens 2002). In anderen Sprachen, wie z. B. im Deutschen, Französischen, Holländischen und Schwedischen, behielt das Wort hingegen beide Bedeutungen bei und bezeichnet also sowohl (1) Werkzeuge und Maschinen als auch (2) die Kenntnis von Werkzeugen und Maschinen. Im späteren Teil des zwanzigsten Jahrhunderts wurden diese beiden Technologiebegriffe erweitert und umfassten infolgedessen auch Softwaretechnik und Biotechnologie.
2.3 Entstehung des Ingenieurberufes Das lateinische Wort »ingenium« konnte in der klassischen Zeit das Talent oder die Erfindungskraft einer Person bezeichnen, aber es konnte auch ein technisch ausgefeiltes Gerät benennen. Im Mittelalter wurde »ingenium« als allgemeine Bezeichnung für Rammböcke, Katapulte und andere technische Hilfsmittel für Belagerungskriege benutzt. In einigen Perioden meinte man mit »ingenium« eine bestimmte Art von Katapulten (Bachrach 2006). Ein Konstrukteur oder Baumeister, der mit Katapulten oder anderen technischen Hilfsmitteln der Kriegsführung arbeitete, wurde »ingeniarius« oder »ingeniator« genannt. Sowohl die englischen Wörter »ingenuity« und »engine« als auch das deutsche Wort »Ingenieur« haben darin ihren gemeinsamen Ursprung, der zudem eine etymologische Verbindung zu »Genie« herstellt. Noch im 18. Jahrhundert war »Ingenieur« eine militärische Kategorie. Die Ingenieuroffiziere arbeiteten aber nicht nur mit Kriegsmaschinen, sondern beschäftigten sich auch mit Kartographie und mit dem Bauen von Festungen, Wegen und Brücken. In mehreren europäischen Ländern gab es auch Schulen für Ingenieuroffiziere, in denen Mathematik, Baukunst und Maschinenbau gelehrt wurde (Langins 2004). 360
Philosophie der Ingenieurwissenschaften
In der zivilen Gesellschaft wurden aber die qualifizierten technischen Aufgaben von Handwerkmeistern ohne theoretische Ausbildung ausgeführt. Erst im Jahr 1794 wurde in Paris die École polytechnique, die erste zivile Schule für das Ingenieurstudium, eröffnet (Grattan-Guinness 2005). 1799 eröffnete die Berliner Bauakademie, eine Hochschule für Baumeister. Im 19. Jahrhundert wurden Ingenieurschulen in mehreren anderen europäischen Ländern gegründet, z. B. das Technologische Institut in Stockholm im Jahr 1827 (man beachte bitte das Wort »technologisch« in seinem Namen), heute die Königliche Technische Hochschule. In diesen Schulen wurden junge Männer für einen neuen Beruf, den Beruf des zivilen Ingenieurs, ausgebildet. Die Etablierung des Ingenieursberufs war ein Teil der Intensivierung der Arbeitsteilung zwischen geistiger und körperlicher Arbeit.
3 Zwei Auffassungen über die Ingenieurwissenschaften Die höheren Ingenieurschulen im 19. Jahrhundert wollten nicht als Handwerkschulen betrachtet werden, sondern stritten für einen höheren, akademischen Status. Dieser Streit war zuletzt erfolgreich; in der ersten Hälfte des 20. Jahrhunderts erhielten die deutschen technischen Hochschulen das Promotionsrecht und wurden anschließend in (Technische) Universitäten umbenannt. Zwei verschiedene Strategien wurden von den technischen Hochschulen benutzt, um eine Anerkennung der Wissenschaftlichkeit ihrer Studiengänge zu erreichen. Die eine Strategie war die Umsetzung der Naturwissenschaften in der Technik. Formeln der Physik konnten für die Charakterisierung der Bewegungen von Maschinenteilen benutzt werden, und mit Hilfe der Elektrodynamik konnten elektrische Maschinen und Apparate konstruiert werden. Mit der Entwicklung der Physik und Chemie wurden immer mehr hochentwickelte theor iebasierte technische Konstruktionen möglich. Mit dieser Strategie wurde die Technologie als angewandte Naturwissenschaft verwissenschaftlicht. Die andere Strategie bestand in der Anwendung von wissenschaftlichen Methoden in direkten Untersuchungen von technischen Problemen. Maschinen und Maschinenteile wurden gebaut und Messungen auf alternativen Konstruktionen durchgeführt, um die Maschinen zu optimieren (Faulkner 1994; Kaiser 1995). In vielen Fällen war dies die einzige Möglichkeit, praktische Probleme in der Technik zu lösen (Hendricks et al. 2000). Die in Windkanälen studierten Erscheinungen waren zu komplex für eine mathematische Lösung, und die Optimierung der Form eines Schiffspropellers war ebenso mathematisch unzugänglich. Die unmittelbare Prüfung von technologischen Konstruktionen ist noch heute ein wesentlicher Teil der ingenieurwissenschaftlichen Praxis. Die Verbesserungen der Verkehrssicherheit in den letzten Jahrzehnten wären z. B. nicht ohne Crashtests möglich. Und auch für Konstruktionen, die sich auf einfache und wohlbekannte Prinzipien verlassen, sind praktische Erprobungen erforderlich. Dauertests von Möbeln und Haushaltsgeräten sind wohlbekannte Beispiele. 361
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Im Unterschied zur ersten Strategie kann diese zweite Strategie nicht als »angewandte Naturwissenschaft« beschrieben werden.3 Statt Ergebnisse der Naturwissenschaft zu benutzen, werden hier wissenschaftliche Untersuchungen direkt auf technische Konstruktionen gerichtet. Die große praktische Bedeutung solcher direkten Untersuchungen der Technik ist ein wichtiger Grund, die Ingenieurwissenschaften (oder Technikwissenschaften) nicht als angewandte Naturwissenschaft zu bezeichnen. Ingenieure, die technische Konstruktionen wissenschaftlich untersuchen oder entwickeln, führen viel kompliziertere und kreativere Tätigkeiten durch als die bloße Anwendung vorhandener naturwissenschafter Kenntnisse (Layton 1978). Beide Strategien werden noch heute benutzt, indem sie z. B. regelmäßig in Forschung und Lehre miteinander kombiniert werden. Es gibt eine interessante Parallele zu gleichzeitigen Entwicklungen in der Medizin (↑ Philosophie der biomedizinischen Wissenschaften), ein Wissenszweig, dessen Vertreter auch im neunzehnten Jahrhundert versuchten, für sich selbst den hohen Status zu erlangen, den die Naturwissenschaftler schon innehatten. Auch hier wurden zwei hauptsächliche Strategien benutzt. Die eine war, die Heilkunst als angewandte Naturwissenschaft zu entwickeln. Durch Laborstudien von kranken und gesunden Geweben und Organen konnten die Ursachen von Krankheiten gefunden und Heilmittel entwickelt werden. Claude Bernard war ein führender Vertreter dieses Zugangsweges zur Verwissenschaftlichung der Heilkunst. Die andere Strategie war, Behandlungsexperimente auszuführen, d. h. das, was wir heute klinische Studien (clinical trials) nennen. Die Pioniere dieser Methode teilten Patienten mit dem gleichen Leiden in Gruppen ein, die verschieden behandelt wurden, z. B. mit verschiedenen Arzneimitteln. Durch systematische Untersuchungen der Ergebnisse konnte man die Effekte verschiedener Behandlungen herausfinden und auf dieser Grundlage die klinische Praxis weiterentwickeln (Booth 1993; Wilkinson 1993; Feinstein 1996; Hansson 2014a). Ursprünglich wurden diese beiden Wege zu einer wissenschaftlichen Medizin als in Konkurrenz stehend aufgefasst. Heute herrscht darüber Einigkeit, dass Laborforschung völlig unumgänglich, die klinische Forschung aber genauso unverzichtbar bei der Erprobung und Auswertung neuer Behandlungen ist. Genau wie in den Ingenieurwissenschaften stellte man also in der Medizin fest, dass angewandte Naturwissenschaft mit direkten wissenschaftlichen Studien der eigenen Fragestellungen kombiniert werden musste. Obwohl die Technik- oder Ingenieurwissenschaften früher ab und zu als angewandte Naturwissenschaften betrachtet wurden (Bunge 1966), besteht heute unter Technikphilosophen ein Konsens darüber, dass eine solche Klassifizierung Hier folge ich der Tradition in dieser Diskussion und setze voraus, dass »angewandte Wissenschaft« eine unkreative Anwendung schon vorhandener Wissenschaft bezeichnet. Es kommt aber seit langem auch vor, dass »angewandte Wissenschaft« für kreative Forschung in praxisnahen Fächern benutzt wird (Kline 1995. Gooday 2012). 3
362
Philosophie der Ingenieurwissenschaften
irreführend ist (Mitcham/Schatzberg 2009; Bunge 1988; Hansson 2007a). Mehrere Autoren haben auch die Frage gestellt, ob es nicht zutreffender wäre, die Naturwissenschaften als angewandte Technik zu bezeichnen (Janich 1978; Kroes 1989; Lelas 1993). Letztendlich sind aber die Beziehungen zwischen Technik und Naturwissenschaft zu kompliziert, um als »Anwendung« in der einen oder anderen Richtung beschrieben zu werden (Hansson 2015).
4 Die Kennzeichen der Ingenieurwissenschaften In diesem Abschnitt sollen sieben Kennzeichen der Ingenieurwissenschaften vorgestellt werden, die zusammen zeigen, wie sich diese Wissenschaften von anderen Hauptzweigen der Wissenschaft, insbesondere den Naturwissenschaften, unterscheiden. Die zwei zuerst beschriebenen Kennzeichen betreffen die Studiengegenstände der Ingenieurwissenschaften, die zwei danach folgenden ihre Fundamentalbegriffe und die drei letzten ihre theoretischen Modelle und Vorstellungen. Die Vergleiche werden unvermeidlich schematisch bleiben, zumal es viele verschiedene Naturwissenschaften und auch viele verschiedene Ingenieurwissenschaften gibt. (Der Abschnitt baut zum größten Teil auf Hansson 2007a auf.)
4.1 Von Menschen hergestellte Studiengegenstände Grundsätzlich studieren die Naturwissenschaften Objekte aus der Natur, wohingegen die Ingenieurwissenschaften sich mit von Menschen hergestellten Gegenständen befassen. Zwei Vorbehalte müssen aber erwähnt werden, um diesen grundlegenden Unterschied nicht zu vereinfacht vorzustellen. Erstens handelt es sich hier um die äußersten, endgültigen, Studienobjekte. In den Naturwissenschaften untersucht man Objekte, die man erst in verschiedener Weise abgeändert hat, um Messungen oder Experimente möglich zu machen.4 Diese Bearbeitungen haben aber den Zweck, die Erforschung von Eigenschaften der (unmanipulierten) Natur zu erleichtern. So benutzen Chemiker z. B. kristallisierte Formen von Proteinen bei kristallographischen Strukturbestimmungen. Die kristallisierte Form findet man nicht in der Natur, und sie ist auch nicht das endgültige Studienobjekt. Man studiert sie, um die Struktur des natürlich vorgefundenen Proteins herauszufinden. Im Gegensatz dazu sind in den Ingenieurwissenschaften die Erzeugnisse menschlicher Tätigkeiten, wie z. B. Maschinenteile und Computerprogramme, die äußersten Studienobjekte. Der zweite Vorbehalt besteht darin, dass man in der Chemie, einer der Naturwissenschaften, sich regelmäßig mit Produkten menschlicher Tätigkeit befasst. Alternativ kann dies auch so ausgedrückt werden, dass es sich um dieselben Studien objekte, aber verschiedene Fragen zu diesen Objekten handelt. 4
363
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Die meisten der chemischen Stoffe, die von Chemikern studiert werden, sind synthetisch hergestellt und nicht aus der Natur bekannt.
4.2 Design Das Design technologischer Gegenstände ist eine der wichtigsten Aufgaben von Ingenieuren. Design ist auch ein zentraler Teil der akademischen Arbeit im Wissenschaftsgebiet Technik. Ingenieurwissenschaftler untersuchen nicht nur andersorts hergestellte Objekte, sie konstruieren auch neue technische Objekte. Auch hier ist ein Vorbehalt für die Chemie erforderlich.5 Die Synthesechemie ähnelt den Ingenieurwissenschaften darin, dass sie ihren Schwerpunkt auf das Design und die Herstellung von neuen Objekten legt; in ihrem Fall handelt es sich um neue chemische Stoffe (Schummer 1997). Es gibt aber einen interessanten Unterschied zwischen Synthesechemie und technischem Design. In der Synthesechemie zielt man meistens auf die Herstellung eines Stoffs mit einer vorherbestimmten chemischen Struktur. (Oft werden aber chemische Syntheseaufgaben auf Grund von erwarteten funktionellen Eigenschaften der synthetisierten Moleküle bestimmt. Dies ist z. B. der Fall bei Syntesearbeit in der Arzneimittelindustrie.) Im technischen Design hingegen ist die typische Designaufgabe, ein Produkt zu konstruieren, das eine (nicht immer völlig explizite) Liste von Spezifikationen erfüllt. Kompromisse und Angleichungen der Spezifikationen sind gewöhnlich im Designprozess enthalten (Asimov 1974; Vincenti 1990; 1992; Kroes et al. 2008).
4.3 Funktionsbegriffe Es gibt technologische Gegenstände, die wir nach ihren physikalischen Eigenschaften benennen, z. B. Kantholz und Stahldraht. Um herauszufinden, ob ein bestimmtes Objekt zu einer diesen Kategorien gehört, brauchen wir nur seine physischen Eigenschaften wie Form und materielle Zusammensetzung festzustellen. Aber für die große Mehrzahl technologischer Gegenstandskategorien ist die Funktion bestimmend. Die Ausnahmen sind meistens Rohstoffe oder Einsatz materialien (Hansson 2014b, 239 – 2 41). Um festzustellen, ob ein Objekt ein Schraubendreher ist, müssen wir herausfinden, ob es die Funktion hat, Schrauben hinein- und herauszuschrauben. Deshalb ist Schraubendreher ein Funk tionsbegriff. Dasselbe gilt für Begriffe wie Säge, Leiter, Lampe, Kühlschrank, Uhr, Auto, Teilchenbeschleuniger usw. Die Ingenieurwissenschaften unterscheiden sich dadurch von den Naturwissenschaften, dass ihre Terminologie von Funk Von der sehr problematischen sog. konstruktivistischen Wissenschaftstheor ie, laut der die Naturwissenschaften die äußere Welt überhaupt nicht erforschen, sondern kon struieren, sehe ich hier ab (Hansson 2007b). 5
364
Philosophie der Ingenieurwissenschaften
tionsbegriffen dominiert ist (Kroes/Meijers 2002; Hansson 2002; 2006a; Vermaas/Houkes 2006; Kroes 2006; 2012). Es muss aber angemerkt werden, dass die Funktionskriterien für technologische Objekte manchmal sehr kompliziert sind. Es ist z. B. keine einfache Aufgabe, ein vollständiges Verzeichnis der Funktionskriterien eines Personenkraftwagens aufzustellen. Vermutlich ist diese Aufgabe sogar unmöglich, weil diese Liste nicht abgeschlossen ist und wegen sozialer und technologischer Entwicklungen ergänzungsbedürftig werden kann. Auch eine der Naturwissenschaften, nämlich die Biologie, hat viele Funk tionsbegriffe in ihrer Terminologie, hauptsächlich Begriffe für Teile von Organismen wie Auge, Blume, Flosse, Flügel, Gelenk, Wurzel usw. Aber es gibt einen wichtigen Unterschied zwischen dem technologischen und dem biologischen Funktionsbegriff. In der Technik sind die Funktionen beabsichtigt, d. h. sie haben ihren Ursprung in den Absichten der Konstrukteure und Benutzer. Im Gegensatz dazu werden die biologischen Funktionen durch Begriffe beschrieben, mit denen wir die Ergebnisse evolutionärer Prozesse fassen. Vorherige philosophische Studien des Funktionsbegriffs waren hauptsächlich auf biologische Funktionen gerichtet. Es gibt gute Gründe dafür, mehr Aufmerksamkeit auf technische Funk tionen zu legen; insbesondere scheint die Anwendung von Funktionsbegriffen für unabsichtlich entstandene (»undesigned«) Gegenstände von ihrer Anwendung für absichtlich geplante (»designed«) Gegenstände hergeleitet zu sein.
4.4 Normative Begriffe In den Naturwissenschaften erstrebt man, mit so wertfreien Begriffen wie möglich zu arbeiten. In den meisten Fällen kann diese Bestrebung als erfolgreich angesehen werden; die meisten naturwissenschaftlichen Fachausdrücke sind ungefähr so wertfrei, wie es ein von Menschen erfundener Begriff sein kann. Die Terminologie der Ingenieurwissenschaften hat ein ganz anderes Verhältnis zur Normativität. Große Teile der technischen Fachsprache sind zur selben Zeit beschreibend und bewertend. (Layton 1988) Deutliche Beispiele sind »Risiko«, »Sicherheit«, »umweltfreundlich«, und »benutzerfreundlich«. Ingenieure arbeiten auch routinemäßig mit Normen, die von Normungsorganisationen wie ISO festgestellt sind. Solche technischen Standards sind auf komplizierten Kombinationen von ethisch-gesellschaftlichen Normen, instrumentellen Normen und Konventio nen aufgebaut. Dies ist ein interessanter, aber unerforschter Bereich für philosophische Untersuchungen. Noch bedeutender sind die instrumentellen Werte, die aus Funktionsbegriffen hergeleitet sind. Ingenieure und Ingenieurwissenschaftler erstreben immer bessere Autos, Brücken, Schalter, Arbeitsspeicher usw. Die Bedeutung der Wertaussagen sind hier Kategorie-bestimmt (category-specified), d. h. durch die Kategorisierung des Objektes festgelegt. Man kann sich diesen Zusammenhang anhand 365
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
von Objekten verdeutlichen, die mehr als einer Kategorie angehören. So können wir z. B. ein und dasselbe Objekt sowohl als Fahrrad als auch als Rennrad bezeichnen. Es kann dann z. B. ein gutes Fahrrad, aber ein schlechtes Rennrad sein. (Dasselbe Phänomen gibt es auch außerhalb der Technik, da ja bekanntlich eine Person zwar ein guter Forscher, aber dennoch ein schlechter Lehrer sein kann und umgekehrt.) (Hansson 2006b) Aus jedem technischen Funktionsbegriff können wir Bewertungskriterien herleiten: Ein Gegenstand mit X-Funktion ist umso besser, je effizienter er für diese Funktion benutzt werden kann. Ein Schraubendreher ist z. B. umso besser, je einfacher und schneller man mit ihm Schrauben hinein- und herausdrehen kann. Das Verhältnis zwischen Funktion und Bewertung ist oft kompliziert wegen der Mehrdimensionalität des besonderen Funktionsbegriffs, aber das Prinzip ist einfach. Ohne zu zögern, drücken wir auch Werturteile aus, die mit hochkomplizierten Funktionsbegriffen wie »Auto« und »Energiesystem« verbunden sind (Hansson 2006b). In ihrem Verhältnis zu Wertaussagen sind die Ingenieurwissenschaften wahrscheinlich den Naturwissenschaften weniger ähnlich als den Sozialwissenschaften. Auch in den Sozialwissenschaften werden Terme benutzt, die gleichzeitig beschreibend und bewertend sind (»Gerechtigkeit«, »demokratisch«, »Wohlfahrt« usw.). Auch solche technologischen Gegenstände können bewertet werden, die wir nach ihren physikalischen Eigenschaften benennen und kategorisieren. Wir können z. B. einen Stahldraht als »gut« bezeichnen. Damit ist aber gemeint, dass er für die typischen Verwendungen eines Stahldrahts gut geeignet ist. Im Allgemeinen werden nicht-funktionell definierte technische Objekte nach ihren erwarteten oder charakteristischen Funktionen bewertet.
4.5 Weniger weitgehende Idealisierungen In den Naturwissenschaften werden regelmäßig weitgehende Idealisierungen vorgenommen, um verschiedene Naturerscheinungen voneinander getrennt studieren zu können (McMullin 1985). In Untersuchungen des Elektromagnetismus werden z. B. Modelle benutzt, in denen die Schwerkraft abwesend ist, und umgekehrt. Oft werden Experimente unter Bedingungen durchgeführt, die diesen Idealisierungen entsprechen. Experimente werden zum Beispiel in Vakuum ausgeführt, um den Einfluss des Luftdruckes zu vermeiden. Chemische Reaktionen werden in der gasförmigen Phase studiert, um Wechselwirkungen mit anderen Molekülen als den primär reagierenden zu verhindern. Dadurch werden die empirischen Daten mit den theoretischen Modellen besser vergleichbar. Aber für Ingenieure sind solche Idealisierungen oft nicht brauchbar. Wenn man eine Maschine nach den Prinzipien der Elektrodynamik baut, kann man nicht von der Gravitation absehen (sofern die Maschine nicht für eine Raumstation gedacht ist). Obwohl die theoretische Mechanik sich normalerweise nicht mit 366
Philosophie der Ingenieurwissenschaften
Wetterphänomenen befasst, muss der Brückenbauer die Wirkung von Stürmen berücksichtigen – sonst kann es zu einer Katastrophe kommen. (Layman 1989) Ganz allgemein müssen die Ingenieurwissenschaften auf viele der naturwissenschaftlichen Idealisierungen verzichten, um eine für die Praxis ausreichende Beschreibung der Phänomene zu erreichen.
4.6 Mathematische Präzision Die Lösung von mathematischen Problemen ist in den Ingenieurwissenschaften genauso wichtig wie in den Naturwissenschaften. In beiden Wissenschaftszweigen wird Genauigkeit in den Lösungen erstrebt, aber dennoch ist das Präzisionsideal nicht dasselbe. Die Genauigkeit, die der Ingenieur braucht, ist immer auf dem Wege einer (hinreichend genauen) Annäherung erreichbar. Wenn z. B. die Dimensionierung der Bauelemente einer Hängebrücke von der Lösung eines komplizierten Gleichungssystems abhängt, braucht der Ingenieur eine Approximation mit einer genügenden Zahl von Dezimalstellen. Eine analytische Lösung fügt nichts Brauchbares zur Erledigung seiner Aufgabe hinzu. Wenn aber z. B. Astrophysiker oder Populationsgenetiker sich mit einem Problem beschäftigen, das in einem Gleichungssystem ausgedrückt ist, ist eine analytische Lösung immer besser als eine (beliebig genaue) Näherung. (Es gibt aber Gebiete der Naturwissenschaften, wie z. B. die Quantenchemie, in der analytische Lösungen nur sehr selten zu erreichen sind.) Das hängt mit der Erklärungskraft der Lösung zusammen. Eine analytische Lösung gibt oft Einsichten, die für die weitere wissenschaftliche Arbeit mit ähnlichen Problemen behilflich sein können.
4.7 Erklärungen In den Naturwissenschaften werden normalerweise nur Erklärungen benutzt, die nicht auf unrichtigen Vorstellungen basieren. Wie aber Per Norström gezeigt hat, können demgegenüber in der Ingenieursarbeit und den Ingenieurwissenschaften widerlegte Erklärungsmuster weiterleben, sofern sie als zweckdienlich aufgefasst werden (Norström 2013). Die Vorstellung, dass ein Vakuum saugt, ist ein sehr deutliches Beispiel. Nicht nur in alltäglichen Gesprächen unter Ingenieuren, sondern auch in Patentschriften und amtlichen Dokumenten kann man diese unrichtige Beschreibung der Effekte von Druckunterschieden zwischen miteinander verbundenen Behältern finden. Ein ebenfalls elementares Missverständnis ist die Auffassung von Wärme als einer Substanz, die sich zwischen Gegenständen bewegen kann. Auch dieser Irrglaube wird nicht nur alltäglich, sondern auch z. B. in Patentschriften weitergeführt. Dasselbe gilt auch von irrigen Ideen über Zentrifugalkräfte, die in der 367
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Physik sorgfältig zurückgewiesen werden. Aber dennoch soll, wie Norström betont, die Verwendung solcher Begriffe in der Ingenieurspraxis und auch in der Ingenieurwissenschaft nicht unbedingt abgewiesen werden: »Technologie handelt von der Herstellung von Artefakten und der Lösung von Problemen, während die Wissenschaft sich hauptsächlich der Beschreibung und Erklärung von Phänomenen in der Welt zuwendet. Eine wissenschaftliche Theor ie verliert ihren Status, wenn sie falsifiziert wird. Technologische Theor ien werden nicht durch die Falsifizierung ihrer Fundamente obsolet. Sie werden obsolet, wenn niemand sie mehr braucht. Viele von den Theor ien und Modellen, die heute von tätigen Ingenieuren verwendet werden, beruhen auf veralteter Wissenschaft. Deshalb mangelt es ihnen an wissenschaftlicher Rechtfertigung, aber sie sind trotzdem zweckdienlich.« (Norström 2013, 378)
Zusammenfassend zeigen die sieben verzeichneten Verschiedenheiten zwischen Natur- und Ingenieurwissenschaften, dass diese zwei Wissenszweige weit von einander entfernt sind. Sie sollen deshalb nicht als Unterabteilungen desselben Hauptzweiges der Wissenschaft betrachtet werden. Die Ingenieurwissenschaften konstituieren einen selbständigen Hauptzweig, genau wie die Naturwissenschaften, die Gesellschaftswissenschaften und die Medizinischen Wissenschaften.
5 Ontologische Fragen Wie schon in Abschnitt 4.3 betont wurde, können technische Gegenstände (oft als technische Artefakte bezeichnet) nicht nur in materiellen, sondern auch in funktionellen Termen bestimmt werden. In mehreren einflussreichen Beiträgen seit der letzten Jahrtausendwende haben die holländischen Technikphilosophen Peter Kroes und Anthonie Meijers eine Theorie der »doppelten Natur« (dual nature) von technischen Artefakten entwickelt (Kroes/Meijers 2002; 2006; Kroes 2010; 2012). Technische Objekte sind physische Objekte und können als solche vollständig in materiellen Termen charakterisiert werden, ohne Hinweise auf menschliche Gedanken zu enthalten. Aber dieselben Gegenstände sind auch funktionelle Objekte, und als solche können sie nur mit Bezugnahme auf menschliche Absichten charakterisiert werden. Die Theorie der doppelten Natur hat sich als besonders hilfreich in philosophischen Untersuchungen von Designprozessen erwiesen. Technisches Design kann als ein Vorgang beschrieben werden, in dem eine physische Beschreibung entwickelt wird, die einer vorgegebenen funktionellen Beschreibung entspricht (Kroes et al. 2008). Es gibt in der Ingenieurwissenschaft wohlentwickelte Designtheorien. Die technikorientierte Philosophie hat zur Präzision des Designdiskurses, besonders in ontologischen Fragen, beigetragen. Von den zwei Naturen hat sich die funktionelle als diejenige erwiesen, die sich am schwierigsten spezifizieren lässt. Besonders zwei Fragestellungen haben dazu beigetragen. Erstens stellt sich die Frage, wer und wessen Absichten die Funktion 368
Philosophie der Ingenieurwissenschaften
eines Gegenstandes bestimmt. Wenn beispielsweise ein Kneipenwirt beschließt, eine alte Weinflasche als Kerzenständer zu benutzen, wird damit die funktionelle Natur dieses Gegenstands transformiert? Handelt es sich noch um eine Weinflasche, oder hat sich der Gegenstand in einen Kerzenständer verwandelt? Wird die funktionelle Natur eines Objektes unabänderlich von der Absicht des Konstrukteurs bestimmt, oder kann die funktionelle Natur durch die Absicht eines Benutzers umgewandelt werden? Die zweite Frage betrifft die Charakterisierung von funktionsdefekten Objekten. Vielleicht besitzt unser Kneipenwirt auch einen Gegenstand, den er als Kerzenständer gekauft hat, der jetzt aber kaputt ist und diese Funktion nicht mehr erfüllen kann. Er nennt ihn zwar »Kerzenständer«, aber er dient nicht der Funk tion, die Objekte mit dieser Bezeichnung charakterisiert, nämlich die Funktion, brennende Kerzen zu tragen. Ist er wirklich noch ein Kerzenständer? Peter Kroes hat aktuell in einem Buch glaubwürdige Antworten auf diesen Fragen vorgeschlagen (Kroes 2012). Er meint, dass wir die Funktion eines Gegenstandes von seiner funktionellen Art (functional kind) unterscheiden müssen. Bei der Bestimmung der funktionellen Art hat der Designer ein Vorrecht. Er bestimmt die Art oder Klasse von technischen Artefakten, zu der das Objekt gerechnet werden soll, und diese funktionelle Art kann nicht später durch Funk tionszuschreibungen oder praktischen Anwendungen verändert werden. Dagegen kann der Benutzer den Gegenstand mit einer Benutzungsfunktion versehen, die der faktischen Anwendung entspricht. Der Kneipenwirt kann also die funktionelle Art des genannten Gegenstandes nicht verändern; er gehört unveränderlich zur Klasse der Weinflaschen. Aber als Benutzer kann der Kneipenwert der Weinflasche die Benutzungsfunktion eines Kerzenständers erteilen. Eine solche Erteilung betrifft eine dauerhafte Benutzung und Klassifizierung des Gegenstandes und ist deshalb verschieden von einer einstweiligen Verwendung der Flasche als Kerzenständer. Abbildung 1 veranschaulicht die Verhältnisse zwischen drei für diese Analyse vorrangigen Kategorien: funktionelle Art, Benutzungsfunktion und Funk tionalität. Jeder Punkt im Diagramm repräsentiert die Kombination von einem Gegenstand und einer Funktion. Feld 5 stellt den zentralen Fall dar: ein Objekt, das für den vom Designer vorausgesehenen Zweck benutzt wird und auch diesem Zweck bedient. In Feld 4 finden wir den Fall, den wir oben mit der als Kerzenständer benutzten Weinflasche veranschaulichten. Die Flasche hat und erfüllt die Benutzungsfunktion Kerzenständer, gehört aber nicht zu der funktionellen Art Kerzenständer. Die Glühbirne in meiner Nachttischlampe funktioniert nicht mehr. Sie gehört zur funktionellen Art Glühlampe und hat auch die entsprechende Benutzungsfunktion, aber sie erfüllt nicht mehr diese Funktion. Sie gehört deshalb zum Feld 2 im Diagramm. Im selben Feld finden wir auch Objekte, die einer unrealisierbaren funktionellen Art anhören, wie z. B. Perpetuum mobile und homöopathisches Arzneimittel. Ein alter Mantel, der als Vogelscheuche benutzt wird, kann 369
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Benutzungsfunktion
1
funktionelle Art
2
3
5 4
6
7
Funktionalität Abb. 1 : Repräsentation der möglichen Verhältnisse zwischen funktioneller Art, Benutzungsfunktion und Funktionalität
über Feld 1 illustriert werden; er hat die Benutzungsfunktion, Vögel fernzuhalten, aber erfüllt nicht diese Funktion und seine funktionelle Art ist eine andere. In Feld 7 finden wir z. B. mein bestes Stemmeisen in Bezug auf die Funktion, Farbdosen zu öffnen. Die Felder 3 und 6 sind allerdings problematischer. Peter Kroes meint, dass eine funktionelle Art immer die entsprechende Benutzungsfunktion impliziert. Die Weinflasche, die jetzt als Kerzenständer dient, hat also auch noch die Benutzungsfunktion, Wein zu enthalten. Nach dieser Auffassung sollen also diese zwei Felder leer sein. An dieser Stelle können wir die Frage aber offenlassen, ob es Kombinationen von Gegenständen und Funktionen gibt, die zu diesen zwei Kategorien gerechnet werden sollten (Hansson 2013b).
6 Die Epistemologie der Technik Die philosophische Erkenntnistheor ie hat sich nicht viel für technische Kenntnisse interessiert. Es ist aber nicht schwierig zu erweisen, dass die mit der Technik verbundenen Erkenntnisformen teilweise anders sind als diejenigen, die wir z. B. aus den Naturwissenschaften und dem Alltagsleben kennen. Die Epistemo370
Philosophie der Ingenieurwissenschaften
logie der Technik ist noch ein junges und vielleicht auch verhältnismäßig unreifes Forschungsgebiet. Ihre Hauptfrage besteht noch in der Charakterisierung und Klassifizierung der Hauptformen technischer Erkenntnis. Mehrere Einteilungen wurden vorgeschlagen, aber viele von ihnen leiden an Präzisionsmängeln und unklaren und inkonsequenten Einteilungsgründen (für eine Übersicht siehe Houkes 2009, 321 – 327). Im Folgenden soll eine einfache Typologie vorgestellt werden, deren Einteilung auf dem Ursprung und insbesondere der Lehrweise der Kenntnisse beruht (dieser Abschnitt baut auf Hansson 2013a auf). In Abbildung 2 sind die vier Erkenntnistypen dieser Einteilung linear nach der Dimension praktisch– theoretisch geordnet: implizites Wissen
praktische Regelkenntnisse
Ingenieurwissenschaft
angewandte Wissenschaft
praktisch
theoretisch Abb. 2 : Die vier Hauptformen der Technischen Erkenntnis
6.1 Implizites Wissen Der erste Erkenntnistyp der Technik ist implizites Wissen (tacit knowledge). Dieser Begriff wurde (in einem anderen Zusammenhang) von dem ungarisch-britischen Chemiker und Wissenschaftsphilosophen Michael Polanyi (1891–1976) geprägt. Sein Buch Implizites Wissen (The tacit dimension) von 1966 ist noch der Ausgangspunkt vieler Diskussionen über implizites Wissen. Seine Arbeit war aber nicht den Ingenieurwissenschaften, sondern den Naturwissenschaften gewidmet. Er wollte zeigen, dass die Naturwissenschaften nicht ausschließlich auf regelgesteuerte Denkweisen aufgebaut werden kann; ohne intuitive Beurteilungen sei wissenschaftlicher Fortschritt nicht möglich. Heute ist implizites technisches Wissen ein Hauptthema in der Disziplin Wissensmanagement (knowledge management), die aber nicht viele Verbindungen mit der philosophischen Erkenntnistheor ie hat. Wissensmanagement wurde um 1990 als neue Disziplin etabliert. Der japanische Forscher Ikujiro Nonaka (1935 geboren) spielte eine führende Rolle bei der Entwicklung von praktischen Anwendungen des Begriffes impliziten Wissens. Der Schwerpunkt seiner Forschung, und überhaupt der Forschung in diesem Gebiet, war das Lehren und Lernen von implizitem Wissen. Wie können unartikulierte Erkenntnisse von einer Person an eine andere übermittelt werden? Es gibt dafür zwei hauptsächliche Methoden. Die eine ist das Lehrlingsverfahren. Der Lehrling beobachtet die Handhabung des Meisters und versucht sie nachzuahmen. Er kann infolgedessen oft dieselbe Form von implizitem Wissen entwickeln. Die andere Methode beginnt mit der Artikulation (Externalisierung) des impliziten Wissens, d. h. es wird in Worten 371
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
ausgedrückt, um leichter gelernt zu werden (Nonaka/Takeuchi 1995; Nonaka/ von Krogh 2009). Nonaka und seine Mitarbeiter interessierten sich hauptsächlich für das spätere Verfahren, für die sprachliche Artikulation von implizitem Wissen. Sein berühmtestes Beispiel ist der Brotbackautomat, der 1987 auf dem Markt gebracht wurde (Nonaka/Takeuchi 1995). Das Brot, das die früheren Prototypen produzierten, war nicht von genügender Qualität, weil die Maschine den Teig nicht richtig knetete. Es stellte sich also die Frage, wie der Teig geknetet werden sollte. Dieses Wissen konnte allerdings nicht aus Büchern gewonnen werden, da es sich nicht um sprachliches, sondern um implizites Wissen von Bäckerlehrlingen handelte. Um das Problem zu lösen, ging ein Mitglied des Designteams in die Lehre bei einem Meisterbäcker. Sie lernte die Kunst des Knetens durch Imitation und konnte auch – nicht ohne Schwierigkeiten – das gelernte Verfahren in Worten beschreiben. Auf diesem Weg konnte das Team den ersten Brotbackautomaten konstruieren. Die Artikulation von implizitem Wissen kann für wenigstens drei verschiedene Zwecke erstrebt werden. Der erste Zweck ist durch den Brotbackautomaten illustriert: die Mechanisierung und Automatisierung eines Arbeitsprozesses. Seit dem Beginn der industriellen Revolution ist die Artikulation von implizitem Wissen ein wichtiges Mittel für die Mechanisierung von Handwerksarbeit. Heute ist die Artikulation von implizitem Wissen oft ein wichtiger Teilprozess in der Programmierung. Der zweite Zweck ist die Erleichterung von Lehren und Lernen. Die Verfasser von Lehrbüchern für die praktischen Technikfächer, wie z. B. Tischlerei oder das Friseurhandwerk, versuchen so weit wie möglich die verschiedenen Handgriffe und Arbeitsprozesse mit Worten zu beschreiben, um das Lernen leichter zu machen. Der dritte Zweck der Artikulierung ist das Streben nach Kontrolle über den Arbeitsprozess. Besonders seit der industriellen Revolution haben Arbeitgeber qualifizierte Aufgaben in kleinere Aufgaben eingeteilt, die von unausgebildeten Arbeitern ausgeführt werden konnten. Das Fließband versinnbildlicht diese Form von Arbeitsteilung, aber sie hat auch viele andere Formen. Der amerikanische Ingenieur Frederick Taylor (1856–1915), Begründer der sogenannten wissenschaftlichen Betriebsführung (scientific management), erstrebte bewusst eine Entqualifizierung der manuellen Arbeit. »So weit wie möglich soll die gesamte Gehirnarbeit aus der Werkstatt entfernt und in der Planungs- oder Designabteilung zusammengezogen werden« (»All possible brain work should be removed from the shop and centered in the planning or laying-out department«; Taylor [1911] 2008, 50). Aber seit dem Beginn des Industrialismus haben auch Kritiker wie z. B. Adam Smith (1776, V:i:ii) und Karl Marx (1867, I, 12.5) davor gewarnt, dass die Qualität des Arbeitslebens und damit auch die gesamte Lebensqualität dadurch reduziert wird (siehe auch: Braverman 1974; Campbell 1989; Wood 1982; 1987). Es muss hier betont werden, dass diese Kritik nicht an der Artikulierung von implizitem Wissen geübt wird, sondern an der Benutzung der Artikulierung, um den Arbeitsinhalt zu vermindern. 372
Philosophie der Ingenieurwissenschaften
Schließlich muss auch betont werden, dass implizites Wissen ein weitverbreiteter und sich immer neubildender Teil des menschlichen Lebens ist und auch bleibt, selbst wenn einzelne Elemente des impliziten Wissens in den expliziten Bereich übertragen werden.
6.2 Praktische Regelkenntnisse Die Zweite Hauptform der technischen Erkenntnis ist die praktische Regelkenntnis. Technische Kenntnisse werden oft in dieser Form unterrichtet und gelernt, insbesondere in den Handwerksberufen. Elektriker folgen z. B. vielen Regeln für elektrische Installationen. Manche dieser Regeln haben theoretische Begründungen, wie z. B. die Wahl von verschiedenen Kabeln für verschiedene Belastungen. Der Elektriker berechnet aber normalerweise nicht in jedem einzelnen Fall, welche Kabel er benutzen kann, sondern er folgt den aus solchen Berechnungen hergeleiteten Regeln. Es gibt auch Regeln, die auf einer Kombination von theoretischen Begründungen und Konventionen beruhen, z. B. die Regel, dass grün/ gelb-isolierter Draht immer (und nur) für Schutzleiter benutzt werden soll. Solche einfachen Regeln werden oft Faustregeln (rules of thumb) genannt (Norström 2011). Eine Faustregel soll einfach zu lernen und anzuwenden sein. Faustregeln können verschiedenen Ursprungs sein, sie können z. B. aus der Artikulierung von implizitem Wissen oder aus wissenschaftlichen Einsichten und Berechnungen stammen. In der praktischen Ingenieursarbeit sind Faustregeln oft unentbehrlich. Die Materialwahl in Designaufgaben beruht z. B. oft auf Faust regeln. Obwohl Neuberechnungen von Materialeigenschaften und Dimensionierungen oft zu einer besseren Optimierung der Konstruktion führen könnten, wäre der Ertrag dieser Berechnungen in vielen Fällen nicht groß genug, um die Mehrarbeit zu rechtfertigen. Faustregeln und andere praktische Regeln dienen oft als Brücken zwischen wissenschaftlicher Erkenntnis und praktischem Können im Rahmen der Technologie.
6.3 Transformationen zwischen Erkenntnisformen Wir haben oben zwischen zwei Ansätzen für die Benutzung der Wissenschaft in der Ingenieurwissenschaft unterschieden: der Anwendung von Ergebnissen der Naturwissenschaft und der direkten wissenschaftlichen Untersuchung von technischen Fragestellungen. In unserer Typologie werden diese zwei Ansätze als verschiedene Erkenntnisformen betrachtet. Diese zwei Erkenntnisformen wurden schon oben diskutiert und brauchen keine zusätzliche Einführung. In Abbildung 2 werden die vier Erkenntnisformen nach der Dimension praktisch vs. theoretisch angeordnet. Mit Hilfe dieser Ordnung können Transformationen zwischen den vier Erkenntnisformen in zwei Hauptgruppen eingeteilt 373
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
werden. Einerseits gibt es Transformationen, die zu einer mehr theoretischen Erkenntnisform führen (in rechter Richtung im Diagramm), andererseits gibt es auch Transformationen, die zu einer mehr praktischen Erkenntnisform führen (in linker Richtung im Diagramm). Dies wird in Abbildung 3 veranschaulicht: 2
1 implizites Wissen 4
3
praktische Regelkenntnisse
Ingenieurwissenschaft
angewandte Wissenschaft
5 6
Abb. 3 : Transformationen von technischer Erkenntnis: Artikulation (1), Verwissenschaftlichung (2, 3), Routinisierung (4) und Wissenschaftsanwendung (5, 6)
Pfeil 1 illustriert die Artikulation von implizitem Wissen, eine Transformationsform, die wir schon in Abschnitt 6.1 erwähnt haben. Transformationen, die entweder von implizitem Wissen oder praktischer Regelkenntnis zu (angewandter oder direkt-technologischer) Wissenschaft führen, können als Verwissenschaftlichung betrachtet werden. Eine physikalische Erklärung, wie wir die Balance beim Radfahren halten, ist in diesem Sinne eine Verwissenschaftlichung; sie wird von Pfeil 2 repräsentiert. Ein anderes Beispiel ist die Weiterentwicklung von Theorien über Wärmekraftmaschinen zu einer generellen Theorie der Thermodynamik (Pfeil 3). Im Diagramm werden auch Transformationen in der anderen Richtung, zu mehr praktischen Erkenntnisformen, illustriert. Eine wichtige Form solcher Transformationen ist die Umwandlung einer Kenntnis anderer Art in implizites Wissen. Eine solche Umwandlung kann Routinisierung genannt werden (Pfeil 4). Ein Beispiel dafür ist das Erlernen der manuellen Gangschaltung beim Autofahren. Der Schüler lernt erst einige praktische Regeln für die Handhabung des Schalthebels, aber muss dann lernen, den Gang »automatisch«, d. h. ohne daran zu denken, zu wechseln. Ein anderes Beispiel ist das Erlernen eines Musikinstruments. In diesem und vielen anderen Fällen ist die Routinisierung für eine schnelle und ungehinderte Ausführung erforderlich. Andere Transformationen in der Richtung zu mehr praktischen Kenntnissen führen zu praktischer Regelkenntnis oder zu (direkter) technologischer Wissenschaft. Diese Transformationen können als Wissenschaftsanwendung bezeichnet werden (Pfeile 5 und 6). Die Herleitung von Regeln für die Elektromontage aus der Elektrodynamik ist ein Beispiel dafür.
374
Philosophie der Ingenieurwissenschaften
6.4 Lernen Die vier Erkenntnisformen der Technik sind unterschiedlich schwierig zu erlernen. Abbildung 4 illustriert diesen Unterschied. Ein dickerer Pfeil bezeichnet einfacheres Lernen. Dieses Diagramm ist natürlich sehr vereinfacht, da wirkliche Lernprozesse auch andere Elemente als die Übertragung von Erkenntnissen zwischen dem Lehrer und den Lernenden beinhalten. Person 1, Lehrer(in)
implizites Wissen
praktische Regelkenntnisse
Ingenieurwissenschaft
angewandte Wissenschaft
Person 2, Student(in)
implizites Wissen
praktische Regelkenntnisse
Ingenieurwissenschaft
angewandte Wissenschaft
Abb. 4 : Lehr- und Lernprozesse für den technischen Lehrstoff
Wie im Diagramm gezeigt, ist praktische Regelkenntnis normalerweise am einfachsten zu lernen; danach kommen technologische und angewandte Wissenschaft. Wissenschaft ist mühsamer zu lernen als Faustregeln. Das Lernen von implizitem Wissen bringt besondere Schwierigkeiten mit sich, weil verbale Instruktionen nicht zugänglich sind. Wie schon oben angedeutet, wird oft erstrebt, implizites Wissen zu artikulieren, um den Lernprozess zu erleichtern. Dies führt zu einem dreistufigen Lehr- und Lernprozess für implizites Wissen, der in Abbildung 5 illustriert wird: erstens die Artikulierung von praktischen Regelkenntnissen, zweitens das Lehren dieser Regelkenntnisse durch verbale Instruktionen und drittens Übungen, die zu einer Routinisierung der Regelkenntnisse führt. Person 1, Lehrer(in)
implizites Wissen
praktische Regelkenntnisse
Ingenieurwissenschaft
angewandte Wissenschaft
Person 2, Student(in)
implizites Wissen
praktische Regelkenntnisse
Ingenieurwissenschaft
angewandte Wissenschaft
Abb. 5 : Indirekter Lernprozess für implizites Wissen
375
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
7 Schluss Nach Benjamin Franklin ist der Mensch ein Werkzeuge herstellendes Tier (toolmaking animal; zit. Boswell 1824, 3, 236). Wenn sich die Philosophie mit dem Menschsein befassen will, muss sie sich deshalb auch für die Technik interessieren. Technik und Ingenieursarbeit spielen – heute mehr als je zuvor – eine essentielle Rolle für den Zustand der Menschheit und für die Voraussetzungen menschlichen Lebens. Mit der Entwicklung von neuer Technik wird die Bedeutung der Ingenieurwissenschaften für die Technik und damit auch für das Alltagsleben immer größer. Der Philosophie der Technik und der Ingenieurwissenschaften mangelt es nicht an wichtigen Fragen und Aufgaben, aber sie war bis vor kurzem marginalisiert und sie ist noch heute nur selten Teil des philosophischen Curriculums. Eine Ursache dafür war möglicherweise die (fachlich unberechtigte) Fokussierung einer früheren Generation von Technikphilosophen auf die Ideen eines nationalsozialistischen Philosophen (Heidegger). Heute ist diese Sackgasse fast völlig evakuiert. Die heutige Philosophie der Technik und der Ingenieurwissenschaften beschäftigt sich mit einer Vielfalt von Fragen, die für die technische und gesellschaftliche Praxis bedeutend sind (Meijers 2009). Praktische Relevanz, viele unerforschte Fragen, eine wachsende Schar von jungen enthusiastischen Forschern und vielfältige Verbindungen mit anderen Zweigen der Philosophie tragen dazu bei, dass die Philosophie der Ingenieurwissenschaften sehr gute Aussichten für die kommenden Jahrzehnte hat.
Literatur Empfehlungen:
Hansson, Sven Ove (Hg.) (2015). The Role of Technology in Science. Philosophical Perspectives. Dordrecht: Springer. [Das Verhältnis zwischen Technik und Wissenschaft aus verschiedenen Gesichtspunkten studiert und interpretiert.] Kroes, Peter (2012). Technical Artefacts: Creations of Mind and Matter. Springer 2012. [Eine gründliche Untersuchung der Ontologie von technischen Artefakten. Enthält wichtige Analysen des Begriffes technischer Funktion.] –, und Anthonie Meijers (Hg; 2000). The empirical turn in the philosophy of technology, Vol. 20, in: Carl Mitcham (Hg.), Research in philosophy and technology. Amster dam: Elsevier. [Startschuss für die Entwicklung einer Technikphilosophie, die sich mehr als früher der Ingenieursarbeit und den Ingenieurwissenschaften zuwendete.] Meijers, Anthonie (Hg.) (2009). Handbook of the Philosophy of Science, Volume 9: Philosophy of Technology and Engineering Sciences, Elsevier. [Mit 48 Kapitel und 1453 Seiten das wichtigste Referenzwerk der Philosophie der Technologie und der Ingenieurwissenschaften.] Mitcham, Carl (1994). Thinking through Technology: The Path between Engineering and Philosophy. Chicago: University of Chicago Press. [Eine ausgezeichnete Ein376
Philosophie der Ingenieurwissenschaften
führung zum philosophischen Studium der Technik und der Ingenieurwissenschaften, größtenteils historisch gegliedert.] Vincenti, Walter G. (1990). What Engineers Know and How They Know It: Analytical Studies from Aeronautical History. Baltimore: Johns Hopkins University Press. [Wahrscheinlich die in der Philosophie einflussreichste empirische Untersuchung von Ingenieursarbeit und ihr Verhältnis zu den Wissenschaften.] * * * Aristoteles, Nikomachische Ethik VI, 4. Übersetzung Eugen Rolfes. Leipzig: Felix Meiner 1911. Asimov, M. (1974). A philosophy of engineering design. In F. Rapp (Hg.), Contributions to a Philosophy of Technology, 150 – 157. Dordrecht: Reidel. Bachrach, David Stewart (2006). »English Artillery 1189 – 1307: The Implications of Terminology«, English Historical Review 121 (494), 1408 – 1430. Booth, C. C. (1993). Clinical Research. In W. F. Bynum und R. Porter, Companion Encyclopedia of the History of Medicine, 205–229. London: Routledge. Boswell, James (1824). The Life of Samuel Johnson, LL . D. London: G. Cowi. Braverman, Harry (1974). Labor and monopoly capital: the degradation of work in the twentieth century. New York: Monthly Review. Bunge, Mario (1966). Technology as applied science, Technology and Culture 7, 329 – 347. – (1988). The nature of applied science and technology, 599–604. In: V. Cauchy (Hg.), Philosophy and culture. Proceedings of the XVIIth congress of philosophy, vol. II. Montréal: Éd. Montmorency. Campbell, Robert A. (1989). Work, Workers and Working-Class History, Le Travail 23, 221 – 234. Cicero, Marcus Tullius (1999). Epistulae ad Atticum, vols 1 – 4 . Hrsg. von D. R. Shackleton Bailey. Loeb classical library. London : Harvard University. Faulkner, Wendy (1994). Conceptualizing Knowledge Used in Innovation: A Second Look at the Science-Technology Distinction and Industrial Innovation, Science, Technology and Human Values 19, 425 – 458. Feinstein, A. (1996). Two Centuries of Conflict-Collaboration Between Medicine and Mathematics, Journal of Clinical Epidemiology, 49, 1339 – 1343. Gooday, Graeme (2012). ›Vague and artificial‹ The historically elusive distinction between pure and applied science, Isis 103, 546 – 554. Grattan-Guinness, Ivor (2005). The École Polytechnique, 1794 – 1850: Differences over Educational Purpose and Teaching Practice. American Mathematical Monthly 112, 233 – 250. Hansson, Sven Ove (2002). Understanding Technological Function. Introduction to the special issue on the Dual Nature programme. Techne, 6(2). – (2006a). Defining Technical Function, Studies in History and Philosophy of Science 37, 19 – 22. – (2006b). Category-specified value statements. Synthese, 148, 425 – 432. 377
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
– (2007a). What is Technological Science?, Studies in History and Philosophy of Science 38, 523 – 527. – (2007b). Against Programmatic Ignorance, Theoria 73, 95 – 9 7. – (2009). Introduction to part VI [Philosophical Issues in Engineering Disciplines] 1195 – 1198 in Anthonie Meijers (Herausgeber), Handbook of the Philosophy of Science, Volume 9: Philosophy of Technology and Engineering Sciences, Elsevier. – (2013a). What is technological knowledge?, 17 – 31. In: Inga-Britt Skogh/Marc J. de Vries (Hg.), Technology Teachers as Researchers, Sense Publishers 2013. – (2013b). A milestone in the philosophy of technology. [Rezension von Peter Kroes, Technical Artefacts: Creations of Mind and Matter.] Techne 17(3), 368 – 373. – (2014a). Why and for what are clinical trials the gold standard? Scandinavian Journal of Public Health 42 (Suppl 13), 41 – 48. – (2014b). Values in Chemistry and Engineering, 235 – 248. In: Peter Kroes/Peter-Paul Verbeek, The Moral Status of Technical Artefacts. Springer. – (2015). Science and technology: What they are and why their relation matters, 11 – 23. In: Sven Ove Hansson (Hg.). The Role of Technology in Science. Philosophical Perspectives. Dordrecht: Springer. Hendricks, Vincent Fella, Arne Jakobsen und Stig Andur Pedersen (2000). Identification of Matrices in Science and Engineeering, Journal for General Philosophy of Science 31, 277 – 305. Hoppe, Brigitte (2011). The Latin Artes and the origin of modern Arts, 2, 35 – 6 8. In: Maria Burguete/Lui Lam (Hg.), Arts: A Science Matter. Singapore: World Scientific. Houkes, W. (2009). The nature of technological knowledge. In: A. Meijers (Hg.). Handbook of the Philosophy of Science (310–350, Vol. 9). Philosophy of Technology and Engineering Sciences, Elsevier Hoven, Birgit Van Den (1996). Work in ancient and medieval thought: ancient philosophers, medieval monks and theologians and their concept of work, occupations and technology. Dutch monographs on ancient history and archaeology, vol. 14. Amsterdam: Gieben. Janich, P. (1978). Physics – natural science or technology? In: W. Krohn/E. T. Layton/ P. Weingart (Hg.). The Dynamics of Science and Technology, Sociology of the Sciences, volume II (3 – 27). Berlin: Springer. Kaiser, W. (1995). Die Entwicklung der Elektrotechnik in ihrer Wechselwirkung mit der Physik, 71 – 120. In: L. Schäfer/E. Ströker (Hg.), Naturauffassungen in Philosophie, Wissenschaft, Technik, Band III; Aufklärung und späte Neuzeit. München: Verlag Karl Alber Freiburg. Kline, R. (1995). »Construing ›technology‹ as ›applied science‹«: Public rhetoric of scientists and engineers in the United States, 1880 – 1945, Isis 86, 194 – 221 Kroes, P. (1989). Philosophy of science and the technological dimension of science. In: K. Gavroglu/V. Goudaroulis/P. Nicolapoulos (Hg.). Inre Lakatos and Theories of Scientific Change (375 – 382). Dordrecht: Kluwer. 378
Philosophie der Ingenieurwissenschaften
– (2006). Coherence of structural and functional descriptions of technical artefacts. Studies in History and Philosophy of Science, 37, 137 – 151. – (2010). Engineering and the dual nature of technical artefacts. Cambridge Journal of Economics 34, 51 – 62 – (2012). Technical Artefacts: Creations of Mind and Matter. Springer 2012. – und Anthonie Meijers (2002). The Dual Nature of Technical Artifacts – presen tation of a new research programme, Techne, 6(2). – und Anthonie Meijers (2006). The dual nature of technical artefacts. Studies in History and Philosophy of Science Part A 37, 1 – 4 . –, Pieter E. Vermaas, Andrew Light und Steven A. Moore. (2008). Philosophy and Design, Springer Netherlands. Langins, Janis (2004). Conserving the Enlightenment: French Military Engineering from Vauban to the Revolution. Cambridge, Mass. MIT Press. 2004. Layman, R. (1989). Applying idealizing scientific theor ies to engineering. Synthese, 81, 353 – 371. Layton, Edwin T. (1978). Millwrights and engineers, science, social roles, and the evolution, the turbine in America, 61 – 87. In: W. Krohn/E. T. Layton/P. Weingart (Hg.), The Dynamics of Science and Technology. Sociology of the Sciences, Vol II. Dordrecht: Reidel. – (1988). Science as a Form of Action: The Role of the Engineering Sciences, Technology and Culture 29, 82 – 9 7. Lelas, S. (1993). Science as technology. British Journal for the Philosophy of Science, 44, 423 – 4 42. Marx, Karl (1867), Das Kapital. McMullin, E. (1985). Galilean Idealization. Studies in History and Philosophy of Science, 16, 247–273. Meijers, Anthonie (Hg.), (2009). Handbook of the Philosophy of Science, Volume 9: Philosophy of Technology and Engineering Sciences, Elsevier. Mertens, Joost (2002). Technology as the science of the industrial arts: Louis-Sébastien Lenormand (1757 – 1837) and the popularization of technology, History and Technology 18, 203 – 231. Mitcham, Carl und Eric Schatzberg (2009). Defining technology and the engineering sciences, 27–63. In: A. Meijers (Hg.), Handbook of the philosophy of science: Vol. 9. Philosophy of technology and engineering sciences. Amsterdam: Elsevier. Nonaka, Ikujiro, und Georg von Krogh (2009). Tacit Knowledge and Knowledge Conversion: Controversy and Advancement in Organizational Knowledge Creation Theory, Organization Science 20, 635 – 652. Nonaka, Ikujiro, und Hirotaka Takeuchi (1995). The Knowledge-Creating Company: how Japanese companies create the dynamics of innovation. New York: Oxford University Press. Norström, Per (2011). Technological Know-How from Rules of Thumb, Techné. Research in Philosophy and Technology 15, 96 – 109. 379
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
– (2013). Engineers’ non-scientific models in technology education. International Journal of Technology and Design Education 23, 377 – 390. Ovitt Jr., George (1983). The status of the mechanical arts in medieval classifications of learning, Viator 14, 89 – 105. Peckham, S. F. (1898). The Genesis of Bitumens, as Related to Chemical Geology, Proceedings of the American Philosophical Society 37, 108 – 139. Polanyi, Michael (1966). The Tacit Dimension. London: Routledge. Schummer, J. (1997). Challenging standard distinctions between science and technology: the case of preparative chemistry. Hyle 3, 81 – 94. Sebestik, Jan (1983). The rise of the technological science, History and Technology 1, 25 – 43. Smith, Adam (1776). Wealth of Nations. Steele, R. B. (1900). The Greek in Cicero's Epistles, American Journal of Philology 21, 387 – 410. Tatarkiewicz, Wladyslaw (1963). Classification of arts in antiquity, Journal of the History of Ideas 24, 231 – 240. Taylor, Frederick Winslow ([1911] 2008). Shop Management. Sioux Falls: NuVision Publications. Tulley, Ronald Jerome (2008). Is There Techne in My Logos? On the Origins and Evolution of the Ideographic Term – Technology, International Journal of Technology, Knowledge and Society 4, 93 – 104. Vermaas, Pieter E., und Wybo Houkes (2006). Technical Functions: A Drawbridge between the Intentional and Structural Natures of Technical Artefacts, Studies in History and Philosophy of Science Part A, 37, 5 – 18. Vincenti, W. G. (1990). What engineers know and how they know it. Baltimore: Johns Hopkins University Press. – (1992). Engineering knowledge, type of design and level of hierarchy: further thoughts about What engineers know … In: P. Kroes/M. Bakker (Hg.), Technological development and science the industrial age (17 – 34). Dordrecht: Kluwer. Weisheipl, James A. (1965). Classification of the sciences in medieval thought, Mediaeval Studies 27, 54 – 9 0. Whitney, Elspeth (1990). Paradise restored. The mechanical arts from antiquity through the thirteenth century, Transactions of the American Philosophical Society 80, 1 – 169. Wilkinson, L. (1993). Epidemiology. In: W. Bynum/R. Porter (Hg.), Companion Encyclopaedia of the History of Medicine, volume 2 (1262–1282). London: Routledge. Wood, Stephen (Hg.) (1982). The Degradation of Work? London: Hutchinson. – (1987). The Deskilling Debate, New Technology and Work Organization, Acta Sociologica 30, 3 – 24.
380
2. Philosophie der Klimawissenschaften Richard Bradley, Roman Frigg, Katie Steele, Erica Thompson und Charlotte Werndl1
1 Einführung Klimawissenschaften ist ein Sammelbegriff, der sich auf wissenschaftliche Disziplinen, die Aspekte des Erdklimas studieren, bezieht. Darunter fallen unter anderem Teile der Atmosphärenwissenschaften, Ozeanographie und Glaziologie. Als Folge der öffentlichen Diskussion über angemessene Reaktionen auf den Klimawandel sind Teile der Entscheidungstheor ie und der Ökonomie für Klima fragen herangezogen worden, weswegen Beiträge aus diesen Gebieten auch zu den Klimawissenschaften im weiteren Sinne gezählt werden. Im Zentrum der Philosophie der Klimawissenschaften steht die Betrachtung der Methodologie, die zum Erreichen von Schlussfolgerungen bezgl. des Klimas verwendet wird. Die Philosophie der Klimawissenschaften ist ein Teilgebiet der Wissenschaftstheorie, das sich zu Beginn des 21. Jahrhunderts (als Wissenschaftstheoretiker begonnen haben, sich genauer mit den Methoden der Klimawissenschaften auseinander zu setzen) herauskristallisiert hat. Mittlerweile beinhaltet sie Betrachtungen über beinahe alle Aspekte der Klimawissenschaften, inklusive der Beobachtung von Daten, Methoden des Nachweises und der Zuschreibung, Modell-Ensembles und Entscheidungsfindung bei Unsicherheit. Da der Teufel bekanntlich im Detail steckt, operiert die Philosophie der Klimawissenschaften in engem Kontakt mit den Wissenschaften selbst und richtet viel Aufmerksamkeit auf wissenschaftliche Details. Aus diesem Grund gibt es keine klare Trennung zwischen den Klimawissenschaften und der Philosophie derselben und Konferenzen werden oft sowohl von Wissenschaftler/innen wie auch von Philosophen/innen besucht. Ziel dieses Artikels2 ist es, eine aktuelle Zusammenfassung der wichtigsten Probleme und Fragen in den Grundlagen der Klimawissenschaften zu liefern. Die Autoren sind in alphabetischer Ordnung aufgelistet. Frigg, Thompson und Werndl sind für die Sektionen 2 bis 6 verantwortlich, Bradley und Steele für die Sektionen 7 und 8. 2 Wir danken Reto Knutti, Wendy Parker, Lenny Smith, Dave Stainforth und zwei anonymen Gutachtern für wertvolle Diskussionen und Vorschläge. Außerdem danken wir Markus Hierl, welcher bei der Übersetzung und Formatierung des Artikels mitwirkte. Diese Forschung wurde vom britischen Arts and Humanities Research Council (grant number AH/J006033/1) und dem ESRC Centre for Climate Change Economics and Policy, welches durch das Economic and Social Research Council (Grant Nummer ES/ 1
381
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Im 2. Kapitel sprechen wir über das Problem, Klima zu definieren. Im 3. Kapitel stellen wir Klimamodelle vor. Im 4. Kapitel diskutieren wir Probleme des Nachweises und der Zuschreibung von Klimawandel. Im 5. Kapitel untersuchen wir die Bestätigung von Klimamodellen und die Grenzen der Vorhersagbarkeit. Im 6. Kapitel besprechen wir Klassifikationen von Unsicherheit und die Verwendung von Modell-Ensembles. Im 7. Kapitel wenden wir uns der Entscheidungstheor ie zu und diskutieren, in welchem theoretischen Rahmen Klima-Entscheidungsprobleme diskutiert werden sollen. Im 8. Kapitel stellen wir unterschiedliche Entscheidungsregeln vor. Im 9. Kapitel bieten wir einen Ausblick an. Zwei Klarstellungen seien vorangestellt. Erstens, wir besprechen Probleme und Fragen von einer wissenschaftstheoretischen Perspektive aus und mit speziellem Fokus auf erkenntnistheoretische und entscheidungstheoretische Probleme. Natürlich ist dies nicht die einzige Perspektive. Man kann die Klimawissenschaften auch aus dem Blickwinkel der Wissenschaftsforschung, der Soziologie der Wissenschaften, der politischen Theorie und Ethik betrachten. Aus Platzgründen können wir auf diese Gebiete nicht eingehen. Zweitens sollte, um möglichen Missverständnissen vorzubeugen, darauf hingewiesen werden, dass eine kritische philosophische Reflexion über die Ziele und Methoden der Klimawissenschaften keinesfalls gleichbedeutend mit dem Einnehmen einer Position ist, die als Klimaskeptizismus bekannt ist. Klimaskeptiker/innen sind eine heterogene Gruppe von Leuten, welche die Ergebnisse der »Mainstream«-Klimawissenschaften nicht akzeptieren. Die Gruppe umfasst ein breites Spektrum, angefangen von denjenigen, welche schlichtweg die grund legende Physik des Treibhauseffekts (und den Einfluss von menschlichen Aktivitäten auf das Klima der Erde) leugnen, bis zu einer kleinen Minderheit, die sich aktiv an der wissenschaftlichen Forschung und Diskussion beteiligt und zu Konklusionen gelangt, in denen der Klimawandel als sehr gering eingeschätzt wird. Kritische Wissenschaftstheor ie ist keine Handlangerin des Klimaskeptizismus. Darum sollte betont werden, dass wir dem Klimaskeptizismus nicht zustimmen. Unser Ziel ist es, zu verstehen, wie die Klimawissenschaften funktionieren, und über ihre Methoden zu reflektieren.
2 Definitionen von Klima und Klimawandel Diskussionen über das Klima sind sowohl in den populären Medien als auch im akademischen Bereich allgegenwärtig. Dies verschleiert die Tatsache, dass Klima ein komplexer Begriff ist, und die Definition von Klima und Klimawandel Gegenstand wissenschaftlicher Kontroversen ist. Um ein Verständnis des Begriffs K006576/1) finanziert wird, unterstützt. Professor Friggs Forschung wurde des Weiteren auch durch das Spanische Ministerium für Wissenschaft und Innovation (Grant Nummer FFI2012 – 37354) gefördert.
382
Philosophie der Klimawissenschaften
Klima zu erlangen, ist es wichtig, ihn vom Begriff Wetter zu unterscheiden. Intuitiv gesprochen ist das Wetter an einem bestimmten Ort zu einer bestimmten Zeit der Zustand der Atmosphäre an diesem Ort zu dieser Zeit. Beispielsweise ist das Wetter in Berlin-Mitte am 1. Januar 2015 um 14:00 dadurch charakterisiert, dass die Temperatur zwölf Grad beträgt, die Luftfeuchtigkeit bei 65 Prozent liegt, etc. Im Kontrast dazu liefert Klima eine summarische Aussage über Wetterbedingungen: Es ist eine Verteilung von bestimmten Variablen (die sogenannten Klimavariablen), welche sich aus einer bestimmten Konfiguration des Klimasystems ergibt. Die Frage ist, wie man diese Idee präzisieren kann. In der aktuellen Diskussion findet man zwei generelle Ansätze. Beim ersten wird Klima als Verteilung über eine Zeitspanne definiert, und beim zweiten wird Klima als Ensemble-Verteilung definiert. Zu den Klimavariablen zählen bei beiden Ansätzen jene, die den Zustand der Atmosphäre und des Ozeans beschreiben, und manchmal auch Variablen wie jene, welche den Zustand von Gletschern und Eisdecken beschreiben. Verteilung über eine Zeitspanne. Der Wert der Klimavariablen hängt von externen Bedingungen ab, wie z. B. der von der Sonne empfangenen Energie und Vulkanaktivitäten. Wir nehmen nun an, dass in einer gewissen Zeitspanne diese externen Bedingungen als konstant behandelt werden können, weil diese nur kleine Schwankungen um einen Mittelwert c aufweisen. Man kann Klima dann für diese Zeitspanne als Verteilung der Klimavariablen während dieser Zeitspanne unter konstanten Bedingungen c definieren (z. B. Lorenz 1995). Unter Klimawandel versteht man dann die Tatsache, dass aufeinanderfolgende Zeitspannen durch verschiedene Verteilungen charakterisiert werden. Allerdings sind die externen Bedingungen in der Realität nicht konstant, und selbst wenn es nur leichte Schwankungen um c gibt, kann es sein, dass die dadurch entstehenden Verteilungen sehr unterschiedlich sind. Aus diesem Grund ist diese Definition unbefriedigend. Dieses Problem kann vermieden werden, wenn man Klima als empirisch beobachtbare Verteilung über eine gewisse Zeitspanne definiert, wobei die externen Bedingungen variieren können. Unter Klimawandel versteht man dann auch wieder, dass aufeinanderfolgende Zeitspannen durch verschiedene Verteilungen charakterisiert werden. Diese Definition ist populär, weil das Klima aufgrund von Beobachtungen berechnet werden kann, wie z. B. von den Zeitreihen der letzten 30 Jahre (Hulme et al. 2009). Ein Problem dieser Definition kann an einem Beispiel illustriert werden: In der Mitte einer Zeitspanne wird die Erde von einem Meteoriten getroffen, wodurch sie zu einem viel kälteren Ort wird. Offensichtlich unterscheidet sich das Klima vor dem Einschlag von dem danach. Dieser Klimawandel kann aber durch diese Definition nicht eingefangen werden, da sie Klima als Verteilung der tatsächlichen Werte der Klimavariablen über die Zeitspanne definiert und deshalb gegenüber plötzlichen radikalen Veränderungen blind ist. Um dieses Problem zu umgehen, führt Werndl (2015) die Idee von Systemen mit variierenden externen Bedingungen ein und schlägt vor, Klima als die Verteilung 383
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
der Klimavariablen über die Zeit, die unter bestimmten Regimen von variierenden externen Bedingungen auftreten, zu definieren. Ensemble-Verteilung. Ein Ensemble von Klimasystemen (nicht zu verwechseln mit einem Ensemble von Modellen, dem wir uns weiter unten zuwenden) ist eine Sammlung von virtuellen Kopien des Klimasystems. Nun betrachten wir das Sub-Ensemble mit denjenigen Kopien, in denen die Werte der Klimavariablen in einem bestimmten Intervall um die im aktuellen Klimasystem gemessenen Werte liegen (das sind die Werte, welche mit der Messgenauigkeit kompatibel sind). Zudem betrachten wir wieder eine Zeitspanne, während der die externen Bedingungen relativ stabil sind und nur kleine Schwankungen um einen Mittelwert c aufweisen. Das Klima eines zukünftigen Zeitpunktes t wird dann häufig als die Verteilung der Werte der Klimavariablen definiert, welche auftritt, wenn alle Systeme im Sub-Ensemble sich von jetzt bis t unter konstanten externen Bedingungen c entwickeln (z. B. Lorenz 1995). Anders ausgedrückt: Das Klima in der Zukunft ist die Verteilung der möglichen Werte der Klimavariablen, welche mit den aktuellen Beobachtungen unter der Annahme von konstanten externen Bedingungen c konsistent sind. Allerdings sind die externen Bedingungen in der Realität nicht konstant. Selbst wenn es nur kleine Schwankungen um den Mittelwert gibt, kann dies zu verschiedenen Verteilungen führen (Werndl 2015). Deshalb liegt die Modifikation nahe, dass man die Entwicklung des Ensembles unter den aktuellen externen Bedingungen studiert. Das Klima zu einem zukünftigen Zeitpunktes t ist dann die Verteilung der Klimavariablen, welche auftritt, wenn das Ensemble sich vorwärts zum Zeitpunkt t entwickelt (unter den tatsächlichen externen Bedingungen). Diese Definition hat mehrere begriffliche Probleme. Erstens macht sie das Klima von unserem Wissen abhängig (durch Messgenauigkeit), was aber unseren Intuitionen widerspricht, denn wir verstehen Klima als etwas Objektives und unabhängig von unserem Wissen Existierendes. Zweitens ist die obige Definition eine Definition von zukünftigem Klima und es ist schwer zu erkennen, wie das gegenwärtige oder vergangene Klima definiert werden soll. Ohne einen Begriff von gegenwärtigem und vergangenem Klima lässt sich jedoch Klimawandel nicht definieren. Ein drittes Problem ist, dass Ensemble-Verteilungen nicht mit vergangenen Beobachtungsreihen in Verbindung stehen, was impliziert, dass das Klima nicht mit ihnen berechnet werden kann.
3 Klimamodelle Ein Klimamodell ist eine Repräsentation von bestimmten Aspekten des Klimasystems. Eines der einfachsten Klimamodelle ist das Energiebilanz-Modell, welches die Erde als Linie mit eindimensionaler Atmosphäre betrachtet. Es basiert auf dem einfachen Prinzip, dass im Gleichgewichtszustand die einfallende und die ausfallende Energie gleich sein müssen (für eine Diskussion solcher Modelle 384
Philosophie der Klimawissenschaften
siehe Dessler 2011: Kap. 3 – 6). Dieses Modell kann durch eine Einteilung der Erde in Zonen (wobei der Energietransfer zwischen den Zonen erlaubt ist) oder durch eine Einführung eines Vertikalprofils der atmosphärischen Charakterisika verfeinert werden. Trotz ihrer Einfachheit liefern diese Modelle ein gutes qualitatives Verständnis des Treibhauseffektes. Die modernen Klimawissenschaften zielen darauf ab, Modelle zu konstruieren, welche möglichst viel vom aktuellen Wissensstand integrieren (für eine Einführung in Klimamodellierung siehe McGuffie/Henderson-Sellers 2005). Normalerweise geschieht dies durch Einteilung der Erde (Atmosphäre und Ozean) in Gitterzellen. Aktuelle Klimamodelle arbeiten mit einer horizontalen Gitterskala von etwa 150 km. Klimaprozesse können dann durch Flüsse zwischen diesen Zellen beschrieben werden, wie z. B. Hitze oder Dampf von einer Zelle zur anderen. Diese Flüsse werden mathematisch durch Gleichungen beschrieben. Diese Gleichungen bilden den »dynamischen Kern« eines sogenannten »Global Circulation Model« (GCM). Diese Gleichungen können normalerweise nicht analytisch gelöst werden, weshalb leistungsstarke Supercomputer verwendet werden, um sie numerisch zu integrieren. Aus diesem Grund werden sie oft als Simulations modelle bezeichnet. Um die Gleichungen numerisch lösen zu können, wird die Zeit diskretisiert. Gegenwärtige Simulationen verwenden diskrete Zeitschritte von ca. 30 Minuten. Auf Supercomputern dauert es Wochen oder Monate, um ein Jahrhundert Klimaentwicklung zu simulieren. Um eine hypothetische Entwicklung des Klimasystems zu berechnen, benötigen wir auch Anfangs- und Randbedingungen. Die ersteren sind mathematische Beschreibungen vom Zustand des Klimasystems zu Beginn der simulierten Periode. Die letzteren sind Werte für alle Variablen, die das System betreffen, aber nicht direkt berechnet werden. Diese beinhalten z. B. die Konzentration von Treibhausgasen in der Atmosphäre zu einem bestimmten Zeitpunkt, die Konzentration von Aerosolen und die Menge der Sonneneinstrahlung auf der Erde. Weil dies Schlüsselfaktoren des Klimawandels sind, werden sie oft als externe Faktoren oder externe Bedingungen bezeichnet. Wenn Prozesse auf einer kleineren Skala als dem Gitter auftreten, dann können sie im Modell durch sogenannte Parametrisierungen berücksichtigt werden, wobei das Nettoergebnis des Prozesses gesondert als eine Funktion der GitterVariablen berechnet wird. Wolkenbildung beispielsweise ist ein physikalischer Prozess, der nicht direkt simuliert werden kann, weil Wolken typischerweise viel kleiner als eine Gitterzelle sind und das Wissen über Wolkenbildung sehr begrenzt ist. Der Nettoeffekt von Wolken wird deswegen normalerweise in jeder Gitterzelle parametrisiert (als Funktion von Temperatur, Luftfeuchtigkeit etc.) und für die Berechnungen verwendet. Prozesse, die kleiner als eine Gitterzelle sind, sind eine der Hauptquellen für die Unsicherheit in Klimamodellen. Es gibt zurzeit ca. 20 Klimamodelle, welche kontinuierlich von nationalen Modellierungszentren wie der NASA, dem britischen Met Office und dem Beijing Climate Center weiterentwickelt werden. Um die Ergebnisse dieser unterschied385
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
lichen Modelle zu vergleichen, hat das sogenannte »Coupled Model Intercomparison Project« (CMIP) eine Reihe von Standardexperimenten definiert, die von jedem Klimamodell durchlaufen werden. Eines der Standardexperimente ist, jedes Modell unter Verwendung der Faktoren, die während des 20. Jahrhunderts vorherrschend waren, laufen zu lassen. Dies erlaubt einen direkten Vergleich der Simulation mit den wirklichen Klimadaten. Klimamodelle werden an vielen Stellen in den Klimawissenschaften verwendet und ihre Verwendung wirft wichtige Fragen auf. Diese Fragen besprechen wir in den nächsten drei Kapiteln.
4 Nachweis und Zuschreibung von Klimawandel Jede empirische Studie des Klimas beginnt mit der Beobachtung des Klimas. Meteorologische Beobachtungen messen allerlei Variablen wie z. B. die Lufttemperatur nahe der Erdoberfläche unter Verwendung von Thermometern. Jedoch wurden mehr oder weniger systematische Beobachtungen erst seit ca. 1750 gemacht. Um das Klima davor zu rekonstruieren, müssen Wissenschaftler/innen sich auf Klimaproxys verlassen. Dies sind Daten für Klimavariablen, welche aus anderen natürlichen Phänomenen wie z. B. Baumringen, Eisbohrkernen und Ozeansedimenten abgeleitet werden. Die Verwendung von Klimaproxys ruft eine Reihe von methodologischen Problemen hervor. Insbesondere gaben sogenannte Hockeyschläger-Diagramme, welche eine auf Klimaproxys basierende Rekonstruktion des Temperaturverlaufs der nördlichen Hemisphäre darstellen, Anlass zu hitzigen Debatten (Mann, Bradley/ Hughes 1998). Klimaskeptiker/innen verfolgen zwei Argumentationslinien. Sie bezweifeln die Verlässlichkeit der verfügbaren Daten und behaupten, dass die zur Gewinnung der Daten verwendeten Methoden eine Kurve in Hockeyschlägerform produziert hätten, ganz egal welche Daten man verwendet hätte. Die von den Skeptikern/innen veröffentlichten Artikel haben wichtige Probleme aufgeworfen und weitere Untersuchungen angeregt, es wurde aber festgestellt, dass ihren Schlussfolgerungen gravierende Fehler zugrunde liegen. Mittlerweile gibt es mehr als zwei Dutzend Rekonstruktionen dieses Temperaturverlaufs, die unterschiedliche statistische Methoden und Klimaproxy-Quellen verwenden. Obwohl es aufgrund der begrenzten Daten und Methoden tatsächlich eine Vielfalt an möglichen Temperaturkurven gibt, unterstützen diese Studien den Konsens, dass die Temperaturen während des späten 20. Jahrhunderts sehr wahrscheinlich die wärmsten der letzten 1400 Jahre sind (Frank et al. 2010). Zeigen steigende Temperaturen an, dass es einen Klimawandel gibt, und falls ja, kann der Klimawandel menschlichen Handlungen zugeschrieben werden? Diese beiden Probleme sind als Nachweis und Zuschreibung bekannt. Das »Intergovernmental Panel on Climate Change« (IPCC) definiert diese folgendermaßen: 386
Philosophie der Klimawissenschaften
»Ein Nachweis des Klimawandels ist definiert als eine Demonstration, dass sich das Klima, oder ein anderes vom Klima beeinflusstes System, in einem statistisch beschreibbaren Sinn verändert hat, ohne einen Grund für diese Veränderung anzugeben. Eine bestimmte Veränderung wird als in Beobachtungen nachgewiesen betrachtet, wenn die Wahrscheinlichkeit, dass die Veränderung durch Zufall oder aufgrund der internen Variabilität aufgetreten ist, als klein eingestuft werden kann.« […] Zuschreibung ist definiert als »der Prozess der Evaluation der relativen Beiträge verschiedener kausaler Faktoren zu einer bestimmten Veränderung oder einem Ereignis, wobei eine statistische Konfidenz anzugeben ist« (IPCC 2013; Übersetzung der Autoren/innen).
Diese Definitionen werfen mehrere Probleme auf. Die Wurzel der Probleme ist die Aussage, dass Klimawandel nur dann nachgewiesen worden ist, wenn eine beobachtete Veränderung im Klima sehr wahrscheinlich nicht aufgrund von interner Variabilität erfolgt ist. Interne Variabilität ist das Phänomen, dass Klimavari ablen wie Temperatur und Niederschlag sich aufgrund von internen Dynamiken des Klimasystems über die Zeit verändern: Es würde wärmere und kältere Jahrzehnte und Jahrhunderte gegeben, auch wenn es überhaupt keine Menschen gäbe. Diese Definition von Nachweis hat die Konsequenz, dass es keinen internen Klimawandel geben kann. Die Eiszeiten beispielsweise würden nicht als Klimawandel gelten, wenn sie aufgrund von interner Variabilität entstanden wären. Dies widerspricht nicht nur grundsätzlichen Intuitionen über das Klima und den gängigsten Definitionen von Klima als eine endliche Verteilung über eine relativ kurze Zeitspanne (wo interner Klimawandel möglich ist); es führt auch zu Problemen in Hinblick auf Zuschreibung: Wenn nachgewiesener Klimawandel ipso facto nicht von interner Variabilität herrührt, dann ist es von Beginn an ausgeschlossen, dass bestimmte Faktoren (nämlich interne Klimadynamiken) zur Veränderung des Klimas führen können. Im Fall der Eiszeiten würden wohl viele betonen, dass interne Variabilität zu unterscheiden ist von natürlicher Variabilität. Weil die Orbitalbewegung die Eiszeiten erklärt und die Orbitalbewegung etwas Natürliches, aber Externes ist, ist dies ein Fall von externem Klimawandel. Dadurch werden zwar einige Pro bleme gelöst, aber das Problem, dass es keinen allgemein akzeptierten Weg gibt, wie man interne von externen Faktoren unterscheidet, bleibt bestehen. Derselbe Faktor wird manchmal als intern und manchmal als extern klassifiziert. Vergletscherung beispielsweise wird manchmal als interner Faktor und manchmal als externer Faktor behandelt. Ebenso wird die Biosphäre manchmal als externer Faktor behandelt, manchmal jedoch auch intern modelliert. Man könnte sogar so weit gehen, zu fragen, ob menschliche Handlungen ein externer Faktor für das Klimasystem sind. Studien behandeln menschliche Handlungen zwar normalerweise als externe Faktoren, aber es könnte konsistent dafür argumentiert werden, dass sie ein interner dynamischer Prozess sind. Die angemessene Definition hängt schlicht und einfach davon ab, für welche Fragen man sich interessiert. 387
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Die Effekte der internen Variabilität sind auf allen Zeitskalen gegenwärtig: von Schwankungen, die kürzer als einen Tag dauern und als Wetter diskutiert werden, bis zu langfristigen Veränderungen aufgrund der Zyklen der Vergletscherung. Da interne Variabilität das Ergebnis eines hochkomplexen nichtlinearen Systems ist, ist es auch unwahrscheinlich, dass die statistischen Eigenschaften von interner Variabilität über die Zeit hinweg konstant sind. Aktuelle Klimamodelle zeigen sowohl in der Größe der internen Variabilität als auch was die Zeitskala von Veränderungen betrifft signifikante Unterschiede. Schätzungen der internen Variabilität im Klimasystem werden von Klimamodellen selbst produziert (Hegerl et al. 2010), was zu einer möglichen Zirkularität führt. Dies unterstreicht die Schwierigkeiten von Aussagen bzgl. Zuschreibungen, die sich auf die obige Definition stützen, welche einen beobachteten Klimawandel nur dann anerkennt, wenn er sehr wahrscheinlich nicht auf interner Variabilität basiert. Weil die Definitionen des IPCC von vielen Klimawissenschaftlern/innen verwendet werden, wird die weitere Diskussion auf diesen Definitionen basieren. Nachweis des Klimawandels stützt sich auf statistische Tests. Studien zum Nachweis betreffen oft die Wahrscheinlichkeit eines bestimmten Ereignisses oder einer Abfolge von Ereignissen, welche man in Abwesenheit von Klimawandel vorfinden würde. In der Praxis ist es eine Herausforderung, eine angemessene Nullhypothese (das erwartete Verhalten des Systems in Abwesenheit von sich verändernden externen Faktoren) zu definieren, mit welchen dann die Beobachtungen verglichen werden können. Dies stellt keine triviale Aufgabe dar, da das Klimasystem ein dynamisches System mit nichtlinearen Prozessen und Feedbacks ist, welche auf allen Skalen aktiv sind. Die Wichtigkeit der Nullhypothese wird durch die Studie von Cohn/Lins (2005) illustriert, welche dieselben Daten mit verschiedenen Nullhypothesen vergleichen. Die Ergebnisse unterscheiden sich in ihrer Signifikanz in 25 Größenordnungen. Dies zeigt nicht, dass nur gewisse Nullhypothesen angemessen sind, aber es veranschaulicht die Sensibilität des Resultats in Bezug auf die gewählte Nullhypothese. Dies wiederum unterstreicht, wie wichtig die Wahl der Nullhypothese ist und wie schwierig es ist, eine derartige Wahl zu treffen, wenn die zugrundeliegenden Prozesse nur schlecht verstanden werden. In der Praxis wird die beste verfügbare Nullhypothese oft vom besten verfügbaren Modell abgeleitet. Dieses Modell wird verwendet, um Kontrolldurchläufe durchzuführen: Unter konstanten externen Bedingungen wird dabei die interne Variabilität des Modells abgeschätzt. Klimawandel wird dann als nachgewiesen betrachtet, wenn die beobachteten Werte außerhalb eines im Vorhinein festgelegten Bereichs der internen Variabilität des Modells fallen. Die Schwierigkeit bei dieser Methode ist, dass es nicht ein einziges »bestes« Modell zur Auswahl gibt: Viele solche Modelle existieren, die in vielerlei Hinsicht ähnlich gut sind, aber sie können, wie oben schon erwähnt, zu sehr unterschiedlicher interner Variabilität führen. 388
Philosophie der Klimawissenschaften
Die Unterschiede zwischen verschiedenen Modellen sind für die eindeutigsten Resultate, wie etwa die aktuelle Steigerung der globalen Durchschnittstemperatur, relativ unwichtig. Hier ist, wie von Parker (2010) betont wurde, der Nachweis über verschiedene Modelle hinweg robust (in Kapitel 6 wird Robustheit näher behandelt werden) und es gibt eine Vielfalt an Evidenz dafür, dass sich die globale Durchschnittstemperatur erhöht hat. Die Frage, welche Nullhypothese man verwendet und wie interne Variabilität quantifiziert wird, kann dennoch wichtig für den Nachweis von kleineren und lokalen Klimaveränderungen sein. Wenn Klimawandel nachgewiesen worden ist, dann stellt sich die Frage der Zuschreibung. Dies kann eine Zuschreibung entweder einer direkten Klimaveränderung (wie etwa einer erhöhten globalen Durchschnittstemperatur) oder einer Auswirkung einer Klimaveränderung (wie z. B. der von Waldbränden vernichteten Fläche) zu einer identifizierten Ursache (wie z. B. einem erhöhten CO -Gehalt in der Atmosphäre) sein. Wo eine indirekte Einwirkung betrachtet wird, ist ein zwei- oder mehrstufiger Ansatz möglicherweise angemessen, welcher zuerst eine direkte Klimaveränderung ausfindig macht und dann im zweiten Schritt die indirekte Klimaveränderung als deren Konsequenz zuschreibt. Ein Beispiel dafür, welches dem IPCC Good Practise Guidance Artikel (Hegerl et al. 2010) entnommen ist, ist die Zuschreibung der Auswirkung von Verkalkungen der Korallenriffe auf den CO -Gehalt. In dieser Zuschreibung wird eine Zwischenstufe verwendet: Zuerst werden die Veränderungen der Karbon-Eisen-Konzentration der Erhöhung des CO -Gehalts und dann die Verkalkungen den Veränderungen in der Karbon-Eisen-Konzentration zugeschrieben. Dies zeigt die Notwendigkeit eines klaren Verständnisses der beteiligten physikalischen Mechanismen auf, um eine verlässliche Zuschreibung durchführen zu können. Statistische Analysen messen die Stärke der Beziehung unter den vereinfachenden Annahmen, welche dem Verfahren der Zuschreibung zu Grunde liegen, aber der Konfidenzgrad in diese vereinfachenden Annahmen muss außerhalb des Rahmens bewertet werden. Dieser Konfidenzgrad ist von dem IPCC in diskrete (aber subjektive) Kategorien standardisiert worden: fast sicher (> 99%), extrem wahrscheinlich (> 95%), sehr wahrscheinlich (> 90%), etc. Das Ziel ist, die begrenzte Datenverfügbarkeit, die Adäquatheit des verwendeten Modells und die Präsenz von verzerrenden Faktoren zu berücksichtigen. Die Schlussfolgerungen werden dann entsprechend qualifiziert. Ein Beispiel ist die folgende Aussage: »Es ist extrem wahrscheinlich, dass mehr als die Hälfte der beobachteten Erhöhung der globalen Oberflächendruchschnittstemperatur von 1951 bis 2010 durch den anthropogenen Zuwachs an der Triebhausgaskonzentration und andere anthropogene Faktoren verursacht ist.« (IPCC 2013: Summary for Policymakers: section D.3; Übersetzung der Autoren/innen).
Der sogenannte Optimale Fingerabdruck ist eine Methode, um ein solches Resultat zu erreichen. Diese Methode assoziiert mit jedem potentiellen Schlüsselfaktor (z. B. Treibhausgasen oder der Veränderung der Sonneneinstrahlung) ein 389
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
raumzeitliches Muster von Veränderung (Fingerabdruck), normalisiert relativ zur internen Variabilität. Dieses Muster wird mit einem Klimamodell berechnet. Danach wird eine statistische Regression der beobachteten Daten im Hinblick auf lineare Kombination dieser Muster durchgeführt. Die restliche Variabilität, nachdem die Beobachtungen dem jeweiligen Faktor zugeschrieben wurden, sollte mit der internen Variabilität konsistent sein; wenn nicht, dann deutet dies darauf hin, dass eine wichtige Ursache für Variabilität nicht berücksichtigt wurde. Wie von Parker (2010) betont wurde, beruhen Fingerabdruck-Studien auf mehreren Annahmen. Die erste ist Linearität, d. h., dass die Reaktion des Klimasystems, wenn mehrere Faktoren gegenwärtig sind, gleich der linearen Kombination dieser Faktoren ist. Da das Klimasystem nichtlinear ist, ist dies offensichtlich eine Quelle von methodologischen Schwierigkeiten, obwohl für Prozesse auf globaler Ebene (im Kontrast zu Prozessen auf regionaler Ebene) gezeigt wurde, dass die Additivität eine gute Annäherung ist. Eine andere Annahme ist, dass Klimamodelle die kausalen Prozesse, welche im Klimasystem der Erde auftreten, genau genug simulieren. Der Erfolg von Fingerabdruck-Studien (welcher nicht trivial ist) kann dabei helfen, Bedenken über diese Annahmen zu entkräften, wie Parker auch argumentiert. Ein weiteres Problem ist einmal mehr die Notwendigkeit, die Charakteristiken von interner Variabilität zu definieren. Wie schon besprochen, wird in der Praxis interne Variabilität mit Hilfe der besten Klimamodelle abgeschätzt, welches die Problematik der Zirkularität aufwirft. In Aussagen über Zuschreibung ist der Konfidenzgrad in erster Linie vom physikalischen Verständnis der involvierten Prozesse abhängig. Wo es einen klaren, einfachen und wohlverstandenen Mechanismus gibt, sollte es größeres Vertrauen in die statistischen Ergebnisse geben; wo die Mechanismen unzusammenhängend oder mehrstufig sind oder wo ein komplexes Modell als Bindungsglied verwendet wird, ist das Vertrauen dementsprechend niedriger. Das Guidance Paper warnt: »Wo Modelle in der Zuschreibung verwendet werden, da sollte die Fähigkeit des Modells, kausale Zusammenhänge realistisch zu repräsentieren, beurteilt werden. Das sollte eine Beurteilung verzerrender Tendenzen sowie der Fähigkeit des Modells, die relevanten Prozesse auf den relevanten Skalen darzustellen, beinhalten.« (Hegerl 2010, 5; Übersetzung der Autoren/innen)
Ebenso gibt es ein größeres Vertrauen in die Resultate von Zuschreibungen, wenn die Resultate robust sind und es eine Vielfalt an Evidenz gibt, wie Parker (2010) argumentiert. Beispielsweise hat sich die Erkenntnis, dass der Temperaturanstieg gegen Ende des 20. Jahrhunderts hauptsächlich von Treibhausgasen verursacht worden ist, als robust bei einer großen Auswahl an Modellen, verschiedenen Analysetechniken und verschiedenen Faktoren herausgestellt, und es gibt eine Vielfalt an Evidenz, welche diese Behauptung stützt. Dadurch ist unser Vertrauen hoch, dass Treibhausgase die globale Erwärmung erklären. Es gibt eine interessante Frage bzgl. des Status von Methoden der Zuschreibung wie der Fingerabdruck-Methode. Der Treibhauseffekt ist gut dokumen390
Philosophie der Klimawissenschaften
tiert und in Laborexperimenten einfach zu beobachten. Manche argumentieren, dass dies ein gutes qualitatives Verständnis des Klimasystems liefert, was ausreicht, um mit Zuversicht zu behaupten, dass die globale Erwärmung real ist und dass menschlich bedingtes CO als Ursache für den Anstieg der globalen Durchschnittstemperatur identifiziert worden ist (z. B. Betz 2013). Dann würden statistische Debatten über Methoden der Zuschreibung, welche zeigen, dass vom Menschen verursachte CO -Emmisionen die globale Erwärmung verursachen, nicht mehr unbedingt benötigt. Diese Argumentationslinie wird aber nicht von allen akzeptiert. Winsberg/Goodwin (2015) etwa argumentieren, dass Fingerabdrücke entscheidend für die Zuschreibung der Erhöhung der globalen Durchschnittstemperatur durch menschlich bedingte CO -Emmisionen sind.
5 Bestätigung und Vorhersage Zwei Fragen stehen in Verbindung mit Klimamodellen im Vordergrund: Wie werden Modelle bestätigt und was ist ihre Vorhersagekraft? Bestätigung betrifft die Frage, ob und in welchem Ausmaß ein bestimmtes Modell von den Daten bestätigt wird. Lloyd (2009) argumentiert, dass viele Klimamodelle von Daten über die Vergangenheit bestätigt werden. Parker widerspricht dieser Behauptung. Sie argumentiert, dass die Annahme, dass Klimamodelle an sich bestätigt werden können, nicht ernsthaft in Erwägung gezogen werden kann, weil alle Klimamodelle falsch und empirisch nicht adäquat sind. Parker (2009) spricht sich für ein Umdenken von Bestätigung zu Adäquatheit für einen Zweck aus: Hypothesen von Klimamodellen können nur für bestimme Zwecke bestätigt werden. Beispielsweise könnte man behaupten, dass ein gewisses Klimamodell die globale Tempe ratur bis 2100 bis maximal auf einen Fehler von 0.5 Grad adäquat vorhersagt. Zur gleichen Zeit könnte man jedoch meinen, dass den Vorhersagen des globalen Niederschlagsmittelwerts bis 2100 durch das gleiche Modell nicht getraut werden kann. Katzav (2014) warnt, dass der Begriff der Adäquatheit für einen Zweck nur begrenzt nützlich ist. Er argumentiert, dass normalerweise nicht bewertet werden kann, ob ein Modell adäquat für einen Zweck ist, weil es höchst unklar ist, welche der beobachtbaren Folgerungen des Modells zeigen könnten, dass das Modell angemessen für einen Zweck ist. Stattdessen behauptet er, dass Klimamodelle bestenfalls über mögliche Zukunftsszenarien Auskunft geben können. Katzav betont zu Recht, dass Abschätzungen, ob Modelle adäquat für einen Zweck sind, schwieriger sind, als sie auf den ersten Blick erscheinen. Aber die Methode der Adäquatheit für einen Zweck sollte nicht als Ganzes verworfen werden; tatsächlich wird sie erfolgreich in verschiedenen Wissenschaften verwendet (z. B. wenn bestätigt wird, dass ideale Gasmodelle nützlich für bestimmte Zwecke sind). Ob Bewertungen der Adäquatheit für einen Zweck möglich sind oder nicht, hängt vom vorliegenden Fall ab. 391
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Wenn man herausfindet, dass ein Modell richtige Vorhersagen macht und ein anderes Modell nicht, will man die Gründe wissen, warum das erste erfolgreich ist und das zweite nicht. Lenhard/Winsberg (2010) argumentieren, dass dies hoffnungslos ist: Für komplexe Klimamodelle ist es aufgrund einer starken Version des Bestätigungsholismus unmöglich herauszufinden, wo die Fehler und Erfolge liegen. Insbesondere behaupten sie, dass es unmöglich ist, die Vorzüge und Probleme der Sub-Modelle und Teile der Modelle zu bewerten. Sie belegen ihren Standpunkt mit Fallstudien (z. B. über das Coupled Model Intercomparison Project) und behaupten, dass diese starke Version des Bestätigungsholismus auch in der Zukunft bestehen bleiben wird. Diese Behauptung, und ob dieser Bestätigungsholismus alle Modelle betrifft, ist aber fraglich. Komplexe Modelle haben verschiedene Module für die Atmosphäre, den Ozean und das Eis. Diese Module können individuell und auch zusammen gebraucht werden und es scheint plausibel, dass man so zumindest in einigen Fällen herausfinden kann, welche Vorzüge und Probleme die separaten Module haben. Ein weiteres Problem betrifft die Verwendung von Daten bei der Konstruktion von Modellen. Die Werte der Parameter von Modellen werden oft aufgrund von Beobachtungen bestimmt, ein Prozess der als Schätzung bekannt ist. Beispielsweise wird das Ausmaß der Aerosoleffekte oft mithilfe von Daten geschätzt. Wenn die Daten zur Schätzung verwendet worden sind, stellt sich die Frage, ob die gleichen Daten nochmal für die Bestätigung des Modells verwendet werden können. Wenn Daten für die Bestätigung verwendet werden, welche nicht bereits zur Schätzung verwendet worden sind, sind sie neuwertig. Wenn Daten sowohl für die Bestätigung als auch die Schätzung verwendet werden, wird dies als doublecounting bezeichnet. Wissenschaftler/innen und Philosophen/innen haben gleichermaßen argumentiert, dass double-counting nicht legitim ist und dass die Daten neuwertig sein müssen, um bestätigen zu können (Lloyd 2010; Shakley et al. 1998; Worall 2010; Frisch [i. E.]). Steele/Werndl (2013) widersprechen dieser Schlussfolgerung und argumentieren dafür, dass zumindest im Bayesianischen Rahmenwerk doublecounting legitim ist. Des Weiteren behaupten Steele/Werndl (2015), dass die klassische Model Selection Theory ein nuancierteres Bild der Verwendung von Daten anbietet als die allgemein diskutierten Positionen. Hier gibt es zwei Möglichkeiten. Erstens gibt es Methoden wie das Kreuzvalidierungsverfahren, bei welchen die Daten neuwertig sein müssen. Für das Kreuzvalidierungsverfahren werden die Daten in zwei Gruppen aufgeteilt: Die erste Gruppe wird für die Schätzung verwendet, die zweite zur Bestätigung. Zweitens gibt es Methoden wie das Akaike-Informationskriterium, für welche die Daten nicht neuartig sein müssen. Dies bringt uns zu dem zweiten Punkt: Vorhersage. Im Klima-Kontext wird typischerweise von Prognosen gesprochen. »Prognose« ist in der KlimamodellLiteratur ein technischer Ausdruck und bezeichnet eine Vorhersage, welche von einem bestimmten Strahlungsantrieb-Szenario abhängt (das Szenario ergibt sich aus den zukünftigen sozioökonomischen und technologischen Entwicklungen). 392
Philosophie der Klimawissenschaften
Das Strahlungsantrieb-Szenario wird entweder durch die Menge an Treibhausgas-Emissionen und Aerosolen bestimmt, welche der Atmosphäre zugeführt werden, oder direkt durch ihre Konzentration in der Atmosphäre. Modelle können unterschiedlich verwendet werden. Insbesondere können aus Simulationsresultaten entweder physikalische Einsichten in das System gewonnen oder aus diesen Prognosen zum zukünftigen Klima abgeleitet werden (siehe Held (2005) für eine Erörterung dieses Vergleichs). Ein großer Teil der Forschung heutzutage konzentriert sich auf Prognosen über die tatsächliche zukünftige Evolution des Klimasystems, auf Basis derer dann politische Entscheidungen getroffen werden sollen. In diesen Fällen ist es notwendig zu verstehen und zu quantifizieren, wie gut diese Prognosen voraussichtlich sein werden. Es ist zweifelhaft, ob dies mit herkömmlichen Methoden bewerkstelligt werden kann. Eine solche Methode wäre etwa, sich auf die Bestätigung eines Modells gegenüber historischen Daten zu beziehen (Kapitel 9 des IPCC (2013) befasst sich mit im Detail mit Modellevaluation) und zu argumentieren, dass die Fähigkeit eines Modells, historische Daten erfolgreich zu reproduzieren, uns Zuversicht geben sollte, dass auch die Vorhersagen in der Zukunft richtig sein werden. Das Problem ist, dass Klimaprognosen einen Bereich außerhalb eines bereits erfahrenen Strahlungsantrieb-Szenarios betreffen, und zumindest prima facie gibt es keinen Grund anzunehmen, dass Erfolg in niedrigen Strahlungsantrieb-Kontexten zu Erfolg in hohen Strahlungsantrieb-Kontexten führen wird; beispielsweise könnte ein Modell, dessen Parameter durch Daten einer Welt, in der die Arktische See von Eis bedeckt ist, geschätzt wurden, nicht mehr so gut funktionieren, wenn das Eis komplett geschmolzen ist und die relevanten dynamischen Prozesse anders sind. Aus diesem Grund haben Schätzungen mit vergangenen Daten bestenfalls begrenzte Relevanz für den Erfolg der Vorhersagen eines Modells (Oreskes et al. 1994; Stainforth et al. 2007a; 2007b; Steele/Werndl 2013). Diese Beobachtung unterstreicht, dass es keinen Konsens über die Frage der Vertrauenswürdigkeit von Modell-Ergebnissen gibt. Es herrscht jedoch Einigkeit darüber, dass Vorhersagen für Durchschnitte von großen Zeitintervallen, für größere räumliche Durchschnitte, für niedrige Spezifität und bei Vorhandensein von gutem physikalischem Verständnis besser sind; bei sonst gleichen Bedingungen sind Ereignisse in näherer Zukunft leichter vorherzusagen als Ereignisse in der fernen Zukunft. Weiter werden die Trends der globalen Durchschnittstemperatur als vertrauenswürdig erachtet, und es wird allgemein akzeptiert, dass die Durchschnittstemperatur weiter steigen wird (Oreskes 2007). Der aktuellste IPCC -Report (IPCC 2013: Summary for Policemakers, Section D.1) postuliert etwa, dass modellierte Muster und Trends der Oberflächentemperatur, auf einen globalen und kontinentalen Maßstab bezogen, vertrauenswürdig sind. Ein schwierigeres Problem betrifft die Verwendung von Modellen um detaillierte Informationen über das lokale zukünftige Klima zu erlangen. Beispielsweise hat das UKCP09-Projekt das Ziel, hochauflösende, wahrscheinlichkeitstheoretische Vorhersagen des Klimas bis zum Jahr 2100 zu machen. Diese basieren 393
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
auf dem globalen Klimamodell HadCM, welches am UK Met Office Hadley Centre entwickelt wurde. Die Wahrscheinlichkeiten werden für Ereignisse auf einem 25-km-Gitter angegeben. Spezifische Ereignisse wie z. B. die Temperaturveränderungen des wärmsten Tages im Sommer, Änderungen des Niederschlags am nassesten Tag im Winter oder die Veränderung der durchschnittlichen Wolkenmenge im Sommer werden mit Prognosen angegeben, welche in sich überschneidende Segmente von 30 Jahren eingeteilt sind, die bis zum Jahr 2100 reichen. Es ist beispielsweise prognostiziert, dass die Wahrscheinlichkeit (für ein mittleres Emissionsszenario) für eine 20 – 30%ige Reduktion des durchschnittlichen Niederschlags im Zentrum von London im Jahr 2080 bei 0.5 liegt. Die Vertrauenswürdigkeit von solchen Prognosen und deren Relevanz für die Politik wurde angefochten. Ein Modell hat einen strukturellen Modell-Fehler, wenn die Dynamik des Modells sich von der Dynamik des Zielsystems unterscheidet. Frigg et al. (2014a) weisen darauf hin, dass jeder strukturelle Modell-Fehler in chaotischen Modellen möglicherweise dazu führt, dass entscheidungsrelevanten Vorhersagen nicht getraut werden kann. Ferner gibt es wenig Grund anzunehmen, dass die Nachbearbeitung von Modell-Ergebnissen die Konsequenzen solcher Fehler korrigieren kann (Frigg et al. 2014b; 2015). Dies wirft Zweifel bzgl. der Fähigkeit auf, zum jetzigen Zeitpunkt vertrauenswürdige hochauflösende Prognosen bis ans Ende des Jahrhunderts zu machen. Die entscheidende Frage für die Forschung wäre, die Zeitskalen, bei der solche Prognosen wahrscheinlich verlässlich sind, zu bestimmen und außerhalb dieser Zeitskalen den Effekt der Inadäquatheit des Modells abzuschätzen. Wo liegt die Grenze zwischen vertrauenswürdigen und nicht-vertrauenswürdigen Prognosen? Das heißt, wo zwischen globalen Temperatur-Trends und präzisen Prognosen auf einem 25-KilometerGitter endet die Vertrauenswürdigkeit? Das ist eine entscheidende – und für die Politik enorm wichtige – Frage in der Philosophie der Klimawissenschaften, und sie ist bisher nicht gelöst. Die Schlussfolgerungen von Frigg et al. (2014a) werden von Winsberg/Goodwin (2016) bestritten. Sie argumentieren, dass hier die Beschränkungen durch Modell-Fehler überbewertet werden.
6 Verstehen und Quantifizieren von Unsicherheit Unsicherheit – ein prominentes Thema in vielen Diskussionen über die Klimawissenschaften – ist ein schlecht verstandener Begriff, der viele komplizierte Fragen aufwirft. Im Allgemeinen wird unter Unsicherheit ein Mangel an Wissen verstanden. Die erste Herausforderung ist, genauer zu beschreiben, was mit »Unsicherheit« gemeint ist und was die Quellen der Unsicherheit sind. Es wurden dahingehend bereits einige Vorschläge gemacht, die Diskussion ist aber immer noch in einer »vor-paradigmatischen« Phase. Smith/Stern (2011, 4821–4824) identifizieren vier relevante Arten von Unsicherheit: Ungenauigkeit, Mehrdeutigkeit, Nicht-Analysierbarkeit und Unbestimmtheit. Spiegelhalter/Riesch (2011) 394
Philosophie der Klimawissenschaften
betrachten eine fünfstufige Struktur mit drei Binnen-Modell-Stufen – Ereignis-, Parameter- und Modell-Unsicherheit – und zwei Extra-Modell-Stufen, welche bekannte und unbekannte Unzulänglichkeiten im Modellierungsprozess betreffen. Wilby und Dessai diskutieren das Thema mit Bezug auf sogenannten Kaskaden der Unsicherheit: Sie studieren, wie sich Unsicherheiten vergrößern, wenn man von Annahmen über zukünftige Treibhausgasemissionen Konsequenzen für lokale Klimaanpassungen ableitet. Petersen (2012: Kap. 3 und 6) stellt eine Unsicherheits-Matrix vor, in welcher er die Quellen von Unsicherheit in vertikaler und die Arten von Unsicherheit in horizontaler Richtung auflistet. Lahsen (2005) betrachtet das Thema aus dem Blickwinkel der Wissenschaftsforschung und diskutiert die Verteilung von Unsicherheit als eine Funktion der Distanzen vom Ort der Wissensproduktion. Dies sind nur einige von vielen zurzeit verfügbaren Vorschlägen. Das nächste Problem ist die Messung und Quantifizierung von Unsicherheit bezüglich Klimavorhersagen. Bei den für diese Herausforderung entwickelten Ansätzen spielen Modell-Ensembles eine zentrale Rolle. Aktuelle Berechnungen der Klimasensitivität und des Anstiegs der globalen Durchschnittstemperatur unter verschiedenen Emissionsszenarien beispielsweise werden von aus Klimamodellen bestehenden Ensembles abgeleitet. Der Grund, Ensembles zu verwenden, ist die anerkannte Unsicherheit in individuellen Modellen, welche sowohl die Anfangsbedingungen, die Parameter des Modells, als auch die Modellstruktur betrifft. Es ist eine allgemein übliche Annahme, dass Ensembles dabei helfen, die Effekte dieser Unsicherheiten zu mindern, entweder durch »robuste« Vorhersagen oder durch das Bereitstellen von numerischen Abschätzungen der Unsicherheit. (Für eine Diskussion von Modell-Ensembles siehe Parker (2013).) Bevor wir die epistemische Funktion von Ensembles diskutieren, müssen wir zwischen zwei Typen von Ensembles unterscheiden. Wie oben bereits erwähnt, enthalten Klimamodelle eine Vielzahl an Parametern. Manche repräsentieren physikalische Größen wie z. B. die Viskosität des Wassers, während andere »effektive Zusammenfassungen« von Prozessen sind, welche kleiner als das Gitter sind (wie z. B. die Wolkenbedeckung). Ein »perturbed parameter ensemble« (PPE) untersucht durch mehrmaligen Durchlauf des Modells, wie sensibel die Ergebnisse eines Modells von den Parametern abhängen. Dabei werden bei jedem Durchlauf andere Werte für die Parameter verwendet. Dadurch erforscht das Ensemble den Einfluss parametrischer Unsicherheit auf Vorhersagen; d. h. es bietet eine Sensibilitätsanalyse in Hinblick auf die gewählten Parameter. Im Gegensatz dazu besteht ein Multi-Modell-Ensemble aus mehreren verschiedenen Modellen – d. h. Modelle, welche sich nicht nur in den Werten der Parameter, sondern auch in der mathematischen Struktur und dem physikalischen Gehalt unterscheiden. Solche Ensembles werden verwendet, um zu untersuchen, wie Vorhersagen von relevanten Klimavariablen von Unsicherheit bzgl. der Modellstruktur beeinflusst werden. Ein Resultat ist robust, wenn alle (oder die meisten) Modelle im Ensemble das gleiche Ergebnis aufweisen (für eine allgemeine Diskussion der Analyse von Ro395
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
bustheit siehe Weisberg (2006)). Wenn beispielsweise alle Modelle in einem Ensemble bei einem bestimmten Emissionsszenario mehr als 4 °C Erwärmung (der globalen Durchschnittstemperatur) bis zum Ende des Jahrhunderts vorhersagen, dann ist dieses Resultat bezüglich des Ensembles robust. Rechtfertigt Robustheit größere Zuversicht? Lloyd (2010; 2015) argumentiert, dass Robustheits-Argumente in Verbindung mit Klimamodellen sehr stark sind und zumindest Kernaussagen, wie jener, dass die globale Erwärmung im 20. Jahrhunderts real ist, Glaubwürdigkeit verleihen. Im Kontrast dazu ist die Schlussfolgerung von Parker (2011) nüchtern: »Wenn die heutigen Klimamodelle darin übereinstimmen, dass eine interessante Hypothese über zukünftige Klimaveränderungen wahr ist, kann daraus nicht gefolgert werden […], dass die Hypothese wahrscheinlich wahr ist, dass die Zuversicht der Wissenschaftler in die Hypothese zunehmen sollte oder dass die Behauptung, dass es Evidenz für die Hypothese gibt, sicherer ist« (2011, 579; Übersetzung der Autoren/innen). Eines der Hauptprobleme ist, dass die heutigen Modelle sich die gleichen Annahmen bezüglich des Klimasystems teilen und die gleichen, in der Rechnerarchitektur begründeten, technologischen Begrenzungen haben. Und aus diesem Grund teilen sie sich zwangsläufig auch einige gemeinsame Fehler. Tatsächlich wurden solche gemeinsamen Fehler umfassend diskutiert (siehe z. B. Knutti et al. 2010) und mehrere Studien haben einen Mangel an Unabhängigkeit von Modellen aufgezeigt (Bishop und Abramowitz 2013; Jun et al. 2008). Wenn Modelle aber nicht unabhängig voneinander sind, dann hat ist unklar, ob Übereinstimmung zwischen ihnen epistemisches Gewicht hat. Wenn Ensembles nicht zu robusten Vorhersagen führen, dann wird die Bandbreite an Resultaten innerhalb des Ensembles oft zur quantitativen Abschätzung der Unsicherheit des Ergebnisses verwendet. Es gibt diesbezüglich hauptsächlich zwei Ansätze. Der erste Ansatz beruht darauf, das Histogramm der ModellResultate direkt in eine Wahrscheinlichkeitsverteilung zu übersetzen. Das Leitprinzip hier ist, dass die Wahrscheinlichkeit eines Ergebnisses proportional zu der Anzahl an Modellen im Ensemble ist, die zu diesem Ereignis führen. Der Gedanke, welcher dieser Methode zu Grunde liegt, scheint zu sein, dass man Modelle als austauschbare Informationsquellen behandeln kann (und deshalb auch, dass es keinen Grund gibt, einem Ensemblemitglied mehr zu trauen als irgendeinem anderen) und dies deshalb zu einer Art von Häufigkeits-Interpretation bezüglich der Wahrscheinlichkeiten führt. Wie aber oben angesprochen wurde, ist die Annahme, dass Modelle unabhängig sind, aus mehreren Gründen pro blematisch. Darüber hinaus gibt es ein weiteres Problem: Auch die Modelle der besten zurzeit verfügbaren Ensembles wie z. B. CMIP5 sind nicht dazu entworfen worden, um systematisch alle Möglichkeiten zu untersuchen, und es ist daher vorstellbar, dass es große Klassen von Modellen gibt, welche völlig andersartige Resultate produzieren würden. Solange kein Grund gefunden werden kann, dies auszuschließen, ist es nicht klar, warum die Anzahl an Ensemble-Resultaten als Richtwert für Wahrscheinlichkeiten gelten soll. Das IPCC anerkennt diese Ein396
Philosophie der Klimawissenschaften
schränkungen (siehe Diskussion im 12. Kapitel von IPCC (2013)) und vermindert die festgesetzte Wahrscheinlichkeit von Konfidenzintervallen, welche durch Ensembles hergeleiteten werden (Thomson/Frigg/Helgeson 2016). Ein gemäßigterer Ansatz betrachtet Ergebnisse von Ensembles als einen Indikator von Möglichkeiten anstatt von Wahrscheinlichkeiten. Gemäß dieser Auffassung zeigt die Bandbreite des Ensembles den Umfang der Ereignisse, welche nicht ausgeschlossen werden können. Dieser Umfang liefert eine untere Grenze der Unsicherheit (Stainforth et al. 2007b). In diesem Sinn argumentiert Katzav (2014), dass die Konzentration auf Vorhersagen fehlgeleitet ist und Modelle dazu verwendet werden sollten zu zeigen, dass gewisse Szenarien echte Möglichkeiten darstellen. Obwohl zweifelsfrei weniger stark als der Zugang über Wahrscheinlichkeiten, wirft auch dieser Ansatz viele Fragen auf. Die erste ist das Verhältnis zwischen Möglichkeit und Resultaten, die nicht ausgeschlossen werden können. Weiter: Zeigen Resultate, welche nach aktuellem Wissensstand nicht ausgeschlossen werden können, wirklich Möglichkeiten an? Wenn nicht, was ist dann ihre Relevanz für die Berechnung von unteren Grenzen der Unsicherheit? Es ist ferner wichtig, nicht zu vergessen, dass Modell-Ensembles sicherlich nicht die gesamte Breite an Möglichkeiten aufzeigen, wodurch bestimmte Typen von formalisierten Entscheidungsfindungsprozessen unmöglich werden. Für eine weiterführende Diskussion dieser Probleme siehe Betz (2009; 2010). Letztendlich betonen eine Vielzahl von Autoren/innen die Beschränkungen der modellbasierten Methoden (wie etwa Ensemble-Modellen) und argumentieren, dass jede realistische Beurteilung von Unsicherheiten sich auch auf andere Gesichtspunkte verlassen müssen wird, insbesondere auf Urteile von Experten. Petersen (2012: Kap. 4) diskutiert die Methode der Netherlands Environmental Assessment Angency (PBL), welche Expertinnen- und Expertenurteile als eine wichtige Komponente der Einschätzung von Unsicherheit betrachtet. Aspinall (2010) schlägt die Verwendung von strukturierten Experten/innen-Umfragen vor. Im Lichte der oben aufgeworfenen Probleme stellt sich die Frage, wie Unsicherheit in den Klimawissenschaften den Entscheidungsträgern/innen gegenüber kommuniziert werden soll. Der prominenteste Rahmen für die Kommunikation von Unsicherheit ist jener des IPCC . Dessen neueste Version, welcher im fünften Sachbestandsbericht (AR) verwendet worden ist, wird in der »Guidance Note for Lead Authors of the IPCC Fifth Assessment Report on Consistent Treatment of Uncertainties« eingeführt und in Mastrandrea et al. (2011) weiter erläutert. Der Rahmen basiert auf zwei Maßeinheiten für die Kommunikation von Unsicherheit. Die erste, ein qualitatives »Konfidenz-Maß«, hängt sowohl von der Art der Evidenz als auch vom Grad der Übereinstimmung unter den Experten/innen ab. Das zweite Maß ist eine quantitative Skala zur Repräsentation von Wahrscheinlichkeiten (oder etwas genauer: Intervallen von Wahrscheinlichkeiten) für relevante Klima- und Ökonomievariablen. Das folgende Zitat veranschaulicht die Verwendung dieser beiden Maße für die Kommunikation von 397
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Unsicherheit in AR: »Die Veränderung der durchschnittlichen globalen Oberflächentemperatur ist für die Zeitspanne von 2016 – 2035 relativ zu 1986 – 2005 für die vier RCPs ähnlich und wird wahrscheinlich im Bereich zwischen , °C und , °C (mittlere Konfidenz) liegen« (IPCC 2013; Übersetzung der Autoren/innen). »RCP« ist die Abkürzung für »representative concentration pathway«, also die zukünftige Konzentration von Treibhausgasen in der Atmosphäre. Eine Erörterung dieses Rahmens kann in Budescu et al. (2014) und Adler/Hadorn (2014) gefunden werden. An dieser Stelle sollte auch darauf hingewiesen werden, dass die Rolle von ethischen und sozialen Werten in Verbindung mit Unsicherheiten in den Klimawissenschaften kontrovers diskutiert wird. Winsberg (2012) beruft sich auf komplexe Simulationsmodellierung, um zu argumentieren, dass es für Klimawissenschaftler/innen nicht möglich ist, Resultate zu produzieren, welche nicht von ethischen und sozialen Werten beeinflusst sind. Noch konkreter: Er argumentiert, dass die Zuordnung von Wahrscheinlichkeiten zu Hypothesen über zukünftige Klimaveränderungen von ethischen und sozialen Werten abhängt, weil diese Werte bei der Konstruktion und der Bewertung von Klimamodellen ins Spiel kommen. Parker (2014) entgegnet, dass oft pragmatische Faktoren und nicht soziale und ethische Werte während der Bewertung und Konstruktion von Klimamodellen eine Rolle spielen. Sie argumentiert weiter, dass der Fokus nicht auf präzise, wahrscheinlichkeitstheoretische Berechnungen von Unsicherheit gelegt werden soll. Unsicherheit über zukünftige Klimaveränderungen wird durch gröbere Berechnungen angemessener dargestellt und diese gröberen Berechnungen sind weniger von Werten beeinflusst. Sie argumentiert, dass diese Einwände zeigen, dass Winsbergs Argumente zwar nicht falsch sind, der Einfluss von ethischen und sozialen Werten aber überbetont wird. Parker argumentiert weiter, dass traditionelle Probleme bezüglich des Ideals von wertfreier Wissenschaft auch in den Klimawissenschaften zum Tragen kommen. Man könnte nämlich argumentieren, dass Berechnungen von Unsicherheit selbst immer einigermaßen unsicher sind. Dadurch würde die Entscheidung für eine bestimmte Berechnung von Unsicherheit wiederum Werturteile involvieren.
7 Entscheidungen im Licht von Unsicherheit Klima-Entscheidungen haben Konsequenzen, welche sowohl Individuen als auch Gruppen an verschiedenen Orten zu verschiedenen Zeiten betreffen. Außerdem involvieren die Umstände von vielen dieser Entscheidungen Unsicherheit und Meinungsverschiedenheiten. Diese sind manchmal schwerwiegend und weitreichend; sie betreffen nicht nur den Zustand des Klimas und die weiteren sozialen Konsequenzen von Handlungen, sondern auch die Bandbreite der verfügbaren Handlungen und die Signifikanz, die wir ihren möglichen Konsequenzen beimessen. Diese Überlegungen machen Klima-Entscheidungsfindung sowohl wichtig als 398
Philosophie der Klimawissenschaften
auch schwierig. Es steht viel auf dem Spiel und die Standard-Entscheidungstheo rie sieht sich mit großen Schwierigkeiten konfrontiert. Deshalb ist eine philosophische Beschäftigung mit der Entscheidungstheor ie besonders relevant. Beginnen wir mit einer Betrachtung der Akteure/innen, die im Bereich des Klimas eine Rolle spielen, und der Art von Entscheidungsproblemen, mit denen sie konfrontiert sind. Innerhalb der Entscheidungstheor ie ist es üblich, zwischen drei Hauptgebieten zu unterscheiden: Individuelle Entscheidungstheor ie (welche sich mit Entscheidungsproblemen eines/r einzelnen Agenten/in beschäftigt), Spieltheorie (welche sich auf Fälle von strategischer Interaktion zwischen ratio nalen Agenten/innen konzentriert) und Sozialwahltheor ie (welche Vorgänge betrifft, in denen eine Vielzahl von Agenten/innen kollektiv handeln). Alle drei Bereiche sind für das Dilemma des Klimawandels relevant, ob das Anliegen nun Anpassung an den Klimawandel, Linderung des Klimawandels oder beides ist. Die angemessenen Perspektiven und Interaktionen zwischen den Agenten/innen zu bestimmen, ist wichtig, weil sonst die Bemühungen einer Entscheidungsmodellierung vergeblich sein können. Es ist z. B. möglicherweise nutzlos, sich auf die Not einzelner zu konzentrieren, wenn die Macht, eine Veränderung herbeizuführen, in Wirklichkeit bei den Staaten liegt. Es ist möglicherweise ebenso irreführend, die Erwartungen an eine gemeinsame Handlung in der Klimapolitik zu analysieren, wenn die vermeintlichen Mitglieder der Gruppe sich selbst nicht als an einer gemeinsamen Entscheidung beteiligt sehen, welche gut für die gesamte Gruppe ist. Es wäre auch irreführend, von dem Entscheidungsmodell eines/r individuellen Agenten/in den Einfluss anderer Agenten, welche in ihrem Umfeld strategisch handeln, auszuschließen. Dies soll aber nicht nahelegen, dass Entscheidungsmodelle die vorliegenden Entscheidungsprobleme immer realistisch repräsentieren müssen; der Punkt ist vielmehr, dass wir Entscheidungsmodelle nicht in einer naiven Art und Weise verwenden sollten. Die Perspektiven und Interaktionen der Agenten/innen richtig zu bestimmen, ist nur der erste Schritt in der Formulierung eines Entscheidungsproblems. Die Aufgabe, die Details des Entscheidungsproblems von der angemessenen epistemischen und evaluativen Perspektive aus zu repräsentieren, bleibt bestehen. Unser Fokus liegt hier auf der individuellen Entscheidungstheor ie, einerseits aus Platzgründen und andererseits, weil die meisten Entscheidungssituationen die Entscheidung eines Individuums betreffen, wobei ein Individuum eine Einzelperson oder eine Gruppe sein kann. Das Standardmodell der (individuellen) Entscheidungsfindung unter Unsicherheit leitet sich von den klassischen Arbeiten von Neumanns/Morgensterns (1944) und Leonard Savages (1954) ab. Es behandelt Handlungen als Funktionen, die möglichen Zuständen der Welt Konsequenzen zuordnet, welche die Ergebnisse der fraglichen Handlungen in diesem Zustand der Welt sind. Die einzige Art von Unsicherheit ist die Unsicherheit über den Zustand der Welt, und diese wird mittels einer Wahrscheinlichkeitsfunktion über mögliche Zustände der Welt quantitativ beschrieben. Die Wahrscheinlichkeiten reflektieren entweder objek399
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
tives Risiko oder den Glaubensgrad des/r Entscheidungsträgers/in (oder eine Kombination von beidem). Der relative Wert der Konsequenzen wird von einer intervallskalierten Nutzenfunktion über diese Konsequenzen repräsentiert. Entscheidungsträgern/innen wird empfohlen, die Handlung mit dem größten erwarteten Nutzen (EN) zu wählen; der EN für eine Handlung ist die Summe des wahrscheinlichkeitsgewichteten Nutzens der möglichen Konsequenzen der Handlung. Das Standardmodell ist für viele Klima-Entscheidungen inadäquat, weil es den multidimensionalen Charakter der Unsicherheit, welcher Entscheidungsträger/ innen gegenüberstehen, nicht angemessen repräsentiert. Unsicherheit ist nicht nur empirische Unsicherheit bezüglich des Zustands der Welt (Zustands-Unsicherheit). Weitere empirische Unsicherheiten betreffen die vorhandenen Optio nen und die Konsequenzen einer jeden Option für einen bestimmten Zustand (Options-Unsicherheit). Im Folgenden verwenden wir »empirische Unsicherheit« als Sammelbegriff für Zustands- und Options-Unsicherheit. Außerdem stehen Entscheidungsträger/innen einer nicht-empirischen Form von Unsicherheit gegenüber – ethischer Unsicherheit: der Frage, welche Werte möglichen Konsequenzen zugeschrieben werden sollen. Wie schon erwähnt, geht die Entscheidungstheor ie davon aus, dass alle empirische Unsicherheit als eine Wahrscheinlichkeitsverteilung über die Zustände der Welt dargestellt werden kann. Dies wirft zwei Probleme auf. Das erste ist, dass es im Fall von komplexen Entscheidungen unnatürlich wirkt, alle Unsicherheit im Zustandsraum zu verorten. Tatsächlich sind klimabezogene Entscheidungs modelle natürlicher und weniger kompliziert, wenn man erlaubt, dass die Unsicherheit über Zustände von den möglichen Handlungen abhängig ist (vgl. Richard Jeffreys (1965) Erwartung-mal-Wert-Modell), und wenn weiter Unsicherheit bezüglich der Konsequenzen zugelassen wird (dies ist ein Aspekt der Option-Unsicherheit). Es kann zum Beispiel nützlich sein, das Entscheidungsproblem mit einer Zustandsraum-Aufteilung hinsichtlich des möglichen Anstiegs der durchschnittlichen globalen Temperatur über eine gegebene Zeitperiode darzustellen. In diesem Fall würden unsere Glaubensgrade in die Zustände von der gewählten Schadensminderung-Option abhängen. Das zweite Problem ist, dass die Verwendung einer präzisen Wahrscheinlichkeitsfunktion das Ausmaß der Unsicherheit falsch darstellen kann. Selbst wenn man beispielsweise annimmt, dass die Position der wissenschaftlichen Gemeinschaft bezüglich des Klimawandels unter einer Schadensminderungsoption gut durch eine präzise Wahrscheinlichkeitsfunktion über dem Zustandsraum repräsentiert werden kann, dann ist es trotzdem wenig plausibel, dass präzise Wahrscheinlichkeiten für die mögliche Nahrungsmittelproduktion und andere ökonomische Konsequenzen angegeben werden können. Globale Entscheidungssituationen werden oft mit Hilfe eines sogenannten Integrated Assessment Modells (IAM) analysiert, welches Abhängigkeiten zwischen SchadensminderungStrategien und Klima- sowie Ökonomievariablen einschließt. Was die empirische Unsicherheit betrifft, kann Nordhaus’ (2008) Vertrauen auf »beste Schätzungen« 400
Philosophie der Klimawissenschaften
für Parameter wie Klimasensitivität mit Sterns (2007) »Konfidenzintervallen« verglichen werden. Frisch (2013) argumentiert nichtsdestotrotz dafür, dass alle bestehenden IAMs die Unsicherheit bezüglich der Modellparameter nicht adäquat repräsentieren (vgl. Weitzman 2009) und empfiehlt die Verwendung von Mengen von plausiblen Wahrscheinlichkeiten. Der Gebrauch von Mengen von Wahrscheinlichkeitsfunktionen, um schwerwiegende Unsicherheit zu repräsentieren, ist eine minimale Generalisierung des Standard-Entscheidungsmodells. Unsicherheit wird noch immer mit Wahrscheinlichkeiten beschrieben, aber die Größe der Menge reflektiert, wie schwerwiegend die Unsicherheit ist (siehe z. B. Walley 1991). In manchen Kontexten scheint es angemessen, die möglichen Wahrscheinlichkeitsverteilungen hinsichtlich ihrer Plausibilität zu gewichten (Halpern (2003) diskutiert verschiedene Ansätze). Dieser letztere Zugang passt möglicherweise besser zu den IPCC -Repräsentationen von Unsicherheit bei entscheidungsrelevanten Klima- und Ökonomievariablen. Es ist in der Tat eine wichtige Frage, ob und wie die Repräsentationen von Unsicherheit des IPCC in dem Rahmen der unpräzisen Wahrscheinlichkeiten übersetzt werden können. Eine Alternative dazu ist, die Konfidenzmaße und Wahrscheinlichkeiten des IPCC zu einer ungewichteten, unpräzisen Menge von Wahrscheinlichkeitsverteilungen zu kombinieren, welche für eine Eingabe in ein angemessenes Entscheidungsmodell geeignet sind. Entscheidungsträger/innen begegnen nicht nur empirischer, sondern auch ethischer Unsicherheit. Letztere kann eine Vielzahl unterschiedlicher Ursachen haben. Die wichtigsten treten in Zusammenhang mit Urteilen darüber auf, wie Kosten und Nutzen der Schadensminderung und Anpassung auf verschiedene Regionen und Länder verteilt werden sollen, wie Präferenzen von Personen, deren Lebensumstände von den gewählten Handlungen bezüglich des Klimawandels abhängen, und wie Menschen in der Zukunft berücksichtigt werden sollen. (Für eine Diskussion dieser ethischen Fragen verweisen wir den/die Leser/in auf Bear (2010).) Von diesen ist das letztere das am häufigsten diskutierte Thema, weil die Entscheidungen, wie drastisch Karbon-Emissionen gekürzt werden sollen, stark vom Diskontsatz abhängen (wie von Broome (2008) hervorgehoben wurde). Der Diskontsatz wird zur Gewichtung des Wohlergehens zu verschiedenen Zeitpunkten angewendet, wobei ein positiver Satz impliziert, dass zukünftiges Wohlergehen weniger Gewicht hat als gegenwärtiges Wohlergehen. Der gesamte »soziale Diskontsatz« in ökonomischen Modellen involviert neben der unverfälschten Zeitpräferenz auch andere Faktoren, die Güter und Konsum und nicht Wohlergehen per se betreffen (siehe Broome (1992) und Parfit (1984) für eine hilfreiche Diskussion). Viele Philosophen/innen betrachten jegliche unverfälschte Diskontierung von zukünftigem Wohlergehen als völlig ungerechtfertigt. Damit soll nicht bestritten werden, dass die zeitliche Dimension möglicherweise mit Eigenschaften der Verteilung von Wohlergehen, die tatsächlich ethisch bedeutsam sind, korreliert. Wenn Leute beispielsweise in der Zukunft finanziell bessergestellt sind, ist es vernünftig, betreffend ihren Interessen weniger besorgt zu sein 401
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
als gegenüber jenen der gegenwärtigen Generation. Aber die bloße Tatsache, dass ein Vorteil zu einer bestimmten Zeit eintritt, kann für seinen Wert nicht relevant sein. Nichtsdestotrotz diskontieren Ökonomen/innen Wohlergehen oft in ihren Modellen. Zudem herrscht erhebliche Uneinigkeit darüber, welcher Diskontsatz verwendet werden soll. Die Stern Review repräsentiert die oben beschriebene unparteiische Perspektive und argumentiert, dass nur ein sehr kleiner Diskontsatz (in der Größenordnung von 0.5%) gerechtfertigt ist, und dies auf Grund der kleinen Wahrscheinlichkeit des Aussterbens der menschlichen Population. Andere Ökonomen/innen hingegen betrachten eine parteiische Sichtweise als angemessener. Nach einer solchen Sichtweise, beispielsweise vertreten von Nordhaus (2007) und Arrow (1995a), sollte der Diskontsatz durch die Präferenzen der heute lebenden Menschen bestimmt sein. Aber typische Schätzungen des durchschnittlichen unverfälschten Zeit-Diskontsatzes von beobachtetem Marktverhalten sind viel höher als die von Stern verwendeten Werte (etwa 3%). Obwohl bezweifelt wurde, dass die Verwendung dieser Daten ein adäquates Maß für durchdachte Präferenzen liefert (siehe z. B. Sen 1982; Dreze/Stern 1990; Broome 1992), bleibt das Problem bestehen, dass jede plausible Methode zur Bestimmung der Einstellung der gegenwärtigen Generation gegenüber dem Wohlergehen von zukünftigen Generationen wahrscheinlich eine höhere Rate liefert als die vom Stern Review vorgeschlagene. In dem Maß, wie die Debatte über die ethische Basis für Diskontierung ungelöst bleibt, wird es ethische Unsicherheit über den Diskontsatz in klimapolitischen Entscheidungen geben. Die ethische Unsicherheit kann möglicherweise analog zur empirischen Unsicherheit repräsentiert werden – durch Ersetzung der standardmäßigen, präzisen Nutzenfunktion durch eine Menge von möglichen Nutzenfunktionen.
8 Umgang mit Unsicherheit Wie sollte ein/e Entscheidungsträger/in zwischen verschiedenen Handlungsalternativen wählen, wenn er/sie Entscheidungen unter großer Unsicherheit treffen muss? Das Problem, welchem Entscheidungsträger/innen in Klimafragen gegenüberstehen, ist, dass die genauen Nutzen- und Wahrscheinlichkeitswerte, welche von der Standard-Entscheidungstheor ie gefordert werden, möglicherweise nicht ohne Weiteres zur Verfügung stehen. Es gibt im Wesentlichen drei mögliche Antworten auf dieses Problem. Erstens kann der/die Entscheidungsträger/in die bittere Pille schlucken und versuchen, genaue Nutzen- und Wahrscheinlichkeitsurteile für die relevanten Eventualitäten anzugeben. Orthodoxe Entscheidungstheoretiker/innen argumentieren, dass die Rationalität gebietet, Entscheidungen so zu treffen, dass sie den erwarteten Nutzen der entscheidenden Person maximieren. Broome (2012, 129; Übersetzung der Autoren/innen) verteidigt diesen Ansatz entschlossen: »Der 402
Philosophie der Klimawissenschaften
Mangel an stabilen Wahrscheinlichkeiten ist kein Grund, das ErwartungswertModell aufzugeben … Bleiben Sie bei diesem Modell, denn es ist gut begründet, und tun Sie Ihr Bestes, um Wahrscheinlichkeiten und Werte zu finden.« Insbesondere wenn es um umweltpolitische Entscheidungen geht, ist es in Bezug auf die Repräsentation von Unsicherheit möglicherweise bereits ein großer Schritt, eine wohlfundierte, präzise Wahrscheinlichkeits- und Nutzenfunktion einzuführen (vgl. Steele 2006). Weitzmann (2009) beispielsweise argumentiert, dass echte Anerkennung von nicht vernachlässigbaren katastrophalen Klimakonsequenzen die Bewertung von Schadensminderung-Optionen radikal verändert. In vielen Fällen bleibt also die Frage offen, wie man Broomes Empfehlung folgen soll: Wie soll der/die Entscheidungsträger/in sich in einer nicht willkürlichen Weise für eine klare Meinung bzgl. entscheidungsrelevanten Themen entscheiden? Es gibt zwei zusammenhängende Strategien: Er/Sie kann weiter reflektieren und/oder widersprüchliche Ansichten verbinden. Die erste zielt auf die Konvergenz von Meinung, während die zweite darauf abzielt, angesichts eines bestehenden Konflikts einen Kompromiss zu finden. (Für eine Diskussion von Beratung siehe Fishkin/ Luskin (2005); mehr zur Aggregation findet man z. B. in Genest/Zidek (1986), Mongin (1995), Sen (1970), List/Puppe (2009). Es gibt vergleichsweise wenig formale Literatur über Beratung, ein fruchtbarer Beitrag ist Lehrers/Wagners (1981) Modell für die Aktualisierung von Wahrscheinlichkeitsgraden.) Zweitens kann der/die Entscheidungsträger/in versuchen, die Entscheidung, oder zumindest Aspekte davon, hinauszuzögern, in der Hoffnung, dass seine/ ihre Unsicherheit kontrollierbar wird, wenn mehr Informationen verfügbar sind oder wenn gewisse Widersprüchlichkeiten sich durch eine Einstellungsänderung von selbst auflösen. Das Hauptmotiv für das Hinauszögern einer Entscheidung ist, kostenfrei Flexibilität aufrecht zu erhalten (siehe Koopmans 1962; Kreps und Porteus 1978; Arrow 1995b). Nehmen wir an, dass wir uns zwischen dem Bau einer billigen, aber niedrigen Ufermauer und einer hohen, aber teuren entscheiden müssen, wobei der Nutzen dieser beiden Handlungsalternativen von unbekannten Faktoren wie dem Ausmaß des Anstiegs des Meeresspiegels abhängt. In diesem Fall wäre es vernünftig, die Mauer zuerst niedrig zu bauen, aber die Möglichkeit, sie später zu erhöhen, offen zu lassen. Wenn dies ohne zusätzliche Kosten gemacht werden kann, ist es klar die beste Option. In vielen Anpassungsszenarien ist das, was einer »niedrigen Ufermauer« entspricht, möglicherweise eine soziale Maßnahme, welche eine verzögerte Reaktion auf Klimaveränderungen ermöglicht, was auch immer die Details dieser Veränderung sein mögen. In vielen Fällen ist es jedoch schlicht eine Illusion, einen kostenlosen Aufschub einer Entscheidung zu erwarten, weil eine Verzögerung die Möglichkeiten aufgrund von Veränderungen eher senkt als erhöht. Dies trifft etwa bei Anpassungsentscheidungen aufgrund von Klimaveränderungen zu, ganz zu schweigen von Entscheidungen über eine Schadensminderung. Zu guter Letzt kann der/die Entscheidungsträger/in eine Entscheidungsregel verwenden, welche nicht von dem Erwartungswert-Modell vorgegeben wird und 403
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
viel geringere Ansprüche hinsichtlich der benötigten Informationen mit sich bringt. Es existieren in der Literatur viele verschiedene Vorschläge für solche Regeln. Sie stellen mehr oder weniger starke Abweichungen von der orthodoxen Theor ie dar und variieren in den Anforderungen, welche sie an die benötigten Informationen stellen. Es sollte zu Beginn angemerkt werden, dass es bei diesen nicht-standardmäßigen Entscheidungsregeln eine allgemein akzeptierte Auflage an Rationalität gibt: Wenn eine Option gemäß allen zulässigen Paaren von Wahrscheinlichkeits- und Nutzenfunktionen einen geringeren erwarteten Nutzen als eine andere hat, dann ist diese Option keine zulässige Wahl. Dies ist eine relativ minimale Bedingung, aber sie kann in manchen Entscheidungsszenarien zu einer eindeutigen Wahl einer Handlung führen. In solchen Fällen ist die schwerwiegende Unsicherheit nicht wirklich entscheidungsrelevant. Es kann beispielsweise der Fall sein, dass von der Perspektive eines/r globalen Entscheidungsträgers/in aus eine bestimmte Schadensminderungs-Option besser ist, als die Dinge wie gewohnt weiter laufen zu lassen, was auch immer die Details der Unsicherheit des Klimasystems sind. Das ist sogar noch plausibler, je nachdem inwieweit die Schadensminderungsoption als »Win-win«-Strategie gesehen werden kann (Maslin/Austin 2012), d. h. inwieweit sie andere positive Effekte z. B. auf die Luftqualität oder die Energiesicherheit ohne Bezug zur Schadensminderung nach sich zieht. Jedoch ist es in vielen schwierigeren Entscheidungskontexten so, dass diese Auflage an die Rationalität nur einige wenige Optionen als Wahlmöglichkeiten ausschließt. Ein Faktor, der oft ins Feld geführt wird, um weiter zwischen Optionen zu unterscheiden, ist Vorsicht. In der Tat ist dies eine wichtige Facette des populären, aber unklar definierten Vorsorgeprinzips. Vorsichtige Entscheidungsregeln legen mehr Gewicht auf »down-side«-Risiken: die möglichen negativen Folgen der Wahl einer Handlung. Die Maxmin-EN-Regel beispielsweise empfiehlt, die Handlung mit dem größten minimal erwarteten Nutzen zu wählen (siehe Gilboa/ Schmeidler 1989; Wallex 1991). Die Regel ist einfach anzuwenden, aber wohl viel zu vorsichtig, da sie die Bandbreite von möglichem erwarteten Nutzen nicht beachtet. Im Kontrast dazu empfiehlt die α-Maxmin-Regel die Handlung mit der größten α-gewichteten Summe des minimalen und maximalen erwarteten Nutzens, welcher mit ihr assoziiert wird. Die relative Gewichtung für den minimal und maximal erwarteten Nutzen kann entweder als Ausdruck von Pessimismus des/der Entscheidungsträgers/in angesichts der Unsicherheit oder als Grad von Vorsicht betrachtet werden (siehe Binmore 2009; für einen umfassenden Überblick über Nicht-Standard-Entscheidungstheorie siehe Gilboa/Marinacci (2012)). Eine Art von Regeln, für welche mehr Informationen benötigt werden, sind jene, welche Überlegungen bezüglich der Zuversicht und/oder Verlässlichkeit in Betracht ziehen. Der Gedanke ist, dass ein/e Agent/in mehr oder weniger zuversichtlich ist hinsichtlich der verschiedenen Wahrscheinlichkeits- und Nutzenfunktionen, welche seine/ihre Unsicherheit beschreiben. Zum Beispiel ist dies der Fall, wenn die Berechnungen von verschiedenen Modellen oder Experten/ 404
Philosophie der Klimawissenschaften
innen stammen und der/die Entscheidungsträger/in einige Modelle als durch die verfügbare Evidenz besser bestätigt betrachtet als andere oder aber die Urteile eines/r Experten/in als verlässlicher als die eines/r anderen betrachtet. In diesen Fällen ist es ceteris paribus vernünftig, Handlungen zu bevorzugen, von denen man denkt, dass sie vorteilhafte Konsequenzen haben werden. Man könnte dies etwa umsetzen, indem jeder erwartete Nutzen, der mit einer Handlung verbunden ist, in Übereinstimmung damit, wie zuversichtlich man hinsichtlich der Urteile ist, die sie unterstützen, gewichtet wird und dann die Handlung mit dem maximalen, nach Zuversicht gewichteten, erwarteten Nutzen gewählt wird (siehe Klibanoff et al. 2005). Diese Regel ist aber nicht sehr verschieden vom Maximieren des erwarteten Nutzens, und in der Tat könnte man Konfidenzgewichtung als eine Aggregationstechnik statt als alternative Entscheidungsregel betrachten. Erwägungen zur Konfidenz können allerdings nützlich sein, auch wenn präzise Konfidenzgewichtungen nicht zur Verfügung stehen. Gärdenfors/Sahlin (1982/1988) beispielsweise schlagen vor, einfach von den Erwägungen jene auszuschließen, welche unter einen Verlässlichkeits-Grenzwert fallen und dann vorsichtig aus den verbleibenden auszuwählen. Hill (2013) verwendet ein Ordinal-Maß der Konfidenz, das Grenzwerte von Verlässlichkeit zulässt, die vom Vorhaben abhängen und welche dann mit verschiedenen Vorsichtsniveaus kombiniert werden können. Schließlich gibt es verschiedene Entscheidungsregeln, welche in einem etwas anderen Sinne vorsichtig sind – sie vergleichen Optionen in Bezug auf ihre Robustheit gegenüber Unsicherheit unter der Annahme, dass ein problemspezifisches zufriedenstellendes Niveau des erwarteten Nutzens gegeben ist. Bessere Alternativen sind solche, die einen erwarteten Nutzen aufweisen, der angesichts von Unsicherheit immer noch gut genug oder zumindest nicht zu schlecht ist. Die von Ben-Haim (2001) entwickelte »Information-Gap-Theory« stellt eine Formalisierung dieser Grundidee dar, welche sich in der Umwelt-Management-Theor ie etabliert hat. Ein anderer prominenter Ansatz zur robusten Entscheidungsfindung ist jener von Lempert/Popper/Bankes (2003). Für einen Vergleich dieser beiden theoretischen Ansätze siehe Hall et al. (2012). Die betreffende Unsicherheit kann mehrere Facetten in Bezug auf die Wahrscheinlichkeiten der Zustände/ Ausgänge oder die Werte der Endausgänge haben. Die meisten Entscheidungsregeln, die auf Robustheit abzielen, setzen voraus, dass eine beste Schätzung der relevanten Variablen verfügbar ist und betrachten dann Abweichungen von dieser Schätzung. Eine robuste Option hat einen befriedigenden erwarteten Nutzen relativ zu einer Klasse von Berechnungen, welche von der besten in gewissem Maße abweichen; je größer die fragliche Klasse, desto robuster die Option. Viel hängt davon ab, welche Höhe an erwartetem Nutzen als befriedigend erachtet wird. Für Schadensminderungs-Entscheidungen ist eine anerkannte ausreichende Stufe von erwartetem Nutzen eine %-Chance, dass die durchschnittliche globale Temperatur sich um °C oder weniger erhöht. Zu beachten ist, dass man das Ziel einer solchen Schadensminderung möglicherweise anders interpretiert, nämlich als 405
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Einschränkung dessen, was als durchführbare Option gilt. Mit anderen Worten, Schadensminderungen, die ihr Ziel nicht erreichen, sind einfach unzulässige Optionen, die nicht berücksichtigt werden sollen. Für Anpassungsentscheidungen würde das zufriedenstellende Niveau vom lokalen Kontext abhängen, aber, grob gesprochen, sind die robusten Optionen jene, welche für alle ungünstigen Klimaszenarien mit nicht vernachlässigbarer Wahrscheinlichkeit vernünftige Ergebnisse liefern. Die Optionen, die dieses Kriterium erfüllen, sind meistens jene, die in allen der zuvor erwähnten Klimaszenarios einen zufriedenstellenden Effekt hätten. (Robuste Entscheidungsfindung werden beispielsweise von Dessai et al. (2009) und Wilby/Dessai (2010) befürwortet, welche diese Art von Entscheidungsregeln mit Resilienz-Strategien verbinden. Siehe auch Linkov et al. (2014) für eine Diskussion von Resilienz-Strategien.)
9 Ausblick In diesem Artikel haben wir Themen und Fragen im Zusammenhang mit den Klimawissenschaften aus wissenschaftstheoretischer Perspektive beleuchtet. Die meisten dieser Themen sind Gegenstand aktueller Forschung und verdienen weitere Aufmerksamkeit. Anstatt diese Punkte hier zu wiederholen, möchten wir ein Thema erwähnen, dem nicht die Aufmerksamkeit zugekommen ist, die es verdient: die epistemische Signifikanz von Konsens bei der Akzeptanz von Ergebnissen. Wie die gegenwärtige Kontroverse über die Arbeit von Cook et al. (2013) zeigt, scheinen doch viele der Meinung zu sein, dass der Grad des Expertenkonsenses ein wichtiger Grund dafür ist, an den Klimawandel zu glauben. Umgekehrt ist es eine klassische Taktik der anderen Seite, den Expertenkonsens anzugreifen und Zweifel zu säen. Die Rolle von Konsens im Kontext des Klimawandels verdient größere Aufmerksamkeit, als ihr bisher zuteilgeworden ist.3
Literatur Adler, Carolina E., und Gertrude H. Hadorn (2014). The IPCC and treatment of uncertainties: topics and sources of dissensus. Wiley Interdisciplinary Reviews: Climate Change 5.5, 663–676. Arrow, Kenneth J. (1995a). Discounting Climate Change: Planning for an Uncertain Future. Lecture given at Institut d'Économie Industrielle, Université des Sciences Sociales, Toulouse. Online verfügbar unter (aufgerufen 22. 08. 2014). Wir verzichten hier auf ein- bzw. weiterführende Literaturempfehlungen zur Philosophie der Klimawissenschaften, da die Disziplin noch sehr jung ist und es bislang keine zweckmäßige Literatur gibt. 3
406
Philosophie der Klimawissenschaften
– (1995b). A Note on Freedom and Flexibility. In: Kaushik Basu, Prasanta Pattanaik und Kōtarō Suzumura (Hg.). Choice, Welfare and Development. Oxford: Oxford University Press, 7–15. Aspinall, Willy (2010). A route to more tractable expert advice. Nature 463, 294–295. Bear, Paul (2010). Adaption to Climate Change: Who Pays Whom?. In: Stephen Gardiner, Simon Caney, Dale Jamieson und Henry Shue (Hg.). Climate Ethics: Essential Readings. Oxford: Oxford University Press, 247–262. Ben-Haim, Yakov (2001). Information-Gap Theory: Decisions Under Severe Uncertainty. London: Academic Press. Betz, Gregor (2009). What range of future scenarios should climate policy be based on? Modal falsificationism and its limitations. Philosophia naturalis 46, 133–158. – (2010). What’s the worst case? Analyse und Kritik 32, 87–106. – (2013). Chaos, plurality and model metrics in climate science. In: Ulrich v. Gähde et al. (Hg.). Models, Simulation, and the Reduction of Complexity. Berlin: de Gruyter, 255–263. Binmore, Ken (2009). Rational Decisions. Princeton, NJ: Princeton University Press. Bishop, Craig H., und Gab Abramowitz (2013). Climate model dependence and the replicate Earth paradigm. Climate Dynamics 41, 885–900. Broome, John (1992). Counting the Cost of Global Warming. Cambridge: The White Horse Press. – (2008). The Ethics of Climate Change. Scientific American 298, 96–102. – (2012). Climate Matters: Ethics in a Warming World. New York: Norton. Budescu, David V., Han-Hui Por, Stephen B. Broomell und Michael Smithson (2014). The interpretation of IPCC probabilistic statements around the world. Nature Climate Change 4, 508–512. Cohn, Timothy A., und Harry F. Lins (2005). Nature’s style: naturally trendy. Geophysical Research Letters 32, L23402. Cook, John, et al. (2013). Quantifying the consensus on the anthropogenic global warming in the scientific literature. Environmental Research Letters 8, 1–7. Dessai, Suraje, et al. (2009). Do We Need Better Predictions to Adapt to a Changing Climate?. Eos 90.13, 111–112. Dessler, Andrew (2011). Introduction to Modern Climate Change. Cambridge: Cambridge University Press. Drèze, Jean und Nicholas Stern (1990). Policy reform, shadow prices, and market prices. Journal of Public Economics 42.1, 1–45. Fishkin, James S., und Robert C. Luskin (2005). Experimenting with a Democratic Ideal: Deliberative Polling and Public Opinion. Acta Politica 40, 284–298. Frank, David, Jan Esper, Eduardo Zorita und Rob Wilson (2010). A noodle, hockey stick, and spaghetti plate: A perspective on high-resolution paleoclimatology. Wiley Interdisciplinary Reviews: Climate Change 1.4, 507–516. Frigg, Roman, Seamus Bradley, Hailiang Du und Leonard A. Smith (2014a). Laplace’s Demon and the Adventures of His Apprentices. Philosophy of Science 81.1, 31–59. 407
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Frigg, Roman, David A. Stainforth und Leonard A. Smith (2014b). The Myopia of Imperfect Climate Models: The Case of UKCP09. Philosophy of Science 80.5, 886– 897. – (2015). An Assessment of the Foundational Assumptions in High-Resolution Climate Projections: The Case of UKCP09 2015, Synthese 192(12), 2015, 3979–4008. Frisch, Mathias (2013). Modeling Climate Policies: A Critical Look at Integrated Assessment Models. Philosophy and Technology 26, 117–137. – (i. E.). Predictivism and old evidence: a critical look at climate model tuning. Forthcoming in: European Journal for Philosophy of Science. Gärdenfors, Peter, und Nils-Eric Sahlin [1982] (1988). Unreliable probabilities, risk taking, and decision making. In: Peter Gärdenfors und Nils-Eric Sahlin (Hg.). Decision, Probability and Utility. Cambridge: Cambridge University Press, 313–334. Genest, Christian, und James V. Zidek (1986). Combining Probability Distributions: A Critique and Annotated Bibliography. Statistical Science 1.1, 113–135. Gilboa, Itzhak, und Massimo Marinacci (2012). Ambiguity and the Bayesian Paradigm. In: Daron Acemoglu, Manuel Arellano und Eddie Dekel (Hg.). Advances in Economics and Econometrics: Theory and Applications, Tenth World Congress of the Econometric Society. Cambridge: Cambridge University Press, 179–242. Gilboa, Itzhak, und David Schmeidler (1989). Maxmin expected utility with nonunique prior. Journal of Mathematical Economics 18, 141–153. Goodwin, William, und Eric Winsberg (2016). Missing the Forest for the Fish: How Much Does the ›Hawkmoth Effect‹ Threaten the Viability of Climate Projections? Philosophy of Science 83 (5), 1122–1132. Hall, Jim W., Robert Lempert, Klaus Keller, Andrew Hackbarth, Christophe Mijere und David J. McInerney (2012). Robust Climate Policies Under Uncertainty: A Comparison of Robust Decision-Making and Info-Gap Methods. Risk Analysis 32.10, 1657–1672. Halpern, Joseph Y. (2003). Reasoning About Uncertainty. Cambridge, MA: MIT Press. Hegerl, Gabriele C., Ove Hoegh-Guldberg, Gino Casassa, Martin P. Hoerling, Sari Kovats, Camille Parmesan, David W. Pierce und Peter A. Stott (2010). Good Practice Guidance Paper on Detection and Attribution Related to Anthropogenic Climate Change. In: Thomas F. Stocker, Christopher B. Field, Qin Dahe, Vincente Barros, Gian-Kasper Plattner, Melinda Tignor, Pauline M. Midgley und Kristie L. Ebi (Hg.). Meeting Report of the Intergovernmental Panel on Climate Change Expert Meeting on Detection and Attribution of Anthropogenic Climate Change. Switzerland: IPCC Working Group I Technical Support Unit, University of Bern. Held, Isaac M. (2005). The Gap between Simulation and Understanding in Climate Modeling. Bulletin of the American Meteorological Society 80, 1609–1614. Hill, Brian (2013). Confidence and Decision. Games and Economic Behavior 82, 675– 692. Hulme, Mike, Suraje Dessai, Irene Lorenzoni und Donald R. Nelson (2009). Unstable Climates: exploring the statistical and social constructions of climate. Geoforum 40, 197–206. 408
Philosophie der Klimawissenschaften IPCC (2013). Climate Change 2013: The Physical Science Basis. Contribution of Work-
ing Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change. Cambridge and New York: Cambridge University Press. Jeffrey, Richard C. (1965). The Logic of Decision. Chicago: University of Chicago Press. Jun, Mikyoung, Reto Knutti und Douglas W. Nychka (2008). Local eigenvalue analysis of CMIP3 climate model errors. Tellus A 60.5, 992–1000. Katzav, Joel (2014). The epistemology of climate models and some of its implications for climate science and the philosophy of science. Studies in History and Philosophy of Modern Physics 46, 228–238. Klibanoff, Peter, Massimo Marinacci und Sujoy Mukerji (2005). A smooth model of decision making under ambiguity. Econometrica 73, 1849–1892. Knutti, Reto, Reinhard Furrer, Claudia Tebaldi, Jan Cermak, und Gerald A. Meehl (2010). Challenges in Combining Projections from Multiple Climate Models. Journal of Climate 23.10, 2739–2758. Koopmans, Tjalling C. (1962). On flexibility of future preference. Cowles Foundation for Research in Economics, Yale University, Cowles Foundation Discussion Papers 150. Kreps, David M. und Evan L. Porteus (1978). Temporal resolution of uncertainty and dynamic choice theory. Econometrica 46.1, 185–200. Lahsen, Myanna (2005). Seductive Simulations? Uncertainty Distribution Around Climate Models. Social Studies of Science 35.6, 895–922. Lehrer, Keith, und Carl Wagner (1981). Rational Consensus in Science and Society. Dordrecht: Reidel. Lempert, Robert J., Steven W. Popper und Steven C. Bankes (2003). Shaping the Next One Hundred Years: New Methods for Quantitative Long-Term Policy Analysis. Santa Monica, CA: RAND Corporation, MR-1626-RPC . Lenhard, Johannes, und Eric Winsberg (2010). Holism, entrenchment, and the future of climate model pluralism. Studies in History and Philosophy of Modern Physics 41, 253–262. Linkov, Igor, et al. (2014). Changing the resilience program. Nature Climate Change 4, 407–409. List, Christian, und Clemens Puppe (2009). Judgment aggregation: a survey. Paul Anand, Prasanta Pattanaik und Clemens Puppe (Hg.). Oxford Handbook of Rational and Social Choice. Oxford: Oxford University Press, Kapitel 19. Lorenz, Edward N. (1995). Climate is what you expect. Prepared for publication by NCAR. Unpublished, 1– 33. Lloyd, Elisabeth A. (2009). Varieties of Support and Confirmation of Climate Models. Proceedings of the Aristotelian Society Supplementary Volume LXXXIII, 217– 236. – (2010). Confirmation and robustness of climate models. Philosophy of Science 77, 971–984. – (2015). Model robustness as a confirmatory virtue: The case of climate science. Studies in History and Philosophy of Science 49, 58–68. 409
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Mann, Michael E., Raymond S. Bradley und Malcom K. Hughes (1998). Global-scale temperature patterns and climate forcing over the past six centuries. Nature 392, 779–787. Maslin, Mark, und Patrick Austin (2012). Climate models at their limit?. Nature 486, 183–184. Mastrandrea, Michael D., Katherine J. Mach, Gian-Kasper Plattner, Ottmar Edenhofer, Thomas F. Stocker, Christopher B. Field, Kristie L. Ebi, und Patrick R. Matschoss (2011). The IPCC AR5 guidance note on consistent treatment of uncertainties: a common approach across the working groups. Climatic Change 108, 675–691. McGuffie, Kendal und Ann Henderson-Sellers (2005). A Climate Modelling Primer. New Jersey: Wiley. Mongin, Philippe (1995). Consistent Bayesian Aggregation. Journal of Economic Theory 66.2, 313–351. von Neumann, John, und Oskar Morgenstern (1944). Theory of Games and Economic Behaviour. Princeton: Princeton University Press. Nordhaus, William D. (2007). A Review of the Stern Review on the Economics of Climate Change. Journal of Economic Literature 45.3, 686–702. – (2008). A Question of Balance. New Haven, CT: Yale University Press. Oreskes, Naomi (2007). The Scientific Consensus on Climate Change: How Do We Know We’re Not Wrong?. In: Joseph F. C. DiMento und Pamela Doughman (Hg.). Climate Change: What It Means for Us, Our Children, and Our Grandchildren. Boston: MIT Press, 65–99. –, Kristin Shrader-Frechette und Kenneth Belitz (1994). Verification, validation, and confirmation of numerical models in the Earth Science. Science New Series 263.5147, 641–646. Parfit, Derek (1984). Reasons and Persons. Oxford: Clarendon Press. Parker, Wendy S. (2009). ›Confirmation and Adequacy for Purpose in Climate Modelling.‹ Aristotelian Society Supplementary Volume 83.1, 233 – 249. – (2010). Comparative Process Tracing and Climate Change Fingerprints. Philosophy of Science 77, 1083–1095. – (2011). When Climate Models Agree: The Significance of Robust Model Predictions. Philosophy of Science 78.4, 579–600. – (2013). Ensemble modeling, uncertainty and robust predictions. Wiley Interdisciplinary Reviews: Climate Change 4.3, 213–223. – (2014) ›Values and Uncertainties in Climate Prediction, Revisited.‹ Studies in History and Philosophy of Science Part A 46 (2014), 24 – 30. Petersen, Arthur C. (2012). Simulating Nature: A Philosophical Study of Computer-Simulation Uncertainties and Their Role in Climate Science and Policy Advice. Boca Raton, Florida: CRC Press. Savage, Leonard J. (1954). The Foundations of Statistics. New York: John Wiley & Sons. Sen, Amartya K. (1970). Collective Choice and Social Welfare. San Francisco: Hol den-Day Inc. 410
Philosophie der Klimawissenschaften
– (1982). Approaches to the choice of discount rate for social benefit–cost analysis. Discounting for Time and Risk in Energy Policy (ed. R. C. Lind), 325–353. Washington, DC: Resources for the Future. Smith, Leonard A., und Nicholas Stern (2011). Uncertainty in science and its role in climate policy. Phil. Trans. R. Soc. A 369.1956, 4818–4841. Spiegelhalter, David J., und Hauke Riesch (2011). Don't know, can't know: embracing deeper uncertainties when analysing risks. Phil. Trans. R. Soc. A 369, 4730–4750. Stainforth, David A., Myles Allen, Edward R. Tredger und Leonard A. Smith (2007a). Confidence, Uncertainty and Decision-support Relevance in Climate Predictions. Philosophical Transactions of the Royal Society A 365, 2145–2161. Stainforth, David A., Thomas E. Downing, Richard Washington, Ana Lopez und Mark New (2007b). Issues in the Interpretation of Climate Model Ensembles to Inform Decisions. Philosophical Transactions of the Royal Society A 365, 2163–2177. Steele, Katie (2006). The precautionary principle: a new approach to public decision-making?. Law Probability and Risk 5, 19–31. – und Charlotte Werndl (2013). Climate Models, Confirmation and Calibration. The British Journal for the Philosophy of Science 64, 609–635. – und Charlotte Werndl (2015). Model Selection Theory: The Need for a More Nuanced Picture on Use-Novelty and Double-Counting. The British Journal for the Philosophy of Science, doi: 10.1093/bjps/axw024. Stern, Nicholas (2007). The Economics of Climate Change: The Stern Review. Cambridge: Cambridge University Press. Erica Thompson, Roman Frigg, and Casey Helgeson (2016): Expert Judgment for Climate Change Adaptation. Philosophy of Science 83(5), 1110–1121. Walley, Peter (1991). Statistical Reasoning with Imprecise Probabilities. New York: Chapman and Hall. Weitzman, Martin L. (2009). On Modeling and Interpreting the Economics of Catastrophic Climate Change. The Review of Economics and Statistics 91.1, 1–19. Werndl, Charlotte (2015). On defining climate and climate change. The British Journal for the Philosophy of Science 67 (2), 337–364. doi, 10.1093/bjps/axu48. Wilby, Robert L., und Suraje Dessai (2010). Robust adaptation to climate change. Weather 65.7, 180–185. Winsberg, Eric (2012). Values and Uncertainties in the Predictions of Global Climate Models. Kennedy Institute of Ethics Journal 22, 111–127.
411
3. Philosophie der Geo- und Umweltwissenschaften Henk de Regt, Chris J. J. Buskes und Maarten G. Kleinhans
1 Einleitung Wissenschaftsphilosophen befassen sich erst seit kurzem mit den Geowissenschaften.1 Ein Grund für diese lange Vernachlässigung mag in der Annahme zu finden sein, dass die Geowissenschaften keine autonome Wissenschaft darstellen, sondern einfach auf scheinbar fundamentalere Wissenschaften wie Physik und Chemie reduziert werden können. Obwohl das Konzept der Reduktion in den letzten Dekaden sehr angezweifelt wurde und Disziplinen wie Biologie und Psychologie den Status der autonomen »Spezialwissenschaften« erhielten (Fodor 1974; Dupré 1993), fanden die Geowissenschaften in dieser Debatte kaum Erwähnung, wahrscheinlich, weil von den Phänomenen und Prozessen, mit denen sie sich befassen, angenommen wird, dass sie rein chemischer oder physikalischer Natur seien und daher leicht auf basalere Ebenen reduziert werden können. Dieses Kapitel wird aufzeigen, dass die Geowissenschaften die Aufmerksamkeit der Wissenschaftsphilosophie verdienen. Die Geowissenschaften haben typische Eigenschaften, die sie von anderen Naturwissenschaften unterscheiden. Diese Eigenschaften werden im Zuge der Analyse von geowissenschaftlichen Erklärungen hervorgehoben werden. Der zweite Abschnitt wird kurz die fachlichen Ziele der Geowissenschaften darstellen. Im dritten Abschnitt wird der Frage nachgegangen, ob der Reduktionismus auf die Geowissenschaften angewandt werden kann. Zunächst wird die Beschaffenheit von geowissenschaftlichen Theo rien und Gesetzen diskutiert. Danach wird untersucht, ob es emergente geowissenschaftliche Phänomene gibt, die nicht auf Phänomene auf der chemischen oder physikalischen Ebene reduziert werden können. Der vierte Abschnitt wird sich mit den unterschiedlichen Erklärungen befassen, die in den Geowissenschaften auftreten. Wir diskutieren, wie narrative Erklärungen angewandt werden und ob diese auf kausale Erklärungen zurückgeführt werden können.2 Das Konzept der Siehe beispielsweise Rethinking the Fabric of Geology (Baker 2013), das Beiträge der Philosophen Carol Cleland, Derek Turner, Gadi Kravitz, und Robert Frodeman enthält; siehe Bakers Einleitung für einen kurzen Abriss der (historischen) Beziehung zwischen Philosophie und Geologie. Kürzlich erschienene, einführende Bücher wie Paleontology: A Philosophical Introduction (Turner 2011) und Science, Philosophy and Philosophical Geography (Inkpen/Wilson 2013) widmen sich der philosophischen Analyse der Geowissenschaften. 2 Wir verwenden den Ausdruck »kausale Erklärung« allgemein für die Art der Erklä1
413
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Unterbestimmtheit spielt in unserem Argument eine zentrale Rolle: Geowissenschaftliche Theor ien und Hypothesen sind im Allgemeinen durch die vorhandenen Beweise unterbestimmt und lassen damit keine rein kausalen Erklärungen zu. Typischerweise kommt in den Geowissenschaften daher eine Kombination von kausalen und narrativen Erklärungen zur Anwendung. Zu guter Letzt werden wir eine methodologische Strategie darstellen, die charakteristisch für die Geowissenschaften ist: die Abduktion oder das Schließen auf die beste Erklärung.
2 Gegenstand und Ziele der Geowissenschaften Geowissenschaftler untersuchen die Erde, genauer gesagt, ihre Struktur, Phänomene, Prozesse und Geschichte. Was genau ist es aber, das Geowissenschaftler mit der Erforschung der Erde bezwecken? Einer der Begründer der Geowissenschaften, James Hutton, schlägt in seinem Werk System of the Earth vor die Erscheinungen auf der Erde zu untersuchen, um die Prozesse zu verstehen, die in der Vergangenheit stattgefunden haben. Auf diese Weise vermögen wir über die Gesetzmäßigkeiten der Naturphilosophie Wissen über Ordnung und System im Haushalt dieses Erdballs erlangen und uns eine rationale Meinung über den Lauf der Natur, oder auch zukünftige Begebenheiten, aneignen (Hutton 1785, 2).
Hutton sah scheinbar die historische Beschreibung (sich Wissen über den »Lauf der Natur« anzueignen) als das primäre Ziel der Geowissenschaften an, aber das Zitat deutet auch an, dass kausale Erklärungen und Vorhersagen Ziele sind. Vor kurzem unterschied Rachel Laudan folgende zwei Ziele: Eines ist historisch: die Geologie sollte die Entwicklung der Erde von ihren frühesten Anfängen bis zur Gegenwart beschreiben. Das andere ist kausal: die Geologie sollte die Mechanismen, die die Erde formen und ihre distinkten Objekte hervorbringen, darlegen (Laudan 1987, 2).
Dieses zweifache Ziel ergibt sich daraus, dass manche Phänomene, beispielsweise Kometeneinschläge, und ihre Auswirkungen auf die Geschichte des Lebens sich scheinbar nur als Resultat von kumulativen Zufällen erklären und aus dürftigen Beweisen ableiten und rekonstruieren lassen, während andere Phänomene wie Meereszirkulationen scheinbar eine Struktur haben, die sich durch physikalische Gesetze erklären lässt. Es stellen sich nun zwei miteinander zusammenhängende Fragen: erstens, ob die Geowissenschaft eine historische oder eine nomologische (d. i. eine Gesetze rung, wie sie in den Naturwissenschaften gebräuchlich ist (im Gegensatz zu beispielsweise narrativen, funktionalen und teleologischen Erklärungen). Selbstverständlich sind wir uns dessen bewusst, dass diese Art der Erklärung auf unterschiedliche Arten präzisiert werden kann, aber dies soll im vorliegenden Fall außer Acht gelassen werden (s. § 4).
414
Philosophie der Geo- und Umweltwissenschaften
formulierende) Wissenschaft ist oder eine Kombination der beiden. Zweitens, ob das Ziel der Geowissenschaften Beschreibung, Erklärung oder beides ist. Diese beiden Fragen hängen insofern zusammen, als historischen Wissenschaften normalerweise deskriptive Ziele, nomologische Wissenschaften hingegen erklärende Ziele haben – dies entspricht der traditionellen Trennung zwischen historischer Beschreibung und nomologischer Erklärung. Dies ist allerdings nicht notwendigerweise so: Man könnte alternativ auch behaupten, dass historische Wissenschaften auch erklären können oder dass weder historische noch nomologische Wissenschaften Erklärungen liefern können. Im Übrigen können »echte« Wissenschaften sowohl historische Beschreibungen als auch nomologische Erklärungen liefern. Das bedeutet, dass die Unterscheidung zwischen den beiden eine von »Idealtypen« ist. Die zweite Frage ist Teil einer lang anhaltenden Debatte über die Frage, ob es eine weitere Kategorie von Erklärungen gibt, die historische Beschreibungen ausmachen, nämlich sogenannte narrative Erklärungen. Diejenigen, die dieses Konzept ablehnen, tun dies entweder mit der Begründung, dass historische Wissenschaften überhaupt keine Erklärungen zulassen, oder glauben, dass deren Erklärungen mit denen der Naturwissenschaften gleichzusetzen seien (letztere Option lässt uns immer noch die Wahl zwischen verschiedenen rivalisierenden Theor ien von wissenschaftlichen Erklärungen). Im vierten Abschnitt werden wir argumentieren, dass, obwohl die Geowissenschaft eine teilweise historische Wissenschaft ist, sie dennoch Erklärungen ermöglicht, da die historischen Beschreibungen von Geowissenschaftlern narrative Erklärungen sind, die kausale Erklärungen, sequentielle Rekonstruktionen der geologischen Vergangenheit, Beobachtungen und Hintergrundtheorien beinhalten. Obwohl die Geowissenschaften auf den ersten Blick lediglich ein einziges Untersuchungsobjekt zu haben scheinen (die Erde), eröffnet sich bei näherer Betrachtung ein Dschungel von Subdisziplinen und Ansätzen. Diese diversen Konzepte und Techniken werden sowohl innerhalb der Geowissenschaften entwickelt als auch aus anderen Disziplinen wie etwa der Logik, Mathematik, Physik, Chemie, Biologie und Computermodellierung übernommen. Es scheint kein Ansatz zu existieren, der die diversen Theorien, Themen und Techniken vereinen könnte. Die Geowissenschaften sind in viele Subdisziplinen mit unterschiedlichen Zielen unterteilt.3 Subdisziplinen mit historischen Zielen behandeln unterschiedliche Fragestellungen und verwenden andere Erklärungsstrategien als Subdisziplinen, die hauptsächlich kausale Fragestellungen untersuchen. In Abbildung 1 wird dies verdeutlicht, indem der Unterschied zwischen deduktiven, induktiven und abduktiven Strategien dargestellt wird. Eine unvollständige Liste von Disziplinen umfasst: Geologie, Geophysik, Sedimentologie, physikalische Geographie, Geomorphologie, Biogeologie, Biogeographie, Bauingenieurwissenschaften, Geodäsie, Bodenkunde, Umweltwissenschaften, Planetologie, Geochemie, Meteorologie, Klimatologie, Ozeanographie. 3
415
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
induction, statistical generalisation, extrapolation
causes, minor premises, begin situation, initial and boundary conditions, external forcings, action
ind
effects, consequences, end situation, outcome, reaction
uc
ti o
n
de
abduction
c du
ti o
n
deduction, nomological explanation, (model -) prediction
laws of nature, major premises, generalisations, statistical populations
abduction, inference to the best explanation, reconstruction of the past, hypothesis formulation Abb. 1 : Drei Arten des Schließens, die jeweils von den Ursachen, Wirkungen oder Gesetzen ausgehen; jeweils zwei sind notwendig, um auf die dritte schließen zu können.
Wissenschaftler interessieren sich für Ursachen, Wirkungen und Gesetze (die drei Ecken des Dreiecks). Im Allgemeinen sind zwei der drei Aspekte bekannt und auf den Dritten soll geschlossen werden. Die drei Möglichkeiten des Schließens sind Deduktion, Induktion und Abduktion. Die Verknüpfung von Ursachen und Gesetzen, um Wirkungen vorherzusagen, stellt eine Form der Deduktion dar. Die Kombination von Ursachen und Wirkungen um Gesetze oder Generalisierungen zu identifizieren, ist eine Form der Induktion. Wenn schließlich Ursachen aus dem Wissen um Wirkungen und Gesetze abgeleitet werden, handelt es sich um eine Abduktion. Geomorphologen behaupten beispielsweise, dass sie allgemeine physikalische Prozesse mit Hilfe von Deduktion und Induktion untersuchen, während Geologen die geologische Vergangenheit mit Hilfe von Abduktionen rekonstruieren. Fachleute setzen Ersteres mit kausaler Erklärung und Letzteres mit historischer Beschreibung gleich; diese wird von vielen Verfech416
Philosophie der Geo- und Umweltwissenschaften
tern des ersteren Ansatzes jedoch als minderwertig angesehen. Dementsprechend wird die Debatte, ob historische Narrative auf allgemeine, prozessorientierte Erklärungen zurückgeführt werden können, vor allem in Instituten, in denen beide Subdisziplinen vertreten sind, heftig geführt (dieser Umstand wird in Abschnitt 4.1 genauer behandelt; für eine ausführlichere Abhandlung siehe Kleinhans et al. 2005).
3 Die Autonomie der Geowissenschaften Können die Geowissenschaften auf grundlegendere Wissenschaften wie Chemie und Physik reduziert werden? Nach dem gängigen Modell der Reduktion (Nagel 1961) würde dies voraussetzen, dass die Gesetze und Theor ien der Geowissenschaften von den Gesetzen der Chemie und Physik abgeleitet werden können; dies wiederum ist nur mit Hilfe von Brückenprinzipien möglich, die die Ausdrücke in den jeweiligen Gesetzen miteinander in Beziehung setzen. Nagels Modell enthält eine starke Form der Reduktion, die entweder »Typ-Typ-« oder »globale« Reduktion genannt wird, weil sie reduktionistische Beziehungen zwischen allgemeinen Gesetzen oder Theorien spezifiziert. Nagels Modell der Reduktion bringt allerdings zwei große Probleme mit sich: (1) Oft gibt es keine Brückenprinzipien; (2) Gesetze auf höheren Ebenen entsprechen nicht den traditionellen Kriterien der Gesetzmäßigkeit, vor allem hinsichtlich der Bedingung, dass Gesetze allgemein gültige und ausnahmslose Verallgemeinerungen darstellen sollen. Als Reaktion darauf wurden schwächere Konzepte der Reduktion entwickelt. In diesem Abschnitt werden wir zunächst der Frage nachgehen, ob die Geowissenschaften auf Chemie oder Physik reduzierbar sind. In Abschnitt 3.1 analysieren wir zunächst die geowissenschaftlichen Theor ien und Gesetze und werfen die Frage auf, ob sie nach Nagel reduziert werden können. Unsere Antwort ist, dass Nagels Modell in diesem Fall nicht angewandt werden kann, dass die Geowissenschaften aber nichtsdestotrotz reduziert werden können, wenn auch auf schwächere Weise. Danach erörtern wir, ob die Existenz von scheinbar emergenten Phänomenen in den Geowissenschaften ein Argument gegen den Reduktionismus darstellt.
3.1 Theorien und Gesetze Wie sind Theor ien und Gesetze, die Geowissenschaftler anwenden, beschaffen? Zunächst muss angemerkt werden, dass Geowissenschaftler aufgrund des historischen Ziels den Terminus »Theor ie« oft in Bezug auf hypothetische historische Begebenheiten verwenden. Das berühmteste Beispiel hierfür ist die »Impakttheo rie«, die das Massenartensterben vor 65 Millionen Jahren erklären soll; laut der »Theor ie« führte der Einschlag eines Meteoriten auf der Erde vor 65 Millionen 417
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Jahren zu einem radikalen Klimawandel und damit einhergehend zu einem Massensterben von Arten, unter denen sich auch die Dinosaurier befanden. Diese Hypothese stellt insofern eine Theor ie dar, als sie ein Ereignis oder eine Kette von Ereignissen in der Vergangenheit postuliert (die damit auch nicht mehr beobachtbar sind). So werden die beobachteten Phänomene zwar erklärt, aber es handelt sich dennoch nicht um eine Theor ie in dem Sinne, dass sie Gesetze spezifizieren oder ein allgemeines Modell für die Erklärung von Phänomenen bereitstellen würde. Ein offensichtliches Beispiel für letztgenannte Art von Theor ien ist die Theo rie der Plattentektonik, die oft als die große, vereinende Theor ie der Geowissenschaften gepriesen wird, in denen sie eine vergleichbare Vormachtstellung innehat wie die Theor ie der natürlichen Selektion in der Biologie. Die Theor ie der Plattentektonik vermag die Verschiebung der Kontinente auf mechanistische Weise zu erklären und wurde zuerst von Alfred Wegener als Hypothese über die Entstehung von Gebirgen und die Form der Kontinente formuliert. Sie erklärt auch eine Reihe anderer Phänomene und Prozesse, die in fast jede für Geowissenschaftler relevante zeitliche und räumliche Größenordnung fallen: Die Kontinentalverschiebungen und die Gebirgsbildung sind Langzeitprozesse, während Erdbeben und vulkanische Aktivitäten Kurzzeitphänomene darstellen, die sehr wahrscheinlich innerhalb einer menschlichen Lebenszeit auftreten. Wie steht es nun aber um die genaue Beschaffenheit und das Ausmaß der Verallgemeinerung der Plattentektonik? Ist Letzter als Gesetz anzusehen? Die Theo rie beschreibt die Entstehung und die Bewegung von Platten und postuliert einen zugrundeliegenden Prozess unter der Erdoberfläche (Mantelkonvektion), der die Kräfte hervorbringt, die die Entstehung und Bewegung der Platten verursachen. Die Theor ie liefert für die Manteldynamiken anderer Planeten – zum Beispiel für die Venus und den Mars – sehr unterschiedliche Ergebnisse, die jedoch beide mit den Beobachtungen auf den jeweiligen Oberflächen übereinstimmen. Daher stellt die Plattentektonik ein generelles Modell für die Entstehung und Bewegung von Krusten und für die Mantelkonvektion dar, das in diversen Situationen und auf verschiedenen Planeten gültig ist. Ein einfaches Beispiel für eine Verallgemeinerung (ein Kandidat für ein Gesetz) in der Plattentektonik stellt folgende Behauptung dar: »Erdbeben entstehen innerhalb der Erdplatte, wenn sie unter den Mantel geschoben wird.« Handelt es sich hierbei um ein Gesetz? Nicht, wenn man herkömmliche Kriterien anlegt, da die Behauptung nicht allgemein gültig ist: Sie bezieht sich auf eine bestimmte raum-zeitliche Umgebung, nämlich die Erde, wie wir sie heute kennen. Sie enthält überdies spezifische, geowissenschaftliche Termini wie »Erdbeben«, »Platte«, »Subduktion« und »Mantel«. Wenn man Brückenprinzipien spezifiziert, indem man diese Termini in die Sprache der Chemie und Physik überführt, wird ersichtlich, dass sie sich entweder auf kontingente Verteilungen von Masse auf der Erde beziehen:
418
Philosophie der Geo- und Umweltwissenschaften •
»Mantel« bezeichnet die steinige, aber leicht flüssige Schicht um den Erdkern, die aus Mineralien mit den Hauptbestandteilen Eisen, Magnesium, Silizium und Sauerstoff besteht (im Gegensatz zum Erdkern, der das metallische Herz stück des Planeten darstellt); • unter »Platte« versteht man ein abgebrochenes Stück der rigiden äußersten Erdschicht (zur Zeit hat die Erde 12 Platten). Oder sie beziehen sich auf Prozesse, die mit dem spezifischen Gefüge der Erde zu tun haben: •
»Erdbeben« nennt man das Versagen einer Platte, sobald die Haftreibung überschritten wird und sich ein Block gegen einen anderen verschiebt und so Schwingungen und seismische Wellen ausgelöst werden; • »Subduktion« beschreibt das Absinken von schwerem Material der Kruste in flüssiges Material, welches durch die Kollision von zwei Platten erzeugt wird (die Kollision wiederum wird von der Konvektion im Mantel ausgelöst). Obwohl Plattentektonik sich prinzipiell auf andere erdähnliche Planeten anwenden lässt (siehe beispielsweise Van Thienen et al. 2004), ist dennoch klar, dass ihre »Gesetze« sich von denen der Physik und Chemie insofern unterscheiden, als ihre Gültigkeit nicht allgemein ist und mehr von den spezifischen Umständen des jeweiligen Planten abhängt. So lassen sich plattentektonische Modelle beispielsweise nicht auf die Gasgiganten des äußeren Sonnensystems anwenden. Mit anderen Worten, das Modell beinhaltet keine Gesetze im herkömmlichen Sinne der allgemeinen ausnahmslosen Regelmäßigkeiten; es beschreibt lediglich kontingente Phänomene, die von der jeweiligen Konfiguration der Erdstruktur abhängen. Diesbezüglich lässt sich die Analyse, die Beatty (1995) für biologische Verallgemeinerungen durchgeführt hat, auch auf die Plattentektonik anwenden. Beatty formuliert seine »evolutionäre Kontingenzthese« folgendermaßen: »Alle Verallgemeinerungen bezüglich der lebendigen Welt sind (a) rein mathematische, physikalische oder chemische Verallgemeinerungen (oder deduktive Konsequenzen von mathematischen, physikalischen oder chemischen Verallgemeinerungen in Kombination mit den Anfangsbedingungen) oder (b) rein biologische Verallgemeinerungen: in diesem Fall beschreiben sie kontingente Ergebnisse der Evolution.«4 Wir schlagen vor, Beattys evolutionäre Kontingenzthese auf alle geowissenschaftlichen Verallgemeinerungen wie Plattentektonik anzuwenden.5 Beatty (1995, 46 f.). Für eine aktuelle Diskussion von Beattys Kontingenzthese siehe Raerinne (2015). 5 Selbstverständlich bestehen wichtige Unterschiede zwischen biologischen und geowissenschaftlichen Phänomenen und wir geben zu, dass Beattys Kontingenzthese sich daher nicht vorbehaltlos auf die Geowissenschaften übertragen lässt. Wir behaupten jedoch, dass Bettys These sich zumindest in einer Hinsicht sehr wohl auf die Geowissenschaften anwenden lässt, und zwar in dem Sinne, dass geowissenschaftliche Phänomene, ähnlich 4
419
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Daraus folgt, dass die Plattentektonik keine autonomen, unreduzierbaren Gesetze enthalten kann. Überdies gibt es dann keinen Grund, das plattentektonische Modell und seine »Gesetze« nicht auf basiswissenschaftliche physikalische oder chemische Theorien reduzieren zu können. Zwar kann das Nagel’sche Modell der globalen Typ-Typ-Reduktion nicht angewandt werden. Dennoch, wie die obigen Beispiele zeigen, können die Entitäten, die von geowissenschaftlichen Gesetzen und Theor ien beschrieben werden (beispielsweise Erdbeben, Platte, Mantel) »lokal« in dem Sinne reduziert werden, dass sie durch Entitäten, die in der Sprache der Basiswissenschaften Chemie und Physik beschrieben sind, bestimmt werden können. Diese Art der Reduktion kann im Gegensatz zur Nagel’schen »TypTyp«-Reduktion stattdessen als »Token-Token«-Reduktion bezeichnet werden (Kimbrough 1979).6 Obwohl diese Art der Reduktion viel schwächer ist als die Nagel´sche, ist sie dennoch nicht trivial. Überdies ist eine derartige Reduktion oft ein wichtiger Schritt in Richtung eines mechanistischen Verständnisses des zu untersuchenden Phänomens. Aber können nicht-reduzierbare geowissenschaftliche Gesetze eventuell an anderer Stelle auftreten? Ein möglicher Kandidat wären die Prinzipien, anhand derer man Gestein und Sedimentschichten bei historischen Erklärungen bestimmt. Die beiden wichtigsten sind das stratigraphische Prinzip und das Prinzip des »Cross-cuttings« (Kitts 1966). Das stratigraphische Prinzip besagt, dass eine Sedimentschicht über einer anderen Schicht zwingend nach Letzterer entstanden sein muss. Die untere Schicht ist ein notwendiges zeitliches Antezedens, aber nicht die Ursache für die Entstehung der oberen Schicht. So ist es beispielsweise sehr unwahrscheinlich, dass eine Sedimentschicht sich unter einer anderen Schicht ablagert, da dies das Auseinanderbrechen, Erodieren und Neuordnen der oberen Schicht voraussetzte, was diese aber notwendigerweise zerstören würde. Gleiches gilt beim »Cross-cutting«, d. h. die querschneidende Schicht muss nach den anderen Schichten entstanden sein. Es gibt allerdings Beispiele, bei denen sich diese Prinzipien als irreführend herausstellen: Einige Schichten könnten bei den heftigen Faltungen im Zuge der Entstehung von Gebirgen gekippt worden sein, vulkanische Aktivitäten oder fluviale Kanäle hätten zeitgleich mit der Entstehung des planaren Sediments eine querschneidende Schicht bilden können, und so weiter. Geowissenschaftler sind sich dieser Schwierigkeiten bewusst und den biologischen Phänomenen, hoch kontingent, denn abhängig von der jeweiligen Struktur und den Eigenschaften der Erde sind. Das bedeutet wiederum, dass die Geowissenschaften – wie die Biologie – keine Gesetze enthalten, die allgemeingültige ausnahmslose Regelmäßigkeiten beschreiben. Auch wenn also die zugrundeliegenden Ursachen der Kontingenz unterschiedliche sein mögen, ist den Geowissenschaften und der Biologie doch gemeinsam, dass sie spezifische Prozesse und Phänomene beschreiben, die sich nicht in allgemeingültigen Gesetzen abbilden lassen. 6 Ein ähnliches Konzept der lokalen Reduktion wird von Kim (1998, 93 – 95) als Antwort auf das Argument der multiplen Realisierbarkeiten gegen globale Reduktion beschrieben.
420
Philosophie der Geo- und Umweltwissenschaften
suchen daher bei der Anwendung der Prinzipien geflissentlich nach Hinweisen auf derartige Ausnahmen. Diese Beispiele zeigen, dass diese geologischen Prinzipien nicht als Gesetze im eigentlichen Sinn angesehen werden können, da sie viele Ausnahmen haben. Daher können diese Prinzipien auch nicht global reduziert werden. Dennoch kann, wie auch im Falle der Plattentektonik, eine schwächere, »lokale« Reduktion auf die geowissenschaftlichen Verallgemeinerungen und Prinzipien angewendet werden. Wir kommen daher zu dem Schluss, dass die Geowissenschaften keine unreduzierbaren Gesetze haben und dass die geowissenschaftlichen Theor ien typischerweise Hypothesen über nicht beobachtbare (vergangene) Ereignisse oder allgemeine – aber nicht allgemeingültige – Beschreibungen kontingenter Prozesse sind. Im Gegensatz zu Physik und Chemie, aber analog zur Biologie, macht die Beschreibung der kontingenten Zustände der Natur einen signifikanten Teil geowissenschaftlichen Theoretisierens aus (Beatty 1995). Das traditionelle Konzept der Reduktion lässt sich auf geowissenschaftliche Verallgemeinerungen nicht anwenden, da sie nicht den traditionellen Kriterien für Gesetzmäßigkeit entsprechen. Dennoch ist Reduktion möglich, wenn auch nicht im strengen Nagel’schen Sinne, sondern als lokale Token-Token-Reduktion. Beatty’s Ansatz verlangt nicht, dass höherstufige Gesetze autonom sein müssen und ist daher kompatibel mit Reduktion.7 Im Übrigen ähneln geowissenschaftliche Verallgemeinerungen den biologischen, wie überhaupt eine enge Wechselwirkung zwischen den Geowissenschaften und der Biologie besteht. In der Tat würden viele geowissenschaftliche Phänomene ohne Zusammenspiel mit dem Leben gar nicht existieren. Abbildung 2a bietet eine zufällige Auswahl von Beispielen geowissenschaftlicher Phänomene auf kleinen bis sehr großen Längen- und Zeitskalen. Dieser Bezug auf Längenund Zeitskalen solcher Phänomene ist typisch für die Geowissenschaften und wird später genauer beschrieben. Abbildung 2b (422) stellt Beispiele für geowissenschaftliche Phänomene dar, die ohne biologische Elemente nicht existieren würden. So enthält beispielsweise die Atmosphäre der Erde im Vergleich zu der von Venus und Mars verhältnismäßig mehr Sauerstoff und weniger Kohlendioxid. Diese sogenannte Sauerstoffrevolution wurde vor zwei Milliarden Jahren hauptsächlich von photosynthetisierenden Organismen (meist Algen) angestoßen. Der vorhandene Sauerstoff ermöglichte dann die Oxidation von Mineralien, die Verwitterung von Gestein und chemische Veränderungen in den Ozeanen. Ein zweites Beispiel stellt die Vielfalt der Auswirkungen des Lebens auf Flüsse dar (Kleinhans 2010). Pflanzenwurzeln vermögen es, die Ufer von Flüssen zu stabi Dies gilt auch für biologische Phänomene: Die Kontingenz evolutionärer Prozesse hat ihre Wurzeln in den (scheinbar) zufälligen Mutationen von DNA-Sequenzen, die aufgrund von Abschreibfehlern oder externen Faktoren (beispielsweise Strahlung) auftreten. Diese Prozesse können insofern lokal reduziert werden, als man sie in der Sprache der Physik und Chemie beschreiben kann. 7
421
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
time scale of phenomenon
billion years million years
1000 years
year
a. without biological factors
formation of solar system plate tectonics, mantle convection delta formation glacials and interglacials river terrace forming ocean circulation El Niño and La Niña storm events: river meandering, coastal erosion coastal dunefields ripples, dunes
minute
turbulence 1 cm
time scale of phenomenon
billion years million years
1000 years
year
minute
earthquake meteorite impact
1 m
1 km 1000 km
b. with biological factors
million km
chemical composition of photo-atmosphere landscape formation under evolution of life
carbon cycle through forest and ocean reef formation soil formation peat formation rock weathering local climate river channel pattern by vegetation cover dune formation soil protection by roots and by algae bioturbation turbulencedamping 1 cm
1 m
1 km 1000 km
million km
length scale of phenomenon Abb. 2 : Die Korrelation von Zeit- und Längenskala der geowissenschaftlichen Phänomene unterteilt in Phänomene, bei denen biologische Faktoren (a) keine Rolle spielen bzw. bei denen sie (b) eine Rolle spielen. Die Korrelation wird durch die begrenzt zur Verfügung stehende Energie, die auf die Erdoberfläche einwirken kann, hervorgerufen. Zwei große Ausnahmen stellen Erdbeben und Meteoriteneinschläge dar: erstere, weil sie Energie aus dem Planeteninneren verwenden, und zweitere, weil sie extraterrestrische kinetische Energie auf die Erde bringen. 422
Philosophie der Geo- und Umweltwissenschaften
lisieren, was dazu führen kann, dass Flüsse sich weg von einem breiten, seichten, »verzweigten« Grundriss mit vielen Barren in der Mitte des Flussbetts hin zu einem engen, tiefen, »gewundenen« Grundriss mit nur einem oder einigen wenigen Armen entwickeln. Wenn Tiere am Ufer graben oder es zertrampeln, kann das die Strömung beeinflussen oder auch ganz neue Flussläufe hervorrufen. Die Vegetation im Einzugsgebiet flussaufwärts kann den Oberflächenabfluss nach Regenstürmen stark abschwächen, was einen weitaus gleichmäßigeren Wasserabfluss zur Folge hat als in Einzugsgebieten ohne Vegetation; dies hat vielerlei Auswirkungen auf die Morphologie und Geologie.
3.2 Die emergente Beschaffenheit geowissenschaftlicher Phänomene Im letzten Abschnitt haben wir argumentiert, dass geowissenschaftliche Phänomene in einem schwächeren Sinne lokal (oder als Token-Token) reduzierbar sind, obwohl der Nagel’sche Ansatz der globalen Reduktion nicht angewendet werden kann. Dem mögen Anti-Reduktionisten entgegenhalten, dass Token-TokenReduktion lediglich der ontologischen Behauptung gleichzusetzen sei, dass Phänomene durch physikalische und chemische Entitäten und Prozesse konstituiert werden und dass dieser Umstand keine interessantere epistemologische Reduktion impliziert: Es folgt nicht, dass wir geowissenschaftliche Phänomene mit Hilfe von rein physikalischen und chemischen Termini erklären können. Um ihr Argument zu stützen, dass epistemologische Reduktion nicht möglich ist, beziehen sich Anti-Reduktionisten oft auf die scheinbare »Emergenz« von geowissenschaft lichen Phänomenen. Emergenz ist ein bekanntermaßen uneindeutiges Konzept. Humphreys (1997, 341 f.) nennt folgende mögliche Kriterien für emergente Eigenschaften: Sie sind neu; sie unterscheiden sich qualitativ von den Eigenschaften, aus denen sie hervorgehen; sie können auf einer niedrigeren Eben nicht innegehabt werden; es gelten andere Gesetze für sie; sie entstehen als Ergebnis einer essentiellen Wechselwirkung zwischen bestehenden Eigenschaften; und sie sind holistisch in dem Sinne, dass sie Eigenschaften des Gesamtsystems sind. Philosophen sind sich uneins, ob Emergenz mit Reduktion kompatibel ist (was nicht verwunderlich ist, da das von den jeweiligen Vorstellungen über Emergenz und Reduktion abhängt). In diesem Abschnitt werden wir daher untersuchen, ob es Emergenz in den Geowissenschaften gibt und ob das ein Argument gegen epistemologische Reduktion darstellen würde (↑ Philosophie der Soziologie). Auf den ersten Blick scheinen die Geowissenschaften voll von Emergenz in einem der oben genannten Sinne zu sein: Strömungsrippel, Flüsse, Deltas, Vulkane, Manteldiapire und Kontinente entstehen aus Materie, die so angeordnet ist, dass neue, qualitativ unterschiedliche Eigenschaften entstehen, die sich nicht direkt aus den physikalisch-chemischen Gesetzen ableiten lassen, sondern eher übergeordneten Gesetzen zu folgen scheinen. Emergente Phänomene mit skalenunabhängigen Eigenschaften werden in der Literatur ausführlich behandelt; 423
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
dabei geht es meist um Selbstorganisation, Selbstähnlichkeit und Chaos (siehe Smith 1998 und Ball 1999 für Beispiele und Details). Wir unterscheiden in den Geowissenschaften zwei Arten von Phänomenen. Die erste Art besteht aus selbstähnlichen, chaotischen Phänomenen. Diese zeichnen sich durch wiederholte Grundmuster ohne dominantes Längenmaß aus; das Grundmuster tritt über weite Strecken einer Längen- oder Zeitskala in dem Phänomen, das dann als selbstähnlich bezeichnet wird, auf. Die Selbstähnlichkeit auf vielen Skalen ist neu und qualitativ unterschiedlich von den mikroskopischen Eigenschaften der konstituierenden Eigenschaften. Normalerweise treten die größeren Skalen viel seltener auf als die kleineren, ein Umstand, der Frequenzskalierung 1/f (f = Frequenz) genannt wird (Bak et al. 1987). Es gibt in den Geowissenschaften viele Beispiele für diese Art von Phänomen: Wolken und Drainagenetzwerke von Flüssen sind selbst-ähnlich, ebenso die Abflussablagerungen von Flüssen (Mandelbrot/Wallis 1969), Ausmaße von Lawinen auf Sandhügeln und von Waldbränden, Erhebungen von Landschaften und Küstenlinien, Eisenerzlager, Verwerfungslängen und -oberflächen. In manchen Fällen wurde die Selbstähnlichkeit aufgrund von physikalischen Gesetzen erklärt (beispielsweise Sandlawinen, Kristallwachstum und Verwerfungslinien), aber in vielen Fällen ist dies (bis jetzt?) noch nicht gelungen. Die zweite Art besteht aus emergenten Phänomenen mit einem dominanten Längen- oder Zeitmaß. Eine derartige makroskopische Regelmäßigkeit basiert auf mikroskopischen physikalischen oder chemischen Prozessen. Diese mikroskopischen Prozesse können entweder zufällig auftreten oder nach fraktalen Längen- oder Zeitskalen, aber nur eine oder zwei Frequenzen werden in dem makroskopischen Muster dominant. Die dominante Frequenz, Zeitdauer oder Länge ist in vielen Fällen notwendigerweise von Grenzbedingungen bestimmt, die von den mikroskopischen Prozessen unabhängig sind. Derartige Phänomene treten in den Geowissenschaften häufig auf. So wirkt eine Turbulenz in der Wasserströmung eines Flusses als chaotische Kraft auf das unter der Strömung liegende Sandbett. Aus dieser chaotischen Kraft entsteht ein Muster, nämlich eine Reihe von großen Unterwasserdünen. Unabhängig von der enormen Vielfalt der Strömungsgeschwindigkeiten und Sandeigenschaften haben diese Dünen (so sie sich im Gleichgewicht mit der Strömung befinden) ein fast konstantes Längen/Höhenverhältnis; ihre Höhe entspricht dabei in etwa 20% der Wassertiefe. Dieser empirische Fakt gilt für Wassertiefen zwischen 0.1 und 100 Metern und Körnergrößen zwischen 0.4 und 100 Millimetern. Praktisch sind Dünenhöhe und -länge also durch empirische Beziehungen bestimmt (die man wiederum aus durch Induktion gewonnenen Daten erhält), wobei die Wassertiefe die wichtigste unabhängige Variable ist. Kürzlich gelang es mit Hilfe von neuen numerischen Modellen erstmals, die korrekten Höhen und das Verhalten von Dünen aufgrund der Physik von Strömungsturbulenzen und Sedimenttransport vorherzusagen (Nabi et al. 2013); dieses Phänomen ist also nicht in dem Sinne emergent, dass es nicht von einem niedrigeren Level aus vorhergesagt werden könnte. 424
Philosophie der Geo- und Umweltwissenschaften
Offensichtlich haben viele geowissenschaftliche Phänomene emergente Eigen schaften, aber sind diese Eigenschaften deswegen (epistemologisch) unreduzierbar? Diese Frage wird innerhalb der Geowissenschaften hitzig debattiert (siehe beispielsweise Murray 2007). Manche Geowissenschaftler versuchen emergente Muster mit simplen Modellen, die nur auf makroskopischen Regeln basieren, zu reproduzieren (beispielsweise eine Reihe von Dünen oder Verzweigungen von Flüssen). Im Gegensatz dazu versuchen andere, diese Muster mit Hilfe von hochkomplexen mathematisch-physikalischen Modellen zu reproduzieren. Erstere meinen, dass die Phänomene nicht reduzierbar seien, während letztere behaupten, dass die Phänomene (in einem mathematischen Modell) alleine auf Basis von physikalischen Gesetzen erklärt werden können, wenn nur genug Rechenleistung und Detailwissen über die Anfangsbedingungen zur Verfügung stehen. Dementsprechend sehen Wissenschaftler Emergenz und Reduktion nicht als inkompatibel an und Philosophen sollten und müssen dies auch nicht tun. Weiter oben wurde bereits aufgezeigt, dass das traditionelle Nagel’sche Modell der Reduktion innerhalb der Geowissenschaften sinnlos ist, aber dies bedeutet nicht, dass es Reduktion nicht gibt. Wimsatt (2007, 275) schlägt vor, die Konzepte von Reduktion und Emergenz zu verbreitern, sodass sie der wissenschaftlichen Praxis gerecht werden und so nicht zwingend inkompatibel sind. Wimsatt argumentiert, dass mechanistische Erklärungen eine gangbare Alternative darstellen: »eine reduktive Erklärung eines Verhaltens oder einer Eigenschaft eines Systems liegt dann vor, wenn sie aufzeigt, wie ein System hinsichtlich der Eigenschaften und Wechselwirkungen seiner Teile mechanistisch erklärt werden kann.« Gemäß dieser Vorstellung von Erklärung, welche in den höheren Naturwissenschaften die geläufige ist, können Phänomene emergent und dennoch reduktiv erklärbar sein (siehe Machamer, Darden und Craver 2000 für die klassische Ausführung einer mechanistischen Erklärung). Dieses breite Konzept von epistemologischer Reduktion scheint auf die Geowissenschaften zugeschnitten zu sein, da es die Möglichkeit einräumt, die oben aufgelisteten emergenten Phänomene in Zukunft reduktiv erklären zu können.
4 Erklärung in den Geowissenschaften Im zweiten Abschnitt wurde aufgezeigt, dass die Geowissenschaften zumindest zwei Ziele haben, nämlich die (Geschichte der) unbelebte(n) Prozesse auf der Erde zu beschreiben und zu erklären. Das scheint insofern plausibel, als Erklären und Verstehen das Ziel jeder Wissenschaft ist, was über die einfache Beschreibung der Phänomene ihrer jeweiligen Sachgebiete hinausgeht (siehe De Regt/ Dieks 2005). Aber bis jetzt haben wir noch nicht dargelegt, was unter geowissenschaftlichen Erklärungen zu verstehen ist und ob sie eine Sonderstellung innehaben, die sie von den Erklärungen der Physik und Chemie abhebt. Wie wir in Abschnitt 3.1 argumentiert haben, sind geowissenschaftliche Theor ien Hypothe425
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
sen über nicht beobachtbare (vergangene) Ereignisse oder kontingente Verallgemeinerungen. Wie können solche Theorien – die ja hauptsächlich deskriptiver oder historischer Natur sind – Erklärungen liefern? Diese Frage soll in diesem Abschnitt beantwortet werden. Außerdem werden wir das Problem der Unterbestimmtheit diskutieren, das sich im Zuge der Formulierung geowissenschaftlicher Erklärungen immer wieder als Hindernis erweist. Es wird sich zeigen, dass in den Geowissenschaften ein explanatorischer Pluralismus vorherrscht: Es gibt mehrere Arten von Erklärungen, die jeweils eigene Vorzüge und Modelle haben.8
4.1 Liefern historische Narrative Erklärungen? An der Frage, ob historische Narrative Erklärungen beinhalten, und wenn ja, auf welche Art und Weise, scheiden sich die Geister. Manche Autoren behaupten, dass Narrative erklären, indem sie ein Ereignis in einen größeren Kontext stellen (Hull 1989). In den historischen und den Sozialwissenschaften würde ein Narrativ dementsprechend genau dann ein einzelnes Ereignis erklären, wenn es aufzeigt, wie es in ein Gesamtbild passt. Andere Autoren hingegen tun historische Wissenschaften abschätzig als »Briefmarken sammeln« ab (und beziehen sich damit auf Rutherfords berühmten Ausspruch, dass eine Wissenschaft entweder Physik oder Briefmarken sammeln sei). Wieder andere meinen bei historischen Erklärungen einem logischen Muster zu folgen, das sich fundamental von deduktivnomologischen und induktiv-statistischen Erklärungen unterscheidet. So wurde bezüglich menschlicher historischer Narrative behauptet, dass die Handlung oder Argumentationsstruktur einer Geschichte (beispielsweise Perspektive oder zeitliche Abläufe) die Ereignisse hinsichtlich ihrer notwendigen (aber nicht hinreichenden) Bedingungen und Beziehungen erklärt (siehe Von Wright 1971). Wir werden dahingehend argumentieren, dass geowissenschaftliche Erklärungen über Beschreibungen hinausgehen. Wie die Evolutionsbiologie sind die Geowissenschaften teilweise identisch mit Historiographie: sie rekonstruieren vergangene Ereignisse und versuchen sie zu erklären. Das Ziel von historischen Wissenschaften ist es, ein korrektes Narrativ über eine Abfolge von vergangenen Ereignissen und die kausalen Kräfte und Anfangsbedingungen, die zu dieser Abfolge führten, zur Verfügung zu stellen. Wir vereinfachen die Diskussion um die wissenschaftliche Erklärung auf eine Weise, die keine ernsthaften Konsequenzen für das Konzept der Erklärung in den Geowissenschaften hat. Wir stellen »historische« (oder narrative) Erklärung der »kausalen Erklärung« gegenüber, wobei das Paradebeispiel für die letztgenannte Art der Erklärung die Naturwissenschaften sind. Kausale Erklärungen können deduktiv-nomologisch (Hempel 1965) über Kausalgesetze erfolgen oder indem Ereignisse und Prozesse kausal und raumzeitlich beschrieben werden (Salmon 1984). Für unsere Zwecke können die Unterschiede zwischen beiden Modellen ebenso wie alternative Modelle, beispielsweise die beide vereinende Sichtweise der Erklärung, vernachlässigt werden. 8
426
Philosophie der Geo- und Umweltwissenschaften
Das Konzept des historischen Narrativs bietet zwei Ansätze für Erklärungen, die relevant für die Geowissenschaften sind: Robustprozesserklärungen und Aktualsequenzerklärungen (Sterelny 1996, 195). Letztere legen die (kausale) Ereigniskette dar, erstere befassen sich mit den zugrundeliegenden (robusten) Ursachen der Phänomene. Beide Arten von Erklärungen spielen in den Geowissenschaften eine wichtige Rolle, sogar für dasselbe Ereignis, weil sie sehr unterschiedliche Informationen liefern. Man ziehe folgende beiden Erklärungen für einen katastrophalen Erdrutsch oder einen Murenabgang in Betracht: Man kann einen beobachteten Abgang mit physikalischen Modellen sehr genau darstellen. Im Nachhinein lässt sich genau erklären, warum der Abgang sich zu genau dieser Zeit an genau jenem Ort ereignete, beispielsweise aufgrund von heftigen Regenfällen. Diese Aktualsequenzerklärung berücksichtigt nicht, dass der Abgang ohnehin passiert wäre, weil eine bestimmte Menge Schlamm oder Geröll kurz vor dem Hangversagen stand. Es ist sehr wahrscheinlich, dass der Abgang von anderen Regenfällen oder der Schneeschmelze im Frühling oder einem Erdbeben ausgelöst worden wäre, wenn es diese bestimmten Regenfälle nicht getan hätten. So kommt es, dass Geowissenschaftler solche Abgänge nicht nur mit Hilfe von empirischen oder physikalischen Modellen darstellen, sondern auch mittels Robustprozesserklärungen Gegenden kennzeichnen, die für Murenabgänge prä destiniert sind. Alles in allem sind die Narrative der Geowissenschaften als genuine Erklärungen anzusehen, auch wenn sie nicht auf physikalische Erklärungen, die auf Gesetzen oder kausalen Mechanismen basieren, reduziert werden können. In der geowissenschaftlichen Praxis zeigt sich, dass eine Domäne ontologisch von einer anderen, tieferen (i. e. physikalischen) Domäne abhängen und gleichzeitig explanatorisch autonom sein kann. Im Zuge von historischen Narrativen wird ein Ereignis nicht erklärt, indem es unter eine Verallgemeinerung subsummiert wird, sondern indem es in ein organisiertes Ganzes integriert wird (Hull 1989). Dies trifft in den Geowissenschaften beispielsweise auf die Konzepte der Kontinentalverschiebung und der Eiszeiten zu. Die Entstehung von Bergen, Erdbeben, Vulkanismus, Paläomagnetismus, die Verteilung von Fossilien, die Form der Kontinente und die unterschiedlichen Alter von Gesteinen sind alle in ein organisiertes Ganzes integriert und deuten alle auf dieselbe Ursache hin: Plattentektonik. Eiszeitliche Landschaften, Findlinge, das Fehlen von Vegetation in bestimmten Zeitabschnitten sowie ein erwiesenermaßen niedrigerer Meeresspiegel als heutzutage deuten auf eine gemeinsame Ursache, nämlich Eiszeiten, hin. Die spezifischen physikalischen Prozesse der Plattentektonik und Vereisung werden als kontingente Regelmäßigkeiten mit nur lokaler Reduktion auf die Physik und Chemie aufgefasst (siehe Abschnitt 3.1).9
Für die aktuelle Diskussion über die Natur und die Rolle von historischen Erklärungen in den Naturwissenschaften siehe Turner (2014) und Tucker (2014). 9
427
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
4.2 Probleme der Unterbestimmtheit in den Geowissenschaften Obwohl geowissenschaftliche historische Narrative genuin erklärend sein können, bleibt doch ein großes Problem bestehen: Sie sind meistens durch die vorhandenen Beweise unterbestimmt. Philosophen unterscheiden zwischen schwacher (praktischer) Unterbestimmtheit und starker (logischer) Unterbestimmtheit. Im ersteren Fall reicht die Beweislage nicht aus, um einer von mehreren Theor ien den Vorzug zu geben, im letzteren Fall ist die Wahl einer Theorie unabhängig von der Beweislage unmöglich. Anders als Physiker finden sich Geowissenschaftler oft in Situationen wieder, in denen ihre Theorien durch die vorhandenen Beweise unterbestimmt sind. Tatsächlich finden sich kaum Publikationen, in denen nicht mindestens ein Absatz darauf verwendet wird zu erklären, wie mit der Unterbestimmtheit umgegangen wurde (obwohl sie normalerweise nicht explizit als »Unterbestimmtheit« bezeichnet wird). Typische Beispiele für Unterbestimmtheitsprobleme sind folgende (s. a. Turner 2005; 2001): Erstens spielte sich die Entstehung der Erde in zeitlichen Größenordnungen ab, die weit über das Leben eines einzelnen menschlichen Beobachters oder auch die gesamte Geschichtsschreibung hinausgehen. Es ist daher schwierig, die Langzeiteffekte von langsamen Prozessen festzustellen und zu beobachten, um dann auf die Vergangenheit zu schließen. Es gibt einige kontrollierte Skalenexperimente im Labor, die aber wiederum Skalierungsprobleme erzeugen und so den Vergleich mit der realen Welt erschweren. Zweitens können viele geowissenschaftliche Prozesse und Phänomene (noch) nicht direkt oder indirekt beobachtet werden. Manchmal entziehen sich Phänomene der direkten Messung durch Instrumente, beispielsweise tiefe Mantelkonvektionen im Inneren der Erde und anderer Planeten. Auch Landschaftsformen und Sedimentablagerungen (mit all ihren Hinweisen auf vergangene Ereignisse) gehen oft aufgrund von Erosion, der Entstehung von Gebirgen oder Überflutungen verloren. Ein weiteres praktisches Problem ist, dass viele der heute gängige Techniken den jeweils beobachteten Prozess beeinflussen. Drittens laufen viele Prozesse zufällig oder chaotisch ab und können überdies sehr empfindlich in Bezug auf ihre Anfangsbedingungen sein. Eine exakte Rekonstruktion vergangener Ereignisse aufgrund von geologischen Daten ist ein mühseliges Unterfangen, da viele Ereignisse und Phänomene derart komplex sind, dass, zumindest theoretisch, eine unendliche Menge an möglichen Gesetzen und Anfangsbedingungen dazu beigetragen haben könnten. Diesem Problem widmete sich vornehmlich die Hydrologie, wo es unter dem Namen »Äquifinalität« bekannt wurde. Rauschen und Chaos tragen zur Einzigartigkeit geomorphologischer Phänomene bei: Selten tritt ein Ereignis zweimal auf, und die Wahrscheinlichkeit, dass sich ein Flussbett in einem bestimmten Delta langfristig gesehen gleich entwickeln würde, wenn man die Entwicklung wiederholte, geht gegen Null. Während rein kausale (deduktiv-nomologische) Erklärungen hochgradig unterbestimmt sind, brauchen narrative Erklärungen keine genau beschriebenen 428
Philosophie der Geo- und Umweltwissenschaften
Beobachtungen und Anfangsbedingungen. Bei vielen geowissenschaftlichen Studien werden die Anfangs- und Grenzbedingungen implizit (und ohne Detail) bezogen auf die Länge- und Zeitskala des untersuchten Phänomens oder auf die Zeitspanne oder auf den Untersuchungsbereichs angegeben; bei anderen ergeben sie sich aus dem Kontext, wie dem Namen der Zeitschrift. So wurde beispielsweise das Rhein-Maas-Delta in den Niederlanden von Berendsen/Stouthamer (2001) für das Holozän untersucht, i. e. für die vergangenen 10.500 Jahre. Die Idee dieser zeitlichen Referenz ist, das Phänomen und seine Ursachen von anderen Phänomenen zu isolieren, indem man letztere in die Beschreibung der Anfangsbedingungen miteinbezieht bzw. um das Phänomen in das »große Gesamtbild« einzufügen. Bei dieser Vorgehensweise muss man nicht die gesamte Kette von Ereignissen und Ursachen von den größten Maßstäben (längst vergangene Zeiten und große Flächen rund um den untersuchten Bereich) bis zu jenen des Phänomens selbst präzisieren. Dieser Ansatz ist nicht nur praktisch, sondern auch leicht zu verteidigen (Schumm/Lichty 1965). Zunächst besteht bei den meisten Phänomenen eine Korrelation zwischen der relevanten Längenskala und der relevanten Zeitskala (siehe Abb. 2), sodass man nicht die Entwicklung eines großen Objekts auf einer kleinen Zeitskala oder eines kleinen Objekts auf einer großen Zeitskala untersuchen muss. Strömungsrippel, die eine ungefähre Länge von 0.2 m aufweisen, entstehen und vergehen beispielsweise innerhalb von Minuten oder Stunden, sodass es nicht als sehr sinnvoll erscheint, Rippel über Jahrzehnte hinweg zu untersuchen. Auf der anderen Seite entstehen Bergketten, die sich über tausende von Kilometern erstrecken, über Millionen Jahre. Kurz gesagt braucht es länger, um große Objekte aufzubauen oder zu zerstören, als kleine. Der Grund dafür ist, dass das Ausmaß der verfügbaren Energie (im Vergleich zu den gewaltigen Energiemengen, die Astronomen geläufig sind) durch zwei nahe beieinanderliegende Limits definiert wird: Das untere Limit ist notwendig, um Schwellenwerte wie Reibung oder den Widerstand von Felsbrocken in Strömungen zu überschreiten, das obere Limit ist durch die maximal verfügbare Menge an Energie auf der Erde festgelegt. Daraus folgt, dass sich eine Gebirgskette nicht im Zuge von Stunden verändert, wenn auch einzelne Areale auf einzelnen Hängen sich durch eine Überflutung oder eine Hangbewegung signifikant verändert haben mögen. Folglich ist es nicht sinnvoll, Phänomene großen Ausmaßes über kurze Zeitspannen hinweg zu untersuchen oder kleine Phänomene über lange. Wichtige Ausnahmen stellen relativ einzigartige Ereignisse wie Einschläge von großen Meteoriten oder Erdbeben dar.
4.3 Unterbestimmtheit und Erklärung Wie genau verhindert das Problem der Unterbestimmtheit die Formulierung vollständiger kausaler Erklärungen und die Verwendung von narrativen Erklärungen in den Geowissenschaften? Man betrachte ein typisches geowissenschaftliches 429
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Forschungsprojekt, das eine raum-zeitliche Beschreibung und eine Erklärung liefern will, beispielsweise der Flusslauf des Rheins über die letzten 10.000 Jahre (siehe Berendsen/Stouthamer 2001). Die Hypothese, dass der Rhein sich immer schon in den Niederlanden befunden hat, ist eigentlich nicht angreifbar. Für Geowissenschaftler ist dieses Ergebnis aber erst der Anfang: Was sie wirklich wollen, ist eine Beschreibung und eine Erklärung der Ereignisse, die sich in Bezug auf andere, vergleichbare Phänomene in vergleichbaren Umständen verallgemeinern lassen. Für eine derartige Erklärung braucht es aber ausführliche Beweise, um sie zugunsten einer von mehreren möglichen Theor ien auslegen zu können. Geowissenschaftler müssen von gegenwärtigen auf vergangene Ereignisse schließen oder von einer limitierten Anzahl von Beobachtungen auf eine Hypothese oder Theorie. Die empirischen Daten, die Geowissenschaftlern zur Verfügung stehen, lassen aber oftmals viel Spielraum für verschiedenste und inkompatible Hypo thesen. Diese Hypothesen sind im Allgemeinen empirisch, nicht aber logisch äquivalent; sie können nicht alle gleichzeitig wahr sein. Kurz gesagt erschweren Probleme der Unterbestimmtheit das Schließen. Nach der vorherrschenden Methodologie der historischen Wissenschaften werden verschiedene mögliche Erklärungen (vergangene Ursachen) für gegenwärtige Phänomene (Effekte) formuliert und versucht, Unterschiede zwischen ihnen durch die Identifizierung von »smoking guns« aufzudecken.10 Nach Cleland (2002; 2011; 2013) ist dies grundsätzlich möglich, weil Ursachen normalerweise durch ihre Effekte überbestimmt sind: Das bedeutet, dass eine Ursache in der Vergangenheit viele Effekte (Spuren) in der Gegenwart hinterlässt. Laut Kleinhans et al. (2005) vernachlässigt dieser Ansatz aber die epistemologischen Probleme der Unterbestimmtheit, die im vorangegangenen Abschnitt 4.2 beschrieben wurden. Die Frage der Überbestimmtheit (die Cleland von David Lewis übernommen hat) ist eine ontologische Frage, die prinzipiell mit dem Konzept der epistemologischen Unterbestimmtheit vereinbar ist: In den historischen Wissenschaften gibt es für die vorhandenen Beweise im Allgemeinen mehrere rivalisierende Erklärungen hinsichtlich ihrer Ursachen.11 Dies soll anhand eines konkreten geowissenschaftlichen Beispiels verdeutlicht werden. Angenommen, man wollte bestimmte vorhandene Gegebenheiten kausal erklären, beispielsweise den Verlauf des Rheins über die Zeit: Man müsste zunächst die Anfangsbedingungen, beispielsweise die Zeit vor 10.000 Jahren, und einige Kausalgesetze, welche die Dynamik des Systems steuern, beschreiben. Wie wir weiter oben argumentiert haben, leiten sich diese Gesetze aus der Physik und Chemie ab (und wir nehmen an, dass sie vorgegeben und deterministisch sind). Die Wahl der Anfangsbedingungen spielt dabei eine zentrale Rolle; sie werden Cleland (2002; 2011; 2013). Vgl. The ›method of multiple working hypotheses‹ (Chamberlin 1890), sie wird in Sektion 4.4 ausführlich diskutiert. 11 Siehe Tucker (2011) für eine Darstellung der Cleland-Turner-Kontroverse und eines versöhnenden Ansatzes. 10
430
Philosophie der Geo- und Umweltwissenschaften
mit der »Ursache« gleichgesetzt. Aber diese Bedingungen sind nie vollständig bestimmt – und können es auch nie sein. Sie liefern lediglich eine unvollständige Beschreibung eines Teils des Universums (und dieser Teil ist nie ein geschlossenes System). In der Praxis sind geowissenschaftliche Erklärungen daher eine Mischung aus abduktiven Narrativen und Kausalerklärungen. Die Narrative haben den größten Erklärungsgehalt, beispielsweise dafür, wie die Verschiebung der Seitenarme des Rheins über die Deltaebene in Abhängigkeit von der Höhe des Meeresspiegels – und anderer Faktoren – geschah. Die Kausalerklärungen entstehen oft im Zuge der Anwendung von Computermodellen auf bestimmte Aspekte der Deltaentwicklung. Computermodelle, die auf physikalischen oder chemischen Gesetzen basieren, spielen mittlerweile eine fast ebenso wichtige Rolle wie Experimente und Beobachtungen. Dennoch sind die Gesetzmäßigkeiten bei Kausalerklärungen nicht so vorgegeben und deterministisch wie oben angenommen. Beispielsweise steht für viele Phänomenen nicht prima facie fest, welche physikalischen Gesetze anzuwenden sind. Überdies lassen sich die relativ einfachen Gesetze der Physik fast nie direkt auf die Anfangsbedin gungen anwenden, um zu überprüfen, ob sie die untersuchten Beobachtungen (deduktiv) erklären. So handelt es sich bei der Impuls- und Massenerhaltung um einfache physikalische Gesetze, die für Flüssigkeitsströmungen gelten. Diese einfachen Gesetze sind die Grundbausteine für die Navier-Stokes-Gleichungen, die Flüssigkeitsströmungen beschreiben und nicht analytisch gelöst werden können. Daher werden diese Gleichungen in sogenannte »mathematische« oder »physikalische Computermodelle« überführt. Die Gleichungen müssen vereinfacht und einzelne Zeitintervalle und Gitterzellen verwendet werden, um den Fluss räumlich und zeitlich darstellen zu können. Diese Vereinfachungen ziehen eine Menge notwendiger numerischer Verfahren nach sich, welche die Erhaltungssätze sicherstellen und numerische (dem Computer inhärente) Fehlerfortpflanzung vermeiden sollen. Sobald Anfangs- oder Randbedingungen für dieses Modell bestimmt sind, können gewisse Labor- oder Feldbedingungen simuliert und mit den Beobachtungen verglichen werden. All dies löst aber nicht das Problem der Unter bestimmtheit, wie Oreskes et al. erklären: Die Bestätigung und Validierung numerischer Modelle von natürlichen Systemen ist unmöglich, und zwar weil natürliche Systeme nie geschlossen sind und weil die Ergebnisse eines Modells nie einzigartig sind. […] Der primäre Wert dieser Modelle ist also ein heuristischer. (Oreskes et al. 1994, 641)
Systeme, die »nie geschlossen« sind, gehen mit Unterbestimmtheit ihrer Anfangs- und Randbedingungen einher; die »Nicht-Einmaligkeit« bezieht sich auf das Äquifinalitätsproblem. Modelle können nicht dazu dienen, etwas über geowissenschaftlich untersuchte Systeme in historischer oder zukünftiger Sicht vorauszusagen, wenn sie nicht anhand von Daten aus der Vergangenheit kali briert wurden. In letzterem Fall kann man jedoch kaum mehr von einem »physikalischen« Modell sprechen, da die Daten Teil der Erklärung sind. 431
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Dennoch haben Modelle große Vorteile: Erstens kann das menschliche Gehirn die Ergebnisse komplexer Gleichungssysteme in Bezug auf Raum und Zeit und unter bestimmten Anfangsbedingungen nicht nachvollziehen, während ein Modell verständliche Ergebnisse liefern kann. Zweitens kann man ein Modell so manipulieren, wie es in der Natur oder auch im Labor niemals möglich wäre. Man kann verschiedenste Szenarien untersuchen und »Was-wäre-wenn-Fragen« unter den Bedingungen des Modells untersuchen, auch wenn das laut dem Modell resultierende Szenario nicht mit den Beobachtungen übereinstimmt. Daher sind diese Szenarien wichtig, einerseits um Robustprozesserklärungen erweitern zu können und andererseits als kontrafaktische Folgerungen im Hinblick auf Beobachtungen. Drittens können Modellläufe aufzeigen (wenn auch nicht immer beweisen), ob bestimmte Hypothesen überhaupt möglich sind und ob sie sich mit physikalischen Gesetzen und mathematischen Bedingungen vereinbaren lassen. Modelle in diesem Sinne werden also verwendet, um narrative Erklärungen robuster Prozesse zu überprüfen. Viertens zeigt der Vergleich mehrerer unterschiedlicher Modelle für dasselbe Phänomen die Robustheit des Modells auf: Wenn das Phänomen in allen Modellen ähnlich dargestellt wird, zeigt das, dass es bis zu einem gewissen Grad unabhängig von den Schematisierungen des Modells ist. Die obigen Überlegungen bestätigen, dass die Geowissenschaften sowohl historische Narrative als auch kausale Erklärungen brauchen. Beide Arten von Erklärungen sind in Wahrheit komplementär: Kausale Erklärungen funktionieren am besten auf kleinen raum-zeitlichen Skalen und können auf narrative Erklärungen auf einer größeren Skala hinweisen, wie beispielsweise der oben skizzierte Ansatz des Modellierens von Szenarien; breit angelegte narrative Erklärungen können wiederum auf spezifische kausale Prozesse hinweisen. Die Grenze zwischen beiden Arten von Erklärungen ist oft unklar, weil sie graduell ineinander übergehen.
4.4 Schließen auf die beste Erklärung Bis jetzt wurden Probleme der Geowissenschaften dargelegt. Wir möchten nicht behaupten, dass diese Probleme überhaupt nicht gelöst werden können. In der Praxis gibt es sehr wohl geowissenschaftliche Erklärungen, die mehr oder weniger als bestätigt gelten. Aber wie kommen Geowissenschaftler zu derartigen Erklärungen? Geowissenschaftler formulieren zu einem Großteil Hypothesen über mögliche Ursachen für beobachtete Phänomene. Es scheint, dass geowissenschaftliche Erklärungen durch abduktives Schließen entstehen und dass Geowissenschaftler sich im Allgemeinen auf »Schließen auf die beste Erklärung« (Lipton 2004: Inference to the Best Explanation), unterstützt durch deduktiv kausale Erklärungen (beispielsweise basierend auf Computermodellen), verlassen. Das Konzept der Abduktion in den Geowissenschaften wurde bereits 1890 von Thomas Chamberlin um die »Methode der vielfachen Arbeitshypothesen« erweitert: 432
Philosophie der Geo- und Umweltwissenschaften
Zunächst wird eine Reihe von Hypothesen, die möglicherweise eine Beobachtung erklären, entwickelt. Um einen voreingenommenen Bestätigungsversuch zu verhindern, muss man eine Vielzahl von (inkompatiblen) Hypothesen miteinander vergleichen und überprüfen. Die Hypothesen können Prozesse betreffen, die von Beobachtungen abgeleitet wurden, oder »unerhörte Hypothesen« über Prozesse, die wahrscheinlich in der Vergangenheit passiert, aber nicht länger aktiv sind oder im Widerspruch zu physikalischen oder chemischen Gesetzen stehen. Wegeners Hypothese der »Kontinentalverschiebung« ist das berühmteste Beispiel für eine derartige »unerhörte Hypothese«: Zunächst als absurd zurückgewiesen, ist sie heute akzeptiert und wird außerdem von der Plattentektonik bestätigt. Die Hypothesen werden verwendet, um überprüfbare Konsequenzen für möglichst weit auseinanderliegende Orte vorherzusagen (Deduktion); dies passiert mit Hilfe von verschiedenen Instrumenten und Computermodellen. Wenn diese unterschiedlichen Datensätze und Modellszenarien alle auf dieselbe (zugrundeliegende) Erklärung hinweisen, nehmen Geowissenschaftler diese Erklärung als (vorläufig) wahr an. So werden die in etwa 23 Wechsel von Kaltzeiten und Interglazialen der vergangenen 2,4 Millionen Jahre (»Eiszeiten«) am besten durch die Kombination einer einzigartigen Anordnung der Kontinente und astronomischen Einflüsse auf das globale Klima erklärt. Es gibt zyklische Veränderungen hinsichtlich der Schiefe und Richtung der Erdachse sowie Abweichungen der Umlaufbahn, die mit den Eiszeiten korrespondieren. Diese führen in höheren Breitengraden zu einer Veränderung des Sonneneinfalls und so insgesamt zur Abkühlung. Dementsprechend mehr schneit es, die Schneedecke reflektiert mehr Sonnenlicht und verursacht so noch mehr Abkühlung. Da diese orbitalen Kräfte aber auch wirken, wenn keine Eiszeit vorherrscht, spielen offensichtlich noch weitere Faktoren eine Rolle. Vor etwa 2,4 Millionen Jahren löste sich die Antarktis von dem südamerikanischen Kontinent. Anstelle der bisherigen Strömungen zwischen Pol und Äquator traten nun zirkumpolare Kräfte auf, die zur thermischen Isolation führten und durch die Positionierung des Pols die Abkühlung der Antarktis nach sich zogen. In weiterer Folge nahmen die Eisdecke und auch die Menge reflektierten Lichtes zu, sodass der ganze Planet um einige Grad abkühlte. Diese Abkühlung in Kombination mit den astronomisch bedingten Strömungen führte dazu, dass es in höheren Lagen durchwegs zu Vereisungen kam. Diese Menge an Hypothesen weist zwar einige Problematiken auf, aber es gibt kaum alternative Hypothesen, die diese Phänomene ebenso gut erklären könnten. Eine Alternative wäre die Hypothese, dass die Fluktuation der Sonnenaktivität aufgrund von Stellardynamik (»solare Zwänge« auf das Klima der Erde) globale Temperaturschwankungen hervorruft, deren Auswirkungen sich in den geowissenschaftlichen Aufzeichnungen niedergeschlagen haben. Es gibt aber keine stellare Theorie, welche die 23 regelmäßigen Zyklen vorhersagen würde; die Theor ie der orbitalen Kräfte (systematische Veränderungen in der Umlaufbahn der Erde) hingegen tut dies. Die meisten Geowissenschaftler glauben, dass das oben beschriebene (triangulierte) 433
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Hypothesenset die beste Erklärung für die beobachteten Phänomene ist, während letztgenannte Hypothesen zwar auch wahr sind, aber nur die Auswirkungen der Orbitalkräfte erklären. Dies ist ein gutes Beispiel für das Schließen auf die beste Erklärung: Die beobachteten Eiszeiten sind überraschend, aber es gibt Hypothesen, die die Fakten teilweise erklären und diese Beobachtung demnach nicht mehr überraschend erscheinen lassen. Daher wird dieses Hypothesenset vorläufig als wahr angenommen und gegen immer neue Beweise überprüft. Schließen auf die beste Erklärung stellt eine Form der Abduktion dar, die wie die Induktion klare Grenzen hat. So sind zum Beispiel die Kriterien für die »beste« Erklärung nicht eindeutig; Lipton (2004, 59 – 61) schlägt stattdessen das Konzept der »schönsten« Erklärung vor, d. i. die Erklärung, die am besten verstanden wird (beispielsweise weil sie so einfach ist). Vor allem aber ist Abduktion eine Methode, um Hypothesen, und nicht, um schlüssige Erklärungen zu finden. Man wird wahrscheinlich nie herausfinden, ob die beste Erklärung auch die einzig wahre ist. Im Gegenteil, die Einzigartigkeit vieler Ereignisse und Phänomene in der geologischen Vergangenheit verlangt oft Hypothesen, die zunächst im Licht unserer gegenwärtigen Erfahrungen unerhört erscheinen mögen (Davis 1926; Baker 1996). Beispiele dafür sind die Hypothesen, dass bestimmte Landschaftsformen durch Eiszeitgletscher verursacht werden oder dass ganze Kontinente sich verschieben und kollidieren, die beide früher als unerhört galten. Nach und nach wurden sie allerdings durch zunehmend mehr Beweise gestützt und man konnte Robustprozesserklärungen entwickeln: Dies war möglich, indem die unerhörten Hypothesen erweitert und mögliche Kausalerklärungen entworfen wurden. Letzteres wird vor allem mit Hilfe von mathematisch-physikalischen Modellen möglich, aber wie in Abschnitt 4.3 gezeigt wurde, haben diese Modelle Probleme mit Unterbestimmtheit. Wenn diese Narrative der Überprüfung auch bei zunehmender Beweislage standhalten, gelten diese Hypothesen nach und nach als die besten Erklärungen.
5 Zusammenfassung Wir haben in diesem Kapitel die grundlegenden philosophischen Themen der Geowissenschaften diskutiert. Zunächst wurde festgestellt, dass das Ziel der Geowissenschaften ist, Beschreibungen und Erklärungen zu liefern und, wenn möglich, Phänomene auf der Erde und erdähnlichen Planeten vorherzusagen. Wir haben argumentiert, dass die Geowissenschaften ein reduktionistisches Unterfangen sind. Dennoch verfügen die Geowissenschaften nicht über Gesetze im herkömmlichen Sinn von allgemeinen Regelmäßigkeiten ohne Ausnahme. Analog zur Biologie und im Gegensatz zur Chemie und Physik besteht ein Gutteil geowissenschaftlicher Theor ien aus Beschreibungen von kontingenten Zuständen in der Natur. Aufgrund dessen sind zwar globale Typ-Typ-Reduktionen unmöglich, aber dafür lassen sich lokale Token-Token-Reduktionen auf geo434
Philosophie der Geo- und Umweltwissenschaften
wissenschaftliche Phänomene anwenden. In den Geowissenschaften sind zahllose Fälle von Emergenz bekannt, aber laut neueren wissenschaftlichen und philosophischen Arbeiten sind solche emergenten Phänomene nicht prinzipiell unreduzierbar, sondern sie können mechanistisch erklärt werden. Überdies werden geowissenschaftliche Erklärungen durch Unterbestimmtheit erschwert. Daraus folgt, dass rein kausale Erklärungen nicht, narrative Erklärungen jedoch sehr wohl möglich sind, weil dafür keine genau bestimmten Beobachtungen und Anfangsbedingungen notwendig sind. Stattdessen setzt der Bezug auf die jeweiligen zeitlichen und Längenskalen der Menge an notwendigen Details implizite Grenzen und verweist auf relevante Hintergrundtheorien. Im Allgemeinen liefern Theor ien oder Narrative in den Geowissenschaften Erklärungen, indem Robustprozesserklärungen und Aktualsequenzerklärungen, Beobachtungen und Hintergrundtheor ien verknüpft werden. Um zu kausalen Erklärungen zu gelangen, werden beispielsweise Tests durchgeführt, um zu beweisen, dass Hypothesen nicht im Widerspruch zu physikalischen Gesetzen oder Szenarien oder mit Hilfe von Computermodellen errechneten kontrafaktischen Implikationen stehen. Eine endgültige Überprüfung der kausalen Erklärungen ist allerdings aufgrund des Unterbestimmtheitsproblems nicht möglich. Um diesem Problem zu begegnen, wurden zwei Strategien entwickelt: die Methode der multiplen Arbeitshypothesen und Schließen auf die beste Erklärung. Wenn die Narrative der Überprüfung auch im Lichte von immer mehr Beweisen standhalten, werden die Hypothesen eher als die beste Erklärung akzeptiert. Sobald Geowissenschaftler einen begründeten Konsens bezüglich eines historischen Narrativs gefunden haben, ist die beste Erklärung, dass sie Wissen über die Vergangenheit erworben haben.12 Wir konnten selbstverständlich nicht alle interessanten philosophischen Themen der Geowissenschaften behandeln; eine ausführliche Abhandlung der Philosophie der Geowissenschaften in einem einzelnen Buchkapitel ist ein Ding der Unmöglichkeit. Zu guter Letzt möchten wir dennoch zwei Themen aufwerfen, die wir für wichtig erachten und die es wert wären, näher erforscht zu werden. Das erste Thema betrifft die Rolle des Experiments und des materiellen Modellierens in der geowissenschaftlichen Forschung. Nachdem dies die längste Zeit vernachlässigt worden ist, befassen sich Wissenschaftsphilosophen in letzter Zeit vermehrt mit der Funktion des Experiments in den Wissenschaften und der materiellen Seite der Forschung (siehe beispielsweise Radder 2003). Da direkte Versuche in den Geowissenschaften oft schwierig sind, stellen materielle (Skalen)Modelle, Diese Aussage kann natürlich von Philosophen, die antirealistische Auslegungen von wissenschaftlichen Theor ien befürworten, angezweifelt werden. Wenn man die Debatte um wissenschaftlichen Realismus auf historische Wissenschaften wie die Geologie anwendet, stellt sich die Frage, ob Theor ien über die Vergangenheit überhaupt als realistisch angenommen werden können. Für eine Diskussion dieses Themas siehe Turner (2007). 12
435
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
beispielsweise von Landschaften, eine wichtige Alternative dar. Der Vorteil von materiellen Modellen ist zweierlei: einerseits bilden sie die Natur unmittelbarer ab als Computermodelle (deren Output durch den theoretischen Input vorgegeben ist) und andererseits lassen sie gleichzeitig Manipulationen und kontrollierte Eingriffe zu, die in der Natur normalerweise unmöglich oder unerwünscht wären. Beispiele dafür sind Skalenmodelle, die hydrologische Systeme wie Flussdeltas (siehe beispielsweise Kleinhans et al. 2010; 2014) und tektonische Systeme abbilden. Obwohl die Ergebnisse solcher Modelle sich aufgrund von Skaleneffekten nicht immer eins zu eins auf die Natur umlegen lassen, sind materielle Modelle dennoch unverzichtbar, um ein Verständnis von geowissenschaftlichen Systemen zu erlangen. Zweitens und letztens ist ein weiteres wichtiges Thema, das wir in unserer Diskussion nicht behandelt haben, die Beziehung zwischen den Geowissenschaften und der Gesellschaft. Offensichtlich können geowissenschaftliche Untersuchungen enorme gesellschaftliche Konsequenzen haben (man denke an den Klimawandel und andere Umweltthemen); Philosophen können gewiss dazu beitragen, derartig komplexe Probleme zu analysieren und zu lösen.13 * * * Dieses Kapitel ist eine überarbeitete und aktualisierte Version des Kapitels »Philosophy of Earth Science« von denselben Autoren in Philosophies of the Sciences: A Guide (hrsg. von Fritz Allhoff, Wiley-Blackwell 2010, 213 – 236). Die Autoren danken Wiley-Blackwell für die Erlaubnis, diesen Text als Basis für die über arbeitete deutsche Version zu verwenden. Koko Kwisda, Peter Kirschenmann und David Ludwig danken wir für ihre Hilfe bei der Übersetzung.
Literatur Empfehlungen: Es gibt nicht viele Bücher, die sich vollständig mit der Philosophie der Geowissenschaften befassen. Eine hilfreiche Einführung in das Thema bieten Science, Philosophy and Physical Geography von Rob Inkpen and Graham Wilson (London: Routledge, 2013) und Paleontology: A Philosophical Introduction von Derek Turner (Cambridge University Press, 2011). Arbeiten auf fortgeschrittenem Niveau sind Turners Making Prehistory: Historical Science and the Scientific Realism Debate (Cambridge University Press, 2007) und Aviezer Tuckers Our Knowledge of the Past (Cambridge University Press, 2004). Turners Buch erörtert die Frage, ob Theor ien über die weiter entfernte Vergangenheit realistisch interpretiert werden können. Tucker bietet eine allgemeine philosophische Abhandlung der Historiographie, die aber auch für die Geowissenschaften von Interesse ist. Rethinking the Fabric of Geology, Beispiele für eine philosophische Analyse der Wechselwirkungen zwischen Klimawissenschaften, Richtlinien und moralischen und gesellschaftlichen Werten findet man bei Petersen (2012) und Frodeman (2013). 13
436
Philosophie der Geo- und Umweltwissenschaften
das von Victor Baker herausgegeben wurde (Geological Society of America Special Paper 502, 2013), stellt eine wertvolle Sammlung kurzer Artikel über den aktuellen Stand der Geologie dar; auch philosophische Belange werden ausführlich diskutiert. Ein Standardwerk der Wissenschaftsphilosophie ist The Bloomsbury Companion to the Philosophy of Science, hrsg. von Steven French und Juha Saatsi (London: Bloomsbury, 2014). Dieser Band bietet einen Überblick über den Sachstand in laufenden Debatten der Wissenschaftsphilosophie, im speziellen über Reduktion, Erklärung, Realismus und wissenschaftliches Modellieren. Leser, die mehr über Erklärung wissen wollen, sollten Scientific Explanation von Erik Weber, Jeroen Van Bouwel und Leen De Vreese (Springer, 2013) lesen. Die klassische Darstellung und Verteidigung der abduktiven Methode des Schließens ist Peter Liptons Inference to the Best Explanation (Routledge, 2004, zweite Ausgabe). Fortgeschrittene Diskussionen über die Themen der Reduktion und Emergenz finden sich in John Duprés The Disorder of Things: Metaphysical Foundations of the Disunity of Science (Harvard University Press, 1993) und in William Wimsatts Re-Engineering Philosophy for Limited Beings: Piecewise Approximations to Reality (Harvard University Press, 2007). Bak, Per, Tang, Chao, und Weisenfeld, Kurt (1987). Self-organised criticality: an explanation of 1/f noise. Physical Review Letters 59, 381 – 385. Baker, Victor R. (1996). Hypotheses und geomorphological reasoning. In: B. L. Rhoads und C. E. Thorn (Hg.), The Scientific Nature of Geomorphology, Wiley & Sons, Chichester, 57 – 86. –, (Hg.) (2013). Rethinking the fabric of geology. Geological Society of America Special Paper 502. Ball, Philip (1999). The Self-Made Tapestry: Pattern Formation in Nature. Oxford University Press, Oxford. Beatty, John (1995). The evolutionary contingency thesis. In: G. Wolters und J. G. Lennox (Hg.), Concepts, Theories, and Rationality in the Biological Sciences, Pittsburgh University Press, Pittsburgh, 45 – 81. Berendsen, Henk J. A., und Stouthamer, Esther (2001). Palaeogeographic Development of the Rhine-Meuse Delta, the Netherlands. Van Gorcum, Assen. Chamberlin, Thomas Chrowder (1890). The method of multiple working hypotheses. Science 15, 92 – 9 6 Cleland, Carol E. (2002). Methodological and epistemic differences between historical science and experimental science. Philosophy of Science, 69, 474–496. – (2011). Prediction and explanation in historical natural science. British Journal for Philosophy of Science, 62, 1–32. – (2013). Common cause explanation and the search for a smoking gun. In: Baker (2013), 1 – 9 . Davis, William Morris (1926). The value of outrageous geological hypotheses. Science 63, 463 – 468 De Regt, Henk W., und Dieks, Dennis (2005). A contextual approach to scientific understanding. Synthese 144, 137 – 170. 437
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Dupré, John (1993). The Disorder of Things: Metaphysical Foundations of the Disunity of Science. Harvard University Press, Cambridge, Mass. Fodor, Jerry A. (1974). Special sciences (or: the disunity of science as a working hypothesis), Synthese 28, 97 – 115. Frodeman, Robert (2013). The geosciences, climate change, and the virtues of ignorance. In: Baker (2013), 145 – 152. Hempel, Carl Gustav (1965), Aspects of Scientific Explanation. The Free Press, New York. Hull, David L. (1989). The Metaphysics of Evolution. SUNY Press, New York. Humphreys, Paul (1997). Emergence, not supervenience. Philosophy of Science 64, S. 337–345. Hutton, James (1785). The system of the earth, its duration, and stability. In: Claude C. Albritton (Hg.), Philosophy of Geohistory, 1785 – 1970. Dowden, Hutchinson und Ross, Stroudsburg (1975), 24 – 52. Inkpen, Robert, und Wilson, Graham (2013). Science, Philosophy and Physical Geography. Routledge, London. Kim, Jaegwon (1998). Mind in a Physical World. MIT Press, Cambridge MA. Kimbrough, Steven Orla (1979). On the reduction of genetics to molecular biology. Philosophy of Science 46, 389 – 406. Kitcher, Philip (1989), Explanatory unification and the causal structure of the world. In: Philip Kitcher und Wesley Salmon (Hg.), Scientific Explanation, University of Minnesota Press, Minneapolis, 410 – 505 Kitts, David B. (1966). Geologic time. Journal of Geology 74, 127 – 146. Kleinhans, Maarten G. (2010). Sorting out river channel patterns, Progress in Physical Geography 34, 287 – 326. –, Bierkens, Marc F. P., und van der Perk, Marcel (2010). On the use of laboratory experimentation: »Hydrologists, bring out shovels and garden hoses and hit the dirt«, Hydrology and Earth System Sciences 14, 369–382. –, van Dijk, Wout M.; van de Lageweg, Wietse I.; Hoyal, David C. J. D.; Markies, Henk; van Maarseveen, Martin; Roosendaal, Chris; van Weesep, Wendell; van Breemen, Dimitri, Hoendervoogt, Remko, und Cheshier, Nathan (2014), Quanti fiable effectiveness of experimental scaling of river- and delta morphodynamics and stratigraphy, Earth-Science Reviews 133, 43 – 61. –, Buskes, Chris J. J., und De Regt, Henk W. (2005). Terra Incognita: Explanation and Reduction in Earth Science, International Studies in the Philosophy of Science 19, 289 – 317. Laudan, Rachel (1987). From Mineralogy to Geology: The Foundations of a Science, 1650 – 1830. University of Chicago Press, Chicago. Lipton, Peter (2004). Inference to the Best Explanation (2nd edition). Routledge, London. Machamer, Peter K., Darden, Lindley, und Craver, Carl F. (2000). Thinking about mechanisms. Philosophy of Science 67, 1 – 25. Mandelbrot, Benoit B., und Wallis, James R. (1969). Some long-run properties of geophysical records. Water Resources Research 5, 321 – 340. 438
Philosophie der Geo- und Umweltwissenschaften
Murray, A. Brad (2007). Reducing model complexity for explanation and prediction, Geomorphology 90, 178 – 191. Nabi, Mohammed; de Vriend, H. J., Mosselman, E., Sloff, C. J., und Shimizu, Y. (2013). Detailed simulation of morphodynamics, 3. Ripples and dunes, Water Resources Research 49, 5930–5943. Nagel, Ernest (1961). The Structure of Science. Harcourt, Brace and World, New York. Oreskes, Naomi; Shrader-Frechette, Kristin, und Belitz, Kenneth (1994). Verification, validation and confirmation of numerical models in the earth sciences. Science 263, 641 – 642. Petersen, Arthur C. (2012). Simulating Nature: A Philosophical Study of Computersimulation Uncertainties and their Role in Climate Science and Policy Advice (2nd edition). CRC Press, Boca Raton. Raerinne, Jani (2015). Evolutionary stability, contingency, and biological laws. Journal for General Philosophy of Science 46, 45 – 62. Radder, Hans (Hg.) (2003). The Philosophy of Scientific Experimentation. University of Pittsburgh Press, Pittsburgh. Salmon, Wesley C. (1984). Scientific Explanation and the Causal Structure of the World, Princeton University Press, Princeton. Schumm, Stanley A., und Lichty, Robert W. (1965). Time, space and causality in geomorphology. American Journal of Science 263, 110 – 119. Smith, Peter (1998). Explaining Chaos. Cambridge University Press, Cambridge. Sterelny, Kim (1996). Explanatory pluralism in evolutionary biology. Biology and Philosophy 11, 193 – 214. Tucker, Aviezer (2011). Historical science, over- and underdetermined: A study of Darwin’s inference of origins. British Journal for the Philosophy of Science, 62, 805–829. – (2014), Biology and natural history: What makes the difference? In: M. I. Kaiser et al. (Hg.), Explanation in the Special Sciences: The Case of Biology and History. Springer, Dordrecht, 347 – 365. Turner, Derek D. (2005). Local underdetermination in historical science. Philosophy of Science 72, 209 – 230 – (2007). Making prehistory: Historical Science and the Scientific Realism Debate. Cambridge University Press, Cambridge. – (2011). Paleontology: A Philosophical Introduction. Cambridge University Press. – (2014), Causal explanations of historical trends. In: M. I. Kaiser et al. (Hg.), Explanation in the Special Sciences: The Case of Biology and History. Springer, Dordrecht, 255 – 269. Van Thienen, Peter; Vlaar, N. J., und Van den Berg, A. P. (2004). Plate tectonics on terrestrial planets. Physics of the Earth and Planetary Interiors 142, 61 – 74. Von Wright, Georg Henrik (1971). Explanation and Understanding. Cornell University Press, Ithaca. Wimsatt, William C. (2007). Re-Engineering Philosophy for Limited Beings: Piecewise Approximations to Reality. Harvard University Press, Cambridge MA. 439
4. Philosophie der Kognitionswissenschaft Sven Walter
1 Einleitung 1.1 Kognition, Kognitionswissenschaft und Philosophie der Kognition Kognitionswissenschaft ist die Wissenschaft, die sich mit der Kognition beschäftigt. Was aber ist Kognition? Vor dem Hintergrund seines etymologischen Ursprungs in den lateinischen und griechischen Ausdrücken für erkennen, wahrnehmen oder wissen (cognoscere, gignoskein) wird der Ausdruck »Kognition« zunächst einmal mit Problemlösen und Intelligenz assoziiert. Wir sind ständig mit Problemen unterschiedlichster Art konfrontiert: Wir müssen beim Schach den besten Zug finden, ein Theorem beweisen, herausfinden, warum der Rasenmäher Öl verliert, ein Tablett voller Gläser durch eine Party balancieren, Radfahrern ausweichen, den Hund zum Tierarzt bringen, beim Metzger Besorgungen machen und das Auto in Reparatur bringen, ohne dabei zu große Umwege zu fahren oder den Hund unnötig lange mit den Einkäufen allein im Wagen zu lassen usw. Als kognitive Leistung kann das gelten, was uns befähigt, Probleme wie diese intelligent zu lösen: Wir müssen etwa unsere Umgebung wahrnehmen, unsere Aufmerksamkeit auf etwas richten, uns an vergangene Lösungsversuche erinnern, aus gescheiterten lernen, aus unseren Erfahrungen Schlüsse ziehen, mit anderen sprechen oder nichtsprachlich mit ihnen kommunizieren, Lösungsstrategien planen, uns entscheiden usw. Entsprechend lässt sich die Ko gnitionswissenschaft ganz allgemein als integratives Forschungsprogramm verstehen, das eine empirisch wie begrifflich umfassende Untersuchung jener (kognitiven) Leistungen anstrebt, die natürliche oder künstliche Systeme – Menschen, andere Tiere, Computersimulationen oder Roboter – befähigen, durch intelligentes Verhalten Probleme effizient zu lösen (Stephan/Walter 2013). Naturgemäß sind daran verschiedene Disziplinen beteiligt. Historisch dominierte dabei zunächst die Künstliche-Intelligenz-Forschung, die neben dem Ideal einer »starken KI« (also der Erschaffung künstlicher Systeme, die im selben Sinne intelligent sind, wie der Mensch es ist) und dem rein ingenieurwissenschaftlichen Interesse an künstlichen Systemen, die immerhin ein Verhalten zeigen, das zumindest beim Menschen Intelligenz erfordert (↑ Philosophie der Ingenieurwissenschaften), in Gestalt einer »schwachen KI« vor allem auch das Ziel verfolgt, über die Modellierung kognitiver Leistungen deren Natur, Funktion und Organisationsprinzipien zu verstehen. Mitstreiter fand die KI dabei in einer Reihe 441
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
von Disziplinen, welche sie mittlerweile zu jenem inter- bzw. transdisziplinären Forschungsverbund komplettieren, der für eine umfassende Wissenschaft von Kognition unabdingbar ist, wie ein kurzer historischer Exkurs illustrieren kann. In der ersten Hälfte des zwanzigsten Jahrhunderts war die Psychologie zu einer »science of behavior« geworden (Skinner 1953, Kap. 2) und damit nicht mehr jene »science of mental life«, als die ihr Gründervater William James sie intendiert hatte (1890, 1). Mit dem Niedergang des radikalen Behaviorismus von John Watson und Burrhus Frederic Skinner jedoch setzte sich im Zuge der »kognitiven Revolution« (Gardner 1995; Sturm/Gundlach 2013) gegen Mitte des Jahrhunderts (wieder) die Einsicht durch, dass intelligentes Verhalten nur durch Rekurs auf interne geistige Prozesse zu erklären ist, die einen Akteur in die Lage versetzen, Probleme zu erkennen und sie durch geeignete Handlungen zu lösen. In diesem Kontext betonte das Adjektiv »kognitiv« den Unterschied zwischen einer rein behavioristischen Reiz-Reaktions-Psychologie einerseits und der später so genannten kognitiven Psychologie andererseits, die zur Erklärung intelligenten Verhaltens ausdrücklich informationsverarbeitende Strukturen im Gehirn – kognitive Prozesse eben – postulierte, die zwischen den Reizen (dem perzeptuellen Input) und den Reaktionen (dem behavioralen Output) zu vermitteln hatten (Miller et al. 1960; Neisser 1967). Man spricht entsprechend auch vom »Sandwichmodell« von Kognition (Hurley 1998): Das zentrale kognitive System wird von den peripheren sensorischen Input- und motorischen Outputsystemen eingerahmt wie der Belag eines Sandwichs von den Brötchenhäften (Fodor 1983). Wird Kognition so verstanden, dann spricht grundsätzlich nichts dagegen, auch affektive und konative Phänomene (»Emotion« und »Motivation«) darunter zu fassen, die an der Überführung von Stimuli in Verhalten beteiligt sind (s. Abschnitt 3.2). Als zum Beispiel die Psychologen Jerome Bruner und George Miller 1960 mit dem Harvard Center for Cognitive Studies das erste interdisziplinäre Forschungszentrum auf dem Gebiet der späteren Kognitionswissenschaft gründeten, verwendeten sie den Ausdruck »kognitiv« in diesem allgemeinen Sinne. Zwar sollte es primär um Leistungen wie Wahrnehmung, Sprache, Gedächtnis und Problemlösen gehen und dabei die Abkehr vom Behaviorismus betont werden, jedoch wurden explizit auch konative und affektive Phänomene mit einbezogen: In reaching back for the word »cognition«, I don’t think anyone was intentionally excluding »volition« or »conation« or »emotion« […]. In using the word »cognition« we were setting ourselves off from behaviorism. We wanted something that was mental – but »mental psychology« seemed terribly redundant. (Miller 1986, 210)
Aus »cognitive studies« wurde schnell »cognitive sciences«. Der Psychologe Hugh Christopher Longuet-Higgins war 1973 der erste, der diesen Ausdruck im Druck verwendete:
442
Philosophie der Kognitionswissenschaft
The question What science or sciences are likely to be enriched by artificial intelligence studies? can now receive a provisional answer, namely All those sciences which are directly relevant to human thought and perception. These cognitive sciences may be roughly grouped under four main headings: Mathematical – including formal logic, the theory of programs and programming languages, the mathematical theory of classification and of complex data structures. Linguistic – including semantics, syntax, phonology and phonetics. Psychological – including the psychology of vision, hearing and touch, and Physiological – including sensory physiology and the detailed study of the various organs of the brain. (Longuet-Higgins 1973, 37)
Bereits im nächsten Satz jedoch weist Longuet-Higgins darauf hin, dass der Singular dem bloßen Verweis auf die an der Erforschung geistiger Leistungen beteiligten Kognitionswissenschaften aufgrund der für diesen Untersuchungsgegenstand erforderlichen inhaltlichen Verflechtung vorzuziehen sein könnte: »Perhaps cognitive science in the singular would be preferable to the plural form, in view of the ultimate impossibility of viewing any of these subjects in isolation« (ebd.). In der Tat förderte die Alfred P. Sloan Foundation ab 1975 unter Verwendung des Singulars »cognitive science« ein für die heutige Kognitionswissenschaft wegweisendes Projekt, das der interdisziplinären Suche nach einer begrifflichen und theoretischen Grundlage der Erforschung geistiger Leistungen gewidmet war (Miller 2003). Die Vorstellung, dass Kognition eine Form der Informationsverarbeitung ist, die zwischen perzeptuellem Input und behavioralem Output vermittelt, sowie die damit einhergende Abgrenzung einer dezidiert kognitiven Psychologie von einer behavioristischen Reiz-Reaktions-Psychologie brachten jedoch auch ein engeres Verständnis von Kognition und Kognitionswissenschaft mit sich. Da den zentralen informationsverarbeitenden Prozessen interne Repräsentationen zugrunde liegen sollten, lag es mit dem Aufkommen der Computerwissenschaft nahe, Ko gnition in Analogie zur Arbeitsweise von Computern zu verstehen, die durch syntaktisch spezifizierte algorithmische Berechnungsprozesse (computations) über interne Repräsentationen einen Input in einen Output überführen. Kognition war demzufolge nicht ganz allgemein dasjenige, was natürliche und künstliche Systeme zu intelligentem Verhalten befähigt, sondern eine spezifische Form von Informationsverarbeitung, die intelligentem Verhalten zugrunde liegt, nämlich die Verarbeitung von Information mittels der regelgeleiteten Transformation interner mentaler Repräsentationen durch geeignete Berechnungsprozesse. In einem Übersichtsbericht, den Miller und zwei Kollegen 1978 für die Sloan Foundation verfassten, charakterisierten sie die Kognitionswissenschaft entsprechend als jene Wissenschaft, die für die Erforschung dieser Transformationsprozesse 443
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
zuständig ist: »What has brought the field into existence is a common research objective: to discover the representational and computational capacities of the mind and their structural and functional representation in the brain« (Keyser et al. 1978, 6). Diese Auffassung von Kognition bringt es mit sich, dass kognitive Prozesse auf »höherstufigen« algorithmischen oder computational-repräsentationalen Ebenen ebenso zum Explanandum werden können wie auf der »niederstufigen« Ebene ihrer materiellen (z. B. neuronalen) Implementation (Marr 1982; s. Abschnitt 1.2). Wie sowohl das sogenannte »Computermodell des Geistes« in der Kognitionswissenschaft als auch der Funktionalismus in der Philosophie des Geistes betonten (der dort in etwa zeitgleich die identitätstheoretisch geprägte Vorstellung abzulösen begann, dass mentale Zustände an ein spezifisches neuronales Substrat gebunden sind; ↑ Philosophie der Neurowissenschaften), ähneln kognitive Prozesse damit einer Art »Software«, die auf ganz unterschiedlicher »Hardware« laufen kann (s. Abschnitt 2.1). Aus diesem Grund zählte der Bericht von Keyser et al. (1978) zur Kognitionswissenschaft all jene Forschungsfelder, die unter dem gemeinsamen Ziel einer computational-repräsentationalen Beschreibung geistiger Leistungen auf irgendeiner dieser Ebenen an der Erforschung kognitiver Prozesse beteiligt sind, namentlich die Anthropologie, Informatik, Linguistik, Neurowissenschaft, Philosophie und Psychologie. Diese Auffassung hat trotz zunehmend feiner ziselierten »Brückendisziplinen« wie etwa Neuroinformatik, Psycholinguistik, Neurolinguistik oder Neuro(bio)psychologie (Stephan/Walter 2013, Teil II) in ihren Grundzügen nach wie vor Bestand, auch wenn noch stets Uneinigkeit darüber herrscht, ob es sich dabei um verschiedene Kognitionswissenschaften handelt oder ob die umfassenden und vielschichtigen Erklärungsansprüche, die das Forschungsprogramm von Anfang an angetrieben und überhaupt erst ins Leben gebracht haben, durch eine bloße Kooperation verschiedener (Sub-)Disziplinen nicht einzulösen sind, sondern eben eine einheitliche, wenn auch facettenreiche und in ihren Teilgebieten methodologisch und inhaltlich hoch spezialisierte Kognitionswissenschaft im Singular erfordern. Und wenngleich das ursprüngliche Ideal eines computational-repräsentationalen Ansatzes gegenwärtig nicht mehr unhinterfragt ist, bildet es nach wie vor die Grundlage zahlloser erfolgreicher Erklärungen und stellt mit seinen zentralen Begriffen der Computation und Repräsentation selbst für jene, die ihm in jüngerer Zeit kritisch gegenüberstehen, zunächst einmal das Standardmodell dar, gegen das sich alternative Ansätze abgrenzen müssen. Bevor in Abschnitt 2 näher auf die Details dieser Debatte(n) eingegangen wird, zunächst noch ein paar Worte zu der Frage, wie sich eine Philosophie der Kognition oder der Kognitionswissenschaft angesichts der gerade skizzierten inhaltlichen Verflechtungen gegen angrenzende und zum Teil überlappende »Philosophien« abgrenzen lässt.
444
Philosophie der Kognitionswissenschaft
1.2 Philosophie der Kognition, der Kognitionswissenschaft, der Psychologie und der Neurowissenschaften So etwas wie eine Philosophie der Kognition konnte erst entstehen, als man Mitte des zwanzigsten Jahrhunderts in der Nachfolge der »kognitiven Revolution« begann, aus interdisziplinärer Perspektive jenen Aspekt unserer conditio humana empirisch und begrifflich in den zu Blick nehmen, der unsere Fähigkeit zur intelligenten Problemlösung betrifft (s. Abschnitt 1.1). Sie schließt daher zwar in Teilen inhaltlich an die bekanntere Philosophie des Geistes an, ist aber deutlich spezifischer: Deren Probleme rund um die umfassenden metaphysischen Fragen nach dem Verhältnis von Gehirn und Geist, Leib und Seele, nach Willensfreiheit, Qualia und intentionalem Gehalt etwa spielen in der Philosophie der Kognition in dem Maß keine oder allenfalls eine untergeordnete Rolle, wie sie für ihre Leitfrage, welche Teile eines Systems und seiner Umwelt auf welche Weise zu seinem intelligenten Verhalten beitragen, irrelevant sind (für ein liberaleres Verständnis, das derartige Fragen der Philosophie der Kognition zurechnet, vgl. Boden 2006). Wie sich die Philosophie der Kognition zur Philosophie der Psychologie (↑ Philosophie der Psychologie) verhält, hängt davon ab, was genau Letztere einschließt. Eine (plausible) Lesart versteht darunter jenes Forschungsfeld, das zwar wie die Philosophie des Geistes und die Philosophie der Kognition an einer Untersuchung mentaler Phänomene und ihres Zusammenhangs mit Verhalten interessiert ist, dabei jedoch mit beiden Gebieten nur partiell überlappt, sie aber nicht voll umfasst, weil auf der einen Seite allzu abstrakte Fragen der Philosophie des Geistes ohne erkennbaren empirischen Bezug (wie etwa der Streit zwischen Kompatibilisten und Libertariern in der Willensfreiheitsdebatte) ausgeblendet werden und auf der anderen Seite jene Fragen der Philosophie der Kognition eine untergeordnete Rolle spielen, die mit anderen Teilgebieten der Kognitionswissenschaft als der Psychologie verbunden sind (zum Beispiel die Frage nach der Natur funk tionaler oder mechanistischer Erklärungen in den Neurowissenschaften; ↑ Philosophie der Neurowissenschaften). Während die Philosophie der Kognition mit ihrem Fokus auf kognitive Leistungen also enger ist als die klassische Philosophie des Geistes mit ihrem umfassenden Interesse an allen Aspekten geistigen Lebens, ist sie zugleich breiter als die Philosophie der Psychologie (sofern diese im gerade erläuterten Sinne verstanden wird; für ein liberaleres Verständnis ↑ Philosophie der Psychologie). Zudem ist sie in zweierlei Hinsicht auch breiter als das, was man oftmals als »Neurophilosophie« oder »Philosophie der Neurowissenschaften« bezeichnet (↑ Philosophie der Neurowissenschaften). Zum einen ist die Philosophie der Neurowissenschaften naturgemäß auf Systeme beschränkt, deren geistiges Leben in neuronalen Strukturen verankert ist, während es aus Sicht einer computational/repräsentationalen Auffassung von Kognition zunächst einmal gleichgültig ist, wie die entsprechenden Berechnungsprozesse und Repräsentationen materiell implementiert sind (s. Abschnitt 1.1). 445
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Unter anderem deshalb spielte die Erforschung der unseren kognitiven Leistungen zugrunde liegenden neuronalen Mechanismen in der Kognitionswissenschaft historisch ja zunächst eine eher untergeordnete und die KI eine so hervorgehobene Rolle. Heute sind die Neurowissenschaften zwar ein ebenso zentraler Bestandteil der Kognitionswissenschaft wie die KI oder die kognitive Psychologie, können aber für sich genommen eben nur einen Ausschnitt des kognitionswissenschaftlich Relevanten beleuchten. Marr (1982) betont die Notwendigkeit des Zusammenspiels verschiedener Disziplinen im Rahmen seiner bereits angedeuteten Unterscheidung von drei Analyseebenen, auf denen informationsverarbeitende Systeme beschrieben und ihre Funktions- und Arbeitsweise erklärt werden können. Auf der obersten Ebene, der Rechenebene (computational level), wird eine computationale Beschreibung der Aufgabe erstellt (etwa die Addition zweier Zahlen oder die Umwandlung der Retinastimulation in eine dreidimensionale Wahrnehmung). Dazu wird der für die Lösung der Aufgabe erforderliche Berechnungsprozess in Form einer mathematischen Funktion beschrieben und gezeigt, dass sich damit die Aufgabe lösen lässt. Auf der mittleren, der algorithmischen, Ebene (level of representation and algorithm) wird das Repräsentationsformat von Input und Output spezifiziert und angegeben, mittels welcher Algorithmen das System die entsprechende Funktion berechnet. Auf der untersten Ebene, der Implementationsebene (level of hardware implementation), schließlich muss gezeigt werden, wie die verwendeten Repräsentationen und Algorithmen in einem System implementiert sind und wie die postulierten Mechanismen die ihnen zugeschriebene Funktion erfüllen können (etwa mittels Neuronen, Siliziumchips usw.). Je nach Problem mag dabei ein top-down- oder ein bottom-up-Ansatz angezeigt sein (s. Abschnitt 2.1), und in beiden Fällen kann die Neurowissenschaft zu einem besseren Verständnis beitragen, alleine kann sie aber eben (wie alle Teildisziplinen der Kognitionswissenschaft in Isolation auch) nicht alle relevanten Aspekte beleuchten. Zum anderen laufen »situierte« Ansätze im Zuge einer liberaleren Auffassung von Kognition darauf hinaus, dass kognitive Prozesse gerade nicht auf Vorgänge im Gehirn beschränkt sind, sondern mitunter auf die eine oder andere näher zu spezifizierende Weise den gesamten Körper und sogar die natürliche, technische oder soziale Umwelt umfassen (s. Abschnitt 2.2). Demnach kann die Neurowissenschaft also zwar erneut wichtige Einsichten bereitstellen, aber eben nicht die komplette »kognitive Maschinerie« erfassen. Das charakteristische Leitmotiv der Philosophie der Kognition (Shapiro 2011; Walter 2014a) ist mithin die Frage, wie natürliche oder künstliche Systeme strukturiert sein müssen, um kognitive Leistungen wie Wahrnehmen, Erinnern, Lernen, Schlussfolgern, Planen, Entscheiden usw. erbringen zu können. Zusätzlich zu den für die unterschiedlichen kognitiven Leistungen jeweils spezifischen Detailfragen (vgl. Stephan und Walter, Teil IV) stellt sich dabei eine Reihe grund legender philosophischer Fragen, die insbesondere die zentralen Begriffe der Berechnung und der Repräsentation betreffen. 446
Philosophie der Kognitionswissenschaft
(1) Sofern man die enge Auffassung von Kognition akzeptiert, wonach kognitive Prozesse Berechnungsprozesse über interne mentale Repräsentationen sind, muss geklärt werden, welche Arten von Repräsentationen und Berechnungsprozessen maßgeblich sind: Ist Kognition im Sinne des traditionellen »Computermodells« eine Sache globalen Regeln folgender Berechnungsprozesse über Repräsentationen symbolischer Art, wie sie in digitalen Computern zu finden sind? Oder beruhen kognitive Leistungen im Sinne des Konnektionismus auf Aktivierungsmustern in hochgradig vernetzten Verbünden einfacher Verarbeitungseinheiten, sogenannten neuronalen Netzen, die mit subsymbolischen Repräsentationen arbeiten und zwar keinen explizit vorgegebenen globalen Regeln folgen, aber dennoch Computer (»Berechner«) sind, die durch lokale Rechenoperationen an den einzelnen »Knoten« künstlicher oder natürlicher neuronaler Netze einen Input in einen Output überführen (s. Abschnitt 2.1)? (2) Klärungsbedürftig ist auch das Verhältnis der beiden zentralen Begriffe der Berechnung und der Repräsentation. Auf der einen Seite binden manche im Zuge eines »semantischen« Berechnungsbegriffs (Piccinini 2012) Berechnung von vornherein an die Verarbeitung von Repräsentationen – weshalb zum Beispiel Fodor (1975) argumentierte, jedes plausible Modell des menschlichen Geistes müsse interne Repräsentationen postulieren. Auf der anderen Seite scheinen viele Kog nitionswissenschaftler in der Praxis aber gerade mit einem Berechnungsbegriff zu arbeiten, der nicht voraussetzt, dass es Repräsentationen gibt – zumindest nicht in Fodors Sinne (Milkowski 2013, Kap. 4; Piccinini 2008). (3) Dies wiederum wirft unmittelbar die Frage nach möglichen Abstufungen im Repräsentationsbegriff auf: Ist einzig ein starker Repräsentationsbegriff im Sinne abstrakter, modalitätsunspezifischer und handlungsunabhängiger Repräsentationen maßgeblich oder gibt es auch schwächere Repräsentationsbegriffe (z. B. Gallagher 2008), die mit weniger voraussetzungsreichen, explizit handlungsbezogenen und mitunter modalitätsspezifischen sensomotorischen Repräsentationen arbeiten (Clark/Toribio 1994), und wenn ja, inwieweit sind solche alternativen Repräsentationsbegriffe explanatorisch fruchtbar (s. Abschnitt 2.3)? (4) Ob Repräsentationen in einem schwächeren Sinne als Repräsentationen sensu stricto gelten können, ist auch im Zusammenhang mit der Frage wichtig, ob man das enge Bild von Kognition nicht womöglich aufgeben oder zumindest stark modifizieren sollte, weil Kognition mit Berechnungen und Repräsentationen entgegen der traditionellen Annahme schlussendlich wenig bis überhaupt nichts zu tun hat und im Rahmen eines mehr oder weniger radikalen Anticomputationalismus (van Gelder 1995) oder Antirepräsentationalismus (Hutto/Myin 2013) vielmehr eine Sache der dynamischen Gesamtorganisation des Gehirns, des übrigen Körpers und der aktiven Interaktion mit der Umwelt ist (z. B. Chemero 2009; s. Abschnitt 2.2). (5) Schließlich wird vor dem Hintergrund der allgemeineren Auffassung von Kognition als demjenigen, was uns zu intelligentem Verhalten befähigt, unter dem Stichwort »situierte Kognition« (Robbins/Aydede 2009) seit geraumer Zeit 447
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
diskutiert, ob sich die für die kognitiven Leistungen eines Systems maßgeblichen Prozesse auf Strukturen in einer zentralen Verarbeitungseinheit (beim Menschen etwa dem Gehirn) beschränken oder mitunter den gesamten Körper umfassen oder sich sogar in die Umwelt hinein erstrecken (s. Abschnitt 2.2). Der Sache nach ist die Philosophie der Kognition demnach also sowohl am Was kognitiver Prozesse interessiert, also daran, ob und in welchem Sinne sie computational und repräsentational sind, als auch an ihrem Wo, das heißt daran, ob sich Kognition ausschließlich auf Prozesse im Gehirn beschränkt oder sich auch in den übrigen Körper oder die Umwelt eines Systems hinein erstreckt oder als relationales Phänomen gar überhaupt erst aus der wechselseitigen Interaktion mit der Umwelt hervorgeht. Zusätzlich zu diesen primär inhaltlichen Fragen nach der Natur des Kognitiven, die im Mittelpunkt von Abschnitt 2 stehen werden, stellen sich im Kontext der Kognitionswissenschaft aber auch dezidiert wissenschaftstheoretische Fragen, die zum Beispiel methodische oder erkenntnistheoretische Schwierigkeiten bei der Erforschung kognitiver Phänomene betreffen und die sich womöglich unter den Begriff »Philosophie der Kognitionswissenschaft« sub sumieren und so von einer Philosophie der Kognition abgrenzen ließen. Allerdings ist keinesfalls ausgemacht, dass darunter Fragen sind, die spezifisch die Ko gnitionswissenschaft als transdisziplinären Forschungsverbund betreffen (s. o.), die also über jene Fragen hinausgehen, die in den Wissenschaftsphilosophien der beteiligten Teildisziplinen erörtert werden (etwa »In welchem Sinne bilden bildgebende Verfahren in der Neurowissenschaft tatsächlich neuronale Prozesse ab?«, »Wie kann eine Wissenschaft des Psychologischen auf intersubjektiv überprüfbaren Daten fußen?«, »Wie kann eine mit Begriffsanalyse arbeitende Philosophie gehaltvolle Erkenntnisse über die Welt gewinnen?«) oder das Problem der Interdisziplinarität per se betreffen (Mittelstraß 2003) – zumindest wird derzeit in der Kognitionswissenschaft noch keine entsprechende wissenschaftstheoretische Debatte geführt. Die Frage einer Wissenschaftstheor ie der Kognitionswissenschaft wird in Abschnitt 3 noch einmal kurz zur Sprache kommen. Zunächst geht es wie bereits angekündigt um eine Reihe von ontologischen und erkenntnistheoretischen Disputen, die sich aus den beiden Fragen nach dem Was und Wo des Kognitiven ergeben, wobei insbesondere die fünf oben angerissenen Fragenkomplexe um die zentralen Begriffe der Berechnung und der Repräsentation vertieft werden.
2 Situierte Kognition: die Rolle von Körper und Umwelt Spätestens gegen Ende der 1980er Jahre geriet die traditionelle Auffassung, dass Kognition auf die Vorgänge in einer zentralen Verarbeitungseinheit wie dem Gehirn beschränkt ist, nachhaltig in die Kritik. Angestoßen durch konvergierende Erkenntnisse in verschiedenen Bereichen der Kog nitionsw issenschaft – unter anderem in der Robotik (z. B. Brooks 1991), der Linguistik (z. B. Lakoff/Johnson 1980; 1999) und der Entwicklungspsychologie (z. B. Thelen/Smith 1994) – begann 448
Philosophie der Kognitionswissenschaft
sich zu dieser Zeit die Auffassung durchzusetzen, dass weder die auf Computation und Repräsentation setzenden klassischen Positionen (s. Abschnitt 2.1) noch dezidiert anticomputationalistische und antirepräsentationalistische Alternativen kognitive Leistungen umfassend erklären können, solange sie nicht der Tatsache Rechnung tragen, dass Kognition ganz wesentlich auch vom übrigen Körper eines Systems sowie von seiner aktiven Einbettung in seine natürliche, technische und soziale Umwelt abhängt (s. Abschnitt 2.2): Intelligente Akteure sind demnach keine isolierten Denker, deren Verhalten ausschließlich auf der wiederholten Abarbeitung starrer Wahrnehmen-Denken-Handeln-Zyklen beruht, und Kognition beschränkt sich auch nicht auf das Gehirn, sondern ist im gesamten Körper und der Umwelt situiert (Robbins/Aydede 2009; Shapiro 2011; Walter 2014a). Diese Situiertheitsthese gilt inzwischen als Wesensmerkmal einer »Ko gnitionswissenschaft zweiter Generation«, deren ausdrücklich handlungsbezogener Ansatz das fleischlose Credo des »Ich denke« der ersten Generation ersetzt hat. Es handelt sich bei diesen situierten Ansätzen bislang jedoch nicht um ein wohldefiniertes Forschungsprogramm (s. Abschnitt 3.1), sondern um einen losen Verbund philosophischer Erwägungen, empirischer Studien, psychologischer Modelle und ingenieurwissenschaftlicher Anwendungen, die einzig das Ideal eines ganzheitlichen Modells von Gehirn, Körper und Umwelt eint, ohne dass dabei immer klar würde, wie die diversen Vorstellungen, denen oft nachgesagt wird, als »Konterrevolution« der kognitiven Revolution der Anfangsjahre mit dem Versuch der Etablierung eines »neuen Paradigmas« (Stewart et al. 2010) begegnet zu sein, im Detail auszubuchstabieren sind (s. Abschnitte 2.3 u. 2.4) und ob es sich dabei tatsächlich um eine grundlegende Revolution oder doch bestenfalls um Perspekti venverschiebungen und graduelle Revisionen handelt (Villalobos 2013).
2.1 Die Kognitionswissenschaft erster Generation: das Computermodell des Geistes und der Konnektionismus Ihren historisch einflussreichsten Ausdruck fand die klassische Konzeption von Kognition in der Vorstellung, dass Kognition ein Prozess der formalen Regeln folgenden Transformation symbolischer Strukturen, das heißt eine Form von Informationsverarbeitung – genauer gesagt: Symbolverarbeitung – in einem physisch realisierten Symbolsystem (physical symbol system; Newell/Simon 1976) ist. Kognitive Prozesse sind demnach syntaktischen Regeln folgende sequenzielle Berechnungsprozesse über symbolische mentale Repräsentationen, die in Analogie zu Computern einen Input in einen Output überführen. Der Geist ist entsprechend so etwas wie ein Programm, das heißt die durch computational-repräsentationale Prozesse in der Hardware des Gehirns implementierte Software. Unter dem Einfluss dieses Computermodells war die Kognitionswissenschaft methodologisch zunächst von einem top-down-Ansatz geprägt, der mit computationalen Modellen begann und über die algorithmische Zergliederung kognitiver Leistun449
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
gen zur Ebene ihrer materiellen Implementierung voranschritt. Anfänglich lag das Augenmerk daher vor allem auf sogenannten »deterministischen Problemen«, für die sich eine entsprechende computationale Analyse anbietet, weil die Anfangs- und Zielzustände klar definiert und die Problemlöseoperatoren überschaubar sind, zum Beispiel deduktives Schließen, Theorembeweisen, Schachspielen oder die Lösung »logischer Knobelaufgaben« wie des Turm-von-Hanoi-Problems. Da Menschen bei der Anwendung logischer Schlussregeln und systematischen Suchen in großen Problemräumen schnell an ihre Grenzen stoßen, waren digitale Computer dem Menschen auf diesen Gebieten bald überlegen. Umgekehrt jedoch kamen Computer sehr viel schlechter mit unvollständigem, mehrdeutigem und vagem Input zurecht und hatten Schwierigkeiten bei Generalisierungen (Induktion) und der Hypothesenbildung (Abduktion), sodass sie zum Beispiel im Hinblick auf Leistungen wie Wahrnehmung, Kategorisierung oder die Verarbeitung natürlicher Sprache dem Gehirn deutlich unterlegen waren. Neben diesen praktischen Schwierigkeiten, die sich bei der Umsetzung des top-down-Ansatzes auf einigen Gebieten stellten, geriet die Vorstellung, dass Kognition nichts weiter als ein Prozess der formalen Regeln folgenden Transformation symbolischer Strukturen ist, auch philosophisch in die Kritik. Hubert Dreyfus (1972) argumentierte in Anlehnung an Martin Heidegger, dass symbolische Repräsentationen bloß ein abstraktes Wissen-dass zuwege bringen können, unser Sinn für Bedeutung aber wesentlich ein auf unserer Interaktion mit der Welt beruhendes praktisches Wissen-wie ist. Da die Welt als holistische Ganzheit für uns nur durch ein Handeln in ihr zu erfassen ist, erfordern Bedeutung und Intelligenz laut Dreyfus eine verkörperlichte Existenz. Die atomistischen und von der Welt separierten abstrakten internen Repräsentationen des Computermodells müssen daher bedeutungslos bleiben und sind ungeeignet, sinnhafte Beziehungen zwischen den Dingen der Welt einzufangen – eine Kritik, die später ganz ähnlich auch situierte Ansätze erheben sollten (s. Abschnitt 2.2). John Searles (1980) Gedankenexperiment des Chinesischen Zimmers attackierte ebenfalls die Vorstellung, dass Maschinen allein aufgrund ihrer Programmierung semantisches Verständnis zeigen können: Eine Person, die kein Chinesisch versteht, befindet sich in einem Zimmer, in das drei Stapel chinesischer Texte sowie Anweisungen in ihrer Sprache gereicht werden, die angeben, wie sich aus der Form der chinesischen Schriftzeichen in den Texten und ihren formalen Beziehungen untereinander weitere Zeichen ergeben, welche sie notieren und nach draußen zu reichen hat. Bei den Texten handelt es sich um eine Geschichte, Erläuterungen dazu sowie Fragen zu der Geschichte, und die nach draußen gereichten Zeichenfolgen verstehen chinesische Muttersprachler als Antworten auf die Fragen. Die Anweisungen sind ein »Programm« im Sinne des Computermodells, dessen formale Regeln der Person in dem Zimmer chinesische Zeichen so zu transformieren erlauben, dass sie Antworten auf Fragen zu einer Geschichte in chinesischer Sprache produziert, die von denen chinesischer Muttersprachler ununterscheidbar sind. Da die Person jedoch trotz allem keinerlei Chinesisch versteht, so Searle, ist die These 450
Philosophie der Kognitionswissenschaft
der starken KI (s. Abschnitt 1.1) falsch: Formale Symbolverarbeitung allein reicht für jenes semantische Verständnis, das den (ununterscheidbaren) Antworten chinesischer Muttersprachler zugrundeliegt, nicht aus (kann es aber im Sinne einer schwachen KI verstehen helfen). Searle zufolge ist es nicht so, dass Maschinen per se kein semantisches Verständnis zeigen können (chinesische Muttersprachler sind Maschinen einer bestimmten Art), sie können es nur nicht deshalb, weil sie entsprechend programmiert sind – eine Maschine, die zu semantischem Verständnis in der Lage sein soll, muss laut Searles (1992) »biologischem Naturalismus« nicht nur richtig programmiert sein, sondern auch eine Hardware aufweisen, die über ähnliche Kausalkräfte verfügt wie das menschliche Gehirn. Lediglich auf die formale Ebene blickende top-down-Ansätze übersehen demzufolge also spezifische Anforderungen auf der Implementationsebene. In den 1980er Jahren begann vor dem Hintergrund dieser praktischen wie theoretischen Schwierigkeiten ein alternativer bottom-up-Ansatz (wieder) Erfolge zu feiern, der das klassische Computermodell für physiologisch unrealistisch hielt, stattdessen davon ausging, dass das Gehirn einige kognitive Leistungen gerade deshalb erbringen kann, weil es eben keine sequenzielle Symbolverarbeitung betreibt, und der genau dort erfolgreich war, wo digitale Computer ihre Schwächen hatten: Statt aus computationalen Modellen gewonnene Regeln und Repräsentationen top-down in seriellen Systemen explizit symbolisch zu kodieren, setzte man unter dem Stichwort der Parallelverarbeitung (parallel distributed processing; Rumelhart et al. 1986) in Anlehnung an informationsverarbeitende Strukturen im Gehirn auf parallel arbeitende künstliche neuronale Netze, die sich die erforderlichen Regeln und Repräsentationen aufgrund ihrer Verbindungsstruktur implizit selbst aneignen. Dieser Konnektionismus (connection: Verbindung) modifizierte die Grundannahmen des Computermodells, gab sie aber nicht vollends auf: Neuronale Netze arbeiten zwar nicht seriell, sind aber dennoch informations verarbeitende Systeme, die Eingabe- in Ausgabevektoren überführen, und die Aktivierungsmuster in solchen Netzen gehen zwar nicht auf explizite globale Regeln zurück, erfordern lokal aber immer noch regelgeleitete, parallel an den einzelnen Knoten eines Netzes stattfindende Operationen und fungieren auf diese Weise als »verteilte« oder »subsymbolische« Repräsentationen (Hinton et al. 1986; Smolensky 1988). Das klassische Computermodell und der Konnektionismus waren sich auch in einer anderen entscheidenden Hinsicht einig: Als Kognition galt beiden dasjenige, was in einer zentralen Verarbeitungseinheit wie dem Gehirn einen Input in einen Output überführt, während die Prozesse jenseits davon, im übrigen Körper oder der Umwelt, bestenfalls als Quelle des Inputs und als Schauplatz des Outputs dienten, aber kein Teil der eigentlichen »kognitiven Maschinerie« waren. Zum Bruch mit dieser traditionellen Vorstellung kam es erst mit dem Dynamizismus und situierten Ansätzen, die heutzutage der sogenannetn »Kog nitionsw issen schaft zweiter Generation« zugerechnet werden.
451
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
2.2 Die Kognitionswissenschaft zweiter Generation: situierte Kognition Der traditionelle Fokus auf Berechnung und Repräsentation wurde in den 1990er Jahren zunächst vom Dynamizismus kritisiert (z. B. Kelso 1995; Thelen/Smith 1994; van Gelder 1995; 1998), der sowohl den digitalen Computer als auch neuronale Netze als Modell des Geistes zurückwies und Kognition stattdessen als Prozess in dynamischen Systemen verstand, für den Berechnungen und Repräsentationen – ganz gleich, ob global oder lokal, symbolisch oder subsymbolisch – nebensächlich sind. Kognition ist für den Dynamizismus vielmehr etwas, das im Rahmen der reziproken Echtzeitinteraktion eines körperlich auf charakteristische Weise verfassten Systems mit einer entsprechend strukturierten Umwelt entsteht. Als derart dynamischer Prozess lässt sich Kognition überhaupt nicht in einzelne Berechnungsschritte aufteilen und ist daher statt mit computationalrepräsentationalen Modellen sehr viel besser mit Differenzialgleichungen zu beschreiben und mit den Methoden der Theorie dynamischer Systeme zu erklären (Walter 2014a, Kap. 4). Die für das klassische Sandwichmodell von Kognition charakteristische Dreiteilung in sensorischen Input, motorischen Output und die »eigentliche kognitive Maschinerie« dazwischen sowie die damit einhergehende Degradierung von Körper und Umwelt geriet in etwa zur selben Zeit aber auch ganz unabhängig vom Dynamizismus in die Kritik, als sich in weiten Teilen der Kognitionswissenschaft die Auffassung durchzusetzen begann, dass weder die auf Computation und Repräsentation setzenden traditionellen Positionen noch der Anticomputationalismus und Antirepräsentationalismus des Dynamizismus erfolgreich sein werden, solange sie ignorieren, dass Kognition in dem Sinne situiert ist, dass kognitive Prozesse wesentlich auch vom gesamten Körper eines Systems sowie von seiner aktiven Einbettung in seine natürliche, technische und soziale Umwelt abhängen. Im Kern geht es Anhängern der unterschiedlichen Spielarten dieses neuen Ansatzes mithin darum, dass Kognition keine rein neuronale Angelegenheit ist, die losgelöst von Körper und Umwelt, gewissermaßen »offline«, zwischen sensorischen Eingangs- und motorischen Ausgangssignalen stattfindet, sondern vor allem auch »online« im Zuge der reziproken Interaktion mit der Umwelt entsteht. Insbesondere die folgenden fünf Positionen haben sich dabei im Laufe der Debatte herauskristallisiert (Walter 2014a,b). (1) Die Rolle des Körpers: embodied cognition. Oft wird betont, dass Kogni tion auch in der spezifischen körperlichen Verfasstheit eines Systems gründet, das heißt verkörperlicht (embodied) ist. Diese Verkörperlichungsthese soll sich nicht in der vergleichsweise trivialen Feststellung erschöpfen, dass unser geistiges Leben anders aussähe, wenn wir uns zum Beispiel mittels Echoortung orientierten oder sich unsere Ohren statt seitlich am Kopf nebeneinander auf dem Rücken befänden. Dem Körper soll vielmehr eine wesentliche Rolle in unserem geistigen Leben zukommen. Insbesondere soll er nicht nur als bloßes Output vehikel fungieren, das als kontingente »Behausung« des eigentlichen kognitiven 452
Philosophie der Kognitionswissenschaft
Systems diesem als Instrument zur Überführung interner psychischer Vorgänge in ein Verhalten dient. Vielmehr soll der Körper aufgrund seiner spezifischen materiellen Beschaffenheit aktiv zur energie- und berechnungseffizienten Lösung von Problemen beitragen, etwa indem die biologischen, physiologischen oder morphologischen Details eines Systems Funktionen übernehmen, die traditionell internen Repräsentationen und zentralen Kontrollprozessen zukamen (organic oder morphological computing; Pfeifer/Bongard 2007), oder indem abstrakte, vermeintlich modalitätsunspezifische kognitive Prozesse – der »Belag« des klassischen Sandwichs – modalitätsspezifische sensomotorische Repräsentationen aus den peripheren Systemen »wiederverwerten« (shared circuits oder neural reuse; Goldman 2012; Hurley 2008). (2) Die Rolle der Umwelt (I): embedded cognition. Anhängern situierter Ko gnition geht es jedoch nicht nur um den Körper, sondern auch darum, dass kognitive Systeme mithilfe ihres Körpers ihre Umwelt so ausnutzen können, dass diese nicht mehr nur der passive Schauplatz eines intern bereits in allen Details durchgeplanten Verhaltensoutputs ist, sondern wiederum selbst aktiv zur Genese intelligenten Verhaltens beiträgt. Kognition ist also mitunter in dem Sinne von unserer Umwelt abhängig oder situativ eingebettet (embedded), dass ein Akteur sie als Gerüst (scaffold) nutzt, um seinen internen kognitiven Aufwand gering zu halten. Professionelle Barmixer etwa assoziieren Drinks mit bestimmten Glasformen, Dekorationen usw. und können sich so durch geeignete Anordnung umfangreiche Bestellungen in der richtigen Reihenfolge merken – eine Fähigkeit, die sie einbüßen, sobald sie die Abfolge in Ermangelung eines externen scaffolds buchstäblich »im Kopf« behalten müssen (Clark 2001, 141; vgl. auch Beach 1993). Die durch die körperliche Verfasstheit eines Systems ermöglichte und strukturierte Echtzeitinteraktion mit der Umwelt macht dabei die exakte und umfassende Repräsentation relevanter Weltausschnitte, der in traditionellen Ansätzen eine so zentrale Rolle zukam, zumindest zum Teil verzichtbar, indem sie Situationen schafft, in denen wir nicht mehr »im Kopf« mit internen Repräsentationen jonglieren müssen, sondern die relevanten Informationen bei Bedarf der Welt selbst entnehmen können. Kognition soll dabei jedoch nur von der situativen Einbettung eines Akteurs in seine Umwelt abhängen, aber nicht durch externe Faktoren mit konstituiert werden. (3) Die Rolle der Umwelt (II): extended cognition. Wenn der Umwelt im Hinblick auf unsere kognitiven Leistungen aber tatsächlich eine so wichtige Rolle zukommt, mit welchem Recht betrachten wir das Gehirn dann noch als alleinigen Konstituenten von Kognition? Was qualifiziert Prozesse im Gehirn (oder Körper) als kognitive Prozesse, während die Umwelt Kognition nur unterstützt und ermöglicht, selbst aber nicht als kognitiv gilt? Sind kognitive Prozesse stattdessen nicht womöglich in dem Sinne erweitert (extended), dass sie sich unter bestimmten Bedingungen über die organismischen Grenzen eines Akteurs hinaus in die Umwelt hinein erstrecken und so nicht nur durch neuronale, sondern auch durch Prozesse jenseits der organismischen Grenzen konstituiert werden? 453
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Wenn zum Beispiel schriftliche Notizen das Verhalten eines Alzheimerpatienten auf dieselbe Weise leiten, wie neuronal abgespeicherte Gedächtnisinhalte unser Tun, wäre es dann nicht ein Zeichen »bio-chauvinistischer Voreingenommenheit« (Clark 2008, 77), weigerten wir uns, sie ebenso als genuinen Teil der materiellen Konstituenten seiner Erinnerungen, Überzeugungen usw. anzuerkennen, wie wir es bei neuronalen Prozessen in unserem Fall ganz selbstverständlich tun (Clark/ Chalmers 1998)? (4) Die Rolle des Sozialen: distributed cognition. In eine ähnliche Richtung geht die Vorstellung, dass Kognition mitunter in dem Sinne verteilt (distributed) ist, dass sich kognitive Prozesse über die Grenzen von Individuen hinaus in soziale Komplexe aus interagierenden Akteuren und technischen Ressourcen erstrecken. Die Navigation eines Schiffes etwa konnte vor dem GPS -Zeitalter von einem Einzelnen überhaupt nicht bewältigt werden, sondern war insofern »verteilt«, als der Navigationsprozess die koordinierte Interaktion mehrerer Akteure und ihrer technischen Hilfsmittel erforderte und dabei insbesondere auch von den Eigenheiten der sozialen Hierarchie der Beteiligten abhing (Hutchins 1995). Auch solche »verteilten« kognitiven Prozesse sollen (wie »erweiterte«) weder auf das Gehirn noch den übrigen Körper beschränkt sein, sondern sich in unsere Umwelt hinein erstrecken (s. Abschnitt 2.4). (5) Die Rolle der Interaktion: enactivism. Der Enaktivismus schließlich versteht Kognition als ein Merkmal lebendiger Organismen, das erst in der aktiven Interaktion autonomer und adaptiver Systeme mit ihrer Umgebung hervorgebracht (enacted) wird. Höherstufige kognitive Leistungen sollen eine Weiterentwicklung jenes grundlegenden Prozesses einer Sinnstiftung (sense-making) sein, durch den einfachste Lebewesen die sie umgebende Welt perspektivisch in einen Ort von subjektiver Bedeutung und damit in eine Umwelt im eigentlichen Sinne transformieren (Thompson/Stapleton 2009). Der Enaktivismus gibt das Computermodell des Geistes auf (Varela et al. 1991) und betont die sogenannte »Kontinuitätsthese von Leben und Geist« (continuity thesis of life and mind), wonach lebendige Systeme kognitive Systeme sind und der Prozess des Lebens ein Prozess der Kognition ist (Maturana/Varela 1980). Hinter dieser zunächst eigenwillig erscheinenden Gleichsetzung steht die Überlegung, dass sich Kognition als Prozess der Sinnstiftung aus der Interaktion autonomer und adaptiver Systeme mit ihrer Umgebung ergibt und lebendige Organismen immer schon im entsprechenden Sinne autonom und adaptiv sind. Leben und Kognition sind daher insofern eins, als höhere kognitive Leistungen Prinzipien folgen, unter die auch schon einfachste Lebensformen fallen, weshalb auch diese als »kognitive« Systeme zu gelten haben – wenngleich der Enaktivismus natürlich anerkennt, dass Kognition in Menschen anders ausgeprägt ist als etwa in Einzellern oder Amöben. Kogni tion ist für den Enaktivismus demnach ein ganzheitliches Phänomen, das seinen Platz in der verkörperlichten Interaktion eines Individuums mit seiner Umwelt und mithin nicht im Gehirn hat, aber weder erweitert noch verteilt, sondern eben ein wesentlich relationales Phänomen ist (s. Abschnitt 2.4). 454
Philosophie der Kognitionswissenschaft
Einige der von Anhängern situierter Kognition hervorgehobenen Punkte wurden auf die eine oder andere Weise zwar bereits im Zusammenhang mit dem Dynamizismus aufgeworfen. Situierte Ansätze laufen jedoch insofern quer zu der Debatte zwischen Computationalisten und Dynamizisten, als sie nicht nur grundsätzlich sowohl computationalistisch als auch dynamizistisch motiviert sein können, sondern es oft auch sind: Wenngleich die Vorstellung verteilter kognitiver Prozesse in der Regel vor dem Hintergrund einer computationalistischen Konzeption von Kognition entwickelt wird (Hutchins 1995) und der Enaktivismus ausdrücklich einen Antirepräsentationalismus verficht (Varela et al. 1991, Kap. 7), finden sich die Vorstellungen, dass kognitive Prozesse verkörperlicht, situativ eingebettet oder erweitert sind, sowohl im Kontext computationalistisch/ repräsentationalistischer Ansätze als auch im Zuge dezidiert anticomputationalistisch/antirepräsentationalistischer Überlegungen. In der Philosophie der Kognition geht es aktuell mithin um zwei verschiedene und zumindest grundsätzlich unabhängige Fragen, die bislang allzu oft nicht klar genug unterschieden werden. Auf der einen Seite sind sich Computationalisten und Dynamizisten uneins über das Was kognitiver Prozesse: Hat Kogni tion wesentlich etwas mit Berechnung und/oder Repräsentation zu tun, was auch viele zeitgenössische Autoren (Milkowski 2013; Piccinini 2015) und Anhänger der zweiten Generation nach wie vor akzeptieren, oder sind die Begriffe der Berechnung und Repräsentation nachrangig oder gar völlig verzichtbar (Hutto/Myin 2013), wie etwa der Dynamizismus oder der Enaktivismus behaupten? Auf der anderen Seite geht es um das Wo von Kognition, also darum, wo in der Welt kognitive Prozesse – ganz gleich, ob sie klassisch oder dynamizistisch beschrieben werden – zu finden sind und in welchem Verhältnis der »kognitive Kern« eines Systems zum übrigen Körper und der Umwelt steht: Sind kognitive Prozesse ausschließlich eine neuronale Angelegenheit oder können sie sich auch in den übrigen Körper und die Umwelt eines Systems hinein erstrecken oder als wesentlich relationales Phänomen erst aus der wechselseitigen Interaktion mit der Umwelt hervorgehen? In beiden Bereichen gibt es trotz unbestreitbarer Erkenntnisfortschritte noch stets eine Reihe offener grundlegender Fragen, insbesondere mit Blick auf die vermeintlich trennscharfen, in der Praxis aber erstaunlich diffusen Unterscheidungen zwischen den verschiedenen Lagern in den Debatten um das Was (s. Abschnitt 2.3) und das Wo (s. Abschnitt 2.4) kognitiver Prozesse, die in den folgenden beiden Abschnitten kurz umrissen werden.
2.3 Antirepräsentationalismus versus Repräsentationalismus Der Dynamizismus hat sich in der Anfangszeit vor allem durch seine Repräsentationsskepsis als vermeintlich radikaler Gegenpol zu klassischen Ansätzen etabliert. Ein berühmtes Beispiel ist der Fliehkraftregler, der sogenannte Watt-Governor, ein Regelkreis mit negativer Rückkopplung, mit dessen Hilfe 455
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
das Schwungrad einer Dampfmaschine konstant angetrieben werden kann. Am Schwungrad wird ein vertikales Gestänge mit zwei beweglichen Armen angebracht, die sich aufgrund ihres Gewichts und der Zentrifugalkraft heben und senken können. Die Arme sind über einen Hebelmechanismus so mit einem Ventil verbunden, dass der Dampfzufluss abnimmt, wenn sie sich heben, und zunimmt, wenn sie sich senken, wodurch sich das Schwungrad auf der gewünschten Drehzahl einpendelt: Wird die Maschine zu langsam, senken sich die Arme, weshalb der Dampf zunimmt und die Drehzahl steigt; mit steigender Drehzahl aber heben sich die Arme wieder, sodass der Dampf abnimmt und die Maschine wieder langsamer wird usw. Laut van Gelder (1995, 351–354) kann man nicht sagen, dass dieser Fliehkraftregler die erforderliche Anpassung des Ventils berechnet, da es aufgrund seiner Arbeitsweise unter anderem gar keine Repräsentationen von Größen wie Drehzahl, Dampfmenge usw. gibt, die als Grundlage eines Berechnungsprozesses dienen könnten. Dagegen hat zum Beispiel Bechtel (1998) eingewendet, dass der Winkel der Arme systematisch mit der Geschwindigkeit variiert, daher das Ventil über die aktuelle Geschwindigkeit »informiert« und diese mithin sehr wohl repräsentiert. Van Gelder hingegen hat seine Repräsentationsskepsis mit dem Hinweis darauf verteidigt, dass erstens Korrelation nicht Repräsentation ist, zweitens Winkel und Geschwindigkeit nur annähernd korrelieren (u. a. weil die Arme nur verzögert auf Geschwindigkeitsänderungen reagieren) und drittens die Geschwindigkeit ebenso vom Winkel abhängt wie umgekehrt, aber nicht beides das jeweils andere repräsentieren kann (1995, 352 f.). Wie auch immer dieser Disput konkret zu entscheiden sein mag, er deutet auf ein grundsätzliches Problem hin: Offenbar lässt sich immer ein entsprechend schwacher Repräsentationsbegriff formulieren, der auch auf dynamische Systeme und andere vermeintlich repräsentationsfreie kognitive Systeme (Hutto/Myin 2013) – etwa auf sogenannte »Mobots« (mobile robots) in der verhaltensbasierten Robotik (Brooks 1991) – anwendbar ist (Markman/Dietrich 2000). Das zeigt allerdings lediglich, dass die metaphysische These des Dynamizismus, dass kognitive Systeme dynamische Systeme sind (van Gelder 1998), uninteressant ist: So wie grundsätzlich jedes, eo ipso also auch jedes kognitive System als dynamisches System beschreibbar ist (ohne dass dadurch zum Beispiel eine Dampfmaschine zu einem kognitiven System würde), so lässt sich mit einem entsprechend schwachen Repräsentationsbegriff jedes kognitive System als repräsentationales System beschreiben. In diesem Sinne »sind« kognitive Systeme also ebenso dynamisch wie repräsentational. Viel entscheidender ist die explanatorische These, dass sich kognitive Systeme mit dynamizistischen Begriffen und Methoden so beschreiben lassen, dass repräsentationale Beschreibungen überflüssig werden, weil zum Beispiel eine repräsentationale Beschreibung des Fliehkraftreglers keinen zusätzlichen Erklärungswert hat, da sich sein Zustand für jeden beliebigen Zeitpunkt mittels entsprechender Entwicklungsgleichungen exakt vorhersagen lässt. Aus der bloßen Tatsache, dass computational/repräsentationale Modellierungsansätze beim Fliehkraftregler keinen explanatorischen Mehrwert haben, 456
Philosophie der Kognitionswissenschaft
folgt allerdings nicht, dass der Dynamizismus richtig und der Fliehkraftregler als Paradigma für die Arbeitsweise kognitiver Systeme einschlägiger ist als ein Computer (van Gelder 1995, 381). Warum sollte das, was für den Fliehkraftregler gilt, für (alle) kognitive(n) Systeme gelten? Mit Blick auf eine Erklärung kognitiver Leistungen scheint der Dynamizismus bestenfalls jene einfachen, nur in einem sehr rudimentären Sinne »kognitiven« Leistungen modellieren zu können, die sich in dynamischen Echtzeitinteraktionen mit der Umwelt vollziehen. Höherstufige kognitive Leistungen hingegen kann er offenbar nicht einfangen: Wie soll ein System zum Beispiel allein durch die Interaktion mit seiner aktuellen Umwelt und ohne Repräsentationen Probleme lösen, die eine Einschätzung kontrafaktischer Sachverhalte erfordern, also etwa beim Schach drei Züge vorausdenken, Ziele für den kommenden Urlaub abwägen oder »im Geiste« geometrische Formen rotieren (Edelman 2003)? Der Dynamizismus muss auch solche klassischen kogni tiven Leistungen erklären können, möchte er sich nicht den Vorwurf zuziehen, sich mit seiner Hinwendung zu zweibeinigem Laufen (Thelen/Smith 1994) oder rhythmischen Fingerbewegungen (Haken et al. 1985) als Paradebeispielen kognitiver Phänomene nicht länger mit Kognition im eigentlichen Sinne zu beschäftigen und damit auch keine Alternative zu traditionellen Ansätzen darzustellen, sondern schlicht das Thema zu wechseln und statt Kognition wieder ausschließlich die einfachen Reiz-Reaktions-Schemata des Behaviorismus in den Blick zu nehmen. Die reaktiven Agenten der verhaltensbasierten Robotik zum Beispiel, welche die potenzielle Schlichtheit der Grundlagen intelligenten Verhaltens und die Möglichkeit von »Intelligence without representation« (Brooks 1991) demon strieren sollten, sind zwar computational und repräsentational extrem sparsam, kommen jedoch keinesfalls völlig ohne klassische Elemente aus. Der Nachweis, dass intelligentes Verhalten ganz allgemein ohne jede Art von Berechnung und Repräsentation zuwege gebracht werden kann, steht mithin nach wie vor aus. Die Frage, warum etwa zweibeiniges Laufen oder rhythmische Fingerbewegungen kognitive Phänomene im eigentlichen Sinne sein sollten, ist für den Dynamizismus dabei umso dringlicher, als nicht alle dynamischen Systeme kognitive Systeme sind und der Dynamizismus daher offenbar schwerlich einfangen kann, was an kognitiven Systemen das charakteristisch Kognitive ist (Clark 2008, 26). Während computationalistische Ansätze eine klare Vorstellung davon haben, was Kognition ist, das heißt durch welche Art von Mechanismen kognitive Leistungen implementiert sind, und so neue Phänomene vorhersagen und diese Hypothesen überprüfen können, bleibt beim Dynamizismus insbesondere unklar, wie er in Ermangelung einer Theor ie von Kognition, die über die bloße Beschreibung der zeitlichen Entwicklung kognitiver Systeme mittels Differenzialgleichungen hinausgeht, neue Phänomene vorhersagen können soll (vgl. aber Chemero 2009, Kap. 4.4). Im Hinblick auf die Frage des Was liegt die Bringschuld derzeit also wohl noch immer bei anticomputationalistischen und antirepräsentationalistischen Ansätzen. Der an sich berechtigte Vorwurf, die traditionellen Positionen hätten einem 457
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
von den peripheren sensomotorischen Systemen isolierten zentralen kognitiven System zu viel Gewicht beigemessen, sollte nicht in eine generelle Repräsenta tionsskepsis umschlagen (Clark und Toribio 1994; Walter 2014a). Die Vorstellung, dass intelligentes Verhalten maßgeblich durch neuronal realisierte Berechnungsprozesse über interne Repräsentationen erklärt werden kann, gehört auch nach der für die zweite Generation charakteristischen Erweiterung des Forschungsfelds zu den erfolgreichsten Modellierungsansätzen der Kognitionswissenschaft. Die These, dass kognitive Prozesse von wesentlich handlungsbezogenen Repräsentationen Gebrauch machen, verspricht dabei vieles von dem, worauf die zweite Generation zu Recht hingewiesen hat, einzufangen, ohne dass man dafür den begrifflichen und methodologischen Rahmen der ersten Generation vollständig ad acta legen müsste. Statt eine strikte Opposition von Antirepräsentationalismus und Repräsentationalismus zu propagieren, wäre es daher fruchtbarer zu klären, wie sich die lohnenden Einsichten vermeintlich antirepräsentationalistischer Positionen mit einem handlungsbezogenen Repräsentationsbegriff einfangen und umsetzen lassen, der anspruchsloser ist als die begrifflichen Repräsentationen des klassischen Computermodells, aber eben immer noch als Repräsentationsbegriff durchgeht, sodass die zunächst vermeintlich alternativlose Gegenüberstellung der entsprechenden Positionen mit Blick auf das Was kognitiver Prozesse aufgelöst wird. Ganz ähnliche Abgrenzungsprobleme gibt es auch für die Debatte um das Wo kognitiver Prozesse.
2.4 Wie entscheiden wir, ob kognitive Prozesse eingebettet, erweitert, verteilt oder schlicht »nirgendwo« sind? Die Debatte um situierte Kognition bereichert die Kognitionswissenschaft zweifellos: Klassische Probleme wie Planen, Sprachverstehen oder Schlussfolgern sind in den Hintergrund getreten und die Aufmerksamkeit richtet sich stattdessen auf Herausforderungen, die in der aktiven Echtzeitinteraktion verkörperter Akteure mit ihrer Umwelt gemeistert werden. Diese Liberalisierung hat bislang jedoch noch nicht zu mehr Klarheit geführt – ganz im Gegenteil. Zum einen ist die Terminologie nach wie vor ungeklärt. Während einige allgemein von »situierter Ko gnition« sprechen (Robbins/Aydede 2009), verwenden andere den Ausdruck »situated« synonym zu »embedded« (Shapiro 2010) oder »extended« (Wilson/Clark 2009) oder »embodied« als Oberbegriff (Fingerhut et al. 2013; Shapiro 2011). Zudem bleibt oft unklar, was mit diesen Schlagworten im Detail gemeint ist und wie sich die Positionen inhaltlich genau zueinander verhalten (Walter 2014b). Zwar spricht gegenwärtig einiges dafür, dass Kognition entgegen der traditionellen Vorstellung nicht ausschließlich »im Kopf« ist. Um jedoch die weitergehende Frage beantworten zu können, wo genau kognitive Prozesse ihren Platz haben, muss man die entsprechenden Positionen und die dahinterstehenden Überlegungen zum einen auf theoretischer Ebene voneinander abgrenzen. Um zu verhin458
Philosophie der Kognitionswissenschaft
dern, dass es dabei bloß um Fragen der Nomenklatur geht, sollte sich diese Begriffsklärung zum anderen aber immer auch in einem praktischen Unterschied niederschlagen, das heißt, es sollte im Hinblick auf konkrete extraorganismische Ressourcen – etwa den Gebrauch von sogenannten Brain-Computer-Interfaces zur Kommunikation mit Locked-in-Patienten (Kyselo 2011) – deutlich werden, wie grundsätzlich wohlbegründet zu entscheiden wäre, welche der verschiedenen theoretischen Beschreibungen (wenn überhaupt) zutrifft. Während dabei auf begrifflicher Seite durchaus Fortschritte erzielt wurden, ist deren praktische Relevanz derzeit zumeist bestenfalls unklar, weshalb viele der derzeit intensiv geführten Debatten zu metaphysischen Scheingefechten zu verkommen scheinen, denen unter dem Strich der Bezug zu gerade jener Forschungspraxis der Kogni tionswissenschaft fehlt, in der sie ursprünglich ihren Ausgang zu nehmen beanspruchten (Walter 2016). Die Abgrenzung der Erweiterungsthese etwa zu der Auffassung, dass kognitive Prozesse verteilt sind, erscheint intuitiv völlig klar: Offenbar umfassen verteilte kognitive Prozesse nicht nur Artefakte, sondern auch andere Akteure, und erweiterte Prozesse integrieren extraorganismische Ressourcen in die kognitive Binnenarchitektur eines Individuums, während es einen solchen »kognitiven Kern« bei verteilten Prozessen gerade nicht gibt: Es soll ja der Alzheimerpatient Otto sein, der sich mithilfe seines Notizbuchs erinnert (Clark/Chalmers 1998), aber es soll nicht ein einzelner Seemann sein, der mithilfe der übrigen hierarchisch organisierten Crew und diversen Instrumenten navigiert (Hutchins 1995), sondern das entsprechende Kollektiv. Allerdings wäre in diesem Fall Otto das Subjekt erweiterter mentaler Zustände, wenn er sich auf sein Notizbuch verlässt, während dann, wenn er sich stattdessen in ansonsten analoger Weise auf seine Frau oder seine Sekretärin verlässt, das entsprechende Kollektiv das Subjekt verteilter mentaler Zustände wäre. Man könnte diese Spannung erstens dadurch aufzulösen versuchen, dass man auch erweiterte Erinnerungen nicht Otto, sondern dem Otto-plus-Notizbuch-Komplex zuschreibt. Zum einen widerspräche dies jedoch unserer etablierten Zuschreibungspraxis mentaler Zustände, und zum anderen hätte dieses System nach wie vor ein Individuum als »kognitiven Kern«, den es bei verteilten kognitiven Prozessen so nicht gibt. Zweitens könnte man auch dann Otto die Erinnerungen zuschreiben, wenn er sich auf seine Mitmenschen verlässt, und von verteilten Prozessen nur bei Kollektiven ohne Individuen als »kognitive Kerne« sprechen. Unklar bliebe dann allerdings, wie und wo die Grenze gezogen werden soll zwischen Prozessen, die einem Individuum zugeschrieben werden, und jenen, die Kollektiven zukommen. Drittens könnte man verteilte Prozesse immer Individuen zuschreiben und andere Akteure schlicht als extraorganismische Ressourcen inter pares betrachten. Allerdings wird die Identifikation eines »kognitiven Kerns« in dem Maße problematisch, wie ein Kollektiv aus gleichrangigen Akteuren besteht: Es war nicht ein einzelner Abgeordneter, der 1955 unter Zuhilfenahme seiner Kollegen die Pariser Verträge ratifizierte, sondern der Deutsche Bundestag, und es ist genau dieser Unterschied, der dage459
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
gen spricht, erweiterte und verteilte Kognition gleichzusetzen: Navigations- und Ratifizierungsprozesse erweitern sich nicht auf dieselbe Weise von einem Seemann oder Abgeordneten in ein soziales Kollektiv, wie sich Ottos Erinnerungen von Otto in sein Notizbuch erweitern sollen – im ersten Fall gibt es schlicht keinen »kognitiven Kern«, aus dem heraus sich der Geist »ausdehnen« könnte (Hutchins 2014). Diese theoretischen Unklarheiten führen zu praktischen Abgrenzungsproblemen: Solange es unklare Grenzfälle gibt, ist nicht ausgemacht, dass wir immer nichtarbiträr entscheiden können, ob ein konkreter Anwendungsfall eher Otto als Paradebeispiel »erweiterter Kognition« oder eher der Navigation eines Schiffes als Paradebeispiel »verteilter Kognition« gleicht, sodass die Frage »Erweitert oder verteilt?« womöglich nicht immer begründet – und schon gar nicht empirisch – zu beantworten oder auch nur von empirischem Interesse ist. Etwas ganz Ähnliches gilt insbesondere auch für die Abgrenzung gegenüber Ansätzen, die Kognition als situativ eingebettet, aber nicht erweitert betrachten (Rupert 2004, 2009). Auch hier gibt es intuitiv klare Beispiele: Prozessor und Arbeitsspeicher sind offenbar Konstituenten eines Computers, während die Stromproduktion im Elektrizitätswerk nur eine kausale Vorbedingung seines Funk tionierens ist; ebenso scheint die Retina konstitutiv für visuelle Wahrnehmung zu sein, während geeignete Lichtverhältnisse nur eine kausale Bedingung, nicht aber konstitutiver Teil des Wahrnehmungsprozesses sind. Andere Fälle hingegen sind intuitiv weniger klar: Ob eine externe Festplatte konstitutiver Teil eines Computers oder kausale Bedingung seines Funktionierens ist, mag in der Praxis ebenso wenig grundsätzlich zu entscheiden sein wie etwa die Frage, ob Brillen, Hörgeräte oder Ottos Notizbuch Konstituenten entsprechender kognitiver Prozesse sind oder lediglich als extraorganismische Ressourcen kausal zu deren Funktionieren beitragen. Für solche Grenzfälle scheint sich die für die Debatte um die Erweiterungsthese zum Zankapfel gewordene Unterscheidung zwischen (kausaler, nichtkonstitutiver) Abhängigkeit und Konstitution, selbst wenn sie theoretisch völlig klar sein mag, kaum praktisch niederschlagen zu können (Walter 2014b). Die Rivalität zwischen der Einbettungsthese und der Erweiterungsthese verkäme damit erneut zu einem metaphysischen Disput, in dem man sich über das Phänomen an sich einig ist und nur über seine korrekte Beschreibung streitet, obwohl diese Wortklauberei folgenlos bleibt: Für die Kognitionswissenschaft, die Medizin, die Pflegewissenschaft oder Ethikkommissionen etwa scheint es schlicht unerheblich zu sein, ob die Wiederherstellung der kommunikativen Fähigkeiten von Locked-in-Patienten durch Brain-Computer-Interfaces lediglich kausal hervorgebracht oder zum Teil mit konstituiert wird, solange beides dieselben kontrafaktischen Konditionale (etwa der Gestalt »Nähme man dem Patienten sein Brain-Computer-Interface, wäre eine Kommunikation mit der Umgebung unmöglich«) impliziert (Walter 2010). Auch der Verweis auf eine enge Kopplung eines Akteurs mit extraorganismischen Ressourcen reicht nicht aus, um die Erweiterungsthese gegenüber der Einbettungsthese auszuzeichnen. In Erwiderung auf den Einwand von Adams/ 460
Philosophie der Kognitionswissenschaft
Aizawa (2008), dass der Schluss von einer bloßen Abhängigkeit auf eine Konstitutionsthese ein Fehlschluss ist (coupling/constitution fallacy), haben Anhänger der Erweiterungsthese darauf hingewiesen, dass extraorganismische Faktoren unter bestimmten Bedingungen so intensiv mit der kognitiven Binnenarchitektur eines Akteurs interagieren, dass man statt von einer Kopplung zwischen separaten Entitäten nur noch von einem einzigen kognitiven Prozess sprechen sollte. Allerdings ist es bislang nicht gelungen, zufriedenstellende Kriterien dafür anzugeben, wann eine Kopplung zu einer »bloßen« Integration führt, die extraorganismische Ressourcen als reines Hilfsmittel fruchtbar macht, und wann eine Kopplung eine echte ontologische »Verschmelzung« extraorganismischer Ressourcen mit einem kognitiven Kernsystem zur Folge hat. Jeder Versuch, extraorganismische Ressourcen über eine entsprechend enge Kopplung als konstitutiven Teil kognitiver Prozesse auszuzeichnen, muss dabei insbesondere eine sogenannte »kognitive Inflation« (cognitive bloat) vermeiden, das heißt verhindern, dass jeder an einer kognitiven Leistung beteiligte extraorganismische Faktor eo ipso zu einem konsti tutiven Teil aufgewertet wird (Sprevak 2010). Gute Lichtverhältnisse etwa tragen zu visuellen Wahrnehmungsleistungen bei, sollten deshalb aber nicht als Konstituenten menschlichen Sehens gelten. Eine entsprechende Abgrenzung der Erweiterungsthese gegenüber der ontologisch konservativeren Einbettungsthese lässt sich aber eben gerade so lange nicht überzeugend motivieren, wie entsprechende Kriterien für eine »substanzielle« im Gegensatz zu einer »ontologisch harmlosen« Kopplung fehlen, die aber von der (empirischen) Kognitionswissenschaft wiederum wohl kaum zur Verfügung gestellt werden können. Für die Abgrenzung gegenüber dem Enaktivismus schließlich gilt etwas ganz Ähnliches. Auf theoretischer Ebene hat sich mittlerweile herauskristallisiert, dass sich der Enaktivismus von allen anderen situierten Ansätzen dadurch unterscheidet, dass Letztere eine These darüber aufstellen, wo in der Welt kognitive Prozesse zu finden sind, während diese Frage für den Enaktivismus streng genommen unsinnig ist (Walter 2014a, Kap. 10), weil Kognition als wesentlich relationalem Phänomen in seinen Augen überhaupt kein Ort zukommt (Di Paolo 2009, 19; Thompson/Stapleton 2009, 26). Auch hier gilt: Es ist ohne Zweifel philosophisch hilfreich, derartige Unterscheidungen auf theoretischer Ebene auszubuchstabieren (Rowlands 2009) und zu verstehen, was den Enaktivismus zur Zurückweisung einer Lokalisierung des Kognitiven treibt. Die entscheidende Frage ist aber wiederum, wie genau wir entscheiden sollen, ob wir es in einem konkreten Fall zum Beispiel mit einem räumlich lokalisierten erweiterten kognitiven Prozess oder einem räumlich nicht lokalisierbaren enaktiven Prozess zu tun haben. Solange solche Abgrenzungen nicht wohl begründet vorzunehmen sind, wird nicht nur die seit einiger Zeit mit beeindruckender Vehemenz geführte innerphilosophische Debatte um die Frage, ob der Geist »im Kopf« ist, obsolet, weite Teile der Philosophie der Kognition setzen sich dann auch dem Vorwurf aus, brotlose Metaphysik oder Terminologie zu betreiben (Walter 2016). Dies ist insbesondere auf einem Gebiet prekär, auf dem gemeinhin wie auf kaum einem 461
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
anderen der Anspruch propagiert wird, mit der Philosophie am Puls der alltäglichen Forschungspraxis einer empirischen Einzelwissenschaft zu sein und ihr neue Impulse vermitteln zu können (z. B. Clark 2008). Womöglich, so könnte man mutmaßen oder hoffen, gelingt es einer Philosophie der Kognitionswissen schaft, die sich ja gerade mit den methodischen oder erkenntnistheoretischen Schwierigkeiten bei der Erforschung kognitiver Phänomene befasst (s. Abschnitt 1.2), besser als der Philosophie der Kognition, einen Bezug zur tatsächlichen Ko gnitionsforschung herzustellen. Allerdings bleibt so etwas wie eine dezidierte »Wissenschaftstheor ie der Kognitionswissenschaft« – anders etwa als zum Beispiel eine »Wissenschaftstheorie der Neurowissenschaft« (Bickle et al. 2012; ↑ Philosophie der Neurowissenschaften) – ein bislang weitgehend unbeachtetes Desiderat, wie Abschnitt 3 im Zuge eines subjektiven Ausblicks nochmals betont.
3 Perspektiven und Aufgaben einer Philosophie der Kognition und der Kognitionswissenschaft Der in Abschnitt 2 versuchte skizzenhafte Überblick über einige offene Fragen mit Bick auf die zentrale Leitfrage der Philosophie der Kognition, welche Teile eines Systems und seiner Umwelt auf welche Weise zu seinem intelligenten Verhalten beitragen, kann noch nicht einmal andeutungsweise das Spektrum an spannenden Fragen abdecken, das diese Disziplin bereithält (Stephan und Walter 2013; s. Abschnitt 3.3 für weiterführende Literatur). Zum Beispiel blieben Detailfragen, die im Zusammenhang mit der Erforschung einzelner kognitiver Leistungen wie Wahrnehmung, Erinnerung oder Handlungssteuerung und -kontrolle die Philosophie der Kognition maßgeblich gestaltet haben und gestalten werden (Margolis et al. 2012), ebenso ausgeblendet wie etwa auch ethische Fragen, welche die Arbeit in der Kognitionswissenschaft selbst sowie ihre Anwendungen betreffen (Choudhury/Slaby 2012; Levy 2010; Nagel 2010). Zwei Fragen sollen hier jedoch abschließend noch kurz zur Sprache kommen. Es geht dabei zum einen wie schon erwähnt um allgemeine Überlegungen zu einer Wissenschaftstheor ie der Kognitionswissenschaft zweiter Generation (s. Abschnitt 3.1) und zum anderen um den grundsätzlichen Skopus der Kognitionswissenschaft bzw. der in Abschnitt 2 skizzierten situierten Positionen (s. Abschnitt 3.2).
3.1 Eine Wissenschaftstheorie der Kognitionswissenschaft zweiter Generation Anders als die erste Generation ist die Kognitionswissenschaft zweiter Generation bislang keine einheitliche Disziplin mit paradigmatischen Untersuchungs gegenständen und Methoden sowie einem zumindest annähernd allgemein akzeptierten Kanon an fundamentalen Begriffen und Erklärungsmodellen (Shapiro 2013). Während die erste Generation (zumindest intuitiv) von einer klaren und 462
Philosophie der Kognitionswissenschaft
einheitlichen Vorstellung der typischen Untersuchungsgegenstände (Gedächtnis, Sprachverständnis, Planen usw.), fundamentalen Begriffen (Repräsentation, Berechnung, Syntax und Semantik, Algorithmus usw.), Methoden (computationale Modelle, algorithmische Analysen usw.) und Vorzügen ihres Ansatzes (im Vergleich etwa zum Behaviorismus) geprägt war und sich unter anderem überhaupt nur deshalb als eigenständige Disziplin etablieren konnte, die nicht nur die Bezeichnung »Kognitionswissenschaften«, sondern die Auszeichnung »Ko gnitionswissenschaft« verdient (s. Abschnitt 1.1), fallen die Antworten der zweiten Generation bedeutend heterogener aus – so heterogen, dass sich zunehmend stärker die Frage aufdrängt, ob jene Gründe, welche auch immer es im Detail waren, die zumindest in den Augen einiger mit Blick auf die erste Generation die Verwendung des Singulars gerechtfertigt haben, auch noch mit Blick auf die zweite Generation Bestand haben. Die kunterbunte Palette vermeintlich paradigmatischer Untersuchungsgegenstände etwa reicht von Phänomenen wie dem auditiven System von Insekten über rhythmische Fingerbewegungen, visuelle Wahrnehmung, das Laufverhalten von Kindern und ihre Leistungen beim sogenannten »A-nicht-B-Suchfehler«, bis hin zur Navigation von Schiffen, Getränkedosen einsammelnden Robotern, Tetris spielenden Erwachsenen und sozialen Interaktionen. Der für Erklärungen und Modellierungen herangezogene Begriffsapparat (Affordanzen, handlungsspezifische Repräsentationen, sensomotorische Abhängigkeiten, Attraktoren in Zustandsräumen, neuronale Simulationen, sense-making usw.) ist dabei ebenso divers wie die verwendeten Methoden (dynamische Modellierung, computationale Modelle, implizites Design durch Evolution, organic computing usw.) und die Meinungen darüber, worin genau die Vorzüge der jeweiligen Position gegenüber anderen Ansätzen bestehen (s. Abschnitte 2.3 u. 2.4). Ein einheitliches Forschungsprogramm einer Kognitionswissenschaft zweiter Generation als Einzelwissenschaft ist darin bislang kaum und auf jeden Fall noch weniger erkennbar als für die Kog nitionswissenschaft der ersten Generation. Eines der zentralen Desiderata einer Philosophie der Kog nitionswissenschaft ist daher eine umfassende, begrifflich klare und zugleich empirisch informierte Wissenschaftstheor ie der Kognitionswissenschaft zweiter Generation, die deutlich werden lässt, was sie eigentlich zu einer Wissenschaft von Kognition macht. Die Umsetzung dieses Desiderats ist derzeit jedoch trotz zunehmender wissenschaftstheoretischer Bemühungen in den einzelnen Teildisziplinen (s. Abschnitt 1.2; ↑ Philosophie der Philosophie, ↑ Philosophie der Psychologie, ↑ Philosophie der Neurowissenschaften) allem Dafürhalten nach faktisch nicht in Sicht.
3.2 Von situierter Kognition zu situierter Affektivität Wie in Abschnitt 2 gesehen, hat sich unsere Auffassung von Kognition in den vergangenen Jahrzehnten insbesondere mit Blick auf die Rolle des Körpers, der Umwelt sowie unserer Interaktion mit ihr zum Teil erheblich gewandelt. Indes 463
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
wurde dabei bislang der Tatsache wenig Beachtung geschenkt, dass sich Kogni tion nicht losgelöst von Emotion und Motivation verstehen lässt. Die einst strikte Gegenüberstellung von Kognition einerseits und Emotion sowie Motivation andererseits lässt sich allerdings nicht länger aufrechterhalten und ist ebenso überholt (z. B. Dai/Sternberg 2004) wie die sich daraus ergebende Tendenz der frühen Kognitionswissenschaft, sich vornehmlich mit den subpersonalen Mechanismen kognitiver Leistungen im engen Sinne zu beschäftigen, affektive und konative Phänomene hingegen – entgegen dem ausdrücklichen Statement ihrer Gründerväter Bruner und Miller (s. Abschnitt 1.1) – nahezu vollständig zu ignorieren: Als immer schon nicht nur denkende, sondern stets auch empfindende, wollende und wertende Wesen bewegen wir uns nämlich zu keiner Zeit in einem emotionsund motivationsfreien Raum reinen Denkens. Eine ausschließliche Beschäftigung mit kognitiven Prozessen im engen Sinne kann aus diesem Grund niemals ein vollständiges und angemessenes Bild des Menschen zeichnen, sodass es der Kognitionswissenschaft nicht länger nur um ein Verständnis von Kognition in diesem anämischen Sinne gehen darf. Anzustreben ist vielmehr ein umfassendes interdisziplinäres Verständnis des Verhältnisses von Kognition zu Emotion und Motivation und zu Phänomenen wie Bewusstsein oder (Inter-)Subjektivität, also sozusagen eine Rückbesinnung auf eine Kognitionswissenschaft im weiten Sinne, die unter »Kognition« alles das fasst, was an der Überführung von Stimuli in Verhalten beteiligt ist und mithin auch affektive und konative Phänomene subsumiert (s. Abschnitt 1.1). Angesichts der in Abschnitt 2.2 skizzierten Überlegungen zur Situiertheit von Kognition muss man in diesem Zusammenhang insbesondere fragen, ob auch im Hinblick auf emotionale bzw. affektive Phänomene im Allgemeinen ein ähnlicher Trend weg von gehirnzentrierten Ansätzen und hin zu einer Einbeziehung von Körper, Umwelt und Interaktion ansteht (Stephan et al. 2014; Wilutzky et al. 2011; 2013). Was für das Kognitive gilt, gilt mutatis mutandis nämlich auch für das Emotionale: Ebenso wenig, wie wir isolierte Denker sind, sind wir quasicartesianische »Bewerter«, deren Emotionalität im Zuge wiederholter Wahrnehmen-Bewerten-Fühlen-Handeln-Zyklen vollkommen »fleischlos« zwischen ihrem Wahrnehmen und ihrem Handeln in der Welt vermittelt (Colombetti 2014; von Scheve/Salmella 2014). Die These einer engen Kopplung von Gehirn, Körper und Umwelt ist für Emotionen in gewisser Weise sogar noch plausibler als für Kogni tion: Während eine Einbeziehung des Körpers und der Umwelt in Theor ien des Kognitiven von wenigen historischen Vorläufern abgesehen eine noch junge Entwicklung ist, wurde in der Emotionsforschung nur während der kurzen Blütezeit radikal kognitivistischer Emotionstheorien (Nussbaum 2001; Solomon 1976) vorübergehend vergessen, dass affektive Phänomene nahezu ausnahmslos immer schon auch als situiert begriffen wurden. Insbesondere gilt dies für die Beteiligung des Körpers. Als sich Ende der 1980er Jahre in der Kognitionswissenschaft die Vorstellung durchzusetzen begann, dass die Morphologie, Biologie und Physiologie eines Akteurs wesentlich 464
Philosophie der Kognitionswissenschaft
zu seinen kognitiven Fähigkeiten beitragen, widersprach dies in der Tat der herrschenden Vorstellung von Kognition als substratneutral spezifizierbarer Informationsverarbeitung. Dagegen ist die Behauptung, dass Emotionen maßgeblich durch die Details unserer körperlichen Verfasstheit mitbestimmt werden, ideengeschichtlich ein alter Hut. Die Vorstellung, dass der Körper kein bloßes Medium ist, mit dessen Hilfe wir die Welt wahrnehmen und internen Emotionen äußerlichen Ausdruck verleihen, sondern selbst in einem nichttrivialen Sinne zu diesen Emotionen beiträgt, ist mithin weit weniger kontrovers als die entsprechende Verkörperlichungsthese im Bereich des Kognitiven: Von wenigen kognitivistischen Emotionstheorien abgesehen war sowohl philosophisch als auch empirisch immer schon klar, dass Emotionen von der spezifischen körperlichen Verfasstheit eines Subjekts auf eine nichttriviale Weise mitbestimmt werden, die durchaus in dieselbe Richtung geht wie das, was in der Philosophie der Kognition gegenwärtig als »embodiment« diskutiert wird. Schon allein aus diesem Grund ist es angezeigt, intensiver der Frage nachzugehen, ob, und wenn ja wie, sich diese beiden Debatten gegenseitig befruchten können. Etwas anders sieht es im Hinblick auf die Rolle der Umwelt aus. Zwar wurde auch hier stets gesehen, dass es sich bei Emotionen im Normalfall um Reaktionen auf Veränderungen in der Umwelt handelt. Nach traditioneller Ansicht war die Umwelt aber nicht an den Emotionen selbst beteiligt oder gar ein Teil davon, sondern diente lediglich als Inputgeber und Outputempfänger, sodass jene Phänomene, die in der Philosophie der Kog nition gegenwärtig unter Stichworten wie situative Einbettung, Erweiterung, Verteilung oder Enaktivismus diskutiert werden, dabei bislang nicht gezielt in den Blick gerieten. Eine Übertragung der entsprechenden Überlegungen auf den Bereich des Emotionalen könnte dort jedoch ebenfalls einen fruchtbaren Perspektivwechsel bewirken (Wilutzky et al. 2011): Ebenso wie im Zuge situierter Ansätze in der Kognitionswissenschaft zum Beispiel die Echtzeitnavigation in belebten Umgebungen das Schachspiel als typischen Untersuchungsgegenstand ergänzt hat, sollte in der Emotionsforschung der bislang dominierende Individualismus zugunsten eines facettenreicheren pluralistischen Ansatzes aufgegeben werden (Colombetti 2014). Neben klassisch individualistischen (Basis-)Emotionen wie Ekel, Ärger, Furcht oder Freude (Ekman et al. 1969; Ekman 1999) sollte dabei insbesondere auch eine viel breiter angelegte Palette affektiver Phänomene in den Blick geraten, die zum Teil deutlich stärker von einer Interaktion eines Individuums mit seiner natürlichen und sozialen Umwelt abhängen (Colombetti/Stephan 2013). Wenn wir nicht länger ausschließlich die Emotionen eines einsamen Savannenläufers zum Paradigma machen, der auf eine Schlange trifft und nach einer internen Bewertung der Situation eine Angst reaktion zeigt, sondern auch die dynamische und reziproke Interaktion von Musikern mit ihrem Publikum, Neugeborenen mit ihren Bezugspersonen oder Pubertierenden im Konflikt mit ihren Eltern sowie affektive Phänomene betrachten, die interagierende soziale Akteure als Träger haben, die zum Beispiel im Rahmen eines Vorstellungsgesprächs als Kollektiv eine eisige Atmosphäre erzeugen, wird 465
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
das Potenzial inhaltlicher Anknüpfungspunkte zur Debatte um situierte Kogni tion viel augenfälliger (Griffiths/Scarantino 2009). Am Ende könnte die Emotionsforschung damit in eine allgemeinere Affektwissenschaft eingebunden werden, die sich in ähnlich interdisziplinärer Weise mit affektiven Phänomenen und deren Situiertheit befasst, wie die Kognitionswissenschaft zweiter Generation mit kognitiven Phänomenen und ihrer Situiertheit (Wilutzky et al. 2013).
Literatur Empfehlungen: Den umfassendsten deutschsprachigen Überblick über die Kognitions wissenschaft verschafft derzeit das Handbuch von Stephan und Walter (2013); Margolis et al. (2012) ist ein aktuelles englischsprachiges Handbuch mit stärker philosophischem Einschlag, das dafür deutlich weniger Breite in der Kognitionswissenschaft allgemein bietet. Als Wörterbücher mit sehr vielen kürzeren Einträgen aus allen Bereichen der Kognitionswissenschaft bieten sich auf Deutsch Strube (1996) sowie auf Englisch Nadel (2005) an, auch wenn Ersteres naturgemäß nicht mehr ganz auf der Höhe der Zeit ist. Unter den eher historisch orientierten Einführungen ist Boden (2006) das deutlich umfangreichste, aber auch das langatmigste Werk. Gardner (1985) und Brook (2007) zeichnen beide die Ursprünge der Kognitionswissenschaft nach; Ersterer konzentriert sich dabei stärker auf die Entwicklungen, die zur sogenannten »kognitiven Revolution« gegen Mitte des zwanzigsten Jahrhunderts führten, Letzterer deckt die historischen Vorläufer in der Philosophie und der Psychologie ab. Die aktuellste deutschsprachige Einführung in die Philosophie der Kognition, insbesondere mit Blick auf situierte Ansätze, ist Walter (2014); dort findet sich auch eine kommentierte Bibliografie zur Philosophie der Kognition. Lenzen (2002) bietet eine etwas ältere und allgemeiner gehaltene, aber immer noch lesenswerte Einführung in die Kognitionswissenschaft, allerdings mit (über-)deutlichem Schwerpunkt auf der KI. Fingerhut et al. (2013) ist eine sehr nützliche Sammlung von deutschen Übersetzungen einiger zentraler Beiträge zur Debatte um situierte Kognition. Im englischsprachigen Bereich bieten Sobel/Li (2013) einen guten Überblick über die Kognitionswissenschaft; Bermúdez (2010) hat einen stärker philosophischen Einschlag, deckt aber situierte Ansätze nur unzureichend ab; Shapiro (2011) legt den Schwerpunkt auf situierte Ansätze, hat dafür aber weniger zum Computermodell und zum Konnektionismus zu sagen.
466
Philosophie der Kognitionswissenschaft
Adams, Fred, und Kenneth Aizawa (2008). The Bounds of Cognition. Malden: Blackwell. Beach, King (1993). Becoming a bartender. Applied Cognitive Psychology 7, 191–204. Bechtel, William (1998). Representations and cognitive explanations. Cognitive Science 22, 295–318. Bermúdez, José (2010). Cognitive Science: An Introduction to the Science of the Mind. Cambridge: Cambridge University Press. Bickle, John, Pete Mandik und Anthony Landreth (2012). The philosophy of neuroscience. In: Edward Zalta (Hg.). The Stanford Encyclopedia of Philosophy (Summer 2012 Edition) http://plato.stanford.edu/archives/sum2012/entries/neuroscience/. Boden, Magaret (2006). Mind as Machine: A History of Cognitive Science, 2 Bde. Oxford: Oxford University Press. Brook, Andrew (Hg.) (2007). The Prehistory of Cognitive Science. Basingstoke: Palgrave Macmillan. Brooks, Rodney (1991). Intelligence without representation. Artificial Intelligence 47, 139–159. Chemero, Anthony (2009). Radical Embodied Cognitive Science. Cambridge (Mass.): MIT Press. Choudhury, Suparna, und Jan Slaby (Hg.) (2012). Critical Neuroscience. London: Routledge. Clark, Andy (2001). Mindware. Oxford. – (2008). Supersizing the Mind. Oxford: Oxford University Press. – und David Chalmers (1998). The extended mind. Analysis 58, 7–19. – und Josefa Toribio (1994). Doing without representing. Synthese 101, 401–431. Colombetti, Giovanna (2014). The Feeling Body: Affective Science Meets the Enactive Mind. Cambridge (Mass.): MIT Press. – und Achim Stephan (2013). Affektwissenschaft (affective science). In: Achim Stephan und Sven Walter (Hg.). Handbuch Kognitionswissenschaft. Stuttgart: Metzler, 501–510. Dai, David, und Robert Sternberg (Hg.) (2004). Motivation, Emotion, and Cognition. Mahwah: Lawrence Erlbaum. Di Paolo, Ezequiel (2009). Extended life. Topoi 28, 9–21. Dreyfus, Hubert (1972). What Computers Can’t Do. Cambridge (Mass.): MIT Press. Edelman, Shimon (2003). But will it scale up? Adaptive Behavior 11, 273–275. Ekman, Paul (1999). Basic emotions. In: Tim Dalgleish und Mick Power (Hg.). The Handbook of Cognition and Emotion. New York: John Wiley, 45–60. –, Richard Sorenson und Wallace Friesen (1969). Pan-cultural elements in facial displays of emotions. Science 164, 86 – 8 8. Fingerhut, Jörg, Rebecca Hufendiek und Markus Wild (Hg.) (2013). Philosophie der Verkörperung. Frankfurt a. M.: Suhrkamp. Fodor, Jerry (1975). The Language of Thought. Cambridge (Mass.): MIT Press. – (1983). The Modularity of Mind. Cambridge (Mass.): MIT Press. 467
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Gallagher, Shaun (2008). Are minimal representations still representations? International Journal of Philosophical Studies 16, 351–369. Gardner, Howard (1985). The Mind’s New Science: A History of the Cognitive Revolution. New York: Basic Books. Goldmann, Alvin (2012). A moderate approach to embodied cognitive science. Review of Philosophy and Psychology 3, 71–88. Griffiths, Paul, und Andrea Scarantino (2009). Emotions in the wild. In: Philipp Robbins und Murat Aydede (Hg.). The Cambridge Handbook of Situated Cognition. Cambridge: Cambridge University Press, 437–453. Haken, Hermann, Scott Kelso und Heinz Bunz (1985). A theoretical model of phase transitions in human hand movements. Biological Cybernetics 51, 347–356. Hinton, Geoffrey, James McClelland und David Rumelhart (1986). Distributed representations. In: David Rumelhart, James McClelland und PDP Research Group (Hg.). Parallel Distributed Processing, Bd. 1. Cambridge (Mass.): MIT Press, 77–109. Hurley, Susan (1998). Consciousness in Action. Cambridge (Mass.): Harvard University Press. – (2008). The shared circuits model. Behavioral and Brain Sciences 31, 1–58. Hutchins, Edwin (1995). Cognition in the Wild. Cambridge (Mass.): MIT Press. – (2014). The cultural ecosystem of human cognition. Philosophical Psychology 27, 34–49. Hutto, Dan, und Eric Myin (2013). Radicalizing Enactivism. Cambridge (Mass.): MIT Press. James, William (1890). The Principles of Psychology. New York: Holt. Kelso, Scott (1995). Dynamic Patterns. Cambridge (Mass.): MIT Press. Keyser, Samuel, George Miller und Edward Walker (1978). Cognitive science in 1978. An unpublished report submitted to the Alfred P. Sloan Foundation. New York. Kyselo, Miriam (2011). Locked-in syndrome and BCI. Neuroethics 6, 579–591. Lakoff, George, und Mark Johnson (1980). Metaphors We Live By. Chicago: University of Chicago Press. – (1999). Philosophy in the Flesh. New York: Basic Books. Lenzen, Manuela (2002). Natürliche und Künstliche Intelligenz: Einführung in die Kognitionswissenschaft. Frankfurt a. M.: Campus. Levy, Neil (Hg.) (2010). The Oxford Handbook of Neuroethics. Oxford: Oxford University Press. Longuet-Higgins, Hugh Christopher (1973). Comments on the Lighthill report and the Sutherland reply. In: Science Research Council, 35–37. Margolis, Eric, Richard Samuels und Stephen Stich (Hg.) (2012). The Oxford Handbook of Philosophy of Cognitive Science. Oxford: Oxford University Press. Markman, Arthur, und Eric Dietrich (2000). In defense of representation. Cognitive Psychology 40, 138–171. Marr, David (1982). Vision. San Francisco: Freeman. Maturana, Humberto, und Francisco Varela (1980). Autopoiesis and Cognition. Dordrecht: Reidel. 468
Philosophie der Kognitionswissenschaft
Milkowski, Marcin (2013). Explaining the Computational Mind. Cambridge (Mass.): MIT Press. Miller, George (1986). Interview with George Miller. In: Bernard Baars (Hg.). The Cognitive Revolution in Psychology. London: Guilford Press, 200–223. – (2003). The cognitive revolution. Trends in Cognitive Sciences 7, 141–144. –, Eugene Galanter und Karl Pibram (1960). Plans and the Structure of Behavior. New York: Holt. Mittelstraß, Jürgen (2003). Transdisziplinarität: Wissenschaftliche Zukunft und institutionelle Wirklichkeit. Konstanz: Universitätsverlag Konstanz. Nadel, Lynn (Hg.) (2005). Encyclopedia of Cognitive Science. New York: Nature Publishing Group. Nagel, Saskia (2010). Ethics and the Neurosciences. Paderborn: mentis. Newell, Allen, und Herbert Simon (1976). Computer science as empirical inquiry. Communications of the ACM 19, 113–126. Neisser, Ulric (1967). Cognitive Psychology. East Norwalk: Appleton-Century-Crofts. Nussbaum, Martha (2001). Upheavals of Thought. Cambridge: Cambridge University Press. Pfeifer, Rolf, und Josh Bongard (2007). How the Body Shapes the Way We Think. Cambridge (Mass.): MIT Press. Piccinini, Gualtiero (2008). Computation without representation. Philosophical Studies 137, 205–241. – (2012). Computationalism. In: Eric Margolis, Richard Samuels und Stephen Stich (Hg.). The Oxford Handbook of Philosophy of Cognitive Science. Oxford: Oxford University Press, 222–249. – (2015). The Nature of Computation: A Mechanistic Account. Oxford: Oxford University Press. Robbins, Philipp, und Murat Aydede (Hg.) (2009). The Cambridge Handbook of Situated Cognition. Cambridge: Cambridge University Press. Rowlands, Mark (2009). Enactivism and the extended mind. Topoi 28, 53–62. Rumelhart, David, James McClelland und PDP Research Group (Hg.) (1986). Parallel Distributed Processing, 2 Bde. Cambridge (Mass.): MIT Press. Rupert, Robert (2004). Challenges to the hypothesis of extended cognition. Journal of Philosophy 101, 389–428. – (2009). Cognitive Systems and the Extended Mind. Oxford: Oxford University Press. Searle, John (1980). Minds, brains and programs. Behavioral and Brain Sciences 3, 417–424. – (1992). The Rediscovery of the Mind. Cambridge (Mass.): MIT Press. Shapiro, Larry (2010). James Bond and the barking dog. Philosophy of Science 77, 400–418. – (2011). Embodied Cognition. London: Routledge. – (2013). When is cognition embodied? In: Uriah Kriegel (Hg.). Current Controversies in Philosophy of Mind. London: Routledge, 73–90. Skinner, Burrhus (1953). Science and Human Behavior. New York: Macmillan. 469
IV. Die Philosophie der Ingenieur- und interdisziplinären Wissenschaften
Smolensky, Paul (1988). On the proper treatment of connectionism. Behavioral and Brain Sciences 11, 1–23. Sobel, Carolyn, und Paul Li (2013). The Cognitive Sciences: An Interdisciplinary Approach. Los Angeles: Sage. Solomon, Robert (1976). The Passions. New York: Anchor. Sprevak, Mark (2010). Inference to the hypothesis of extended cognition. Studies in History and Philosophy of Science 41, 353–362. Stephan, Achim, und Sven Walter (Hg.) (2013). Handbuch Kognitionswissenschaft. Stuttgart: Metzler. Stephan, Achim, Sven Walter und Wendy Wilutzky (2014). Emotions beyond brain and body. Philosophical Psychology 27, 65–81. Stewart, John, Olivier Gapenne und Ezequiel Di Paolo (2010). Enaction: Toward a New Paradigm for Cognitive Science. Cambridge (Mass.): MIT Press. Strube, Gerhard (Hg.) (1996). Wörterbuch der Kognitionswissenschaft. Stuttgart: Klett-Cotta. Sturm, Thomas, und Horst Gundlach (2013). Zur Geschichte und Geschichtsschreibung der »kognitiven Revolution« – eine Reflexion. In: Achim Stephan und Sven Walter (Hg.). Handbuch Kognitionswissenschaft. Stuttgart: Metzler, 7–21. Thelen, Esther, und Linda Smith (1994). A Dynamic Systems Approach to the Development of Cognition and Action. Cambridge (Mass.): MIT Press. Thompson, Evan, und Mog Stapleton (2009). Making sense of sense-making. Topoi 28, 23–30. van Gelder, Tim (1995). What might cognition be, if not computation? Journal of Philosophy 91, 345–381. – (1998). The dynamical hypothesis in cognitive science. Behavioral and Brain Sciences 21, 615–628. Varela, Francisco, Evan Thompson und Eleanor Rosch (1991). The Embodied Mind. Cambridge (Mass.): MIT Press. Villalobos Marco (2013). Enactive cognitive science: revisionism or revolution? Adaptive Behaviour 21, 159–167. von Scheve, Christian, und Miko Salmella (Hg.) (2014). Collective Emotions: Perspectives from Psychology, Philosophy, and Sociology. Oxford: Oxford University Press. Walter, Sven (2010). Locked-in syndrome, BCI, and a confusion about embodied, embedded, extended, and enacted cognition. Neuroethics 3, 61–72. – (2014a). Kognition. Stuttgart: Reclam. – (2014b). Situated cognition: Some open conceptual and ontological issues. Review of Philosophy and Psychology 5, 241–263. – (2016). Ist der Geist im Kopf? Ist der Geist erweitert? Und vor allem: Was müssten wir wissen, um diese Fragen beantworten zu können? In: Jan Michel, Kim Boström und Michael Pohl (Hg.). Ist der Geist im Kopf ? Die These des erweiterten Geistes in Philosophie und Wissenschaft. Münster: mentis. Wilson, Rob, und Andy Clark (2009). How to situate cognition. In: Philipp Robbins 470
Philosophie der Kognitionswissenschaft
und Murat Aydede (Hg.). The Cambridge Handbook of Situated Cognition. Cambridge: Cambridge University Press, 55–77. Wilutzky, Wendy, Sven Walter und Achim Stephan (2011). Situierte Affektivität. In: Jan Slaby, Achim Stephan, Henrik Walter und Sven Walter (Hg.). Affektive Intentionalität. Paderborn: mentis, 283–320. Wilutzky, Wendy, Achim Stephan und Sven Walter (2013). Situierte Affektivität. In: Achim Stephan und Sven Walter (Hg.). Handbuch Kognitionswissenschaft. Stuttgart: Metzler, 552–560.
471
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
1. Philosophie der Psychologie Uljana Feest
1 Einleitung Was ist Philosophie der Psychologie? Eine nahe liegende Antwort ist, dass die Philosophie der Psychologie die systematische Beschäftigung mit den Grund lagen und Methoden der Psychologie ist. Aber gibt es überhaupt so etwas wie »die Psychologie«, was macht die systematische Beschäftigung mit der Psychologie zu einer philosophischen Beschäftigung, und wann ist eine solche philosophische Beschäftigung mit der Psychologie eine wissenschaftstheoretische? Eine intuitiv zunächst einleuchtende Herangehensweise an die erste Frage mag darin bestehen, die Psychologie über ihren Gegenstand zu definieren. Dies ist aber nicht unproblematisch, denn der »eigentliche« Gegenstand der Psychologie ist einer gängigen (wenn auch historisch stark vereinfachenden) Ansicht zufolge seit dem 19. Jahrhundert umstritten. Vorschläge reichen von Bewusstsein über Verhalten bis zu Kognition. Im Sinne dieser letzten Antwort konstatiert z. B. José Luis Bermúdez (2005) in seinem Buch Introduction to Philosophy of Psychology, dass die Philosophie der Psychologie sich mit den Grundlagen der wissenschaftlichen Erforschung von Kognition beschäftige. Eine Konsequenz dieser Entscheidung ist, dass sich die Philosophie der Psychologie nicht auf Forschungen beschränkt, die in Psychologieinstituten stattfinden, sondern auch wissenschaftliche Arbeiten anderer Wissenschaften (z. B. der Neurophysiologie und der Medizin) in den Blick nimmt. Umgekehrt blendet Bermúdez damit aber auch Forschungsgebiete aus, die derzeit in Psychologieinstituten in der ganzen Welt verfolgt werden. Alternativ zu den genannten Definitionsversuchen besteht eine andere Heran gehensweise darin, unter dem Ausdruck »Gegenstand der Psychologie« alle Forschungsrichtungen zu subsumieren, die in der institutionellen akademischen Psychologie stattfinden. In Anbetracht der ungeheuren thematischen Vielfalt historischer und heutiger Ansätze und Forschungen innerhalb dieser Rubrik ist jedoch fraglich, ob sich überhaupt einheitliche Grundlagen, Ziele und Vorgehensweisen ausmachen lassen, ob es also einen stabilen Kern von Themen gibt, die den Gegenstand einer richtig verstandenen Philosophie der Psychologie ausmachen können. Der vorliegende Aufsatz begegnet diesem Problem, indem er sowohl die akademische Psychologie als auch die Philosophie der Psychologie als historisch gewachsene Felder betrachtet. Die Auswahl von Themen und Fragestellungen ist somit durch existierende Debatten und Forschungsfelder geprägt und begrenzt, 475
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
ohne dass damit essenzialisierende Annahmen über den Gegenstand der Psychologie verbunden wären. In der aktuellen Literatur wird der Ausdruck »Philosophie der Psychologie« häufig synonym mit den Ausdrücken »Philosophie des Geistes« und »philosophische Psychologie« verwendet. Beide Ausdrücke sind jedoch nicht ganz deckungsgleich mit meinem Verständnis von Philosophie der Psychologie als einem Teilbereich der Wissenschaftstheor ie. Während beispielsweise die Philosophie des Geistes eher von ontologisch/metaphysischen Fragen geprägt ist, stellt die Wissenschaftstheorie eher methodologisch/epistemologische Fragen. Trotz dieser heuristischen Unterscheidung werde ich im Verlaufe dieses Artikels jedoch immer wieder auf ontologische Grundannahmen verweisen, die im Zusammenhang mit spezifischen Forschungspraktiken zu diskutieren sind. Auch der Ausdruck »philosophische Psychologie« trifft das hier intendierte Feld nur zum Teil. Er reicht von der Benennung von Arbeiten im Umfeld der Rezeption des späten Wittgenstein über wissenschaftstheoretische Arbeiten bis hin zu naturalistischen Ansätzen innerhalb der Philosophie des Geistes, innerhalb derer die aktuelle psychologische Forschung zwar rezipiert, aber nicht unbedingt wissenschaftstheoretisch beleuchtet wird.1 Im Gegensatz dazu liegt der Fokus des vorliegenden Aufsatzes auf wissenschaftstheoretischen Fragen und Debatten im Zusammenhang mit psychologischer Forschung. Der folgende Text ist (grob) in vier Abschnitte unterteilt. Ich beginne (in Abschnitt 2) mit einem kurzen historischen Überblick über die neuere Geschichte der Philosophie der Psychologie (vom späten 19. bis zum späten 20. Jahrhundert). Im Zuge dieses Überblicks werden einige der Themen pointiert hervorgehoben, die uns auch im weiteren Verlauf des Artikels beschäftigen werden. In Abschnitt 3 werde ich sodann mit einer Darstellung einiger ontologischer und wissenschaftstheoretischer Grundlagendebatten beginnen. Diese betreffen beispielsweise die Frage, was eine psychologische Erklärung ausmacht und was der ontologische und methodologische Status von Computermodellierungen in der psychologischen Grundlagenforschung ist. Mit einem Verständnis dieser Debatten können wir uns dann (in Abschnitt 4) exemplarisch einer philosophischen und wissenschaftstheoretischen Betrachtung konkreter Gegenstände psychologischer Forschung (Wahrnehmung, Emotion, Rationalität) widmen. In Abschnitt 5 werde ich mich zwei ausgewählten Methoden psychologischer Forschung (Introspektion, Messung) zuwenden und einige sich daraus ergebende wissenschaftstheoretische Fragen ansprechen.
Vgl. zum Beispiel die Zeitschrift Philosophical Psychology für Arbeiten im Spektrum der letzteren beiden Verwendungsweisen. 1
476
Philosophie der Psychologie
2 Zur (Vor)Geschichte der Philosophie der Psychologie Im Jahr 1980 gab Ned Block einen Band mit dem Titel Readings in Philosophy of Psychology (Block 1980) heraus, dem im folgenden Jahr ein zweiter Band folgte. Dies ist einer der ersten Orte, wo wir den Ausdruck »Philosophie der Psychologie« in der Literatur antreffen. Zwei Dinge sind hier jedoch anzumerken: Erstens bewegen sich die von Block zusammengestellten Texte stark innerhalb der philosophischen Debatten der 1960er und 1970er Jahre, haben also einen relativ spezifischen thematischen Zuschnitt, indem sie Schwerpunkte auf Positionen wie Behaviorismus, Identitätstheor ie und Funktionalismus legen. Zweitens gab es von der Sache her schon wesentlich frühere Debatten, die sich mit wissenschaftstheoretischen Fragen in der Psychologie beschäftigten. Hervorzuheben sind hier insbesondere Debatten aus dem 19. Jahrhundert, in denen die Psychologie sich als akademische Disziplin zu institutionalisieren begann.2 In der herrschenden Geschichtsschreibung der Psychologie wird häufig das Jahr 1879 (das Jahr der Gründung von Wundts experimentalpsychologischem Labor in Leipzig) als Gründungsjahr der Psychologie angegeben (vgl. etwa Mandler 2005, siehe aber Gundlach 2004 für eine Kritik an dieser Standardthese). Diese Einschätzung ist eng mit der Meinung verknüpft, dass die Psychologie den Status als Wissenschaft dadurch erhielt, dass sie experimentell und quantitativ wurde. Dem lässt sich jedoch zu Recht entgegenhalten, dass es (1) eine offene Frage ist, ob experimentelle und quantitative Methoden notwendige Bedingungen für die Wissenschaftlichkeit der Psychologie sind, und (2) dass es schon vor dem besagten Datum Forschungsaktivitäten gab, die wir heute im weitesten Sinne als der Psychologie zugehörig betrachten würden und die mindestens eines der beiden Merkmale erfüllten. So ist beispielsweise darauf hinzuweisen, dass die Veröffentlichung von Fechners Elemente der Psychophysik (1860) zu einer breiten philosophischen Debatte über die Messbarkeit von Empfindungen Anlass gab (vgl. Heidelberger 1993). Sturm (2006) argumentiert außerdem, dass es bereits im 18. Jahrhundert quantitative psychologische Forschung gab. Zudem existierten zum Zeitpunkt der Wundt’schen Laborgründung mehrere andere wissenschaftliche Traditionen, die sich mit Aspekten psychologischer Fragestellungen beschäftigen, wie beispielsweise der empirischen Erforschung individueller Unterschiede (Carson 2007) und der Lokalisation von Persönlichkeitseigenschaften oder kognitiven Funk tionen (Young 1990). Davon abgesehen finden wir natürlich schon wesentlich früher in der Philosophie- und Wissenschaftsgeschichte systematische Beschäftigungen mit Themen wir Wahrnehmung (z. B. Hatfield 2010), Begriffsbildung (Machery 2009) und der Anlage-Umwelt-Problematik (vgl. Fancher/Rutherford, Kap. 1 – 3). Beispielsweise hieß das Journal of Philosophy zwischen 1904 und 1920 Journal of Philosophy, Psychology and Scientific Method und enthielt zahlreiche Artikel, die sich mit dem Status der Psychologie als Wissenschaft beschäftigten. 2
477
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Es lässt es sich also mit guten Gründen bestreiten, dass das späte 19. Jahrhundert den Beginn der wissenschaftlichen Psychologie markiert. Dennoch stellt dieser Zeitraum einen wichtigen Meilenstein in der Philosophie der Psychologie (also in der Reflexion über Gegenstand und Methoden psychologischer Forschung) dar. Philosophie und Psychologie waren zu diesem Zeitpunkt vielerorts institutionell noch eng miteinander verknüpft (Ash 1995; Schmidt 1995). Daraus ergab sich die Notwendigkeit der inhaltlichen und methodischen Klärung und Abgrenzung der jeweiligen Gegenstandsbereiche und Erkenntnisinte ressen. Die Tatsache, dass die empirische Psychologie sich in diesem Jahrhundert als eigenständige wissenschaftliche Disziplin zu etablieren begonnen hatte, trug dazu bei, dass philosophische Grundlagenfragen auch seitens experimentell arbeitender Wissenschaftler auf häufig erfrischend direkte und praxisorientierte Weise diskutiert wurden. Neben dem oben bereits erwähnten Thema der Messbarkeit von Empfindungen konzentrierten sich Debatten u. a. auch auf die Frage, was die Ziele und Methoden psychologischer Forschung seien (vgl. etwa die Frage, ob die Humanwissenschaften einer durch ihren Gegenstandsbereich begründeten, spezifisch »verstehenden« Methode bedürften (Feest 2010)) und wie sich der Gegenstand der Psychologie zu denen angrenzender Disziplinen (beispielsweise der entstehenden Neurowissenschaften) verhalte (vgl. Feest 2014a). Trotz dieser Debatten und Meinungsverschiedenheiten gab es in der Philosophie der Psychologie des ausgehenden 19. Jahrhunderts weitgehende Einigkeit, dass sich die Forschungsbemühungen der Psychologie auf das menschliche Bewusstsein richteten; wenn auch die Meinungen darüber auseinandergingen, ob das primäre Ziel in der Beschreibung oder Erklärung von Bewusstseinszuständen bestehe und wie die jeweiligen Ziele zu erreichen seien. Diese Auffassung wurde durch das berühmt-berüchtigte Paper »Psychology as the Behaviorist Views it« von J. B. Watson (1913) in Frage gestellt, in dem er sich gleichermaßen gegen introspektive Methoden und mentalistische Erklärungen wandte. Damit bestritt er (a) dass das Bewusstsein überhaupt Gegenstand der wissenschaftlichen Psychologie sein könne und (b) dass eine wissenschaftliche Psychologie bei der Erklärung von Verhalten auf interne (mentale) Zustände rekurrieren dürfe. Übrig blieb somit als Gegenstand psychologischer Forschung nur die Erklärung von Verhalten durch Subsumption unter Verhaltensgesetze. Heute herrscht unter Psychologiehistoriker/innen weitgehende Einigkeit darüber, dass der Behaviorismus wesentlich weniger dominant war als gemeinhin angenommen (vgl. etwa Sturm/Gundlach 2013). Auch die zuweilen geäußerte Meinung, dass der Introspektionismus (also die Verwendung introspektiver Angaben im Dienste der Erforschung des Bewusstseins) an seinen inhärenten Pro blemen gescheitert sei, kann heute als überholt gelten. Nichtsdestotrotz erlaubt uns der radikale Behaviorismus eine Konturierung zentraler wissenschaftstheoretischer Fragen, die sich im Hinblick auf die Psychologie stellen, nämlich einerseits die Frage nach Gegenstand und Methoden der Psychologie und andererseits die 478
Philosophie der Psychologie
Frage nach dem Status »theoretischer« Begriffe in der Psychologie (also von Begriffen, die sich auf unbeobachtbare Entitäten oder Prozesse beziehen). Was den ersteren Punkt angeht, ist hervorzuheben, dass sich die behavioristische Verbannung des Bewusstseins zumindest in der philosophischen Literatur als wirkungsmächtig erwies. Erst in den vergangenen 10 – 15 Jahren ist wieder ein stärkeres philosophisches Interesse an wissenschaftstheoretischen Analysen der Bewusstseinsforschung und in diesem Zusammenhang auch den so genannten introspektiven Methoden erwacht (vgl. z. B. Irvine 2013). Dies ist nicht zuletzt dem Aufkommen der »consciousness studies« geschuldet (vgl. Feest 2012).3 Was den zweiten Punkt (die Frage nach dem Status theoretischer Begriffe in der Psychologie) angeht, so wurde diese Frage bereits in den 1950er Jahren in Psychologie und Wissenschaftstheor ie diskutiert. Dies war u. a. der Tatsache geschuldet, dass einige bekannte Wissenschaftler und Philosophen im Umfeld des Wiener Kreises in den Nachkriegsjahren in den USA (insbesondere beim Minnesota Center for Philosophy of Science und der University of Iowa) tätig waren und dort u. a. ein Augenmerk auf die wissenschaftstheoretische Fundierung der Psychologie lenkten, zum Teil in Zusammenarbeit mit theoretischen Psychologen. Wichtige Arbeiten betrafen etwa den Status hypothetischer Konstrukte (vgl. MacCorquodale/ Meehl 1948) und Gütekriterien für psychodiagnostische Messverfahren (Cronbach/Meehl 1955).4 Neben diesen wissenschaftstheoretisch und methodologisch orientierten Arbeiten finden wir in der Philosophie des Geistes zu etwa derselben Zeit auch eine Beschäftigung mit ontologischen und metaphysischen Fragen zur Natur des Mentalen, die der Annahme mentaler Zustände als Referenten eines theoretischen Vokabulars in der Psychologie eine philosophische Untermauerung zu liefern versprachen. So formulierte etwa Hilary Putnam eine Position (den sogenannten Funktionalismus), der zufolge mentale Zustände qua funktionale Systemzustände in der Lage sind, Verhalten zu verursachen. Diese Position wurde ihrerseits zu einem wichtigen Bezugspunkt für die sich in den 1960er Jahren formierenden Kognitionswissenschaften, ein interdisziplinäres Forschungsgebiet, das durch die zentrale Annahme der Computermetapher des Geists vereinigt wurde. Im Umfeld der Kognitionswissenschaften entstanden wiederrum relativ spezifische wissenschaftstheoretische Überlegungen (beispielsweise bezogen auf die Frage nach verschiedenen Ebenen der Beschreibung und Erklärung kognitiver Funktionen), die sich in der Philosophie der Psychologie für längere Zeit als sehr wirkungsmächtig erweisen sollten. Die gilt ungeachtet der Tatsache, dass der Funktionalismus in der neueren Philosophie der Kognitionswissenschaften umstritten ist (↑ Philosophie der Kognitionswissenschaft). In den nun folgenden Ich werde in Abschnitt 5.1 näher auf introspektive Methoden eingehen. Da das Bewusstsein bis dato nicht im engeren Sinne ein Forschungsgegenstand der akademischen Psychologie ist, klammere ich es hier aus. 4 Ich komme auf letzteres Thema in Abschnitt 5.2 zurück. 3
479
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
drei Hauptteilen dieses Artikels liegt der Schwerpunkt auf einigen ausgewählten aktuellen Debatten, doch um diese Debatten angemessen zu erklären, situiere ich sie im Kontext ihrer Entstehungsgeschichten seit dem letzten Drittel des 20. Jahrhunderts.
3 Ontologische und wissenschaftstheoretische Grundlagenfragen 3.1 Das Verhältnis zwischen Alltagspsychologie und Wissenschaft Die meisten von uns navigieren durch ihren Alltag, indem sie versuchen, das Verhalten ihrer Mitmenschen zu verstehen, zu erklären und/oder vorherzusagen. Aber worin genau besteht diese Praxis, und was ist der Status der Alltagspsychologie im Verhältnis zu wissenschaftlichen Psychologie? Eine philosophiegeschichtlich einflussreiche Art und Weise, sich Alltagspsychologie vorzustellen, wurde durch Vertreter der sogenannten »Theor ie-Theor ie« vorgelegt (Churchland 1981). Die Grundidee ist, dass wir alle in unserer Kindheit eine quasi-wissenschaftliche Theor ie menschlichen Verhaltens gelernt haben, die das Zusammenspiel bestimmter »theoretischer Entitäten« (Bedürfnisse und Überzeugungen) postulieren, um menschliches Verhalten zu erklären.5 Unter der (inzwischen umstrittenen) Annahme, dass dieses Bild unserer alltagspsychologischen Praxis richtig ist, stellt sich die Frage, was das Verhältnis zwischen Theor ien der Alltags- und der wissenschaftlichen Psychologie ist. Auf diese Frage gibt es drei wirkungsmächtige Antworten: (1) den Eliminativismus, (2) den Reduktionismus und (3) Varianten eines nicht-reduktiven Physikalismus. Der Eliminativismus besagt, dass unsere alltagspsychologischen Kategorien auf keine natürlichen Arten referieren und daher im Zuge der fortschreitenden Neurowissenschaften ihre Elimination zu erwarten ist. Der Reduktionismus behauptet, dass unsere alltagspsychologischen Kategorien, falls und insofern sie auf natürliche Arten referieren, mit neurowissenschaftlichen Begriffen zu identifizieren sind, so dass psychologische Erklärungen auf neurowissenschaftliche Erklärungen reduzierbar sind. Der nicht-reduktive Physikalismus argumentiert, dass alltagspsychologische Erklärungen zwar mit einem physikalistischen Weltbild vereinbar sind, sich jedoch nicht auf wissenschaftliche Erklärungen reduzieren lassen. Es gibt (grob gesprochen) zwei Spielarten einer solchen nicht-reduktiven Auffassung: Die eine Spielart (vertreten durch Philosophen wie Davidson und Ich gehe hier nur auf die Theor ie-Theor ie ein, da sie in Bezug auf den Mainstream der Philosophie der Psychologie besonders einflussreich war. Alternative Ansätze, wie z. B. die Simulationstheor ie (vgl. z. B. Goldmann 2006) und die Narrativitätstheor ie (z. B. Hutto 2009), können hier leider nicht behandelt werden. Es sei jedoch darauf hingewiesen, dass diese Debatte interessante wissenschaftstheoretische Fragen (etwa in Bezug auf die psychologische Erforschung von Empathie) aufwirft. 5
480
Philosophie der Psychologie
McDowell) betrachtet die Erklärungen der Alltagspsychologie aufgrund ihrer normativen Voraussetzungen als unvereinbar mit wissenschaftlichen Erklärungen (vgl. Bermúdez 2005, für einen Überblick). Für die andere Spielart (auf die ich im nächsten Abschnitt zu sprechen komme) sind wissenschaftliche Erklärungen systematisierte Formen alltagspsychologischer Erklärungen, lassen sich jedoch ihrerseits nicht auf neurophysiologische oder physikalische Erklärungen reduzieren. Um diese Debatten zu verstehen, ist es hilfreich, sie in ihrem philosophischen Entstehungskontext der zweiten Hälfte des 20. Jahrhunderts verorten, nämlich (a) der Diskussion um die Leib-Seele-Identitätstheor ie (in der Philosophie des Geistes) und (b) der Diskussion um den wissenschaftlichen Reduktionismus (in der Wissenschaftstheor ie). Prominente Vertreter der Leib-Seele-Identitätstheo rie waren U. T. Place (1956) und J. J. C. Smart (1959), die die These vertraten, dass Typen mentaler Zustände mit Typen neurologischer Zustände identisch seien. Ein berühmtes Beispiel ist die These, dass Schmerz mit dem Feuern von C-Fasern identisch ist. Während diese Autoren die These ursprünglich als eine empirische verstanden, wurde sie zunehmend (insbesondere von Kritikern) als eine metaphysische These verstanden, der zufolge mit der Identität von Beschreibungen eine notwendige Wahrheit über die Natur des Mentalen ausgesprochen wurde (vgl. etwa Kripke 1970). Kripke war außerdem der Meinung, dass bestimmte Eigenschaftsidentitäten genau diese Art von A-posteriori-Notwendigkeit besitzen (vgl. Beckermann 2008). Der Eliminativismus (Sellars 1956; Churchland 1981) setzt dagegen, dass unsere alltagspsychologischen Begriffe überhaupt nicht auf Typen von Zuständen referieren (und daher auch nicht mit anders individuierten Typen von Zuständen identisch sein können). Churchland argumentiert, dass die Alltagspsychologie seit Jahrtausenden stagniere und in geradezu epischem Ausmaß als Theor ie menschlichen Verhaltens versagt habe. Demgegenüber sind Vertreter einer reduktionistischen Auffassung weniger pessimistisch und weisen darauf hin, dass aus anderen Wissenschaften Fälle bekannt sind, in denen (z. B.) alltagsphysikalische Begriffe durch Begriffe der wissenschaftlichen Physik ersetzt wurden. Beispiele sind »Temperatur = mittlere kinetische Molekularenergie« und »Wasser = H O.« In solchen Fällen eliminiert der jeweils wissenschaftliche Begriff nicht den alltagsphysikalischen, sondern er erklärt uns, was wir eigentlich mit unseren Alltagsbegriffen meinen. Unter der Voraussetzung, dass es sich mit alltagspsychologischen Begriffen wie »Schmerz« analog verhält, ziehen Reduktionisten den Schluss, dass alltagspsychologische Begriffe zwar nicht eliminiert werden müssen, aber auch keine eigenständigen Erklärungen liefern können, da sie schlicht und einfach auf bestimmte Arten von Hirnzuständen verweisen. Das entsprechende Argument situiert sich im Kontext des einflussreichen Modells der Theor ienreduktion von Oppenheim/Putnam (1970 [1958]), demzufolge verschiedene Theor ien oder Disziplinen Ihre Erklärungen jeweils auf verschiedenen »Ebenen« formulieren (beispielsweise auf der Ebene gesellschaftlicher Phänomene, individueller Menschen 481
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
oder neuronaler Prozesse). Eine Erklärung auf einer »höheren« Ebene wäre dann auf die einer niedrigeren reduzierbar, wenn sich das zu erklärende Phänomen aus der reduzierenden Theor ie ableiten ließe. Hierfür ist allerdings sie Existenz sogenannter »Brückengesetze« Voraussetzung, also von Identitätsaussagen zwischen den Begrifflichkeiten der Theor ien beider Ebenen. Dies ist die Funktion der Leib-Seele-Identitätsaussagen. Es muss an dieser Stelle hervorgehoben werden, dass die eben umrissene Debatte, insbesondere die dort vorausgesetzten Begriffe von »Erklärung« und »Theorie«, nicht mehr auf dem aktuellen Stand der Wissenschaftstheor ie sind (s. Abschnitt 3.3). Dennoch markieren die eben diskutierten Fragen einige wichtige Themen der Philosophie der Psychologie, nämlich (1) die Frage nach dem Verhältnis von »personalen« und »subpersonalen« Erklärungen und (2) die Frage nach der explanatorischen Autonomie der Psychologie (und zwar sowohl der Alltagspsychologie im Verhältnis zur wissenschaftlichen Psychologie als auch der wissenschaftlichen Psychologie im Verhältnis zu den Neurowissenschaften). Die Unterscheidung zwischen einer personalen und einer subpersonalen Ebene geht auf Daniel Dennett zurück (1987), der damit die Ansicht vertrat, dass es zwei Typen psychologischer Erklärungen gibt, nämlich solche, die sich auf der Ebene von Menschen und ihren Gefühlen und Aktivitäten abspielt, und eine andere, die sich eher auf der Ebene von Gehirnen abspielt (Bermúdez 2005). Wie von Drayson (2014) überzeugend dargelegt wurde, ist diese Unterscheidung in der Literatur von verschiedenen Autoren unterschiedlich ausgelegt worden, aber für unsere gegenwärtigen Zwecke reicht es aus, sie grob mit der zwischen Alltagspsychologie und wissenschaftlicher Psychologie gleichzusetzen.
3.2 Zur explanatorischen Autonomie der wissenschaftlichen Psychologie Wir wenden uns nun näher der bereits erwähnten Variante des nichtreduktiven Physikalismus zu, die sich mit dem Verhältnis zwischen den Erklärungen der wissenschaftlichen Psychologie und der Neurophysiologie befasst. Ein besonders einflussreiches Argument für die explanatorische Autonomie der wissenschaftlichen Psychologie wurde durch den sogenannten Funktionalismus vorgebracht, dessen Vertreter sich damit gegen eine metaphysische Lesart der Typen-Identitätstheo rie wandten. Wie oben dargelegt, folgt aus dieser Lesart, dass (beispielsweise) Schmerz dann und nur dann auftreten kann, wenn eine ganz bestimmte Art neuronaler Fasern feuern. Demgegenüber stellten Philosophen wie Hilary Putnam und Jerry Fodor die These auf, dass ein und derselbe mentale Zustand auf unterschiedliche Weise physikalisch realisiert sein könne. Anders ausgedrückt: Sie blieben zwar bei der Ansicht, dass jeder mentale Zustand mit einem physischen Zustand identisch ist, aber eben nicht mit einer ganz bestimmten Art von physischem Zustand. Diese Art von Identitätsbeziehung bezeichnet man auch als »Token-Identität«. So wies beispielsweise Putnam (1967) darauf hin, dass ver482
Philosophie der Psychologie
schiedene Tiere (beispielsweise Säugetiere und Tintenfische) unterschiedliche Hirnstrukturen haben, und argumentiert, dass es eine gewagte Hypothese wäre, zu behaupten, dass mentale Zustände wie Schmerz nur mit einem einzigen Typus eines physischen Prozesses identisch seien (dass also beispielsweise Tintenfische keine Schmerzen empfinden könnten). Putnam spricht demgegenüber die Hypo these aus, dass mentale Zustände zwar physisch realisiert würden, dies aber auf viele verschiedene Weisen geschehen könne (also durch verschiedene Arten physikalischer Zustände). Eine ähnliche Position wurde von Jerry Fodor (1974) explizit in Bezug auf psychologische Erklärungen formuliert. Fodor bezieht sich im Titel seines Artikels (»Disunity of Science as a Working Hypothesis«) auf den oben bereits erwähnten Artikel »Unity of Science as a Working Hypothesis« (Oppenheim/Putnam 1958). Dabei behält er deren Grundannahme der »Ebenen« der Erklärung bei und argumentiert (ebenso wie Putnam), dass Entitäten oder Zustände auf je einer spezifischen Ebene funktional definiert sind. Daraus folgt, dass eine Identität zwischen funktionaler Beschreibung und physischer Realisierung zwar empirisch möglich ist, aber nicht notwendig wahr sein kann: Jeder funktional definierte Zustand ist per definitionem multipel realisierbar, so dass es grundsätzlich keine metaphysisch notwendigen Brückengesetze geben kann. Diese Idee der multiplen Realisierbarkeit wird seither als eng mit dem Funk tionalismus verbunden betrachtet, aber die Diskussion hat sich in zwei verschiedene Richtungen weiterentwickelt, nämlich (1) in Form der Frage, wie verbreitet multiple Realisationen derselben Eigenschaft de facto sind (vgl. hierzu etwa Bechtel/Mundale 1999 sowie Bechtels Begriff der »heuristischen Identitätsthese«), und (2) in Form einer vertiefenden metaphysischen Betrachtung des Begriffs der multiplen Realisierbarkeit (vgl. Aizawa 2009; Polger/Shapiro 2016), bei der es unter anderem um die Frage geht, ob Typen-Identität durch multiple Realisierbarkeit ausgeschlossen wird (vgl. auch Pauen 2002). Die eben beschriebene Position von Putnam wird auch als »Maschinenfunk tionalismus« bezeichnet, da Putnam selbst sich ausdrücklich auf die damals diskutierte Turingmaschine und den Begriff der Berechenbarkeit stützte. Die von Fodor vertretene Position bezeichnet man auch als »Psychofunktionalismus«, da sie als legitime mentale Zustände nur solche zulässt, die in anerkannten psychologischen Verhaltenserklärungen vorkommen. Zu erwähnen ist auch der »homunkulare Funktionalismus« (als dessen Vertreter William Lycan und Daniel Dennett gelten können). Er zielt nicht primär auf eine Analyse der explanatorischen Kraft mentaler Funktionen ab, sondern fragt vielmehr, wie diese selbst ihrerseits erklärt werden können. Seine Antwort lautet, dass komplexe mentale Funktionen auf der »personalen« Ebene (vgl. 3.1) auf einfache, »subpersonale«, Funktionen heruntergebrochen und auf diese Weise erklärt werden können. Die Grundidee ist also, dass unser kognitives System über Subsysteme verfügt, die selbst wiederum in der Lage sind, etwas weniger komplexe Funktionen auszuführen. Diese können dann evtl. auch wieder funktional charakterisiert und weiter analysiert 483
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
werden, so dass komplexen kognitiven Fähigkeiten letztlich nichts weiter Mysteriöses anhaftet (vgl. Drayson 2014).
3.3 Zur Wissenschaftstheorie von Erklärung und Entdeckung in der Psychologie Ich wende mich nun stärker wissenschaftstheoretisch inspirierten Analysen psychologischer Erklärungen zu. Bekanntlich war über mehrere Jahrzehnte hinweg das sogenannte deduktiv-nomologische (DN-)Modell wissenschaftlicher Erklärung dominant (Hempel/Oppenheim 1948). Das DN-Modell fasst Erklärungen als logische Argumente auf, bei denen die Konklusion (das Explanandum) zwingend aus den Prämissen (Naturgesetzen und Beschreibungen von Ausgangsbedin gungen) folgt. Damit werden auch normative Kriterien zur Beurteilung der Güte einer Erklärung an die Hand gegeben. Eine Erklärung kann dann als gut gelten, wenn die Prämissen wahr sind und der Schluss logisch gültig.6 In Hinblick auf die Humanwissenschaften wurde schon früh gefragt, (1) ob sich dieses Schema auf die Erklärungen von menschlichen Handlungen anwenden lässt (vgl. hierzu Abschnitt 3.1) und (2) ob es sich auf historische Ereignisse und historisch entstandene Phänomene anwenden lässt (vgl. etwa die Debatte über Erklären vs. Verstehen; Feest 2010). Während diese Probleme sozusagen von außen an das DN-Modell herangetragen wurden, gab es auch innerhalb des logischen Positivismus (aus dem heraus das DN-Modell entwickelt wurde) wachsende Kritik. Die dem DN-Modell zugrunde liegende regularistische Konzeption von Naturgesetzen wurde zunehmend kritisiert. Zudem trat die Idee auf den Plan, dass genuine Erklärungen auf kausale Zusammenhänge verweisen (vgl. Salmon 1984). Dieser Gedanke ist natürlich für die Psychologie attraktiv, da es intuitiv naheliegt, dass Verhalten durch mentale Zustände verursacht wird. Für das Thema psychologischer Erklärungen ist ferner die Diskussion um funk tionale Erklärungen (die die Existenz eines bestimmten biologischen Merkmals unter Verweis auf seine Funktion erklären) relevant: In einem einflussreichen Artikel formuliert Larry Wright (1973) einen ätiologischen Funktionsbegriff, demzufolge funktionale Erklärungen dann legitim sind, wenn das betreffende Merkmal aufgrund seiner Funktion selektiert wurde (man spricht hier auch von »adaptiven« Erklärungen). Damit ist natürlich noch nicht gesagt, wie ein solcher Nachweis konkret erbracht wird (evolutionstheoretisch fundierte Erklärungen sind leicht dem Vorwurf ausgesetzt, »just-so-stories« zu sein; vgl. Gould/Lewontin 1979). Obgleich die adaptive Erklärungsstrategie innerhalb der evolutionären Psychologie populär ist, ist ein anderer Typus funktionaler Erklärung in der Philosophie der Psychologie einflussreicher gewesen, nämlich Erklärungen, die auf sogenannte »Cummins«-Funktionen Bezug nehmen. Robert Cummins (1975) Diese Auffassung ist auch als »covering-law-« oder Hempel-Oppenheim-(HO-)Modell bekannt. 6
484
Philosophie der Psychologie
unterscheidet zwischen zwei Arten funktionaler Erklärungen, nämlich (1) den bereits erwähnten adaptiven Erklärungen, die erklären, warum ein Merkmal da ist, und (2) Erklärungen der Art und Weise, wie ein bestimmtes System funktioniert bzw. wie bestimmte Entitäten oder Prozesse zu einer Systemfunktion beitragen. Cummins bezeichnet letztere Frage als Frage nach »Erklärung durch funktionale Analyse« und argumentiert, dass viele Bereiche der Biologie und Psychologie diese Art von Erklärung anstreben. In der Tradition der Betonung kausaler Erklärungen hat sich in der Philosophie der Neurowissenschaften in den vergangenen 15 Jahren die Sichtweise etabliert, dass Erklärungen »mechanistisch« sind (vgl. Machamer, Darden/Craver 2000; Craver 2007; [↑ Philosophie der Neurowissenschaften]). Vertreter dieser Ansicht weisen explizit die Annahme zurück, dass biologische Erklärungen auf Naturgesetze rekurrieren. Damit erhebt sich die Frage nach dem Verhältnis zwischen mechanistischen neurowissenschaftlichen Erklärungen und denen der wissenschaftlichen Psychologie. Sind sie auch mechanistisch? Oder lassen sie sich auf mechanistische Erklärungen reduzieren? Vertreter des mechanistischen Ansatzes in der Philosophie der Neurowissenschaften argumentieren, dass das explanatorische Vorgehen in den Neurowissenschaften darin besteht, bestimmte Explananda-Phänomena zu identifizieren, für die dann zunächst grobe Erklärungsskizzen (so genannte »how-possibly«-Erklärungen) und im weiteren Verlauf detaillierte mechanistische Erklärungsmodelle konstruiert werden, wobei diese Erklärungsskizzen häufig die Form von Fluss-Diagrammen annehmen. In Anbetracht der Tatsache, dass psychologische Modelle (etwa informationstheoretisch inspirierte Modelle verschiedener Gedächtnisspeicher) auch oft in Form von Fluss-Diagrammen präsentiert werden, ist eine Möglichkeit, dass psychologische Erklärungen lediglich Erklärungsskizzen sind (vgl. Piccinini/Craver 2011). Allerdings ist es umstritten, ob mechanistische Modelle tatsächlich notwendig für Erklärungen sind (z. B. Weiskopf 2011). Es stellt sich außerdem die Frage, ob die diagrammatischen Modelle der Psychologie sich auf neurowissenschaftliche Mechanismen abbilden lassen (vgl. z. B. Stinson 2016 für eine Kritik an dieser Annahme). Daran anknüpfend lässt sich außerdem nach der tatsächlichen forschungspraktischen Funktion diagrammatischer Darstellungen in der Psychologie fragen (vgl. Bechtel/Abrahamson 2005). Eine weitere grundlegende Frage ist, was eigentlich die Explananda der Psychologie sind. Der traditionelle wissenschaftstheoretische Diskurs geht davon aus, dass es ein Explanandum-Phänomen gibt und dass es das Ziel wissenschaftlicher Aktivitäten ist, ein Explanans dafür zu finden, und in der Philosophie der Psychologie wird häufig davon ausgegangen, dass es sich bei den Explananda um Handlungen oder Verhaltensweisen handelt. Cummins (2000) argumentiert demgegenüber, dass die in psychologischen Experimenten generierten Daten nicht (nur) als Explananda fungieren, sondern auch als empirische Daten bei der Erforschung mentaler »Kapazitäten«. Damit ist eine weitere Frage angesprochen, nämlich die nach dem Prozess der Konstruktion psychologischer Taxono485
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
mien. Wissenschaftstheoretisch gesprochen ist dies eine Frage nach einer Analyse von Entdeckungen in der Psychologie. Ein in der mechanistischen Tradition einflussreiches Buch zum Thema Entdeckung war William Bechtel und Robert Richardsons Discovering Complexity (1993). Die Autoren argumentierten, dass beim Entdeckungsprozess zwei komplementäre Strategien am Werk sind, nämlich (1) funktionale Dekomposition und (2) strukturelle Lokalisation. Erstere ist ein Top-down-Prozess (also beispielsweise das graduelle Herunterbrechen einer kognitiven Funktion in einfachere Funktionen). Letztere ist ein Bottom-up-Prozess, bei dem Hirnstrukturen im Hinblick auf mögliche kognitive Funktionen untersucht werden. Es ist jedoch festzuhalten, dass Vertreter des mechanistischen Ansatzes ihre primäre Aufmerksamkeit auf die Frage nach der Entdeckung neuronaler Mechanismen richten und weniger auf die Frage nach den tatsächlichen Dynamiken bei der Konstruktion psychologischer Taxonomien.
3.4 Computermodelle als Forschungswerkzeuge Computermodellierungen sind in Teilen der Psychologie ein verbreitetes Forschungswerkzeug, doch wird dies in der wissenschaftstheoretischen Literatur bisher noch relativ wenig thematisiert (vgl. aber z. B. Gigerenzer/Sturm 2007). Stattdessen war die Literatur über den Status von Computern in der Psychologie lange Zeit durch die stärker ontologische Frage dominiert, ob der Geist ein Computer ist. Diese These war eine Konsequenz von Putnams Maschinenfunktionalismus und wird auch als »starke KI«-These bezeichnet. Kritiker der KI-These argumentierten, dass sie (a) dem Phänomen des Bewusstseins und (b) der Intentionalität mentaler Zustände nicht gerecht wird.7 Ich beschränke mich hier auf den letzteren Punkt. Auf dieses Problem gibt die sogenannte repräsentationale Theor ie des Geistes eine Antwort, indem sie argumentiert, dass der intentionale Gehalt mentaler Zustände durch symbolische Repräsentationen gewährleistet ist (vgl. Sterelny 1991). Auf diese Weise wurde der Maschinenfunktionalismus durch die Unterscheidung zwischen Syntax und Semantik angereichert: Die Syntax ist das Regelwerk, das festlegt, unter welchen Umständen ein Systemzustand in einen anderen übergeht oder in ein Verhalten mündet; physische Systemzustände erhalten dadurch einen semantischen Gehalt, dass sie etwas symbolisch repräsentieren können. Die Syntax ist also, wenn man so will, ein uninterpretiertes Programm, ein Algorithmus. Dieser Grundgedanke wurde in einem klassischen Artikel von Newell/Simon mit dem Satz »Humans are Physical Symbol Systems« zusammengefasst (Newell/Simon 1976).
Der Begriff der Intentionalität ist hier im Sinne Brentanos gemeint und beschreibt die Tatsache, dass mentale Zustände einen Inhalt haben, von etwas handeln, und dass wir in Verhaltenserklärungen auf solche Inhalte Bezug nehmen. 7
486
Philosophie der Psychologie
Der starken KI-These setzte John Searle die sogenannte »schwache KI-These« entgegen, der zufolge der menschliche Geist nicht wirklich ein Computer ist, sondern lediglich metaphorisch als solcher beschrieben werden kann. Daneben wurden in den 1970er Jahren aber auch andere Kritiken an der starken KI-These laut. Diese bestritten nicht die Idee des Geistes als Computer per se, stießen sich aber an der rigiden Idee der regelgeleiteten Informationsverarbeitung, die durch die klassische KI nahegelegt wird. Stattdessen fand eine andere Modellierungstechnik zusehends Anklang, nämlich die sogenannten künstlichen neuronalen Netze (KNN) mit der Idee selbst lernender Systeme und der parallelen Informationsverarbeitung (vgl. Thagard 2012). Insofern KNNs idealisierte Neuronen simulieren, stellt sich aber die Frage, ob es sich hier eigentlich um genuin psychologische Forschung und Theor iebildung handelt. Damit sind wir bei der Frage, was durch Computermodelle in der Forschung genau geleistet wird. Ein prominentes Beispiel gegenwärtiger computersimulationsgestützter Forschung wird durch den Kognitionspsychologen John R. Anderson repräsentiert (Anderson 1990). Anderson hat eine »kognitive Architektur« namens ACT-R entwickelt, mit deren Hilfe er kognitive Leistungen (wie z. B. das Turm-von-Hanoi-Problem) simulieren kann. ACT-R ist zugleich Simulationswerkzeug und Theor ie. Die Theor ie geht davon aus, dass es zwei Arten von Repräsentationen im menschlichen kognitiven System gibt: deklarative (Faktenwissen) und prozedurale (Regelwissen), und außerdem bestimmte Wahrnehmungs- und Motor-Module, die zwischen dem kognitiven System und der Welt vermitteln. Es handelt sich hier also um einen Ansatz aus der klassischen KI, doch werden die entsprechenden Modelle in neuerer Zeit auch mit konnektionistischen Modellen verknüpft (vgl. Anderson et al. 2004). Um was für eine Art von Modell handelt es sich hier und was genau soll durch es repräsentiert werden? In der wissenschaftstheoretischen Literatur wird zwischen verschiedenen Modelltypen unterschieden (vgl. z. B. Frigg/Hartmann 2012). Auf den ersten Blick mag ACT-R vielleicht als ein Werkzeug zur Erstellung phänomenologischer Modelle erscheinen, insofern es bestimmte Makro-Verhaltensphänomene eines Systems simulieren kann. Allerdings gibt es in der Literatur zuweilen die Einschätzung, dass phänomenologische Modelle theoriefrei vorgehen und dies ist bei unserem Beispiel nicht der Fall. Damit erhebt sich die Frage, was der Status der hier verwendeten Theorie ist (und was für eine Art von Theorie intendiert ist). Eine Möglichkeit ist, dass das Modell als realistische Repräsentation der tatsächlichen (für das Makroverhalten verantwortlichen) internen Prozesse gedacht ist. Eine andere Möglichkeit ist, dass es sich um ein Analogiemodell handelt (demzufolge sich menschliches Problemlösen analog zu einem Computeralgorithmus verhält). In letzterem Fall stellt sich die Frage, was die epistemische Funktion eines solchen Modells ist, ob es also z. B. Erklärungen liefern kann.8 Eine verwandte Ich schneide diese Möglichkeiten hier nur kurz an, um darauf hinzuweisen, dass sie in der Wissenschaftstheor ie der Psychologie bisher kaum Aufmerksamkeit erfahren haben. 8
487
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Frage ist, wie durch die aktive Arbeit an Modellen etwas über das jeweilige Zielsystem gelernt werden kann. Auch zu dieser Frage gibt es bisher kaum Literatur, die sich genuin auf psychologische Forschung bezieht (vgl. aber Irvine 2014 in Bezug auf neurowissenschaftliche Modellierungen). Im Umfeld der semantischen Konzeption von Theorien gibt es die Auffassung, dass Modelle semantische Interpretationen abstrakter mathematischer Theor ien sind (vgl. Suppe 1989). Dem steht allerdings in neuerer Zeit die Auffassung gegenüber, dass Modelle selbst (unabhängig von Theor ien oder gar in Fällen, wo noch keine Theorie vorliegt) eine epistemisch wichtige Funktion im wissenschaftlichen Prozess haben, insofern sie »Mediatoren« zwischen Empirie und Theor ie sind (vgl. die Beiträge in Morgan/Morrison 1999). Diese Behauptung kann verschiedene Formen annehmen, nämlich dass Modelle Werkzeuge auf dem Weg zur Theor iebildung sind, dass Modelle selbst vorläufige Theor ien sind oder dass Theorien in der Psychologie (ähnlich wie in den Neurowissenschaften) in Form von Modellen formuliert werden. Mit diesen Bemerkungen sei darauf hingewiesen, dass es auf die Frage, was eine psychologische Theor ie ausmacht, angesichts der Heterogenität psychologischer Ansätze vermutlich keine einheitliche Antwort gibt. Eine Frage, die sich in diesem Zusammenhang erhebt, ist, ob es eine bestimmte, privilegierte »Ebene« psychologischer Theoriebildung gibt. Eine kanonische Unterscheidung zwischen verschiedenen Ebenen der Beschreibung eines intelligenten Systems wurde durch den Wahrnehmungsforscher David Marr (1982) in die Diskussion gebracht. Er unterschied zwischen (1) einer »komputationalen« (oder funktionalen) Ebene, (2) einer algorithmischen Ebene und (3) einer Implementierungsebene. Auf der ersten Ebene werden Input-output-Relationen beschrieben; auf der zweiten Ebene werden Informationsverabeitungsregeln spezifiziert, die eine Transformation von Input in Output ermöglichen. Und auf der dritten Ebene wird die konkrete physikalische (oder physiologische) Realisierung untersucht. Diese drei Ebenen können in gewisser Weise als Ausdifferenzierungen der oben erwähnten »subpersonalen« Ebene gelten. Obgleich die Unterscheidung zwischen den Marr’schen Ebenen häufig allgemein in Bezug auf die Kognitionswissenschaften thematisiert wird, ist hervorzuheben, dass Marr sie im Rahmen seiner Theorie der Wahrnehmung, und zwar speziell der frühen (und modularen) Wahrnehmung, einführte.
488
Philosophie der Psychologie
4 Zur Wissenschaftstheorie einiger exemplarischer Forschungs gegenstände der Psychologie 4.1 Wahrnehmung als Gegenstand psychologischer Forschung Allgemein lässt sich Wahrnehmung durch die folgenden drei Merkmale charakterisieren: Sie hat (1) relativ eindeutig lokalisierbare neurologische und anatomische Bedingungen (z. B. die Retina, die Rezeptoren), (2) eine phänomenale Qualität, also eine subjektive Komponente, und beinhaltet (3) oft den Vollzug scheinbar kognitiver Leistungen (beispielsweise das Kategorisieren von Gegenständen der Wahrnehmung). Ein Gutteil der philosophischen und wissenschaftlichen Diskussionen über Wahrnehmung dreht sich um die Frage, wie sich diese drei Komponenten von Wahrnehmung zueinander verhalten. Aus alltagspsychologischer Sicht drängt sich zunächst ein naiver Realismus auf, demzufolge unser Wahrnehmungssystem die Funktion hat, die Gegenstände der Außenwelt »intern« abzubilden. Mit anderen Worten: Wir gehen davon aus, dass die Kategorien unserer Wahrnehmung im Großen und Ganzen auch die Kategorien der Außenwelt sind. Allerdings wurde bereits von Philosophen der frühen Neuzeit (Locke, Galileo) die These aufgestellt, dass sich zumindest die sogenannten sekundären Qualitäten erst in der Interaktion des Wahrnehmungsapparates mit physischen Reizen konstituieren. Der britische Empirismus postulierte außerdem einen bestimmten Mechanismus der Bildung von Wahrnehmungskategorien (und letztlich von allem Wissen), nämlich den der Assoziation. Nach dieser Auffassung besteht zwischen Wahrnehmung und Welt kein direktes Abbildungsverhältnis. Für Vertreter einer solchen Tradition »indirekter Wahrnehmungstheo rien« stellt sich die Frage nach mentalen Voraussetzungen, die ein Wahrnehmungserlebnis zustande kommen lassen. Ein psychologiehistorisch wichtiger früher Vertreter einer Theor ie indirekter Wahrnehmung war Hermann von Helmholtz, der (vor dem Hintergrund einer umstrittenen Interpretation der kantischen Lehre von Kategorien und Anschauungsformen) die Position vertrat, dass unsere Sinnesorgane von einfachen Reizen affiziert werden, die zu einfachen Sinnesempfindungen Anlass geben. Diese werden durch einen Prozess verarbeitet, den Helmholtz als unbewusstes Schließen bezeichnete und deren Endprodukt die bewusste Wahrnehmung ist. Einfache Empfindungen fungieren in diesem Bild als Reize/Zeichen, die die Grundlage der eigentlichen Wahrnehmungen bilden. Diese Theor ie ist insofern ein Beispiel einer orthodoxen indirekten Wahrnehmungstheorie, als sie zwischen einem sinnlichen und einem kognitiven Teil des Wahrnehmungsprozesses unterscheidet. Die Grundidee ist, dass visuelle Reize nicht genügend Information enthalten, um das Zustandekommen von (beispielsweise) dreidimensionalen Wahrnehmungen zu erklären. Wichtige neuere Vertreter der orthodoxen indirekten Sicht sind Jerry Fodor, Zenon Pylyshyn, Richard Gregory und Irvin Rock. Alle Vertreter dieses Ansat489
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
zes teilen in groben Zügen den sogenannten komputationalen Ansatz (vgl. die Darstellung von Marrs Ebenen in Abschnitt 3.4). Sie glauben also, dass die Verarbeitung visueller Reize sich funktional charakterisieren lässt und die betreffenden Funktionen mithilfe von Algorithmen modelliert werden können. Die Grundannahme ist somit, dass Wahrnehmung ein Prozess ist, bei dem das Gehirn (oder ein funktionales Subsystem des Gehirns) aufgrund bestimmter Sinnesreize eine Repräsentation der Umwelt aufbaut. Allerdings gibt es zwischen den eben genannten Personen auch Unterschiede, und so kann man grob zwischen zwei Lagern unterscheiden: Das erste Lager wird durch Richard Gregory und Irvin Rock vertreten, denen zufolge sich die »niedrigeren« Prozesse der Wahrnehmung entscheidend durch höhere kognitive Prozesse beeinflussen lassen, die sich als Hypothesen charakterisieren lassen (wenn diese auch nicht unbedingt bewusst sind). So argumentiert beispielsweise Gregory, dass das Wahrnehmungssystem in Form unbewusster induktiver Schlüsse Hypothesen über die distalen Ursachen einer proximalen Sinnesreizung aufstellt. In Ausnahmefällen, so argumentiert er, kann unser Hintergrundwissen uns zur Bildung falscher Hypothesen veranlassen, die dann in Wahrnehmungstäuschungen resultieren. Zwei bekannte Vertreter einer konkurrierenden indirekten Wahrnehmungstheo rie sind Jerry Fodor und Zenon Pylyshyn, denen zufolge Wahrnehmung modular ist, das heißt (ganz grob gesprochen), dass sie sich nicht durch kognitive Prozesse beeinflussen lässt, da sie informationell »eingekapselt«, automatisch und weitgehend unbewusst ablaufen. Hierbei berufen sie sich zentral auf die Theor ie David Marrs (1980) und fassen Wahrnehmung als eine Reihe subpersonaler Prozesse auf, die durch Module im Hirn einer Person oder eines Tieres realisiert werden. Zentral ist dabei die Idee, dass »frühe Wahrnehmung« kognitiv nicht »penetrierbar« ist, das heißt, durch Wissen oder Gedanken nicht beeinflusst werden kann. Prozesse der Wahrnehmung sind somit unabhängig von Gedanken (Pylyshyn 1999). Als Beleg für ihre These führen sie an, dass optische Täuschungen wider besseres Wissen fortbestehen können. Kritik an der orthodoxen Auffassung richtet sich vor allem gegen die Annahme der Indirektheit von Wahrnehmung. So bestreiten beispielsweise Vertreter sogenannter ökologischer Ansätze, dass eine Wahrnehmungstheor ie interne Informationsverarbeitungsprozesse postulieren muss, und erachten es für sinnvoller, den Blick nach außen (auf die funktionale Eingebundenheit des Organismus in seine Umwelt) zu richten. In diesem Sinne argumentiert James Gibson (1972), dass Wahrnehmung nicht ein Prozess ist, der irgendwo im Hirn eines Wahrnehmers stattfindet, sondern vielmehr eine Handlung eines ganzen Organismus, und zwar eine Handlung wahrnehmungsgeleiteter Erforschung der Umwelt.9 Für Gibson hat Wahrnehmung dementsprechend die Funktion, den Organismus Gibsons ökologischer und handlungsorientierter Ansatz wurde bereits von Egon Brunswik (1934) antizipiert. Er weist außerdem Parallelen zu neueren Ansätzen in der Philosophie der Wahrnehmung auf, die stark auf die Koppelung zwischen Wahrnehmung 9
490
Philosophie der Psychologie
in direkten und erfolgreichen Kontakt mit seiner Umwelt zu setzen und seine Handlungen zu lenken, und er argumentiert, dass wir dazu aufgrund unserer Empfänglichkeit für invariante Strukturen unserer Umgebung in der Lage sind. Zentral für Gibson ist, dass wir uns aktiv durch die Umwelt bewegen. Dabei sei Wahrnehmung keine Aneinanderreihung von »Schnappschüssen«, sondern ein kontinuierlicher, dynamischer visueller Fluss. Mit dieser Auffassung stellt Gibson den in der traditionellen Wahrnehmungsforschung verwendeten Begriff des visuellen Reizes infrage. Ähnlich wie Gibson griffen auch die Gestaltpsychologen die Frage auf, was überhaupt als Reiz wahrgenommen wird, und kritisierten (ebenso wie Ewald Hering vor ihnen) die Annahme, dass unsere bewusste Wahrnehmung das Resultat der Verarbeitung unbewusster Empfindungen ist (vgl. z. B. Köhler 1913). Sie setzten (unter Bezug auf die von ihnen untersuchten Phänomene der Gestaltwahrnehmung) dagegen, dass wir Reizkomplexe unmittelbar, direkt und bewusst wahrnähmen und dass solche Wahrnehmungen keiner weiteren psychologischen Erklärungen bedürften (vgl. auch Ash 1995). Der Wahrnehmungspsychologe Irvin Rock akzeptiert Gibsons Erweiterung des Stimulus-Begriffes, konstatiert aber, dass Gibsons Ansatz allein nicht ausreiche, um visuelle Phänomene zu erklären. Für diese Phänomene benötige man zusätzliche Mechanismen, bei denen verschiedene Arten von Information abgewogen und kombiniert würden. Rock ist besonders bekannt für seine Erklärung der Mond-Illusion (bei der der Mond in der Nähe des Horizontes größer erscheint als hoch am Himmel). Rock (1982) behauptet, dass bei Größenwahrnehmung eine Reihe von Informationen zusammen verrechnet werden (Netzhautbild-Winkel und vermutete Entfernung des wahrgenommenen Gegenstandes), so dass Wahrnehmung als Resultat logischen Denkens und Schlussfolgerns aufzufassen ist. In diesem Zusammenhang stellt sich die in Abschnitt 3.4 angeschnittene Frage, ob aus der Computersimulierbarkeit von Wahrnehmungsprozessen folgt, dass die entsprechenden Prozesse in biologischen Organismen tatsächlich von Algorithmen gesteuert werden. In diesem Sinne betonen auch Befürworter eines komputationalen Ansatzes (wie z. B. Patricia Churchland 2004), dass die von ihnen postulierten Algorithmen nicht notwendig Ausdruck der »Intelligenz« des visuellen Systems sein müssten. Vielmehr betrachtet Churchland die algorithmische Modellierung eher als theoretische Beschreibung eines Prozesses, der letztlich auf einfache Mechanismen heruntergebrochen werden kann.10
und Handlung abheben (vgl. etwa Noe/Thompson) (↑ Philosophie der Kognitionswissenschaft). 10 Vgl. hierzu aber die in Abschnitt 3.4 angesprochene Frage, was genau der Status einer solchen Theor ie ist.
491
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
4.2 Emotionen als Gegenstand psychologischer Forschung Emotionen zeichnen sich (wie Wahrnehmungen) dadurch aus, dass sie einen subjektiven, erlebnismäßigen Charakter haben, zugleich aber auch kognitive Leistungen beinhalten können (z. B. gehört zur Angst oft auch die Identifikationen einer Situation als gefährlich). Verschiedene Emotionstheorien gewichten diese beiden Aspekte unterschiedlich. Eine frühe Vertreterin sogenannter »Gefühls«-Theo rien der Emotion ist die sogenannte James-Lange-Theor ie, die postuliert, dass Emotionen Gefühle sind, also subjektive Empfindungen je spezifischer physiologischer Erregungszustände (James 1890). Diese Theor ie impliziert, dass Emotionen bewusst sein müssen, da sie sich irgendwie anfühlen. Dieser Auffassung lässt sich allerdings entgegenhalten, dass eine Emotion auch dann vorhanden sein kann, wenn man sich des betreffenden physiologischen Erregungszustandes nicht bewusst ist. Eine frühe Kritik an der James-Lange-Theor ie besagt, dass physiologische Erregungszustände zu unspezifisch sind, als dass sie der Vielfalt emotionaler Zustände Rechnung tragen könnten (Cannon 1929). Dies führte in den 1960er Jahren zu einer Alternative, der zufolge Emotionen das Resultat der Interpretation von physiologischen Zuständen sind (Schacter/Singer 1962). Diese Autoren argumentierten daher, dass das, was spezifische Emotionen ausmacht, nicht physiologisch, sondern kognitiv ist. Die Schachter-Singer-Theor ie kann deshalb als kognitive Emotionstheorie gelten. Kognitive Theor ien lenken unser Augenmerk auf die Tatsache, dass Gefühle häufig intentionale Gegenstände haben, die in irgendeiner Form bewertet und beurteilt werden. Entsprechend argumentieren sogenannte Bewertungstheorien, dass Emotionen die Funktion haben, uns in die Lage zu versetzen, mit bestimmten Umweltsituationen umzugehen (vgl. z. B. Scherer et al. 2001). Funktionalistische Ansätze in der evolutionstheoretischen Tradition fragen hingegen nicht primär nach der Funktion von Emotionen als solchen, sondern nach der Funktion von Emotionsverhalten (vgl. z. B. Darwin (1998 [1896]). In dieser Tradition argumentiert Ekman, dass emotionaler Ausdruck Teil eines »emotionalen Affektprogramms« ist (1999). Unter einem solchen Affektprogramm versteht er komplexe Verhaltensmuster, die universell auffindbar sind (z. B. Zähnefletschen) und durch Mechanismen unterhalb der Bewusstseinsschwelle gesteuert werden. In diesem Sinne identifiziert Ekman sechs Basisemotionen (denen er später eine siebte hinzufügt), die er durch interkulturelle empirische Studien eruierte. In der gegenwärtigen philosophischen Literatur zum Thema Emotion gibt es verschiedene Lager auf einem Spektrum zwischen rein kognitiven Theor ien und Gefühlstheor ien (vgl. Prinz 2012 für einen Überblick sowie Döring 2009 für eine Sammlung repräsentativer Texte). An diesen philosophischen Debatten (obwohl nicht im engeren Sinne wissenschaftstheoretisch) wird deutlich, wie sehr verschiedene Theorien auf fundamentalen begrifflichen Vorannahmen darüber beruhen, was als zentrale Merkmale von Emotion zu gelten hat. Dies wird auch in Kontexten wissenschaftlicher Forschung relevant, da dort zusätzlich Annahmen darüber 492
Philosophie der Psychologie
gemacht werden müssen, was für empirische Daten als Indikatoren für das Vorliegen der betreffenden Merkmale gelten können. Allgemeiner gesprochen ist damit ein Phänomen angesprochen, dass in der wissenschaftstheoretischen Literatur der Psychologie bislang relativ wenig thematisiert wird, nämlich dass wissenschaftliche Forschung nicht lediglich darauf zielt, irgendwelche bereits klar umrissenen Phänomene zu erklären, sondern dass die Frage, worum es sich bei einem bestimmten Forschungsgegenstand genau handelt, selbst Teil wissenschaftlicher (und wissenschaftstheoretischer) Auseinandersetzungen sein kann (vgl. auch die Einleitung von Weisskopf/Adams 2015). Ich wende mich im Folgenden exemplarisch (und ohne Anspruch auf Vollständigkeit) einer bestimmten wissenschaftstheoretischen Analyse des Forschungsgegenstandes der Emotionspsychologie zu, nämlich der von Paul Griffiths (1997) vorgelegten. Griffiths Grundbehauptung ist, dass unser alltagspsychologisches Emotions vokabular weitgehend eliminiert werden muss, weil sich nicht sinnvoll über unsere Verwendungsweisen der betreffenden Begriffe generalisieren lässt. Damit will er nicht behaupten, dass die betreffenden Gefühle nicht existieren, sondern nur, dass die verschiedenen Gefühle, auf die wir mit ein und demselben Begriff referieren, nicht genügend gemeinsam haben, als dass dieser Begriff Teil einer wissenschaftlichen Theor ie der betreffenden Emotion sein könnte. Von diesem Urteil nimmt Griffiths aber ausdrücklich die von Ekman postulierten Basisemotionen aus, über die er sagt, dass es sich um natürliche Arten handelt. Mit dem Begriff der natürlichen Art werden in der Wissenschaftstheor ie zwei Dinge beschrieben, nämlich (1) dass es sich um Gegenstände in der natürlichen Welt handelt, die unabhängig von uns existieren (metaphysischer Begriff der natürlichen Art), und (2) dass unsere Theor ien mit Begriffen operieren, die es uns ermöglichen, Generalisierungen und Vorhersagen zu formulieren (epistemischer Begriff der natürlichen Art). Ein einflussreicher Versuch, den Erfolg vieler wissenschaftlicher Artbegriffe zu erklären, ohne sich damit einem metaphysischen Realismus zu verschreiben, wurde von Richard Boyd formuliert (2000). Zentral für Boyds Ansatz ist der Begriff des homöostatischen Eigenschafts-Clusters. Damit ist die Idee gemeint, dass die Gegenstände, die in die Extension eines wissenschaftlichen Artbegriffes fallen, durch Cluster verschiedener Kausalmechanismen charakterisiert werden können. Griffiths argumentiert nun, dass Ekmans Basisemotionen als natürliche Arten in Boyds Sinne aufzufassen sind. Die Idee des Clusters erlaubt es Griffiths zu argumentieren, dass Emotionen sich nicht unter Bezug auf ein besonders hervorstechendes Merkmal beschreiben lassen, sondern vielmehr durch ein Zusammenspiel physiologischer, kognitiver und verhaltensmäßiger Eigenschaften. Griffiths begründet die Annahme, dass es sich bei solchen Clustern um natürliche Arten handelt, mit dem Begriff der Homologie. Zwei Merkmale oder auch Gruppen von Merkmalen (z. B. bestimmte Cluster von Verhaltensmustern bei verschiedenen Organismen) sind homolog, wenn sie auf demselben Ast eines kladistischen Baums liegen, wenn ihre Träger also von denselben Vorfahren abstammen. 493
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Griffiths argumentiert, dass sie daher Tiefenmechanismen teilen (auch wenn sie oberflächlich nicht unbedingt ähnlich sind). Mit diesem Vorschlag bzgl. der Individuierung der Referenzklassen von Begriffen wie »Angst« oder »Wut« weicht Griffiths von den in Abschnitt 3.2 besprochenen funktionalistischen Ansätzen ab: Er bestreitet, dass Emotionen durch ihre kausal-funktionale Rolle in einem Organismus definiert sind, und behauptet stattdessen, dass sie ihre Artzugehörigkeit durch ihre Evolutionsgeschichte erhalten. Selbst wenn man Griffiths’ wissenschaftstheoretische Analyse der Basisemotionen teilt, bleibt die Frage, wie komplexere (und stärker sozial konditionierte) Emotionen wie Neid, Eifersucht oder romantische Liebe philosophisch zu analysieren sind. In einem interessanten Versuch der Verknüpfung sozialkonstruktivistischer und wissenschaftstheoretischer Ansätze argumentiert Welpinghus (2015), dass höhere Emotionen sich insofern als soziale Arten klassifizieren lassen, als sie Vorhersagen und Verallgemeinerungen im Rahmen sozialwissenschaftlicher Theorien zulassen. Welpinghus weist damit nicht zuletzt auf den Umstand hin, dass sich psychologische Gegenstände oft im Grenzgebiet zwischen der biologischen und der sozialen Sphäre konstituieren. Dies wird beim Forschungsgegenstand der Rationalität besonders deutlich, dem wir uns als nächstes zuwenden.
4.3 Rationalität als Gegenstand psychologischer Forschung Das Thema der Rationalität hat eine ehrwürdige Tradition in der Philosophie, aber wie kann eine angemessene empirische Theor ie, wie kann die psychologische Erforschung von Rationalität aussehen? Hier sei der Einfachheit halber nur die Seite der theoretischen Rationalität betrachtet, die unser Denken und unsere Meinungen betrifft. Insofern wir annehmen, dass Rationalität nicht lediglich etwas mit Denken, sondern mit korrektem Denken zu tun hat, liegt es nahe zu fragen, was wir für normative Kriterien für korrektes Denken haben, denn Rationalität muss ja irgendwie operationalisiert werden, um die entsprechenden psychologischen Prozesse empirisch untersuchen zu können. Wie wir allerdings gleich sehen werden, gibt es in der gegenwärtigen Debatte tiefe Meinungsverschiedenheiten bzgl. der normativen Frage nach der Natur der Rationalität. Verbreitete Definitionen von Rationalität besagen, dass rationales Denken nicht gegen die Regeln (1) der Logik, (2) der Wahrscheinlichkeitstheorie und (3) der rationalen Entscheidungstheorie verstoßen darf. Die neueren Rationalitätsdebatten nahmen ihren Ausgang in einigen frappierenden empirischen Befunden, denen zufolge wir häufig gegen die genannten Regeln verstoßen. Zwei bekannte Beispiele sind der sogenannte »Confirmation Bias« und die »Conjunction Fallacy«. Der Confirmation Bias wurde von Wason (1966) mithilfe des »Wason Selection Task« erforscht. Er besteht in der Tatsache, dass wir oft fälschlicherweise auf die Wahrheit von Prämissen schließen, wenn diese jene Konklusionen bestätigen, die wir ohnehin schon für wahr halten, obwohl eine korrekte Anwendung des Modus 494
Philosophie der Psychologie
Tollens uns vor diesem Fehler bewahren könnte. Die Conjunction Fallacy besteht darin, fälschlicherweise davon auszugehen, dass die Konjunktion zweier Ereignisse wahrscheinlicher ist als jedes der beiden für sich genommen. Dies widerspricht aber einem grundlegenden Axiom der Wahrscheinlichkeitstheor ie. Eine berühmte Untersuchung in diesem Zusammenhang wurde von Amos Tversky und Daniel Kahneman (1983) durchgeführt, die dabei das Beispiel einer Frau namens Linda verwendeten, von der Versuchspersonen erfahren, dass sie intelligent, geradeheraus und sozial engagiert ist. Auf die Frage, was wahrscheinlicher sei, dass Linda eine Bankangestellte ist oder dass sie eine feministische Bankangestellte ist, antworteten fast 90% der Befragten, Letzteres sei wahrscheinlicher. In der Literatur gab es seit den 1970er Jahren mehrere verschiedene Reaktionen auf derartige Befunde. Eine naheliegende Interpretation ist, dass menschliches Verhalten häufig zutiefst irrational ist und dass eine psychologische Erklärung für diese Irrationalität erforderlich ist (vgl. z. B. Stich 1985). Eine konkurrierende Reaktion ist, die dieser Forschung zugrundeliegenden Annahmen über Rationalität infrage zu stellen (vgl. z. B. Gigerenzer 1996). Wichtige Vertreter der ersten Position sind Kahneman/Tversky, die in ihrem Forschungsprogramm das traditionell in der Ökonomie verwendete Rational-Choice-(Expected-Utility-)Paradigma menschlichen Verhaltens als psychologisch unrealistisch zurückweisen. Ihre eigene »Prospect Theory« behauptet hingegen, dass die Entscheidungen von Menschen häufig dadurch beeinflusst sind, dass sie Risiken ein größeres Gewicht einräumen als Chancen, wobei die Einschätzung von Risiken und Verlusten mithilfe sogenannter Heuristiken vorgenommen wird, die wiederum zu kognitiven Verzerrungen (»Biases«) Anlass geben können (Kahneman/Tversky 1979). In psychologischer Hinsicht ist dieser Ansatz repräsentativ für einen wichtigen Trend in der neueren Psychologie, der die Existenz zweier verschiedener Arten mentaler Prozesse postuliert: (1) schnelle, unbewusste Prozesse, die nur schwer (wenn überhaupt) durch den Verstand beeinflusst werden können, und (2) langsame, kontrollierte und bewusste Prozesse (vgl. auch Kahneman 2011). Der bekannteste Kritiker des Heuristics-and-Biases-Ansatzes, Gerd Gigerenzer, hält an der Idee fest, dass menschliches Denken, Entscheiden und Problemlösen als grundsätzlich rational einzuschätzen ist, auch wenn dies bedeutet, dass Rationalität durch die Regeln der Logik und Wahrscheinlichkeitstheor ie nicht angemessen eingefangen wird. Gigerenzer beansprucht für seine eigene Theo rie (der bounded rationality), dass sie nicht nur empirisch angemessen, sondern auch normativ gehaltvoll ist. Die Grundidee (die auf Herbert Simon zurückgeht) ist, dass unsere Entscheidungsoptionen durch die Endlichkeit der Zeit und Informationen begrenzt sind, aber zugleich oft auf günstige Umwelten treffen, innerhalb derer Heuristiken gute Entscheidungen und Urteile bewirken können. Wie Kahneman/Tversky postuliert (und erforscht) Gigerenzer einfache Heuristiken. Ihm zufolge verleiten uns diese Heuristiken jedoch nicht zu Verstößen gegen a priori vorausgesetzte Rationalitätsregeln, sondern Rationalität wird in bestimmten Bereichen genau durch solche Heuristiken konstituiert, und zwar weil sie er495
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
folgreich sind (vgl. auch Sturm/Gigerenzer 2012). Diese These hängt eng mit der Einschätzung zusammen, dass es abwegig ist, rein formale und kontextunabhängige Kriterien der Normen von Rationalität aufstellen zu wollen. Sturm (2012) weist allerdings darauf hin, dass Gigerenzers Kritik der Annahme universeller Rationalitäts-Standards zwischen zwei verschiedenen Behauptungen changiert, nämlich (a) der starken These, dass die abstrakten Normen von Logik und Wahrscheinlichkeitstheor ie nicht universell valide sind, und (b) der (schwächeren) These, dass die Anwendung abstrakter Normen kontextspezifischen Regeln unterliegt. Der Unterschied lässt sich gut an Gigerenzers Kritik der Untersuchungsdesigns von Kahneman und Tversky illustrieren. So zeigt Gigerenzer, dass Versuchspersonen logische und wahrscheinlichkeitstheoretische Regeln sehr wohl korrekt anwenden können, wenn die Informationen auf eine unseren kognitiven Voraussetzungen angemessene Weise dargeboten werden. Die Versuchspersonen seien also in gewisser Weise von Tversky/Kahneman aufs Glatteis geführt worden, indem ihnen abverlangt wurde, logische Regeln außerhalb der ökologischen Kontexte anzuwenden, an die der menschliche Geist adaptiv angepasst ist. Sturm folgert daraus, dass Gigerenzer (zumindest in manchen Fällen) nicht gegen die Idee eines kontextunabhängigen Rationalitätsideals an sich argumentiert, sondern lediglich gegen die Fiktion kontextunabhängiger Standards der Anwendung dieses Ideals. Eine weitere Frage, die sich in diesem Zusammenhang stellt, ist, was mit dem Begriff der Heuristik gemeint ist, den Vertreter beider Lager für sich beanspruchen. Sheldon Chow (2015) argumentiert, dass der Begriff der Heuristik in der philosophischen und wissenschaftlichen Literatur zwar allgegenwärtig ist, im Einzelnen jedoch mit sehr verschiedenen Annahmen verknüpft ist, die einer genaueren Analyse harren.
5 Methodologische Fragen psychologischer Forschung 5.1 Introspektion als Forschungsmethode Wie eingangs erwähnt, ist es eine verbreitete Auffassung, dass introspektive Methoden zu Beginn des 20. Jahrhunderts aus der Psychologie verbannt wurden. Diese Auffassung hat zwar eine gewisse Berechtigung, ist aber auf zweierlei Weise einzuschränken: (1) Erstens hat es immer (beispielsweise im Rahmen der Wahrnehmungsforschung) auch Bereiche der Psychologie gegeben, die sich in irgendeiner Form auf Selbstaussagen von Versuchspersonen stützen. (2) Zweitens kann es wohl als Mythos gelten, dass die Methode der Introspektion aufgrund ihrer inhärenten Subjektivität gescheitert sei. Vielmehr war die Ablehnung der introspektiven Methode im frühen 20. Jahrhundert stark an die Ablehnung eines dominanten Forschungsprogramms (des Strukturalismus Edward Titcheners) geknüpft, das darauf abzielte, das menschliche Bewusstsein in seine »Elemente« zu 496
Philosophie der Psychologie
analysieren (vgl. z. B. Danziger 1980; Hatfield 2005). Aber wie sind introspektive Methoden aus heutiger Sicht wissenschaftstheoretisch einzuschätzen? Fangen wir mit einer kurzen Standortbestimmung an. Unter introspektiven Methoden versteht man – allgemein gesprochen – Methoden, bei denen die Person über einen eigenen mentalen Zustand oder ein Merkmal der eigenen Persönlichkeit Auskunft gibt. Robbins (2006) unterscheidet dementsprechend zwischen drei verschiedenen möglichen Gegenständen introspektiver Aufmerksamkeit, nämlich (1) phänomenal bewussten Zuständen, (2) propositionalen Einstellungen und (3) Persönlichkeitsmerkmalen, und spricht in diesem Zusammenhang von primärer, sekundärer und tertiärer Introspektion. Intuitiv scheint die Irrtumswahrscheinlichkeit bei der primären Introspektion am geringsten. Allerdings erscheint es hier auch am schwierigsten, einen Irrtum nachzuweisen. Ich konzentriere mich im Folgenden auf die primäre Introspektion. Die traditionelle erkenntnistheoretische Frage, ob wir introspektives Wissen über unsere phänomenalen Zustände haben können, ist eng mit der Frage nach der Art der mentalen Prozesse (und der mentalen Architektur) verknüpft, durch die Introspektion ermöglich wird. In der philosophischen Literatur über Intro spektion gibt es zwei dominante Positionen, nämlich (a) dass wir einen direkten, privilegierten und infalliblen Zugang zu den Zuständen unseres phänomenalen Bewusstseins haben und (b) dass introspektive Wahrnehmung eine epistemische Kluft zwischen einem beobachtenden und einem beobachteten mentalen Zustand impliziert und dass diese Kluft bedeutet, dass Introspektion prinzipiell fehlbar ist. Letztere Art von Position (die einen mentalen Zustand höherer Ordnung als Voraussetzung von Introspektion behauptet) wurde von Armstrong (1963) formuliert, neuere Versionen von Lycan (1995) und Rosenthal (2000). Im Rahmen solcher »indirekter« Introspektions-Theor ien gibt es Bemühungen, die Wahrheit introspektiver Wahrnehmungen beispielsweise durch die Postulierung zuverlässig wahrheitserhaltender Prozesse zu begründen. Ein psychologiehistorisch besonders wichtiger Vertreter der Idee eines direkten und unfehlbaren Zuganges zu unseren phänomenalen Zuständen wurde von Franz Brentano (1871) formuliert, wobei jedoch hervorzuheben ist, dass Brentano solche direkten Wahrnehmungen explizit nicht als Introspektion betrachtete. Für ihn war der Begriff der Introspektion gleichbedeutend mit dem Begriff der inneren (wissenschaftlichen) Beobachtung, im Gegensatz zu unserer unmittelbaren Wahrnehmung. Er argumentierte, dass jeder Versuch der inneren Beobachtung, das heißt jeder Versuch, das intern Wahrgenommene zu beschreiben, unweigerlich den Gegenstand der inneren Wahrnehmung verzerren werde und somit wahrheitsgetreue Introspektion grundsätzlich unmöglich mache. Brentano hielt aber retrospektive Selbstauskünfte durchaus für möglich, wenn auch für fehlbar (vgl. Feest 2014b). Im Zusammenhang mit der Verwendung »introspektiver« Daten in der experimentellen Wahrnehmungsforschung erhebt sich die Frage, ob es überhaupt angemessen ist, hier von Introspektion zu sprechen. So behauptet etwa die 497
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
»Transparenz«-Hypothese in der Philosophie des Geistes, dass es keine besonderen internen Wahrnehmungsgegenstände (etwa Qualia) gibt und sich Intro spektion daher auch nicht auf diese richten kann (z. B. Tye 2002). Vertreter dieser These sagen daher, dass der Inhalt introspektiver Aussagen schlicht und einfach der externe Wahrnehmungsgegenstand ist. Demgegenüber argumentiert jedoch Hatfield (2005), dass in wahrnehmungspsychologischen Forschungen häufig nicht gefragt wird, was wahrgenommen wird, sondern wie es wahrgenommen wird. Chirimuuta (2014) argumentiert, dass verschiedene experimentelle Designs in unterschiedlichem Ausmaß dazu angetan sind, Aussagen über phänomenale Empfindungen (im Gegensatz zu Aussagen über den physischen Stimulus) zu veranlassen. Sie bezeichnet solche Designs als »introspection-intensive«. Die neuere wissenschaftstheoretische Diskussion hat sich erneut der Frage zugewandt, (1) ob Selbstauskünfte grundsätzlich als wissenschaftliche Daten geeignet sind und (2) was für Arten von Schlüssen aus ihnen im Rahmen wissenschaftlicher Forschung gezogen werden können. Bezüglich der ersten Frage liegt ein Schwerpunkt auf der Frage, ob Selbstauskünfte wahrheitsgetreu sind. Positionen reichen von der skeptischen Behauptung, dass wir überhaupt keine stabilen Intuitionen darüber haben, was wir wirklich empfinden (z. B. Schwitzgebel 2011), zu der optimistischen Position Piccininis (2012), dass Versuchspersonen, wenn sie Selbstauskünfte geben, als eine Art Messgerät anzusehen sind und dass es möglich ist, solche Messgeräte zu kalibrieren (und ihren Output somit als wahrheitsgetreu anzunehmen). Letztere Position impliziert, dass wir von Selbstauskünften der Versuchspersonen häufig auf einen bestimmten mentalen Zustand schließen können, und grenzt sich somit gegen Dennetts (1987) These ab, dass man allenfalls auf bestimmte Überzeugungen über mentale Zustände schließen kann. Es lässt sich einwenden, dass beide geschilderten Positionen zu allgemein bleiben und dass eine detailorientiertere Untersuchung konkreter Forschungsprojekte erforderlich ist, bei denen Selbstauskünfte verwendet werden. Ein solcher stärker praxisorientierter Ansatz sollte sowohl die Komplexitäten und Probleme der Verwendung von Selbstauskünften (Marcel 2003) als auch die forschungsinternen Strategien im Umgang mit diesen Problemen untersuchen. Im Sinne dieses letzteren Ansatzes argumentiert beispielsweise Hatfield (2005), dass die von Autoren wie Schwitzgebel konstatierte mangelnde Robustheit unseres Wissens über unsere eigenen phänomenalen Empfindungen in der Wahrnehmungsforschung (einem Bereich der Psychologie, der Selbstaussagen über phänomenale Empfindungen erhebt) normalerweise durch streng kontrollierte Versuchsaufbauten und spezifische Instruktionen gewährleistet ist. Feest (2014b) zufolge impliziert dies, dass die Bandbreite möglicher phänomenaler Empfindungen in der wahrnehmungspsychologischen Forschung durch die Wahl geeigneter Stimuli und Versuchsaufbauten determiniert ist. Dadurch erhebt sich die Frage nach den den experimentellen Paradigmen inhärenten theoretischen Vorannahmen.
498
Philosophie der Psychologie
5.2 Psychometrische Messung und Validität Im Zusammenhang mit den eben erwähnten experimentellen Designs stellt sich eine weitere fundamentale methodologische Frage, nämlich nach was für Standards oder Kriterien die Qualität solcher Designs bestimmt wird. Neben bekannten Kriterien der Objektivität und Wiederholbarkeit (»Reliabilität«) stellt sich vor allem die Frage, wie gewährleistet wird, dass das Design (oder Paradigma) auch tatsächlich den Gegenstand der Forschung betrifft. Diese Frage bezeichnet man innerhalb der Psychologie auch als die nach der Validität des Designs. Psychologiehistorisch wurde die Frage nach der Validität experimenteller Designs im engen Zusammenhang mit der Validität psychodiagnostischer Tests diskutiert. Ich fange hier mit letzterem Punkt an, weil dieser historisch früher thematisiert wurde. Betrachten wir als Beispiel einer weitverbreiteten Klasse von Tests die sogenannten Einstellungs-Tests, also Tests, bei denen (z. B.) rassistische Einstellungen ermittelt werden sollen. Traditionell wurden Versuchspersonen aufgefordert, ihre Einstellungen zu bestimmten sozialen oder physischen Gegenständen einzuschätzen, indem sie ihre relative Zustimmung zu bestimmten Aussagen bestimmen.11 Dieser Grad der Zustimmung wird beispielsweise mit sogenannten Likert-Skalen quantifiziert. Aber was heißt es, von einem bestimmten Test zu sagen, dass er valide ist? Intuitiv ist damit gemeint, dass der Tests tatsächlich den intendierten Gegenstand misst. Letztere Frage lässt sich unterteilen in die Frage, (a) ob es sich bei dem intendierten Gegenstand der Messung (z. B. Einstellung) überhaupt um eine klar umrissene Art handelt und (b) ob der Gegenstand der Messung auf die im Test angelegte Art und Weise quantifiziert werden kann. – Daran anknüpfend erhebt sich das methodologische Problem, anhand welcher Kriterien diese Fragen zu beantworten sind. In den frühen 1950er Jahren wandte sich ein SubKomitee der American Psychological Association dieser Frage zu und unterschied zwischen verschiedenen Arten der Validierung von Tests, nämlich VorhersageValidität (predictive validity), Übereinstimmungsvalidität (concurrent validity), Inhalts-Validität (content validity) und Konstrukt-Validität (construct validity). Die ersteren beiden Arten sind kriteriumsorientiert, das heißt, diese Art von Validität ist gegeben, wenn die Testergebnisse mit irgendeinem Kriterium korreliert sind (z. B. wenn ein Test von Schulreife mit Schulerfolg korreliert ist). Ein Test hat Inhaltsvalidität, wenn die ihm vorkommenden Fragen für das zu messende Merkmal repräsentativ sind. Cronbach/Meehl (1955) wandten sich in einem einflussreichen Artikel speziell der Frage der Konstruktvalidität zu und definierten diese dann als gegeben, wenn es ein Konstrukt (einen theoretischen Begriff) gibt, das die Varianz von Testergebnissen erklärt. Ein Einstellungstest wäre also dann konstruktvalide, Bei dieser Darstellung vernachlässige ich die neueren Diskussionen um implizite Einstellungstests. 11
499
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
wenn die Testergebnisse durch das Konstrukt »Einstellung« erklärt werden können. Die Autoren wandten sich damit gegen den operationalistischen Gedanken, demzufolge ein Konstrukt durch ein bestimmtes Testverhalten definiert ist. Sie wollten sich jedoch nicht darauf festlegen, dass das betreffende Testverhalten kausal durch das verursacht wird, worauf das Konstrukt der Einstellung referiert (also durch Einstellungen). Um dies zu verstehen, muss man sich den philosophiehistorischen Kontext vor Augen führen, in dem der verifikationistische Gedanke der empirischen Definierbarkeit individueller Begriffe durch die philosophische Idee abgelöst worden war und in dem einzelne theoretische Begriffe implizit durch ihre Einbettung durch sogenannte nomologische Netze zu definieren waren (vgl. Sellars 1948). Die Autoren denken bei solchen nomologischen Netzen wohl an psychologische Theor ien und bemerken daher, dass die betreffenden Konstrukte (beispielsweise das der latenten Feindseligkeit) dementsprechend nicht als physiologische Konstrukte zu verstehen seien (auch wenn sie u. U. mit solchen identifizierbar seien). Aus der Perspektive der neueren Wissenschaftstheor ie hat diese Auffassung aber eine gewisse Antiquiertheit, insofern der Begriff des nomologischen Netzes (jedenfalls bezogen auf psychologische und neurowissenschaftliche Begriffe) nicht mehr verwendet und stattdessen eher auf mechanistische oder komputationale Modelle Bezug genommen wird. Dennoch ist, wie wir in den Abschnitten 3.3 und 3.4 gesehen haben, die Frage nach dem Status dieser Modelle offen. Vor diesem Hintergrund wird auch verständlicher, warum die Frage nach der Bedeutung von Konstruktvalidität nach wie vor aktuell ist. Beispielsweise argumentieren Borsboom et al. (2004), dass die Behauptung der Konstruktvalidität eines Tests die Realität und kausale Wirksamkeit des Referenten des Konstruktes impliziert. Dementsprechend nennen sie zwei Kriterien der Konstruktvalidierung, nämlich (a) den Nachweis, dass die Testinstruktionen auch tatsächlich kausal auf das zu messende Merkmal einwirken, und (b) eine genaue Kenntnis der Kausalmechanismen, die das Merkmal mit dem Testverhalten verbinden. Im Gegenzug lässt sich jedoch einwenden, dass diese Forderungen die Latte unrealistisch hochlegen und dass es zur Konstruktvalidierung ausreiche, per Faktorenanalyse nachzuweisen, dass zumindest ein Teil der Varianz des Testverhaltens durch ein eigenständiges (wenn auch u. U. nicht besonders detailliertes) Konstrukt erklärt wird. In Bezug auf die Validität experimenteller Designs stellen sich ähnliche Fragen. Im Gegensatz zu psychodiagnostischen Tests befinden sich experimentelle Designs aber selber im Wandel und werden dem sich wandelnden Verständnis des Forschungsgegenstandes angepasst. Ziel ist somit nicht unbedingt, ein Design zu validieren, sondern vielmehr es zu verbessern. In diesem Zusammenhang brachten Campbell/Stanley (1966) die Unterscheidung zwischen interner und externer Validität ins Spiel, d. h. zwischen der Frage, ob die Schlussfolgerungen, die aus einem bestimmten Experiment gezogen werden können, innerhalb der hoch-artifiziellen Umstände eines Experiments Gültigkeit haben, und der Frage, ob man die so erlangten Resultate auf die wirkliche Welt übertragen und verall500
Philosophie der Psychologie
gemeinern könne. Diese Unterscheidung ist in der neueren Wissenschaftstheo rie aufgegriffen worden und wird auch innerhalb der Philosophie der Sozial- und Verhaltenswissenschaften diskutiert (vgl. etwa Guala 2005; Jimenez-Buedo 2011). Dies spiegelt einen begrüßenswerten Trend in der neueren Philosophie der Psychologie wider, sich wieder verstärkt methodologischen Problemen der Psychologie zuzuwenden.
6 Schluss Nicht nur Gegenstand und Methoden psychologischer Forschung, sondern auch die philosophische und wissenschaftstheoretische Reflexion auf diese Forschung waren in den vergangenen 150 Jahren einem großen Wandel unterworfen. Die Frage, was Gegenstand der Psychologie ist und was für wissenschaftstheoretische Fragen sich im Hinblick auf diesen Gegenstand und seine Erforschung stellen, ist somit – so eine zentrale These dieses Artikels – selbst Teil der Philosophie der Psychologie. Im Sinne dieser Einschätzung habe ich in diesem Artikel einerseits einen Überblick über aktuelle Debatten innerhalb der Wissenschaftstheo rie der Psychologie gegeben, andererseits aber auch aufgezeigt, inwieweit diese Debatten durch Annahmen sowohl der Philosophie des Geistes als auch der Wissenschaftstheor ie geprägt worden sind und bis heute geprägt werden. Nach einem einführenden Abschnitt über die historische Entwicklung der (Philosophie der) Psychologie (Abschnitt 2) habe ich in Abschnitt 3 einen Überblick über einige Grundlagenfragen aus der Philosophie des Geistes und der Kognitionswissenschaften gegeben. Dabei wurden insbesondere Fragen nach Erklärungsebenen und dem Status von Theorien in Alltagspsychologie und wissenschaftlicher Psychologie hervorgehoben. Es ging mir darum, aufzuzeigen, dass diese Debatten entscheidend durch bestimmte Diskussionskontexte im 20. Jahrhundert (beispielsweise die um Theorienreduktion und die LeibSeele-Identitätstheor ie) geprägt wurden. Aus der neueren Wissenschaftstheor ie kommend (in der beispielsweise der Status von Computersimulationen und mechanistischen Modellen diskutiert wird), erscheinen einige dieser älteren Diskussionskontexte für ein philosophisches Verständnis psychologischer Forschungspraktiken nicht so vordringlich, doch gibt es (wie wir gesehen haben) neuere Arbeiten, die sich um stärker forschungsorientierte wissenschaftstheoretische Analysen der Psychologie bemühen. In Abschnitt 4 habe ich mich exemplarisch einigen wissenschaftstheoretischen Fragen im Zusammenhang mit spezifischen Gegenständen psychologischer Forschung (Wahrnehmung, Emotion, Rationalität) zugewandt. Alle drei Forschungsgegenstände sind auch in der Philosophiegeschichte prominent behandelt worden. Obgleich dies ein Hinweis darauf ist, dass die Grenze zwischen Philosophie und den konzeptuellen Grundlagen der Psychologie fließend ist, habe ich besonders auf wissenschaftstheoretische Fragen abgehoben. Bei allen drei Forschungsgebie501
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
ten (insbesondere aber dem der Rationalität) wurde außerdem deutlich, dass es ein Spannungsverhältnis zwischen den deskriptiven/explanatorischen Zielen von Wissenschaft und den normativen Vorannahmen über den Forschungsgegenstand gibt, der wissenschaftstheoretisch noch genauer auszuloten sein wird. Abschnitt 5 hat es sich schließlich zum Ziel gesetzt, exemplarisch auf zwei methodologische Themen einzugehen: Introspektion und Validität. Beide Themen hatten in der Psychologiegeschichte eine gewisse Prominenz und werden in der jüngeren Wissenschaftstheor ie erneut betrachtet. Bei beiden Themen ging es mir besonders darum, die enge Verknüpfung methodologischer, ontologischer und metaphysischer Annahmen aufzuzeigen. Die in diesem Artikel getroffene Auswahl von Fragen und Themen ist notwendig unvollständig und ich habe einige prominente aktuelle Debatten nicht behandelt oder nur am Rande gestreift. Auf dem Gebiet der Grundlagenfragen aus der Philosophie des Geistes sollte beispielsweise das Thema der Modularität des Geistes erwähnt werden (vgl. Gottschling 2009 für einen Überblick). Und unter der Rubrik »Forschungsgegenstände« konnten wichtige philosophische Reflexionen auf die wissenschaftliche Erforschung von Begriffen (vgl. z. B. Machery 2009), Moral (Tiberius 2015) und Empathie (Stueber 2014) nicht behandelt werden. In methodologischer Hinsicht betreffen wichtige neuere Forschungsfelder die sogenannte Replikationskrise (Nosek 2015), die Interpretation sogenannter experimenteller Dissoziationen (z. B. Davies 2010; Machery 2012) und die Frage nach dem Status psychologischer Taxonomien.12 Abschließend möchte ich außerdem auf die eingangs gemachte Bemerkung zurückkommen, dass sich die Philosophie der Psychologie mit Forschungspraktiken derjenigen Gebiete beschäftigen sollte, die derzeit weltweit das disziplinäre Profil des akademischen Faches der Psychologie ausmachen. Dazu gehören auch Gebiete wie die Entwicklungspsychologie, Persönlichkeitspsychologie, Sozialpsychologie und Tierpsychologie. Obgleich ich diese Bereiche in diesem Überblicksartikel nicht (oder nur am Rande) behandelt habe, glaube ich, dass diese Gebiete in den nächsten Jahren fruchtbare neue Betätigungsfelder für die Philosophie der Psychologie sein werden.13
Was das zuletzt genannte Thema angeht, gibt es Überschneidungen mit aktuellen Debatten in der Philosophie der Psychiatrie, die hier ebenfalls nicht berücksichtigt werden konnten (vgl. aber z. B. Kincaid/Sullivan 2014). 13 Die Autorin bedankt sich bei den Herausgebern dieses Bandes sowie bei Thomas Sturm und einem/einer anonymen Gutacher/in für hilfreiche Kommentare. 12
502
Philosophie der Psychologie
Literatur Empfehlungen: Fundierte Behandlungen verschiedener Aspekte der Philosophie und Geschichte der Psychologie finden sich in vielen Arbeiten von Gary Hatfield (vgl. z. B. seine Seite auf PhilPapers). Für eine Monografie in deutscher Sprache vgl. auch Nicole Schmidts Philosophie und Psychologie. Trennungsgeschichte, Dogmen und Perspektiven (1995, Hamburg: Reinbek). Für einen stärker interdisziplinären Blick auf die Psychologie sei auf den von Thomas Sturm und Mitchell Ash herausgegebenen Band Psychology’s Territories hingewiesen (Lawrence Erlbaum Associates, 2007). Auch das von John Symons und Paco Calvo herausgegebene Routledge Companion to Philosophy of Psychology (2009) enthält eine Reihe informativer und lesenswerter Artikel. Ebenfalls zu empfehlen ist das kürzlich erschienene Buch An Introduction to the Philosophy of Psychology (Cambridge University Press) von Daniel Weiskopf und Fred Adams.
Armstrong, David (1963). »Is Introspective Knowledge Incorrigible?« The Philosophical Review 72(4), 417 – 432. Ash, Mitchell (1995). Gestalt Psychology in German Culture 1890 – 1967. Holism and the Quest for Objectivity. Cambridge, UK: Cambridge University Press. Aizawa, Ken (2009). »Neuroscience and multiple realization: a reply to Bechtel and Mundale«. Synthese 167, 493 – 510. Anderson, John R. (1990). The Adaptive Character of Thought. Mahwah, NJ: Lawrence Erlbaum Associates. –; Bothel, Daniel; Byrne, Michael; Douglass, Scott; Lebiere, Christian; Quin, Yulin (2004). »An integrated theory of the mind«. Psychological Review, 111(4). 1036 – 1060. Bechtel, William und Abrahamsen, Adele (2005). »Explanation: a mechanist alternative«. Stud. Hist. Phil. Biol. & Biomed. Sci. 36, 421–441. Bechtel, William und Mundale, Jennifer (1999). »Multiple Realizability Revisited: Linking Cognitive and Neural States«. Philosophy of Science 66(2), 175 – 2 07. Bechtel, William und Richardson, Robert (1993). Discovering Complexity: Decomposition and Localization as Strategies in Scientific Research. Princeton: Princeton University Press. Beckermann, Ansgar (2008). Analytische Einführung in die Philosophie des Geistes. Berlin: deGruyter. Bermúdez, Jose Luis (2005). Philosophy of Psychology. New York: Routledge. Block, Ned (1980). Readings in Philosophy of Psychology, Vol. 1/2. Cambridge University Press. Borsboom, Denny; Mellenbergh, Gideon; van Heerden, Jaap (2004). »The Concept of Validity«. Psychological Review 111 (4), 1061 – 1071. Boyd, Richard (2000). »Realism, anti-foundationalism, and the enthusiasm for natural kinds«. Philosophical Studies 61, 127 – 148.
503
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Brunswik, Egon (1934). Wahrnehmung und Gegenstandswelt: Grundlegung einer Psychologie vom Gegenstand her. Leipzig und Wien: F. Deuticke (Habilitationsschrift). Campbell, Donald T. und Fiske, Donald W. (1959). »Convergent and discriminant validation by the multitrait-multimethod matrix«. Psychological Bulletin 56, 81 – 105. Cannon, Walter Bradford (1931). »Against the James-Lange and the thalamic theories of emotion«. Psychological Review 38, 281–195. Carson, John (2007). The Measure of Merit: Talents, Intelligence, and Inequality in the French and American Republics, 1750 –1940. Princeton, NJ: Princeton University Press. Carruthers, Peter (2011). The Opacity of Mind: An Integrative Theory of Self-Knowledge, Oxford University Press. Chirimuuta, Mazviita (2014). »Psychophysical Methods and the Evasion of Introspection«. Philosophy of Science 81(5), 914 – 926. Chow, Sheldon (2005). »Many Meanings of ›Heuristic’«. British Journal for the Philosophy of Science 66(4), 977 – 1016. Churchland, Paul (1981). »Eliminative Materialism and Propositional Attitudes«. The Journal of Philosophy, 78(2) 67 – 9 0. – (2004). »Is the Visual System Really as Smart as it Looks?« In: Robert Schwartz (Hg.): Perception. Malden: MA: Blackwell Publishing, 215 – 228 (Ursprünglich veröffentlicht Proceedings of the Philosophy of Science Association 2, 541 – 52). Craver, Carl (2007). Explaining the Brain. Oxford University Press. Cronbach, Lee und Meehl, Paul (1955). »Construct Validity in Psychological Tests«. Psychological Bulletin 52(4), 281 – 302. Cummins, Robert (1975). »Functional analysis«. The Journal of Philosophy 72(20), 741 – 760. – (2000). »‘How does it Work?‹ versus. ›What are the Laws?‹: Two Conceptions of Psychological Explanation«. In: F. Keil und R. Wilson (Hg.): Explanation and Cognition. MIT Press, 117 – 144. Danziger, Kurt (1980). »The History of Introspection Reconsidered«. Journal for the History of the Behavioral Sciences 16, 241 – 262. Darwin, Charles; Ekman, Paul; Prodger, Phillip (1998). The Expression of the Emotions in Man and Animals, 3rd edn, London: Harper Collin (zuerst veröffentlicht 1896). Davidson, Donald (1970). »Mental Events«. In: Lawrence Foster and J. W. Swanson (Hg.), Experience and Theory, London: Duckworth. (neu abgedruckt in Davidson 2001). – (2001). Essays on Actions and Events. Oxford University Press. Dennett, Daniel (1987). The Intentional Stance. Cambridge, MA: MIT Press. Döring, Sabine (Hg.) (2009). Philosophie der Gefühle. Suhrkamp. Drayson, Zoe (2014). »The Personal/Subpersonal Distinction«. Philosophy Compass 9(5), 338 – 346. Ekman, Paul (1999). »Basic Emotions.« In: Dalgleish, T; Power, M, Handbook of Cognition and Emotion, Sussex, UK: John Wiley & Sons. 504
Philosophie der Psychologie
Fancher, Raymond und Rutherford, Alexandra (Hg.) (2011). Pioneers of Psychology. A History. W. W. Norton (4. Auflage). Fechner, Gustav (1860). Elemente der Psychophysik. Leipzig: Breitkopf & Härtel. Feest, Uljana (2010). Historical Perspectives on Erklären and Verstehen. Springer. – (2012). »Introspection as a Method and Introspection as a Feature of Consciousness«. Inquiry 55 (1), 1 – 16. – (2014a). »The Enduring Relevance of 19th-Century Philosophy of Psychology: Brentano and the Autonomy of Psychology.« In: M. C. Galavotti und F. Stadler (Hg.), New Directions in the Philosophy of Science, The Philosophy of Science in a European Perspective 5. Springer. Springer. 693 – 709 (2014). – (2014b). »Phenomenal Experiences, First-Person Methods, and the Artificiality of Experimental Data«. Philosophy of Science 81, 927–939. Fodor, Jerry (1980). »Special Sciences, or The Disunity of Science as a Working Hypothesis«. In: N. Block (Hg.): Readings in the Philosophy of Psychology. Oxford University Press, Vol I, 120 – 133 (ursprünglich erschienen in Synthese 28, 97 – 115, 1974. – und Pylyshyn, Zenon (1981). »How direct is visual perception? Some reflections on Gibson’s ›ecological approach’«. Cognition 9, 139 – 6 0, 165 – 6. Frigg, Roman und Hartmann, Stephan (2012). »Models in Science«. The Stanford Encyclopedia of Philosophy (Fall 2012 Edition), Edward N. Zalta (Hg.), URL = ‹http:// plato.stanford.edu/archives/fall2012/entries/models-science/›. Gibson, James (1972). »A Theory of Direct and Indirect Perception.« In: J. Royce und W. Rozeboom (ed.s). The Psychology of Knowing. New York/London: Gordon & Breach, 215 – 227. Gigerenzer, Gerd (1996). »On narrow norms and vague heuristics: A rebuttal to Kahneman and Tversky«. Psychological Review, 103, 592 – 596. – und Sturm, Thomas (2007). »Tools= theor ies= data? On some circular dynamics in cognitive science«. In: Ash und Sturm (Hg.), Psychology’s Territories, Lawrence Erlbaum Associates, 305 – 342. – und Sturm, Thomas (2012). »How Can Rationality be Naturalized?« Synthese 187(1), 243 – 268. Gottschling, Verena (2009). »Modularity.« In: Symons, J. und Calvo, P. (Hg.): The Routledge Companion to Philosophy of Psychology, 296 – 321. Gregory, Richard (1970). The Intelligent Eye. London: Weidenfeld and Nicolson. Griffiths, Paul (1997). What Emotions Really Are. Chicago: The University of Chicago Press. Gundlach, Horst (2004). »Reine Psychologie, Angewandte Psychologie und die Institutionalisierung der Psychologie«. Zeitschrift für Psychologie 212, 183 – 199. Guala, Francesco (2005). The Philosophy of Experimental Economics. Cambridge University Press. Goldman, Alvin I. (2006). Simulating Minds: The Philosophy, Psychology, and Neuroscience of Mindreading, Oxford: Oxford University Press. Gould, Stephen und Lewinton, Richar (1979). »The Spandrels of San Marco and the 505
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Panglossian Paradigm: A Critique of the Adaptationist Programme«. Proceedings of the Royal Society of London. Series B, Biological Sciences, Vol. 205 (1161), 581 – 598. Hatfield, Gary (2005). »Introspective Evidence in Psychology«. In: P. Achinstein (Hg.), Scientific Evidence. Philosophical Theories & Applications. Baltimore/London: The Johns Hopkins University Press. – (2010). »Philosophy and Science of Visual Perception and Cognition«. In: ders. Perception and Cognition. Essays in the Philosophy of Psychology. Oxford University Press, 1 – 49. Heidelberger, Michael (1993). Die innere Seite der Natur. Vittorio Klostermann. Hempel, Carl Gustav und Oppenheim, Paul (1948). »Studies in the Logic of Explanation«. Philosophy of Science, 15, 135–175. Hutto, Daniel (2009). »Folk Psychology as Narrative Practice«. Journal of Consciousness Studies, 16, No. 6–8, 2009, 9–39. Irvine, Elizabeth (2013). Consciousness as a Scientific Concept. A Philosophy of Science Perspective. Dordrecht: Springer. – (2014). »Model-Based Theorizing in Cognitive Neuroscience.« The British Journal for the Philosophy of Science (Advance Access published November 10, 2014). James, William (1890). Principles of Psychology, Vol. I. New York: Henry Holt. Jiménez-Buedo, María (2011). »Conceptual tools for assessing experiments: Some well-entrenched confusions regarding the internal/external validity distinction.« Journal of Economic Methodology, 18/3, 271–282. Kahneman, Daniel und Tversky, Amos (1979). »Prospect Theory: An Analysis of Decision under Risk.« Econometrica, 47(2), 263 – 291. – (1996). »On the reality of cognitive illusions«. Psychological Review, 103, 582 – 591. Kincaid, Harold und Sullivan, Jacqueline (2014). Classifying Psychopathology: Mental Kinds and Natural Kinds. MIT Press. Köhler, Wolfgang (1913). »Über unbemerkte Empfindungen und Urteilstäuschungen«. Zeitschrift für Psychologie, 66, 51 – 8 0. Kripke, Saul (1980). Naming and Necessity. Cambridge: Harvard University Press. Lycan, William (1990). »The Continuity of Levels of Nature«. In: Lycan, W. (ed), Mind and Cognition. Wiley-Blackwell, 77 – 9 6. – (1995). »Consciousness as internal monitoring I«, Philosophical Perspectives, 9 (AI’Connectionism, and Philosophical Psychology), 1–14. MacCorquodale, Kenneth und Meehl, Paul (1948). »On a Distinction Between Hypothetical Constructs and Intervening Variables«. Psychological Review, 55, 95 – 107. Machery, Edouard (2009). Doing Without Concepts. Oxford University Press. – (2012). »Dissociations in Neuropsychology and Cognitive Neuroscience«. Philosophy of Science 79 (4), 490 – 518. Mandler, George (2005). A History of Modern Psychology. MIT Press. Marcel, Anthony (2003). »Introspective Report. Trust, Self-Knowledge and Science«. Journal of Consciousness Studies 10 (9/10), 167 – 186. Marr, David (1982). Vision. MIT Press. 506
Philosophie der Psychologie
Morgan, Mary und Morrison, Margaret (1999). Models as Mediators. Perspectives on Natural and Social Science. Cambridge University Press. Newell, Allen, and Simon, Herbert (1976). »Computer Science as Empirical Inquiry: Symbols and Search«. Communications of the ACM 19(3), 113 – 126 Noe, Alva und Thompson, Evan (2002). »Introduction«. In: Noe/Thompson (Hg.): Vision and Mind: Selected Readings in the Philosophy of Perception. A Bradford Book. 1 – 12 Nosek, Brian (2015). »Estimating the reproducibility of psychological science«. Science 28, Vol 349 no. 6251, DOI, 10.1126/science.aac4716. Oppenheim, Paul und Putnam, Hilary (1970). »Einheit der Wissenschaft als Arbeitshypothese«. In: L. Krüger (Hg.): Erkenntnisprobleme der Naturwissenschaften. Kiepenheuer & Witsch, 339 – 371. [ursprüngliche Veröffentlichung 1958]. Pauen, Michael (2002). »Is type identity incompatible with multiple realization?« Grazer Philosophische Studien 65 (1), 37 – 49. Piccinini, Gualtiero (2003). »Data from introspective reports. Upgrading from common sense to science«. Journal for Consciousness Studies, 10 (9–10), 141–56. – und Craver, Carl (2011). »Integrating psychology and neuroscience: functional analyses as mechanism sketches«. Synthese 138, 283 – 311. Place, Ullin T. (1956). »Is Consciousness a Brain Process?« British Journal of Psychology 47(1), 44 – 50. Polger, Thomas und Shapiro, Lawrence (2016). The Multiple Realization Book. Oxford University Press. Prinz, Jesse (2012). »Emotion«. In: Frankish/Ramsey (Hg.). The Cambridge Handbook of Cognitive Science. 193 – 211. Pylyshyn, Zenon (1999). »Is Vision Continuous with Cognition. The Case for Cognitive Impenetrability of Visual Perception«. Behavioral and Brain Sciences 22(3), 341 – 4 23. Ramsey, William (2013). »Eliminative Materialism«. The Stanford Encyclopedia of Philosophy (Summer 2013 Edition), Edward N. Zalta (Hg.), URL = http://plato. stanford.edu/archives/sum2013/entries/materialism-eliminative/. Putnam, Hilary (1980). »The Nature of Mental States«. In: N. Block (Hg.): Readings in the Philosophy of Psychology, Vol. I. Cambridge MA: Harvard University Press, 223 – 231. [ursprünglich veröffentlicht 1967] Robbins, Philip (2006). »The Ins and Outs of Introspection«. Philosophy Compass 1/6, 617–630. Rock, Irvin (1982). »Inference in Perception«. Proceedings of the Philosophy of Science Association 2, 525 – 40. Rosenthal, David (2000). »Introspection and self-interpretation«. Philosophical Topics 28(2), 201–33. Salmon, Wesley (1984). Scientific Explanation and the Causal Structure of the World. Princeton University Press. – (2006). Four Decades of Scientific Explanation. University of Pittsburgh Press. [ursprünglich erschienen 1989, Minnesota Studies]. 507
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Schachter, Stanley und Singer, Jerome E. (1962). »Cognitive, Social, and Physiological Determinants of Emotional State.« Psychological Review, 69(5), 379 – 399. Scherer, Klaus R., et al. (2001). »Emotion inferences from vocal expression correlate across languages and cultures«. Journal of Cross-Cultural Psychology, 32(1), 76–92. Schmidt, Nicole (1995). Philosophie und Psychologie. Tennungsgeschichte, Dogmen und Perspektiven. Hamburg: Reinbek. Schultheis, Holger (2012). »Kognitive Modellierung«. In: A. Stephan und S. Walter (Hg.): Handbuch Kognitionswissenschaft. Stuttgart – Weimar: Metzler, 101 – 105. Schwitzgebel, Eric (2011). Perplexities of Consciousness. Chicago. Sellars, Wilfrid (1948). »Concepts as Involving Laws and Inconceivable without Them«. Philosophy of Science 15(4), 287 – 315. – (1956). »Empiricism and the Philosophy of Mind«. Minnesota Studies in Philosophy of Science, 1, 253–329. Smart, John Jamieson Carswell (1959). »Sensations and Brain Processes«, Philosophical Review, vol. LXVIII. Sterelny, Kim (1991). The Representational Theory of Mind: An Introduction. WileyBlackwell. Stich, Stephen (1985). »Could man be an irrational animal? Some notes on the epistemology of rationality«. Synthese, 64, 115 – 135. Stinson, Catherine (2016). »Mechanisms in Psychology: Ripping Nature at its Seams.« Synthese 193, 1585–1614. Stueber, Karsten (2014). »Empathy«. The Stanford Encyclopedia of Philosophy (Winter 2014 Edition), Edward N. Zalta (Hg.), URL = ‹http://plato.stanford.edu/archives/ win2014/entries/empathy/›. Sturm, Thomas (2006). »Is there a problem with mathematical psychology in the eighteenth century: A fresh look at Kant’s old argument«. Journal of the History of the Behavioral Sciences, Vol. 42(4), 353–377 Fall. – (2012). »The ›Rationality Wars‹ in Psychology: Where They Are and Where They Could Go«. Inquiry: An Interdisciplinary Journal of Philosophy, 55, 1, 66 – 81. – und Gundlach, Horst (2013). »Zur Geschichte und Geschichtsschreibung der »kognitiven Revolution« – eine Reflexion. In: Achim Stephan und Sven Walter (Hg.). Handbuch Kognitionswissenschaft. Stuttgart: Metzler, 7–21. Suppe, Frederick (1989). The Semantic Conception of Theories and Scientific Realism. Urbana: University of Illinois Press. Thagard, Paul (2012). »Cognitive Architectures«. In: Frankish/Ramsey (Hg.), The Cambridge Handbook of Cognitive Science. 50 – 70. Tiberius, Valerie (2014). Moral Psychology: A Contemporary Introduction. Routledge Contemporary Introductions to Philosophy. Tversky, Amos und Kahneman, Daniel (1983). »Extensional versus intuitive reasoning: Conjunction fallacy in probability judgment«. Psychological Review, 90, 293– 315. Tye, Michael (2002). »Representationalism and the transparency of experience«. Nous, 36, 137 – 51. 508
Philosophie der Psychologie
Weisskopf, Daniel (2011). »Models and mechanisms in psychological explanation«. Synthese 183(3), 313 – 338. – und Adams, Fred (2015). An Introduction to the Philosophy of Psychology. Cambridge Introductions to Philosophy. Cambridge University Press. Welpinghus, Anna (2015). Emotions as Natural and Social Kinds. An Integrative Approach To Evolutionary And Social Constructionist Perspectives On Emotions. Mentis. Wright, Larry (1973). »Functions«, Philosophical Review 83, 139 – 6 8. Young, Robert (1990). Mind, Brain and adaptation in the ninetheenth century: Cerebral localization and its biological context from Gall to Ferrier. Oxford University Press.
509
2. Philosophie der Linguistik Wolfram Hinzen
1 Einleitung Die Philosophie der Linguistik wird im angelsächsischen Raum heute im Allgemeinen von der Sprachphilosophie auf folgende Weise unterschieden: Die erstere hat die Linguistik als Wissenschaft selbst zum Gegenstand und beschäftigt sich, wie andere Wissenschaftstheor ien auch, mit allgemeinen Fragen wie der Methodologie dieser Wissenschaft, wie etwa dem Begriff einer wissenschaftlichen Erklärung im Bereich der Sprache, den Prinzipien linguistischer Theor iebildung oder der Ontologie ihres Gegenstandsbereichs (»Was ist eine Sprache?«). Spezifischere Fragen, die sich aus den Unterschieden ihres spezifischen Gegenstandsgebiets ergeben, sind z. B. die Erkenntnistheor ie der Sprache (z. B.: »Was ist sprachliches Wissen und wie wird es erworben?«), der Linguistik (z. B.: »Wie funktioniert linguistische Theor iebildung?«) oder der Bezug von Sprache und Denken (z. B.: »Ist Denken sprachabhängig?«). Die Sprachphilosophie dagegen hat sich in den letzten hundert Jahren eher durch ihre Analyse bestimmter Aspekte der menschlichen Sprache definiert, und zwar insbesondere denen der Bedeutung sprachlicher Ausdrücke und spezifischer deren Weltbezug (»Referenz«). Die Wahl dieser Aspekte bestimmte sich historisch primär aus philosophie-internen Interessen, wie dem metaphysischen Problem des Bezugs von Sprache und Welt oder der Natur von Gedanken, ihrer Inhalte und ihrer logischen Bezüge zueinander. »Sprache und Realität« (Devitt/Sterelny 1999) ist daher heute ein typischer Titel für eine Einführung in die Sprachphilosophie in dieser Tradition. Die Sprache selbst und ihre empirischen Eigenschaften sind Gegenstand der Sprachphilosophie nur insoweit, als die Reflexion auf philosophische Probleme wie die oben genannten zu einer Reflexion auf jene Eigenschaften einlädt oder diese erfordert. Der Sprachphilosoph versteht sich also im Allgemeinen nicht selbst als Linguist; noch ist er notwendig an den Grundlagen der Linguistik interessiert, wie sie in der Philosophie der Linguistik thematisch werden. Umgekehrt ist der Bezug von Sprache und Realität, das Kernthema der Sprachphilosophie, kein Thema der modernen Linguistik, die sich stattdessen mit den empirischen Eigenschaften der menschlichen Sprache befasst und metaphysische Aspekte eher außen vor lässt. Die Sprachphilosophie ist von der Entstehung der modernen Linguistik in den 1950er Jahren denn auch relativ unbeeinflusst geblieben, und die Philosophie der Linguistik hat sich relativ autonom von der Sprachphilosophie entwickelt. Heutige englischsprachige Einführungen in die Sprachphilosophie (z. B. Morris 2006; 511
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Lycan 2008) beschäftigen sich kaum mit Einsichten aus der modernen Linguistik, die weithin in der Philosophie als eine von der Philosophie abgetrennte, empirische Disziplin angesehen wird und anders als die Logik bis heute wenig Eingang in philosophische Lehrpläne findet. Die Philosophie der Linguistik wiederum hat, vor allem im anglo-amerikanischen Raum, die Form einer kritischen Diskussion der Grundannahmen und Begriffe der modernen Linguistik angenommen, und zwar insbesondere der von Chomsky (1965) inaugurierten generativen Linguistik (z. B. Devitt 2006; Hinzen 2006; 2007; Ludlow 2011). Diese steht am Beginn der sogenannten »kognitiven Revolution« in den 1950er Jahren, die mit dem Schicksal der Philosophie im 20. Jahrhundert eng verbunden ist. Grundannahmen dieser Linguistik haben einerseits dominanten Paradigmen der anglo-amerikanischen Philosophie oft direkt widersprochen (z. B. Chomsky 1966; 2000; und frühe philosophische Erwiderungen auf Chomsky 1965, wie Goodman 1967; Putnam 1967; Harman 1967; Quine 1970); andererseits hat diese Linguistik prominente Paradigmen in der Philosophie des Geistes auch direkt motiviert, insbesondere den Funktionalismus und die Modularitätshypothese in der Philosophie (Fodor 1975; Hinzen 2015), auch wenn Chomsky selbst sich von diesen Paradigmen distanziert hat (Chomsky 2000; Antony/Hornstein 2003). Aufgrund dieser Verwobenheit wird die generative Linguistik auch in diesem Beitrag im Vordergrund stehen. Das begründet sich auch daher, dass diese Linguistik sich programmatisch zum Ziel setzt, die Sprache als natürliches Objekt, also als Objekt von Naturwissenschaft, zu erschließen. Eine Wissenschaftsphilosophie der Linguistik sollte daher betrachten, wie eine Linguistik als Wissenschaft in diesem Sinne funktionieren soll. Es kann nicht genug betont werden, dass das nicht bedeutet, dass man sich auch entscheiden könnte, Sprache gerade nicht als natürliches Objekt zu betrachten. Man könnte sich etwa für die Sprache als Teilgebiet der Logik interessieren und sie zu formalisieren versuchen; oder man könnte der Ansicht sein, dass die Sprache einfach ein konventionsgeleitetes Kommunikationsinstrument ist, für das es keine eigenen bzw. bereichs-spezifischen Prinzipien gibt; oder man könnte die Sprache als Medium hermeneutischhistorisch-poetischen Verstehens betrachten. Diese anderen Perspektiven unterscheiden sich von der Idee einer Naturwissenschaft der Sprache so grundlegend, dass es wenig Sinn macht, sie in einem einzigen Artikel – insbesondere einem Artikel zur Wissenschaftsphilosophie der Linguistik – zu behandeln. Im Folgenden versuche ich zunächst, eine kurze Weltgeschichte der Linguistik als Wissenschaft zu präsentieren. Ich komme dann auf einige grundlegende Fragen der Philosophie der Linguistik zu sprechen. Durchwegs geht mein Versuch dahin, Wege aufzuzeigen, wie sich durch eine philosophische Reflexion auf die Linguistik angeblich unüberbrückbare Gegensätze zwischen linguistischen Theorien und damit oft unfruchtbare Streitigkeiten relativieren und vermeiden lassen.
512
Philosophie der Linguistik
2 Eine kurze Weltgeschichte der Linguistik als Wissenschaft In ihren Anfängen vor über zwei Jahrtausenden im antiken Indien ist die Philosophie der Linguistik nichts anderes als philosophisches Nachdenken über Sprache im Kontext neuer Entwicklungen, die zur Formalisierung bahnbrechender neuer Einsichten in die Natur der Sprache führten. Diese konstituierten die Linguistik als Disziplin selbst (Vyākarana) in ihrer ersten antiken Form als deskriptive und deduktive Wissenschaft (Matilal 1990, 7). Anders als in Indien war es im Westen dagegen primär die Natur (physis), die die wissenschaftliche Imagination inspirierte. Aristoteles nannte die Vorsokratiker physikoi – es sind die, die nach natürlichen Erklärungen für die Phänomene der Natur suchen und ihren Ursprung und Zusammenhang bestimmen wollen, anders als die Theologen, theologoi, die nach einem übernatürlichen Ursprung suchen. Während wir heute von einem natürlichen Ursprung der Sprache ausgehen und die Entstehung der Sprache als Teil der Entwicklung unserer Spezies in den letzten Jahrzehnten zu einem florierenden Forschungsfeld geworden ist (Fitch 2010), ist bei den frühgriechischen Philosophen-Wissenschaftlern die Sprache weder Teil der physis noch Gegenstand von Wissenschaft. So wird die Sprache als solche auch nur in begrenztem Umfang Thema bei Platon, der im Kratylos seinen Lehrer Sokrates darüber nachdenken lässt, ob die Bedeutungen der Worte natürlich oder arbiträr seien. Die Idee, dass Sprache selbst ein Gegenstand von Wissenschaft sein kann, tritt auch bei Aristoteles nicht wirklich zutage, der zwar systematisch über Sprache nachdenkt, jedoch primär in einer logischen, semantischen und metaphysischen Perspektive, die in den letzten zwei Jahrtausenden typisch für die Philosophie geblieben ist (Hinzen/ Sheehan 2013, Kap. 1). In Europa wurde erst mit den modistischen Grammatikern des 14. Jahrhunderts der bis dahin geltende und von Aristoteles formalisierte Wissenschaftsbegriff auch auf die Sprache angewandt und damit die Idee einer Wissenschaft der Grammatik geboren (Covington 2009). Die Grammatik, so überlegten modistische Universalgrammatiker, ist das, was dem Menschen erlaubt, die Welt im Format des Wissens abzubilden, das damit als intrinsisch sprachlich gedacht wird. Dies jedoch blieb eine kurze Episode in der Weltgeschichte der Linguistik, die am Beginn des 15. Jahrhunderts im Ansturm neuer, nominalistischer Paradigmen rasch wieder verschwand. Im Nominalismus kommt der Sprache keine epistemologische Funktion mehr zu. Sie ist einfach ein System von Namen, und das Denken ist von ihr unabhängig. Erst im 17. Jahrhundert, nunmehr nach der wissenschaftlichen Revolution, re-konstituierte sich die Linguistik als (universale) Wissenschaft. Statt von aristotelischen Ideen geht sie nun von Grundprinzipien der Philosophie Descartes’ aus, die den neuen frühmodernen Wissenschaftsbegriff und einen neuen Sprachbegriff bestimmten (Descartes 1637). Ein Meilenstein in der Geschichte der Philosophie der Linguistik sollte die Grammatik von Port-Royal (Arnauld/Lancelot 1660) werden, die die menschliche Sprache in ihren universalen Aspekten zum Gegenstand hat und Sprache als eine Widerspie513
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
gelung des (als universal angenommenen) rationalen und logischen menschlichen Denkens auffasst. Sie wurde daher auch als »philosophische«, »allgemeine« oder »rationale« Grammatik bezeichnet, die von präskriptiven bzw. normativen Grammatiken ebenso unterschieden ist wie von Grammatiken, deren Ziel es ist, eine einzelne Sprache zu beschreiben (Chomsky 1965). Gerade der Widerspiegelungsaspekt dieser universalgrammatischen Tradition aber erweist sich in der Linguistik des 19. Jahrhunderts zugleich als der Grund ihres Niedergangs. Mit der Entwicklung der historisch-vergleichenden Linguistik, in der sich empirische Unterschiede zwischen Sprachen und Sprachfamilien in nie geahntem Ausmass auftaten, brach die Widerspiegelungsthese zusammen und mit ihr die Idee einer Universalgrammatik selbst (Jespersen 1924). Erst in der Mitte des 20. Jahrhunderts entdeckt Chomsky (1957; 1965; 1966) die universalgrammatische Tradition des 17. Jahrhunderts wieder und reformuliert deren Ideen im Kontext der von ihm wesentlich inaugurierten modernen Kognitionswissenschaft. Gegenstand der Linguistik ist nun nicht mehr sprachliches Verhalten, wie vom Behavioristen Skinner (1957) oder auch Quine (1960; 1970) noch angenommen, sondern die spezies-spezifischen und intern im Organismus verankerten kognitiven Mechanismen, die diesem Verhalten zugrunde liegen. Sprachliches Verhalten ist der Datenbereich, den Hypothesen über diese Mechanismen erklären sollen, aber nicht mehr der Gegenstand der Linguistik. Anders als bei den cartesianischen Universalisten ist die Widerspiegelungsthese nun keine Grundannahme mehr. Stattdessen gründet sich die Universalität der Grammatik in der Universalität des Sprachvermögens selbst, das als genetisch bestimmt angenommen wird und als solches allen Menschen eigen ist. Pinker (1994) wird dies den »Sprachinstinkt« nennen. Nicht anders als ihr rationalistischer Vorgänger bleibt auch dieser Chomsky’sche Neuansatz heute dem Ansturm derer ausgesetzt, die angesichts der Diversität menschlicher Sprachen und ihrer essentiellen Einbettung in sozio-kulturelle Umfelder jeden Anspruch auf sprachliche Universalien und einen angeborenen Sprachinstinkt bestreiten (Evans/Levinson 2009; Everett 2012) und auf eine genuine Umwälzung der Linguistik als Wissenschaft hoffen (Levinson/Evans 2010). Die generative Linguistik ist indes von der Sprachinstinkt-Hypothese zu trennen. Ihr Kern besteht in der Annahme, dass die menschliche Sprache ein eigenständiger Bereich wissenschaftlicher Forschung ist, dessen Prinzipien sich auf allgemeine Prinzipien der Psychologie nicht reduzieren lassen (was erklären würde, warum die Sprache nicht-menschlichen Gehirnen und deren Psychologien nicht zugänglich ist). Wie von einer wissenschaftlichen Theor ie zu erwarten, besteht ferner der Anspruch darin, diese Prinzipien formal und explizit zu beschreiben. Dass Menschen einen »Sprachinstinkt« haben, muss also nicht mehr bedeuten, als dass sie zu einer Spezies gehören, zu deren neurotypischer Entwicklung die Sprache gehört. Entsprechend können mit genetisch bedingten Entwicklungsstörungen systematische Veränderungen der Sprache einhergehen (wie z. B. im Fall des Autismus: Eigsti et al. 2007). 514
Philosophie der Linguistik
Die traditionelle Sprachphilosophie dagegen betrachtet die Sprache aus einer anderen Perspektive. Statt als natürliches Objekt wird sie hier oft angesehen als ein konventionelles, regelgeleitetes Kommunikationsinstrument (Lewis 1969; Dummett 1996; Davidson 1984; Tomasello 2008), das nach manchen Philosophen sogar einer wissenschaftlichen Perspektive prinzipiell unzugänglich ist (Davidson 2004). Allerdings ist die generative Linguistik keine Theor ie, sondern ein Gebiet der Forschung. Sie basiert auf der Entscheidung, sich für den Gegenstand der Sprache in einer wissenschaftlichen Perspektive zu interessieren. Eine solche Entscheidung kann nicht wahr oder falsch sein, sondern höchstens fruchtlos oder philosophisch irrelevant. Weder von Fruchtlosigkeit noch von Irrelevanz kann aber die Rede sein (Hinzen 2014; 2015), und anfängliche prinzipielle philosophische Einwände gegen dieses Forschungsprogramm (z. B. Goodman 1967; Putnam 1967; Harman 1967; Quine 1972) haben inzwischen der Praxis der Linguistik selbst als »normaler Wissenschaft« stattgegeben. Insbesondere Einwände empiristischer Art – nach denen sprachliches Wissen allein aus der Erfahrung gewonnen werden kann – sind selbst wissenschaftliche Einwände innerhalb des Forschungsprogramm der modernen Linguistik: Sie zeigen, in welchem Ausmaß die Annahme genetischer Verankerung unnötig sein könnte, was selbst eine Grundfrage der modernen Linguistik ist. In der Linguistik selbst hat sich früh die Kognitive Linguistik (Langacker 1987; Fauconnier 1994; Turner/Fauconnier 2002; Talmy 2000; Croft/Cruse 2004) von der generativen Linguistik abgesondert. Sie ist definiert durch den Versuch eines Richtungwechsels im Studium der Sprache und einen Fokus auf die (als sprachunabhängig angenommenen) konzeptuellen Strukturen, die in der Sprache ausdrückt werden. In den 1960er Jahren wandte sich zunächst die generative Semantik gegen eine zu einseitige Beschäftigung der generativen Linguistik mit formal-strukturellen Regeln für die Bildung von wohlgeformten Sätzen (generative Syntax) (Katz/Postal 1964; Lakoff 1971; McCawley 1976). Regeln für die Bildung von semantischen Repräsentationen (generative Semantik) wurden nun zentral und als relativ unabhängig betrachtet von den syntaktischen Strukturen, in denen sie an der Oberfläche einer Sprache erscheinen. Die generative Semantik sollte dann in den späten 1970er und frühen 1980er Jahren im Zuge von zum Teil stürmischen Debatten (Harris 1995; Huck/Goldsmith 1995) allmählich verschwinden und ersetzt werden durch die kognitive Semantik. In den Vordergrund rücken nun auch Bereiche der Bedeutungsbildung, die sich formal-wissenschaftlicher Behandlung eher entziehen: z. B. Metaphern, die von der kognitiven Semantik nicht als periphere, sondern als zentrale Elemente der Bedeutungsbildung betrachtet werden (Lakoff 1987; Lakoff/Johnson 1980). Die Sprache ist in diesem Forschungsgebiet kein im Gehirn verortetes komputationales System, das syntaktische oder semantische Repräsentationen formal generiert, sondern sie entsteht essentiell aus der gelebten Erfahrung und Wahrnehmung des Menschen (embodied und situated cognition). 515
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Anders als die kognitive Linguistik und Semantik verstand sich die von Montague (1973) ausgehende formale Semantik genau nicht als Teil der Psychologie, sondern als Teil der Logik. Ihr Fokus liegt nicht auf konzeptuellen Strukturen des sprachlichen Verstehens, sondern auf dem Versuch, auf natürliche Sprache genau jene Methoden anzuwenden, die in der Logik auch auf künstliche Sprache angewendet werden (z. B. solchen der Mathematik). Der formalen Semantik als Theorie der abstrakten Struktur von Bedeutung steht hier die formale Syntax gegenüber, verstanden als ein Bereich, in dem inhaltlich unbestimmte Operationen auf bedeutungslose Symbole angewendet werden, in Form eines Kalküls. Der Begriff der Kompositionalität beschreibt dann die bis heute strittige Idee, dass sich diese beiden Systeme direkt aufeinander abbilden lassen (Werning et al. 2012). Linguistik wird hier zur formalen Wissenschaft, nicht zu einem Studium eines Aspekts der menschlichen Biologie oder Psychologie. Der Abstraktionsgrad der formalen Semantik wird heute von jenen hinterfragt, die meinen, dass die Gehalte von Sätzen von Aspekten ihres Gebrauchs in Kontexten wesentlich mitbestimmt werden: Die Pragmatik beschneidet also das Territorium der Semantik (Recanati 2011). Sie wird heute auch oft als entscheidend empfunden für die phylogenetische und ontogenetische Entwicklung von Sprache selbst (Schatzki et al. 2001; Tomasello 2008). Trotz ihrer ursprünglichen Konzeption als Teilgebiet der Mathematik ist die Frage früh entstanden, ob die formale Semantik nicht doch eine psychologische Theorie sein könnte. Partee (1980) bezieht dieses Problem spezifisch auf die Semantik von Sätzen, die mentale Zustände beschreiben (z. B. Peter glaubt, dass …) und deren Formalisierung die psychologische Interpretation der formalen Semantik schwierig gemacht hat (Kamp 1981). Aus Sicht einer Naturwissenschaft der Sprache ist das Problem aber nicht, wie die Bedeutungen von Sätzen zu formalisieren sind, sondern deren Existenz zu erklären, was durch eine Formalisierung des explanandums in der einen oder anderen Sprache der Logik aber nicht passiert. Dieses Erklärungsproblem, das sich in einer naturalistischen Perspektive notwendig stellt, ist viel grundlegender und zeigt sich schon in den einfachsten Sätzen. Was immer Menschen äußern, sie gebrauchen Worte, um sich auf Dinge in der Welt zu beziehen. Kein anderes Wesen tut dies in derselben Weise und auch Menschen mit Entwicklungstörungen der Sprache tun es nicht auf dieselbe Weise. Die Formalisierung einer »Referenzrelation« zwischen Worten und Dingen in einer logischen Sprache erklärt nicht, dass oder warum wir uns in dieser Weise auf die Welt beziehen. Das Erkenntisinteresse der formalen Semantik ist also anders und steht auch in keinem Konflikt zu dem der generativen Linguistik. Indem die formale Semantik sprachliche Bedeutungen formalisiert, ist sie ein Beitrag zu dem explanatorischen Programm einer allgemeinen Theor ie der Grammatik, die für Chomsky eine allgemeine Theor ie der Semantik immer eingeschlossen hat (Chomsky 2006, 111 – 113). Für die in der Biologie des Menschen angelegten generativen Mechanismen, die unserem Sprachgebrauch zugrunde liegen, muss man sich allerdings 516
Philosophie der Linguistik
nicht interessieren. Die formale Semantik abstrahiert von ihnen, indem sie sich für symbolische Systeme im Allgemeinen interessiert, ob natürlich oder künstlich. Wiederum kann eine solche Entscheidung weder richtig noch falsch sein. Unfruchtbare Diskussionen können insbesondere vermieden werden, wenn realisiert wird, dass die »formale Syntax« im obigen Sinne des Gegenstücks einer »formalen Semantik« nicht dasselbe Projekt beschreibt wie eine generative Grammatik im Sinne Chomskys, die als solche eine semantische Komponente einschließt. Auch grammatische Strukturbildung im Gehirn des Menschen ist kein bedeutungs loser Prozess. Noch ist sie ein Prozess, der disembodied ist in dem Sinne, in dem die kognitive Semantik dies bestreitet; und Metaphernbildung gehört zu diesem Prozess wie andere bedeutungsbildende Prozesse auch. Das zeigt auch Chomskys berühmter Satz Colourless green ideas sleep furiously, der keineswegs bedeutungslos ist und poetische Verwendungen finden kann. Insgesamt sehen wir aus dieser kurzen Geschichte, dass sich Chomsky von Anbeginn der Re-Konstituierung der modernen Linguistik als Wissenschaft auf historische Paradigmen der Linguistik (und Philosophie der Linguistik) direkt bezogen hat (Chomsky 1966), während sich andererseits zeitgenössische philosophische Paradigmen (vor allem empiristischer Art) oft gegen diese Linguistik wandten und in der Philosophie eine logisch-formale Perspektive bis heute dominant ist. Dies führt bis heute zu antagonistischen Diskussionen (Chomsky 2000; Antony und Hornstein 2003) und dazu, dass die generative Linguistik noch immer faktisch keinen Eingang in anglo-amerikanische philosophische Lehrpläne oder -bücher gefunden hat. Ein genauerer wissenschaftsphilosophischer Blick auf diese Diskussionen zeigt aber, dass es oft Scheindebatten sind, weil sie Unterschiede in den Erkenntnisinteressen und der Methodologie übersehen; die generative Linguistik ist keine Theor ie, sondern ein Gegenstandsgebiet, zu dem sowohl »kognitive« wie formal-semantische oder pragmatische Paradigmen Beiträge leisten.
3 Einige Kernfragen der Philosophie der Linguistik 3.1 Was ist eine Wissenschaft der Sprache? Inwieweit ist es nun eigentlich überhaupt kohärent, von der Existenz oder Möglichkeit einer »Wissenschaft« der Sprache im Sinne der modernen Naturwissenschaften auszugehen? Wer diese Möglichkeit verneint, könnte dies aus der Überlegung tun, dass das Gegenstandsgebiet einer solchen Wissenschaft einfach zu verschieden ist von denen der etablierten Naturwissenschaften. In diesem Sinne fasst der dänische Linguist Otto Jespersen im Jahr 1924 die Auffassung einiger prominenter historischer Linguisten des 19. Jahrhunderts auf folgende Weise zusammen:
517
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
»›A universal grammar is no more conceivable than a universal form of political Constitution or of religion, or than a universal plant or animal form; the only thing, therefore, that we have to do is to notice what categories the actually existing languages offer us, without starting from a ready‑made system of categories‹ (Steinthal, Characteristik, 104 f.). Similarly, Benfey says that after the results achieved by modern linguistics universal and philosophical grammars have suddenly disappeared so completely that their methods and views are now only to be traced in such books as are unaffected by real science (Geschichte der Sprachwissenschaft, 306). And according to Madvig (1856, p.20, KL p. 121), grammatical categories have nothing to do with the real relations of things in themselves.« (Jespersen 1924, 48)
Was aber ist der Grund, dass (angeblich) die Sprache so verschieden ist? Was macht politische Verfassungen oder Religionen so verschieden von der physischen Materie oder biologischen Organismen? Die prominenteste Antwort, die Sprachphilosophen in den letzten hundert Jahren auf diese Fragen gegeben haben, lautet: Normen. Die Sprache ist, wie menschliches soziales und politisches Verhalten im Allgemeinen, regelgeleitet. Dabei wird »Regel« in einem normativen Sinne verstanden: Worte sind etwas, das man auf eine bestimmte Weise gebrauchen soll. Wortgebrauch kann richtig oder falsch sein. Wenn die Sprache eine essentiell normative Praxis ist (Kripke 1982; Brandom 1998; Davidson 2004), Normen aber in der physischen Natur nicht zu finden sind, ist die Sprache kein natürliches Objekt. Im obigen Zitat finden wir einen weiteren Grund, warum eine Wissenschaft der Sprache nicht möglich sein soll: Die Möglichkeit einer solchen Wissenschaft, nach Meinung der obigen historischen Linguisten, hängt davon ab, dass ein klassifikatorisches System von Kategorien gefunden werden kann, das auf alle Sprachen angewandt werden kann. Ein universal anwendbares System linguistischer Kategorien kann es nun auf zwei Weisen geben: Sprachliche Strukturen spiegeln die Struktur des menschlichen Denkens wider, wenn wir davon ausgehen, dass dieses universal ist; oder sie spiegeln die Struktur der Realität selbst wieder. Die erste Option ist die rationalistische der Tradition von Port Royal, die nicht nur von historischen Linguisten des 19. Jahrhunderts attackiert wurde, sondern seither auch von analytischen Sprachphilosophen. Denn diese gehen seit Bertrand Russell (1905) davon aus, dass die Sprache uns systematisch fehlleiten kann, wenn wir uns für die Struktur des Denkens oder der Welt interessieren. Die zweite ist die ontologische Option: Sprachliche Kategorien sind selbst ontologische Kategorien. Dies aber scheint nicht der Fall zu sein: Menschliche Sprachen sind voll von Strukturelementen, die in den formalisierten Sprachen der Wissenschaft keine Verwendung finden (z. B. Pronomen, Kasus oder Inflektion). Dies motiviert die von Bloomfield (1933) vertretene Schlussfolgerung (siehe auch Haspelmath 2007), dass wir in der linguistischen Theoriebildung nur induktiv vorgehen können, d. h. die Kategorien verwenden, die wir in den Sprachen der Welt, die wir studie518
Philosophie der Linguistik
ren, tatsächlich finden, ohne von einem universellen System a priori ausgehen zu können.1 Auch diese Skepsis, was eine Wissenschaft der Linguistik angeht, kann man aber auf verschiedene Weisen relativieren. Nach den oben erwähnten modistischen Grammatikern des 13. und 14. Jahrhunderts spiegelt die Sprache weder die Realität selbst noch ein vorsprachliches Denken wider: die Realität nicht, weil uns die Sprache die Realität im Format des Wissens präsentiert (Wissen von der Welt, wie wir es z. B. in der Wissenschaft entwickeln, hat inhärent eine sprachliche Form, und es kann darum nicht mit der Welt verglichen werden, wie sie unabhängig von diesem Denken ist). Und sie spiegelt kein vorsprachliches Denken wider, weil die Sprache ein Denken einer besonderen Art ist und sprachliches Denken nicht ohne Sprache existieren kann. Wir können also die Strukturen menschlicher Sprachen nicht mit denen eines vorsprachlichen Denkens vergleichen und dann feststellen, dass beide sich unterscheiden (z. B. so, dass die ersteren historischen Zufälligkeiten unterworfen sind, die letzteren dagegen nicht). Die Kritik, dass es keine universale Grammatik geben kann, weil die Sprache das Denken nicht widerspiegelt, geht also fehl (Leiss 2009; Hinzen/Sheehan 2013). Es ist eine spezifische Art von Denken, die mit der Sprache einhergeht, und diese Art ist ohne seine sprachliche Form faktisch nirgendwo – in unserer Spezies oder anderswo – zu finden.2 Das heißt freilich nicht, dass sprachliche Diversität nicht ein Faktum bleibt. Wenn Sprache aber eine bestimmte Form von Denken ermöglicht und dieses Denken universal in unserer Spezies ist, muss es auch etwas Universales in der Sprache geben, was mit diesem Denken korrespondiert. In dieser Hinsicht stellten die Modistae fest, dass in den folgenden beiden Ausdrücken der lexikalische Gehalt nicht verschieden ist – in beiden Fällen geht es um Maria und ein Lächeln:
Bloomfield fasst die Situation im Jahr 193jolgendermaßen zusammen: »The only useful generalizations about language are inductive generalizations. Features which we think ought to be universal may be absent from the very next language that becomes accessible. […] The fact that some features are, at any rate, widespread, is worthy of notice and calls for an explanation: when we have adequate data about many languages, we shall have to return to the problem of general grammar and to explain these similarities and divergences« (Bloomfield 1933, 20). 2 Ein Einwand gegen diesen Punkt kommt heute aus der Aphasie-Forschung. Patienten nach einem Schlaganfall mit Läsionen in sprachrelevanten Regionen des frontalen und temporalen Cortex in der linken Hemisphäre können das Vermögen, Sprache zu produzieren oder zu verstehen, nahezu vollständig verlieren. Dabei können normale Denkfunktionen erhalten bleiben (Bek et al. 2010: Varley et al. 2005; Willems et al. 2011). Das offensichtliche Problem mit diesem Einwand liegt in der Tatsache, dass diese Patienten für den größten Teil ihres Lebens Sprache normal gebraucht haben: Was die genannten Fälle zeigen könnten, ist, dass, nachdem sich Denken und Kognition normal aufgebaut haben, große Teil der Denkfunktion bestehen bleiben können, wenn sprachliche Kommunikation weitgehend entfällt. 1
519
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Maria lächelt. Marias Lächeln Dementprechend können beide Ausdrücke in der exakt selben externen Situation gebraucht werden. Der Unterschied zwischen beiden liegt nicht im Bezeichneten (Referenz oder significatum). Es gibt aber einen grammatischen Unterschied zwischen beiden Ausdrücken: Der erste Ausdruck enthält ein Verb und ist ein Satz, der zweite dagegen nicht. Mit diesem grammatischen Unterschied geht ein Bedeutungsunterschied einher: Der erste Ausdruck kann gebraucht werden, um etwas zu sagen bzw. als wahr zu behaupten, der zweite nicht. Der erste verweist zudem auf ein Ereignis, das vom Hörer so verstanden wird, dass es zeitgleich mit dem Sprechakt selbst stattfindet und während des Sprechakts andauert. Der zweite dagegen ist essentiell nur ein Akt der Referenz oder Bezugnahme, in der auf dieses Ereignis wie auf ein Objekt verwiesen wird. Die Modisten postulierten darum, dass es im Fall der menschlichen Sprache über lexikalische Bedeutung und significatum hinaus noch eine gänzlich andere Bedeutungsfunktion gibt, die allein mit grammatischen Unterscheidungen einhergeht und die referentiellen Perspektiven betrifft, mit denen wir die Welt denkerisch betrachten. In diesem Prozess der »Grammatikalisierung« von Bedeutung – in dem Sinne, dass vorsprachliche Bedeutung grammatisch strukturiert wird und sich dadurch verändert – entsteht ein sprachspezifisches Denken, dass universal ist und Wissen von der Welt und damit Wissenschaft ermöglicht. Man kann sich andere Antworten auf die Frage nach der Möglichkeit einer Universalgrammatik vorstellen. Was immer diese jedoch sind, bleibt bei jedweder Skepsis gegenüber einer universalistischen Wissenschaft der Sprache eine Frage bestehen: Was ist die Bedeutungsfunktion der Grammatik? Alle menschlichen Sprachen haben zwei essentielle Strukturelemente: das Lexikon (die Worte) und die Grammatik (die unsichtbaren Beziehungen zwischen Worten). Was die Grammatik ist, warum sie existiert und was für Arten von Bedeutung sie vermittelt, sind Fragen, die sich für jede Philosophie der Linguistik stellen. Und es sind ipso facto Fragen, die einen universellen Gehalt haben: Die Frage ist zum Beispiel, was Grammatik als solche ist und welche Bedeutung und welche kognitiven Funk tionen sie vermittelt, nicht was die Grammatik des Deutschen oder Englischen ist. Eine solche Frage verweist uns weiter auf die menschliche Natur: Menschen sind grammatische Kreaturen, und keine anderen Lebewesen sind dies, wie viele Experimente gezeigt haben, in denen Versuche gemacht wurden, anderen Primaten Sprachen zu beizubringen (Tomasello 2008; Terrace 2005): Sprache ist nicht lernbar, außer für jene Lebewesen, die sie in dem Sinn nicht zu lernen brauchen, dass sie eine genetische Prädisposition für sie besitzen (siehe Abschnitt 3.2). In diesem Sinne sucht eine Wissenschaft der Sprache nach der Natur des Grammatischen als solchem. Dies ist nicht eine Frage nach der Grammatik einer bestimmten Sprache, sondern nach den inhärenten Strukturprinzipien von Grammatik überhaupt und den Formen von Bedeutung und Denken, die sich in solchen 520
Philosophie der Linguistik
Strukturen zeigen. Dieses Unterfangen ist seiner Natur nach nicht weniger universalistisch als eine physikalische Theor ie von Bewegung oder eine biologische Theor ie von Immunität. Dies gilt unabhängig davon, ob man wie Chomsky die Universalgrammatik eng definiert als die Theor ie unserer genetisch gegebenen Sprachdisposition oder wie kognitive Linguisten nach einer Theor ie sucht, die Sprache und Kognition vereint.
3.2 Was ist sprachliches Wissen, und woher kommt es? Chomsky (1959) stellte gegen die mit der Ablehnung der Universalgrammatik im 19. Jahrhundert konsistenten behavioristischen Tradition fest, dass sprachliches Verhalten nicht wie anderes Verhalten ist und durch kausale Stimulus-Response Theorien im Sinne Skinners (Skinner 1957) nicht erklärbar ist. Solche Theor ien extrapolierten laboratoriums-basierte Verhaltensstudien mit dem Lernen von z. B. Ratten oder Tauben auf den Fall des menschlichen Spracherwerbs und argumentierten, dass im letzteren Fall keine besonderen oder anderen Lernmechanismen postuliert werden müssen. Kurzum, Kinder werden nicht anders als Ratten extern konditioniert, um Worte nach den Normen ihrer Sprachgemeinschaft zu gebrauchen und auf Stimuli so zu reagieren, dass sich für sie der erwartete Nutzen maximiert und Strafe minimiert. Spracherwerb im Menschen ist also kein spezieller Fall und die Linguistik ist Teil einer allgemeinen Assoziationspsychologie. Chomsky weist demgegenüber, lange vor Sprachexperimenten mit nichtmenschlichen Primaten, darauf hin, dass behavioristische Erklärungen des normalen Gebrauchs der Sprache keine Erklärungskraft haben. Was wir sagen, ist, von einigen stereotypischen Redewendungen in vorbestimmten sozialen Kontexten (z. B. Grußworten) abgesehen, normalerweise kreativ, d. h. weder aus den Wahrnehmungen kausal erklärbar oder voraussagbar, die wir im Moment dieses Sprachgebrauchs haben, noch aus den Gegenständen, über die wir reden. Die Wahrnehmung eines Gemäldes z. B. kann prinzipiell zur Äußerung einer unendlichen Anzahl von Sätzen führen. Solche Äußerungen aufgrund einer behavioristischen Methodologie oder physikalistischen Metaphysik prinzipiell als »Konditionierungen« zu erklären, also als kausal durch den Stimulus determiniert, trivialisiert den Begriff »Stimulus« und beraubt ihn genau der Wissenschaftlichkeit, die er in Laboratoriumsexperimenten hat. Der Behaviorismus, schließt Chomsky, ist nicht die strenge Wissenschaft, für die er sich ausgibt, sondern eine Pseudo-Wissenschaft, die explanatorisch leer ist. Sie verkennt die Natur des Menschen und seines Geistes und ist letztlich ideologisch und politisch motiviert (Chomsky 1971). Die Idee einer genuinen »mind science« – einer empirischen Wissenschaft menschlicher Kognition, die mentale Faktoren ernst nimmt und Sprache als zentralen Gegenstand hat – war damit geboren. Eine Wissenschaft unseres Sprachvermögens muss, so die Einsicht, spezies-spezifische und Organismus-interne Fak521
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
toren in Betracht ziehen, ob diese mentalistisch beschrieben werden oder nicht. Die Linguistik ist internalistisch (nicht nativistisch) in diesem Sinne und Chomsky redefiniert die Theor ie der Universalgrammatik als die Theor ie unseres speziesspezifischen Sprachvermögens, also der Sprache, insoweit diese genetisch (mit-) bedingt ist. Man kann die Universalgrammatik aber auch als den Mechanismus für den Spracherwerb betrachten (»language-acquisition device«, LAD). Die Universalität der Grammatik ist also jetzt genetisch begründet und wird im Kontext des Spracherwerbs gesehen, nicht wie bei den Modisten in einer sprachspezifischen Form von Denken und auch nicht wie bei den Rationalisten in einer Widerspiegelungsthese, die Sprache zu einer Reflektion universaler und rationaler Denkstrukturen erklärt. Tatsächlich hat die moderne Linguistik in ihrer heutigen Chomsky’schen Form von der Beziehung zwischen Denken und Sprache (oder Sprache und Bedeutung) weitgehend abstrahiert. Im Falle Chomskys waren dies vor allem methodologische Gründe, die als solche keine ontologische Trennung von Sprache und Denken implizieren. Dies ist anders im Falle Pinkers (Pinker 1994), der das Sprachvermögen als ein denkunabhängiges kognitives »Modul« im Sinne von Fodor (1983) auffasst und das rationale Denken selbst in einer sprachunabhängigen »Language of Thought« im Sinne von Fodor (1975; 2008) verortet (Pinker 1997). Fodorische Module sind im Gehirn verankerte und genetisch basierte komputationale Systeme, die aus dem Sensorium kommende Informationen mit Hilfe von Prinzipien verarbeiten, die dem Bewusstsein nicht zugänglich und bereichs-spezifisch sind (sie verarbeiten Datenstrukturen von allein einer bestimmten Art). Der LAD ist oft als ein Paradebeispiel eines solchen Moduls gesehen worden. Dass es ein solches Modul gibt, ist der zentrale Kritikpunkt derer, die den Spracherwerb nicht aus der (deduktiven) Anwendung eines genetisch bestimmten sprachlichen Wissen erklären wollen, sonders aus der Erfahrung (induktiv). Nach dieser Sicht ist eine Sprache das konventionell sedimentierte Resultat des Gebrauchs sprach licher Konstruktionen, deren Bedeutungen sich aus den sozialen Interaktionen bestimmen, in denen sie vorkommen (Tomasello 2003). Wie bereits betont, ist jedoch Modularität im Sinne Fodors keine Annahme, die sich mit der modernen generativen Linguistik notwendig verbindet. Ob wir die These genetisch bedingten sprachlichen Wissens akzeptieren oder nicht, jeder Sprecher weiß in der Tat viel von seiner Muttersprache. Er weiß z. B., was die Bedeutungen einer potentiell unendlichen Anzahl von Sätzen sind, inklusiver solcher, die er noch nie gehört hat, und er kann solche Sätze selber generieren und Gedanken damit ausdrücken. Die Struktur dieses Wissen ist unbewusst (dem natürlichen Bewusstsein nicht zugänglich) und daher Gegenstand wissenschaftlicher Entdeckung in einer Wissenschaft der Linguistik. Dieser Gegenstand heißt bei Chomsky technisch »I-language«, wobei »I« für »intern« und »individuell« steht: Es ist Wissen, das im Gehirn eines Sprechers verankert ist und sich in diesem selben Sprecher von Kontext zu Kontext auch verändern kann, je nachdem mit wem diese Person spricht und zu welchem Zweck sie Sprache gebraucht. Eine 522
Philosophie der Linguistik
Theor ie von Sprache im Sinne der generativen Linguistik versucht das Wissen zu charakterisieren, das eine I-Sprache verkörpert. Sie abstrahiert zudem von kontingenten Aspekten des Gebrauchs dieses Wissens in bestimmten Kontexten. So kann z. B. ein Mangel an Aufmerksamkeit Sprachfehler im Sprachgebrauch verursachen, aus denen keiner schließen würde, dass der relevante Sprecher ein Problem sprachlicher Kompetenz hat. Dasselbe gilt für die Akzeptanz ungrammatischer Ausdrücke durch einen solchen Sprecher: Kommunikative Interessen, neben anderen vielen möglichen Gründen, können zu solcher Akzeptanz führen, ohne dass dies einen Mangel an Einsicht in Grammatikalität beinhaltet. Weder Kompetenz und Performanz noch Akzeptanz und Grammatikalität sind darum zu identifizieren. Das Studium einer so definierten I-Sprache steht im Kontrast zum Studium von »E-Sprachen«, also Sprachen wie Englisch oder Deutsch, die aus einer Unzahl von I-Sprachen emergent und historisch-kontingent entstehen und nach Chomsky sowenig wie Verfassungen, Kunstwerke oder politische Revolutionen Gegenstand von psychologisch-biologischen Theor ien sein können. Allerdings hat der Fokus auf I-Sprachen zur Vernachlässigung anderer wichtiger Aspekte der menschlichen Sprache geführt. Obwohl grammatische Prinzipien in der Tat nicht dem Bewusstsein offen zutage liegen, ist normaler Sprachgebrauch nichtsdestotrotz ein Prozess, der nicht nur inhärent sozial und dialogisch, sondern auch von Bewusstsein begleitet ist. Wenn wir etwas sagen, wissen wir normalerweise auch, dass wir das tun. Mit jeder Äußerung ist ein Gedanke verbunden, der uns bewusst ist und der in der Äußerung ausgedrückt ist. Dieser Gedanke ist wie jeder andere bewusste Prozess jetzt (im aktuellen Moment des Sprachgebrauchs) bewusst (nicht früher oder später) und der Sprecher erfährt ihn als seinen eigenen: Sprechen ist das Sich-Äußern einer Person, die sich auf sich selbst in der ersten Person bezieht. Diese inhärente Vermittlung zwischen Sprache und individuellem Denken ist in der modernen Linguistik kaum Gegenstand gewesen. Es ist aber klar (und war immer unbestritten), dass das Studium einer I-Sprache nur ein kleiner Teil des Studiums von menschlicher Sprachlichkeit und seinen Funktionen ist. Der Fokus auf die I-Sprache in einer subpersonalen Perspektive ist zum Teil historisch mit Aspekten der frühen Entwicklung der generativen Grammatik zu erklären. Die grundlegende Einsicht Chomskys gegen die Behavioristen und strukturellen Linguisten war, dass die menschliche Sprache abstrakte Strukturprinzipien aufweist, von denen unklar ist, wie sie aus der Erfahrung (d. h. Wahrnehmung) gewonnen werden können. Zudem unterscheiden sie sich von Strukturprinzipien anderer kognitiver Bereiche (Wahrnehmung, Aufmerksamkeit, Gedächtnis, Assoziation etc.), auch wenn sie mit diesen interagieren. So erweisen sich Worte stets als Nomen, Verben, Adjektive, Präpositionen usw., die wiederum Teil von Phrasen sind, die wiederum durch phrasenübergreifende grammatische Beziehungen zu Sätzen verbunden werden:
523
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Worte: Wortklassen: Bild NOMEN malen VERB ich NOMEN das ARTIKEL Phrasen: [NP das [NP Bild]] NOMINALPHRASE, NP [VP male [NP das [NP Bild]]] VERBPHRASE, VP [NP ich] NOMINALPHRASE, NP Sätze: [S [ NP ich1PS] [ VP male1PS [ NP das [ NP Bild]]]]
AGREEMENT in PERSON (P) und NUMERUS (S=Singular)
PRÄDIKATION: SUBJEKT (kursiv) und PRÄDIKAT (fett)
Es ist klar, dass jede Sprache aufgrund der obigen abstrakten Strukturen und Merkmale in folgendem Sinne Unendlichkeit aufweisen wird. So ist zum einen jeder sprachliche Ausdruck, ähnlich wie jede natürliche Zahl, verschieden von jedem anderen – es gibt keine kontinuierlichen Übergänge zwischen sprachlichen Ausdrücken, und wenn S ein Satz ist, dann sind ¾ dieses Satzes nicht auch ein Satz. Zum anderen erlaubt die Phrasenstruktur die Formung von beliebig vielen solcher Sätze: Wenn »Ich male ein Bild« ein Satz ist, dann ist es »Er kauft das Fahrrad« oder »Der Mann mit dem Hut mag das weiße Fahrrad mit dem grünen Sitz« auch, denn alle diese Sätze haben dieselbe phrasenstrukturelle grammatische Analyse. Dieselben Strukturen erscheinen in dem Satz »Ich glaube, er kauft ein Fahrrad«, der rekursiv ist in dem Sinne, dass eine abstrakte Kategorie (S) in sich selbst eingebettet ist: [S [NP ich1PS] [VP glaube1PS [S [ NP er3PS] [ VP kauft3PS [ NP ein [ NP Fahrrad]]]]]]]
In einer Sprache mit Rekursion gibt es keinen längsten Satz, ähnlich wie es bei den natürlichen Zahlen keine größte Zahl gibt. Die Kompetenz in einer Sprache, die rekursiv ist, verlangt daher eine endliche Repräsentation in unseren Gehirnen, ähnlich wie der Output eines Computers das Resultat eines intern repräsentierten Programms ist. Die prinzipielle Aufgabe, die die frühe generative Grammatik einer Wissenschaft der Linguistik stellte, war, dieses Programm in einer expliziten Form vollständig zu beschreiben (descriptive adequacy). Dies ist zunächst ein deskriptives, formal-komputationales Problem: Welches Programm genau generiert die Ausdrücke, die in einer Sprache grammatisch sind, und schließt die Ausdrücke als ungrammatisch aus, die Sprecher dieser Sprache als ungrammatisch betrachten? Dies ist kein Problem auf einer personalen Ebene. Seit den 1960er Jahren schon 524
Philosophie der Linguistik
ist zu diesem deskriptiven Projekt der Versuch hinzugekommen, jenes Programm nicht nur zu beschreiben, sondern aus der internen Struktur des Organismus zu erklären (explanatory adequacy).3 Seit den 1990er Jahren gesellt sich hierzu der wesentlich ambitioniertere Versuch zu verstehen, warum die postulierten Prinzipien dieses Programms die sind, die es sind (das sogenannte Minimalistische Programm, Chomsky 1995) (»beyond explanatory adequacy«). Was hier jedoch durchwegs vernachlässigt bleibt, ist die Tatsache, dass Sprachgebraucher Personen sind, die in Sätzen Gedanken in ihrer ersten Person ausdrücken, die sich auf die Welt und andere Menschen beziehen und damit einen sowohl subjektiven wie objektiven bzw. intersubjektiven Gehalt haben: Sie sind wahr oder falsch und referieren auf Tatsachen, Dinge, Personen und Ereignisse. Die primäre Problemstellung der generativen Linguistik erklärt auch, warum das »I« in »I-Sprache« nicht nur »intern« und »individuell« bedeutet, sondern auch »intensional«. Eine intensionale Perspektive auf die Grammatik ist nicht interessiert an der Menge der grammatischen (im Unterschied zu den ungrammatischen) Ausdrücken einer Sprache, sondern an dem spezifischen in unserem Gehirn implementierten Programm, das diese Menge generiert. Im selben Sinne interessieren einen Physiker die Gesetze der Bewegung und nicht eine Menge von Bewegungen. Natürlich aber muss nicht jeder Linguist an dieser spezifischen Aufgabe interessiert sein. Nichts im internalistischen Forschungsprogramm der generativen Linguistik spricht gegen ein Interesse an den sozialen und kommunikativen Gebrauchsdimensionen der Sprache (also der E-Sprache); gegen korpus-linguistische Methoden, die für einen gegebenen Korpus bestimmen wollen, welche sprachlichen Regeln mit einer solchen Menge von Ausdrücken konsistent sind (McCarthy/Sampson 2005); oder gegen quantitative Methoden in der Linguistik im Allgemeinen (Gibson/Fedorenko 2013). Allerdings ersetzt z. B. das Studium von Konstruktionen einer E-Sprache und deren statistischen Häufigkeiten das Studium einer I-Sprache nicht: Es sind immer noch Personen mit Grammatiken in ihren Gehirnen, die an sozialen und kommunikativen Gebräuchen der Sprache teilnehmen und immer neue Ausdrücke kreativ generieren. Es ist ferner aus den obigen Strukturanalysen klar, dass Sprachverständnis Abstraktionen voraussetzt, die in den mit Sprache assoziierten akustischen Phänomenen überhaupt nur für solche Wesen wahrnehmbar sind, die selbst Sprache besitzen: Katzen oder Hunde beobachten keine Verbphrasen oder grammatischen Relationen, und diese sind nicht Bestandteile unserer physikalischen Umgebung. Wie können neugeborene Kinder dann aber ihren Weg in die Sprache finden? Tatsächlich tun sie dies universal ohne spezifische Instruktionen, scheinbar ohne Mühe, lange bevor sie eine Schule besuchen und in einer Reihe von biologisch »A linguistic theory that aims for explanatory adequacy is concerned with the internal structure of the device [i. e. grammar]; that is, it aims to provide a principled basis, independent of any particular language, for the selection of the descriptively adequate grammar of each language« (Chomsky 1964, 63). 3
525
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
bestimmten Meilensteinen (z. B. erste Worte um den ersten Geburtstag; durchschnittlich 200 oder mehr verstandene Worte nach etwa 18 Monaten, die ersten aus zwei Worten bestehenden Sätze um dieselbe Zeit usw.). Eltern sind ein Teil dieses Prozesses nur insoweit, als sie mit den Kindern sprechen; lehren tun sie nicht, und insofern sie keine Linguisten sind, kennen sie die Regeln der Grammatik auch nicht anders als unbewusst. Taub geborene Kinder, deren hörende Eltern eine Gebärdensprache erlernen, um mit ihren Kindern linguistisch kommunizieren zu können, finden sich zudem häufig in der Situation, dass ihre Kinder, die diese Sprache in diesem Fall nativ (als Erstsprachen) erwerben, sie besser beherrschen, als die Eltern es je werden (Pinker 1994). Die generative Perspektive erklärt dieses Paradox so: Kinder haben eine universale und angeborene Disposition zum Spracherwerb; sie »erwarten« als Teil ihrer normalen Entwicklung in den ersten Lebensjahren (ohne dies freilich in einer expliziten Form zu wissen), in ihrer Umgebung bestimmte sprachliche Strukturen zu finden. Diese »Nativismus«-These ist unkontrovers in dem Sinne, dass nicht-menschliche Spezies keine Sprachen erwerben, auch wenn sie mit denselben Sprachdaten konfrontiert sind; auch manche Kinder mit Autismus, die Sprache wahrnehmen, erwerben sie deswegen nicht. Nichtsdestotrotz ist ebenso unkontrovers, dass die Erfahrung ein entscheidender Faktor im Spracherwerb ist (Chomsky 2005). Insbesondere bedeutet von einer Universalgrammatik zu sprechen nicht, dass bestimmte Strukturelemente wie z. B. Nomen und Verben »angeboren« sein müssen. Nach Meinung vieler Typologen gibt es Sprachen, die diese spezifische Unterscheidung nicht machen (z. B. Bloomfield 1933; Himmelmann 2007). Nach Evans/Levinson (2008) ist letztendlich keiner jener Aspekte sprachlicher Organisation universal, von denen bisherige Modelle der generativen Grammatik ausgegangen sind. Das schließt sogar Rekursion ein (das Vorkommen bestimmter Typen von sprachlichen Ausdrücken in solchen Ausdrücken selbst, wie z. B. Sätze in Sätzen), die gerade in jüngsten Modellen der generativen Grammatik (Hauser et al. 2002) als das entscheidende Element der Sprache dargestellt wird.4 Deren Existenz in bestimmten Konstruktionen der Sprache der Pirahã wird von Everett (2005) bestritten. Untersuchungen wie diese tragen zu unserer Einsicht in die biologische Bestimmtheit von Sprache bei. Dass es Nomen und Verben oder Rekursion nicht universal gibt, heißt aber nicht, dass die Biologie kein Faktor in deren Erwerb ist, denn dieser biologische Faktor kann bestimmen, dass sich in Sprachen Strukturmerkmale wie Nomen und Verben entwickeln können, aber nicht müssen, insofern andere Sprachelemente deren Funktionen übernehmen. Tomasello (2008) argumentiert, dass es zwar eine sapiens-spezifische biologische Anpassung gebe, die den Spracherwerb erklärt. Diese jedoch hat mit unserem allgemeinen Vermögen für Kultur und Gemeinschaftlichkeit (soziale Kognition) zu tun. Menschen, so der Vorschlag, haben kommunikative Absichten, Hiergegen spricht unter anderem, wie Jackendoff (2011) argumentiert, dass Rekursion als solche auch andere kognitive Bereiche charakterisiert, z. B. die Arithmetik. 4
526
Philosophie der Linguistik
die es in anderen Spezies nicht gibt und die in unserer Spezies die Entstehung von Sprache notwendig machen, da sie anders nicht ausgedrückt werden können. Wenn wir aber von normalem menschlichen sozialen Verhalten Sprache subtrahieren, bleibt von einer menschlichen Kommunikation, Sozialität und Kultur wenig übrig. Wenn das postulierte kulturelle Vermögen Sprache voraussetzt, erklärt es Sprache nicht. Insbesondere haben kommunikative Absichten beim Menschen propositionale Gehalte. Es ist nicht klar, ob es solche Gehalte, und damit die relevanten Absichten, ohne Sprache gibt. Nicht-sprachliche Spezies jedenfalls denken nicht wie wir. Alles in allem gilt, dass jede Erklärung unseres sprachlichen Wissens darlegen muss, wie Kinder akustische Daten (Geräusche) als linguistisch erkennen und über die linguistischen Daten, die ihnen präsentiert werden, hinausgehen, um eine Grammatik zu induzieren. Es ist logisch unmöglich, dass ein finiter Datensatz solche Regeln, die beliebig neue Daten generieren können, eindeutig bestimmt. Jede endliche Datenmenge erlaubt eine unendliche Menge von Regeln, die mit dieser Datenmenge konsistent sind (Kripke 1982). Die empirische Unterspezifizierung unseres linguistischen Wissens ist in diesem Sinn notwendig (the poverty of the stimulus). Wir gehen darüber hinaus faktisch von ihr aus im Falle jedes biologischen Organs: Kein funktionelles System unseres Organismus entsteht aus externen Umgebungsbedingungen allein. Warum sollte für das System sprachlichen Wissens, das wesentlich abstrakter und komplexer ist, anderes gelten? Diese interne (Mit-)bestimmtheit sprachlichen Wissens ist philosophisch auch deswegen wichtig, weil es nicht analytisches Wissen ist in dem Sinne, in dem »Ein Junggeselle ist ein unverheirateter Mann« analytisch ist. Die Wahrheit sprachlichen Wissens folgt nicht aus dem Gehalt der in ihm enthaltenen Begriffe, sondern betrifft Tatsachen über die Welt: z. B. »Grammatische Operationen sind strukturabhängig«. Wissen, das solche Fakten beinhaltet, ist synthetisch, nicht analytisch; und es ist per definitionem a priori (vor der Erfahrung). Ob es solches synthetisch-apriorisches Wissen gibt, ist seit Immanuel Kant eines der großen Rätsel der philosophischen Erkenntnistheorie. Im Kontext der generativen Linguistik verwandelt sich dieses Rätsel mindestens zum Teil in eine empirische Frage, die die Natur unseres Gehirns betrifft (Hinzen 2004).
3.3 Was ist eine linguistische Theorie? Unsere Antwort auf die Frage, wie Kinder zum Wissen von Sprache kommen (die Epistemologie der Sprache) ist eng verbunden mit der Frage nach der linguistischen Theoriebildung, also wie Linguisten zu Wissen über sprachliches Wissen kommen. Der generative Grammatiker geht hier methodologisch von Daten linguistischen Wissens aus, zum Beispiel der Tatsache, dass es für jeden deklarativen Satz, der uns in den Sinn kommen könnte, immer noch einen längeren gibt (zum Beispiel den, in dem der vorige Satz nach »Ich denke, dass …« vorkommt). Auch 527
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
wissen wir alle, dass in dem Satz »Der Mann biss den Hai« der Mann derjenige ist, der beißt, und dasselbe ist der Fall in »Der Hai wird durch den Mann gebissen« (egal, ob das unserem Weltwissen widerspricht oder nicht). Die sogenannte thematische Struktur beider Sätze ist also identisch und durch ihre Grammatik bestimmt. Und in dem Satz: Peter erwartet, ihn zu finden ist klar, dass derjenige, von dem Peter erwartet, dass er »ihn« findet, notwendig er selbst ist (also Peter), wobei »ihn« sich nicht auf Peter bezieht. In dem folgenden Satz kommt nun der obige Satz identisch vor: Ich weiß nicht, von wem Peter erwartet, ihn zu finden. Hier ist ebenso klar, dass derjenige, von dem Peter erwartet, ihn zu finden, nicht notwendig Peter ist, und »ihn« kann sich nun auf Peter beziehen. Zum Beispiel könnte Peter von seinem Bruder Otto erwarten, dass er (Otto) ihn (Peter) findet. So »klar« diese Fakten auch sind, sie müssen erklärt werden. Darin besteht linguistische Theor iebildung: In jedem der obigen Fälle ist das Wissen selbst klar, aber es ist unklar, wie Kinder solches Wissen aus ihrer nicht-linguistischen Erfahrung gewinnen. Insoweit das nicht der Fall ist, besteht linguistische Theo riebildung darin, allgemeine Regeln bzw. Prinzipien zu postulieren, die diese Lücke zwischen Erfahrung und sprachlichem Wissen schließen, indem sie Daten wie die obigen voraussagen. Insoweit diese sprachspezifisch sind, gehören sie dann zur Universalgrammatik. Was der Linguist (nicht das Kind) entwickelt, ist eine Theorie dieser Grammatik. Diese Theor ie wird getestet durch ihre Voraussagen darüber, welche Strukturen wir in menschlichen Sprachen und in der Sprachentwicklung von Kindern finden (und welche nicht). Chomskys »Prinzipien-undParameter«-Theorie aus den 1980er Jahren beschrieb diese Variabilität insbesondere durch ein als angeboren postuliertes System von binären Parametern, die den Wert einer bestimmten linguistischen Variable offen lassen, den das Kind dann aus der Erfahrung bestimmen muss (z. B. ob das direkte Objekt vor oder nach dem Verb kommt) (Chomsky 1981; Baker 2001).5 Diese Theor ie ist ein formales Modell, wie das Spracherwerbsproblem logisch zu bewältigen ist, insoweit ein poverty-of-the-stimulus-Problem existiert. Die Realität selbst aber ist komplexer und das Modell ist kein Substitut für empirische Resultate zu dem multi-faktoriellen Prozess, in dem Kinder Sprachen tatsächlich erwerben. Es kann insbesondere sein, dass sich der Spracherwerbsvorgang dadurch vereinfacht, dass das Kind im Alltag sich ständig wiederholenden sprachlichen Mustern (»Konstruktionen«) ausgesetzt ist und deren Bedeutung holistisch aus dem Kontext erfasst, ohne sie intern strukturell und abstrakt zu analysieren. Je weniger abstrakt das sprachliche Wissen anfänglich ist, desto weniger wird das Für die heutige Diskussion dieses Ansatzes und Literaturverweise siehe Newmeyer (2005) und Hinzen/Sheehan (2013, Kap. 5). 5
528
Philosophie der Linguistik
Kind dann von angeborenen Erwartungen über mögliche Sprachstrukturen und deren abstrakte Prinzipien abhängig sein (Tomasello 2003). Könnte sich auf diesem Wege aber eine Theorie der Universalgrammatik erübrigen, wie Tomasello oder Goldberg (2006) meinen? Das ist weniger klar, denn das letztlich erworbene Wissen ist immer noch durch abstrakte Strukturprinzipien charakterisiert, die deduktiv organisiert sind in einem ähnlichen Sinne, wie es die Zahlen sind: Dass + = ist, folgt aus der Struktur der Zahlen, nicht aus der Erfahrung oder wie oft wir diese Zahlen gebraucht oder gesehen haben. Ebenso folgt aus der Struktur der Grammatik, nicht aus der Erfahrung, dass eine Nominalphrase (NP) kombiniert mit einer geeigneten Verbphrase (VP) einen Satz ergibt: NP + VP = S, in einer Unendlichkeit von Fällen. Das schließt den Satz Colourless green ideas sleep furiously ein, der ein grammatischer Satz ist, während Furiously sleep ideas green colourless das nicht ist, auch wenn die Wahrscheinlichkeit von deren Vorkommen in der Erfahrung in beiden Fällen gleich null ist. Der zweite Satz wird nicht dadurch grammatischer, dass wir ihn oft gebrauchen. Würde allein Erfahrung sprachliches Wissen bestimmen, würde sich mit Veränderungen in der Häufigkeit des Vorkommens bestimmter Ausdrücke unser Wissen ständig verändern. Obwohl sich alle menschlichen Sprachen permanent verändern, ist das aber nicht der Fall, und der Charakter unseres Sprachvermögens hat sich seit den ersten dokumentierten Sprachen, und wahrscheinlich seit den ersten Sprachen in unseres Spezies überhaupt vor ca. 100 000 Jahren, nicht verändert. Diese Diskussion illustriert, wie Wissen in der Linguistik generiert and qualifiziert wird. Die moderne Linguistik beginnt mit der Beobachtung der Spezifizität sprachlichen Wissens und der Entscheidung, die biologische Basis dieses Wissens in seiner Universalität wissenschaftlich zu untersuchen. Je abstrakter dieses Wissen ist, desto größer die Lücke, die zwischen Erfahrung und Wissen entsteht. Je mehr Gebrauchsaspekte der Sprache den Erwerb des sprachlichen Wissens mitbestimmen, desto geringer wird die explanatorische Rolle sein, die die Universalgrammatik spielen muss. Diese Rolle zu minimieren ist aber heute eine Maxime aller linguistischer Theoriebildung, insbesondere des Minimalistischen Programms (Chomsky 1995; 2007; 2008; Hinzen 2012a),6 und sie bedeutet nicht, dass es keine Universalgrammatik gibt. Dies wird in unnötig antagonistischen Diskussionen oft übersehen. Ein Interesse an gebrauchstheoretischen Dimensionen der Sprache (E-Sprache) kann also nicht bedeuten, dass es keine generative Grammatik einer Sprache gibt; und ein Interesse an der generativen Grammatik einer Sprache (I-Sprache) sagt nichts darüber, dass der Gebrauch einer Sprache ihre Struktur nicht auch Wenn z. B. die komputationalen Operationen, die der Generierung von Sprache zugrunde liegen, natürlichen Prinzipien von komputationeller Effizienz gehorchen, wie das minimalistische Programm suggeriert, dann sind hier keine sprachspezifischen, genetisch verankerten Prinzipien als Teil einer Theor ie der Universalgrammatik zu postulieren. 6
529
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
mitbestimmen kann und dass die Häufigkeit einer Konstruktion nicht auch zu den Daten gehören kann, auf denen eine linguistische Theorie beruht. Fortschritt in der linguistischen Theoriebildung besteht nicht zuletzt darin zu erkennen, wie sehr unterschiedliche Forschungsrichtungen und intellektuelle Traditionen dasselbe Gegenstandsgebiet erhellen können, auch wo sich sie sich radikal voneinander zu unterscheiden scheinen. Von einer Inkommensurabilität linguistischer Theor ien kann jedenfalls heute kaum die Rede sein. Die Verwendung unterschiedlicher Formalismen in der Beschreibung von grammatischen Strukturen macht es in der Praxis bisweilen schwierig, hinter vollständig verschiedenen Terminologien dieselben Phänomene zu erkennen. Aus der Sicht einer Wissenschaft der Sprache aber sind, anders als in der Logik, Formalismen kein Selbstzweck, sondern Mittel. Das illustriert die Entwicklung formaler Beschreibungen in der generativen Syntax, die seit den 1960er Jahren fortwährend in Bewegung geblieben sind und sich in den besten Fällen neuen empirischen Einsichten angepasst haben, anstatt diese Einsichten notwendig in traditionellen Termen zu be schreiben.
3.4 Geist und Gehirn Obgleich wir mangels einer Alternative davon ausgehen, dass I-Sprachen in individuellen menschlichen Gehirnen verankert sind, können wir, anders als Skinner meinte, solche Objekte nicht in physikalischen oder materiellen Termini beschreiben. Bildgebende Verfahren beim Studium des Gehirns können linguistische Kategorien, die mentale Prozesse mentalistisch beschreiben (z. B. als »Morpheme«, »Nominalphrasen«, »Prädikate«, oder »Propositionen«, die dem menschlichen Verstehen solcher Strukturen entsprechen), auf elektrophysiologische oder hämodynamische Prozesse beziehen. Nichts davon klärt das Verhältnis zwischen mentalen und physischen Prozessen. Um dieses Verhältnis zu klären, müssten wir zuerst einmal sagen, was der Unterschied zwischen mentalen und physischen Prozessen sein soll. Am Beginn der wissenschaftlichen Revolution im 17. Jahrhundert waren die Kriterien einer solchen Unterscheidung sehr klar und restriktiv. So fällt unter Descartes’ Begriff eines »Körpers« alles, was eine bestimmte geometrische Form hat und den Raum ausfüllt, und zwar so, dass es jeden anderen Körper von diesem Raum ausschließt, wahrgenommen, gesehen, gerochen oder geschmeckt werden, und nur bewegt werden kann durch etwas anderes, was in Kontakt mit ihm kommt (Descartes 1637). Dieser Begriff war richtungsweisend für die frühmoderne, prä-newtonische Physik. Wenn wir vor diesem wissenschaftstheoretischen Hintergrund über Gedanken und mentale Zustände nachdenken, scheint klar, dass wir diese anders konzeptualisieren: nicht als drei Zentimeter lang, nicht als schlecht riechend, nicht als geräuschvoll usw.; und kein physikalisches Objekt hat Eigenschaften, so scheint es, die allen Gedanken zukommen, z. B. einen Inhalt. Intuitiv konzeptualisieren wir Gedanken also als 530
Philosophie der Linguistik
nicht-physikalisch, und die Idee, dass es eine empirische Wissenschaft von Sprache oder Gedanken geben soll, scheint verworren. Im Einklang damit hat die Philosophie des Geistes des 20. Jahrhunderts nach Theor ien des Mentalen gesucht, die mit einem »physikalistischen« Weltbild kompatibel sind (und damit der Metaphysik des Behaviorismus, wenn auch die Methodologie des Behaviorismus nach Chomsky nicht wieder auferstanden ist). Zu diesen Theor ien gehört der Funktionalismus (Lycan 2003), nach dem mentale Prozesse mathematische Funktionen sind, die im Menschen biologisch implementiert sind. Solche Funktionen sind als solche abstrakte Objekte, die auch in anderen (und nicht-biologischen) Wesen (wie z. B. Robotern) implementiert sein könnten. Insoweit ein naturalistisches Studium von Sprache kein Studium eines abstrakten Objekts sein kann, ist ein Funktionalismus in diesem Sinne inkompatibel mit der Chomsky’schen Konzeption einer Wissenschaft der Sprache. Er verkörpert einen methodologischen Dualismus in dem Sinne, dass für das Studium der Sprache andere Prinzipien gelten sollen als für das Studium anderer, natürlicher Objekte. Die Theor ie des eliminativen Materialismus (Churchland 1981), die im Namen der Wissenschaftlichkeit mentale Termini gänzlich aus der Kognitionswissenschaft verbannen will, ist noch weniger kompatibel mit einer solchen Wissenschaft, insofern sie gar die Existenz von deren explananda bestreitet. Auch nach dem anomalen Monismus von Davidson (2001; 2004) gilt die Notwendigkeit eines methodologischen Dualismus für das Studium der Sprache, da sie anders als andere physische Objekte inhärent in normativen Termini zu charakterisieren sei. Nach Chomsky (2000; 2006) verbauen alle diese methodologisch-dualistischen Positionen die Möglichkeit einer naturalistischen Wissenschaft des menschlichen Geistes und der Sprache. Sie alle verkennen, dass nach Newton »physisch/materiell/körperlich« nicht mehr der restriktive Begriff ist, den wir zur Grundlage nehmen, wenn wir mentale Prozesse aus der »Natur« ausschließen. Newtons Principia zerstören nach diesem Argument ein für alle Mal die Idee Descartes‹, dass die physische Natur von der Welt mentaler Dinge prinzipiell verschieden ist, z. B. dass sie prinzipiell ausgedehnt ist, dass Körper exklusive Raumstellen einnehmen und sich nur mechanisch und durch Kontakt bewegen. Newtonische Physik schafft diese Ideen von Materie ab. Was übrig bleibt, ist ein allumfassender Begriff von Natur, in dem wir alles einschließen, was sich wissenschaftlich studieren lässt, was immer dessen metaphysische Ontologie ist. Das formale Studium der Sprache als eines generativen Mechanismus (I-Sprache) ist in diesem Sinne ein Studium der Natur und des Geistes als eines natürlichen Objekts, auch wenn das Vokabular dieser Wissenschaft mentalistisch ist. Eine solche Perspektive zeigt nicht nur, wie Sprache ein natürliches Objekt sein kann, sondern sie suggeriert, dass die Sprache als ein solches Objekt ein offener Gegenstandsbereich ist, der keinen metaphysischen Restriktionen unterliegt. So spricht insbesondere nichts dagegen, unter der Perspektive eines methodologischen Naturalisms und Monismus auch den oben genannten Aspekt der Personalität des Sprachgebrauchs anzugehen.
531
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
3.5 Sprache und Denken In ihrer letzten, minimalistischen Gestalt versucht die generative Grammatik die Sprache als System zu verstehen, dessen Struktur sich entscheidend dadurch bestimmt, welche semantischen Gehalte bzw. Formen von Denken in der Sprache ausgedrückt werden müssen. Dies kann nur dann geschehen, so der Vorschlag, wenn es in der Sprache dafür geeignete Strukturen gibt. Diese Idee impliziert aber, dass es nun vollends die Aufgabe von außer- bzw. vor-sprachlichen kognitiven Systemen ist, diesen Gehalt selbst zu bestimmen. Von irgendwoher muss er ja kommen. Vorsprachliche Formen von Denken entsprechen aber nicht den Denkformen und Gehalten, die wir in der Sprache ausgedrückt finden. Hunde, Vögel und Affen »denken« vielleicht, aber jedenfalls nicht so wie wir (Penn et al. 2008). Deren Denken kann darum nicht das konzeptuell-intentionale System sein, das nach dem minimalistischen Programm eine Schnittstelle mit der Grammatik bilden soll und den durch sie auszudrückenden Inhalt bereitstellt. Kurzum, der Inhalt der Sprache ist nicht der Inhalt des vorsprachlichen Denkens, das wir in anderen Spezies finden, und das Denken, das wir mit der Sprache verbunden sehen, ist nirgendwo ohne die Sprache zu finden. Wir müssen also im Sprachsystem selbst semantischen Gehalt finden – dieser kann nicht gänzlich Sache vorsprachlicher Systeme sein. Wir müssen daher fragen, welches Denken allein sprachlich existiert, und eine Theor ie solchen Denkens muss letztendlich ein Teil einer Wissenschaft der Sprache sein. Wie oben gesagt, hat die generative Grammatik anders als ihr rationalistischer Vorgänger im 17. Jahrhundert, von der Beziehung zwischen Sprache und Denken weitgehend abstrahiert. Ihr gebrauchs- und kommunikationstheoretischer Rivale (z. B. Tomasello 2003; 2008) hat aber ebenfalls keine Theorie des Denkens anzubieten: Eine Theor ie sozialer Kognition ist, wie oben bemerkt, keineswegs dasselbe, und eine solche Kognition ist im Falle des Menschen inhärent sprachlich. Was aber ist charakteristisch für dieses Denken? Kinder um den ersten Geburtstag herum beginnen universal und spontan mit ihrem ausgestreckten Zeigefinger auf Dinge zu zeigen, oft in Begleitung eines Wortes, das sie dazu äußern (z. B. Zeigefinger + »Hund«). Dieses Wort entspricht einem Begriff, den das Kind von dem gezeigten Gegenstand hat. Die Geste als Ganze drückt kein Verlangen aus, den Gegenstand zu besitzen, sondern ist ein Hinweis darauf, dass hier ein Gegenstand von dieser Art existiert: eine Einsicht, die das Kind durch seine Geste mit dem Erwachsenen teilen möchte. Es handelt sich in diesem Sinne um deklaratives, nicht imperatives oder desideratives Zeigen. Man könnte dies als den Anfang von Denken, Referenz und Sprache beschreiben. Deklaratives Zeigen existiert nicht in nicht-sprachlichen Wesen und entwickelt sich normal in sprachlichen nur dann, wenn auch die Sprache sich normal entwickelt (Tomsasello 2008; Butterworth 2003; Goldin-Meadow/Butcher 2003; Cartmill et al. 2014). Konstitutiv für Begriffe, die Teil solcher Zeigeakte sind, ist, dass sie referentiell gebraucht werden können und auf Dinge zutreffen oder nicht, 532
Philosophie der Linguistik
unabhängig davon, ob wir denken, dass sie zutreffen. Begriffliche Gehalte, ähnlich wie die Gehalte von Sätzen, sind objektiv. Im Laufe des zweites Lebensjahres entstehen andere Zeigegesten, die den ausgestreckten Zeigefinger mit einem Verb verbinden: Das Kind zeigt z. B. auf eine Kiste und sagt: »öffnen«. Dieser Entwicklungsschritt ist mit den ersten satzartigen Äußerungen korreliert. Die Ontologie der Referenz differenziert sich also: Erst sind es nur Objekte, die gezeigt werden, dann Ereignisse. Später, mit einer voll entwickelten Sprache, werden es Tatsachen und Propositionen (Gedankengehalte) sein. Kurzum, menschliches Denken über die Welt, wie es sich in Akten von Referenz zeigt, hat eine formale Ontologie: Wir referieren auf Dinge, die wir formal als Gegenstände, Ereignisse, Propositionen etc. unterscheiden. Diese formale Ontologie der Referenz entfaltet sich ontogenetisch in einer Anzahl von Meilensteinen zusammen mit sprachlicher Komplexität. Ohne eine solche Ontologie ist menschliches Denken nicht vorzustellen. Diese Ontologie muss erklärt werden. Sie fällt nicht vom Himmel und sie ist mindestens teilweise unabhängig von Wahrnehmungsstrukturen. Referenz selbst ist in Wahrnehmung nicht enthalten (einen Gegenstand zu sehen, heißt nicht, auf ihn zu referieren). Sogar wenn wir Referenz als in Wahrnehmung enthalten betrachten würden, wären es höchstens Objekte und Ereignisse, die wir wahrnehmen. Propositionen oder Wahrheit aber sind keine perzeptuellen Kategorien. Sie müssen also eine andere Erklärung haben. Man könnte eine Umwandlung im Denken selbst postulieren, die unabhängig von Sprache das Denken nichtmenschlicher Spezies evolutionär in unser Denken verwandelt. Aber es ist nicht klar, was die Erklärung dieser Verwandlung sein soll. Die Sprache ist ein Kandidat für eine solche Erklärung. Könnte nicht die Tatsache, dass es in unserer Spezies Sprache gibt, erklären, dass auch unser Denken anders ist? Wir gehen heute davon aus, dass die Funde von Blombos in Südafrika (Henshilwood 2006), rund 77.000 Jahre alt, die ersten unkontroversen Beispiele für ein Vermögen symbolischer Repräsentation sind, das eine Voraussetzung von Sprachlichkeit ist. Zu diesem Zeitpunkt war unsere Spezies genetisch gesehen schon über 100.000 Jahre alt. Außerdem gibt es in keiner anderen Menschenart solche Funde, und auch die Existenz von moderner Sprachlichkeit im Neander thaler ist fraglich (Tattersall 2008; Stringer 2010). Zusammen mit dieser Entwicklung der Sprache in unserer Spezies sehen wir, dass sich menschliche Mentalität radikal verändert und dass eine essentiell moderne menschliche Kultur entsteht. Die Entwicklung der Sprache ist also nicht nur die Entwicklung der Sprache: Sie ist auch die Entwicklung einer neuen Form von In-der-Welt-Sein. Es ist daher wert, die Frage zu stellen, in welcher Weise Sprachlichkeit und modernes menschliches Denken ein und dasselbe sein könnten. Die Grenze zwischen Denken und Sprache ist in der Entwicklung der Linguistik und Philosophie der Linguistik im Großen und Ganzen scharf gezogen. Sogar in der cartesianischen Linguistik des 17. Jahrhunderts ist die Sprache essentiell eine Ausdruckskonvention, die rational nur insoweit ist, als sie das als rational und 533
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
universal angenommene Denken widerspiegelt. Eine Trennung von Denken und Sprechen ist hier vorausgesetzt. Aber es ist nicht klar, worin diese Unterschiede letztendlich bestehen sollen. Linguisten im Allgemeinen haben Denken und Sprechen insbesondere deswegen trennen wollen, weil viele strukturelle Aspekte von Sprache (z. B. Kasus) als irrelevant für das Denken angesehen werden und das Denken universal sein soll, während es so scheint, als wären es die Elemente der Sprache nicht. Wenn Denken von Sprache in dieser Weise unabhängig ist, ist sprachliche Variation irrelevant für Denken und bewahrt dessen Einheit in der Menschheit. Auch in der Benjamin Whorf (1956) zugeschriebenen These, dass die Eigenheiten einer Sprache das in ihr ausgedrückte Denken »beeinflussen« können, liegt implizit eine Unterscheidung von Denken und Sprechen. Dasselbe gilt für heutige neo-whorfianische Versuche, eine »Abhängigkeit« des Denkens von der Sprache zu zeigen. Allerdings sind diese Abhängigkeiten, wo es Evidenz für sie gibt, eher begrenzt und beschränken sich oft auf die Einflüsse von Unterschieden im Vokabular von Sprachen. Nach Majid et al. (2004) z. B. ist es in Sprachen ohne Begriffe wie »links« und »rechts« so, dass sich Sprecher anders im Raum orientieren. Klare Formulierungen der These, dass Sprache und Denken ein und dasselbe sind – und die Wissenschaft des einen die Wissenschaft des anderen ist – finden wir trotzdem (in verschiedenen Varianten) mehrfach in der Geschichte der Linguistik: zuerst beim indischen Philosophen-Linguisten und Universalgrammatiker Bhartrihari (ca. 5. Jh., siehe Matilal 1990), dann bei den Modisten (Covington 2009) und vielleicht am klarsten in einem Zeitgenossen Darwins, dem Oxforder Philologen Friedrich Max Müller (1887). Was aber könnte eine solche These in einem zeitgenössischen Kontext bedeuten? Wie oben beschrieben, schrieben die Modisten der Grammatik eine Bedeutungsfunktion zu: Diese verändert nicht die lexikalischen Bedeutungen, aber sie gibt diesen referentielle Funktionen mit Unterschieden in der formalen Ontologie (wie im Falle von »Maria lächelt«, einer Proposition, die ein Ereignis mit Zeitstruktur darstellt, und »Marias Lächeln«, einem bloßen Objekt, wobei beide Ausdrücke in den exakt gleichen exernen Umständen gebraucht werden könnten). Die Objekt-Ereignis-Distinktion korreliert hier mit dem grammatischen Unterschied zwischen Nominal- und Verbphrasen. Beide aber sind eingebettet in Sätze, deren formale Ontologie die von Propositio nen, Fakten, und Wahrheitswerten ist. Stellen wir uns also vor, dass für solche Propositionen dasselbe gilt wie für Akte der Referenz auf Objekte und Ereignisse: Sie werden möglich, wenn bestimmte Ebenen von grammatischer Komplexität erreicht sind. Dies sind zugleich die höchsten Ebenen von solcher Komplexität, denn mit der grammatischen Komplexität von Sätzen, in denen Propositionen als wahr behauptet werden, sind die Ressourcen der Grammatik erschöpft (Hinzen 2014). Der Prozess grammatischer Derivation ist nach dieser Idee ein Prozess, in dem sich hierarchisch geordnete Formen von referentieller Komplexität mit korrelierten Formen von formal-ontologischer Komplexität verbinden. Wenn es neben dieser Ontologie keine weitere gibt, die das menschliche Denken hat, 534
Philosophie der Linguistik
erschöpft sich damit die Ontologie des Denkens mit der durch die Grammatik ermöglichten: eine getrennte »Sprache des Denkens« (language of thought im Sinne Fodors 1975; 2008) ist nicht mehr nötig. Nach diesem Modell beantwortet das Studium der Grammatik jede Frage, die wir über das menschliche Denken und was es speziell macht, haben könnten. Wenn wir mit der Philosophie der Grammatik fertig sind, bleibt für eine Philosophie oder Wissenschaft des Denkens nichts mehr zu tun. Das Denken ist nun nicht mehr verortet in einem jenseits einer linguistischen Schnittstelle liegenden »konzeptuellen System«, wie bei Chomsky (1995; 2007) oder Jackendoff (2011): Es ist nur mit grammatischen Strukturen selbst, dass sich der Raum des Denkens aufspannt.7 Dieser Ansatz beantwortet ebenfalls die Frage der Personalität des sprachlichen Denkens. Genau wie es eine Bedingung der Grammatikalität ist, dass ein vollständiger Satz seine Temporalität grammatisch markiert (durch Inflektion des Verbs im Deutschen), ist es eine ebensolche Bedingung, dass Personalität markiert wird. Jeder referentielle Ausdruck ist entweder in der ersten Person (»ich«, »mir«), der zweiten (»du«) oder der dritten bzw. nicht-Person (»er/sie/es«, »der Mann«, »das Haus«). Es ist eine Grundvoraussetzung von Rationalität, dass wir diese drei Personalformen unterscheiden. Dies sehen wir in mentalen Pathologien: So wissen Personen mit Schizophrenie oft nicht, wer ihre Gedanken denkt, sie selbst oder eine externe Person oder Instanz (Crow 2010), oder ob die Welt (die dritte oder nicht-Person) unabhängig ist von ihrem Denken (Wahn). Auch Kinder mit Autismus vermeiden oft die grammatische erste Person und präferieren Formen der dritten Person im Selbstbezug (z. B. ihren Eigennamen oder eine Beschreibung; Hobson et al. 2010). Personalformen sind sprechakt-relativ und schließen damit eine implizite Referenz auf Sprechakte ein: Die Äusserung »Ich denke« bezieht sich auf mich genau so lange, wie ich es bin, der spricht. Und dann bedeutet sie: Die Person, die denkt, ist identisch mit dem Sprecher, solange der Sprechakt anhält. Personales Denken ist in diesem Sinne sprachlich und es gibt einen inhärenten Bezug zwischen Selbstreferenz in der ersten Person und Selbstbewusstsein. Es könnte demnach sein, dass die Grammatik unser Denken konfiguriert. Sie gibt ihm eine formale Ontologie und macht es propositional und personal. Denkpathologien wie die Schizophrenie könnten sich damit als »Logopathien« entpuppen (Dörr 2010; Hinzen/Sheehan 2013: Kap. 8). Diese Perspektive auf die Grammatik würde der Sprache die philosophische und epistemologische Signifikanz zurückgeben, die sie sowohl in der frühmodernen cartesianischen Linguistik wie auch in deren zeitgenössischer Variante verloren hat, obwohl sie ein essentieller Bestandteil der beiden ersten großen universal-grammatischen Versuchen war, in Indien und im Europäischen Modismus (Hinzen 2012b). Dieses Forschungsprogramm – die sogenannte »un-cartesianische Hypothese« von Hinzen und Sheehan (2013) – ist nützlich unabhängig davon, ob sie wahr ist: Einsichten darüber, wo sie scheitert, stellen wichtige Einsichten bereit darüber, worin genau die Unabhängigkeit des menschlichen Denkens von unserer Sprachlichkeit besteht. 7
535
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
4 Zusammenfassung In Indien steht die Philosophie der Linguistik am Beginn wissenschaftlicher Reflexion selbst, während sie im Westen mehr als ein weiteres Jahrtausend braucht, um eine wissenschaftliche Konzeption von Grammatik zu entwickeln. Diese verwandelt sich im Zuge der wissenschaftlichen Revolution des 17. Jahrhunderts und lebt wieder auf im Gewand der modernen Kognitionswissenschaft in der Mitte des 20. Jahrhunderts, wo sie sich nunmehr mit neurolinguistischen, psycholinguistischen und evolutionär-linguistischen Paradigmen verbinden kann. Die Kernfrage einer Philosophie der Linguistik aber bleibt diese: Was ist Grammatik? Wofür ist sie da? Was sind ihre Bedeutungsfunktionen? Von welcher Art von Wissen ist sie ein inhärenter Bestandteil? Was ist Denken ohne Grammatik? Die moderne generative Linguistik ist eine wissenschaftliche Plattform, die dieses Gegenstandsgebiet neu erschlossen hat. Wie die formale Semantik und Pragmatik hat sie oft eine formale Perspektive eingenommen und von vielen dieser grundlegenden Fragen abstrahiert. Im Lichte neuer Einsichten in die Entstehung des Menschen aber sind diese Fragen von entscheidender Bedeutung für die Frage nach uns selbst.
Literatur Empfehlungen: Auroux/Kouloughli (1993) thematisieren den komplexen Bezug von Sprachphilosophie und Philosophie der Linguistik. Wunderlich (1976) ist eine frühe Sammlung zur Wissenschaftstheor ie der (damals noch jungen) Linguistik. Einen guten englischsprachigen Überblick über die analytische Wissenschaftsphilosophie der Linguistik bieten Scholz et al. (2014). Eine exzellente Sammlung von Übersichtstexten enthält der Band Philosophy of Linguistics (hrsg. von R. Kempson et al., 2012) im Handbook of the Philosophy of Science (hrsg. von D. Gabbay). Für den deutschen Sprachraum siehe Leiss (2012), deren Einführung in die Sprachphilosophie die Philosophie der Linguistik entscheidend miteinbezieht. Eine kurze Einführung in die Geschichte der Linguistik (und Philosophie der Linguistik) ist Robins (1997); siehe auch Hinzen/Sheehan (2013, Kap. 1) und Seuren (1998). Für eine Darstellung linguistischen Denkens im Osten (Indien) siehe Matilal (1990). Harris (1995) ist eine informative Darstellung der oft sehr emotional ausgefochtenen Kämpfe um die Formierung der modernen generativen Linguistik im Amerika des 20. Jahrhunderts. Kertész/Rákosi (2012) studieren das Verhältnis von Daten und Evidenz in der Lingu istik.
536
Philosophie der Linguistik
Antony, Louise, und Norbert Hornstein (Hg.) (2003). Chomsky and his critics. Oxford: Blackwell. Arnauld, Antoine, und Claude Lancelot (1660/1676/1966). Grammaire generale et raisonnee ou La Grammaire de Port Royal. Grammatica Universalis, I. Stuttgart Bad Cannstatt: Frommann‑Holzboog. Auroux, S. und Kouloughli, D. (1993). Why is there no ›true‹ philosophy of linguistics? In: Harré, R. und Harris, R. (Hg.): Linguistics and Philosophy: The controversial interface. Oxford: Pergamon, 21 – 4 4. Baker, Mark (2001). The Atoms of Language: The Mind's Hidden Rules of Grammar. Basic Books. Bek, J., Blades, M., Siegal, M. und Varley, R., (2010). Language and spatial representation: evidence from severe aphasia. Journal of Experimental Psychology 36, 3, 646 – 658. Bloomfield, Leonard (1933). Language. New York: Henry Holt. Brandom, Robert (1998). Making it explicit. Harvard University Press. Cartmill, E. A., Hunsicker, D. und Goldin-Meadow, Susan, (2014). Pointing and naming are not redundant: Children use gesture to modify nouns before they modify nouns in speech. Developmental Psychology, Vol 50(6), Jun 2014, 1660 – 1666. Chomsky, Noam (1957). Syntactic structures. Gravenhage, Mouton. – (1959). A review of B. F. Skinner’s Verbal Behaviour. Language 35, 26‑58. – (1964). Current Issues in Linguistic Theory, in Fodor, J. A. und J. J. Katz (Hg.), The Structure of Language: Readings in the Philosophy of Language, Englewood Cliffs, Prentice Hall, 50 – 118. – (1965). Aspects of the Theory of Syntax. Cambridge, MA: MIT Press. – (1966). Cartesian Linguistics: A Chapter in the History of Rationalist Thought. New York: Harper & Row. – (1971). The Case Against B. F. Skinner. The New York Review of Books, December 30. – (1981). Lectures on Government and Binding. Mouton de Gruyter. – (1995). The Minimalist Program. Cambridge, MA: MIT Press. – (2000). New horizons in the study of language and mind. Cambridge: Cambridge University Press. – (2005). Three factors in language design. Linguistic Inquiry 36, 1, 1 – 22. – (2006). Language and mind (3rd edition). Cambridge: Cambridge University Press – (2007). Approaching UG from below. In: U. Sauerland/H.‑M. Gärtner, editors, Interfaces + Recursion = Language?, 1–29. Berlin, New York: Mouton de Gruyter. Churchland, Paul (1981). Eliminative Materialism and the Propositional Attitudes. Journal of Philosophy 78, 67 – 9 0. Covington, Michael A. (2009). Syntactic theory in the high middle ages. Cambridge: Cambridge University Press. Croft, William, und D. Alan Cruse (2004). Cognitive Linguistics. Cambridge: Cambridge University Press. Crow, Timothy J. (2010). The nuclear symptoms of schizophrenia reveal the four quadrant structure of language and its deictic frame. Neurolinguistics 23, 1–9. 537
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Devitt, Michael (2006). Ignorance of Language. Oxford: Oxford University Press. – und Kim Sterelny (1999). Language and Reality: An Introduction to the Philosophy of Language. Cambridge, MA: MIT Press (2nd Edition). Davidson, Donald (1984/1991). Inquiries into Truth and Interpretation. Oxford: Clarendon. – (2004). Problems of rationality. Oxford: Oxford University Press. Descartes, René (1637). Discours de la Methode. Introduction et notes par Et. Gilson, Paris, 1637: Vrin 1984. Dörr, Otto (2010). Schizophrenia, language and evolution (or the schizophrenias as logopathies). Actas Esp Psiquiatr 38(1), 1 – 7. Dummett, Michael (1996). The seas of language. Oxford University Press. Eigsti, I. M., I. Bennetto, M. Dadlani (2007). Beyond pragmatics: morphosyntactic development in autism. Journal of Autism Dev. Disord. 3, 7, 1007 – 1023. Evans, Nick, und Stephen Levinson (2009). The myth of language universals: language diversity and its importance for cognitive science. Behavioral and Brain Sciences 32, 429–492. Everett, Daniel L. (2005). Cultural constraints on grammar and cognition in Piraha: Another look at the design features of human language. Current Anthropology 46, 621–646. – (2012). Language: The cultural tool. Pantheon. Fauconnier, Gillrd (1994). Mental Spaces: Aspects of Meaning Construction in Natural Language. New York: Cambridge University Press. Fodor, Jerry A. (1975). The language of thought. New York: Crowell. – (1983). Precis of The Modularity of Mind. Behavioral and Brain Sciences 8, 1–5. – (1998). Concepts. Where cognitive science went wrong. Oxford: Clarendon Press. – (2000). The mind doesn’t work that way. Cambridge, MA: The MIT Press. – (2001). Language, thought, and compositionality. Mind and Language 16,1, 1–15. – (2008). LOT2. The language of thought revisited. Oxford: Oxford University Press. Gibson, Edward, und Evelina Fedorenko (2013). The need for quantitative methods in syntax and semantics research. Language and Cognitive Processes 28, 1 – 2 , 88 – 124. Goldberg, Adele (2006). Constructions at Work: The Nature of Generalization in Language. Oxford: Oxford University Press. Goldin-Meadow, Susan und Butcher, C. (2003). Pointing toward two-word speech in young children. Pointing: Where language, culture, and cognition meet, 85 – 107. Goodman, Nelson (1967). The Epistemological Argument. Synthese 17, 23 – 28. Harman, Gilbert (1967). Some Recent Issues in Linguistics. Journal of Philosophy 64, 2, S. 75–87. Harris, Randy A. (1995). The Linguistics Wars, Oxford University Press. Haspelmath, Martin (2007). Pre-established categories don’t exist – consequences for language description and typology. Linguistic Typology 11, 119–32. Huck, G. J. und Goldsmith, J. A. (1995). Ideology and Linguistic Theory: Noam Chomsky and the deep structure debates. New York: Routledge. 538
Philosophie der Linguistik
Hauser, Marc D., Noam Chomsky, und W. Tecumseh Fitch. (2002). The faculty of language: What is it, who has it, and how did it evolve? Science 298, 1569 – 1579. Henshilwood, C. S. (2006). Modern humans and symbolic behaviour: Evidence from Blombos Cave, South Africa. In: Origins (hrsg. von G. Blundell). Cape Town: Double Storey, 78–83. Himmelmann, Nikolaus P. (2007). Lexical categories and voice in Tagalog. In: P. Austin und S. Musgrave (Hg.), Voice and Grammatical Functions in Austronesian Languages, Stanford: CSLI. Hinzen, Wolfram (2004). Synthetische Urteile a Priori in Wittgenstein. Zeitschrift fur Philosophische Forschung 58(1), 1 – 28. – (2006). Mind design and minimal syntax. Oxford: Oxford University Press. – (2007). An essay on names and truth. Oxford: Oxford University Press. – (2012a). Mimimalism. In: R. Kempson et al. (Editors), S. 93 – 141. – (2012b). The philosophical significance of Universal Grammar. Language Sciences 34, 5, 2012, 635 – 649. – (2014). Recursion and Truth. In Recursion, eds. P. Speas, T. Roeper, Recursion: Complexity in cognition. Studies in Theoretical Psycholinguistics, New York: Springer, 113 – 138. – (2015). Universal grammar and philosophy of mind. In: Roberts, I. (Hg.), Handbook of Universal Grammar, to appear. – und Michelle Sheehan (2013). The philosophy of universal grammar. Oxford: Oxford University Press. Hobson, R. Peter, M. R. García-Pérez und A. Lee (2010). Person-centered (deictic) expressions and autism. Journal of Autism and Developmental Disorders 40, 403 – 415. Jackendoff, Ray (2011). What is the language faculty? Two views. Language 87, 3, 586 – 624 Jespersen, Otto (1924). Philosophy of grammar. London: Allen and Unwin. Kamp, Hans (1981). A Theory of Truth and Semantic Representation. In: J. Groe nendijk et al. (Hg.). Formal Methods in the Study of Language. Amsterdam: Mathematics Center. Katz, Jerrold, und Paul M. Postal (1964). An integrated theory of linguistic descriptions. Cambridge, MA: MIT Press. McCawley, James D. (Hg.) (1976). Syntax and semantics 7: Notes from the linguistic underground. New York: Academic Press. Kempson, Ruth, Tim Fernando und Nicholas Asher (Hg.) (2012). Philosophy of Linguistics. North Holland, Amsterdam. Kertész, András und Csilla Rákosi (2012). Data and evidence in Linguistics. A plausible argumentation model. Cambridge University Press. Kripke, Saul (1982). Wittgenstein on Rules and Private Language. Harvard University Press. Lakoff, George (1971). On generative semantics. In: D. D. Steinberg/L. A. Jakobovits (Hg.), Semantics: An interdisciplinary reader in philosophy, linguistics and psychology (232–296). Cambridge: Cambridge University Press. 539
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
– (1976 [1963]). Toward generative semantics. In: J. D. McCawley (Hg.) (43–61). – (1987). Women, Fire, and Dangerous Things. What Categories Reveal about the Mind. Chicago, University Press, 1987. – und Mark Johnson (1980). Metaphors We Live By. Chicago, University Press. Langacker, Ronald W. (1987). Foundations of Cognitive Grammar. Vol 1. Stanford, University Press. Leiss, Elisabeth (2009). Sprachphilosophie. Berlin, New York: de Gruyter. Levinson, Stephen C., und Nick Evans (2010). Time for a sea‑change in linguistics: response to comments on ›The Myth of Language Universals‹. Lingua 120, 2733– 2758. Ludlow, Peter (2011). The philosophy of generative linguistics. New York: Oxford University Press. Lycan, William G. (2003). Chomsky on the mind-body problem. In: Antony/Hornstein (Hg.), 11–28. – (2008). Philosophy of Language. Routledge. Majid, A., Bowerman, M., Kita, S., Haun, D. B. M., und Levinson, S. C. (2004). Can language restructure cognition? The case for space, Trends in Cognitive Sciences, 8 (3), 108–114. Matilal, Bimal K. (1990). The word and the world. India’s contribution to the study of language. Oxford: Oxford University Press. McCarthy, Diana, und Gregory Sampson (2005). Corpus Linguistics: Readings in a Widening Discipline, Continuum. Montague, Richard (1974). Formal philosophy: selected papers of Richard Montague / ed. and with an introd. by Richmond H. Thomason. New Haven: Yale Univ. Press. Morris, Michael (2006). An introduction to the philosophy of language. Cambridge: Cambridge University Press. Mueller, Friedrich M. (1887). The science of thought. London: Longmans, Green, & Co. Newmeyer, Fred J. (2005). Possible and Probable Languages: A Generative Perspective on Linguistic Typology. Oxford: Oxford University Press. Partee, Barbara H. (1980). Semantics – mathematics or psychology? In: Bäuerle/Egli/ von Stechov (Hg.), Semantics from different points of view, Springer-Verlag, Berlin, 1 – 14. Penn, D. C., K. J. Holyoak und D. J. Povinelli (2008). Darwin’s mistake: Explaining the discontinuity between human and nonhuman minds. Behavioral and Brain Sciences, 31, 109–178. Pinker, Steven (1994). The language instinct. London: Penguin. – (1997). How the mind works. W. W. Norton & Company. – und Paul Bloom (1990). Natural Language and Natural Selection, The Behavioral and Brain Sciences 13, 704–84. Putnam, Hilary (1967). The ›Innateness Hypothesis‹ and Explanatory Models in Linguistics. Synthese 17, 1, 12- 22. Quine, William V. O. (1970). Methodological Reflections on Current Linguistic Theory. Synthese 21, 3, S. 386 – 398. 540
Philosophie der Linguistik
Recanati, Francois (2011). Truth conditional pragmatics. Oxford University Press. Robins, Robert H. (1997). A Short History of Linguistics. London: Longman Russell, Bertrand (1905). On Denoting. Mind 14, S. 479–493. Schatzki, T., K. Cetina, E. v. Savigny (Hg.) (2001). The practice turn in contemporary theory. Routledge. Scholz, Barbara C., Francis Pelletier und Geoffrey Pullum (2014). Philosophy of Linguistics. The Stanford Encyclopedia of Philosophy (Summer 2014 Edition), Edward N. Zalta (Hg.), URL = ‹http://plato.stanford.edu/archives/sum2014/entries/ linguistics/›. Seuren, Pieter A. M. (1998). Western linguistics: An historical introduction. WileyBlackwell. Skinner, B. F. (1957). Verbal behavior. New York: Appleton‑Century-Crofts. Stringer, Chris (2011). The origin of our species. London: Penguin. Talmy, Leonard (2000). Toward a Cognitive Semantics. Cambridge, MA: The MIT Press. Tattersall, Ian (2008). The world from beginnings to 4000 BCE. Oxford: Oxford University Press. Terrace, Herbert (2005). Metacognition and the evolution of language, in H. Terrace und P. Metcalfe (Hg.), The Missing Link in Cognition. Oxford: Oxford University Press, 84–115. Tomasello, Michael (2003). Constructing a Language: A Usage‑Based Theory of Language Acquisition. Cambridge, MA: Harvard University Press. – (2008). Origins of human communication. Cambridge, MA: MIT Press. Turner, Mark, Gilles Fauconnier. (2002). The Way We Think. Conceptual Blending and the Mind’s Hidden Complexities. New York: Basic Books. Varley, Rosemary, Klessinger, N., Romanowski, C. und Siegal, M. (2005). Agrammatic but numerate. Proceedings of the National Academy of Sciences, USA. 102, 3519 – 3524. Werning, Markus, Wolfram Hinzen, Edouard Machery (2012). The Oxford Handbook of Compositionality. Oxford: Oxford University Press. Whorf, Benjamin L., (1956). Language, Thought and Reality, Cambridge University Press: MIT Press. Edited by John B. Carroll. Willems, R. M., Benn, Y., Hagoort, Peter, Toni, I. und Varley Rosemary A. (2011). Communication without a functioning language system. Neuropsychologia, 49, 3130 – 3135. Wunderlich, Dieter (Hg.) (1976). Wissenschaftstheorie der Linguistik. Frankfurt, Athenaeum.
541
3. Philosophie der Soziologie Simon Lohse und Jens Greve
1 Einführung Der Term ›Philosophie der Soziologie‹ (bzw. ›Philosophy of Sociology‹) ist in der Literatur bislang wenig verbreitet. Dafür gibt es zwei Gründe. Zum einen ist die wissenschaftsphilosophische Reflexion auf die Soziologie häufig als Teil der Soziologie selbst geleistet worden. Zum anderen wurde und wird die Philosophie der Soziologie (PdS) oft als Teilaspekt einer allgemeinen Philosophie der Sozialwissenschaften aufgefasst, die sich nicht nur auf die Soziologie, sondern auch auf die Politikwissenschaft, die Kulturanthropologie, die Sozialpsychologie und mitunter auch auf die Ökonomie bezieht. Ein Überblick über den Forschungsstand einer übergreifenden Philosophie der Sozialwissenschaften in diesem Sinne ist aufgrund der voranschreitenden Spezialisierung sowie der unterschiedlichen Forschungsgegenstände und -traditionen der verschiedenen Sozialwissenschaften allerdings kaum zu leisten. Die im vorliegenden Sammelband vorgenommene Differenzierung in die Philosophien verschiedener Sozialwissenschaften erscheint vielmehr notwendig, auch wenn sich aufgrund von sachlichen Überschneidungen und der traditionellen Verbindung von PdS und Philosophie der Sozialwissenschaften nicht alle diskutierten Aspekte dieses Kapitels eindeutig von denjenigen der Philosophie der Politikwissenschaft, der Philosophie der Ökonomie und der Philosophie der Psychologie trennen lassen. Umgekehrt lassen sich auch Diskussionen um die Wertfreiheit politikwissenschaftlicher Forschung (↑ Philosophie der Politikwissenschaft) oder um den Begriff der Rationalität (↑ Philosophie der Psychologie) leicht auf die (Philosophie der) Soziologie beziehen. Die Einleitung unseres Kapitels1 bietet eine grundsätzliche Charakterisierung der Soziologie und zeichnet einige wichtige historische Entwicklungslinien der PdS nach. Im Hauptteil werden zentrale ontologische sowie ausgewählte explanatorische Themen der PdS vorgestellt. Im Schlussteil sollen einige aktuelle Diskussionen umrissen werden.
Wir bedanken uns bei zwei anonymen Gutachtern, Thomas Reydon, Nicolas Wüth rich und besonders bei Helmut Heit für die kritische Lektüre früherer Fassungen des Kapitels und wertvolle Verbesserungsvorschläge. 1
543
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
1.1 Was ist Soziologie? Will man die Bezugswissenschaft der PdS näher charakterisieren, stößt man auf die Schwierigkeit, dass es keine substantielle Beschreibung der Soziologie zu geben scheint, die unstrittig wäre. Der wesentliche Grund dafür ist die Tatsache, dass es bislang keine Einigkeit hinsichtlich der Grundfragen und Ziele des Faches gibt und innerhalb der Soziologie teils diametral entgegengesetzte Forschungsprogramme verfolgt werden. Zum gegenwärtigen Zeitpunkt gibt es eine Vielzahl extrem heterogener Forschungsprogramme inkl. zugehöriger Auffassungen davon, was eigentlich die Ziele und Methoden des Faches sind oder sein sollten2, so dass hier nur eine vage Charakterisierung gegeben werden kann: Soziologie ist diejenige Wissenschaft, die sich auf soziale Phänomene richtet.3 Mit sozialen Phänomenen sollen solche Phänomene bezeichnet werden, die aus dem Zusammenhang von mehreren Individuen hervorgehen oder auch in einem spezifischen Zusammenhang mehrerer Individuen bestehen. Typische Beispiele für soziale Phänomene sind Hochzeitsbräuche, Geschlechterrollen, Geld, Demonstrationen, Kleinfamilien, Universitäten, staatliche Bürokratien, religiöse Ideologien, Nationen sowie komplexe Ereignisse/Prozesse wie der Zweite Weltkrieg oder gesellschaftliche Strömungen wie die gesellschaftliche Modernisierung. Die Soziologie interessiert sich sowohl für das Zustandekommen, die Persistenz und die Veränderung dieser Phänomene als auch für deren Zusammenspiel mit anderen sozialen Phänomenen und deren Wirkungen auf individuelle Akteure und deren (soziales) Verhalten. Dabei zielt die Soziologie, im Gegensatz zur Geschichtswissenschaft, nicht primär auf historische Ereignisse in ihrer Einzigartigkeit, sondern zumeist auf (verhältnismäßig) allgemeine Deutungs- und Verhaltensmuster sowie Strukturen.
1.2 Geschichte der Philosophie der Soziologie Wie einleitend erwähnt, ist die PdS vielfach innerhalb der Disziplin selbst behandelt worden. Besonders bei den Gründungsvätern4 der Soziologie, Auguste Comte (gleichzeitig der Namensgeber der Disziplin), Herbert Spencer, Emile Durkheim und Max Weber wurden dabei oft das Verhältnis der Soziologie zu Es ist dabei kontrovers, ob sich dieser Zustand des Faches auf dessen Unreife als Wissenschaft im Sinne Kuhns oder die Struktur der Soziolog ie als genuin multiparadigmatische Wissenschaft zurückführen lässt (Schülein/Balog 2008). 3 Wir schreiben ›richtet‹ statt ›erklärt‹, da es keinen Konsens darüber gibt, ob die Soziolog ie überhaupt eine erklärende Wissenschaft sein kann oder soll. 4 Weitere Kandidaten für den Club der Gründungsväter der (Philosophie der) Sozio log ie, die wir hier aus Platzgründen nicht berücksichtigen, sind Karl Marx, Vilfredo Pareto, Georg Simmel und Ferdinand Tönnies (vgl. Turner, J., et al. 2002 für einen umfassenderen Überblick). 2
544
Philosophie der Soziologie
den übrigen Wissenschaften sowie das Verhältnis von Soziologie und Philosophie thematisiert. Comte (1974 [1842]) hat sich intensiv mit Fragen nach dem Zusammenhang unterschiedlicher wissenschaftlicher Disziplinen beschäftigt, die später unter dem Label ›Einheit der Wissenschaften‹ diskutiert worden sind. Innerhalb seiner Positiven Philosophie nimmt die Soziologie eine Sonderstellung ein, da sie die komplexeste aller Wissenschaften sei. Die Soziologie steht für Comte an der Spitze eines Evolutionsprozesses des wissenschaftlichen Denkens, der – wie auch der geistige Entwicklungsprozess der Menschheit im Ganzen – einem teleologischen »Dreistadiengesetz« folge. Wissenschaftliche Entwicklungsprozesse durchlaufen demnach zwei Entwicklungsstadien, ein theologisches und ein metaphysisches Stadium, bevor sie schließlich das positive (wissenschaftliche) Stadium erreichen. Comte geht nun davon aus, dass komplexere Wissenschaften sich erst entwickeln können, wenn die »darunter liegenden« Wissenschaften das positive Stadium erreicht haben: Chemie setzt bspw. die Entwicklung der Physik voraus, Biologie die Entwicklung der Chemie usw. Die Soziologie als höchste Wissenschaft setzt die Entwicklung aller anderen Wissenschaften voraus und baut auf deren Erkenntnissen und Methoden auf. Comtes Positive Philosophie geht davon aus, dass alle Phänomene in der Welt »unveränderlichen« Naturgesetzen folgen (Comte 1974, 465) – zugleich geht diese naturalistische Orientierung nicht mit der reduktionistischen These einher, dass es nur einen Typus von grundlegenden, etwa physikalischen, Gesetzen gebe, auf die alle Gesetze der anderen Wissenschaften reduzierbar wären. In der Soziolo gie etwa soll es darum gehen, die fundamentalen Gesetzmäßigkeiten der sozialen Welt ausfindig zu machen und analog zu den grundlegenden Naturwissenschaften seiner Zeit in Form von wenigen abstrakten Prinzipien zu formulieren (vgl. Turner, J. et al. 2002, 23). Gegenstand der Soziologie ist für Comte die Gattung der Menschheit, die aus einer Makroperspektive auf das gesellschaftliche Ganze betrachtet werden soll (Comte 1974, 25, 90, 461). Spencer geht es in seiner Synthetischen Philosophie vor allem um die Untersuchung eines allgemeinen Prinzips der Evolution mit Blick auf dessen vielfältige Ausformungen. Die Soziologie betrachtet er in dieser Linie als einen Anwendungsfall für ein solches Prinzip. Er kann damit auch als früher Vertreter einer evolutionären Sozialwissenschaft (Nelson 2006; Rosenberg 2012a) gelten, der – wie Comte – davon ausgeht, dass die soziale Welt allgemeinen Naturgesetzen gehorcht. Spencer begreift evolutionäre Prozesse in der Soziologie analog zu Prozessen, welche in biologischen Organismen stattfinden. Er sieht hierin freilich allein eine Analogie und führt dafür eine Reihe von Gründen5 an, von denen hier zwei wichtige genannt seien: Erstens fehle im Bereich der Gesellschaft eine Diffe Diese Gründe müssen freilich vor dem Hintergrund des viel breiteren Evolutionsbegriffs im 19. Jahrhundert verstanden werden, der u. a. die Ontogenese von Organismen beinhaltet. 5
545
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
renzierung von empfindenden (Nervenzellen) und nicht-empfindenden Einheiten und zweitens existiere Gesellschaft zum Nutzen ihrer Teile und nicht umgekehrt (Spencer 1966 [1897], 450). Gleichwohl rechtfertige u. a. die Kontinuität sozialer Strukturen, Gesellschaften in derselben Weise wie natürliche Organismen zu analysieren. Hier zeigt sich ein ungelöstes Problem in Spencers Soziologie: Sollen soziale Prozesse primär holistisch durch ihre Funktion für das Ganze erklärt werden (vgl. Abschnitt 2.2) oder liegt Spencers Soziologie nicht doch eine letztlich individualistische (sowie handlungstheoretisch-utilitaristische) Orientierung zugrunde? Auf diese Frage gibt es keine klare Antwort in Spencers Werk. Das Verhältnis von Individualismus zu Holismus sowie die Rolle funktionaler Erklärungen, welche sich auf das soziale Ganze beziehen, und solcher Erklärungen, welche an den Motiven der Individuen ansetzen, bleiben vielmehr ungeklärt – dies verweist auf eine bleibende Spannung innerhalb der Sozialtheor ie und der PdS. Durkheim ist derjenige Autor, der am deutlichsten eine holistische und antiutilitaristische Position entwickelt, die sowohl die Entwicklung der Soziologie als auch der PdS nachhaltig beeinflusst hat. »Soziologische Tatbestände« gelten ihm als Phänomene eigener Art, welche nicht auf individuelle Phänomene zurückzuführen sind. Sie seien vielmehr in der Lage, einen Zwang auf Individuen auszuüben, ohne dass dieser Zwang auf die Interessen der Handelnden zurückgeführt werden könne (Durkheim 1984a [1895]). Durkheim verwendet eine emergenztheoretische Argumentationsfigur (s. Abschnitt 2.1.2), die es erlauben soll, zu begründen, warum Gesellschaft zwar ohne Individuen nicht bestehen kann, gleichzeitig aber doch eine irreduzible Autonomie diesen Individuen gegenüber gewinnen kann. Durkheims explanatorisches Programm, welches sich direkt aus der Autonomieannahme soziologischer Tatbestände ergibt, geht von der These aus, dass sich soziale Phänomene nur durch andere soziale Phänomene, nicht durch Eigenschaften und Handlungen individueller Akteure erklären ließen (Durkheim 1984a, 193). Für Durkheim rechtfertigt diese These die Eigenständigkeit der Soziologie gegenüber der Psychologie. Einen wirkungsmächtigen Gegenpol zu Durkheims Position stellt die individualistische Fassung von Soziologie dar, welche sich bei Max Weber findet und an den auch die sozialphänomenologische Tradition (Schütz 1993 [1932]) anknüpft.6 In Webers Theorie (1980 [1922]) nimmt das soziale Handeln, d. h. das am Verhalten anderer orientierte Handeln, die Schlüsselrolle ein. Im Unterschied zur Geschichtsforschung richte sich die Soziologie auf sinnhaftes Geschehen unter Die sozialphänomenologische Schule in der Soziologie knüpft neben Weber insbesondere an Husserls Arbeiten an. Zentral ist die Betonung des Intersubjektivitätsproblems, welches sozialtheoretisch durch den Rekurs auf die Lebenswelt adressiert wird. Diese wird als eine Voraussetzung sozialen Handelns gesehen, welche als unproblematisch und geteilt vorausgesetzt wird. Hier berührt sich die Sozialphänomenologie stark mit pragmatistischen Traditionen (Mead, Dewey). Habermas (1987b) hat das Konzept der Lebenswelt in seine Gesellschaftsanalyse aufgenommen, der Sozialphänomenologie aber zugleich eine hermeneutisch verkürzte Sicht auf die Gesellschaft vorgeworfen. 6
546
Philosophie der Soziologie
dem Gesichtspunkt allgemeiner Typen und Regeln des Geschehens. Im Sinnbezug soziologischer Erklärungen, dem Verstehen-Können, sieht Weber dabei eine Mehrleistung gegenüber naturwissenschaftlichen Erklärungen (Weber 1980, 7). Im Gegensatz zu holistischen Auffassungen geht Webers Soziologie vom Individuum aus und konzeptualisiert soziale Phänomene als eine Orientierungskategorie individueller Akteure – einer Hypostasierung oder Verselbständigung sozialer Phänomene steht Weber ebenso skeptisch gegenüber wie funktionalistischen Erklärungsstrategien (in welchem Maße sich dennoch holistische Elemente in Webers Soziologie finden lassen, ist in der Weberforschung gleichwohl umstritten, vgl. Albert, G., 2005; Greve 2015a). Ein verhältnismäßig separater klassischer Forschungsstrang, der das Verhältnis von Soziologie und Philosophie zum Thema gemacht und weit in die allgemeine Wissenschaftsphilosophie hineingewirkt hat, liegt in der Wissenssoziologie (Maasen 1999; Knoblauch 2005; Schützeichel 2007). In der Wissenssoziologie wird u. a. die Reichweite der sozialen Bedingtheit des Wissens diskutiert (Durkheim und Mauss 1987 [1902]). Ist womöglich alles Wissen nur relativ zu bestimmten sozialen Verhältnissen gültig (vgl. Meja/Stehr 1982)? Besonders Mannheim (1985 [1936]) thematisiert damit für die Epistemologie ein Problem, welches im Hinblick auf die Frage der Rationalität und des Wissensfortschritts zunächst stärker in der Ethnologie diskutiert wurde: Lassen sich über verschiedene Kulturen hinweg einheitliche Standards formulieren, an denen gemessen werden kann, ob sich bestimmte Wissensformen als angemessener oder fortschrittlicher auffassen lassen als andere (vgl. auch die klassischen Beiträge zum Verstehen fremden Denkens in Wilson 2002)? Diskussionen wie diese fanden ihren Niederschlag in den 1970er Jahren vor allem im strong program der Edinburgh-School, das traditionelle wissenssoziologische Fragen aufnimmt (Bloor 1982) und für einen radikalen epistemischen Relativismus eintritt. Dieses insbesondere von Bloor (1976) formulierte und nicht zuletzt von Kuhn beeinflusste7 Forschungsprogramm weitet den Forschungsbereich der Wissenssoziologie im Sinne einer sociology of scientific knowledge explizit auf den Bereich naturwissenschaftlichen Wissens aus und wird bis heute äußerst kontrovers diskutiert (vgl. Kusch 2012). Gegen Mitte des 20. Jahrhunderts beginnt sich in der Nachfolge des Wiener Kreises und Poppers vor allem in der analytisch geprägten Philosophie eine Philosophy of the Social Sciences im Sinne einer eigenständigen Wissenschaftstheo rie 8 der Soziolog ie (bzw. der Sozialwissenschaften) mit einem professionellen Selbstverständnis herauszubilden (Neurath 1931; 1944; Popper 1945; 1969; Watkins 1952; 1957; Nagel 1961, Kap. 13, 14). Diese lässt sich jedoch nicht als homogene Subdisziplin der allgemeinen Wissenschaftsphilosophie, sondern eher als Allerdings nicht in seinem Sinne (Hoyningen/Lohse 2012). Ein wichtiger Vorläufer ist hier allerdings John S. Mill, der den Sozialwissenschaften einige Teile seiner Logic (1882) widmet. 7 8
547
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
ein Patchwork verschiedener philosophischer Bemühungen charakterisieren, die sich auf ontologische und explanatorische Grundlagenfragen der Soziologie sowie die Besonderheiten und Ziele der Disziplin und die Beschaffenheit soziologischen Wissens richten. Auch wenn hier vielfach keine geschlossenen Positionen erreicht wurden, lässt sich doch für den kritischen Rationalismus (insbesondere Albert, H. 1968; Popper 1969) ein methodologisch bedeutsamer Kern ausmachen, welcher in der Soziolo gie die Orientierung einer (individualistisch-)erklärenden Sozialtheor ie geprägt hat (Boudon 1980; Coleman 1990; Lindenberg 1990; Esser 1993 und neuerdings die analytische Soziologie, vgl. Hedström 2005; Demeulenaere 2011b). Gekennzeichnet ist diese Strömung einerseits durch eine Skepsis gegenüber großen Erzählungen über Gesellschaftsentwicklungen, sozialontologischen Betrachtungen und funktionalen Analysen sowie andererseits durch die Betonung des kausalerklärenden Charakters der Soziologie (häufig – jedoch nicht ausschließlich – mit Bezug auf Elemente einer Theor ie der rationalen Wahl, vgl. Norkus 2001). Die PdS hatte im 20. Jahrhundert häufig ein skeptisches und in gewisser Weise paternalistisches Verhältnis zu ihrer Bezugswissenschaft. Die Soziologie wurde im Kontrast zu Physik und anderen Naturwissenschaften als Proto-Wissenschaft angesehen, die kaum klare Erfolge hinsichtlich der Erklärung oder der Vorhersage sozialer Phänomene verbuchen konnte, keinen Konsens hinsichtlich der meisten zentralen Grundlagenfragen erzielt hatte und damit auf die Hilfe der Philosophie angewiesen war. Besonders in den Traditionslinien des an Comte anknüpfenden Neopositivismus und einer post-wittgensteinschen Philosophie der Sozialwissenschaften wurde daher eine Form von normativer Wissenschaftsphilosophie betrieben, die wenig Kontakt zur soziologischen Forschungspraxis suchte. Es wurde vielmehr darauf abgezielt, einheitliche Standards für gute sozialwissenschaftliche Erklärung aus einer allgemeinen Theor ie wissenschaftlicher Erklärungen abzuleiten (Hempel 1942) oder die ontologischen Ausgangspunkte der sozialen Welt durch philosophische Begriffsanalysen zum Vorschein zu bringen und dadurch a priori limitierende Rahmen für soziologische Theor ien bzw. Erklärungstypen zu begründen oder sichere ontologische Fundamente für soziologische Forschung zu etablieren (Winch 1958; 1964). Seit Ende des letzten Jahrhunderts lassen sich in der PdS, wie auch in anderen Philosophien der Einzelwissenschaften, zunehmend Entwicklungen ausmachen, die sich als Naturalisierung bezeichnen lassen. Viele Wissenschaftsphilosophen der Soziologie in der analytischen Tradition verstehen sich nicht mehr ausschließlich als Vertreter einer reinen Meta-Disziplin, die getrennt von der Soziologie operiert oder Grundlagenarbeit anstelle der Soziologie erledigt, sondern arbeiten an einer PdS, die offener für die Besonderheiten einer Wissenschaft des Sozialen und an einer engen Verbindung von philosophischer und soziologischer Forschung interessiert ist (Kincaid 2002; Guala 2007). Es kann dabei von einem Kontinuum zwischen soziologischer Theor ie und innersoziologischer Selbstreflexion auf der einen Seite und reiner Wissenschaftsphilosophie auf der anderen 548
Philosophie der Soziologie
Seite ausgegangen werden. Innerhalb dieses Kontinuums unterscheiden sich nicht so sehr die Fragen, sondern eher die theoretischen Zugriffe bei der Auseinandersetzung mit diesen. Es werden grundsätzlich ähnliche Probleme behandelt, diese werden jedoch – je nach Position im Kontinuum – unterschiedlich gerahmt und mit jeweils anderen Wissenstraditionen in Verbindung gebracht.
2 Hauptsächliche Themen der Philosophie der Soziologie 2.1 Zum Gegenstandsbereich der Soziologie In diesem Unterkapitel geben wir einen knappen Überblick über zwei wichtige (miteinander zusammenhängende) Themenfelder der PdS, die sich auf den Gegenstandsbereich der Soziologie beziehen. Beide haben ihre Ursprünge bereits bei den eingangs erwähnten kontinentalen Urvätern der Soziologie und den klassischen Auseinandersetzungen zwischen Positivisten und Vertretern einer hermeneutischen Wissenschaft des Verstehens. Gleichwohl werden sie auch in aktuellen Beiträgen zur PdS nach wie vor diskutiert. Zum einen geht es um die Frage, ob sich die soziale Welt womöglich signifikant von der ›natürlichen Welt‹ unterscheidet, von derjenigen Welt also, die primär von den Natur- und Lebenswissenschaften untersucht wird. Zum anderen geht es um Fragen nach der Klassifikation und dem Existenzmodus sozialer Phänomene. Inwiefern, falls überhaupt, lassen sich soziale Phänomene in social kinds klassifizieren? Auf welche Weise existieren soziale Phänomene, und wie genau hängen sie mit mentalen und physischen Phänomenen zusammen?
2.1.1 Zur Differenz von natürlicher und sozialer Welt Diejenigen Autoren, die für eine bedeutsame Verschiedenheit von sozialer und natürlicher Welt argumentieren, stützen sich entweder (I) auf den (möglicherweise) besonderen Status von Sinnzusammenhängen und Gründen als konstitutive Aspekte von Handlungen oder (II) sie vertreten eine Form des »nomologischen Skeptizismus« (Salmon, M. 1989, 387) – oder beides. (I) In der Nachfolge von Dilthey (1883), Collingwood (1946) und dem späten Wittgenstein (1953) und im Kontrast zu Comtes und Spencers Positivismus ist von Vertretern einer hermeneutischen Perspektive auf die Soziologie bzw. die Sozialwissenschaften häufig betont worden, dass die soziale Welt sich trotz Zugehörigkeit zum gleichen Universum (metaphysischer Monismus) bedeutsam von derjenigen der Naturwissenschaften unterscheide, da sie wesentlich durch subjektive Motive, Überzeugungen und Gründe konstituiert sei. Die soziale Welt sei insofern ontologisch abhängig von subjektiven Sinn- oder Bedeutungszuweisungen (Hayek 1942; 1943; Blumer 1973; Schütz 1993; Winch 1958; Taylor 1971; Ge549
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
ertz 1983).9 Besonders der spezifische Zusammenhang von Handlungsgründen und Handlungen markiert für viele Autoren in der hermeneutischen Tradition (auch Interpretationismus genannt) eine zentrale Differenz zur natürlichen Welt. Menschliche Handlungen und Handlungszusammenhänge – für viele Soziologen die zentralen Basiselemente der sozialen Welt – sind demnach nicht nur besonders komplexe Phänomene, die aufgrund dieser Komplexität schwer zu erklären und kaum verlässlich zu prognostizieren sind (so schon Mill 1882 [1843]: Buch VI, Kap. 6, 9). Sie weisen vielmehr einen qualitativen Unterschied zu physikalischen Phänomenen auf, da sie sich nicht erschöpfend als Bewegungen materieller Körper, die in raumzeitlichen und kausalen Relationen zueinander stehen, charakterisieren lassen. Vielmehr muss eben Sinn in Form von Handlungsgründen hinzukommen, damit nicht nur ein Verhalten (z. B. eine Armbewegung) gezeigt, sondern tatsächlich eine Handlung (z. B. ein Gruß) vollzogen wird. Handlungsgründe und Handlungen stehen allerdings, so die Befürwortern der sinnbasierten Differenzthese, in keiner kausalen Beziehung zueinander. Sie sind vielmehr begrifflich oder logisch miteinander verknüpft und insofern nicht voneinander unabhängig – was seit Hume als eine notwendige Bedingung dafür gilt, Relata einer Kausalrelation sein zu können. Wenn eine Handlung vollzogen wird, weil es einen Grund für diese Handlung gibt, so ist dieses ›weil‹ demnach nicht kausal, sondern begrifflich-normativ zu verstehen. Handlungsgründe rationalisieren Handlungen und machen sie damit erst als Handlung verständlich; sie verursachen die Handlungen aber nicht (von Wright 1971, 93 ff.; Tanney 2013). Die soziale Welt kann daher im Gegensatz zur natürlichen Welt nicht ausschließlich als Kausalnexus charakterisiert werden, sondern sie muss als wesentlich durch begriffliche Beziehungen und Normativität gekennzeichnet gelten. Die grundlegende Annahme eines nicht-kausalen Zusammenhangs von Handlungsgründen und Handlungen ist auf gravierende Kritik gestoßen. Davidsons Aufsatz Actions, Reasons, and Causes (1963) gilt als Meilenstein dieser Kritik. Davidson vertritt die These, dass diejenigen Gründe, die eine Handlung nicht nur rationalisieren, sondern eben die tatsächlichen Handlungsgründe sind, gerade doch als mentale Ursachen dieser Handlung gelten müssten und folglich Relata einer Kausalrelation seien. Davidsons Argumentation ist ein wichtiger Grund dafür, dass die Mehrheit der zeitgenössischen Philosophen der Soziologie das Argument der begrifflichen Verknüpfung von Grund und Handlung als endgültig widerlegt ansieht (vgl. Tanney 1995). Mit Blick auf neuere Beiträge zum Verhältnis von Ursachen und Gründen erscheint dieses Urteil freilich voreilig. Tatsäch Häufig wird diese Unterscheidung ausschließlich als ein Unterschied der epistemischen Weltzugänge von verstehenden Geistes- bzw. Sozialwissenschaften und erklärenden Naturwissenschaften aufgefasst. Allerdings liegen der angenommenen Notwendigkeit unterschiedlicher Weltzugänge in der Regel bestimmte, teils implizite, Vorstellungen über die soziale Welt zugrunde. Es gibt daher auch eine ontologische Dimension der relevanten Debatten, die hier beleuchtet werden soll (vgl. dazu Roth 2011, 109 ff.). 9
550
Philosophie der Soziologie
lich ist weiterhin kontrovers, ob und inwiefern Gründe Ursachen für Handlungen sein können und ob sich daraus ggf. eine bedeutsame Verschiedenheit von sozialer und nicht-sozialer Welt ergibt (vgl. z. B. Stoutland 1986; Mayr 2011; Tanney 2013; D’Oro,/Sandis 2013). Eine mit dieser Kontroverse zusammenhängende Streitfrage ist, ob es sich bei Handlungsgründen überhaupt um subjektive mentale Zustände der Akteure handeln kann. Einige Autoren gehen davon aus, dass Gründe Teil einer kollektiven Lebensform oder Praxis sind und insofern als objektive Gründe angesehen werden müssen, die Teil eines Netzes aus sozialen Konventionen und geteilten Erwartungs- und Deutungsmustern einer Gemeinschaft sind (Brandom 2002; Risjord 2005; ähnlich bereits Winch 1958 und Taylor 1971). (II) Mit dem Begriff des nomologischen Skeptizismus sind Positionen in der PdS angesprochen, die die Existenz von sozialen Gesetzen (social laws), also Gesetzen sozialer Phänomene, verneinen oder der Existenz solcher Gesetze zumindest skeptisch gegenüber stehen. Die Einschätzung der Überzeugungskraft von skeptischen Argumenten hängt natürlich damit zusammen, was genau man unter ›Gesetz‹ in den Einzelwissenschaften versteht. Vertritt man einen starken Gesetzesbegriff, der universelle Gültigkeit und empirische Notwendigkeit beinhaltet, gibt es vermutlich keinen einzigen Fall eines sozialen Gesetzes. Nimmt man einen schwächeren Gesetzesbegriff im Sinne von (einigermaßen) stabilen empirischen Regularitäten an, so scheint es zumindest einige Kandidaten für soziale Gesetze zu geben. Die orthodoxe Position innerhalb der zeitgenössischen PdS ist, dass es keine (Natur-)Gesetze der sozialen Welt gibt, die ausnahmslos gelten und kontrafaktische Konditionale stützen, und dass es strittig ist, ob die Soziologie stabile, d. h. konkrete örtliche und zeitliche Kontexte übergreifende, empirische Regularitäten auf der Ebene sozialer Phänomene entdeckt hat bzw. ob es diese überhaupt geben kann (vgl. Kincaid 1996, Kap. 3; 2004).10 Der nomologische Skeptizismus wird von Interpretationisten oftmals als logische Konsequenz ihrer Position angesehen (vgl. dagegen Mantzavinos 2012). Es gibt allerdings auch eine Reihe von andersgelagerten Argumenten, die erklären sollen, weshalb die Soziologie bislang (angeblich) keine sozialen Gesetze (im Sinne von stabilen sozialen Regularitäten) entdeckt hat, von denen hier vier skizziert werden: (1) Einige Autoren gehen davon aus, dass menschliche Handlungen und die von uns hervorgebrachten sozialen Phänomene so komplex sind, dass es uns (bislang) nicht gelungen ist, soziale Gesetze zu entdecken (Mill 1882; Scriven 1994). Es spielen schlicht zu viele Faktoren (bspw. ineinandergreifende Handlungen, institutionelle Kontexte) eine Rolle, als dass es der Soziologie hätte gelingen können, die dahinter stehen Regularitäten zu entdecken. Ob es sich dabei um einen vorübergehenden Zustand handelt, der dem verhältnismäßig jungen Alter der Soziologie geschuldet ist, oder um einen dauerhaften Zustand, der mit der extre An diesem Punkt spielen also sowohl ontologische als auch epistemologische Aspekte eine Rolle. 10
551
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
men Komplexität sozialer Phänomene und unseren epistemischen Limitationen zusammenhängt, ist strittig (McIntyre 1993). (2) Möglicherweise sind methodologische Restriktionen dafür verantwortlich, dass bislang (womöglich) keine sozialen Gesetze entdeckt worden sind. Soziologen können zwar auf statistische Daten zurückgreifen, Umfragen und Interviews sowie ethnographische Studien durchführen. Doch die Komplexität vieler sozialer Phänomene lässt sich durch diese Methoden nur ungenügend und teilweise nur wenig systematisch erfassen. Die Durchführung von kontrollierten Experimenten, eine der wichtigsten naturwissenschaftlichen Methoden zur Entdeckung und Validierung von Naturgesetzen, ist in der Soziologie häufig aus pragmatischen Gründen nicht möglich oder muss extreme Vereinfachungen und gravierende reaktive Verzerrungen aufgrund des Einflusses der Experimentalsituation auf das Verhalten der Probanden in Kauf nehmen (Jackson/Cox 2013; Scholl 2013; Keuschnigg/Wolbring 2015). Häufig sprechen zudem moralische Gründe gegen die Durchführung von sozialen Experimenten und besonders gegen die Durchführung verdeckter Experimente, die reaktive Verzerrungseffekte vermeiden sollen – wie auch gegen die Durchführung verdeckter Umfragen, Interviews oder Beobachtungen. In vielen Fällen ist es daher nicht möglich, verschiedene Einflussgrößen sozialer Phänomene objektiv zu messen und voneinander zu isolieren, um so den (möglicherweise existierenden) Gesetzen der sozialen Welt auf die Spur zu kommen (vgl. Rosenberg 2012b, 14 ff.). (3) Stephan (2011) geht davon aus, dass die soziale Welt nicht nur durch hohe Komplexität, sondern gleichsam durch deterministisches Chaos gekennzeichnet ist, so dass bereits kleinste Veränderung innerhalb eines sozialen Systems zu gravierenden nicht-linearen Veränderungen oder qualitativen Umschwüngen des sozialen Gesamtsystems führen, die sich prinzipiell nicht von uns prognostizieren lassen. Die Entdeckung von empirischen Regularitäten könnte somit unmöglich sein, obwohl soziale Prozesse streng deterministisch verlaufen. (4) Die Entdeckung empirischer Regularitäten hängt davon ab, dass wir die Welt in geeigneter Weise klassifizieren. McIntyre (1993) macht geltend, dass die derzeitige Klassifizierungspraxis der Soziologie durch unsere folk sociology geprägt ist. Als Folge davon sind die derzeitigen deskriptiven Begriffe der Soziologie womöglich auf einem suboptimalen Beschreibungslevel angesiedelt oder nicht nah genug an der tatsächlichen Struktur der sozialen Welt. Sie repräsentieren daher keine social kinds, die Grundlage sozialer Gesetze sein könnten. Ob es überhaupt social kinds gibt und ob diese analog zu natural kinds (↑ Philosophie der Biologie) zu verstehen sind, wird allerdings kontrovers diskutiert. (Wir kommen im nächsten Abschnitt darauf zurück.) Nicht alle Philosophen der Soziologie sind davon überzeugt, dass die Soziologie noch keine Gesetze entdeckt hat. Einige Autoren nehmen an, dass tatsächlich Gesetze sozialer Phänomene entdeckt worden sind, diese jedoch nicht ausnahmslos gelten (Kincaid 1990). Kandidaten für solche sozialen Gesetze sind:
552
Philosophie der Soziologie
– In jeder Organisation, auch dann, wenn ihre Führung demokratisch gewählt wurde, kommt es zur Bildung einer Oligarchie, einer machtpolitischen Herrschaft des Führungszirkels über die Mitglieder (Michels 1908). – Je stärker eine Gesellschaft funktional differenziert ist, desto verbreiteter sind individualistische Werthaltungen innerhalb dieser Gesellschaft (Schimank 1996, 26 ff.). Soziale Gesetze wie diese gelten nicht ausnahmslos, sondern nur ceteris paribus – also unter bestimmten Umständen oder Rahmenbedingungen. Nach Cartwright (1983) sind ceteris-paribus-Gesetze nun aber keine Besonderheit der Sozialwissenschaften (wie der Soziologie), welche diese von den Naturwissenschaften unterscheiden, da selbst die Naturgesetze der Physik nicht ausnahmslos gelten (vgl. auch Woodward 2000). Gegen diese Analogisierung spricht, dass die ceteris-paribus-Bedingungen in der Soziologie – im Gegensatz zu den (physikalischen) Naturwissenschaften – unklar sind und nicht präzise genug ausbuchstabiert werden können, da es zumeist eine unüberblickbar große Anzahl möglicher Einflussfaktoren gibt und diese Faktoren teilweise opak sind (Bhargava 2008, 92, für eine optimistischere Einschätzung vgl. Kincaid 1990). Trifft das zu, so wäre ceteris paribus nur noch ein Platzhalter für die Formulierung ›wenn nichts Unerwartetes dazwischen kommt‹, womit die vermeintlichen sozialen Gesetze empirisch nicht gehaltvoll wären (vgl. zur allgemeinen Debatte um cp-Gesetze in den Einzelwissenschaften Earman et al. 2002; Schrenk 2007).
2.1.2 Klassifikation und Existenzweise sozialer Phänomene Blickt man auf die Klassifikation sozialer Phänomene in der Soziologie, so ist festzustellen, dass es weder Einigkeit hinsichtlich der Intension und der Extension sozialer Begriffe noch hinsichtlich einer allgemeinen Taxonomie sozialer Phänomene gibt. Der Term ›Institution‹ etwa bezeichnet bei einigen Autoren soziale Strukturen, wird aber auch als äquivalente Bezeichnungen für Organisationen oder zur Bezeichnung ganzer Systeme sozialer Regeln und Praktiken eingeführt (vgl. Miller 2012). Ein hauptsächlicher Grund für diese Situation ist die Schulenvielfalt und die damit verbundene Uneinigkeit hinsichtlich zentraler Grundbegriffe innerhalb der Soziologie. Es scheint allerdings einige Gemeinsamkeiten bei den theoretischen Grundlagen der Klassifikation sozialer Phänomene zu geben. Viele Autoren der PdS gehen davon aus, dass social kinds (z. B. Universitäten, Geschlechterrollen) bestimmte Eigenschaften haben, aufgrund derer sie sich von natural kinds (z. B. Elektronen, Wasser) unterscheiden. Diese These wird hauptsächlich mit drei Argumenten untermauert. (1) Social kinds scheinen im Gegensatz zu natural kinds nicht auf unabhängig von uns gegebenen Ähnlichkeitsbeziehungen zu basieren, sondern veränderlich und in gewisser Weise künstlich zu sein. Menschen erschaffen die klassifizierten sozialen Phänomene 553
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
erst und tragen dazu bei, dass diese sich kontinuierlich verändern. Soziale Phänomene sind dabei nicht nur kausal von uns abhängig, sondern sie werden maßgeblich erst durch unsere Vorstellungen und Handlungen konstituiert und sind ontologisch abhängig von sozialen, zeitlichen und örtlichen Kontexten (Hayek 1943; Searle 1995). Aufgrund dieser ontologischen Abhängigkeiten und den damit verbundenen Kontingenzen können sie nicht Elemente von Naturgesetzen sein. Root (2000) betont allerdings, dass social kinds, die Teil unserer Alltagsinterpretationen und sozialen Praktiken sind, trotzdem als reale kinds mit explanativer Kraft gelten können. (2) Nach Hacking (1995; 2007) sind social kinds nicht nur ontologisch von unseren Vorstellungen und Handlungen abhängig, sondern sie führen zu Loopingeffekten (vgl. auch Giddens 1984): Handlungen und soziale Situation können von Akteuren unterschiedlich beschrieben bzw. interpretiert werden. Die Selbst- und Fremdbeschreibungsmöglichkeiten der Akteure sind dabei u. a. von den verfügbaren sozialwissenschaftlichen Klassifikationen abhängig und führen gelegentlich zu Neubeschreibungen bzw. Neuinterpretationen von Handlungstypen, Situationen oder Kollektivphänomenen (z. B. dann, wenn bestimmte Handlungen nicht mehr als ›kriminell‹, sondern als ›Folge psychischer Erkrankungen‹ klassifiziert werden). Diese Neuinterpretationen haben u. U. zur Folge, dass sich dadurch die Erfahrungen der Akteure sowie deren Handlungsmotive und Handlungen entscheidend verändern und soziale Praktiken transformiert werden. Es kommt also zu Rückkopplungseffekten der Klassifikationen mit den klassifizierten Phänomenen. Diese haben wiederum Konsequenzen für sozialwissenschaftliche Klassifizierungen, da sich die sozialen Phänomene nun verändert haben (2. Rückkopplungseffekt). Ob es sich bei Loopingeffekten tatsächlich um eine Besonderheit von social kinds handelt, wird in neueren Beiträgen zur Debatte bezweifelt. Khalidi (2010) behauptet, dass auch bestimmte biologische Klassifikationen zu analogen Interaktionseffekten führen (↑ Philosophie der Biomedizin). (3) Viele soziologische Begriffe sind offenbar normativ aufgeladen (man denke an Begriffe wie ›Revolution‹ oder ›Mafia‹). Bei diesen Begriffen scheint es so zu sein, dass es einen deutlichen Bezug auf die sozialen und moralischen Werte einer Gemeinschaft gibt. Doch auch hier ist kontrovers, ob es sich um eine Besonderheit von social kinds handelt oder ob es auch in anderen Klassifikationsdomänen wertgeladene kind-Begriffe gibt. Searle (1995, 13 ff.) etwa behauptet, dass Funktionszuschreibungen in der Biologie notwendig Wertungen voraussetzen. Falls das zutreffend ist, würde es dafür sprechen, dass biologische kind-Begriffe mit funktionalem Bezug ebenfalls normativ aufgeladen sind (vgl. dazu Weber, Marcel 2007). Wir kommen nun zur Existenzweise sozialer Phänomene. Dass soziale Phänomene in gewisser Weise von menschlichen Vorstellungen und Handlungen hervorgebracht werden, wird von den meisten Autoren nicht bestritten. Allerdings sind die genaue Form der ontologischen Abhängigkeitsbeziehung sowie die daraus folgenden Implikationen für die Existenzweise sozialer Phänomene extrem kon554
Philosophie der Soziologie
trovers. Der einschlägige Diskurs hat seine Anfänge bei Durkheim (1984a[1895]), Tarde (1969, 2009 [1890]) und Weber (1980 [1922]) und wird heute zumeist mit dem Begriffspaar Individualismus/Holismus (oder auch agency/structure) verbunden. Aus mehreren Gründen hält die Diskussion um den Individualismus/ Holismus bis heute an. Dazu gehört sicher, dass die beiden Seiten der Unterscheidung unterschiedlich verstanden werden und sich in Abhängigkeit der Begriffsbestimmung unterschiedliche Plausibilitäten für die jeweils andere Seite der Unterscheidung ergeben. Zudem weisen die einschlägigen Diskussionen ontologische, semantische und explanatorische Aspekte auf, die nicht immer klar voneinander unterschieden worden sind (Little 1991, 182 ff.; Zahle 2007). Wir widmen uns in diesem Abschnitt den ontologischen Aspekten und kommen in Abschnitt 2.2 kurz auf explanatorische Fragen in diesem Zusammenhang zu sprechen. Zunächst sollen zwei verbreitete, aber wenig fruchtbare Lesarten des ontologischen Individualismus/Holismus ausgeschlossen werden. Individualistische Autoren haben häufig behauptet, dass die Gegenposition zum Individualismus ein radikaler Holismus sei. Dieser behaupte, dass soziale Phänomene oder soziale Kräfte eine vollkommene Autonomie gegenüber den individuellen Akteuren gewönnen und menschliche Handlungen oder auch den Verlauf der Geschichte auf undurchsichtige Weise im Sinne eines frei schwebenden »Gruppengeistes« determinierten (Agassi 1960). Eine solche Position lässt sich zwar in einigen Passagen von Sozialtheoretikern des 19. Jahrhunderts finden; besonders Hegel, Marx und Comte wären hier zu nennen. Sie wurde und wird innerhalb der Soziologie des 20./21. Jahrhunderts allerdings schlicht nicht vertreten. Die entgegengesetzte und wenig fruchtbare Variante lässt sich als Eliminativismus bezeichnen. Hierunter werden Positionen gefasst, die die Realität sozialer Phänomene gänzlich bestreiten bzw. behaupten, dass diese bloße Konstrukte sozialwissenschaftlicher Theoretiker seien (vgl. Heintz 2004). Zwar finden sich bspw. bei Hayek (1943) und Collins (1981) durchaus Passagen, die in diese Richtung weisen, doch scheint es sich bei näherem Hinsehen hier wie auch bei den meisten anderen prima facie eliminativistischen Forschungsprogrammen tatsächlich um reduktionistische Positionen zu handeln, die darauf abzielen, soziale Phänomene ontologisch (und explanativ) auf Individuen und deren Vorstellungen und Interaktionen zurückzuführen – nicht jedoch die Existenz sozialer Phänomene per se zu bestreiten (Vanberg 1975, 99 f.).11 Beide Varianten sind somit nicht besonders attraktiv für die PdS. Die interessante Diskussion um den ontologischen Individualismus/Holismus spielt sich vielmehr zwischen Vertretern ab, die einen reduktiven Individualismus und einen moderaten Holismus behaupten (Albert, G., 2005, 2013). Diese Posi Das wird vielleicht durch eine Analogie klarer: Auch wenn sich ein Stein insofern ontologisch reduzieren lässt, als gezeigt werden kann, dass er aus nichts weiter besteht als Atomen, die auf eine bestimmte Weise arrangiert sind, so ist dieser Stein dennoch real. 11
555
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
tionen teilen sowohl die Ansicht, dass soziale Phänomene real sind, als auch, dass diese in ontologischer Abhängigkeit von individuellen Akteuren existieren oder als (häufig nicht-intendierte) Effekte aus Interaktionen menschlicher Akteure hervorgehen. Die entscheidende Differenz liegt in der jeweiligen Antwort auf die Fragen, ob soziale Phänomene in gewisser Weise sui generis existieren und ob sie eine Form von Abwärtskausalität auf individuelle Akteure ausüben können. Der Kerngedanke des reduktiven Individualismus ist, dass nur Individuen kausal wirksame Akteure sind. Es gibt weder genuine Gruppenakteure mit eigenen Zielen und Intentionen (oder andere Phänomene sui generis auf der Ebene des Sozialen) noch soziale Abwärtskausalität. Vertreter des reduktiven Individualismus gehen vielmehr davon aus, dass soziale Phänomene und soziale Kräfte auf einem individuellen Level realisiert sein müssen und insofern real, aber auf die Handlungen individueller Akteure und deren Interaktionen reduzierbar sind. Innerhalb der zeitgenössischen Diskussion wird das Abhängigkeitsverhältnis zwischen sozialen Eigenschaften/Tatsachen und individuellen Eigenschaften/Tatsachen gelegentlich als Supervenienzbeziehung (vgl. dazu McLaughlin/Bennett 2014) aufgefasst (Currie 1984; Sawyer 2002b; Zahle 2007). Gemeint ist dabei zumeist eine globale Supervenienzbeziehung, die nur sehr minimale Annahmen macht: »[…] any possible worlds that are identical with respect to all individual-level facts will necessarily be identical with respect to all social facts« (List/ Spiekermann 2012, 632). In welchem Maße diese Annahme mit reduktiven oder nichtreduktiven Modellen vereinbar ist oder der Debatte überhaupt nutzt, ist in der Forschung umstritten (Epstein 2007; Zahle 2007). Was unter ›individueller Eigenschaft‹ oder ›individueller Tatsache‹ verstanden wird, ist häufig nicht eindeutig und ein Kernproblem der Debatte (Epstein 2014). Reduktiver Individualismus kann einmal Atomismus meinen: dann würde der Anspruch des Individualismus besagen, dass alle sozialen Phänomene ontologisch auf isoliert vorgestellte Individuen in einer physikalischen Umwelt zurückgeführt werden können. Diesen a-sozialen Individuen werden dabei stabile psychische Eigenschaften (z. B. bestimmte Präferenzen) unterstellt, die nicht abhängig von den Beziehungen zu anderen Individuen sind. Diese Vorstellung wird häufig als zu eng und letztlich unplausibel zurückgewiesen (vgl. Hayek 1949: Kap. 1; Demeulenaere 2011a; Greve 2015a). Zum anderen kann reduktiver Individualismus auch als relationale Position aufgefasst werden (vgl. stellvertretend für viele Bunge 1979, der von einer systemischen Betrachtungsweise spricht). Die grundsätzliche Vorstellung ist dann, dass soziale Phänomene durch sozial eingebettete Individuen, deren Vorstellungen, wechselseitige Verhaltenserwartungen und Interaktionen in und mit einer physikalischen Umwelt etabliert und aufrechterhalten werden oder als (häufig nicht-intendierte) Konsequenzen aus diesen Interaktionen hervorgehen. ›Sozial eingebettet‹ meint hier, dass Individuen in einem Netzwerk von Beziehungen (z. B. Freundschaften oder Arbeitsverhältnisse) existieren, welche einen Einfluss auf die Verhaltensweisen und die psychischen Eigenschaften der Individuen haben. Welchen ontologischen Status diese 556
Philosophie der Soziologie
Relationen haben, ist allerdings kontrovers (Greve 2015a, Kap. 8). Einmal werden Relationen als extrinsische Eigenschaften von Individuen, insbesondere als miteinander verzahnte Erwartungen von Individuen verstanden (Weber 1980; Esser 1993). Daneben wird sozialen Relationen von einigen Autoren eine gewisse Eigenständigkeit zugesprochen, insofern diese auch unabhängig von handelnden Individuen bestehen könnten (Hayek 1943; Coleman 1990). Positionen wie die letztgenannte scheinen sowohl individualistische als auch holistische Aspekte aufzuweisen und lassen sich womöglich nicht mehr eindeutig dem reduktiven Individualismus zuordnen (vgl. Udehn 2002). Die Frage nach der Existenzweise des Sozialen stellt sich für zeitgenössische Gegner des Individualismus mit Nachdruck, weil moderate Holisten davon ausgehen, dass so etwas wie eine soziale Substanz oder ein eigenständiger Gruppengeist nicht existiert (s.o.). Soziale Phänomene müssen vielmehr in und durch Individuen realisiert werden. Wie aber sind dann der (angenommene) sui-generis-Charakter sozialer Phänomene oder die Fähigkeit, eigenständige kausale Einflüsse auf Individuen auszuüben, überhaupt vorstellbar? Auf diese Frage antworten zeitgenössischen Holisten vor allem mit Argumenten, die für die Existenz von Pluralakteuren sui generis sprechen, oder mit emergentistischen Argumenten. Autoren, die für die Existenz von genuinen Pluralakteuren argumentieren, lassen sich u. a. in der Diskussion um die Grundlagen von »kollektiver Intentionalität« finden (Schmid/Schweikard 2009).12 Pettit/List (2011) sowie Tollefsen (2002) versuchen zu zeigen, dass soziale Phänomene wie Parteien oder Organisationen unter bestimmten Umständen buchstäblich als intentionale Akteure angesehen werden können. Sie argumentieren für diese These, indem sie zu zeigen versuchen, dass einige Organisationen bzw. Parteien allgemein akzeptierte Kriterien dafür erfüllen, intentionale Zustände sowie Rationalität zu besitzen. Abgestützt wird diese These durch die Annahme, dass Gruppenakteure eigenständige Zentren von intentionalen Einstellungen und Handlungen hätten, die in gewisser Weise über die Intentionalität derjenigen Individuen hinausreichten, die Mitglied der jeweiligen Organisation oder Partei sind (Pettit/Schweikard 2006). Der Mainstream innerhalb der Diskussion um Pluralsubjekte und kollektive Intentionalität (Gilbert 1989; Searle 1995; Tuomela 1995; Bratman 1999; vgl. auch Schmid/ Schweikard 2009) bestreitet die buchstäbliche Existenz von Gruppenakteuren allerdings und ist daher mit dem reduktiven Individualismus vereinbar (vgl. Schmid 2009; Greve 2015a, Kap. 8). Soziale Emergentisten gehen davon aus, dass es irreduzible systemischen Eigenschaften sozialer Phänomene wie Organisationen oder öffentlicher Versamm Die Diskussion um kollektive Intentionalität ist u. E. zu großen Teilen nicht der PdS im engeren Sinne zuzuordnen, da die meisten einschlägigen Autoren kaum Bezug auf soziologische Forschung nehmen, sondern eher eine Form der analytischen Sozial ontologie betreiben (z. B. Searle 2010, 5, 62; Tuomela 2002, 5 ff., 78). Da die Diskussion allerdings von einigen Philosophen der PdS rezipiert wird (Guala 2007; Mantzavinos 2009), wird sie hier zumindest kurz berücksichtigt. 12
557
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
lungen gibt. Diese Irreduzibilität kann bspw. dadurch begründet sein, dass sich die Eigenschaften eines sozialen Ganzen trotz vollständigen Wissens über die Eigenschaften seiner Bestandteile (besonders Individuen), deren Verhalten in anderen Zusammenhängen und der Konfiguration des sozialen Ganzen prinzipiell nicht aus diesem Wissen ableiten lassen kann (vgl. Lohse 2011). Eine zweite Variante schließt an Durkheim (1976 [1898]) an. Die Idee ist hier, dass es irreduzible kausale Kräfte gibt, die aus dem Zusammenspiel von individuellen Akteuren hervorgehen und auf individuelle Akteure wirken (Luhmann 1986, 1997; vgl. dazu Heintz 2004). Besonders Sawyer (2002a, 2002b, 2003, 2005) ist es zu verdanken, die Relevanz der Emergenzdebatte für die Soziologie erneut – und auf dem aktuellen Stand der philosophischen Diskussion – zu Bewusstsein zu bringen. Dabei wird die in der Philosophie des Geistes geführte Debatte um die Möglichkeit eines nicht- reduktiven Physikalismus (Fodor 1974; Kim 1998) auf das Verhältnis sozialer und individueller Phänomene übertragen (nicht-reduktiver Individualismus als Variante eines moderaten Holismus) (vgl. Greve/Schnabel 2011). Sawyer macht dabei insbesondere das von Putnam (1967) und Fodor (1974) entwickelte Argument der multiplen Realisierung stark. Demnach lassen sich höherstufige Phänomene (z. B. Universitäten) oder Zusammenhänge auf einer sozialen Makroebene (z. B. ›Protestantismus führt zu Kapitalismus‹) nicht reduktiv erklären, wenn diese durch eine unüberschaubare Vielzahl an heterogenen Konstellationen auf der Ebene individueller Akteure realisiert werden können (was vorausgesetzt wird). Die multiple Realisierbarkeit führe unter bestimmten Umständen dazu, dass reduktive Erklärungen nicht nur unübersichtlich, sondern auch uninformativ wären, da keine Typenreduktion gelingen könne. Sawyer (2003) erweitert diese These insofern, als er zu zeigen versucht, dass sich darauf aufbauend für eine Form der sozialen Kausalität argumentieren lässt. Ob dies allerdings gelingt und multiple Realisierbarkeit der Reduzierbarkeit sozialer Phänomene prinzipiell entgegensteht, ist umstritten (Greve 2010, 2013; Sawyer 2012). Mit Blick auf die Diskussion um soziale Emergenz sind drei Dinge hervorzuheben. Erstens spielen in dieser Diskussion sowohl ontologische Aspekte (z. B. die multiple Realisierbarkeit von sozialen Phänomenen) als auch explanatorische Aspekte eine Rolle: Es macht bspw. einen gravierenden Unterschied für die Einschätzung der Argumente pro prinzipielle Irreduzibilität, ob man von Typenreduktion gemäß Nagel oder einer Form der funktionalen Reduktion ausgeht, die darauf zielt, diejenigen individualistischen Faktoren zu identifizieren, welche die gleiche kausale Rolle wie bestimmte soziale Phänomene spielen (Zahle 2007). Zweitens ist es tatsächlich notwendig, für eine Form der starken (d. h. ontologischen) Emergenz zu argumentieren, will man den reduktiven Individualismus emergenztheoretisch angreifen. Formen der schwachen (also nur wissensrelativen) Emergenz sozialer Phänomene sind nämlich mit dem reduktiven Individualismus grundsätzlich kompatibel (Lohse 2011). Drittens spricht die verbreitete Verwendung von Begriffen auf einer sozialen Makroebene (Organisation, Krieg 558
Philosophie der Soziologie
etc.) nicht gegen die prinzipielle Möglichkeit der Reduzierbarkeit der entsprechenden sozialen Phänomene (Elster 2007, 13 f.; Heil 1999). In den letzten Jahren ist vermehrt die Möglichkeit einer Überwindung des Gegensatzes von Individualismus und Holismus diskutiert worden. Besonders sog. Praxistheor ien (neben Netzwerktheor ien (Häußling 2008)) und zuvor der sozialphänomenologischen Perspektive von Berger/Luckmann (1994 [1966])) gelten als mögliche Kandidaten für einen vermittelnden neuen Weg in der Sozialontologie (Bourdieu 1979; Bourdieu/Wacquant 1992; Giddens 1984; Reckwitz 2012). Eine grundsätzliche Strategie moderner Praxistheoretiker ist es, für ein wechselseitiges Konstitutionsverhältnis von Handlungen bzw. Handlungsfähigkeit (agency) und sozialen Praktiken zu argumentieren (Schatzki 2002; Risjord 2014a). Einige Autoren in der post-strukturalistischen Tradition gehen auch davon aus, dass individuelle Akteure mit gesellschaftlichen Aspekten wie kollektiven Deutungsmustern verwoben sind und sogar die Körper individueller Akteure durch soziale Praktiken überformt sind. Eine strikte Trennung in Individualismus/Holismus erscheint demnach nicht plausibel zu sein (Bourdieu 1979; Foucault 1989; Butler 2002). Bourdieu spricht auch davon, dass soziale Strukturen von individuellen Akteuren inkorporiert werden. Ob und wie genau diese Metaphern der Verwobenheit, Überformung und Inkorporation ausbuchstabiert werden können, ist eine offene Frage in der PdS (López/Scott 2000, 82 – 107; Elder-Vass 2007; Reckwitz 2012). Umstritten ist u. a., inwiefern soziale Praktiken Einflüsse auf Individuen haben können, ohne dass es dabei individuelle Beiträge sind, welche eben diese Einflüsse realisieren (vgl. insbes. Turner 1994). Noch radikaler wird die Unterscheidung von Individualismus und Holismus durch Bruno Latours jüngere Arbeiten (2010) in Frage gestellt. Latours Ziel ist es, diese Dichotomie ebenso wie diejenige von Natur/Gesellschaft aufzuheben und eine Sozialtheor ie zu entwerfen, die nicht nur auf handelnden Menschen aufbaut, sondern jegliche kausal wirksame Entitäten (Atome, Bakterien, Menschen, Tiere, technologische und soziale Objekte usw.) als Aktanten, die in Netzwerken verbunden sind, einbezieht (Collin 2014). Ob sich hier tatsächlich eine »neue Soziologie« mit einem radikal ausgeweiteten agency-Begriff ankündigt, ist freilich umstritten, was nicht zuletzt daran liegt, dass der Ansatz systematischen Explikationen (bislang) kaum zugänglich zu sein scheint (Mol 2011; Kneer 2011; Sayes 2014).
2.2 Explanatorische Themen der Philosophie der Soziologie In diesem Abschnitt widmen wir uns synoptisch einer Auswahl an explanatorischen Themen in der PdS. Im Anschluss fokussieren wir die Frage, welche Konsequenzen für soziologische Erklärungen in der PdS aus ontologischen Über legungen gezogen worden sind. Der Fokus auf explanatorische Themen soll nicht implizieren, dass die Soziologie ausschließlich auf Erklärungen zielt. Vielmehr 559
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
gibt es eine Vielzahl weiterer epistemischer Praktiken innerhalb der Soziologie, von denen zunächst vier exemplarisch genannt seien. (1) Viele soziologische Arbeiten dienen der Beschreibung sozialer Sachverhalte (z. B. der Beschreibung der Sozialstruktur eines Landes anhand demographischer Daten)13 oder der Klassifikation sozialer Phänomene (z. B. der Klassifikationen von Organisation anhand bestimmter Merkmale, vgl. Apelt/Tacker 2012). (2) Andere Arbeiten zielen primär auf die Exploration bestimmter Aspekte der sozialen Lebenswelt mit ethnographischen oder hermeneutisch-analytischen Methoden (z. B. eine Ethnographie von Intensivstationen oder eine Konversationsanalyse von Esstischgesprächen bei Familien mit Migrationshintergrund). Hier wird im Gegensatz zu Erklärungen nicht nach dem Warum, sondern primär nach dem Was und dem Wie gefragt (z. B. Was tun Ärzte beim Überbringen von Todesnachrichten? Wie erzählen Kinder mit Migrationshintergrund ihren Eltern vom Schulalltag?) (vgl. Hammersley/Atkinson 2007 für methodologische Grundfragen ethnographischer Forschung und Flick et al. 2009 für einen umfassenden Überblick über verschiedene hermeneutische Analyseverfahren). (3) Mit dem Term Gesellschaftsdiagnose werden in der Soziologie Versuche bezeichnet, eine zeitlich oder lokal eingegrenzte Gesellschaftskonstellation oder einen gesellschaftlichen Wandlungsprozess anhand typischer und besonders bedeutsamer Eigenschaften allgemein zu charakterisieren (Stichworte sind hier ›Wissensgesellschaft‹ oder ›Beschleunigung der Gesellschaft‹) (Schimank/Volkmann 2007). Aus wissenschaftsphilosophischer Perspektive sind hier Fragen nach der empirischen Evidenzbasis der jeweiligen Gesellschaftsdiagnose, insbesondere hinsichtlich eines möglichen Selektionsbias (»cherry picking«), von Interesse (vgl. Bogner 2012 für einen Überblick). (4) Inwiefern die Soziologie dazu in der Lage ist, Vorhersagen über bestimmte Ereignisse oder Trends machen zu können, ist extrem umstritten. Es gibt keine allgemein anerkannten Beispiele für erfolgreiche Vorhersagen und weit verbreitete Zweifel in der PdS, ob die Soziologie überhaupt eine prognostizierende Wissenschaft sein kann. Neben dem nomologischen Skeptizismus (s. o.) ist die Reflexivität von Vorhersagen in den Sozialwissenschaften ein wichtiger Grund für diese Zweifel: Wir können Vorhersagen zum Anlass nehmen, unser Verhalten, bestimmte Institutionen etc. dahingehend zu verändern, dass die einschlägigen Vorhersagen nicht zutreffen (vgl. zu diesem Argument Henshel 1982, 1993 und die obigen Ausführungen zu Loopingeffekten).
Im Kontext von Beschreibungen dieser Art sind methodische Grundlagenpro bleme der häufig dazu verwendeten statistischen Verfahren hervorzuheben. Besonders schwerwiegende Probleme sind hier die häufig nicht gegebene Repräsentativität von Stichproben u. a. aufgrund von Schwierigkeiten bei der Definition von Grundgesamtheiten und der systematischen Undercoverage bestimmter Subpopulationen in Erhebungen (vgl. Schnell 1991). 13
560
Philosophie der Soziologie
2.2.1 Erklärungsweisen in der Soziologie Blickt man auf die soziologische Forschungspraxis, so ist leicht festzustellen, dass es eine kaum überblickbare Vielfalt an Erklärungsweisen und damit verbundenen wissenschaftsphilosophischen Diskussionen gibt. Wir können hier nur eine kleine Auswahl von soziologischen Erklärungsweisen idealtypisch14 skizzieren und einige damit verbundene wissenschaftsphilosophische Aspekte erwähnen. Historische Erklärungen zielen darauf, die Genese eines bestimmten sozialen Phänomens oder Prozesses unter Rückgriff auf historische Artefakte und Dokumente als Narrativ verständlich zu machen. Norbert Elias’ berühmte Erklärung des europäischen Zivilisationsprozesses (1939) baut u. a. auf der Auswertung von Benimmbüchern (wie De civilitate von Erasmus von Rotterdam) und anderen historischen Dokumenten aus verschiedenen Jahrhunderten auf, die Aufschluss über Veränderungen verbreiteter Verhaltenserwartungen und -normen liefern. Ob es sich bei historischen Erklärungen um eine Form genuin interpretativer Erklärungen oder letztlich um kausale Erklärungen handelt, die implizit allgemeine Gesetze menschlichen Handelns in Anspruch nehmen, wird nicht nur in der PdS kontrovers diskutiert (↑ Philosophie der Geschichtswissenschaft). Funktionale Erklärungen zielen darauf ab, die Zweckmäßigkeit eines sozialen Phänomens für ein bestimmtes soziales Ganzes bzw. System zu bestimmen. (Gemeint sind hier also nicht Analysen der internen Funktionsweise eines Systems, etwa einer Organisation.) Funktionale Erklärungen sind häufig (aber nicht immer) makrosoziologisch, d. h. sie analysieren Makrophänomene wie das deutsche Bildungssystem oder den Finanzsektor in Hinblick auf deren manifeste oder latente Funktionen für die Gesellschaft als Ganzes (Luhmann 1970; 1974; Merton 1995 [1957). Die trotz etlicher bildungspolitischer Anstrengungen andauernde Reproduktion sozialer Ungleichheit im deutschen Bildungssystem (Maaz et al. 2010) etwa könnte als die latente Funktion15 des Bildungssystems aufgefasst (und womöglich durch diese erklärt) werden, die Sozialstruktur der Gesellschaft zu stabilisieren. In der PdS sind funktionale Erklärungen in den letzten Jahrzehnten häufig kritisiert worden, da es sich dabei um teleologische Fehlschlüsse handele oder eine Art von obskurer Rückwärtskausalität vorausgesetzt werden müsse, um das Zustandekommen eines Phänomens funktional zu erklären (Elster 1982; Vanberg 1984). Kincaid (1996, Kap. 4) hat dagegen versucht zu zeigen, dass sich funktionale Erklärungen innerhalb der Soziologie häufig als eine Variante gängiger Kausalerklärungen rekonstruieren lassen, die das Fortbestehen – nicht aber das Zustandekommen – sozialer Phänomene erklären sollen. Das Wort ›idealtypisch‹ soll darauf hinweisen, dass es Mischformen der genannten Erklärungsweisen gibt. 15 Mit diesem Beispiel lässt sich gut illustrieren, dass die Soziolog ie mitunter eine kritisch-entlarvende Rolle spielen kann, etwa indem sie latente und nicht beabsichtigte Funktionen sozialer Phänomene aufdeckt. 14
561
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Evolutionäre Erklärungen versuchen das Zustandekommen oder Fortbestehen bestimmter Sachverhalte in der sozialen Welt auf Basis darwinistischer Prinzipien als Ergebnis eines sozialen Evolutionsprozesses zu erklären. (Es geht also nicht darum, soziale Phänomene ›biologistisch‹ ausschließlich unter Rückgriff auf biologische Faktoren zu erklären oder die Soziologie auf die Biologie zu reduzieren.) Boyd, R., et al. (2013) erklären technologischen Wandel in sozialen Gruppen u. a. in Analogie zu Gen-Driftprozessen als Folge kultureller Drift (Richerson/Boyd, R. 2005, Kap. 3 für weitere evolutionäre Prinzipien). Organisationsökologen versuchen die Frage zu klären, weshalb es die bestehende Vielfalt an Organisationsarten gibt, und verwenden dabei einen Erklärungsansatz, der auf dem Prinzip der natürlichen Selektion basiert (Hannan/Freeman 1977; 1989). Innerhalb der PdS besteht keine Einigkeit darüber, ob es sich bei diesen und ähnlichen Erklärungen tatsächlich um darwinistische Erklärungen handelt (vgl. Wortmann 2010). Reydon/Scholz (2009) etwa kritisieren organisationsökologische Erklärungen dafür, dass sie keine Entitäten spezifizieren, die tatsächlich im Darwin’schen Sinne evolvieren könnten. Häufig werden evolutionäre Erklärungen auch dafür kritisiert, dass die angeblich evolvierenden Entitäten zentrale Aspekte der sozialen Welt nicht angemessen erfassen könnten (vgl. besonders die Kritik an Mem-Theor ien in Aunger 2001). Schatzki (2001) ist der Ansicht, dass evolutionäre Erklärungen kaum einen Mehrwert für die Soziologie besäßen, da sie letztlich kein alternatives Framework zu intentionalen Erklärungen böten, sondern vielmehr parasitär von diesen abhingen. Mechanistische Erklärungen zeigen, wie ein kausaler Mechanismus ein bestimmtes soziales Phänomen hervorbringt. Ein sozialer kausaler Mechanismus für ein soziales Phänomen setzt sich aus Entitäten, deren Eigenschaften und Aktivitäten in einer physikalischen und sozialen Umwelt zusammen, die auf eine solche Weise organisiert sind, dass sie das Phänomen X hervorbringen (vgl. Hed ström/Ylikoski 2010 für alternative Charakterisierungen). Beschreibungen eines solchen Mechanismus sind zugleich Erklärungen des hervorgebrachten sozialen Phänomens. Das hauptsächliche Ziel von mechanistischen Erklärungen in der Soziologie ist es, die Lücken zwischen Ursachen und Wirkungen durch die detaillierte Beschreibung von Kausalketten möglichst klein zu halten (Elster 1989; Hedström/Swedberg 1996, 287–298) und dadurch »den generativen Prozess retrospektiv nachzuzeichnen« (Mayntz 2009, 104), der für ein soziales Phänomen verantwortlich ist. Mertons Beschreibung einer Self-Fulfilling-Prophecy wird häufig als paradigmatische mechanistische Erklärung aufgefasst, die unter Angabe von Individuen (Entitäten), deren Erwartungen (Eigenschaften) und Interaktionen (Aktivitäten/Organisation) das Auftreten eines nicht-intendierten sozialen Phänomens (z. B. einen Bankencrash) verständlich macht (vgl. Hedström/Ylikoski 2010, 62; für weitere Beispiele vgl. Demeulenaere 2011b). Innerhalb der mechanistischen Literatur ist u. a. strittig, inwiefern Mechanismen generalisierbar sein müssen, um explanativ zu sein, und wie detailliert ein postulierter Mechanismus ausbuchstabiert werden muss, um mehr als bloßer »mechanism talk« (Kalter/Kro562
Philosophie der Soziologie
neberg 2014) zu sein. Kaidesoja (2013) kritisiert mechanistische Ansätze in der Soziologie dafür, dass sie häufig einen individualistischen bias zulasten von makrosoziologischen Mechanismen beinhalteten. Viele Vertreter mechanistischer Erklärungen gingen davon aus, dass die explanativ relevanten Entitäten eines Mechanismus letztlich individuelle Akteure sein müssten, die bestimmte Überzeugungen haben, Handlungen vollziehen usw. (z. B. Hedström 2005). Dadurch würden allerdings – ohne hinreichende Gründe – Mechanismen ausgeschlossen, die Kollektivakteure wie Organisationen als explanativen Kernbestandteil haben. Statistische Makro-Erklärungen nutzen aggregierte Daten über gesellschaft liche Phänomene, um mithilfe statistischer Analysen robuste Korrelationen zwischen (mindestens) zwei Variablen A und B zu ermitteln. Ziel der Analysen ist es, Evidenzen zu generieren, die kausale Hypothesen zum Zusammenhang von A und B stützen oder widerlegen. Ist A die Ursache von B (oder umgekehrt)? Durkheims klassische Studie zum Suizid greift bspw. auf statistische Daten über die unterschiedlichen Suizidraten von Protestanten und Katholiken in verschiedenen Nationen zurück, um Kausalaussagen über den Zusammenhang von sozialen Milieus und bestimmten Formen des Selbstmordes zu treffen (Durkheim 1990 [1897]). Das klassische Problem dieser Erklärungsweise ist – neben der häufig gegebenen Problematik der Bestimmung der Richtung der Kausalität – vor allem das Problem konfundierender Einflussfaktoren, die nicht gemessen worden sind, aber die eigentlichen Gründe für den statistischen Zusammenhang von A und B sind, da sie sowohl A als auch B verursachen (vgl. Elster 2007, 21 ff.). Eine Abmilderung – allerdings keine Lösung – dieses Problems besteht in der Möglichkeit, auf Basis theoretischen Hintergrundwissens der Forscher alle plausiblen konfundierenden Einflussfaktoren zu messen und in die statistische Analyse mit einzubeziehen (Kincaid 1996; Kap. 3). Andere Autoren sprechen sich dafür aus, dass statistische Makroerklärungen durch eine handlungstheoretische Erklärung oder die Beschreibung eines sozialen Mechanismus auf der Ebene individueller Akteure mikrofundiert werden müssten, um Scheinkorrelationen auszuschließen und tatsächliche Kausalbeziehungen feststellen zu können (Elster 1989; Coleman 1990; Little 1991; kritischer: Steel 2004). Spieltheoretische Erklärungen sind eine Variante von Rational-Choice-Erklärungen (↑ Philosophie der Ökonomik) und zielen darauf, das Zustandekommen eines sozialen Phänomens oder Verhaltens als Lösung eines Koordinationsproblems zwischen strategischen Akteuren zu modellieren, deren Handlungen u. a. von den erwarteten Handlungen der jeweils anderen Akteure abhängen. Verhaltensnormen im Straßenverkehr etwa sollen erklärt werden, indem gezeigt wird, wie diese als soziale Konventionen in sozialen Situationen entstehen können, die strategischen Spielen (wie dem Gefangenendilemma) strukturell ähneln (Paternotte/Grose 2013). In der PdS ist u. a. der Status der Spieltheor ie Gegenstand von Kontroversen. Es herrscht weder Einigkeit darüber, ob es sich bei der Spieltheor ie in erster Linie um eine deskriptive Theor ie rationalen Verhaltens oder eine präskriptive Theor ie handelt, die (angemessene) normative Standards 563
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
für rationales Verhalten in einer Interaktionssituation vorgibt, noch darüber, inwiefern spieltheoretische Modelle tatsächlich empirische Phänomene (idealisierend) erklären – oder auch vorhersagen – können (vgl. Kanazawa 1998; Lehtinen/ Kuorikoski 2007; Grüne-Yanoff 2008). Einige Soziologen gehen davon aus, dass dichte Beschreibungen (thick descriptions), d. h. sehr detaillierte Beschreibungen von sozialen Interaktionssituationen (häufig auf Basis von teilnehmenden Beobachtungen), ipso facto hermeneutische Erklärungen sind, da sie die Sinnhaftigkeit von bestimmten Verhaltensweisen (z. B. einen Tötungsakt) in einem sozialen Kontext (z. B. im Rahmen eines traditionellen Initiationsrituals, Rosaldo 1980) verständlich machen und damit deutlich werden lassen, warum Personen sich so oder anders verhalten. Soziale Beschreibungen und Erklärungen lassen sich demnach nicht immer klar voneinander trennen (Geertz 1983). In der PdS wird mit Blick auf hermeneutische Erklärungen u. a. danach gefragt, ob dichte Beschreibungen tatsächlich handlungserklärend sein können oder ob sich dabei lediglich um mehr oder minder plausible Narrationen handelt, die ihren Gültigkeitsanspruch letztlich nicht belegen können. Weiterhin gibt es unter dem Label Reflexivität eine anhaltende Diskussion um die Rolle des Forschers bei der Generierung (oder Konstruktion) von dichten Beschreibungen und die Einbindung subjektiver Aspekte in den Beschreibungsprozess (Hammersley/Atkinson 2007, Kap. 9). Diese knappe Skizzierung verschiedener Erklärungsweisen ist bei Weitem keine abschließende Liste, sondern soll eher dazu dienen, einen Eindruck der Heterogenität von Erklärungsweisen innerhalb der Soziologie und den damit zusammenhängenden wissenschaftsphilosophischen Aspekten zu bekommen. Mehr noch als die Politikwissenschaft und vor allem als die Ökonomik zeichnet sich die Soziologie durch einen radikalen explanatorischen Pluralismus ohne einen dominierenden Mainstream aus.
2.2.2 Monismus und Pluralismus Auf diesen Sachverhalt wurde und wird in der PdS häufig mit dem Bestreben reagiert, den Pluralismus zu reduzieren oder sogar für einen explanatorischen Monismus einzutreten. Die Reduktion des Pluralismus kann einmal über den Ausschluss bestimmter Erklärungsweisen anhand einer normativen Theor ie der Erklärung erfolgen. Geht man etwa davon aus, dass es für die Erklärungen eines sozialen Phänomens (oder einer sozialen Regularität) notwendig ist zu zeigen, inwiefern dieses soziale Phänomen (diese Regularität) unter ein allgemeines Gesetz fällt (Hempel/Oppenheim 1948), so schließt man damit die Legitimität hermeneutischer Erklärungen aus. Einige Autoren verfolgen auch den Ansatz, bestimmte Erklärungsweisen auf andere Erklärungsweisen zurückzuführen oder zu zeigen, dass Erklärungen des Typs A sich als Erklärungen des Typs B rekonstruieren lassen. Vertreter von Rational-Choice-Erklärungen gehen bspw. mitunter davon aus, 564
Philosophie der Soziologie
dass sich interpretative Erklärungen letztlich auf Rational-Choice-Erklärungen zurückführen lassen (Esser 1990). Kincaids Rekonstruktion funktionaler Erklärungen als Varianten kausaler Erklärungen (s. o.) ist ein weiteres Beispiel für diese Praxis. Häufig werden in der PdS bestimmte Erklärungsweisen auch auf Basis von ontologischen Überlegungen abgelehnt – oder verteidigt. Dabei spielen die oben diskutierten Auseinandersetzungen um die (vermeintliche) Differenz der sozialen Welt und die Existenzweise sozialer Phänomene eine prominente Rolle. Eine Reihe von Autoren, die sich dem interpretationistischen Spektrum zurechnen lassen, haben dafür argumentiert, dass die Suche nach kausalen Erklärungen und Generalisierungen in der Soziologie mittels standardisierter, an den Naturwissenschaften orientierter Methoden prinzipiell fehlgeleitet ist. Diese würden dem Sinn der sozialen Welt nicht gerecht, der vielmehr durch hermeneutische Verfahren zu Tage gefördert werden müsse (vgl. Kelle 2008, Kap. 5; D’Oro/Sandis 2013; Stueber 2013). Ontologische Argumente um den Individualismus/Holismus haben einen besonders starken Einfluss auf explanatorische Diskussionen innerhalb der PdS. Viele Individualisten und Holisten gehen davon aus, dass ontologische Annahmen das Fundament für soziologische Erklärungen darstellen. Sawyer etwa versucht die These der Emergenz sozialer Phänomene zu begründen, um daraus die Unverzichtbarkeit von holistischen Erklärungen abzuleiten (wie bereits Durkheim). Elder-Vass (2010) verfolgt mit seiner ontologischen Theor ie der relationalen Emergenz das Ziel, die Unzulänglichkeit individualistischer Erklärungsansätze aufzuzeigen. Auch individualistische Autoren wie Watkins und Elster verfolgen eine analoge Begründungsstrategie: Aus den ontologischen Annahmen des reduktiven Individualismus wird die Konsequenz gezogen, dass Erklärungen sozialer Phänomene oder Regularitäten individualistisch, d. h. auf Basis von interagierenden Individuen und deren Eigenschaften, erfolgen müssten (Demeulenaere 2011a, 4). Hinter ontologischen Argumenten zugunsten oder zulasten bestimmter Erklärungsweisen steckt eine (isomorphie-)realistische Intuition: Soziologische Erklärungen sind demnach dann gute Erklärungen, wenn sie die tatsächlich existierenden Entitäten und die Struktur der sozialen Welt in gewisser Weise abbilden oder reproduzieren. Einige Philosophen der Soziologie haben sich in den letzten Jahren gegen diese realistische Intuition und die philosophische Kritik des Pluralismus in der Soziologie gewendet. Van Bouwel und andere sprechen sich dafür aus, die verschiedenen Erklärungsweisen innerhalb der Soziologie im Lichte pragmatischer Überlegungen zu evaluieren (Kivinen/Piiroinen 2007; van Bouwel/Weber 2008). Nicht ontologische Überlegungen, sondern Aspekte wie Machbarkeit und Einfachheit von Erklärungen und die epistemischen Interessen der Soziologen sollten die Auswahl von Erklärungsweisen (und Methoden) anleiten. Ob eine intentionale, funktionale, Mikro- oder Makroerklärung vorzuziehen ist, hängt demnach u. a. von der genauen Forschungsfrage bzw. dem jeweiligen Explanandum (Geht es 565
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
um die Eigenschaften von X, das Zustandekommen von X, einen Kontrast von X und Y?) und den Ressourcen der Forscher ab (van Bouwel 2014; vgl. auch Wimsatt 2006).
3 Aktuelle Themen und zukünftige Herausforderung Bei einem Überblicksartikel dieser Art ist eine gewisse Selektivität unvermeidlich. In unserem Beitrag werden bspw. kaum aktuelle epistemologische und methodologische Fragen zu unterschiedlichen Formen soziologischer Experimente (vgl. z. B. Place 1992; Guala 2002; Morgan 2013; Risjord 2014b, Kap. 10; Keuschnigg/Wolbring 2015) und zu qualitativen Forschungsverfahren (vgl. z. B. Marshall 1996; Hitzler/Honer 1997; Strübing 2002; Flick et al. 2009; Kelle/Kluge 2010, 16 – 40) angesprochen. Auch epistemologische Probleme von agentenbasierten Computermodellen sozialer Prozesse oder Systeme (vgl. Epstein 2011; GrüneYanoff 2011) sowie sozialepistemologische Fragen zu Big-Data-Analysen (vgl. boyd/Crawford 2012; Plantin et al., i. E.) konnten aus Platzgründen nicht berücksichtigt werden. Abschließend sollen aber zumindest noch zwei aktuelle Diskussionen umrissen werden und damit zugleich Perspektiven zukünftiger Forschung aufgezeigt werden. (1) In letzter Zeit werden (wieder) verstärkt wissenschaftsphilosophische Fragen diskutiert, die sich auf die Möglichkeit der Identifikation kausaler Zusammenhänge in der sozialen Welt beziehen (Reiss 2009; Kincaid 2012, Teil 1). Zum einen besteht ein Interesse an der grundsätzlichen Analyse des Zusammenhangs von sozialwissenschaftlichen Methoden und Theor ien der Kausalität: Sprechen besonders erfolgreiche Vorgehensweisen zur Entdeckung kausaler Zusammenhänge oder zum Testen kausaler Hypothesen in der Soziologie für eine bestimmte Theor ie der Kausalität, z. B. den Interventionismus (von Wright 1971; Woodward 2003) oder eine Variante des Mechanizismus (Salmon, W., 1984)? Welche Zusammenhänge bestehen zwischen verschiedenen Methoden zum Testen von kausalen Hypothesen (z. B. Scheines 2005)? Welche Theorie der Kausalität muss eigentlich bei der Methode X vorausgesetzt werden (z. B. Runhardt 2015)? Zum anderen werden in der PdS verschiedene Methoden kritisch diskutiert, die (u. a.) in der Soziologie verwendet werden, um kausale Relationen zu identifizieren, und es wird danach gefragt, welche Art der Evidenz für kausale Relationen die unterschiedlichen Methoden jeweils liefern können – und welche nicht.16 Neben der philosophischen Analyse und Kritik der externen Validität von randomisierten kontrollierten Studien (↑ Philosophie der Biomedizin) (Cartwright/ Munro 2010) und unterschiedlicher Formen von Regressionsanalysen zur Iden Das ist nicht zuletzt mit Blick auf die Relevanz sozialwissenschaftlicher Forschungsergebnisse für die Politik eine zentrale Frage (vgl. Munro 2015 zum Thema Evi dence-Based Policy). 16
566
Philosophie der Soziologie
tifikation von Kausalzusammenhängen werden gegenwärtig vermehrt moderne statistische Verfahren der kausalen Modellierung diskutiert, die eine interventionistische Kausalkonzeption als Grundlage haben (Pearl 2000; Spirtes et al. 2000; Zhang/Spirtes 2010). Entsprechende Ansätze nutzen Bayes Netzwerkdiagramme (bestimmte Typen von gerichteten azyklischen Graphen) zur Modellierung von Kausalrelationen. Verfahren, die mit solchen Netzwerkdiagrammen arbeiten, zielen darauf, denkbare, aber nicht zutreffende Kausalhypothesen zur Erklärung eines bestimmten Sachverhaltes unter Rückgriff auf statistische Algorithmen auszuschließen (für einen einführenden Überblick vgl. Steel 2011). Diese Verfahren gelten zwar als leistungsfähige Analysewerkzeuge, sind jedoch von einigen traditionellen Problemen statistischer Analysen betroffen. Liegen bspw. über einen konfundierenden Einflussfaktor (s. o.) keine Informationen vor, die in die kausalen Modellierungen einfließen können, etwa weil ein bestimmter Faktor aufgrund mangelnden Hintergrundwissens nicht als relevant angesehen wird, so kann durch den entsprechenden Bayes’schen Kausalgraphen (trivialer Weise) kein realer Kausalprozess modelliert werden (vgl. Cartwright 2001 für weitere Kritikpunkte). Einige Autoren nehmen daher an, dass Fallstudien eine überlegene Alternative oder zumindest eine wichtige methodische Ergänzung zur Entdeckung und zum Testen von kausalen Hypothesen sein können (Flyvbjerg 2006; George/Bennett 2005). Mithilfe der detaillierten Exploration von wenigen Einzelfällen mit qualitativen Methoden (z. B. nicht-standardisierte Interviews, teilnehmende Beobachtungen) lassen sich möglicherweise direkte Evidenzen für oftmals komplexe Kausalbeziehungen entdecken, indem soziale Mikro-Mechanismen identifiziert werden, die ein bestimmtes Sozialphänomen hervorbringen (indem die ›Black Box‹ geöffnet wird). Ein Nachteil solcher Fallstudien ist naturgemäß die häufig extrem kleine Fallzahl und die daraus resultierenden Fragen, (a) inwiefern durch Einzelfallstudien tatsächlich robuste Kausalmechanismen entdeckt werden können, die zumindest einen gewissen Grad an Generalisierbarkeit aufweisen (vgl. Bengtsson/Hertting 2014 für einen aktuellen Lösungsvorschlag), und (b) wie die Systembedingungen angegeben werden können, unter denen ein postulierter sozialer Mikro-Mechanismus tatsächlich einen bestimmten Typ von Sozialphänomen hervorbringt. In der neueren Methodenliteratur werden Mixed-Method-Forschungsdesigns als eine Lösung für diese Schwierigkeiten diskutiert. Eine Idee ist es hier, qualitative und quantitativ-statistische Methoden komplementär zu nutzen, sodass die jeweiligen Nachteile der anderen Methoden ausgeglichen werden (vgl. Creswell/Plano Clark 2011; Kelle 2014). Inwiefern tiefliegende epistemologische Differenzen dieser beiden Vorgehensweisen überwunden werden können (oder überhaupt müssen) und hier ein produktiver Methodenpluralismus entstehen kann, ist eine offene Frage der PdS (vgl. Small 2011). (2) In den letzten Jahren gewinnt die Gesellschaftskritik innerhalb der Sozio logie wieder größere Bedeutung (Burawoy 2005; Boltanski 2010) und damit auch die philosophische Frage nach der (Möglichkeit einer) Begründung der normati567
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
ven Grundlagen einer solchen Kritik (vgl. bereits Weber 1988 [1904]; Horkheimer 1937 sowie Albert, G., 2010). Innerhalb der kritischen Theor ie der Frankfurter Schule etwa tritt an die Stelle einer kommunikationstheoretischen Fundierung der Gesellschaftskritik eine anerkennungstheoretische Fassung. Nicht Rationalitätsverpflichtungen, welche in der Sprache wurzeln (Habermas 1987a), sondern die Anerkennung von Personen soll aus dieser Sicht das normative Fundament der Gesellschaftskritik bilden (Honneth 1994; 2015). Umstritten bleibt, wie in dieser Lesart berechtigte und unberechtigte Anerkennungsansprüche unterschieden werden können. Diese Frage wird insbesondere deswegen dringlich, weil das Anerkennungskonzept der historischen Variabilität und Umkämpftheit von Anerkennungskriterien Rechnung tragen möchte. Zu beobachten ist darüber hinaus eine Rückkehr der Entfremdungsthematik (Jaeggi 2005; Rosa 2013). Hier ergibt sich in ähnlicher Weise das Problem, einen Zustand des unentfremdeten Lebens nicht nur auszubuchstabieren, sondern auch gegen konkurrierende Entwürfe rechtfertigen zu können: Wie lässt sich, wenn in der Gesellschaft plurale und nicht notwendig kompatible Wertvorstellungen vom richtigen Leben konkurrieren, überhaupt eine begründete Entscheidung zwischen diesen treffen (Bühler 2010; Jaeggi 2010; Greve 2015b)? Die kritische Theor ie steht hier vor einem Dilemma: Entweder sie kritisiert gegebene Wertvorstellungen anhand eigener normativer Maßstäbe von außen und ist dazu gezwungen, eine paternalistische Haltung einzunehmen, oder sie vollzieht eine Transformation von kritischer Soziologie in eine Soziologie der Kritik, die von schon gegebenen (teils impliziten) Wertvorstellungen in einer Gemeinschaft ausgeht (Boltanski/Honneth 2009; Boltanski 2010). Letzteres scheint allerdings zur Folge zu haben, dass es keine Möglichkeit mehr gibt, sich kritisch jenseits gegebener Selbstverständnisse aufzustellen. Aufgrund der Zurückweisung geschichtsphilosophischer Gewissheiten über den Fortschritt der Gesellschaft (eine von den modernen Vertretern einer kritischen Theor ie allgemein anerkannte Prämisse, vgl. Jaeggi 2009; Boltanski 2010) ist offenbar kaum begründbar, warum eine Transformation der Gesellschaft auf Basis von bestimmten gesellschaftsimmanenten Werten eigentlich als normativ ausgezeichnet gelten sollte (vgl. dazu Stahl 2013). Im Ganzen steht die Gesellschaftskritik demnach weiterhin vor den folgenden Herausforderungen: Inwiefern kann sie erstens die interne – traditionelle – Form der Kritik überbieten, welche von schon gegebenen Werten ausgehend soziale Praktiken kritisiert (Bühler 2010)? Wie kann sie zweitens angesichts verschiedener Möglichkeiten, soziale Widersprüche aufzuheben (so können z. B. Werte oder gesellschaftliche Praktiken und Institutionen verändert werden) die richtige Form der Auflösung von Widersprüchen bestimmen? Drittens verschärft sich dieses Problem vor dem Hintergrund einer pluralen Verfassung der modernen Gesellschaft. Wir gehen davon aus, dass es sich hierbei um Herausforderungen handelt, zu denen die PdS produktive Beiträge leisten kann und sollte.
568
Philosophie der Soziologie
Literatur Empfehlungen: Empfehlenswerte Einführungen in die PdS bzw. die Philosophie der Sozialwissenschaften sind Hollis (1994), Rosenberg (2012b / 2015) und Cartwright/ Montuschi (2015). Die umfassendste und ausgewogenste Einführung bietet Risjord (2014b). Der Philosophy of Social Science Reader von Guala/Steel (2010) bietet eine interessante Mischung aus klassischen und neueren Aufsätzen zu Grundlagenfragen der PdS. Kurze Artikel zu fast allen Fragen der PdS lassen sich in der Encyclopedia of Philosophy and the Social Sciences (Kaldis 2013) finden. Das SAGE Handbook of the Philosophy of Social Science (Jarvie/Zamora-Bonilla 2011) enthält längere Überblicksbeiträge zu vielen ontologischen und methodologischen Themen der PdS. Der erste Teil des Oxford Handbook of Philosophy of Social Science (Kincaid 2012) gibt einen guten Überblick über Fragen zu Kausalität und Mechanismen in den Sozialwissenschaften.
Agassi, Joseph (1960). Methodological Individualism. The British Journal of Sociology 11, 244–270. Albert, Gert (2005). Moderater methodologischer Holismus. Kölner Zeitschrift für Soziologie und Sozialpsychologie 57, 387–413. – (2010). Der Werturteilsstreit. In: Georg Kneer und Stephan Moebius (Hg.), Soziologische Kontroversen. Berlin: Suhrkamp, 14 – 45. – (2013). Figuration und Emergenz. Zur Ontologie und Methodologie des Ansatzes von Norbert Elias, Kölner Zeitschrift für Soziologie und Sozialpsychologie 65, 193 – 222. Albert, Hans (1968). Traktat über kritische Vernunft. Tübingen: Mohr. Apelt, Maja, und Veronika Tacke (Hg.) (2012). Handbuch Organisationstypen. Wiesbaden: VS Verlag für Sozialwissenschaften. Aunger, Robert (Hg.) (2001). Darwinizing Culture. The Status of Memetics as a Science. Oxford ; New York, NY: Oxford University Press. Bhargava, Rajeev (2008). Individualism in Social Science: Forms and Limits of a Methodology. New Delhi; New York, NY: Oxford University Press. Bengtsson, Bo, und Nils Hertting (2014). Generalization by Mechanism Thin Rationality and Ideal-type Analysis in Case Study Research. Philosophy of the Social Sciences 44, 707–732. Berger, Peter L. und Thomas Luckmann (1994 [1966]). Die gesellschaftliche Konstruktion der Wirklichkeit. Eine Theorie der Wissenssoziologie. Frankfurt a. M.: Fischer. Bloor, David (1976). Knowledge and Social Imagery. London: Routledge & Kegan Paul. – (1982). Durkheim and Mauss Revisited: Classification and the Sociology of Knowledge. Studies in History and Philosophy of Science Part A 13, 267–297. Blumer, Herbert (1973). Der methodologische Standort des Symbolischen Interaktionismus. In: Arbeitsgruppe Bielefelder Soziologen (Hg.), Alltagswissen, Interaktion und gesellschaftliche Wirklichkeit. Band 1. Reinbek: Rowohlt, 80 – 146. 569
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Bogner, Alexander (2012). Gesellschaftsdiagnosen: ein Überblick. Weinheim: Beltz Juventa. Boltanski, Luc (2010). Soziologie und Sozialkritik. Frankfurter Adorno-Vorlesungen 2008. Berlin: Suhrkamp. – und Axel Honneth (2009). Soziologie der Kritik oder Kritische Theor ie. Ein Gespräch mit Robin Celikates, 81 – 114. In: Rahel Jaeggi und Tilo Wesche (Hg.), Was ist Kritik? Frankfurt a. M.: Suhrkamp. Boudon, Raymond (1980) Die Logik des gesellschaftlichen Handelns, Neuwied: Luch terhand. Bourdieu, Pierre (1979). Entwurf einer Theorie der Praxis. Frankfurt a. M.: Suhrkamp. – und Loïc J. D. Wacquant (1992). An Invitation to Reflexive Sociology. Cambridge: Polity Press. boyd, danah, und Kate Crawford (2012). Critical Questions for Big Data: Provocations for a Cultural, Technological, and Scholarly Phenomenon. Information, Communication & Society 15, 662–679. Boyd, Robert, Peter J. Richerson, und Joseph Henrich (2013). The Cultural Evolution of Technology: Facts and Theor ies. In: Peter J. Richerson und Morten H. Christiansen (Hg.), Cultural Evolution: Society, Technology, Language, and Religion, 119–142. Cambridge, MA: MIT Press. Brandom, Robert B. (2002). Expressive Vernunft. Frankfurt a. M.: Suhrkamp. Bratman, Michael E (1999). Faces of Intention. Selected Essays on Intention and Agency. Cambridge: Cambridge University Press. Bühler, Axel (2010). Abschied von der Kritischen Theor ie, 494 – 497. In: Gert Albert und Steffen Sigmund (Hg.), Soziologische Theorie kontrovers (Sonderheft 50/2010 der Kölner Zeitschrift für Soziologie und Sozialpsychologie). Wiesbaden: VS Verlag für Sozialwissenschaften. Bunge, Mario (1979). A Systems Concept of Society: Beyond Individualism and Holism. Theory and Decision 10, 13 – 30. Burawoy, Michael (2005). 2004 Presidential Address. For Public Sociology, American Social Review 70, 4 – 28. Butler, Judith (2002). Psyche der Macht. Das Subjekt der Unterwerfung. Frankfurt a. M.: Suhrkamp. Cartwright, Nancy (1983). How the Laws of Physics Lie. Oxford: New York, NY: Clarendon Press. – (2001). What Is Wrong with Bayes Nets? The Monist 84, 242–264. – und Eleonora Montuschi (Hg.) (2015). Philosophy of Social Science: A New Introduction. Oxford: Oxford University Press. – und Eileen Munro (2010). The Limitations of Randomized Controlled Trials in Predicting Effectiveness. Journal of Evaluation in Clinical Practice 16, 260–266. Collingwood, Robin George (1946). The Idea of History. Oxford: Clarendon Press. Coleman, James S. (1990). Foundations of Social Theory. Cambridge, MA [u. a.]: Belknap Press. Collin, Finn (2014). Who Are the Agents? Actor Network Theory, Methodological In570
Philosophie der Soziologie
dividualism, and Reduction. In: Julie Zahle und Finn Collin (Hg.), Rethinking the Individualism-Holism Debate. Essays in the Philosophy of Social Science, 197–218. Cham [u. a.]: Springer. Collins, Randall (1981). On the Microfoundations of Macrosociology. The American Journal of Sociology 86, 984–1014. Comte, Auguste (1974 [1842]). Die Soziologie. Die positive Philosophie im Auszug. 2. Aufl.. Stuttgart: Kröner. Creswell, John W., und Vicki L. Plano Clark (2011). Designing and Conducting Mixed Methods Research. 2. Aufl. Los Angeles, CA: SAGE . Currie, Gregory (1984). Individualism and Global Supervenience. The British Journal for the Philosophy of Science 35, 345–358. Davidson, Donald (1963). Actions, Reasons, and Causes. The Journal of Philosophy 60, 685–700. Demeulenaere, Pierre (2011a). Introduction. In: Pierre Demeulenaere (Hg.), Analytical Sociology and Social Mechanisms, 1–32. Cambridge: Cambridge University Press. – (Hg.) 2011b. Analytical Sociology and Social Mechanisms. Cambridge: Cambridge University Press. Dilthey, Wilhelm (1883). Einleitung in die Geisteswissenschaften: Versuch einer Grundlegung für das Studium der Gesellschaft und der Geschichte. Leipzig: Duncker & Humblot. Durkheim, Emile (1976 [1898]). Individuelle und kollektive Vorstellungen. In: Theodor W. Adorno (Hg.), Soziologie und Philosophie, 45–83. Frankfurt a. M.: Suhrkamp. – (1984a [1895]). Die Regeln der soziologischen Methode. Frankfurt a. M.: Suhrkamp. – (1990 [1897]). Der Selbstmord. Frankfurt am Main: Suhrkamp. – und Mauss, Marcel (1987 [1902]). Über einige primitive Formen von Klassifikation. Ein Beitrag zur Erforschung der kollektiven Vorstellungen. In: Emile Durkheim (Hg.), Schriften zur Soziologie der Erkenntnis. Frankfurt a. M.: Suhrkamp, 169 – 256. D’Oro, Giuseppina, und Constantine Sandis (Hg.) (2013). Reasons and Causes: Causalism and Anti-Causalism in the Philosophy of Action. Houndmills [u. a.]: Palgrave. Earman, John, Clark N. Glymour, und Sandra D. Mitchell (Hg.) (2002). Ceteris Paribus Laws. Dordrecht: Springer. Elder-Vass, Dave (2007). Reconciling Archer and Bourdieu in an Emergentist Theory of Action. Sociological Theory 25, 325–346. – (2010). The Causal Power of Social Structures: Emergence, Structure and Agency. Cambridge: Cambridge University Press. Elias, Norbert (1939). Über den Prozess der Zivilisation: soziogenetische und psychogenetische Untersuchungen. Basel: Verlag Haus zum Falken. Elster, Jon (1982). Marxism, Functionalism, and Game Theory: The Case for Methodological Individualism. Theory and Society 11, 453–482. – (1989). Nuts and Bolts for the Social Sciences. Cambridge; New York, NY: Cambridge University Press. 571
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
– (2007). Explaining Social Behavior: More Nuts and Bolts for the Social Sciences. Cambridge; New York, NY: Cambridge University Press. Epstein, Brian (2007). Ontological Individualism Reconsidered. Synthese 166, 187– 213. – (2011). Agent-Based Modeling and the Fallacies of Individualism. In: Paul Humphreys und Cyrille Imbert (Hg.), Models, Simulations, and Representations, 115– 144. New York, NY: Routledge. – (2014). What Is Individualism in Social Ontology? Ontological Individualism vs. Anchor Individualism. In: Julie Zahle und Finn Collin (Hg.), Rethinking the Individualism-Holism Debate. Essays in the Philosophy of Social Science, 17–38. Cham [u. a.]: Springer. Esser, Hartmut (1990). »Habits«,»Frames« und »Rational Choice«: Die Reichweite von Theor ien der rationalen Wahl (am Beispiel der Erklärung des Befragtenverhaltens). Zeitschrift für Soziologie 19, 231–247. – (1993). Soziologie. Allgemeine Grundlagen. Frankfurt am Main: Campus. Flick, Uwe, Ernst von Kardoff, und Ines Steinke (Hg.) (2009). Qualitative Forschung. Ein Handbuch. 7. Aufl. Reinbek bei Hamburg: Rowohlt. Flyvbjerg, Bent (2006). Five Misunderstandings About Case-Study Research. Qualitative Inquiry 12, 219–245. Fodor, Jerry (1974). Special Sciences and the Disunity of Science as a Working Hypo thesis. Synthese 28, 77–115. Foucault, Michel (1989). Die Sorge um sich. Sexualität und Wahrheit Bd. 3. Frankfurt a. M.: Suhrkamp. Geertz, Clifford (1983). Dichte Beschreibung. Beiträge zum Verstehen kultureller Systeme. Frankfurt a. M.: Suhrkamp. George, Alexander L., und Andrew Bennett (2005). Case Studies and Theory Development in the Social Sciences. Cambridge, MA: MIT Press. Giddens, Anthony (1984). The Constitution of Society: Outline of the Theory of Structuration. Cambridge: Polity Press. Gilbert, Margaret (1989). On Social Facts. London ; New York, NY: Routledge. Greve, Jens (2010). Emergence in Sociology: A Critique of Nonreductive Individualism. Philosophy of the Social Sciences 42, 188–223. – (2013). Response to R. Keith Sawyer. Philosophy of the Social Sciences 43, 246 – 256. – (2015a). Reduktiver Individualismus. Zum Programm und zur Rechtfertigung einer sozialtheoretischen Grundposition. Wiesbaden: VS Verlag für Sozialwissenschaften. – (2015b). Gesellschaftskritik und die Krise der kritischen Theor ie. Verhandlungen der Kongresse der Deutschen Gesellschaft für Soziologie, 37. – und Annette Schnabel (Hg.) (2011). Emergenz. Zur Analyse und Erklärung komplexer Strukturen. Berlin: Suhrkamp. Grüne-Yanoff, Till (2008). Game Theory. Internet Encyclopedia of Philosophy, http:// www.iep.utm.edu/game-th/ (15. September 2015). – (2011). Artificial Worlds and Agent-Based Simulation. In The SAGE Handbook of 572
Philosophie der Soziologie
the Philosophy of Social Sciences, In: Ian C. Jarvie und Jesús Zamora-Bonilla (Hg.), 613–631. Los Angeles, CA: SAGE . Guala, Francesco (2002). Models, Simulations, and Experiments. In: Lorenzo Magnani und Nancy J. Nersessian (Hg.), Model-Based Reasoning, 59–74. New York, NY: Springer. – (2007). The Philosophy of Social Science: Metaphysical and Empirical. Philosophy Compass 2, 954–980. Habermas, Jürgen (1987a). Theorie des kommunikativen Handelns. Band 1: Handlungsrationalität und gesellschaftliche Rationalisierung. 2. Auflage. Frankfurt a. M.: Suhrkamp. – (1987b). Theorie des kommunikativen Handelns. Band 2: Zur Kritik der funktio nalistischen Vernunft. 2. Auflage. Frankfurt a. M.: Suhrkamp. Hacking, Ian (1995). The Looping Effects of Human Kinds. In: Dan Sperber, David Premack, und Ann James Premack (Hg.), Causal cognition: A multidisciplinary approach, 351–383. Cambridge, MA: Harvard University Press. – (2007). Kinds of People: Moving Targets. Proceedings of the British Academy 151, 285–318. Häußling, Roger (2008). Zur Verankerung der Netzwerkforschung in einem methodologischen Relationalismus, 65 – 78. In: C. Stegbauer (Hg.), Netzwerkanalyse und Netzerktheorie. Wiesbaden: VS Verlag für Sozialwissenschaften. Hammersley, Martyn, und Paul Atkinson (2007). Ethnography: Principles in Practice. 3. Aufl. London/New York: Routledge. Hannan, Michael T., und John Freeman (1977). The Population Ecology of Organizations. American Journal of Sociology 82, 929–964. – (1989). Organizational Ecology. Cambridge, MA: Harvard University Press. Hayek, Friedrich A. von (1942). Scientism and the Study of Society. Pt. 1. Economica 9, 267. – (1943). Scientism and the Study of Society. Pt. 2. Economica 10, 34–63. – (1949). Individualism and Economic Order. London: Routledge & Paul. Hedström, Peter (2005). Dissecting the Social. On the Principles of Analytical Sociology. Cambridge u. a.: Cambridge University Press. – und Richard Swedberg (1996). Social Mechanisms. Acta Sociologica 39, 281–308. – und Ylikoski, Petri (2010). Causal Mechanisms in the Social Sciences. In: Annual Review of Sociology 36, 49 – 6 7. Heil, John (1999) Multiple Realizability, American Philosophical Quarterly 36, 189 – 208. Heintz, Bettina (2004). Emergenz und Reduktion. Neue Perspektiven auf das MikroMakro-Problem. Kölner Zeitschrift für Soziologie und Sozialpsychologie 56, 1–31. Hempel, Carl G. (1942). The Function of General Laws in History. The Journal of Philosophy 39, 35–48. – und Paul Oppenheim (1948). Studies in the Logic of Explanation. Philosophy of Science 15, 135–175. 573
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Henshel, Richard L. (1982). Sociology and Social Forecasting. Annual Review of Sociology 8, 57–79. – (1993). Do Self-Fulfilling Prophecies Improve or Degrade Predictive Accuracy? How Sociology and Economics Can Disagree and Both Be Right. The Journal of Socio-Economics 22, 85–104. Hitzler, Ronald, und Anne Honer (Hg.) (1997). Sozialwissenschaftliche Hermeneutik: eine Einführung. Opladen: Leske + Budrich. Hollis, Martin (1994). The Philosophy of Social Science: An Introduction. Cambridge; New York, NY: Cambridge University Press. Honneth, Axel (1994). Kampf um Anerkennung. Zur moralischen Grammatik sozialer Konflikte. Mit einem neuen Nachwort. Frankfurt a. M.: Suhrkamp. – (2015). Verdinglichung: Eine anerkennungstheoretische Studie. Erweiterte Ausgabe. Berlin: Suhrkamp. Horkheimer, Max (1937). Traditionelle und kritische Theor ie. Zeitschrift für Sozialforschung 6, 245–292. Hoyningen-Huene, Paul, und Simon Lohse (2012). Die Kuhn’sche Wende. In: Sabine Maasen, Mario Kaiser, Martin Reinhart, und Barbara Sutter (Hg.), Handbuch Wissenschaftssoziologie, 73–84. Wiesbaden: Springer. Jackson, Michelle und D. R. Cox (2013). The Principles of Experimental Design and Their Application in Sociology. Annual Review of Sociology 39, 27–49. Jaeggi, Rahel (2005). Entfremdung. Zur Aktualität eines sozialphilosophischen Problems. Frankfurt a. M./New York: Campus. – (2009). Was ist Ideologiekritik?, 266 – 295. In: R. Jaeggi und T. Wesche (Hg.), Was ist Kritik? Frankfurt a. M.: Suhrkamp. – (2010). Der Standpunkt der Kritischen Theor ie. Überlegungen zum Objektivitätsanspruch Kritischer Theor ie, 478 – 493. In: G. Albert und S. Sigmund (Hg.), Soziologische Theorie kontrovers (Sonderheft 50/2010 der Kölner Zeitschrift für Soziologie und Sozialpsychologie). Wiesbaden: VS Verlag für Sozialwissenschaften. Jarvie, Ian C., und Jesús Zamora-Bonilla (2011). The SAGE Handbook of the Philosophy of Social Sciences. Los Angeles, CA: SAGE . Kaidesoja, Tuuka (2013). Overcoming the Biases of Microfoundationalism: Social Mechanisms and Collective Agents. Philosophy of the Social Sciences 43, 301–322. Kaldis, Byron (Hg.) (2013). Encyclopedia of Philosophy and the Social Sciences. Los Angeles, CA [u. a.]: SAGE . Kalter, Frank, und Clemens Kroneberg (2014). Between Mechanism Talk And Mechanism Cult: New Emphases in Explanatory Sociology And Empirical Research. Kölner Zeitschrift für Soziologie und Sozialpsychologie 66, 91–115. Kanazawa, Satoshi (1998). In Defense of Unrealistic Assumptions. Sociological Theory 16, 193–204. Kelle, Udo (2008). Die Integration qualitativer und quantitativer Methoden in der empirischen Sozialforschung Theoretische Grundlagen und methodologische Konzepte. 2. Aufl. Wiesbaden: VS Verlag für Sozialwissenschaften. 574
Philosophie der Soziologie
– (2014). Mixed Methods. In: Nina Baur und Jörg Blasius(Hg.), Handbuch Methoden der empirischen Sozialforschung, 153–166. Wiesbaden: Springer – und Susann Kluge (2010). Vom Einzelfall zum Typus: Fallvergleich und Fallkontrastierung in der qualitativen Sozialforschung. 2., überarb. Aufl. Wiesbaden: VS. Keuschnigg, Marc und Tobias Wolbring (Hg.) (2015). Experimente in den Sozialwissenschaften. (Soziale Welt - Sonderband 22). Baden-Baden: Nomos. Khalidi, Muhammad Ali (2010). Interactive Kinds. The British Journal for the Philosophy of Science 61, 35–60. Kim, Jaegwon (1998). Mind in a Physical World: An Essay on the Mind-Body Problem and Mental Causation. Cambridge, MA: MIT Press. Kincaid, Harold (1990). Defending Laws in the Social Sciences. Philosophy of the Social Sciences 20, 56–83. – (1996). Philosophical Foundations of the Social Sciences: Analyzing Controversies in Social Research. Cambridge; New York, NY: Cambridge University Press. – (2002). Social Sciences. In: Peter Machamer und Michael Silberstein (Hg.), The Blackwell Guide to the Philosophy of Science., 290–311. Malden, MA : Blackwell. – (Hg.) (2012). The Oxford Handbook of Philosophy of Social Science. Oxford; New York, NY: Oxford University Press. Kneer, Georg (2011) Social Order from an Association Theory Perspective, in Gert Albert and Steffen Sigmund (Hg.), Soziologische Theorie kontrovers (Sonderheft 50/2010 der Kölner Zeitschrift für Soziologie und Sozialpsychologie), Wiesbaden: VS Verlag für Sozialwissenschaften, 270 – 278. Knoblauch, Hubert (2005). Wissenssoziologie. Konstanz: UVK (utb). Kusch, Martin (2012). Sociology of Science: Bloor, Collins, Latour. In: James Robert Brown (Hg.), Philosophy of Science: The Key Thinkers, 168–187. London; New York, NY: Continuum. –, Herlinde Pauer-Studer und Hans Bernhard Schmid (Hg.) (2014). Group Agency and Collective Intentionality. Erkenntnis (Sonderausgabe) 79. Latour, Bruno (2010). Eine neue Soziologie für eine neue Gesellschaft. Einführung in die Akteur-Netzwerk-Theorie, Fankfurt a. M.: Suhrkamp. Lehtinen, Aki, und Jaakko Kuorikoski (2007). Unrealistic Assumptions in Rational Choice Theory. Philosophy of the Social Sciences 37, 115–138. Lindenberg, Siegwart (1990). Homo socio-oeconomicus: The Emergence of a General Model of Man in the Social Sciences, Journal of Institutional and Theoretical Economics 146, 727 – 748. Little, Daniel (1991). Varieties of Social Explanation: an Introduction to the Philosophy of Social Science. Boulder: Westview Press. List, Christian, und Philip Pettit (2011). Group Agency: The Possibility, Design, and Status of Corporate Agents. Oxford ; New York, NY: Oxford University Press. List, Christian, und Kai Spiekermann (2013). Methodological Individualism and Holism in Political Science: A Reconciliation. American Political Science Review 107, 629–643. 575
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Lohse, Simon (2011). Zur Emergenz des Sozialen bei Niklas Luhmann. Zeitschrift für Soziologie 40, 190–208. López, José, und John Scott (2000). Social Structure: Concepts in the Social Sciences. Buckingham; Philadelphia: Open University Press. Luhmann, Niklas (1970). Funktion und Kausalität, 9 – 30. In: N. Luhmann, Soziologische Aufklärung 1. Aufsätze zur Theorie sozialer Systeme. Opladen: Westdeutscher. – (1974). Funktionale Methode und Systemtheor ie, 31 – 53. In Soziologische Aufklärung, Bd. 1. Aufsätze zur Theorie sozialer Systeme. Opladen: Westdeutscher. – (1986). Systeme verstehen Systeme. In Niklas Luhmann. und Karl Eberhard Schorr (Hg.), Zwischen Intransparenz und Verstehen. Fragen an die Pädagogik, 72–117, Frankfurt a. M.: Suhrkamp. – (1997). Was ist Kommunikation? In: Fritz B. Simon (Hg.), Lebende Systeme. Wirklichkeitskonstruktionen in der systemischen Therapie, 19–31 Frankfurt a. M.: Suhrkamp. Maasen, Sabine (1999). Wissenssoziologie. Bielefeld: Transkript. Maaz, Kai, Jürgen Baumert, und Ulrich Trautwein (2010). Genese sozialer Ungleichheit im institutionellen Kontext der Schule: Wo entsteht und vergrößert sich soziale Ungleichheit? In: Jürgen Baumert, Kai Maaz, und Ulrich Trautwein (Hg.), Bildungsentscheidungen, 11–46. Wiesbaden: VS Verlag für Sozialwissenschaften. Mannheim, Karl (1985 [1936]). Ideologie und Utopie. 7. Aufl. Frankfurt a. M.: Klostermann. Mantzavinos, Chrysostomos (Hg.) (2009). Philosophy of the Social Sciences: Philosophical Theory and Scientific Practice. Cambridge; New York, NY: Cambridge University Press. – (2012). Explanations of Meaningful Actions. Philosophy of the Social Sciences 42 (2), 224–38. Marshall, Martin N. (1996). Sampling for Qualitative Research. Family Practice 13, 522–526. Mayntz, Renate (2009). Soziale Mechanismen in der Analyse gesellschaftlicher Makrophänomene. In: Renate Mayntz (Hg.), Sozialwissenschaftliches Erklären: Probleme der Theoriebildung und Methodologie, 97–121. Frankfurt am Main: Campus. Mayr, Erasmus (2011). Understanding Human Agency. Oxford; New York, NY: Oxford University Press. McIntyre, Lee C. (1993). Complexity and Social Scientific Laws. Synthese 97, 209– 227. McLaughlin, Brian, und Karen Bennett (2014). Supervenience. In: Edward N. Zalta (Hg.), The Stanford Encyclopedia of Philosophy (Spring 2014 Edition), http://plato. stanford.edu/archives/spr2014/entries/supervenience/ (14.09.2015). Meja, Volker, und Nico Stehr (Hg.) (1982). Der Streit um die Wissenssoziologie. Frankfurt am Main: Suhrkamp. Merton, Robert K. (1995 [1957]). Manifeste und latente Funktionen, 17 – 81. In: R. K. Merton, Soziologische Theorie und soziale Struktur. Berlin/ New York: de Gruyter. 576
Philosophie der Soziologie
Michels, Robert (1908). Die oligarchischen Tendenzen in der modernen Gesellschaft. Archiv für Sozialwissenschaft und Sozialpolitik 27, 73 – 135. Mill, John S. (1882 [1843]). A System of Logic: Ratiocinative and Inductive. 8. Aufl. New York: Harper & Brothers. Miller, Seumas (2012). Social Institutions. In: Edward N. Zalta (Hg.), The Stanford Encyclopedia of Philosophy (Fall 2012 Edition), http://www.science.uva.nl/~seop/ entries/social-institutions/ (6.11.2013). Mol, Annemarie (2011) Actor-Network Theory: Sensitive Terms and Enduring Questions, in Gert Albert and Steffen Sigmund (Hg.), Soziologische Theorie kontrovers (Sonderheft 50/2010 der Kölner Zeitschrift für Soziologie und Sozialpsychologie), Wiesbaden: VS Verlag für Sozialwissenschaften, 253 – 269. Morgan, Mary S (2013). Nature’s Experiments and Natural Experiments in the Social Sciences. Philosophy of the Social Sciences 43, 341–357. Munro, Eileen (2015). Evidence-Based Policy. In: Nancy Cartwright und Eleanora Montuschi (Hg.), 48–67, Philosophy of Social Science: A New Introduction. Oxford: Oxford University Press. Nagel, Ernest (1961). The Structure of Science: Problems in the Logic of Scientific Explanation. London: Routledge & Kegan Paul. Nelson, Richard R. (2007). Universal Darwinism and Evolutionary Social Science. Biology & Philosophy 22, 73–94. Neurath, Otto (1931). Soziologie im Physikalismus. Erkenntnis 2, 393–431. – (1944). Foundations of Social Sciences. Chicago, Ill.: Chicago University Press. Norkus, Zenonas (2001). Max Weber und Rational Choice. Marburg: Metropolis. Paternotte, Cédric, und Jonathan Grose (2013). Social Norms and Game Theory: Harmony or Discord? The British Journal for the Philosophy of Science 64, 551–587. Pearl, Judea (2000). Causality: Models, Reasoning, and Inference. Cambridge; New York, NY: Cambridge University Press. Pettit, Philip, und David Schweikard (2006). Joint Actions and Group Agents. Philosophy of the Social Sciences 36, 18–39. Place, Ullin T. (1992). The Role of the Ethnomethodological Experiment in the Empirical Investigation of Social Norms and Its Application to Conceptual Analysis. Philosophy of the Social Sciences 22, 461–474. Plantin, Jean -Christophe, Carl Lagoze, Paul N. Edwards, und Christian Sandvig. i. E. Big Data is not About Size: When Data Tranform Scholarship. In: Clément Mabi, Jean -Christophe Plantin, und Laurence Monnoyer-Smith (Hg.), Les donné es à l’heure du numérique. Ouvrir, partager, expérimenter. In: Paris: Éditions de la Maison des Sciences de l’Homme. Popper, Karl (1945). The Open Society and its Enemies. Bd. 2: The High Tide of Prophecy: Hegel, Marx, and the Aftermath. London: Routledge. – (1969). Die Logik der Sozialwissenschaften. In: Adorno, Theodor W. (Hg.), Der Positivismusstreit in der deutschen Soziologie, 103–123. Neuwied [u. a.]: Luchterhand. 577
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Putnam, Hilary (1967). Psychological Predicates, In: W. H. Capitan and D. D. Merrill (Hg.), Art, Mind, and Religion, Pittsburgh: University of Pittsburgh Press, 37–48. Reckwitz, Andreas (2012). Die Transformation der Kulturtheorien: zur Entwicklung eines Theorieprogramms. 3. Aufl. Weilerswist: Velbrück Wissenschaft. Reiss, Julian (2009). Causation in the Social Sciences: Evidence, Inference, and Purpose. Philosophy of the Social Sciences 39, 20–40. Reydon, Thomas A. C., und Markus Scholz (2009). Why Organizational Ecology Is Not a Darwinian Research Program. Philosophy of the Social Sciences 39, 408–439. Richerson, Peter. J. und Robert, Boyd (2005). Not by Genes Alone. How Culture Transformed Human Evolution. Chicago/London: The University of Chicago Press. Risjord, Mark (2005). Reasons, Causes, and Action Explanation. Philosophy of the Social Sciences 35, 294–306. – (2014a). Structure, Agency, and Improvisation. In: Julie Zahle und Finn Collin (Hg.), Rethinking the Individualism-Holism Debate. Essays in the Philosophy of Social Science, 219–236. Cham [u. a.]: Springer. – (2014b). Philosophy of Social Science: A Contemporary Introduction. New York: Routledge. Root, Michael (2000). How We Divide the World. Philosophy of Science 67, 628–639. Rosa, Hartmut (2013). Beschleunigung und Entfremdung: Entwurf einer kritischen Theorie spätmoderner Zeitlichkeit. Berlin: Suhrkamp. Rosaldo, Renato (1980). Ilongot Headhunting, 1883 – 1974: A Study in Society and History. Stanford, CA: Stanford University Press. Rosenberg, Alexander (2012a). Why do Spatiotemporally Restricted Regularities Explain in the Social Sciences? The British Journal for the Philosophy of Science 63, 1–26. – (2012b). Philosophy of Social Science. 4 überarb. Aufl. Boulder, CO: Westview Press (5. überarb. Aufl. 2015). Roth, Paul (2011). The Philosophy of Social Science in the 20th Century: Analytic Traditions: Reflections on the Rationalitätsstreit. In: Ian C. Jarvie und Jesús Zamora-Bonilla (Hg.), The SAGE Handbook of the Philosophy of Social Sciences, 103–118. Los Angeles, CA: SAGE . Runhardt, Rosa W. (2015). Evidence for Causal Mechanisms in Social Science: Recommendations from Woodward’s Manipulability Theory of Causation. Philosophy of Science 82, 1296 – 1307 Salmon, Merrilee (1989). Explanation in the Social Sciences. In: Philip Kitcher und Wesley C. Salmon (Hg.), Scientific Explanation (Minnesota Studies in the Philosophy of Science Vol. 13), 385–409. Minneapolis: University of Minnesota Press. Salmon, Wesley C. (1984). Scientific Explanation and the Causal Structure of the World. Princeton, N.J: Princeton University Press. Sawyer, R. Keith (2002a). Durkheim's Dilemma: Toward a Sociology of Emergence. In: Sociological Theory 20, 227 – 247. – (2002b). Nonreductive Individualism Part I - Supervenience and Wild Disjunction. Philosophy of the Social Sciences 32, 537–559. 578
Philosophie der Soziologie
– (2003). Nonreductive Individualism Part II - Social Causation. Philosophy of the Social Sciences 33, 203–224. – (2005). Social Emergence. Cambridge: Cambridge University Press. – (2012). Response to Emergence in Sociology. Philosophy of the Social Sciences 42, 270–276. Sayes, Edwin (2014). Actor-Network Theory and Methodology: Just What Does it Mean to Say that Nonhumans Have Agency? Social Studies of Science 44, 134– 149. Schatzki, Theodore R. (2001). On Sociocultural Evolution by Social Selection. Journal for the Theory of Social Behaviour 31, 341–364. – (2002). The Site of the Social: A Philosophical Account of the Constitution of Social Life and Change. University Park, PA: Pennsylvania State University Press. Scheines, Richard (2005). The Similarity of Causal Inference in Experimental and Non-experimental Studies. Philosophy of Science 72, 927–940. Schnell, Rainer (1991). Wer ist das Volk? Zur faktischen Grundgesamtheit bei »allgemeinen Bevölkerungsumfragen«: Undercoverage, Schwererreichbare und Nichtbefragbare. Kölner Zeitschrift für Soziologie und Sozialpsychologie 43, 106–137. Schmid, Hans Bernhard (2009). Overcoming the ›Cartesian Brainwash‹. Beyond Intentional Individualism. In: Schmid, Hans-Bernhard (Hg.), Plural Action. Essays in Philosophy and Social Science, 29–45. Dordrecht: Springer. – und David P. Schweikard (Hg.) (2009). Kollektive Intentionalität. Eine Debatte über die Grundlagen des Sozialen. Frankfurt am Main: Suhrkamp. Schimank, Uwe (1996). Theorien gesellschaftlicher Differenzierung. Opladen: Leske + Budrich. – und Ute Volkmann (2007). Soziologische Gegenwartsdiagnosen I. Eine Bestandsaufnahme, Wiesbaden: VS Verlag. Scholl, Armin (2013). Reaktivität im Forschungsprozess. In: Wiebke Möhring und Daniela Schlütz (Hg.), Handbuch standardisierte Erhebungsverfahren in der Kommunikationswissenschaft, 79–99. Wiesbaden: Springer. Schrenk, Markus A. (2007). The Metaphysics of Ceteris Paribus Laws. Frankfurt am Main: Ontos. Schülein, Johann A. und Andreas Balog (2008). Soziologie, eine multiparadigmatische Wissenschaft. Erkenntnisnotwenigkeit oder Übergangsstadium? Wiesbaden: VS Verlag für Sozialwissenschaften. Schütz, Alfred (1993 [1932]). Der sinnhafte Aufbau der sozialen Welt. Eine Einleitung in die verstehende Soziologie. Frankfurt a. M.: Suhrkamp. Schützeichel, Rainer (2007). Handbuch Wissenssoziologie und Wissensforschung. Konstanz: uvk. Scriven, Michael (1994). A Possible Distinction Between Traditional Scientific Disciplines and the Study of Human Behavior. In: Michael Martin und Lee C. McIntyre (Hg.), Readings in the Philosophy of Social Science, 71–78. Cambridge, MA: MIT Press. Searle, John R. (1995). The Construction of Social Reality. New York: Free Press. 579
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
– (2010). Making the Social World: the Structure of Human Civilization. Oxford: Oxford University Press. Small, Mario L. (2011). How to Conduct a Mixed Methods Study: Recent Trends in a Rapidly Growing Literature. Annual Review of Sociology 37, 57–86. Spencer, Herbert (1966 [1897]). The Principles of Sociology. Vol. I. Osnabrück: Otto Zeller. Spirtes, Peter, Clark Glymour, und Richard Scheines (2000). Causation, Prediction, and Search. 2. Aufl. Cambridge, MA: MIT Press. Stahl, Titus (2013). Immanente Kritik. Elemente einer Theorie sozialer Praktiken. Frankfurt a. M./ New York: Campus. Steel, Daniel (2004). Social Mechanisms and Causal Inference. Philosophy of the Social Sciences 34, 55–78. – (2011). Causality, Causal Models, and Social Mechanisms. In: Ian C. Jarvie und Jesús Zamora-Bonilla (Hg.), The SAGE Handbook of the Philosophy of Social Sciences, 288–304. Los Angeles, CA: SAGE – und Francesco Guala (Hg.) (2011). The Philosophy of Social Science Reader. London; New York, NY: Routledge. Stephan, Achim (2011). Emergenz in sozialen Systemen. In: Jens Greve und Annette Schnabel (Hg.), Emergenz. Zur Analyse und Erklärung komplexer Strukturen, 133– 155. Frankfurt am Main: Suhrkamp. Stoutland, Frederick (1986). Reasons, Causes, and Intentional Explanation. Analyse & Kritik 8, 28–55. Strübing, Jörg (2002). Just do it? Zum Konzept der Herstellung und Sicherung von Qualität in grounded theory-basierten Forschungsarbeiten Kölner Zeitschrift für Soziologie und Sozialpsychologie 54, 318–342. Stueber, Karsten R. (2013). The Causal Autonomy of Reason Explanations and How Not to Worry about Causal Deviance. Philosophy of the Social Sciences 43, 24–45. Tanney, Julia (1995). Why Reasons May Not Be Causes. Mind & Language 10, 105– 128. – (2013). Causes versus Reasons in Action Explanation. In: Kaldis, Byron (Hg.), Encyclopedia of Philosophy and the Social Sciences, 73–78. Los Angeles, CA [u. a.]: SAGE . Tarde, Gabriel (1969). A Debate with Emile Durkheim, in Terry N.Clark (Hg.), On Communication and Social Influence. Selected Papers. Edited and with an Introduction by Terry N. Clark, Chicago und London: The University of Chicago Press, 136 – 140. – (2009 [1890]). Die Gesetze der Nachahmung, Frankfurt a. M.: Suhrkamp. Taylor, C. (1971). Interpretation and the Sciences of Man. The Review of Metaphysics 25, 3–51. Tollefsen, Deborah Perron (2002). Collective Intentionality and the Social Sciences. Philosophy of the Social Sciences 32, 25–50. Tuomela, Raimo (1995). The Importance of Us: A Philosophical Study of Basic Social Notions. Stanford, CA: Stanford University Press. 580
Philosophie der Soziologie
– (2002). The Philosophy of Social Practices: A Collective Acceptance View. Cambridge ; New York, NY: Cambridge University Press. Turner, Jonathan H., Leonard Beeghley, und Charles H. Powers (2002). The Emergence of Sociological Theory. 5. Aufl. Stamford, CT: Wadsworth / Thomson Learning. Turner, S. P. (1994). The Social Theory of Practices. Tradition, Tacit Knowledge and Presuppositions. Cambridge: Polity Press. Udehn, Lars (2002). The Changing Face of Methodological Individualism. Annual Review of Sociology 28, 479–507. Van Bouwel, Jeroen, und Erik Weber (2008). De-Ontologizing the Debate on Social Explanations: A Pragmatic Approach Based on Epistemic Interests. Human Studies 31, 423–442. Van Bouwel, Jeroen (2014). Explanatory Strategies Beyond the Individualism / Holism Debate. In: Julie Zahle und Finn Collin (Hg.), Rethinking the Individualism-Holism Debate. Essays in the Philosophy of Social Science, 153–176. Cham [u. a.]: Springer. Vanberg, Viktor J. (1975). Die zwei Soziologien: Individualismus und Kollektivismus in der Sozialtheorie. Tübingen: Mohr. – (1984). »Unsichtbare-Hand Erklärungen« und soziale Normen, 115 – 146. In: D. Dörner, W. Güth, A. Klopstech u. a. (Hg.), Normgeleitetes Verhalten in den Sozialwissenschaften. Schriften des Vereins für Socialpolitik, Bd. 141. Berlin: Dunker & Humblot. Watkins, John W. N. (1952). Ideal Types and Historical Explanation. The British Journal for the Philosophy of Science 3, 22–43. – (1957). Historical Explanation in the Social Sciences. The British Journal for the Philosophy of Science 8, 104–117. Weber, Marcel (2007). Intentionalismus in der Philosophie der Biologie. Information Philosophie H.4, 38–45. Weber, Max (1980 [1922]). Wirtschaft und Gesellschaft. Grundriß der verstehenden Soziologie. 5. Auflage. Tübingen: Mohr. – (1988 [1904]). Die 'Objektivität' sozialwissenschaftlicher und sozialpolitischer Erkenntnis. In: (Hg.), Gesammelte Aufsätze zur Wissenschaftslehre. 7. Aufl. Tübingen: Mohr (Siebeck), 146 – 214. Wenzel, Harald (1990). Die Ordnung des Handelns. Talcott Parsons' Theorie des allgemeinen Handlungssystems. Frankfurt a. M.: Suhrkamp. Wilson, Bryan R. (Hg.) (2002). Rationality. Oxford: Blackwell. Wimsatt, William C. (2006). Aggregate, composed, and evolved systems: Reductionistic heuristics as means to more holistic theor ies. Biology and Philosophy 21, 667 – 702. Winch, Peter (1958). The Idea of a Social Science and Its Relation to Philosophy. London: Routledge & Kegan Paul. – (1964). Understanding a Primitive Society. American Philosophical Quarterly 1, 307–324. 581
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Wittgenstein, Ludwig (1953). Philosophical Investigations / Philosophische Untersuchungen. Oxford: Blackwell. Woodward, James (2000). Explanation and Invariance in the Special Sciences. The British Journal for the Philosophy of Science 51, 197–254. – (2003). Making Things Happen. A Theory of Causal Explanation. Oxford: Oxford University Press. Wortmann, Hendrik (2010). Zum Desiderat einer Evolutionstheorie des Sozialen: Darwinistische Konzepte in den Sozialwissenschaften. Konstanz: Uvk. Wright, Georg Henrik von (1971). Explanation and Understanding. London: Routledge and K. Paul. Zahle, Julie (2007). Holism and Supervenience. In: Stephen P. Turner und Mark W. Risjord (Hg.), Philosophy of Anthropology and Sociology, 311–342. Amsterdam: Elsevier. Zhang, Jiji, und Peter Spirtes (2011). Intervention, Determinism, and the Causal Minimality Condition. Synthese 182, 335–347.
582
4. Philosophie der Ökonomik Julian Reiss
1 Allgemeine Einleitung »Ökonomik« bezeichnet die Wissenschaft von der Ökonomie, d. h. der wirtschaftlichen Dinge – Güter und Preise, Produktion und Arbeit, Handel (inkl. Außenhandel) und Konsum, Geld, Schulden und Eigentum, Entwicklung, Wachstum und Wohlstand – sowie ihrer Kausalzusammenhänge. Was macht ein Philosoph, der sich auf die »Philosophie der Ökonomik« spezialisiert hat, oder umgekehrt ein Ökonom, der sich für die philosophischen Grundlagen seiner Disziplin interessiert? Um diese Frage zu beantworten, kehren wir zunächst zur empiristischen Tradition zurück, die in der analytischen Philosophie bis etwa Anfang der siebziger Jahre des vorigen Jahrhunderts eine dominante Stellung hatte und in der Ökonomik bis heute fortlebt. Nach dieser Tradition können wir echtes Wissen nur über Sachverhalte haben, die sich entweder logisch aus Definitionen ableiten und daher a priori wahr oder falsch sind oder aufgrund von Beobachtungen verifizieren lassen und damit a posteriori wahr oder falsch sind. Dieser Tradition gemäß gibt es nun auch viele Dinge, die uns als Menschen interessieren könnten, von denen wir aber bestenfalls eine Meinung, nicht jedoch gut fundiertes Wissen haben können. Dazu gehört zum Beispiel die Existenz Gottes oder andere religiöse Auffassungen, ethische und moralische Prinzipien wie »Nächstenliebe ist gut« oder »Ungerechtfertigtes Töten schlecht«, sowie fundamentale Ansichten zu Kausalität und Zufall, Sein und Werden. Während die meisten Philosophen diese empiristischen Ansichten schon vor längerer Zeit aufgegeben haben, spielen sie in der Ökonomik noch heute eine recht bedeutende Rolle. Ökonomen fühlen sich mehrheitlich wohler auf der »sicheren Seite« der angenommenen Dichotomie, auf der Seite von Logik, Mathematik und beobachtbarer Tatsache, und überlassen das Spekulieren über das Gute und Gerechte und über Existenz und Ursache lieber den Philosophen. Philosophen haben diese Einladung immer gern angenommen. Selbst die Hochzeit des logischen Empirismus zwischen den zwanziger und sechziger Jahren des vorigen Jahrhunderts stellt hierin keine Ausnahme dar (wenn auch die philosophischen Theo rien der logischen Empiristen gewissen Anforderungen entsprechen mussten). Die Ablehnung der Metaphysik und Ethik durch »wissenschaftliche« Ökonomen möchte ich mit einem Beispiel illustrieren. Es stammt von einem Aufsatz der Princeton-Ökonomen Faruk Gul und Wolfgang Pesendorfer über die methodo583
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
logischen Implikationen der sogenannten Neuroökonomik. Gul und Pesendorfer schreiben: Die Standardökonomik identifiziert Wohlfahrt mit der Handlungsentscheidung [choice] … Die neuroökonomische Kritik der Standardwohlfahrtanalyse verwechselt die ökonomische Definition von Wohlfahrt mit einer Theor ie des Glücks und versucht, Evidenz gegen diese Theorie zu finden. Die Standarddefinition von Wohlfahrt ist jedoch angebracht, weil die Standardökonomik keine therapeutische Ambition hat; sie versucht nicht, den Entscheidungsträger zu verbessern, sondern zu beurteilen, wie ökonomische Institutionen das (womöglich psychologisch ungesunde) Verhalten von Akteuren beeinflussen. (Gul/Pesendorfer 2008, 8; meine Übersetzung)
Was Gul und Pesendorfer hier meinen, ist, dass die Ökonomik eben keine Empfehlungen gibt. Sie beschreibt nur das Handeln der ökonomischen Akteure; sie sagt nicht, wie Akteure handeln sollen. Sie ist Wissenschaft und nicht Ethik. In den vergangenen dreißig Jahren jedoch haben sich Ökonomik und Philosophie einander angenähert. Die Ansicht Guls und Pesendorfers, nach der die Ökonomik keine Beratungsfunktion hat, ist wohl immer noch vorherrschend, aber viele zeitgenössische Ökonomen sehen ein, dass ihre Disziplin nicht ohne ethische Reflexion auskommt. Insbesondere die Arbeit des Nobelpreisträgers von 1998, Amartya Sen, auf die in diesem Beitrag später eingegangen wird, ist in diesem Zusammenhang zu erwähnen. Der heterodoxe Cambridgeökonom Ha-Joon Chang sagt es ganz deutlich: »Es ist nicht möglich, eine klare Trennlinie zwischen Ökonomik und Politik zu ziehen« (Chang 2014, 285; meine Übersetzung). Auch gewisse Themen, die traditionellerweise als metaphysisch gelten und daher den Philosophen überlassen wurden, werden mehr und mehr salonfähig. Hier müssen wichtige Beiträge zum Verständnis des Begriffs der Ursache und zur Entwicklung von Methoden der Kausalanalyse durch Ökonometriker wie z. B. den Nobelpreisträger von 2000, James Heckman, sowie David Hendry und Kevin Hoover genannt werden. Aber auch die Philosophie hat sich verändert. Zum einen sehen viele Philosophen, insbesondere Wissenschaftsphilosophen, eine Kontinuität zwischen Philosophie und Wissenschaft und erarbeiten philosophische Theorien und Prinzipien im engen Austausch und mit tiefer Kenntnis der jeweils relevanten Wissenschaft. Auch wenn Philosophen, Sozialwissenschaftler und Naturwissenschaftler weiterhin an getrennten Fachbereichen arbeiten, tragen insbesondere Wissenschaftsphilosophen heute (wieder) zu etlichen sozial- und naturwissenschaftlichen Debatten bei. Ferner machen Philosophen, vor allem Ethiker, heute Anleihen in der Ökonomik. So werden bestimmte Methoden, etwa aus der Entscheidungs- und Spieltheorie, benutzt, um ethische Fragen zu klären (siehe z. B. Broome 1991; van Hees 1995). Somit wird die Philosophie, zumindest in einigen Bereichen (außer der formalen Ethik sind hier z. B. die formale Erkenntnistheor ie sowie Teile der Handlungstheor ie zu nennen), der Ökonomik ähnlicher. 584
Philosophie der Ökonomik
Heutzutage gliedert sich das Fach »Philosophie der Ökonomik« in drei Teile (vgl. Hausman 2013; Reiss 2013b), 1. Die philosophischen Grundlagen ökonomischer Theor iebildung; 2. Methodologie der Ökonomik; und 3. Ethische Aspekte der Ökonomie. Dieser Beitrag widmet sich jedem dieser drei Teile in jeweils zwei Abschnitten. Diesem systematischen Teil wird ein kurzer historischer Abriss vorangestellt, um den Leser zu orientieren und um zu zeigen, dass die Philosophie der Ökonomik keine Erfindung der letzten dreißig Jahre ist.
2 Eine kurze Geschichte der Philosophie der Ökonomik Die Geschichte der Philosophie der Ökonomik (PdÖ) ist ebenso alt wie die Ökonomik selbst. Wie allgemein bekannt, stammt der Begriff »Ökonomik« von Aristoteles (384 – 322 v. Chr.). Wir finden bei Aristoteles jedoch auch eine differenzierte Werttheorie sowie Gedanken zum Geldwesen und zum Gütertausch. Was für uns wichtig ist, ist, dass die ökonomischen Ideen Aristoteles’ einen Teil seines umfassenden ethischen Systems darstellen. Ökonomik ist bei ihm ein Unterfach der Ethik und somit ein Teilgebiet der Philosophie. Ähnlich ist es auch bei Adam Smith (1723 – 1790). Ökonomen ist Smith vornehmlich als Autor der Schrift Wohlstand der Nationen und somit als Begründer der modernen Ökonomik bekannt. Wie Philosophen jedoch wissen, war Smith vor allem Moralphilosoph. Eine der philosophischen Fragen, der er sich gewidmet hat, geht noch auf Aristoteles zurück: »Was ist wichtiger: das allgemeine, gesellschaftliche Glück oder das persönliche, individuelle Glück?«. Sein Wohlstand der Nationen beantwortet diese Frage mit der These, dass das allgemeine, gesellschaftliche Glück maximiert werde durch das Streben jedes Individuums, sein persönliches Glück im Rahmen der gesellschaftlichen Grenzen zu erhöhen. Die Geburt der modernen Ökonomik erfolgte somit auch im Rahmen einer philosophischen Untersuchung (Smith [1776] 1904). Als erster eigentlicher Philosoph der Ökonomik muss allerdings ein anderer Vertreter der ökonomischen Klassik gelten, nämlich John Stuart Mill (1806 – 1873). Dieser war nicht nur bedeutender Philosoph und Ökonom, sondern auch einer der ersten Denker, die sich systematisch mit der Frage nach dem Wesen und der Methodik der Ökonomik auseinandergesetzt haben (siehe z. B. Mill 1948 [1830]). Der sog. »Methodenstreit in der deutschen Nationalökonomie«, der in den achtziger und neunziger Jahren des 18. Jahrhunderts vor allem zwischen Gustav Schmoller (1838 –1917), dem Vertreter der deutschen Historischen Schule, und dem österreichischem Ökonomen Carl Menger (1840 –1921), einem der Begründer der Grenznutzenlehre, ausgetragen wurde, entbrannte vor allem an der Frage, welchen Stellenwert induktive und deduktive Forschungsmethoden haben sollen (siehe z. B. Reiss 2000). Menger folgte Mill im Großen und Ganzen und verteidigte eine deduktiv-aprioristische Methodik. Schmoller wollte induktivem 585
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Arbeiten, vor allem dem Sammeln detaillierter Fakten zu den einzelnen Wirtschaftszweigen, mehr Platz einräumen. Die österreichische Seite wird gemeinhin als Sieger dieser Auseinandersetzung betrachtet, vielleicht auch, weil die detaillierten empirischen Untersuchungen der historischen Schule nie dem Anspruch gerecht wurden, die Basis für allgemeingültige ökonomische Gesetzmäßigkeiten zu bilden. Das 20. Jahrhundert sah vor allem Debatten zwischen Vertretern des logischen Positivismus, Vertretern des kritischen Rationalismus Karl Poppers (1902 –1994) und der Gegner dieser Philosophien. Terence Hutchisons Buch The Significance and Basic Postulates of Economic Theory (Hutchison 1938) stellte eine Kritik der damals vorherrschenden aprioristischen Methodenlehre vom Standpunkt des Positivismus dar. Milton Friedmans berühmter Essay von 1953 war sowohl vom Positivismus als auch von Poppers Falsifizierungsphilosophie beeinflusst und vertrat eine Methodenlehre, die später Instrumentalismus genannt wurde (Friedman 1953). Wie der Name andeutet, versteht dieser Ansatz ökonomische Theo rien vor allem als Werkzeuge für die Vorhersage beobachtbarer (oder messbarer) Phänomene. Auf den Wahrheitsgehalt der Postulate der Theor ie – wie z. B. dem, Wirtschaftsakteure als rationalen Nutzenmaximierer zu betrachten – komme es dabei nicht an. Anfang der Achtziger erschien dann die erste Ausgabe von Mark Blaugs Methodology of Economics: Or, How Economists Explain, einem Versuch, Poppers Falsifizierungslehre auf die Ökonomik anzuwenden (Blaug 1992). Deirdre McCloskeys ebenso Anfang der Achtziger erschienener Aufsatz und ihr späteres Buch lassen sich als Fundamentalkritik aller dieser Ansätze verstehen. McCloskey lehnt Positivismus, Popperianismus, Empirismus und Instrumentalismus allesamt als »modernistisch« ab und setzt dem eine postmodernistische sog. »Rhetorik« der Ökonomik, die alle strikten methodologischen Regeln (wie z. B. »Nur die beobachtbaren Implikationen einer Theor ie sollten über ihren Wahrheitsgehalt entscheiden« oder »Es ist das Ziel der Methodik, Wissenschaft von Nichtwissenschaft und deskriptive von normativen Fragen zu trennen«) ablehnt und an deren Stelle die Analyse der Sprachformen setzt, mit denen Ökonomen andere Ökonomen und Nichtökonomen von ihren Meinungen überzeugen, entgegen (McCloskey 1983; 1985). Die letzte Dekade des alten und die erste des neuen Jahrtausends lassen sich als Rückkehr zu Mill verstehen. Zunächst hat Daniel Hausman mit seinem Inexact and Separate Science of Economics Mills deduktiv-aprioristische Methode formalisiert, weiterentwickelt und auf die moderne Ökonomik angewandt (Hausman 1992). Nancy Cartwrights verschiedene Arbeiten in der PdÖ bauen vor allem auf Mills Theor ie kausaler Tendenzen auf, die sie als sog. kausale Kapazitäten sowohl als metaphysische Theor ie zur Natur der Kausalität als auch als methodologische Theor ie des Lernens von Kausalzusammenhängen weiterentwickelt (z. B. Cartwright 1989; 2007). Francesco Guala versteht ökonomische Experimente durch die Linse von Mills »Kanon induktiver Methoden« (Guala 2005). Julian Reiss nutzt Mills induktiven Skeptizismus in Bezug auf die Ökonomik als 586
Philosophie der Ökonomik
Kontrast, um seinen eigenen »evidenzbasierten« Ansatz zur ökonomischen Forschungsmethodik zu entwickeln (Reiss 2008).
3 Die Grundlagen ökonomischer Theoriebildung Eine der Hauptaufgaben der Ökonomik ist es, ökonomische Theor ien zu erarbeiten und anhand von Daten zu testen. Nach Carl Menger hat die ökonomische Theoriebildung drei Ziele: soziale Phänomene zu erklären, vorherzusagen und zu manipulieren (Menger 1963 [1887]). Wissenschaftler erklären Phänomene in erster Linie, um Verständnis zu erlangen, aber auch als Vorbereitung für zukünftige Interventionen. Je besser man die Ursachen einer Wirtschaftskrise versteht, desto besser wird man in der Lage sein, eine zukünftige Krise zu verhindern. Sie sagen Phänomene voraus, um Individuen, Firmen und Regierungsinstitutionen das Planen zu ermöglichen und um ihre eigenen Theor ien zu überprüfen. Ferner schlagen sie Institutionen und Interventionen vor, die darauf abzielen, Wohlstand und Lebensqualität der Individuen zu verbessern. Im Folgenden betrachten wir, ob und wie v. a. die Entscheidungstheorie Ökonomen hilft, diese Ziele zu realisieren, und warum sie verlangen, dass makroökonomische Theor ien mikroökonomisch fundiert werden.
3.1 Philosophische Probleme der Entscheidungstheorie Nach Lionel Robbins ist die Ökonomik die »Wissenschaft, die menschliches Verhalten als Beziehung sieht zwischen Zwecken und knappen Mitteln, die alternative Verwendungen haben« (Robbins 1932, 15, meine Übersetzung). Wenn wir Robbins hierin folgen wollen (obwohl dies keinesfalls alternativlos ist: siehe Kapitelanfang), verstehen wir leicht, warum die Entscheidungstheor ie in der Ökonomik eine so wichtige Rolle spielt. Verstanden als deskriptive Theorie macht die Entscheidungstheor ie Vorhersagen, wie Menschen knappe Ressourcen Zwecken zuweisen; als normative Theorie macht sie Vorschläge, wie wir Ressourcen den verschiedenen Zwecken zuweisen sollten. Die einfachste und grundlegendste Entscheidungstheorie ist die ordinale Nutzentheorie. Sie findet Anwendung in Situationen, die durch vollkommene Risikolosigkeit gekennzeichnet sind. Wenn ich etwa zwischen Äpfeln und Birnen entscheiden will und weiß, dass keine Überraschungen passieren können (z. B. dass der Geschmack der Früchte nicht den Erwartungen entspricht oder sie verfault sind), dann befinde ich mich in einer Situation der vollkommenen Risikolosigkeit. Die Nutzentheorie geht davon aus, dass ökonomische Akteure Präferenzen über alle vorhandenen Entscheidungsalternativen haben. Wir werden den Begriff der Präferenzen unten noch näher bestimmen. An dieser Stelle reicht es, darunter die Fähigkeit eines Akteurs zu verstehen, vorhandene Entscheidungsalternativen 587
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
in eine Rangfolge zu bringen. Das heißt, dass man für jeweils zwei Alternativen X und Y sagen kann, ob man X gegenüber Y bevorzugt (X ≻ Y), Y gegenüber X bevorzugt (Y ≻ X) oder zwischen beiden indifferent ist (X ∼ Y). Unter gewissen Annahmen lassen sich nun die Präferenzen als Nutzenfunktion über die Alternativen darstellen. In dieser Nutzenfunktion wird jeder Alternative eine Zahl zugeordnet, die den Platz der Alternative in der Rangfolge abbildet. Wenn die Alternativen zum Beispiel Äpfel (A), Birnen (B) und Clementinen (C) sind und ich Äpfel Birnen gegenüber bevorzuge und Birnen Clementinen (A ≻ B ≻ C), könnte eine Nutzenfunktion f: f(A) = , f(B) = , und f(C) = zuordnen. Wichtig hierbei ist, dass die Zahlen nur die Rangfolge und nicht etwa die Intensität der Präferenzen abbilden. Die gegebenen Zahlen bedeuten nicht, dass der Akteur B doppelt so sehr mag wie C und A fünfmal so sehr wie B. Die Funktion f*: f*(A) = , f*(B) = , und f*(C) = . beinhaltet exakt dieselbe Information. Die wichtigsten Annahmen, die getroffen werden, um die Nutzenfunktion zu bilden, sind die der Vollständigkeit und der Transitivität der Präferenzen. Präferenzen sind vollständig, wenn alle vorhandenen Alternativen einen Platz in der Rangliste haben; sie sind transitiv dann und nur dann, wenn aus den Präferenzen A ≻ B und B ≻ C eine Präferenz A ≻ C folgt. Beide Annahmen sind kontrovers. Es ist nicht selbstverständlich, dass jemand tatsächlich alle Alternativen in eine Rangfolge bringen kann. Wenn einem ein Entführer anbietet, nur einen der beiden Zwillingsbrüder umzubringen und nicht beide, solange man sich entscheidet, welchen, kann es sein, dass man zwar eine Entscheidung trifft, nicht jedoch wirklich bevorzugt, dass dieser und nicht jener sterben soll (vgl. Hausman/McPherson 2006). Dass Menschen sich nicht entscheiden können, auch wenn sie alle verfügbaren Informationen besitzen, ist sicherlich ein weit verbreitetes Phänomen. Dass Menschen intransitive Präferenzen haben können, ist seit langem bekannt (siehe z. B. Davis 1958) und theoretische Argumente für Transitivität sind sicherlich nicht zwingend (Anand 1993). Ein kurzes Beispiel soll dies illustrieren. Stellen wir uns vor, dass ein Akteur Autos nach drei Kriterien bewertet: nach dem Preis, dem Verbrauch und dem Design. Ihm stehen drei Modelle zur Auswahl: ein Opel, ein Volkswagen und ein Mercedes. Im Bezug auf den Preis hat der Akteur folgende Präferenzen (wobei ≻P für »bevorzugt qua Preis« steht): Opel ≻P Volkswagen ≻P Mercedes.
Im Hinblick auf den Verbrauch (≻V ) hat er folgende Präferenzen: Volkswagen ≻V Mercedes ≻V Opel
Und im Hinblick auf das Design (≻D ) die folgenden: Mercedes ≻D Opel ≻D Volkswagen. 588
Philosophie der Ökonomik
Wenn er nun alle drei Kriterien gleich gewichtet und die Gesamtpräferenz über die Mehrheit der Einzelpräferenzen ermittelt, kommen wir auf folgende Präferenzpaarungen: Opel ≻ Volkswagen,
Volkswagen ≻ Mercedes und Mercedes ≻ Opel.
Einige Implikationen der ordinalen Entscheidungstheorie bleiben bestehen, wenn man die Transitivitätsannahme aufgibt (z. B. beweisen Kim und Richter 1986, dass ein Gleichgewicht auch unter schwächeren Annahmen existiert; siehe auch Shafer 1976). Ferner kommen einige der neueren Ansätze, die als Alternativen zur Standardentscheidungstheorie vorgeschlagen wurden, ohne die Annahme aus (z. B. Loomes/Sugden 1982). Die kardinale Entscheidungstheorie bezieht sich auf riskante Entscheidungen. Sie versteht Entscheidungsalternativen als Lotterien, die den Alternativen sowohl eine Eintrittswahrscheinlichkeit also auch einen Nutzwert zuordnen. Nehmen wir an, wir wollen unser Wochenende planen. Das Wetter kann entweder sonnig oder regnerisch sein. Wir müssen uns zwischen Grillen und Schwimmbad entscheiden. Somit bestehen vier Möglichkeiten:
Sonne (1 – p)
Regen (p)
Grillen
A
D
Schwimmbad
B
C
Am meisten bevorzugen wir Grillen bei Sonne (A), am wenigsten Grillen bei Regen (D). Die Schwimmbadalternativen liegen dazwischen. Nun können wir Alternative A den Nutzwert und und Alternative D zuordnen. Den Nutzwert der dazwischen liegenden Alternativen ermitteln wir, indem wir fragen, bei welcher Regenwahrscheinlichkeit p wir indifferent wären, Alternative B oder C mit Sicherheit zu bekommen oder eine Lotterie aus Alternative A, die mit einer Wahrscheinlichkeit von ( – p) eintritt, und D, die mit der Wahrscheinlichkeit p eintritt. Der Konsument wählt dann so aus, dass er den sog. Erwartungsnutzen maximiert. Wenn wir die Nutzenfunktion wieder mit f(.) beschreiben, ist der Erwartungsnutzen für Grillen ( – p)f(A) + p f(D) und der für das Schwimmbad ( – p)f(B) + p f(C). Die kardinale Entscheidungstheor ie benötigt eine wichtige zusätzliche Annahme, um aus den Präferenzen Nutzenfunktionen zu bilden: das sog. Unabhängigkeitsaxiom. Es besagt folgendes: Wenn X ≻ Y, dann pX + ( – p)Z ≻ pY + ( – p)Z für alle Alternativen Z und alle Wahrscheinlichkeiten p zwischen und . Das heißt, dass wenn ein Akteur X gegenüber Y bevorzugt, zieht er auch eine Lotterie, bei der er entweder X oder ein beliebiges Z erhält, einer Lotterie, bei 589
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
der er Y oder Z erhält, gegenüber vor. Selbstverständlich könnten X, Y und Z auch selbst Lotterien sein. Nehmen wir z. B. an, dass eine Arbeitnehmerin bereit ist, ihren Monatslohn von € (Y) für eine Lotterie, bei der sie entweder € oder € zu jeweils % Wahrscheinlichkeit erhält (X), aufzugeben. Um das Unabhängigkeitsaxiom zu erfüllen, müsste sie dann auch eine Lotterie, bei der sie mit einer Wahrscheinlichkeit von einem Drittel € und € zu zwei Dritteln erhielte, einer Lotterie, bei der sie € zu zwei Dritteln und € zu einem Drittel erhielte, vorziehen. Was das Unabhängigkeitsaxiom genau bedeutet, lässt sich am besten mit einem Paradoxon erklären. Im sog. Allais-Paradoxon (Allais 1953) werden Probanden mit zwei Entscheidungssituationen konfrontiert. In Situation müssen sie zwischen einem sicheren Gewinn von € (E) und einer Lotterie, bei der sie mit % Wahrscheinlichkeit € und mit % € gewinnen oder mit % leer ausgehen (E), auswählen. In Situation besteht die Auswahl zwischen einer Lotterie, die mit % nichts ausschüttet und mit % € (E), und einer zweiten, die mit % nichts ausschüttet und mit % € (E ).
Situation 1 Situation 2
Z1 (p = .89)
Z2 (p = .1)
Z3 (p = .01)
E1
€
€
€
E2
€
€
€
E3
€
€
€
E4
€
€
€
Viele Probanden entscheiden sich in Situation für E, in Situation jedoch für E . Dies widerspricht dem Unabhängigkeitsaxiom. Wie man in der Tabelle leicht sehen kann, unterscheiden sich beide Situationen nur in dem Gewinn, der mit einer -prozentigen Wahrscheinlichkeit eintritt, die anderen Gewinne sind exakt gleich. Nach dem Unabhängigkeitsaxiom müssten Akteure E gegenüber E nur dann bevorzugen, wenn sie auch E gegenüber E bevorzugen. Ein Grund hierfür mag darin bestehen, dass in Situation die Auswahl zwischen einem sicheren Gewinn und einer Lotterie besteht. Möglicherweise wollen Subjekte das Bedauern vermeiden, das sie empfinden würden, wenn sie E wählen und verlieren. In Situation wird in jedem Fall eine Lotterie gespielt. Wenn dem so ist, kann man auch die Lotterie mit dem höheren Erwartungswert auswählen. Es ist also nicht unbedingt so, dass Probanden, deren Auswahlverhalten das Axiom verletzt, notwendigerweise irrational sind. Ein von der Theorie des Erwartungsnutzens abweichendes Verhalten ist durchaus erklär- und rationalisierbar. Aufgrund von Paradoxa wie diesem haben Ökonomen, andere Sozialwissen schaftler sowie Psychologen begonnen, Alternativen zur herkömmlichen Ent scheidungstheor ie zu entwickeln. Ein Beispiel ist die von dem Psychologen Daniel Kahneman und dem Kognitionswissenschaftler Amos Tversky entwickelte 590
Philosophie der Ökonomik
sog. Prospekt- oder Neue Erwartungstheor ie (z. B. Kahneman 2011). Sie gliedert Entscheidungsprozesse in zwei Stufen: Entwurf (editing) und Bewertung (evaluation). In der Entwurfsphase werden mögliche Entscheidungsergebnisse zunächst geordnet: Subjekte legen fest, welche Ergebnisse sie als äquivalent betrachten, und es wird ein Referenzpunkt festgelegt, so dass niedrige Ergebnisse als Verluste, höhere als Gewinne interpretiert werden können. Danach werden, ausgehend von den potentiellen Resultaten und ihren Eintrittswahrscheinlichkeiten, diesen Punkten Nutzenwerte zugeordnet. Die Alternative mit dem höchsten Nutzen wird dann gewählt. Die Theor ie vermag es, eine ganze Reihe experimenteller Phänomene zu erklären, die der herkömmlichen Entscheidungstheor ie widersprechen, wie z. B. die Verlustaversion. Viele Entscheidungsträger bewerten Situationen anders je nachdem, ob sie als Gewinne oder als Verluste dargestellt werden, auch wenn die Ergebnisse an sich gleich sind. Während so ein Verhalten der herkömmlichen Entscheidungstheor ie widerspricht, ist es vom Standpunkt der Prospekttheor ie zu erwarten. Die Prospekttheorie stellt eins der wichtigsten theoretischen Standbeine der sog. Verhaltensökonomik dar. Die Verhaltensökonomik kann als der Teilbereich der Wirtschaftswissenschaften betrachtet werden, der die strengen Annahmen des homo oeconomicus (siehe unten) aufgibt und realistischere, auf experimenteller Psychologie basierende Verhaltenshypothesen aufbaut. Auf den Ergebnissen der Verhaltensökonomik baut auch ein neuer Politikansatz namens »libertärer Paternalismus« auf (Thaler/Sunstein 2008). Dieser Ansatz versucht, Verhaltensanomalien (wie die der Verlustaversion) auszunutzen, um die Entscheidungen der Akteure in wohlfahrtssteigender Weise zu beeinflussen (daher: Paternalismus), ohne jedoch die möglichen Handlungsalternativen einzuschränken (daher: libertär). Wenn auch viele Kommentatoren auf die Probleme und Gefahren des libertären Paternalismus hinweisen (z. B. Hausman und Welch 2010; Grüne-Yanoff 2012), hat sich der Ansatz inzwischen in der US - und britischen Politik durch die Gründung der Social and Behavioral Sciences Initiative (USA) und des Behavioural Insight Teams (GB) fest etabliert. Zur Zeit der Abfassung dieses Manuskripts (April 2015) wurde bekannt, dass auch die deutsche Regierung plant, ein ähnliches Kompetenzteam aufzubauen. Zur Natur der Präferenzen. Viele Ökonomen sind Vertreter der sog. Theo rie offenbarter Präferenzen, nach der Präferenzen und Entscheidungen ein- und dasselbe sind. Diese Theor ie wurde von positivistisch beeinflussten Ökonomen, insbesondere von Paul Samuelson, begründet (Samuelson 1938). Der Vorteil gegenüber alternativen Interpretationen, nach denen Präferenzen etwas Mentales sind, ist, dass Entscheidungen direkt beobachtet werden können: Dass ein Konsument Äpfel lieber mag als Birnen, lässt sich nicht direkt feststellen; es lässt sich aber feststellen, dass er, wann immer er die Auswahl zwischen Äpfeln und Birnen hat, zu Äpfeln greift. (Methoden wie qualitative Befragungen oder quantitative Umfragen galten damals als unzuverlässig. Sie spielen noch immer eine geringe Bedeutung in der empirischen Ökonomik.) 591
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Präferenzen und Entscheidungen sind aber nicht dasselbe. Wir haben viele Präferenzen über Dinge, über die wir nie entscheiden werden. Man mag z. B. Weltfrieden einem neuen Ausbruch der Pest bevorzugen, kann darüber aber nicht entscheiden. Ein weiteres Problem ist, dass es unmöglich wäre, Fehler zu machen. Wenn Präferenzen Entscheidungen sind, dann kann man nicht eine Alternative bevorzugen und aus Versehen eine andere wählen. Entscheidungsfehler sind aber ein weiterverbreitetes Phänomen. Ferner benötigt die Entscheidungstheo rie selbst Präferenzen über Zustände, die der Akteur nicht auswählen kann. Im obigen Beispiel, wo ein Akteur zwischen Grillen und Schwimmbad entscheidet, wird angenommen, dass er Präferenzen über die vier Alternativen A, B, C und D hat. Wählen tut er jedoch zwischen »Grillen« und »Schwimmbad«. Auch die Spieltheor ie, die sich auf Entscheidungen bezieht, bei denen die optimalen Entscheidungen eines Akteurs von den Entscheidungen anderer Akteure abhängen (und auf die hier leider nicht näher eingegangen werden kann), benötigt Präferenzen, die etwas Mentales und nicht bloß Entscheidungen darstellen. Im Ultimatumspiel etwa finden sich zwei Spieler, von denen der erste eine gewisse Summe erhält, die er mit dem zweiten teilen kann. Nachdem er seinen Vorschlag gemacht hat, entscheidet der zweite, ob er den Vorschlag annimmt oder ablehnt. Nimmt er an, erhalten beide Spieler den vorgeschlagenen Betrag. Lehnt er ab, verfällt die Summe und beide Spieler erhalten nichts. Die Spieltheor ie sagt voraus, dass der erste Spieler einen Vorschlag macht, der dem zweiten eine minimale Summe anbietet, vielleicht einen Euro oder einen Cent. Der zweite Spieler ist mit dieser Summe immer noch besser gestellt als ohne sie und nimmt daher an. Um diese Vorhersage zu machen, muss der erste Spieler Präferenzen darüber haben, ob er lieber % der Ausgangssumme behält oder % oder %. Das Auswählen übernimmt jedoch der zweite Spieler! Der erste kann nur einen Vorschlag machen (siehe z. B. Reiss 2013b, 59 f.). Weder Entscheidungs- noch Spieltheor ie kommen daher ohne einen Präferenzbegriff aus, der Präferenzen als mentale Entitäten versteht. Genauer gesagt versteht man unter Präferenzen mentale Rangfolgen von Alternativen (vgl. Hausman 2012).
3.2 Mikrofundierung, methodologischer Individualismus und Idealisierungen Die Entscheidungstheor ie ist vor allem in der Mikroökonomik von Bedeutung, da sie die Grundlage aller drei mikroökonomischen Teilgebiete – Haushaltstheo rie, Produktionstheor ie und Preistheor ie – darstellt. Es gibt jedoch nicht nur die Mikroökonomik, die versucht, einzelwirtschaftliche Prozesse zu verstehen, sondern auch die Makroökonomik, die sich gesamtwirtschaftlichen Phänomenen und Zusammenhängen wie Inflation und Geldmenge, Wirtschaftswachstum und Arbeitslosigkeit widmet. 592
Philosophie der Ökonomik
John Maynard Keynes (1883–1946) gilt gemeinhin als Erfinder der Makroökonomik. Seine Allgemeine Theorie der Beschäftigung, des Zinses und des Geldes (Keynes 1936) beschrieb den Wirtschaftskreislauf erstmalig als Resultat der Interaktionen gesamtwirtschaftlicher Aggregate wie die gesamtwirtschaftliche Nachfrage und Produktion, Nationaleinkommen und Sparquote. Es gibt nun zwei Arten von Kritik an dieser Art, Makroökonomik zu betreiben. Die erste Art ist empirischer Natur. Es fanden sich nämlich bald nach der Publikation seiner Allgemeinen Theorie Kritiker, die bemängelten, dass nicht alle von Keynes postulierten Zusammenhänge mit akzeptierten Ergebnissen der Mikroökonomik übereinstimmten. Zum Beispiel ist Milton Friedmans »Hypothese des permanenten Einkommens« (Friedman 1957) ein Versuch, verschiedene empirische Ergebnisse, die die Keynes’sche Theorie nicht erklären kann, in einen makroökonomischen Zusammenhang einzubinden. Ein wichtiges Jahr in dieser Debatte war 1976, als Robert Lucas seinen Aufsatz »Ökonometrische Politikevaluation: Eine Kritik« veröffentlichte (Lucas 1976). Hierin argumentierte Lucas, dass diejenigen ökonomischen Parameter, die durch die damals üblichen makroökonometrischen Methoden geschätzt wurden, wenn überhaupt nur durch Zufall stabil und damit für Zwecke der Wirtschaftspolitik nützlichen sein können. Der Grund hierfür bestehe darin, dass Wirtschaftspolitik die Handlungsspielräume der Akteure verändert. Dies ist den rationalen Akteuren aber bewusst, weswegen sie ihr Handeln als optimale Antwort auf die Situationsänderung anpassen. Wenn Wirtschaftspolitik also effektiv sein soll, muss sie die Antworten der Wirtschaftsakteure – Konsumenten, Produzenten, Gewerkschaftler usw. – miteinbeziehen. Das konnte die auf Keynes’scher Makro ökonomik basierte Ökonometrie jedoch nicht. Antworten auf diese Herausforderungen wurden mit der Neuen Keynes’schen Makroökonomik sowie der eher neoklassischen Theorie realer Konjunkturzyklen gegeben. Diese Theorien waren nicht nur konsistent mit akzeptierten mikroökonomischen Ergebnissen, sondern leiteten makroökonomische Gleichungen explizit von Mikromodellen, in denen Wirtschaftsakteure optimale Entscheidungen treffen, ab. Diese Theor ien galten daher als »mikrofundiert«. Ein wichtiges Merkmal dieser Modelle ist, dass die Masse der Entscheidungsträger meist durch einen einzigen »repräsentativen Agenten« dargestellt wird. Einer der Hauptkritikpunkte dieser Art von Mikrofundierung war, dass die Fiktion eines repräsentativen Agenten wichtige Phänomene, die zwischen Individuum und Aggregat stattfinden, nicht abbildet. Die wirtschaftlichen Institutionen eines Landes müssen die unterschiedlichen Pläne der Individuen koordinieren, wenn so etwas wie ein Gleichgewicht entstehen soll. Das Koordinationsproblem wird jedoch ignoriert, wenn die Gesamtwirtschaft von einem einzigen Individuum dargestellt wird. Auch die Heterogenität der Wirtschaftssubjekte, die Dynamik der Interaktion zwischen Individuen und Aggregat und Verteilungsfragen bleiben außen vor (siehe z. B. Kirman 1992).
593
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Die zweite Art von Kritik ist philosophischer Natur und geht auf die Arbeiten Max Webers (1864–1920) zurück. Weber erklärte, dass soziale Kollektive wie Firmen, Behörden, soziale Klassen oder Staaten umgangssprachlich häufig dargestellt würden, als seien sie selbst Akteure – als hätten sie Intentionen, vollbrachten Handlungen und müssten Verluste erdulden. Wissenschaftlich jedoch müssten Kollektive aus den Handlungen und Plänen einzelner verstanden werden. Der Grund hierfür liegt darin, dass nur einzelne Menschen »für uns verständliche Träger von sinnhaft orientiertem Handeln sind« (Weber 1922: Kap. 1, Abschn. 1). Diesem Verständnis liegt eine bestimmte Theorie sozialwissenschaftlicher Erklärung zugrunde, gemäß der soziale Phänomene nur durch die subjektive Sinngebung der handelnden Akteure erklärt werden können. Firmen und Staaten sind aber selbst keine Akteure. So können sie auch nicht direkt als Ursachen in sozialwissenschaftlicher Forschung fungieren. Diese Doktrin wird »methodologischer Individualismus« genannt. Das individualistische Modell der sozialwissenschaftlichen Erklärung ist jedoch nicht das einzige und es ist auch nicht unumstritten. Warum, mag man fragen, hört die Sozialwissenschaft bei den sinnstiftenden Motiven der Individuen auf und fragt nicht noch weiter, woher diese Motive kommen (vgl. Kincaid 1996)? Mit anderen Worten, warum soll das Individuum Schlusspunkt der Untersuchung sein und nicht Prozesse, die innerhalb des Individuums, möglicherweise unterbewusst, vorgehen? Umgekehrt mag man ebenso fragen, warum Aggregate nicht in der Lage sein sollen, soziale Phänomene zu erklären. Wenn man etwa die Weltwirtschaftskrise, die sich nach 2007 ereignet hat, mit der niedrigen Zinspolitik der U. S.-Notenbank, der daraus resultierenden Immobilienblase und dem Zerplatzen der Blase zu erklären versucht, scheint es nicht von Nöten zu sein, sich auf Individuen zu beziehen. Was wichtig ist, ist, dass die genannten Institutionen in angemessenen Kausalrelationen stehen und die Ereigniskette so stattgefunden hat wie dargestellt. Wenn aber methodologischer Individualismus nicht allgemein gültig ist, verliert die Forderung nach Mikrofundierungen eine wichtige Begründung (vgl. Reiss 2013b: Kap. 6). Die Annahme des repräsentativen Agenten ist nur eine der vielen Vereinfachungen und Idealisierungen, die ein typisches ökonomisches Modell vornimmt. Der homo oeconomicus selbst – die Annahme, dass Wirtschaftsakteure streng rational und über alle relevanten Sachverhalte informiert sind und nur auf ihren eigenen Nutzen bedacht handeln – verzerrt die Wirklichkeit ebenso wie viele Annahmen darüber, wie Märkte funktionieren, das Fehlen von Geld in vielen makroökonomischen Modellen oder die Existenz des sog. »Walrasianischen Auktionators« (eine Fiktion, die benutzt wird, um die Modelle zu lösen) in Mikromodellen. Das Vorhandensein zahlreicher Idealisierungen begründet die Ansicht, dass »alle Modelle falsch, manche jedoch nützlich« seien (Box/Draper 1987). Dies legt die Interpretation nahe, dass Idealisierungen genau dann gerechtfertigt sind, wenn sie nützlich (z. B. im Hinblick auf den Vorhersageerfolg des Modells) sind. 594
Philosophie der Ökonomik
Nicht alle Methodologen können sich so recht mit den instrumentalistischen Implikationen dieser Sichtweise anfreunden. Wenn jedoch Modelle realistisch interpretiert werden sollen, müssen andere Rechtfertigungen ihrer Idealisierungen herangezogen werden. In der Literatur lassen sich mindestens drei Arten von Idealisierungen, die mit verschiedenen Rechtfertigungsstrategien einhergehen, unterscheiden (vgl. Weisberg 2007): Galilei’sche, minimalistische und multiple Modell-Idealisierungen. Galilei’sche Idealisierungen sind vereinfachende oder verzerrende Annahmen, die ein Modell mathematisch handhabbar machen. Die Idee ist, dass wir zunächst ein Gesetz aufstellen, das nur für ein vereinfachtes, ideales System gilt. Später, wenn mathematische, wissenschaftliche oder technische Fortschritte stattgefunden haben, können diese Idealisierungen wieder aufgehoben (das Modell also deidealisiert) und ein komplexeres Gesetz für ein realistischeres System aufgestellt werden. Minimalistische Idealisierungen funktionieren, indem sie ein komplexes System auf einen oder einige wenige Kausalprozesse reduzieren. Viele ökonomische Modelle können in dem Sinne als minimalistisch gedacht werden, als dass sie darauf fokussieren, was passiert, wenn man annimmt, Akteure handelten nur aus Eigennutz (und nicht etwa aus höheren Motiven). Diese Idealisierungen sind gerechtfertigt, wenn die mathematisch isolierten Kausalprozesse tatsächlich vorhanden sind, was sich experimentell überprüfen lässt. Multiple Modell-Idealisierungen sind dann vorhanden, wenn Phänomene so komplex sind, dass sie sich nicht durch einzelne Modelle adäquat abbilden lassen. Ist kein Modell in der Lage, allen möglichen Repräsentationszwecken gerecht zu werden, so müssen verschiedene Modelle für verschiedene Zwecke gebaut werden. Diese Art der Idealisierung ist gerechtfertigt, wenn viele individuell falsche Modelle zusammen zu besseren (d. h. wahrheitsnäheren) Theorien beitragen (vgl. Wimsatt 1987). Das Problem mit den Rechtfertigungsstrategien der wissenschaftlichen Realisten ist, dass sie sich schwer auf Modelle in der Ökonomie anwenden lassen (Reiss 2012c). Viele Idealisierungen werden in der Tat gemacht, um die Modelle mathematisch handhabbar zu machen, spätere Deidealisierungen sind jedoch selten möglich und wenn, dann nur um den Preis der Einführung zusätzlicher, anderer Idealisierungen (Reiss 2012a; 2013a). Manche Idealisierungen mögen auch darauf abzielen, einzelne Kausalprozesse oder -mechanismen abzubilden. Meist werden jedoch weitere Annahmen getroffen, die sich nicht so rechtfertigen lassen und die es unmöglich machen, das Modellresultat als Gesetz, das für einen einzigen Kausalprozess oder -mechanismus gilt, zu interpretieren (Cartwright 1999). Im Hinblick auf den Vorschlag, ökonomische Modellierung als »Robustheitsanalyse« zu verstehen (Kuorikoski et al. 2010), muss darauf hingewiesen werden, dass Modellergebnisse meist sehr empfindlich auf Änderungen in den Annahmen reagieren – so sie überhaupt durchführbar sind – und daher diese Rechtfertigungsstrategie eben auch nicht wirksam ist (Reiss 2012a).
595
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
4 Methodologie Ökonomen wollen ihre Theor ien nicht nur entwerfen und weiter entwickeln, sondern auch empirisch testen, um so gute Gründe zu haben, ein theoretisches Konstrukt einem anderen vorzuziehen. Die empirische Wirklichkeit stellt allerdings die Daten, die zum Zweck des Theor ietestens benutzt werden können, nicht einfach zur Verfügung. Ökonomische Phänomene müssen bewusst beobachtet, gemessen, ausgewertet und zum Teil manipuliert werden, damit sie zu den Theo rien »sprechen« können. In diesem Abschnitt wird erläutert, wie experimentelle Ökonomen bewusst neue Phänomene schaffen, um Theor ien zu testen und weiterzuentwickeln, wie ökonomische Indikatoren wie das Bruttosozialprodukt oder Konsumentenpreisindizes gebildet werden und wie Ökonometriker mithilfe von Regressionsmodellen Kausalschlüsse ziehen.
4.1 Experimentelle Ökonomik John Stuart Mill war der Ansicht, dass die politische Ökonomie – wie man die Ökonomik damals nannte – niemals eine induktive Wissenschaft sein könne, da ökonomische Phänomene nicht experimentell nachprüfbar seien (Mill 1948 [1830]). Dies hatte zwei Gründe: Zum einen sind diese Phänomene sehr komplex, d. h. Ergebnis einer Vielzahl von Kausalfaktoren; zum anderen kann man sie nicht nach Belieben kontrollieren. Selbst wenn wir, um ein zeitgenössisches Beispiel zu nehmen, eine globale Reichtumssteuer, wie Thomas Piketty sie fordert, einführen würden (Piketty 2014), nur um zu testen, ob seine Thesen bzgl. der Ungleichverteilung von Reichtum zutreffen, würde zwischen der Einführung der Steuer und ihren möglichen Effekten so viel Zeit vergehen, dass sich der Einfluss auf die Ungleichverteilung nicht eindeutig nachweisen ließe – zu viele andere Faktoren würden sich in dieser Zeit ebenfalls verändern. Zudem wäre es moralisch hoch problematisch, allein zu experimentellen Zwecken einschneidende wirtschaftspolitische Veränderungen vorzunehmen. Schließlich könnte es ja sein, dass die Intervention nicht den erwarteten positiven, sondern einen beachtlichen negativen Effekt hat. Mill dachte bei seinen Ausführungen hauptsächlich an makroökonomische Zusammenhänge wie z. B. den Effekt von Freihandel auf das Wirtschaftswachstum. Wie wir bereits oben gesehen haben, ging Mill davon aus, dass die wichtigen mikroökonomischen Gesetze – wie etwa Gesetze, die das Verhalten von Wirtschaftsakteuren beschreiben – bereits bekannt sind. An dieser These bestehen jedoch seit mindestens 60 Jahren Zweifel. Beobachtungen wie die zum oben bereits genannten Allais-Paradoxon haben Ökonomen dazu bewegt, Verhaltensannahmen zu überdenken – und wissenschaftlich zu überprüfen. Im Gegensatz zu Mills Makrophänomenen ist es zumindest im Prinzip möglich, die Vorhersagen von Mikrotheorien wie der Entscheidungs-, Preis- und 596
Philosophie der Ökonomik
Spieltheorie experimentell zu testen. Nehmen wir ein einfaches Spiel wie das Ulti matumspiel, auf das in Abschnitt 2.1 schon eingegangen wurde. Die Spieltheor ie sagt voraus, dass der erste Spieler dem zweiten ein Minimalangebot macht, welches der zweite Spieler annimmt. Diese Vorhersage ist leicht zu überprüfen: Man gebe einem Probanden eine gewisse Ausstattung, paare ihn mit einem zweiten Probanden, erkläre beiden die Regeln und beobachte sie beim Spiel. Die Vorhersage der Spieltheor ie gilt als »bestätigt«, wenn der erste Proband tatsächlich ein Minimalangebot macht und es der zweite Proband annimmt; wenn nicht, gilt sie als »widerlegt«. Mills Einsicht, dass ökonomische Phänomene komplexer Natur sind, erschwert jedoch die experimentelle Arbeit. Die Vorhersagen der Spieltheor ie und anderer mikroökonomischer Theor ien sind keineswegs so leicht zu überprüfen, wie hier karikiert dargestellt wurde. Es mag viele Gründe geben, warum Akteure von der vorhergesagten Entscheidung abweichen: Sie sind unkonzentriert; sie haben die Regeln nicht verstanden; ihre Nutzenfunktionen entsprechen nicht den angenommenen; sie haben außerhalb des Experiments Absprachen getroffen, die die Ergebnisse verfälschen usw. Die Kunst der experimentellen Ökonomik besteht nun darin, Experimente so zu gestalten, dass aus ihren Ergebnissen eindeutige Schlussfolgerungen gezogen werden können. Das methodologische Grundproblem der experimentellen Ökonomik ist somit ein Unterdeterminiertheitsproblem: Experimentelle Daten erlauben viele theoretische Interpretationen; wie kann man diese (möglichst auf eine einzige) reduzieren? Neben praktischen Empfehlungen wie z. B. der eingehenden Überprüfung des benutzen Equipments und der Software (Experimente werden meistens an Computerterminals durchgeführt), dem Unterbinden jeglicher ungeplanten Kommunikation zwischen Probanden und der ausführlichen Erklärung der Regeln durch den Leiter des Experiments (vgl. Guala 2005) haben Ökonomen u. a. folgende Strategien entwickelt (Smith 1982): . Nichtsättigung: Wähle das Belohnungsmedium so aus, dass Probanden, die zwischen zwei ansonsten gleichwertigen Alternativen zu wählen haben, die jenige Alternative vorziehen, die mehr vom Belohnungsmedium bietet. . Eindeutigkeit: Die Belohnung muss mit den guten, d. h. den Erwartungen entsprechenden Ergebnissen größer, mit schlechten, d. h. den Erwartungen nicht entsprechenden Ergebnissen geringer sein. . Dominanz: Die Belohnung muss alle subjektiven Kosten der Partizipation im Experiment dominieren. . Geheimhaltung: Jeder Proband erhält Informationen nur über seine eigenen Anreize. Es ist jedoch nicht immer einfach, diese Regeln einzuhalten bzw. zu wissen, ob sie eingehalten wurden. In der Praxis werden Experimente häufig an Universitäten mit Studenten durchgeführt. Forschungsbudgets sind gering und erlauben nicht immer, Probanden realistisch zu entlohnen, was bedeuten kann, dass das 597
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Dominanzprinzip verletzt ist. Ebenso kann es sein, dass die Tatsache, dass die Studenten sich kennen und außerhalb des Experiments miteinander reden, dazu führt, dass das Geheimhaltungsprinzip verletzt ist (Guala 2005). Ökonomische Experimente werden nicht nur zum Testen von Theor ien eingesetzt. Nach Alvin Roth, Nobelpreisträger von 2012, unterstützen Experimente den Ökonomen in drei Hauptaufgaben (Roth 1986): . der Suche nach Fakten; . dem Sprechen mit Theoretikern; . dem Flüstern in die Ohren von Prinzen.
Zu . In den etwa 60 Jahren ihrer Existenz hat die experimentelle Ökonomik eine enorme Anzahl neuer Fakten gefunden. Neben Paradoxa wie dem AllaisParadoxon sind folgende Beispiele zu nennen: •
•
•
• • •
In Ultimatumspielen machen Anbieter ein weit höheres als das Minimalangebot, häufig etwa 45% der Ausstattung; der zweite Spieler nimmt dann meistens an. Wenn das Angebot weit darunter liegt, lehnt der zweite Spieler ab, auch wenn es ihn etwas kostet. In Diktatorspielen, die Ultimatumspielen gleichen bis auf den Zug des zweiten Spielers, der nicht entscheiden kann, ob er das Angebot annimmt (der also rein passiv das Angebot des ersten Spielers empfängt), bietet der Erstspieler dem Zweitspieler eine positive Summe (obwohl er nicht bestraft werden kann), die allerdings etwas kleiner ist als die bei Ultimatumspielen. In Spielen, in denen Gruppen für die Erstellung eines öffentlichen Gutes bieten müssen, wird ein Phänomen des »Überangebots und Verfalls« beobachtet. Das heißt, Spieler tragen zunächst mehr zum öffentlichen Gut bei, als es die Spieltheorie vorhersagt, diese Beiträge nehmen aber mit der Zeit ab. Probanden verletzen sehr häufig das Axiom der Transitivität der Präferenzen. Das heißt, es werden Präferenzumkehrungen beobachtet. Der »Ausstattungseffekt«: Probanden bewerten eine Sache höher, wenn sie sie bereits besitzen, als sie zahlen würden, wenn sie sie erwerben müssten. In Marktexperimenten können Gleichgewichte, also Situationen ohne Angebots- oder Nachfrageüberschuss, erreicht werden, aber nur, wenn Probanden Erfahrung mitbringen und Zeit haben, den Markt kennenzulernen.
Zu . Experimentelle Ökonomen verwenden viel Zeit und Energie darauf, Fakten (oder »Phänomene«) wie diese zu finden, auf ihre Robustheit zu überprüfen und zu erklären. Es ist in der Regel einfacher, ein Phänomen experimentell zu kreieren, als es theoretisch zu erklären. So ist zum Beispiel das Phänomen der Präferenzumkehrung unter Ökonomen unumstritten, eine weithin überzeugende Erklärung konnte jedoch noch nicht gefunden werden (vgl. Steel 2008). Zu . Mit »Flüstern in die Ohren von Prinzen« beschreibt Roth die Rolle, die Ökonomen im Design und in der Rechtfertigung wirtschaftspolitischer Interventionen spielen können. Ein berühmtes Beispiel stellt die Verauktionierung des 598
Philosophie der Ökonomik
Funklizenzspektrums (für Mobiltelefonverkehr etc.) durch die amerikanische Behörde FCC (Federal Communications Commission) dar. Theoretikern war es nicht gelungen, die Auktionen rein mathematisch zu modellieren, da sich das Regelwerk als zu komplex erwies. So wurden verschiedene Auktionstypen experimentell getestet, anstatt sie theoretisch zu modellieren. Schlussendlich hat sich die FCC auf einen Typ festgelegt, der in den Experimenten am besten funktioniert hat. Die FCC -Auktionen werden häufig als Erfolgsgeschichte der experimentellen Ökonomik dargestellt, weil sie der U. S.-Regierung eine Rekordsumme eingespielt haben (vgl. Reiss 2008, Kap. 5). Für die Vorbereitung und Rechtfertigung wirtschaftspolitischer Interventionen ist es v. a. wichtig, dass die Ergebnisse der Experimente sog. »externe Gültigkeit« besitzen. Ein Testergebnis ist dann extern gültig, wenn es nicht nur im Experiment, sondern auch in der avisierten Zielsituation (z. B. im wirtschaftspolitischen Raum) standhält. Es geht letzten Endes darum, ob die Ergebnisse, die experimentell erzielt wurden, Vorhersagekraft für die intendierten Anwendungen haben. Das wird jedoch nicht der Fall sein, wenn der experimentelle Aufbau ex trem unrealistisch ist. Es ist eine Sache, ein Experiment mit Universitätsstudenten und Einsätzen von ein paar Euro pro Spiel durchzuführen, und eine ganz andere, Auktionen mit Unternehmen, bei denen es um Millionen geht, zu veranstalten. Im Falle der FCC -Auktionen ist das Problem so gelöst worden, dass der experimentelle Aufbau der geplanten Implementation so nahe wie möglich kommen sollte (Guala 2001). Zum Beispiel waren die Probanden Entscheidungsträger aus der Wirtschaft (und nicht etwa Universitätsstudenten) und Aufbau und Durchführung der Auktionen wurden so realistisch wie möglich nachempfunden.
4.2 Wirtschaftsindikatoren und Ökonometrie Wenn volkswirtschaftliche Hypothesen aus praktischen oder ethischen Gründen nicht experimentell geprüft werden können, müssen Alternativen herangezogen werden. Das ist in vielen Bereichen der Fall, u. a. in denen, die Mill als experimentell nicht zugänglich betrachtete: in gesamtwirtschaftlichen Zusammenhängen. Hier müssen Schlüsse allein aufgrund von Beobachtungsdaten gezogen werden. Gesamtwirtschaftliche Phänomene sind nicht direkt beobachtbar. Sie sind jedoch messbar, und zwar mithilfe sog. Wirtschaftsindikatoren wie z. B. dem Bruttoinlandsprodukt (BIP), der Arbeitslosenquote oder dem Verbraucherpreisindex. Das BIP misst die Wirtschaftsleistung eines Landes, die Arbeitslosenquote den prozentualen Anteil der Arbeitslosen an den zivilen Erwerbspersonen und der Verbraucherpreisindex die durchschnittliche Preisveränderung aller Waren und Dienstleistungen oder umgangssprachlich den »Wert des Geldes«. Für jeden Indikator werden umfangreiche Zeitreihen erhoben, gewichtet, aggregiert und zu einer einzigen Zahl zusammengefasst. In jedem der Schritte von der Auswahl der zu sammelnden Daten, ihrer Messmethode, der Gewichtung 599
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
und Aggregation sind eine Vielzahl methodologischer Entscheidungen zu treffen. Vom Standpunkt der Philosophie betrachtet, sollte man vor allem zwei Aspekte betonen. Erstens gibt es bei diesen Entscheidungen selten ein eindeutiges »richtig« oder »falsch«. Es ist eher zutreffend zu sagen, dass eine Entscheidung mehr oder weniger vertretbar im Lichte des Zwecks ist, den man mit dem Indikator verfolgt (vgl. Reiss 2008, Kap. 2). Es ist z. B. eine Sache, das BIP zu benutzen, um die Produktion von Waren und Dienstleistungen eines Landes zu messen, und eine ganz andere, um damit Information über das Wohlstandsniveau des Landes zu bekommen. Zweitens sind manche dieser methodologischen Entscheidungen normativ. Wirtschaftsindikatoren lassen sich nicht messen, ohne Werturteile zu fällen. Aus diesen beiden (und anderen) Gründen wäre es verfehlt anzunehmen, BIP, Arbeitslosenquote oder Inflationsrate seien Eigenschaften einer Volkswirtschaft, die unabhängig von ökonomischer Theor iebildung und Werturteilen existieren, so wie die Länge eines Tisches eine von uns unabhängige Eigenschaft dieses Tisches ist. Ein methodologisches Problem bei der Erstellung des BIP ist, dass nur Güter und Dienstleistungen aufgenommen werden können, die einen Marktpreis besitzen. Das führt zum einen zu Verzerrungen, weil der Marktpreis nicht immer dem Wert eines Gutes entspricht, nicht einmal dem ökonomischen Wert. Wenn ein Gut z. B. negative Externalitäten mit sich bringt, liegt der ökonomische Wert unter dem des Marktpreises. Externalitäten sind Auswirkungen von Produktions- und Austauschprozessen auf Konsumenten, die nicht im Preis des Gutes abgebildet werden können. Wird etwa ein Gut in einem schmutzigen Produktionsprozess hergestellt und kann das Unternehmen nicht mit den Kosten der Beseitigung der Verschmutzung (die es dann auf den Konsumenten umwälzen würde) belastet werden, besteht eine negative Externalität. Umgekehrt ist es bei positiven Externalitäten (wie etwa Bildung), bei denen der Preis, der für das Gut bezahlt wird, zu gering ist. Ferner haben viele Güter und Dienstleistungen zwar einen Preis, der aber kein Marktpreis ist, weil der Staat die Produktion entweder subventioniert oder die Güter und Dienstleistungen selbst herstellt (ebenso: Bildung; ferner: Gesundheit). Hier beruht die Berechnung des BIPs oft auf den Schätzwerten, die Ökonomen erstellen, häufig aufgrund von kontroversen Annahmen. (Ein Beispiel: Um Wertschöpfung im Gesundheitswesen zu schätzen, wird im Normalfall die Höhe der Kosten der Leistung herangezogen. Es ist aber davon auszugehen, dass staatliche Monopolbetriebe nicht immer effizient arbeiten und daher ihre Kosten um einiges höher sind, als nötig wäre. Die Kosten würden in diesem Falle die Wertschöpfung überschätzen.) Zum anderen gibt es für viele Güter keinen Preis. Haushaltsarbeit oder Kinderbetreuung taucht nur im BIP auf, wenn dafür bezahlt wird. Das bedeutet aber, dass die Wertschöpfung vieler Individuen (in diesem Falle v. a. von Frauen) unter den Tisch fällt. Es bedeutet auch, dass eine Volkswirtschaft, in der viele Paare die Entscheidung treffen, dass beide Partner arbeiten und in der für Haushaltsarbeit und Kinderbetreuung bezahlt wird, ein 600
Philosophie der Ökonomik
höheres BIP hat als eine ansonsten identische Volkswirtschaft, in der diese Arbeiten privat verrichtet werden. Gemäß der International Labour Organisation (ILO) sind Personen zwischen 15 und 74 Jahren arbeitslos, die ohne Arbeit sind, innerhalb der beiden nächsten Wochen eine Arbeit aufnehmen können und während der vier vorhergehenden Wochen aktiv eine Arbeit gesucht haben. National gibt es jedoch unterschiedliche Kriterien. In Deutschland etwa muss jemand jünger als das Rentenalter sein, welches im Moment 65 Jahre beträgt. Auch welche Ansprüche man an den Arbeitssuchenden stellen kann, wird unterschiedlich ausgelegt. Muss er sich z. B. beim Arbeitsamt melden? Ist es ausreichend, wöchentlich einmal die Stellenanzeigen durchzuschauen? Welche Arten von Arbeiten sind zumutbar? (Siehe z. B. Reiss 2013b, Kap. 8.) Hier wird deutlich, dass sich viele dieser Fragen nur mithilfe von Werturteilen beantworten lassen. Das ist auch bei der Inflationsmessung der Fall. Diese muss z. B. beantworten, ob ein neues Gut einem Vorgänger gegenüber gleichwertig ist oder nicht. Zur Unterstützung gibt es statistische Methoden, die aber selbst auf Annahmen basieren und keineswegs objektiv gültig sind. Ebenfalls auf einem Werturteil basiert die Gewichtung der Haushalte: Im Verbraucherpreisindex wird jedes Haushaltsbudget proportional zu dessen Konsumausgaben gewichtet; d. h. dass Haushalte, die mehr ausgeben, einen größeren Einfluss auf das Ergebnis haben als ärmere Haushalte. Man könnte sich alternativ für einen »demokratischen« Index entscheiden, in dem jeder Haushalt gleich berücksichtigt wird. Das Ziel der Ökonometrie ist es, mithilfe statistischer Methoden aus Datenreihen wie diesen Rückschlüsse v.a. auf die Kausalbeziehungen der volkswirtschaftlichen Größen untereinander zu ziehen. Die methodischen Fragestellungen, die sich hierbei ergeben, sind sehr technischer Natur. Hier wollen wir daher nur auf zwei der wichtigsten Probleme eingehen, die von weiterführendem philosophischen Interesse sind: das Problem der Identifizierbarkeit und die LucasKritik. Das Problem der Identifizierbarkeit besteht darin, wie aus einer gegebenen Menge von Daten und Hintergrundannahmen gültig auf die unterliegenden Modellparameter geschlossen werden kann. Nehmen wir an, wir wollen die Konsumneigung der Bevölkerung eines Landes messen. In folgendem einfachen Keynes’schen Modell wird Konsum v.a. durch Einkommen bestimmt: C = α + βY + u, wobei C Konsum, Y Volkseinkommen, α und β Parameter und u einen Fehlerterm bezeichnen. Diese Gleichung wird als Regressionsmodell bezeichnet. Die Regression ist eng mit der Korrelation verwandt, unterscheidet sich jedoch von Letzterer darin, dass sie asymmetrisch ist: Die Regression von C auf Y wird im Normalfall andere Parameterwerte schätzen als die umgekehrte Regression von C auf Y. Am Ende des Tages geht es bei Regressionsmethoden aber eben darum, aus Korrelationen Kausalschlüsse zu ziehen. 601
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Würden wir jetzt einfach Daten für C und Y in ein statistisches Programm eingeben und C auf Y regredieren, wäre Parameter β – die Konsumneigung – nicht identifiziert. Dies liegt an einer zweiten Gleichung: Y ≡ C + I,
nach der das Volkseinkommen (in einer geschlossenen Volkswirtschaft) aus Konsum (privat und staatlich) sowie Investition besteht. Diese Wechselbeziehung zwischen C und Y hat zur Folge, dass der Fehlerterm und Y nicht statistisch unabhängig voneinander sind. Die Unabhängigkeit des Fehlerterms ist eine wichtige Hintergrundannahme bei der Regressionsanalyse. Wenn sie verletzt wird, kann β nur verzerrt gemessen werden (in diesem Falle wäre der gemessene Wert höher als der wahre Wert). Die zweite Gleichung beinhaltet aber auch die (klassische) Lösung des Pro blems. Investition ist eine Variable, die nur das Volkseinkommen, nicht aber in den Konsum eingeht. Wenn man dies ausnutzt und zunächst das Einkommen auf die Investition regressiert und in einem zweiten Schritt Konsum auf den durch diese Regression vorhergesagten Wert des Einkommens, kann β identifiziert werden. Dies ist die »klassische« Lösung des Identifizierungsproblems, das auf die Arbeit in der Cowles-Kommission in den 1950ern zurückgeht. Heutzutage werden kausale Parameter häufig ohne eigentliches theoretisches Modell (wie die beiden Keynes’schen Gleichungen oben) geschätzt, und zwar aufgrund von historischem und institutionellem Hintergrundwissen. Wenn man etwa messen will, wie stark sich die Größe der Schulklasse auf die Leistungen der Schüler auswirkt, kann man die Auswirkung der sog. »Maimonides-Regel« ausnutzen. In vielen Ländern besteht eine Form dieser Regel, wonach eine Schulklasse nicht größer als eine bestimmte Anzahl x sein darf (z. B. x = 40). In diesem Fall kann man davon ausgehen, dass die Schüler in Schulen, die genau 40 Schüler und somit eine Klasse haben, und in Schulen, die 41 Schüler und somit zwei Klassen haben, sich z. B. in Bezug auf das Einkommen ihrer Eltern nicht deutlich voneinander unterscheiden, weil die Eltern keinen Einfluss auf die genaue Größe haben. So kann man mit einer sog. »Regressions-Diskontinuitäts-Analyse« den Effekt der Klassengröße auf die Leistung messen (Angrist/Lavy 1999). Viele Ökonomen innerhalb der Cowles-Tradition kritisieren jedoch Arbeiten wie diese, weil sie nicht auf theoretischen Verhaltensmodellen beruhen (vgl. Deaton 2010).
5 Ethische Aspekte der Ökonomik Nach John Maynard Keynes muss ein Ökonom nicht nur ein Ökonom sein, sondern auch »Mathematiker, Historiker, Staatsmann und Philosoph – in einem gewissen Ausmaß. Er muss Symbole verstehen und auch in Worten sprechen können« (zitiert nach Colander 2012, 11, meine Übersetzung). Friedrich August von Hayek sagt sogar: »Aber gewiß kann niemand ein großer Ökonom sein, der nur 602
Philosophie der Ökonomik
Ökonom ist – und ich bin sogar versucht hinzuzufügen, daß der Ökonom, der nur Ökonom ist, leicht zum Ärgernis, wenn nicht gar zu einer regelrechten Gefahr wird« (zitiert von Herzog 2014, 10). Einer der Gründe hierfür liegt darin, dass sich Wirtschaft und Politik nie ganz voneinander trennen lassen. Es gibt keine ökonomischen Gesetzmäßigkeiten im ansonsten luftleeren Raum; ökonomische Urteile haben immer auch Werturteilscharakter sowie ethisch relevante Konsequenzen. Positivistisch beeinflusste Ökonomen wie Lionel Robbins und viele seiner Nachfolger bis heute beharren auf einer strengen Trennung von Ökonomik in ihrer Rolle als Wissenschaft auf der einen Seite und Ökonomik in ihrer Rolle als politische Beraterin. In den nächsten zwei Abschnitten werden wir uns diesen Argumenten widmen und außerdem beleuchten, was Ökonomen zur Zielsetzung von Wirtschaftspolitik beitragen.
5.1 Positive und Normative Ökonomik Die Unterscheidung zwischen sog. positiver und sog. normativer Ökonomik geht auf John Neville Keynes (1852 – 1949), den Vater des berühmten Ökonomen, zurück. Für ihn gab es noch eine dritte Kategorie, nämlich die der Kunst der Ökonomik, die sich insbesondere damit befasste, wie man gegebenen Zielen mit wirtschaftspolitischen Mitteln näherkommt. Wir werden hier nicht weiter auf sie eingehen. Positive Ökonomik ist die Wissenschaft, die sich mit ökonomischen Fakten und objektiven Zusammenhängen befasst – die Ökonomik des »Seins«. Normative Ökonomik ist eine Lehre, die sich, wie ihr Name suggeriert, mit Normen und Idealen beschäftigt – die Ökonomik des »Sollens«. Die positive Ökonomik beinhaltet vor allem Mikrotheorien wie die Haushaltstheorie, Preistheorie und Produktionstheorie, Makrotheorien und verschiedene angewandte Felder wie angewandte Ökonometrie. Normative Ökonometrie umfasst die sog. Sozialwahltheo rie, die sich mit Gruppenentscheidungen durch Aggregation individueller Präferenzen befasst, die Wohlfahrtstheorie, die Institutionen auf ihre Effizienz hin überprüft, sowie die verwandte Mechanismus-Design-Theor ie, die die Regeln innerhalb von Spielen im Hinblick auf gesetzte Ziele optimiert. Die Unterscheidung als solche ist eigentlich nicht problematisch, wohl aber, wenn man sie als strikte Dichotomie versteht. Und das scheinen positivistisch beeinflusste Ökonomen zu tun. Gregory Mankiw etwa schreibt (Mankiw 2012, 31; meine Übersetzung): Ein zentraler Unterschied zwischen positiven und normativen Aussagen besteht in der Art, wie wir ihre Gültigkeit beurteilen. Positive Aussagen können wir im Prinzip bestätigen oder verwerfen, indem wir die Daten begutachten … Im Gegensatz dazu beinhaltet die Beurteilung normativer Aussagen sowohl Werte als auch Fakten… Zu entscheiden, was eine gute oder schlechte politische Linie ist, ist nicht 603
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
nur eine Frage der Wissenschaft. Es geht einher mit unseren Ansichten zu Ethik, Religion und politischer Philosophie.
Der Unterschied zwischen positiver und normativer Ökonomik hat also nicht nur mit ihrem Gegenstand zu tun, sondern auch und vor allem mit Methode: hier Wissenschaft, Daten und Fakten, dort (neben Fakten) Meinung, Glaube, Überzeugung. Deutliche Aussagen in diese Richtung stammen von Lionel Robbins und Milton Friedman (Robbins 1932, 132; Friedman 1953, 3; meine Übersetzung): Wenn wir über Ziele uneins sind, ist das ein Fall von »Dein Blut oder meins« oder »Leben und Leben lassen« … Aber wenn wir über Mittel uneins sind, dann kann wissenschaftliche Analyse häufig helfen, unsere Unterschiede zu überwinden. Wenn wir über Moralität uneins sind, dann besteht kein Platz für Argumentation. [Unterschiede über Wertvorstellungen] sind Unterschiede, um die Männer letztendlich nur kämpfen können.
Viele Philosophen haben heutzutage diese scharfe Dichotomie zwischen Fakten und Werten aufgegeben. Das liegt zum einen daran, dass viele Philosophen nach Quine es aufgegeben haben, eine Kategorie »Fakten« zu finden und zu definieren, die völlig abgetrennt ist von anderen Dingen (Quine 1953). Wie der Wirtschaftsphilosoph Vivian Walsh es so trefflich bemerkte (Walsh 1987; meine Übersetzung): Um Quines anschauliches Bild auszuleihen und anzupassen, wenn eine Theor ie schwarz mit Fakten und weiss mit Konvention sein kann, dann kann sie auch (soweit, wie es der logische Empirismus sagen kann) rot mit Werten sein. Da für sie die Bestätigung oder Falsifizierung eine Eigenschaft der Theor ie als Ganzes sein musste, hatten sie keinen Anhaltspunkt, dieses gesamte Gewebe zu entwirren.
Der Angriff auf die scharfe Unterscheidung zwischen Fakten und Werten – und damit zwischen positiver und normativer Ökonomik – erfolgte auf beiden Seiten. Zum einen haben Philosophen überzeugend dafür argumentiert, dass wissenschaftliches Arbeiten oft mindestens implizit auch auf Werturteilen beruht, selbst wenn es bei den Arbeiten um Messen, Beschreiben, Daten und das Testen von Theorien geht. Zum anderen ist heute die Ansicht, dass über Werturteile gar nicht diskutiert werden kann, nicht mehr weit verbreitet. Ob es z. B. moralisch recht ist, Fleisch zu essen, ist zwar eine moralische Frage, über die aber mithilfe einer Vielzahl von Fakten und anderen moralischen Ansichten rational gesprochen werden kann. Diese weiteren moralischen Ansichten können dann zwar selbst nur mit noch mehr Fakten und noch mehr zusätzlichen moralischen Ansichten begründet werden (und so weiter), aber letztbegründete Fakten gibt es gemäß dieser Argumentationskette eben auch nicht. Zum Schluss dieses Abschnitts wollen wir nun ein paar Beispiele geben, wie Fakten und Werturteile in der Ökonomik ineinander verflochten sind. Insbesondere wollen wir fünf (»positive«) Bereiche wissenschaftlichen Arbeitens betrachten: Messen, Modellieren, Testen, Akzeptieren, Erklären. 604
Philosophie der Ökonomik
Messen. Beispiele hierfür haben wir schon im vorigen Abschnitt angeführt: Ökonomische Indikatoren wie BIP, Inflationsrate oder Arbeitslosigkeit können nicht gemessen werden, ohne Werturteile zu treffen. Land A entscheidet sich, einen größeren Teil seiner Produktion über Privatfirmen zu erstellen. Viele Paare sind Doppelverdiener und geben einen signifikanten Teil ihres Einkommens für Kinderbetreuung und Haushaltsführung aus. Land B hat eine größere Staatsquote und bei vielen Paaren bleibt ein Partner zuhause, um sich um Haushalt und Kinder zu kümmern. Land A wird ein deutlich größeres BIP haben als Land B, selbst wenn die Menge der erbrachten Güter und Leistungen exakt dieselbe ist (vgl. Stiglitz et al. 2010). Modellieren. Die Grundeinheit theoretischen ökonomischen Arbeitens ist das Modell. Modelle – wie das Heckscher-Ohlin-Modell des internationalen Handels, das Keynes’sche IS -LM-Modell oder auch spieltheoretische Modelle wie das Gefangenendilemma – vereinfachen, verzerren, übertreiben die Wirklichkeit. Vor allem aber fokussieren sie auf einige wenige Aspekte und ignorieren den Rest. Modellierung setzt daher immer Urteile darüber voraus, was die wichtigsten Aspekte der komplexen Wirklichkeit sind. Diese Urteile sind wertbehaftet. Feministische Ökonomen beklagen z. B., dass durch die Standardabstraktion eines Haushalts als homogenem Entscheidungsträger viele Fragen, die sich zur Güterverteilung innerhalb eines Haushalts stellen, gar nicht gestellt werden können (siehe die Diskussion in Longino 1996). Das heißt nicht, dass die Mikroökonomik nicht im Prinzip auch kleinere Einheiten als den Haushalt modellieren könnte. Dennoch trifft der Standardansatz eine Auswahl, die es erlaubt, bestimmte Fragen zu stellen, aber nicht andere. Testen. Der Test einer Hypothese verlangt immer eine Entscheidung darüber, mit welcher Methode getestet wird. Für manche Zwecke ist jedoch die eine Methode gut, für andere Zwecke eine andere. Randomisierte Studien, die heute vermehrt in der Entwicklungsökonomik eingesetzt werden, können zwar Hypothesen zur Effektivität von wirtschaftspolitischen Interventionen beantworten, nicht jedoch zu den verhaltenstheoretischen Mechanismen, die die Effektivität dieser und jener Intervention erklären könnten. Für viele Zwecke kann es besser sein, mehr über Mechanismen zu erfahren, auch wenn die Methoden, die dafür geeignet sind, weniger verlässlich sind. Ein solcher Zielkonflikt zwischen Verlässlichkeit und Relevanz besteht häufig und kann nur mithilfe von Werturteilen adressiert werden (vgl. Reiss 2013b, Kap. 11). Akzeptieren. Egal wie verlässlich die Methode, Hypothesenakzeptanz bleibt immer mit Unsicherheit behaftet. Wenn Hypothesen wir immer nur dann akzeptieren würden, wenn sie mit Sicherheit fehlerfrei sind, würden wir nie etwas Neues lernen. Umgekehrt würden wir viele Fehler machen, wenn wir neue Hypothesen zu schnell annähmen. Alle Fehler haben Konsequenzen. Wenn es stimmt, dass der CO -Ausstoss die Erdoberfläche erwärmt, dann kann die Nichtannahme dieser Hypothese zu großen Schäden durch Erderwärmung führen. Wenn die Hypothese falsch ist, dann führt ihre Annahme zu Schäden durch unnötige Schutzmaß605
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
nahmen, Wirtschaftseinbußen, Ängste usw. Auf welcher Seite man sich besser irrt, ist wiederum eine Frage, die nur aufgrund von Werturteilen beantwortet werden kann (vgl. Rudner 1953). Erklären. Eine der wichtigsten Bestandteile ökonomischer Erklärungen von Wirtschaftsphänomenen ist eine Theorie der Rationalität – ob Entscheidungstheo rie oder Spieltheorie. Eine rationale Entscheidung ist jedoch immer auch eine Entscheidung, die zu empfehlen und zu loben ist. Wir kritisieren eine Freundin nicht mit der Aussage: »Sie hat diese Entscheidung rational getroffen«. Und so gehen in die Entwicklung von Entscheidungs- und Spieltheor ie auch immer normative Überlegungen ein, die nicht rein menschliches Verhalten beschreibend, sondern eben auch wertend bestimmte Entscheidungen empfehlen wollen (vgl. Reiss 2013b, Kap. 3).
5.2 Worauf soll die Wirtschaftspolitik abzielen? Gemäß einer weit verbreiteten Ansicht verfolgt die Wirtschaftspolitik ein »magisches Viereck«: Vollbeschäftigung, Preisstabilität, außenwirtschaftliches Gleichgewicht und ein gesundes Wirtschaftswachstum. Das Viereck ist »magisch«, weil zwischen manchen dieser Ziele der Lehrmeinung nach Zielkonflikte bestehen. Auf diese werden wir hier jedoch nicht eingehen. Uns beschäftigt die grundsätzliche Frage: Warum wollen wir diese Ziele überhaupt erreichen? Zunächst muss man feststellen, dass keines dieser Ziele Selbstzweck ist. Vollbeschäftigung ist nicht an sich etwas Gutes, sondern bestenfalls ein Mittel zum Zweck, für den es auch andere Mittel gibt. Dasselbe gilt für die anderen Ziele. Wenn Vollbeschäftigung, Preisstabilität, außenwirtschaftliches Gleichgewicht und ein gesundes Wirtschaftswachstum Mittel zum Zweck sind, was ist dann das letztendliche Ziel, auf das die Wirtschaftspolitik abzielt (oder abzielen sollte)? Die Wohlfahrtsökonomik hat darauf eine (nicht unbedingt überraschende) Antwort: Mehrung der Wohlfahrt. Nichterfüllung der Ziele des magischen Vierecks ist zu vermeiden, weil sie zu Wohlfahrtseinbußen führt. Umgekehrt ist es gut, einem Ziel näher zu kommen, da dies die Wohlfahrt erhöht. Ökonomen verstehen unter Wohlfahrt die Befriedigung von Präferenzen. Wenn Anton Äpfel lieber hat als Bananen, ist er besser gestellt, wenn er Äpfel bekommt und nicht Bananen. Wenn Josie einen Job lieber hat als zuhause herumzusitzen, ist sie besser gestellt, wenn sie einen Job bekommt. Wohlfahrt kann man als das definieren, was für eine Person ultimativ gut ist (Crisp 2008). Philosophen und andere Forscher haben über die Jahre eine Vielzahl von Theorien über die Wohlfahrt entwickelt. Präferenzerfüllungstheo rien stellen eine Gruppe von Theorien dar, es gibt aber Alternativen. Denn Präferenzerfüllungstheor ien sind zwar einleuchtend, leiden jedoch unter einer Vielzahl von konzeptionellen Schwächen. Wenn Anton Äpfel mag, ist es keine offensichtlich schlechte Sache, ihm Äpfel 606
Philosophie der Ökonomik
zu geben. Es ist jedoch leicht zu sehen, dass Menschen nicht immer das bevorzugen, was besser für sie ist. Es gibt vielerlei Beispiele hierfür. Vielleicht wäre ich Vegetarier, wenn ich nur richtig informiert wäre. Vielleicht habe ich selbstzerstörerische Tendenzen: ich weiß, dass der tägliche Genuss einer Flasche Wodka langfristig meiner Gesundheit schadet. In voller Kenntnis der Konsequenzen bevorzuge ich es dennoch zu trinken. Das bedeutet aber nicht, dass dies auch gut für mich ist. Oder nehmen wir asoziale Präferenzen: Ein Schläger wird es bevorzugen zu schlagen gegenüber der Alternative, es sein zu lassen. Heißt das, dass wir durch wirtschaftspolitische Maßnahmen Schlägertum fördern sollen? Oder nehmen wir den umgekehrten Fall: altruistische Präferenzen. Ein Bodyguard, der sich zwischen die Kugel und seinen Klienten wirft, mag zwar richtig und bewundernswert handeln, es wäre aber falsch zu sagen, dass ihn die Erfüllung dieser Präferenz (»seinen Klienten schützen«) besser stellt. Diese Schwierigkeiten werfen die Frage auf, ob es tatsächlich Präferenzbefrie digung an sich ist, die uns besser stellt. Es scheint vielmehr der Fall zu sein, dass wir häufig, wenn auch nicht immer, Dinge bevorzugen, die uns besser stellen. Dann sollten wir aber nicht Wohlfahrt als Präferenzbefriedigung definieren. Eine Alternative stellen sog. hedonistische Theor ien dar, die Wohlfahrt als Glück oder Freude verstehen. Glück/Freude sind eher Dinge, nach denen wir an sich streben. Während ein Apfel für denjenigen, der Äpfel bevorzugt, ein Mittel zum Zweck ist (vielleicht fördert er seine Gesundheit oder er schmeckt ihm gut), scheinen Glück/Freude mehr dem zu entsprechen, was wir eigentlich wollen. Auch manche Ökonomen und Wirtschaftspolitiker meinen, dass die Förderung von Glück/Freude Ziel der wirtschaftspolitischen Bestrebungen sein sollte. Der Arbeitsökonom Richard Layard z. B. weist in seinem Buch Die glückliche Gesellschaft: Kurswechsel für Politik und Wirtschaft (Layard 2005) auf das Paradoxon hin, dass wir immer reicher werden, aber das empfundene Glück der Menschen stagniert. Er empfiehlt der Wirtschaftspolitik daher, das Glück der Gesellschaft ernster zu nehmen. Bhutan hat als erstes Land der Welt die Messung eines »Bruttonationalglücks« neben dem BIP eingeführt. Ein Hauptproblem hedonistischer Theor ien ist, dass es Menschen objektiv schlecht gehen kann, während sie subjektiv dennoch Glück empfinden. Es gibt hier das Beispiel des glücklichen Sklaven, dessen Tun und Leiden völlig durch den Willen seines Herrn bestimmt ist, der aber dennoch, vielleicht aus einem tief empfundenen Gefühl der Pflichterfüllung heraus, dabei völlig glücklich ist (vgl. Sen 1999). Man mag auch an die Menschen in Aldous Huxleys Schöne Neue Welt denken, die sich jederzeit durch Einnahme der Glückspille Soma in einen Zustand der Glücksempfindung versetzen konnten, deren Leben dem Leser aber dennoch abstoßend vorkommen. Der Harvard-Philosoph Robert Nozick (1938 – 2002) hat ein Gedankenexperiment erfunden, das viele als Widerlegung der hedonistischen Theor ie verstehen. In Nozicks Szenario gibt es eine Maschine, die demjenigen, der daran angeschlossen ist, vorgaukelt, alle glücklichen Erfahrungen zu machen, die er sich 607
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
nur wünscht. Dann fragt er uns, ob wir unser Leben bevorzugen oder das Leben der Person in der »Erlebnismaschine« (Nozick 1974). Seine Antwort ist natürlich, dass glückliche Empfindungen nicht alles sind, was wir vom Leben wollen. Eine weitere Alternative besteht in sog. objektiven Listen-Theor ien. Diese Theor ien haben zwei Hauptmerkmale. Erstens besteht Wohlfahrt in einer Vielzahl von Dingen, nicht nur Glück oder Präferenzbefriedigung: Gesundheit, ein langes Leben, Freunde, Emotionen, körperliche Unversehrtheit und Mobilität, eine politische Stimme zu haben usw. (und all dies unabhängig davon, ob man es in dem Moment bevorzugt oder nicht; ein Nichtwähler in einem Land mit Wahlrecht ist besser gestellt als ein Bürger ohne Wahlrecht). Das zweite Merkmal ist, dass diese Listen von Dingen, die gut für jemanden sind, für alle gelten und daher »objektiv« sein sollen. Amartya Sen hat einen großen Beitrag dazu geleistet, dass innerhalb der Wirtschaftslehre verstanden wurde, dass Wohlfahrt ein multidimensionaler Begriff ist (z. B. Sen 1983). Er und Martha Nussbaum haben diese Idee in den letzten dreißig Jahren zu dem sog. »Capability Approach« weiterentwickelt. Ein wichtiger Unterschied zwischen Sens und Nussbaums Ansätzen ist, dass sie in der Hauptsache philosophisch-reflektiv vorgeht, während er ein demokratisch-beratendes Verfahren empfiehlt (Sen 1999; Nussbaum 2000). Eine wichtige Implikation der verschiedenen Vorgehensweisen ist, dass Nussbaum eine Liste mit 12 universellen Grundfunktionalitäten (wie z. B. Leben, Mobilität, Anteilnahme am politischen Entscheidungsprozess) vorschlägt und verlangt, dass Staaten die Fähigkeit ihrer Bürger, diese Funktionalitäten zu einem gewissen Grade erfüllen zu können, in die Verfassung schreiben. Sen hingegen möchte sich nicht auf Grundfunktio nalitäten für alle Bürger der Welt festlegen, sondern deren Auswahl und Gewichtung einem demokratischen Deliberationsprozess unterwerfen, dergestalt, dass verschiedene Gemeinschaften verschiedene Listen für sich erstellen können. Denkern, die objektive Listen der Wohlfahrt empfehlen, wird häufig Paternalismus vorgeworfen. Für ein Individuum mag es wahr sein, dass es tatsächlich nicht besser gestellt ist, wenn ihm erlaubt wird, das Wahlrecht auszuüben. Außerdem: Warum soll ein Philosoph entscheiden, was gut für einen Menschen ist (siehe z. B. Crisp 2008). Dies bringt uns zurück zu Präferenztheorien. Diese Theorien scheinen die Autonomie der Menschen am besten zu schützen. Auf der anderen Seite scheint es klar, dass viele Menschen nicht gut mit ihrer Freiheit umgehen können. Letztere profitieren vielleicht davon, dass Gesundheit auf einer objektiven Liste steht und in das Gesundheitswesen investiert wird, ob sie es nun wollen oder nicht. Andere wiederum werden dies als Bevormundung empfinden und Versuche, Menschen gegen ihren Willen zu ihrem Wohlsein zu zwingen, nicht unterstützen. Zum Abschluss sind zwei Dinge zur traditionellen Wohlfahrtstheor ie zu bemerken. Erstens ist sie ganz klar eine substantielle normative Theorie, die kontroverse Annahmen zur Wohlfahrt macht. Obwohl es der Fall ist, dass sie Menschen nicht vorschreibt, was ihre Präferenzen sein sollen, ist die Theor ie nicht ohne 608
Philosophie der Ökonomik
normative Implikationen, wie wir hier gesehen haben. Zweitens ist der Freiheitsbegriff, der der Theor ie zugrunde liegt, ein sehr begrenzter: Ökonomen neigen dazu, insbesondere die Freiheit, auswählen zu können, für besonders wichtig zu erachten. Wahlfreiheit nutzt jedoch wenig, wenn derjenige, der auswählt, nicht gut informiert ist oder eine Wahl, zu der er auf dem Papier berechtigt ist, nicht ausüben kann, weil ihm die Ressourcen fehlen. Wem nützt ein Wahlrecht, wenn er kein Geld für den Bus hat, der ihn zum Wahllokal bringen würde?
6 Schluss Auf einige wichtige Themenkomplexe innerhalb der Philosophie der Ökonomik konnte im Rahmen dieses Beitrags leider nicht oder nur sehr verkürzt eingegangen werden. Insbesondere zu nennen sind hier z. B. Arbeit zur epistemischen Spieltheorie (siehe Perea 2012), zur Kausalität in der Ökonomie und Methoden der Kausalinferenz (siehe Hoover 2001; Cartwright 2007; Reiss 2015), zu den methodologischen Implikationen der Neuroökonomik (siehe Caplin und Schotter 2008; Ross 2014) sowie zu normativen Themen wie den Ursachen der Ungleichheit (siehe Deaton 2013). Diese Beispiele zeigen, dass die Philosophie der Ökonomie heute ein lebhaftes Forschungsgebiet ist, zu dem Philosophen, Ökonomen und andere Forscher beitragen und das sich nicht einfach als entweder Geistesoder Sozialwissenschaft klassifizieren lässt. Spätestens die 2008er Finanzkrise hat deutlich gemacht, dass die theoretischen, methodologischen und ethischen Grundlagen der Wirtschaftswissenschaften hoch problematisch sind. Paul Krugmann etwa lamentiert, dass die Theor ie der Ökonomen Schönheit und Wahrheit verwechseln (Krugmann 2009), Joseph Stiglitz wirft seinen Kollegen vor, sie hätten die amerikanische Volkswirtschaft mithilfe ihrer verfehlten Idealisierungen abgewürgt (Stiglitz 2009), und die Publikation von Thomas Pikettys Bestseller Das Kapital im 21. Jahrhundert hat nicht nur das Thema Ungleichheit auf die ökonomische Agenda zurückgebracht, das Buch lässt sich auch leicht als Schuldzuweisung an die neoklassischen Ökonomie interpretieren, sie hätte den hohen Grad der existierenden Ungleichheit (z. B. durch falsche Empfehlungen zur Steuer- und Wirtschaftspolitik) zumindest mitverschuldet. Es ist nicht vermessen zu sagen, dass Philosophen wichtige Beiträge zur Lösung dieser Probleme beitragen könnten – schließlich sind die Natur wissenschaftlicher Theor ien und die wissenschaftliche Methodik Kernthemen der Wissenschaftsphilosophie und Ethiker haben Fragen der Verteilungsgerechtigkeit (und anderer ethischer Aspekte des wirtschaftlichen Zusammenlebens) seit Jahrtausenden erörtert. Für die Zukunft mag man daher hoffen, dass sich die Philosophie und die Ökonomie weiter annähern: die Philosophie dadurch, dass sie an Themen arbeitet, die Ökonomen als relevant betrachten, und in einer Sprache spricht, die Ökonomen verstehen; die Ökonomie dadurch, dass sie Einsichten aus anderen 609
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Fachgebieten offener gegenübersteht und weniger abgeneigt ist, interdisziplinär zu arbeiten.
Literatur Empfehlungen: Im englischsprachigen Raum existieren mittlerweile zwei grundlegende Lehrbücher zum Thema Philosophie der Ökonomik: Reiss 2013 und Ross 2014. Während beide Autoren einen ähnlichen, naturalistischen Ansatz vertreten und die Philosophie als kontinuierlich mit den Einzelwissenschaften betrachten, haben sie jedoch unterschiedliche Schwerpunkte, die die Bücher komplementär machen. Leser, die sich mehr für wissenschaftliche Methode und normative Themen interessieren, werden im ersteren fündiger werden und Leser, die sich mehr für ökonomische Theo rien und das Verhältnis zwischen der Ökonomik und Nachbarwissenschaften wie der Psychologie und der Soziologie interessieren, im letzteren. Es gibt auch einige jüngst erschienene englischsprachige Handbücher wie z. B. Kincaid/Ross 2009 und Mund 2012. Nicht unerwähnt bleiben sollten Daniel Hausmans »Klassiker« auf dem Gebiet, wie z. B. seiner Monographie (1992), seiner Anthologie (2008), dem zusammen mit Michael McPherson geschriebenen Band zu den normativen Grundlagen der Wirtschaft (2006) und seinem Artikel für die Stanford-Enzyklopädie (2012). Wer mehr über die eingangs erwähnte »Standardinterpretation« der Ökonomik erfahren will, dem sei Caplin and Schotter 2008 empfohlen.
Allais, M. (1953). »Le Comportement de l’Homme Rationnel devant le Risque: Critique des Postulats et Axiomes de l’Ecole Americaine.« Econometrica 21(4), 503 – 546. Anand, Paul (1993). »The philosophy of intransitive preference.« Economic Journal 103(417), 337 – 346. Angrist, Joshua D. and Victor Lavy (1999). »Using Maimonides’ Rule to Estimate the Effect of Class Size on Scholastic Achievement.« The Quarterly Journal of Economics 114(2), 533 – 575. Blaug, Mark (1992). The Methodology of Economics or How Economists Explain. Cambridge: Cambridge University Press. Box, George and Norman Draper (1987). Empirical Model-Building and Response Surfaces. New York (NY) et al.: John Wiley & Sons. Broome, John (1991). Weighing Goods: Equality, Uncertainty and Time: Blackwell. Caplin, Andrew and Andrew Schotter (2008). The Foundations of Positive and Normative Economics: A Handbook. Oxford: Oxford University Press. Cartwright, Nancy (1989). Nature’s Capacities and Their Measurement. Oxford: Clarendon. – (1999). The Vanity of Rigor in Economics: Theoretical Models and Galileian Experiments. CPNSS Discussion Papers. M. Steuer. London, Centre for Philosophy of Natural and Social Sciences. 610
Philosophie der Ökonomik
– (2007). Hunting Causes and Using Them. Cambridge: Cambridge University Press. Chang, Ha-Joon (2014). Economics: The User’s Guide. New York (NY): Bloomsbury Press. Colander, David (2012). »What Makes a Good Economist.« In What’s the Use of Economics? Teaching the Dismal Science after the Crisis, ed. D. Coyle. 11 – 14. London: London Publishing Partnership. Crisp, Roger (2008). »Well-Being.« In The Stanford Encyclopedia of Philosophy, ed. E. N. Zalta. Davis, John Marcell (1958). »The transitivity of preferences.« Behavioral Science 3(1), 26 – 33. Deaton, Angus (2010). »Instruments, randomization, and learning about development.« Journal of Economic Literature 48(2), 424 – 455. – (2013). The Great Escape: Health, Wealth, and the Origins of Inequality. Princeton (NJ): Princeton University Press. Friedman, Milton (1953). »The Methodology of Positive Economics.« In Essays in Positive Economics. Chicago: University of Chicago Press. – (1957). A Theory of the Consumption Function. Princeton: Princeton University Press. Grüne-Yanoff, Till (2012). »Old wine in new casks: libertarian paternalism still violates liberal principles.« Social Choice and Welfare 38(4), 635 – 645. Guala, Francesco (2001). »Building Economic Machines: The FCC Auctions.« Studies in the History and Philosophy of Science 32, 453 – 477. – (2005). The Methodology of Experimental Economics. Cambridge: Cambridge University Press. Gul, Faruk and Wolfgang Pesendorfer (2008). »The Case for Mindless Economics.« In The Foundations of Positive and Normative Economics: a Handbook, ed. A. Caplin and A. Schotter. 3 – 39. New York: Oxford University Press. Hausman, Daniel (1992). The Inexact and Separate Science of Economics. Cambridge: Cambridge University Press. – (2013). Philosophy of Economics. Stanford Encyclopedia of Philosophy. E. Zalta. Hausman, Daniel M., Ed. (2008). The Philosophy of Economics. An Anthology. Cambridge: Cambridge University Press. – (2012). Preference, Value, Choice, and Welfare. Cambridge: Cambridge University Press. Hausman, Daniel M. and Michael S. McPherson (2006). Economic Analysis, Moral Philosophy, and Public Policy. New York: Cambridge University Press. Hausman, Daniel M. and Brynn Welch (2010). »Debate: To Nudge or Not to Nudge.« Journal of Political Philosophy 18(1), 123 – 136. Herzog, Lisa (2014). Freiheit gehört nicht nur den Reichen. Munich: C. H. Beck. Hoover, Kevin (2001). Causality in Macroeconomics. Cambridge: Cambridge University Press. Hutchison, Terence (1938). Significance and Basic Postulates of Economic Theory. London: Macmillan. 611
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Kahneman, Daniel (2011). Thinking, Fast and Slow. New York (NY): Farrar, Straus and Giroux. Keynes, John Maynard (1936). The General Theory of Employment, Interest and Money. London: Macmillan. Kim, T. and M. K. Richter (1986). »Non-transitive Non-Total Consumer Theory.« Journal of Economic Theory 38, 324 – 368. Kincaid, Harold (1996). Philosophical Foundations of the Social Sciences. New York: Cambridge University Press. Kincaid, Harold and Don Ross, Eds. (2009). The Oxford Handbook of Philosophy of Economics. New York: Oxford University Press. Kirman, Alan (1992). »Whom or what does the representative individual represent?« Journal of Economic Perspectives 6(2), 117 – 136. Krugman, Paul (2009). How Did Economists Get It So Wrong? New York Times, September 6. Kuorikoski, Jaakko, Aki Lehtinen and Caterina Marchionni (2010). »Economic Modelling as Robustness Analysis.« The British Journal for the Philosophy of Science 61(3), 541 – 567. Layard, Richard (2005). Happiness: Lessons from a New Science. New York: Penguin Press. Longino, Helen (1996). »Cognitive and Non-Cognitive Values in Science: Rethinking the Dichotomy.« In Feminism, Science, and the Philosophy of Science, ed. L. H. Nelson and J. Nelson. 39 – 58. Dordrecht: Kluwer. Loomes, Graham and Robert Sugden (1982). »Regret Theory: An Alternative Theory of Rational Choice Under Uncertainty.« Economic Journal 92(368), 805 – 824. Lucas, Robert (1976). »Econometric Policy Evaluation: A Critique.« Carnegie-Rochester Series on Public Policy 1, 19 – 46. Mäki, Uskali (2012). Handbook of Philosophy of Science: Philosophy of Economics. Amsterdam: Elsevier. Mankiw, N. Gregory (2012). Principles of Macroeconomics. Mason, OH: South-Western Cengage Learning. McCloskey, Donald (1985). The Rhetoric of Economics. Madison (WN): University of Wisconsin Press. McCloskey, Donald N. (1983). »The Rhetoric of Economics.« Journal of Economic Literature 21(2), 481 – 517. Menger, Carl (1963 [1887]). Problems of Economics and Sociology. Urbana (IL): University of Illinois Press. Mill, John Stuart (1874 [1843]). A System of Logic. New York (NY): Harper. – (1948 [1830]). Essays On Some Unsettled Questions of Political Economy. London: Parker. Nozick, Robert (1974). Anarchy, State, and Utopia. Oxford: Basil Blackwell. Nussbaum, Martha (2000). Women and Human Development: The Capabilities Approach. Cambridge: Cambridge University Press. Perea, Andrés (2012). Epistemic Game Theory: Reasoning and Choice: Cambridge. 612
Philosophie der Ökonomik
Piketty, Thomas (2014). Capital in the Twenty-First Century. Boston (MA): Harvard University Press. Quine, Willard van Orman (1953). »Two Dogmas of Empiricism.« In From a Logical Point of View, ed. W. v. O. Quine. 20 – 46. Cambridge (MA): Harvard University Press. Reiss, Julian (2000). »Mathematics in Economics: Schmoller, Menger and Jevons.« Journal of Economic Studies 27(4 – 5), 477 – 491. – (2008). Error in Economics: Towards a More Evidence-Based Methodology. London: Routledge. – (2012a). »The Explanation Paradox.« Journal of Economic Methodology 19(1), 43 – 62. – (2012c). »Idealization and the Aims of Economics: Three Cheers for Instrumentalism.« Economics and Philosophy 28(3), 363 – 383. – (2013a). »The Explanation Paradox Redux.« Journal of Economic Methodology 20(3), 280 – 292. – (2013b). Philosophy of Economics: A Contemporary Introduction. New York (NY): Routledge. – (2015). Causation, Evidence, and Inference. New York (NY): Routledge. Robbins, Lionel (1932). Essay on the Nature and Significance of Economic Science. Toronto (ON): Macmillan. Ross, Don (2014). Philosophy of Economics. London: Palgrave Macmillan. Roth, Alvin E. (1986). »Laboratory Experimentation in Economics.« Economics and Philosophy 2(02), 245 – 273. Rudner, Richard (1953). »The Scientist Qua Scientist Makes Value Judgments.« Philosophy of Science 20(1), 1 – 6. Samuelson, P. A. (1938). »A Note on the Pure Theory of Consumer’s Behaviour.« Economica 5(17), 61 – 71. Sen, Amartya (1983). Poverty and Famines: An Essay on Entitlement and Deprivation. New York: Oxford University Press. – (1999). Development As Freedom. Oxford: OUP. Shafer, W. J. (1976). »Equilibrium in Economics without Ordered Preferences or Free Disposal.« Journal of Mathematical Economics 3, 135 – 137. Smith, Vernon L. (1982). »Microeconomic Systems as an Experimental Science.« American Economic Review 72, 923 – 955. Steel, Daniel (2008). Across the Boundaries: Extrapolation in Biology and Social Science. Oxford: Oxford University Press. Stiglitz, Joseph E. (2009). »The Anatomy of a Murder: Who Killed the American Economy?« Critical Review 21(2 – 3), 329 – 339. Stiglitz, Joseph E., Amartya Sen and Jean-Paul Fitoussi (2010). Mismeasuring Our Lives: Why GDP Doesn’t Add Up: New Press. Thaler, Richard H. and Cass R. Sunstein (2008). Nudge: Improving Decisions About Health, Wealth, and Happiness. New Haven & London: Yale University Press. van Hees, Martin (1995). Rights and decisions: formal models of law and liberalism. Dordrecht: Kluwer. 613
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Walsh, Vivian (1987). »Philosophy and Economics.« In The New Palgrave: A Dictionary of Economics, ed. J. Eatwell, M. Milgate and P. Newman. 861 – 869. London: Macmillan. Weber, Max (1922). Wirtschaft und Gesellschaft. Tübingen: Mohr. Weisberg, Michael (2007). »Three kinds of idealization.« Journal of Philosophy 104(12), 639 – 659. Wimsatt, William (1987). »False Models as Means to Truer Theor ies.« In Neutral Models in Biology, ed. M. Nitecki and A. Hoffmann. 23 – 55. Oxford: Oxford University Press.
614
5. Philosophie der Politikwissenschaft Catherine Herfeld
1 Einleitung Die Politikwissenschaft ist zweifellos eine der wichtigsten Disziplinen der Sozialwissenschaften. Daher würde man erwarten, dass die Philosophie der Politikwissenschaft (kurz: PPW) innerhalb der Philosophie der Einzelwissenschaften einen prominenten Platz einnimmt. Als dasjenige Fachgebiet, welches sich primär mit der Wissenschaft des politischen Lebens auseinandersetzt, hätte sie neben Teildisziplinen wie der Philosophie der Ökonomik und der Soziologie eine wichtige Rolle zu spielen. Eine Bestandsaufnahme der gegenwärtigen Literatur zeigt jedoch das Gegenteil. In den wichtigsten Standardwerken zur Philosophie der Sozialwissenschaften (kurz: PSW) (z. B. Cartwright/Montuschi 2014; Hollis 2002; Mantzavinos 2009; Martin/McIntyre 1994; Rosenberg 2012; Salmon 1992; Steel/ Guala 2011) wird primär auf Beispiele aus der Soziologie, der Ökonomik und der Geschichtswissenschaft Bezug genommen (vgl. Hausman 1992; 2008; Kincaid/ Ross 2009; Reiss 2012). Nach wissenschaftstheoretischen Beiträgen zur Politikwissenschaft (kurz: PW) sucht man hingegen vergeblich. Dass die PPW als eigenständige Teildisziplin nicht existiert, ist aus mehreren Gründen überraschend. Klassische wissenschaftstheoretische Fragestellungen ergeben sich mit Bezug auf die PW ebenso wie auf alle anderen Sozialwissenschaften. Bei der Erklärung von politischem Verhalten, dem Einfluss von Interessengruppen auf Wahlergebnisse, von Kooperation und Konflikt sowie dem Zustandekommen politischer Ordnung und der Rolle politischer Normen stellen sich philosophische Fragen zur Differenz von natürlicher und politischer Welt, zu den Arten von politikwissenschaftlichen Erklärungen, zu Möglichkeiten und Grenzen des Nachweises kausaler Beziehungen, zum Ursprung und der Natur von politischen Präferenzen und zum nomologischen Status von Regularitäten. Darüber hinaus werfen die in der PW angewandten Methoden gängige methodologische Fragestellungen auf. Die PW ist eine pluralistische Disziplin, deren Methodenspektrum neben qualitativen Ansätzen der direkten Befragung auch quantitative Methoden und formal-mathematische Ansätze wie die (soziale) Netzwerkanalyse, Agenten-basierte Modellierung und andere Simulationstechniken umfasst. PolitikwissenschaftlerInnen führen Experimente durch, verwenden Ansätze der angewandten Statistik sowie die Entscheidungs- und Spieltheor ie (Box-Steffensmeier et al. 2008). Doch im Gegensatz zu bestehenden Diskussionen der epistemischen Vorzüge und Grenzen dieser Methoden mit Bezug auf 615
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
ökonomische oder soziologische Fragestellungen (z. B. Gähde et al. 2013; Hed ström/Ylikoski 2010; Marchionni 2013) bleibt ihr Erkenntniswert für die PW bislang offen. Zuletzt steht die PW über die Politische Philosophie seit jeher in enger Verbindung mit der Philosophie allgemein. Die Werke von Thomas Hobbes, John L ocke, Jean-Jacques Rousseau, John Rawls, Hannah Arendt und Jürgen Habermas gelten bis heute sowohl als zentrale Beiträge zur Politischen Philosophie als auch zur PW. Auch wenn nicht immer freiwillig, so sind beide Disziplinen dadurch eng miteinander verbunden, was institutionell sowohl durch die Präsenz der Politischen Theorie als Fachbereich in der PW als auch im politikwissenschaftlichen Curriculum sichergestellt wird (Ball 1991; Berlin 1999; Dryzek et al. 2006; Gunnell 1983; White 2004). Man würde vermuten, dass die bestehende Verbindung die Etablierung einer PPW erleichtern könnte. Vor diesem Hintergrund kann Ziel dieses Beitrags nicht sein, einen Überblick über die Philosophie der Politikwissenschaft zu geben. Vielmehr soll aufgezeigt werden, dass ein Potential für einen solchen Teilbereich der Philosophie der Einzelwissenschaften besteht. Dafür werden im Folgenden zunächst potenzielle Gründe für den marginalen Status der PPW diskutiert und mögliche Themen bereiche einer PPW identifiziert. Diese werden im Anschluss mit Blick auf exemplarische Debatten in der PSW vorgestellt. Abschließend werden weiterführende Fragestellungen für eine PPW aufgeworfen.
2 Der marginale Status der Philosophie der Politikwissenschaft Dass die PPW einen marginalen Status in der PSW allgemein einnimmt, geht u. a. auf die Charakteristika der PW als Disziplin zurück. Genauer bestehen innerhalb der PW Divergenzen bezüglich der Konkretisierung ihres Gegenstandsbereichs sowie ihrer Kernmethoden, was ihre klare Abgrenzung von anderen Sozialwissenschaften erschwert. Erstens werden traditionell politikwissenschaftliche Themen wie z. B. die Analyse von Wahlverhalten und Wahlprognose, von internationalen Beziehungen, von Bürgerkriegen und politischem Manövrieren längst nicht mehr nur von PolitikwissenschaftlerInnen behandelt. Zweitens importiert die PW ihre Methoden, wie beispielsweise die Sozialwahltheor ie oder Agenten-basierte Modellierung aus anderen Sozialwissenschaften. Die PW kann bestenfalls ganz allgemein definiert werden als diejenige Wissenschaft, die sich der Analyse des Staates, politischer Systeme sowie politischen Handelns und politischen Aktivitäten widmet.1 Es gibt jedoch kein dominantes Paradigma in der PW, das ihrer Abgrenzung dienen könnte (Moon 1991; 2004). Forschungsprogramme, wie beispielsweise die Theor ie rationalen Entscheidens, marxistische Ansätze, die Interessengruppentheor ie, der Institutionalismus oder 1
Vgl. Oxford English Dictionary (entry »political science«).
616
Philosophie der Politikwissenschaft
Talcott Parsons’ Strukturfunktionalismus spielen eine zentrale Rolle in allen Sozialwissenschaften (z. B. Moon 1991; White/Moon 2004). Diese inhaltliche sowie methodische Überschneidung mit anderen Sozialwissenschaften erschwert die Identifizierung dessen, was speziell politikwissenschaftlich ist und damit für eine PPW speziell von Interesse wäre. Ein Blick in die jüngere Geschichte der PW bestärkt diese Beobachtungen. Die wichtigsten methodologischen Beiträge der letzten 300 Jahre fallen in den Bereich der Sozialwissenschaften allgemein. Arbeiten von Adam Smith, Vilfredo Pareto, Karl Marx, John Stuart Mill, Georg Simmel, Ferdinand Tönnies und Max Weber gelten als Vorreiter der Sozialwissenschaften und Sozialtheorie allgemein, nicht zuletzt weil die Ausdifferenzierung von Disziplingrenzen erst Anfang des 20. Jahrhunderts begann (Waldo 1975, 15).2 Deren Institutionalisierung sowie eine zunehmende Spezialisierung innerhalb der Sozialwissenschaften führten zu einer Reorganisation und Separierung der Sozialwissenschaften, durch die eine philosophische Diskussion der Einzelwissenschaften überhaupt erst sinnvoll wird (Dogan 1998; Shapiro 2004, 193). Zudem wurden in den letzten Jahrzehnten die Diskussionen normativer Fragestellungen innerhalb der PW in den Hintergrund gedrängt. Besonders der Einfluss der logischen Positivisten in der ersten Hälfte des 20. Jahrhunderts war wesentlich für die Entwicklung eines eigenen Wissens- und Wissenschaftlichkeitsverständnisses in der PW und damit für ihre Entwicklung als wissenschaftliches Unterfangen (Bevir 2008; Moon 2004). Normative Fragestellungen sollten in der Politischen Philosophie und klar von der empirischen Analyse getrennt behandelt werden, was zu einer erneuten Reorganisation der PW beitrug (Cribb 1991, 26; Gunnell 1983, 11; Waldo 1975, 58 ff.). Die normative Politische Theo rie wurden von manchen Politikwissenschaftlern mit der Behavioral Era sogar für tot erklärt (Johnson/Schrodt 1991, 101; Laslett 1956, vii). Die fortwährende Diskussion um das Spannungsverhältnis zwischen PW, Politischer Theor ie und Politischer Philosophie bei Politikwissenschaftler/innen könnte der Gegenstand philosophischer Reflexion werden. Vielleicht ist genau diese Abgrenzungsschwierigkeit das Alleinstellungsmerkmal der PW. Die explizite Ausarbeitung und Analyse dieses ›Demarkationsproblems‹ sowie die Bestimmung des ›Politischen‹ wäre ein erstes, relevantes Themenfeld für eine PPW. Da ihr Untersuchungsobjekt die PW als Integrations wissenschaft ist, könnte sie außerdem wichtige Themen zur Diskussion ihres Gegenstandsbereichs liefern und zur Anwendbarkeit und zum Nutzen neuer Methoden sowie zur Fruchtbarkeit von Interdisziplinarität beitragen und die Bedingungen für erfolgreichen Wissenschaftstransfer verbessern.
2
Waldo (1975, 15) spricht von einem »Problem der Kategorisierung«.
617
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
3 Themenbereiche einer Philosophie der Politikwissenschaft Neben einer Reflexion über den Gegenstandsbereich der PW könnte sich ein erster Bereich der PPW der kritischen Auseinandersetzung mit politikwissenschaft lichen Theorien und Methoden widmen. Manche PolitikwissenschaftlerInnen sehen den Bereich der Meta-Methodologie, d. h. die Reflexion politikwissenschaftlicher Methoden, sogar als den zentralen Bestandteil einer PPW an (Bevir 2008, 48). Dieses Verständnis einer PPW bezieht sich auf die positive Politikwissenschaft, die primär empirische Fragen behandelt und zu deren Beantwortung oft mathematische und/oder statistische Methoden verwendet werden. Ebenso wie in anderen Sozialwissenschaften sind (kausale) Erklärungen und Voraussagen – hier: von politischen Phänomenen wie der Entstehung politischer Institutionen, dem Verhalten von Wählern, dem Zustandekommen und der Funktionsweise von Wahlsystemen und -ergebnissen, der Interaktion zwischen zentralen Staatsorganen, der Entstehung und Stabilisierung verschiedener politischer Systeme sowie politischem Wettbewerb – zentrale Ziele der empirischen PW (ebd., 64). Diese Ziele sind epistemischer und praktischer Natur: Politikwissenschaftler wollen im ersten Schritt Wissen über die Natur und Dynamik der politischen Welt generieren, das sie im zweiten Schritt für Politikgestaltung und -intervention verwenden können. Bislang setzen sich weitgehend PolitikwissenschaftlerInnen selber mit der eigenen Disziplin auseinander. Damit wird zwar die Nähe einer kritischen Reflexion zur politikwissenschaftlichen Praxis und damit die Relevanz der Diskussionsergebnisse sichergestellt. Es besteht jedoch gleichzeitig die Gefahr, dass der Fokus primär auf methodische Probleme gelenkt wird und dies zu einer Vernachlässigung anderer wissenschaftstheoretischer Fragestellungen führt. Eine PPW könnte die politikwissenschaftliche Methodenreflexion um weitere wissenschaftsphilosophische Fragestellungen ergänzen. Jüngere Diskussionen zur Kausalität, Arten wissenschaftlicher Erklärungen, zum Status von Gesetzmäßigkeiten und der Nützlichkeit reduktionistischer Strategien in der PW deuten auf bestehendes Interesse unter PolitikwissenschaftlerInnen an erkenntnistheoretischen und metaphysischen Grundlagen ihrer eigenen Disziplin hin (z. B. Box-Steffensmeier et al. 2008; Goodin/Klingemann 1998b). Auch schließt eine Beschränkung der PPW auf methodologische Reflexion normative sowie begriffliche Fragestellungen nicht explizit mit ein. Diese sind jedoch Bestandteil der Politischen Theor ie, einschließlich der Politischen Philosophie und Ideengeschichte. Hier werden Fragen diskutiert wie beispielsweise: Was ist Demokratie?; Was ist der Staat?; Wie sollte ein politisches System aussehen?; Wie sollten verschiedene Politikmaßnahmen beurteilt werden? Welche politischen Ziele sollen erreicht werden? (vgl. List/Valentini 2014; White/Moon 2004). Da normative und begriffliche Fragen weder induktiv durch Beobachtung und wissenschaftliche Analyse noch deduktiv bzw. als mathematische oder logische Probleme behandelt werden können, wurden zentrale Arbeitsbereiche der Politischen Theorie lange Zeit nicht als Beiträge zur Wissenschaft angesehen (vgl. 618
Philosophie der Politikwissenschaft
Berlin 1999). Wie bereits angedeutet hat sich durch die zunehmende Spezialisierung der PW die Abspaltung der Politischen Theor ie von der empirischen PW bis heute weiter fortgesetzt (Shapiro 2004, 193).3 Die Beziehung zwischen PW und Politischer Theorie könnte zentraler Bestandteil einer PPW sein, indem sie die möglichen Vorteile von Politischer Theorie und Politikwissenschaft für die jeweils andere Teildisziplin aufzeigt (vgl. Shapiro 2004, 193 ff.). Die Diskussion politischer Zielsetzungen ist zentral für empirische Analysen, um deren Relevanz sicherzustellen.4 Umgekehrt erlaubt der konzeptionelle Input und die kritische Betrachtung empirischer Analysen der Politischen Theoretikerin, ihre übergeordneten, normativ begründeten Zielsetzungen – beispielsweise die Lösung politischer oder religiöser Konflikte oder der effiziente Umgang mit staatlichen Ressourcen – zu reflektieren und die Effektivität spezifischer Politikmaßnahmen sicherzustellen (Goodin/Klingemann 1998b; Hardin 2008). Eine PPW könnte zu einer solchen teildisziplinübergreifenden Diskussion beitragen. Zuletzt stellen sich in der PW analog zu den anderen Sozialwissenschaften die Fragen, ob ein grundsätzlicher Unterschied zwischen natürlicher und sozialer Welt besteht, sich die Analyse politischer Phänomene von der politischen Sphäre selber trennen lässt, welche Rolle subjektive Werte in der PW spielen sowie spielen sollen und ob PolitikwissenschaftlerInnen die Verantwortung für die Verwendung ihrer Ergebnisse tragen. Eine PPW könnte bspw. den Einfluss von Werten auf die politikwissenschaftliche Analyse explizieren und kritisch diskutieren. Auf Basis dieser Überlegungen lassen sich mindestens drei potentielle Themenbereiche einer PPW ableiten: ein 1) methodologischer Bereich, 2) traditionell wissenschaftsphilosophischer Bereich sowie 3) der Bereich normativer Fragestellungen. Auch wenn sich die Bereiche überschneiden, so bietet ihre Trennung eine nützliche Kategorisierung der verschiedenen Fragestellungen einer PPW. Im Folgenden werden drei Bereiche anhand exemplarischer Fragestellungen vorgestellt. Dabei beschränke ich mich auf empiristische und naturalistische Ansätze der PW. Aus Platzgründen wird die Diskussion anti-naturalistischer Positionen (z. B. Taylor 1994 [1967]) sowie qualitativer Methoden wie beispielsweise phänomenologi Die Unterscheidung zwischen normativer Politischer Theor ie und positiver PW bezieht sich auf die Klassische Politische Theor ie (KPT) und geht oft mit dem wichtigen, aber nicht unstrittigen Argument einher, dass die KPT keine Wissenschaft sei, die sich systematisch und auf Basis der wissenschaftlichen Methode der empirischen Analyse von politischen Phänomenen widme und damit der PW weder inhaltlich noch institutionell zugeordnet werden könne (vgl. Box-Steffensmeier et al. 2008). Der Begriff der KPT bezieht sich dabei nicht auf deskriptiv-analytische Theor ien wie die Neue Politische Theo rie; hier gibt es Theor ien wie beispielsweise Niklas Luhmann’s Theor ie des Politiksystems sowie neomarxistische Ansätze, welche auf die abstrakte Analyse politischer Phänomene abzielen. Vielmehr ist er als terminus technicus zu verstehen, der primär die Politische Philosophie und Ideengeschichte umfasst. 4 Praktische Relevanz ist nicht notwendigerweise das zentrale Ziel der PW. Man kann jedoch argumentieren, dass es bei vielen empirischen Fragestellungen schlussendlich um die Formulierung von (machbaren) politischen Zielen geht. 3
619
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
sche, hermeneutische oder ideologiekritische Ansätze vernachlässigt.5 Eine PPW sollte jedoch selbstverständlich über die naturalistische Perspektive hinausgehen.
4 Methodologische Aspekte in der Politikwissenschaft Im Folgenden werden zentrale methodologische Fragestellungen in der PW anhand des vielleicht prominentesten sozialwissenschaftlichen Ansatzes menschlichen Verhaltens aufgezeigt, der Theor ie rationalen Entscheidens (kurz: RCT). Auch als Rational-Choice-Paradigma bezeichnet, zählt er zu den wichtigsten Forschungstraditionen der PW (Moon 1991, 50), der in seinen beiden Hauptausprägungen, der Spieltheor ie und der Entscheidungstheor ie, sowohl breit angewandt als auch kontrovers diskutiert wurde (Green/Shapiro 1994, 1995, 1999; Hardin 2010; Johnson 1993, 2002, 2010; MacDonald 2003; Mansbridge 1995; Monroe/ Hill Maher 1995; Monroe 1997; Neal 1988; Riker 1995; Shapiro 2004; Zuckert 1995). Ansätze wie die social choice theory (Arrow 1951), public choice theory (Buchanan/Tullock 1962; Downs 1957; Niskanan 1971; Olson 1965; Riker 1962), rational choice Marxism (Elster 1985), the logic of collective action (Olson 1965), rational choice history (Bates et al. 1998), sowie rational choice institutionalism (Shepsle 2005) stellen verschiedene Ausprägungen der RCT dar, die sich der Kernkonzepte einer axiomatischen Definition von Rationalität, der Nutzenfunktion und des Konzepts der Präferenz bedienen, um zentrale Problemstellungen in der PW zu adressieren.
4.1 Die Theorie rationalen Entscheidens Die RCT, deren Einführung in die PW auch als »Rational Choice Revolution« (Goodin/Klingemann 1998a, 12) oder »Rational Choice Politics« (Boettke et al. 2006: F307) bezeichnet wurde, gilt seit den 1970er Jahren, zunächst im Bereich ›Internationale Beziehungen‹ und später in der ›Vergleichenden PW‹ sowie darüber hinaus, als zentraler Bestandteil der amerikanischen PW (Elster 2000, 685; Green/Shapiro 1999, 12). Sie diente zunächst der Analyse von strategischem Verhalten und dem Fortbestehen von Interessenverbänden, von bürokratischen Strukturen und Verwaltungen, von präsidentieller Macht und Machtstrukturen sowie von kollektivem Handeln und den Auswirkungen politischer Institutionen auf individuelles Handeln (Johnson/Schrodt 1991, 102). Allgemein gesprochen handelt es sich bei den gängigen Ausprägungen der RCT um axiomatische Ansätze, die individuelle Entscheidung und soziale Interaktion formal-mathematisch beschreiben sollen (Arrow 1958; Herne/Setälä 2004, 69; Riker 1995). Mittels mathematischer Modellierung erlauben sie die Deduk5
Für eine Diskussion alternativer Methoden siehe Berg-Schlosser/Stammen (2003).
620
Philosophie der Politikwissenschaft
tion von Theoremen, die im besten Fall äquivalent sind mit den in den empirischen Daten beobachtbaren Regularitäten. Sie galten lange als eine der wenigen sozialwissenschaftlichen Theorien, mittels derer empirische Beobachtungen theoretisch fundiert und damit testbare Voraussagen über die politische Realität gemacht werden konnten. In der Entscheidungstheor ie wird der Fokus auf die Analyse individuellen Verhaltens gelegt, unabhängig vom Verhalten anderer Akteure. Die Spieltheo rie modelliert hingegen die soziale Interaktion zwischen strategisch agierenden Akteuren, wobei das Verhalten eines Akteurs von dem erwarteten Verhalten aller anderen Akteure abhängt (Johnson/Schrodt 1991, 111). Politisches Manövrieren während eines Wahlkampfes wäre eine exemplarische Situation, die mit der Spieltheor ie abgebildet werden könnte (vgl. Steele 2014, 191). Es wird angenommen, dass Akteure rationale Präferenzen haben und vollständig über die Handlungsoptionen aller anderen Akteure informiert sind. Ein weiterer Bestandteil der Spieltheor ie sind verschiedene Lösungskonzepte zur Voraussage bzw. Vorschrift der rationalen Handlung in einem Spiel. Das bekannteste Lösungskonzept ist das Nash-Gleichgewicht, bei dem angenommen wird, dass jeder rationale Akteur, gegeben die Strategien aller anderen Akteure, die für ihn bestmögliche Strategie wählt (engl. best response).6 Es handelt sich bei der RCT meist um eine Variante der mathematischen Nutzentheor ie (Herne/Setälä 2004, 69). Dass die rationale Akteurin ihren Nutzen maximiert (Prinzip der Nutzenmaximierung) ist ihre Kernaussage. Genauer besagt das Prinzip, dass eine Akteurin ihre Handlungsoptionen auf Basis ihrer Präferenzen in eine Rangordnung bringt und diejenige Option wählt, die ihr den höchsten Nutzen verspricht bzw. für die Erreichung ihrer Ziele am besten geeignet ist (↑ Philosophie der Ökonomik). ›Nutzen‹ ist jedoch als flexibles Konzept zu verstehen, welches keineswegs nur eigennützige Ziele umfasst. Vielmehr kann die Rangordnung der Optionen auf Basis jeder Art von Präferenzen gebildet werden. Es kann beispielsweise zwischen eigennützigen, oft materiell orientierten, und uneigennützigen Interessen unterschieden werden (Herfeld/Schaubroeck 2013; Riker 1995, 37; Sen 1977; 1985; 2005). Ein Akteur mit altruistischen Präferenzen würde lediglich seine Handlungsalternativen in eine andere Rangordnung bringen als ein Akteur mit egoistischen Präferenzen. Im ersten Fall verspricht die altruistische Handlung den größten Nutzen und wird am höchsten eingeordnet. Im zweiten Fall wird die Handlung am höchsten eingeordnet, die dem Akteur bei der Verfolgung seiner persönlichen Interessen verhilft. Es können also bei gleichen Handlungsalternativen verschiedene Arten von Präferenzen abgebildet werden, die sich in einer unterschiedlichen Rangordnung widerspiegeln. Alleine die dem Verhalten Es bestehen weitere konzeptionelle und methodologische Unterschiede zwischen der Entscheidungs-und der Spieltheor ie, auf die hier nicht eingegangen werden kann (↑ Philosophie der Ökonomik). 6
621
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
zugrundeliegende Handlungslogik des instrumentell rationalen Handelns ist bei jedem Akteur gleich. Es wird angenommen, dass der Akteur seine Präferenzen genau kennt. Es bleibt jedoch offen, woher diese kommen. Präferenzen werden in der Theor ie als gegeben angenommen. In der einfachsten Variante der RCT verfügt ein Akteur über vollständige Information, die er kognitiv so zu verarbeiten vermag, dass er rational entscheiden kann; Akteure sind lediglich durch externe Beschränkungen (z. B. materieller oder institutioneller Art) in ihren Handlungen begrenzt. Diese Annahme wurde als empirisch inadäquat kritisiert. Beispielsweise treffen Wähler ihre Entscheidungen über Kandidaten, Parteien oder Wahlprogramme auf Basis unzureichender Information (Green/Shapiro 1999, 30).7 Außerdem kann die Informationssuche (beispielsweise zu einen politischen Kandidaten oder einem Wahlprogramm) selbst als rationale Entscheidung aufgefasst werden (Elster 1994, 2007). Beim Informationserwerb fallen Suchkosten an und ein Akteur wird nur so lange Informationen sammeln, bis der Nutzen einer zusätzlichen Informationseinheit den Kosten einer zusätzlichen Informationseinheit entspricht. Kritiker argumentieren jedoch, dass Akteure dafür in der Lage sein müssten zu beurteilen, welche Information ihnen wie viel nützt, bevor sie überhaupt über die Information selber verfügen. Neben der Theor ie der Entscheidung unter Sicherheit gibt es zwei weitere Varianten der Entscheidungsfindung: unter Risiko und unter Unsicherheit. Im zweiten Fall kennt die Akteurin die Eintrittswahrscheinlichkeiten der verschiedenen Handlungsergebnisse nicht, im ersten Fall sind die Eintrittswahrscheinlichkeiten bekannt. Hier wird die Entscheidungsfindung konzeptionell durch den Erwartungsnutzen erfasst (↑ Philosophie der Ökonomik). Axiome wie beispielsweise das Transitivitäts- oder das Vollständigkeitsaxiom werden oft mittels Plausibilitätsargumenten als Präferenzen eines rationalen Akteurs oder als Rationalitäts axiome verteidigt (Allais 1979; Arrow 1958; Sugden 1991). Man spricht hier von minimaler Rationalität, da keine Aussage über den Inhalt der Präferenzen gemacht wird und rationales Verhalten als konsistentes Verhalten definiert wird (Green/Shapiro 1999; Herne/Setälä 2004; Monroe 1991). Während bei der Verwendung eines minimalen Rationalitätsbegriffs der Inhalt der Präferenzen offen bleibt, setzt die konkrete Anwendung der RCT einen substantiellen Rationalitätsbegriff voraus, bei dem u. a. die Präferenzen, der Informationsstand, die Ziele und institutionellen Beschränkungen der Akteure spezifiziert werden (vgl. Johnson 1996, 86). Meist nimmt man in der PW an, dass politische Akteure in ihrem Eigeninteresse handeln (Eigennutzannahme). Beispielsweise geht man in Analysen von Parteienverhalten in Wahlkämpfen davon aus, dass primäres Ziel einer Partei ihr eigener Wahlgewinn sei. Genauer wird angenommen, dass Parteien ihre Wahlkampfstrategie, ihr politisches Programm und ihre Personalaufstellung so auswählen, dass sie Wählerstimmen und damit ihre Macht maximieren. Auf der Ebene des einzelnen Politikers nimmt man an, 7
Für eine Kritik dieser Position siehe Simon (1995).
622
Philosophie der Politikwissenschaft
dass er diejenige Strategie verfolgt, welche seine Chance erhöht, sich ein politisches Amt zu sichern.
4.2 Kritik an der Theorie rationalen Entscheidens Die breite Anwendung der RCT auf politische Phänomene hat viel Kritik provoziert, vor allem mit Blick auf ihre empirisch inadäquaten Verhaltensannahmen. Die Theorie sei für Erklärungen individuellen Verhaltens unzulänglich, da ihre Annahmen über psychologische Mechanismen und über Entscheidungsfindungsprozesse an der Realität vorbeigingen (Pettit 2000). Psychologische und neurowissenschaftliche Ergebnisse stünden oft im Widerspruch zur Annahme rationalen Verhaltens (vgl. Kahneman 2003; Kahneman/Tversky 1979; Kahneman et al. 1986; Kahneman et al. 1982; Loomes et al. 1991; Simon 1955, 1995). Simon (1959) argumentiert, dass Individuen nicht ihren Nutzen maximieren, sondern vielmehr Satisficer sind, d. h. diejenige Handlung wählen, welche als erstbeste Möglichkeit den entsprechenden Zweck erfüllt. Und Gigerenzer et al. (1999) haben gezeigt, dass scheinbar irrationales Verhalten und die Befolgung von Heuristiken für ein Individuum sogar vorteilhaft sein kann. Verstanden als empirische Theorie politischen Verhaltens ist konkret die Beziehung zwischen Theorie und empirischer Beobachtung schwierig. Da es sich bei Präferenzen um unbeobachtbare Entitäten handelt (Kirchgässner 2008, 662), ist deren Spezifizierung nicht ohne Weiteres möglich. PolitikwissenschaftlerInnen haben jedoch argumentiert, dass der Zugang zu menschlichen Intentionen durch Introspektion und Empathie möglich sei (Riker 1995). Die Politikwissenschaft lerIn trifft für sie plausible Annahmen über die Intentionen eines Akteurs, formuliert Voraussagen über dessen Handlungen und vergleicht die Voraussage mit der Realität. Tritt die Handlung ein wie vorausgesagt, wurde die Handlung erklärt. Andernfalls müssen die Annahmen so lange modifiziert werden, bis die Voraussage mit der tatsächlichen Handlung übereinstimmt (ebd., 26). Dieser Prozess des Testens und der Revision könne ohne eine allgemeine Theorie nicht vollzogen werden. Daher sei die RCT von essentieller Bedeutung, um theoretisch fundierte Erklärungen und Voraussagen politischen Verhaltens zu ermöglichen. Zur Illustration dieser Vorgehensweise greift Riker das sogenannte »Paradox der Wahlbeteiligung« auf, bei der mittels eines RC -Ansatzes analysiert wird, warum Wähler für ihren favorisierten Kandidaten zur Urne gehen (vgl. auch Kirchgässner 2008). Seit Downs (1957) wird Wahlbeteiligung als ein Problem kollektiven Handelns formuliert. Die Wahl eines Kandidaten wird als öffentliches Gut konzeptualisiert: Niemand kann vom Konsum ausgeschlossen werden und es besteht keine Rivalität bezüglich des Konsums. Ob Bürger die Vorteile (V) des Wahlsiegs konsumieren können, ist also unabhängig davon, ob sie zur Wahl gehen oder nicht. Sie werden in jedem Fall vom Wahlsieg ihrer Kandidaten profitieren und haben daher keinen Anreiz zu wählen. 623
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Downs formuliert das Entscheidungsproblem eines Wählers folgendermaßen: N ist der erwartete Nutzen aus dem Wahlsieg des Wunschkandidaten abzüglich des erwarteten Nutzens aus dem Wahlsieg des ungewünschten Kandidaten. Der rationale Wähler weiß, dass die Wahrscheinlichkeit p, mit der seine eigene Wahl den Wahlausgang entscheidet, verschwindend gering ist.8 Die Vorteile (V) und Kosten (K) der Stimmabgabe werden in das Kalkül des Bürgers mit aufgenommen. Der nutzenmaximierende Bürger wird nur wählen gehen, wenn sein erwarteter Gesamtnutzen (U) größer ist als seine erwarteten Kosten: p*N + V > K Wenn U=(p*N + V) < , dann wird der Bürger sich auf seine Mitbürger verlassen. Da vor allem bei einer hohen Wahlbeteiligung p klein ist, werden seine erwarteten Wahlkosten größer als der erwartete Nutzen sein, auch wenn er eine klare Präferenzordnung bezüglich der Kandidaten hat. Da seine Wahl keinen entscheidenden Einfluss auf den Wahlausgang hat, wird er seine Kosten minimieren und nicht wählen gehen. Trotzdem wird er von den Vorteilen des Wahlausgangs profitieren (Trittbrettfahrerverhalten). Auf Basis der RCT wird daher eine sehr geringe Wahlbeteiligung vorausgesagt. Die Voraussage weicht allerdings von der Beobachtung ab, da es meist eine positive Wahlbeteiligung gibt. Um die Daten zu erklären, integriert Riker die Idee, dass Wähler Nutzen aus dem Wahlakt selbst ziehen, und ergänzt dies formal in der Gleichung durch weitere Variablen (D), welche beispielsweise die Erfüllung der Bürgerpflicht, Meinungsbekundung durch den Ausdruck politischer Präferenzen etc. abbilden: p*N + V + D > K Riker/Ordeshook (1968) zeigen, dass bei einem Ansteigen von D auch die Wahlbeteiligung ansteigt. Auf dieser Basis kann die modifizierte Theorie eine positive Wahlbeteiligung voraussagen. Rikers und Ordeshooks Rettungsversuche entsprechen der methodologischen Strategie einer post-hoc-Theoriebildung (Green/Shapiro 1999, 47). Die mit der Theorie bzw. die mit ihren Voraussagen im Widerspruch stehenden Beobachtungen werden nicht als Anomalien der Theorie akzeptiert, um eine bessere Theorie zu entwickeln. Die Annahmen werden vielmehr dahingehend modifiziert, dass die gleiche Theor ie die mit ihr im Widerspruch stehenden Daten wieder erklären kann. Genauer wird das Nutzenkonzept ad hoc erweitert. Die Variable D kann konzeptionell den Einfluss auf den Nutzen durch alles abbilden, was man sich ›introspektiv‹ so vorstellen kann. Ob ein Bürger beim Wahlakt Nutzen aus Pflichtbewusstsein, aus Entscheidungsfreude oder aus Nationalstolz zieht, kann In der entscheidungstheoretischen Darstellung ist p eine feste Größe und nicht wie in der spieltheoretischen Darstellung ein endogener Parameter, der abhängig davon ist, ob andere Bürger zur Wahl gehen (Green/Shapiro 1994, 63). 8
624
Philosophie der Politikwissenschaft
nicht leicht unterschieden und gemessen werden, was sowohl allgemeine Aussagen über Wahlverhalten mittels der Theor ie als auch eine fruchtbare Modifikation erschwert. Riker und Ordeshook rechtfertigen ihre Strategie mit dem Verweis auf die Schwierigkeit, Indikatoren für Motivationen wie »Bügerpflichterfüllung« zu fixieren, Umfragedaten zu erheben und politische Präferenzen direkt zu messen bzw. zu beobachten. Beispielsweise können bei der direkten Befragung bzw. stichprobenartig durchgeführten Umfragen die wahren Motive verschleiert, verzerrt oder durch Falschaussagen verschwiegen werden. Dies sei insbesondere eine Schwierigkeit in der PW, da politische Akteure oftmals Anreize haben, ihre wahren Motive zu verbergen. Unternehme man jedoch keinen Versuch, die tatsächlichen Vorteile und die entstehenden Kosten zu schätzen und gegeneinander abzuwägen, so die Kritiker, hätte die Theor ie weder Erklärungs- noch Voraussagekraft. In Abhängigkeit der getroffenen Annahmen könne jedes beliebige Verhalten rational sein; was übrig bleibe, sei bestenfalls eine Tautologie, deren Gültigkeitsbereich arbiträr wäre. Darüber hinaus seien die Annahmen oft nicht das Ergebnis sorgfältiger Introspektion, sondern reflektierten vielmehr die »theoretischen Überzeugungen [der Wissenschaftlerin], um die Belege zu liefern, die erforderlich sind, damit die Theor ie funktioniert« (Green/Shapiro 1999, 70).9 Schlussendlich könne der empirische Gehalt einer Theor ie nicht mehr als entscheidendes Selektionskriterium herangezogen werden, da dieser mit jeder ad-hoc-Modifikation sinke. Ferejohn/Fiorina (1974) gehen einen anderen Weg, indem sie die RCT um den Faktor der Unsicherheit zur Erklärung von einer positiven Wahlbeteiligung erweitern. Da der Bürger die Wahrscheinlichkeiten des Wahlsieges eines Kandidaten nicht kalkulieren kann, muss er seine Wahlentscheidung unter Unsicherheit treffen. Die von einem rationalen Wähler angewandte Entscheidungsregel sei in dem Fall die sogenannte minimax-regret-Regel. Nach ihr wird die Möglichkeit minimiert, die am wenigsten präferierte Option zu realisieren. Um das subjektiv schlimmste Ergebnis zu verhindern, hat der Bürger einen Anreiz, zur Urne zu gehen. Dieser Ansatz kann die Daten jedoch auch nur teilweise erklären (vgl. Dowding 2008, 8). Damit fällt die Erklärungskraft als Selektionskriterium der RCT ebenfalls weg. Johnson (1996) hinterfragt das Kriterium der Erklärungskraft zur Beurteilung des epistemischen Wertes der RCT in der PW. Der dieser Position zugrundeliegende ›naive Falsifikationismus‹ suggeriere, dass es in der PW alleine um die empirische Überprüfung von Hypothesen ginge. Durch diese enge Kritik an der RCT würde ihr Nutzen im Rahmen anderer wissenschaftlicher Praktiken überse Eine weitere Modifikationsstrategie ist, dass Wähler ihren eigenen Einfluss auf die Wahl überschätzen (Dowding 2005, 7), p zu hoch ansetzen und damit subjektiv rational handeln (Hardin 2008). Zur Diskussion weiterer Modifikationsstrategien siehe Dowding (2005). Zur Diskussion von spieltheoretischen und gruppenbasierten Modellen des Wählens siehe Feddersen (2004). 9
625
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
hen, die nicht auf das Falsifizieren von singulären Aussagen abzielten (Hay 2014; Johnson 2010). Beispielsweise sei die Spieltheorie als eine Theorie rationalen Entscheidens zwar weder eine wissenschaftliche Theorie politischen Verhaltens noch eines anderen politischen Phänomens, wäre aber als Werkzeug (engl. »tool«) zur Modellierung von strategischer Interaktion durchaus brauchbar (Johnson 2010, 283). Spieltheoretische Modelle erklärten insofern, als dass sie erlaubten, konzeptionell zu spezifizieren, unter welchen Bedingungen instrumentelle Rationalität als Mechanismus verlässlich operieren würde (engl. »how-possibly explanations) (Johnson 2010, 294). Solche Praktiken seien sinnvoll, zielten u. U. jedoch nicht auf die Spezifizierung von allgemeinen Gesetzmäßigkeiten zur kausalen Erklärung politischer Phänomene ab. Vor diesem Hintergrund verfehle die Kritik an der RCT als falsifizierte empirische Theor ie ihr Ziel (Johnson 2010). Nach Johnson (2010) könne man die RCT alternativ als eine Forschungstradition im Sinne Larry Laudans verstehen. Diese Forschungstradition würde durch ihre fehlende Erklärungskraft weder in Frage gestellt, noch wäre eine kategorische Zurückweisung einer Theor ie dieser Tradition sinnhaft, u. a. weil jede Forschungstradition und Theor ien innerhalb dieser Forschungstraditionen nur komparativ, d. h. im Vergleich mit einer Alternative, beurteilt werden könnten (Johnson 1996). Bislang gäbe es jedoch kaum vergleichbare Alternativen zur RCT (Kirchgässner 2008). Eine solche Interpretation der RCT passt auch zur Beobachtung, dass Vertreter der RCT in der PW ihren Vorteil auch als universellen Ansatz menschlichen Verhaltens sehen (vgl. auch Becker 1976). Alternative Ansätze wie der historische Institutionalismus, der sich stark auf historische Fallbeispiele bezieht, oder der Behaviorismus, der auf empirische Beobachtung fokussiert, werden in der PW oft abgelehnt (Bevir 2008, 53). Wenn nicht als Forschungstradition, dann wird die RCT heute vielfach als normative Theor ie verteidigt, die zwar tatsächliches Verhalten nicht erklären, aber Akteure bei der Erreichung einer rationalen Entscheidung unterstützen könne (Anand et al. 2009). Trotz ihrer breiten Anwendung ist der Nutzen der RCT in der PW also umstritten. Gegen ihre Vertreter/innen wurde vielfach der Vorwurf einer Theor iegetriebenen Forschung in der PW geäußert. Theor ie und mathematische Modellierung würden um ihrer selbst willen betrieben, unabhängig von der Relevanz behandelter Probleme (Bevir 2008, 69; Green/Shapiro 1999; Shapiro 2004). Eine abschließende Beurteilung der RCT könnte, ebenso wie die Evaluierung anderer politikwissenschaftlicher Theor ien und Methoden, von einer philosophischen Diskussion profitieren.
5 Wissenschaftsphilosophische Aspekte der Politikwissenschaft Ein erklärtes Ziel des Politikwissenschaftlers ist es, quantitative und qualitative Methoden auf politische Phänomene anzuwenden bzw. Theorien und Modelle anhand von Daten zu testen und wissenschaftliche Erklärungen von politischen 626
Philosophie der Politikwissenschaft
Phänomenen zu liefern. Dabei stellt sich wiederkehrend die Frage nach dem richtigen Modell wissenschaftlicher Erklärungen. In diesem Zusammenhang ergeben sich Fragen zur Kausalität, zur Existenz von Gesetzmäßigkeiten und zur Möglichkeit und Notwendigkeit der Reduktion von Makrophänomenen auf Mikrophänomene in der PW (vgl. Bevir 2008, 64; Box-Steffensmeier et al. 2008, 27 ff.; Johnson 1996; Moon 1975; Pfetsch 2012: Tilly 2001). Im folgenden Abschnitt werden daher anhand der Debatte zu wissenschaftlichen Erklärungen einige wissenschaftsphilosophische Fragestellungen aufgezeigt, die exemplarisch für eine PPW wären. Die drei gängigsten Erklärungsmodelle der PW – das DN-Modell, das Absichten- basierte Modell und das Modell mechanistischer Erklärungen – werden diskutiert.
5.1 Gesetzmäßigkeiten und das DN-Modell in der Politikwissenschaft Das deduktiv-nomologische Modell der Erklärung (kurz: DN-Modell) ist mit den empiristischen Ambitionen vieler PolitikwissenschaftlerInnen am besten vereinbar. Danach ist eine wissenschaftliche Erklärung ein Argument, dessen Prämissen mindestens eine allgemeine Gesetzmäßigkeit enthält (Hempel/Oppenheim 1965 [1948]). Genauer wird das Explanandum als Konklusion aus dem Explanans, bestehend aus der Beschreibung einer allgemeinen Gesetzmäßigkeit und der Spezifizierung bestimmter Randannahmen und Hilfsbedingungen (als faktische Aussagen) logisch deduziert. Die Schlüssigkeit des Arguments ist abhängig davon, ob das Argument gültig und die Prämissen, einschließlich des allgemeinen Gesetzes, wahr sind. Das DN-Modell steht zahlreichen Schwierigkeiten gegenüber. Neben dem bekannten Problem der Asymmetrie (Bromberger 1966) wird seine Anwendung in den Sozialwissenschaften dadurch erschwert, dass auf die Beschreibung allgemeiner Gesetzmäßigkeiten zurückgegriffen werden muss. Diese werden vielfach charakterisiert als wahr und universell operierende, von Zeit und Ort unabhängig existierende und notwendige Regelmäßigkeiten (vgl. Hüttemann 2007, 139). Zusammen mit der Spezifizierung der Anfangsbedingungen stellen Gesetzesaussagen die Wahrheit einer Aussage über eine Instanziierung des Gesetzes sicher. Kennen wir beispielsweise die Gesetze der Planetenbewegungen und können die Position und die Geschwindigkeit der Planeten zu einem bestimmten Zeitpunkt bestimmen, dann können wir die Position der Planeten zu einem zukünftigen Zeitpunkt ableiten und damit präzise und testbare Voraussagen über die Planetenbewegungen machen. Ebenso können wir ex post eine spezifische Planetenkonstellation auf Basis der Kepler’schen Gesetze erklären.10 Es ist umstritten, ob es Gesetzmäßigkeiten mit den beschriebenen Eigenschaften in der Physik gibt (vgl. Cartwright 1983, 1999). Regularitäten, wie beispielsweise die Men del’schen Gesetze aus der Biologie, erfüllen ebenfalls nicht die an Naturgesetze gestellten Anforderungen. 10
627
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Ebenso wie Physiker mittels des Newton’schen Gravitationsgesetzes die Bewegung eines frei fallenden Gegenstandes beschreiben, so gehen Vertreter des DNModells in der PW davon aus, dass sie bei der Erklärung des Zusammenbruchs von politischen Systemen, dem Zustandekommen von demokratischen Institutionen, einem Kriegsausbruch oder einer Revolution auf ähnliche Gesetzmäßigkeiten zurückgreifen können. Eine der Hauptaufgaben des Politikwissenschaftlers ist es, diese zu identifizieren. Das DN-Modell würde bei genauer Kenntnis aller Randbedingungen dann erlauben, jeden Krieg, jede Revolution und jeden Wahlgang unabhängig von Raum und Zeit als eine spezifische Instanziierung einer allgemeinen Gesetzmäßigkeit deduktiv abzuleiten. Ein Einwand gegen das DN-Modell in der PW ist, dass es auf einer Fehldeutung ihres Untersuchungsgegenstandes beruht, da es keine Regularitäten mit den genannten Eigenschaften in der politischen Sphäre geben kann. Obwohl PolitikwissenschaftlerInnen die PW als ein systematisches Unterfangen ansehen, bei dem sie auf allgemeine Aussagen zurückgreifen, bezweifeln viele, dass diese jemals Gesetzescharakter annehmen könnten, und argumentieren, dass diese unweigerlich immer nur probabilistischen Charakter hätten (Goodin/Klingemann 1998a, 9). Während die Physikerin sich auf die physikalischen Eigenschaften der Materie verlassen kann, erzeuge die Intentionalität menschlichen Handelns ein Element der Unsicherheit und des Indeterminismus. Der Politikwissenschaftler hat es daher mit einem Untersuchungsobjekt von grundsätzlich anderem Charakter zu tun als der Naturwissenschaftler (Taylor 1994 [1967]; Winch 1958). Eine etwas modifizierte Form von Hempels und Oppenheims Erklärungsmodell, das Induktiv-Statistische Modell (kurz: IS -Modell), greift den Gedanken probabilistischer Regularitäten auf. Danach sind Gesetzesbeziehungen in den Sozial- und Geschichtswissenschaften als ›weiche‹ Beziehungen zu verstehen (Hempel 1942). Sie sind probabilistisch; sie gelten nicht ausnahmslos, sondern nur mit einer gewissen Wahrscheinlichkeit (ebd., 47). Sie sind keine zufälligen Verallgemeinerungen, da sie kontrafaktische Aussagen stützen, und erlauben als statistische Hypothesen über Korrelationen zwischen relevanten Variablen Erklärungen und Voraussagen. Diese Korrelationen könnten mittels der Anwendung statistischer Methoden identifiziert und auf ihre Persistenz sowie Robustheit hin geprüften werden. In solchen Erklärungen folgt das Explanandum nicht notwendigerweise, sondern nur mit einer gewissen Wahrscheinlichkeit aus dem Explanans (Goodin/Klingemann 1998a, 10). Ein Beispiel wäre die Voraussage der Ergebnisse von Wahlprognosen auf Basis von Bürgerumfragen über deren Präferenzen sowie grundsätzlichen Annahmen über Wähler- und Parteienverhalten. Auch das IS -Modell hat zahlreiche Schwierigkeiten. Beispielsweise ist eine hohe Eintrittswahrscheinlichkeit des Ereignisses alleine weder eine notwendige noch eine hinreichende Bedingung für eine gute Erklärung. Auch wenn diesem Problem beispielsweise mit dem sogenannten Statistischen Relevanz-Modell durch eine Fokusverschiebung weg von der Ermittlung von Eintrittswahrscheinlichkeiten hin zur Ermittlung der statistischen Relevanz teilweise begegnet werden 628
Philosophie der Politikwissenschaft
konnte (Salmon 1971), bleibt eine fundamentale Schwachstelle des Modells, dass statistische Relevanz-Beziehungen nicht notwendigerweise kausale Beziehungen beschreiben (Woodward 2014), was in der PW jedoch oft von einer guten Erklärung erwartet wird (Box-Steffensmeier et al. 2008). Kritiker des DN-Modells und des IS -Modells sehen ihre Einwände oft nicht als Einwände gegen die Verwendung mathematischer Modellierung oder statistischer Techniken allgemein. Vielmehr bestünde für die PW die Herausforderung, die Ergebnisse der Analyse angemessen zu interpretieren. Hinter dem zu erklärenden Phänomen, beispielsweise dem Unterschied im Wahlverhalten von Frauen und Männern, stünden oft komplexe Kausalketten, die nicht als binäre Ursache-Wirkungsbeziehungen beschrieben werden könnten. Daher müsse die einer kausalen Erklärung zugrundeliegenden Logik komplexer sein, als das DNModell oder das IS -Modell es zuließen.
5.2 Der Absichten-basierte Erklärungsansatz Ein anderer Erklärungsansatz in der PW basiert auf der Idee, dass allgemeine Gesetzmäßigkeiten menschlichen Handelns existieren. Es wird angenommen, dass menschliches Handeln sich von bloßer Bewegung darin unterscheidet, dass es Absichten-geleitet ist. Die Absicht wird in der Literatur Einzelfall-abhängig als Motivation, Bedürfnis, Bewusstsein, Handlungsorientierung oder Handlungs impuls charakterisiert (Tilly 2001, 23). Individuen haben Gründe, mittels derer sie ihren Handlungen Sinn zuschreiben. Handeln ist sinnhaft in einer Weise, wie das Verhalten von Atomen oder Genen nicht ist (Bevir 2008, 65). Dieser Verbindung zwischen Gründen und Handlungen liegt eine Handlungslogik zugrunde, die man als allgemeine Gesetzmäßigkeit verstehen kann. Gekoppelt an das DN-Modell ist der Absichten-basierte Ansatz das gängigste Erklärungsmodell in der PW (Tilly 2001). Die Aufgabe des Politikwissenschaftlers ist, ex post die Absicht eines Akteurs kurz vor dem tatsächlichen Ausführen der Handlung zu identifizieren, die für ihr Zustandekommen verantwortlich war. Der Absichten-basierte Ansatz ist eng verwandt mit dem Modell intentionaler Erklärungen aus der PSW und der Handlungstheor ie. Danach zielen intentionale Erklärungen darauf ab, menschliches Verhalten durch die Intention des handelnden Akteurs kausal zu erklären (vgl. Davidson 2001 [1980]; Elster 2007; Hedström 2008). Intentionen, bestehend aus Glaubensvorstellungen und Bedürfnissen, werden als mentale Zustände verstanden, die für den Akteur überzeugende Handlungsgründe darstellen und ihn zum Handeln veranlassen bzw. die Handlung verursachen (Davidson 2001).11 Beispielsweise kann man die Suche einer Präsidentschaftskandidatin nach direktem Kontakt zum Volk erklären, indem Dass intentionales Handeln kausal erklärt werden kann, ist nicht unstrittig. Siehe z. B. von Wright (1971) für ein Gegenargument (↑ Philosophie der Soziologie). 11
629
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
man ihre Bedürfnisse (sie möchte die Wahl gewinnen) und ihre Überzeugungen (sie glaubt durch direkten Bürgerkontakt im Wahlkampf Stimmen zu bekommen) identifiziert.12 Ob die Beziehung zwischen Absicht und beobachtetem Verhalten als gesetzesartig oder nicht-gesetzesartig angesehen wird, hängt von der Beschreibung dieser Beziehung ab (vgl. Bevir 2008, 66; Davidson 2001). Wenn der Zusammenhang als Gesetzmäßigkeit beschrieben wird, dann kann das Modell der intentionalen Erklärung mit dem DN-Modell kombiniert werden.13 In der Politikwissenschaft werden Absichten-basierte Erklärungen meist mittels der Anwendung von Theorien rationalen Entscheidens gegeben (Elster 2007; Hedström 2008, 326; Riker 1995; Rosenberg 2012; Steele 2014). Absichtengeleitetes Handeln wird oftmals als instrumentell-rationales Handeln aufgefasst, welches durch RCT formal-analytisch erfasst werden kann. Mit Blick auf ihr gegebenes Ziel, wählt eine rationale Akteurin immer genau diejenige Handlung, die sie als das bestmögliche Mittel zur Erreichung ihres Zieles ansieht.14 Durch genaue Spezifizierung ihrer Absicht, der zur Verfügung stehenden Handlungsalternativen und einer präzisen Beschreibung der spezifischen Situation kann man auf Basis dieses allgemeinen Rationalitätsprinzips, der Hilfsannahmen und der Anfangsbedingungen eine konkrete Handlung deduktiv erklären (Popper 1985; Vanberg 2004).15 Eine Schwierigkeit mit dieser Position ist, dass der Politikwissenschaftler für solche Absichten-basierten bzw. RC -Erklärungen auf die Existenz von unbeobachtbaren Entitäten – Intentionen – Bezug nehmen muss, die schwer messbar sind. Politikwissenschaftler umgehen dieses Problem u. a., indem sie lose soziale Kategorien als Handlungsgründe für spezifische Gesellschaftsgruppen annehmen, woraus sich wiederum bestimmte Verhaltensmuster über diese Gruppen ableiten lassen. Es wird beispielsweise angenommen, dass geringverdienende Arbeitnehmer die sozialdemokratischen Parteien und Vorstandsmitglieder eher die konservativen Parteien wählen. Aus solchen vagen Präferenz- und Überzeugungskategorien kann ein Wählermuster erklärt werden (Bevir 2008, 66). Fraglich ist, welchen epistemischen Wert eine solche Erklärung tatsächlich hat. Eine andere Lösung des Problems ist anzunehmen, dass beobachtbares Verhalten die Präferenzen des Individuums offenbart (Samuelson 1948) und man von Verhalten auf die Präferenzordnung schließen kann (↑ Philosophie der Ökonomik). Wenn eine Wählerin einmal Kandidatin A gegenüber Kandidat B vorzieht, dann wird sie bei der nächsten Wahl nicht Kandidat B wählen, wenn Kandidatin Da auf Alltagsbegriffe wie ›Bedürfnis‹ und ›Glaubensvorstellung‹ rekurriert wird, werden intentionale Erklärungen ebenfalls als alltagspsychologische Erklärungen bezeichnet (Bevir 2008). 13 Zu Davidsons komplexer Position bezüglich der Beziehung zwischen mentalen und physischen Zuständen siehe Davidson (2001). 14 Das Nutzenmaximierungsprinzip ist eine Variante des Rationalitätsprinzips. 15 Zur Diskussion von Poppers Situationslogik (Popper 1985) in der PW siehe Farr (1985), Bunge (1996) und Koertge (1979). 12
630
Philosophie der Politikwissenschaft
A ebenfalls zur Wahl steht (schwaches Axiom der offenbarten Präferenzen). Die Wählerin offenbart eine Präferenz für Kandidatin A gegenüber Kandidat B, die sich in ihrem konsistenten Verhalten widerspiegelt. Da Politiker, Lobbygruppen, Wähler etc. jedoch möglicherweise ihre wahren Präferenzen verschleiern, ist die Annahme, dass Akteure sich gemäß ihrer Präferenzen verhalten nicht trivial. Darüber hinaus ist die Präferenzordnung eines Akteurs oft abhängig vom Kontext, in welchem die Handlungsoptionen präsentiert werden (engl. framing effects), was den Ansatz offenbarter Präferenzen infrage stellt (vgl. Kahneman et al. 1982). Schließlich wurde das Nutzenmaximierungsprinzip vielfach widerlegt, was eine Schwierigkeit für diejenigen Absichten-geleiteten Erklärungen ist, welche auf Basis der RCT gegeben werden (vgl. Kirchgässner 2008, 661 ff.). Da Gesetzmäßigkeiten keine Ausnahmen zulassen, stellen diese Ergebnisse den Gesetzescharakter des Prinzips infrage (Woodward 2014). Daraufhin wurde die Anwendung des Prinzips in der PW vielfach von einem instrumentalistischen Standpunkt gerechtfertigt (MacDonald 2003). Genauer seien realistische Annahmen nicht notwendig, um den epistemischen Nutzen einer Theor ie anzuerkennen, da primäres Kriterium ihrer Beurteilung ihre Voraussagekraft sei (vgl. auch Friedman 2008 [1953]). Es stellt sich jedoch die Frage, wie man empirisch inadäquate Annahmen dauerhaft rechtfertigen kann. Wenn die Theor ie keine kausalen Zusammenhänge beschreibt, dann erscheinen die Wahl der Annahmen sowie die Theor ie selber bis zu einem gewissen Grad beliebig. Dies mag akzeptabel sein, solange trotzdem mehr oder weniger präzise Voraussagen gemacht werden können (Friedman 2008 [1953]). Verändert sich jedoch die kausale Struktur hinter dem zu erklärenden Verhalten und damit möglicherweise das Verhalten selber, wäre die Theor ie auch für Voraussagen unbrauchbar. Trotz genannter Schwierigkeiten wurde für die Anwendungen von Absichtenbasierten Erklärungen von sozialen Phänomenen auf Basis des Rationalitätsprinzips allgemein und des Nutzenmaximierungsprinzips speziell argumentiert (Ferejohn/Satz 1994). RCT seien tatsächlich begrenzt, »internalistische Erklärungen« zu geben, nach denen menschliches Verhalten durch Rückgriff auf psychologische Mechanismen kausal erklärt wird. Die RCT müsse jedoch nicht als psychologische Theor ie interpretiert werden. Vielmehr sei ihre Anwendung am plausibelsten in »externalistischen Erklärungen« von Entscheidungen auf Gruppenebene, die stark vom sozialen Kontext beeinflusst werden. Dabei erklärt eine Veränderungen in externen Bedingungen eine Veränderung des Gruppenverhaltens. Ähnlich wie in Poppers Situationslogik wird argumentiert, dass nicht die Absichten, sondern nur der Kontext ausreichend spezifiziert sein muss, um das Verhalten auf der Makroebene kausal zu erklären. Gruppenverhalten müsse alleine angemessen beschrieben werden, wofür die Annahme, dass Akteure sich so verhalten, als ob sie ihren Nutzen maximieren würden, ausreiche. Diese Als-ob-Annahme wird in externalistischen Erklärungen mittels eines evolutionstheoretischen Arguments verteidigt (Riker 1995; Satz/Ferejohn 1994). Akteure überleben in einem kompetitiven Umfeld, wenn sie sich in der Vergangen631
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
heit erfolgreich behauptet haben und dies in der Zukunft tun. Ansonsten würden sie langfristig von politischen und ökonomischen Entscheidungsprozessen ausgeschlossen (Riker 1995, 36). Beispielsweise seien externalistische Erklärungen von Wählerverhalten weniger erfolgreich als von Verhalten politischer Parteien, da ersteres sich in einem weniger kompetitiven Umfeld ereignet als letzteres. Parteien stehen im Wettbewerb mit anderen Parteien und müssen sich so verhalten, als ob sie rational wären (in dem Fall die Vertretung der Ziele ihrer potentiellen Wähler). Nur so bleiben sie neben anderen politischen Parteien bezüglich der Wähler wettbewerbsfähig und überleben im Parteienmarkt. Die einzelne Wählerin steht hingegen nicht in ausgeprägtem Wettbewerb mit anderen Wählern bezüglich ihrer Zielerreichung. Das Modell externalistischer Erklärungen sei hier weniger plausibel, da die Wählerin sich nicht notwendigerweise so verhalten müsse, als ob sie ihren Nutzen maximiere (Satz/Ferejohn 1994, 79; Riker 1995, 35 ff.). Das Modell externalistischer Erklärungen umgeht die Messprobleme von Handlungsgründen, indem es die Erklärungskraft auf den sozialen Kontext verlagert. Damit wird versucht, dem Vorwurf der psychologischen Inadäquatheit der RCT teilweise zu begegnen. Das Modell ermöglicht darüber hinaus eine Abkopplung der RCT von der reduktionistischen Doktrin des sogenannten methodologischen Individualismus (kurz: MI), wonach sich soziale bzw. politische Phänomene vollständig auf das Verhalten der Individuen zurückführen lassen (List/ Spiekermann 2013; Udehn 2001, 2002).16 Dies erscheint in der PW plausibel, da hier die RCT nicht primär auf Individuen, sondern auf Kollektive wie beispielsweise Parteien, Wähler, institutionelle Gefüge wie ›der Staat‹ angewandt wird. Das externalistische Modell kann deren Verhalten durch nichtreduzierbare, externe Strukturen (z. B. Wettbewerb) erklären.
5.3 Das mechanistische Erklärungsmodell Das DN-Modell und das Absichten-basierte Modell vernachlässigen, dass kausale Prozesse hinter sozialen Phänomenen extrem komplex sein können. Vertreter des mechanistischen Erklärungsmodells nehmen diesen Gedanken auf. Mechanistische Erklärungen zielen darauf ab, ein Phänomen zu erklären, indem man den Mechanismus identifiziert, der es hervorgebracht hat, d. h. den genauen Ablauf eines Prozesses nachzeichnet und damit das Phänomen kausal erklärt (vgl. Mantzavinos 2015). Zusätzlich spielt der Begriff der kausalen Interaktion eine wichtige Rolle, d. h. die Idee, dass eine raum-zeitliche Überschneidung zwischen zwei kausalen Prozessen bestehen kann, welche die Struktur beider Prozesse beeinflusst. Prozesse bekommen neue Eigenschaften, die ohne eine Interaktion nicht entstanden wären (Woodward 2014). Für eine differenzierte Darstellung der verschiedenen Ausprägungen der Doktrin des MI siehe Udehn (2001). 16
632
Philosophie der Politikwissenschaft
Es existieren zahlreiche Definitionen von (sozialem) Mechanismus in der Lite ratur. Eine in den Sozialwissenschaften gängige Definition stammt von Peter Hedström (2008, 321): »mechanisms … consist of ›entities‹ (with their properties) and the ›activities‹ that these entities engage in, either by themselves or in concert with other entities.«17 Entitäten können sowohl individuelle als auch »extraindividuelle Akteure« sein, wie beispielsweise ganz allgemein (politische) Institutionen oder andere ›soziale Entitäten‹. Diese können konzeptionell wiederum – in Abhängigkeit von der angewandten Methode – als Netzwerke, als Organisationen o.ä. konzeptualisiert werden (ebd., 322). Während manche Vertreter von mechanistischen Erklärungen sich also der Mikrofundierung verpflichten, ist diese keine notwendige Bedingung für mechanistische Erklärungen. Die den meisten Definitionen von ›Mechanismen‹ zugrundeliegende Idee ist, dass beobachtbare Phänomene erklärt werden können, indem eine detaillierte Spezifizierung des Prozesses vorgenommen wird, durch welchen sie hervorgebracht werden (Hedström 2008; Machamer et al. 2000). Die sogenannten Aktivi täten, und nicht allein die Eigenschaften der Mechanismen, führen zu Prozessveränderungen in der sozialen Welt. Die Art der Prozessveränderungen ist jedoch abhängig von den Eigenschaften der involvierten Entitäten und davon, in welcher Beziehung diese zueinander stehen (Hedström 2008, 322). Damit erlaubt dieses Erklärungsmodell, dass die gleichen Entitäten aufgrund ihrer wechselnden Position in unterschiedlichen institutionellen Kontexten bzw. Netzwerkkonstellationen verschiedene Verhaltensmuster hervorbringen können. Es wird deutlich, dass im mechanistischen Erklärungsmodell vielfach der Fokus nicht auf die Beziehung zwischen Variablen, sondern auf die Akteure und ihre Eigenschaften, auf die Beziehung zwischen Akteuren und auf die intendierten oder nicht intendierten Konsequenzen ihrer Handlungen gelegt wird. Dabei findet eine Fokusverschiebung statt, weg von der Analyse der Beziehung zwischen Variablen hin zur Analyse der Beziehungen auf Akteurslevel (Hedström 2008, 320). Neben der Forderung, dass Erklärungen politischer Phänomene durch Verweis auf individuelles Verhalten und soziale Interaktion (1) die dem Verhalten zugrundeliegenden Ursachen bzw. Handlungsgründe identifizieren, fordert der mechanistische Ansatz zusätzlich, dass (2) das Zustandekommen der Phänomene verständlich gemacht wird und (3) eine Kontinuität der erklärenden Faktoren vorliegt (Mantzavinos 2015, 303). So wird bis zu einem gewissen Grad die Verallgemeinerbarkeit der Erklärung sichergestellt. Dieser Ansatz unterscheidet sich vom DN-Modell insofern, als dass es sich bei Erklärungen nicht alleine um linguistische Entitäten handelt, die auf logische Schlüsse beschränkt sind (Mantzavinos 2015). Vielmehr werden alternative Methoden wie Simulationen und Agenten-basierte Modellierung verwendet, um die verschiedenen Charakteristika der Mechanismen zu erforschen, neue Mecha Diese Definition ist u. a. angelehnt an Machamer, Darden/Craver (2000). Für einen Überblick über bestehende Definitionen siehe Hedström (2008, 322). 17
633
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
nismen zu entdecken und mechanistische Erklärungen zu testen. Vertreter des Ansatzes argumentieren, dass verschiedene wissenschaftliche Modelle exemplarisch für bestimmte Mechanismen stehen und politische Phänomene daher gerade nicht einer universalistischen und allgemeingültigen Gesetzmäßigkeit unterworfen werden müssen (ebd.).18 Vertreter des mechanistischen Modells verteidigen ihre Vorgehensweise zur Identifizierung von kausalen Mechanismen mit Blick auf die Vor- und Nachteile gewisser Methoden in der PW. Beispielsweise wird argumentiert, dass zur Identifikation kausaler Zusammenhänge nicht primär auf Experimente zurückgegriffen werden kann. Ein präzise geplantes und durchgeführtes Experiment lasse zwar eine Aussage darüber zu, ob sich beispielsweise durch die Manipulation einer Variable ein Effekt auf das Ergebnis provozieren ließe. Solange jedoch nicht sicher sei, welcher Mechanismus diesem Effekt zugrunde liege, könne man keine kausal-erklärende Aussage über den Zusammenhang machen (Hedström 2008, 323). Mechansimen können prinzipiell mittels Experimenten erforscht werden. Aufgrund der Komplexität des Untersuchungsgegenstandes und dem damit in Verbindung stehenden Problem externer Validität experimenteller Ergebnisse lassen sich Mechanismen jedoch oft nicht mit Sicherheit identifizieren, was die Verallgemeinerung der Ergebnisse politikwissenschaftlicher Experimente erschwert (Morton/Williams 2008, 345).19 Vielmehr seien computergestützte Verfahren wie beispielsweise die Netzwerkanalyse und Agenten-basierte Modellierung die angemesseneren Methoden zur Erforschung von Mechanismen. Vertreter des mechanistischen Modells sind sich auch darüber einig, dass Methoden wie beispielsweise Umfrageanalyseinstrumente oder statistische Verfahren essentiell in der PW sind. Jedoch verteidigen sie die Position, dass z. B. statistische Modelle kausale Prozesse adäquat repräsentieren müssen, um verlässliche und nützliche Resultate zu produzieren (Elster 2007). Theor ien sollten im ersten Schritt dazu dienen, subjektspezifische mathematische Modelle eines kausalen Prozesses zu formulieren, deren Parameter dann im zweiten Schritt mittels statistischer Methoden geschätzt würden (Hedström 2008, 325). Damit wird nicht nur garantiert, dass der empirische Aussagegehalt eines formalen Modells ein wichtiges Kriterium für dessen Anwendung ist. Es können so auch kausale Mechanismen identifiziert werden, die einem politischen Phänomen tatsächlich zugrunde liegen. So werden theoretische und empirische Forschung sinnvoll ergänzt. Intervention und Manipulation können kontrolliert und mit Blick auf politische Ziele und gesellschaftlich gewünschte Resultate durchgeführt werden. Mechanistische Erklärungen basieren ebenso wie intentionale Erklärungen auf Annahmen über die Ziele, Bedürfnisse und Handlungsalternativen der han Für ein Beispiel einer Mechanismus-basierten Erklärung in der PW siehe Mantzavinos (2015). 19 Für eine Diskussion von Experimenten in der PW siehe Morton/Williams (2008) sowie Gerber/Green (2008). 18
634
Philosophie der Politikwissenschaft
delnden Akteure. Hier wird oft auf die klassischen Annahmen der RCT zurückgegriffen. Da es in der PW jedoch in erster Linie um Phänomene als Ergebnis sozialer Interaktion und nicht um individuelles Handeln geht, werden komplexere psychologische Mechanismen wie beispielsweise Wunschdenken, selbsterfüllende Prophezeiung und Dissonanzen-getriebene Bedürfnisbildung definiert, welche die Bildung mentaler Zustände eines Akteurs in Abhängigkeit von seiner Interaktion mit anderen Akteuren erfassen sollen (Hedström 2008, 326 ff.). Obwohl solche interpersonalen Mechanismen ein empirisch adäquateres Bild der Interaktion zwischen Akteuren erlauben, ergibt sich bei mechanistischen Erklärungen von politischen Phänomenen erneut das Problem, dass diese ebenfalls auf unbeobachtbaren Entitäten beruhen. Darüber hinaus ist die Beziehung zwischen Mikro- und Makroebene extrem komplex und kleinste Veränderungen in dieser Beziehung kann die Erklärung und Voraussage von politischen Phänomenen erschweren (z. B. Schelling 1978). Daher muss spezifiziert werden, welche Mechanismen auf der Mikroebene für das Zustandekommen eines beobachtbaren politischen Phänomens auf der Makroebene (z. B. Ausgang der Landtagswahl 2013 in Hessen, Deutschland) relevant waren und wie dieses genau generiert wurde (Elster 1989). Da kausale Inferenz ein wichtiges Ziel in der PW ist (Box-Steffensmeier et al. 2008), schlagen PolitikwissenschaftlerInnen die Verbindung von Methoden wie der Agenten-basierten Simulation und der empirischen Datenanalyse vor, was die Validierung des im Modell theoretisch postulierten Mechanismus erlauben würde (vgl. Hedström 2008, 332). Wie oben angedeutet ist hier zentral, dass der dieser Position zugrundeliegende Individualismus nicht von allen SozialwissenschaftlerInnen getragen wird. Wie ebenfalls angedeutet und von Tilly (2001, 25) bemerkt, können relationale Mechanismen (z. B. Mittlerpositionen) oder umgebungsbedingte Mechanismen (z. B. Umweltverschmutzung) politische Prozesse beeinflussen, ohne dass eine Verbindung zur Mikroebene besteht. Das mechanistische Erklärungsmodell umgeht die Schwierigkeiten des DNModells, indem es in erster Linie darauf abzielt, kausale Zusammenhänge so spezifisch wie möglich zu beschreiben. Da einem politischen Phänomen unterschiedliche Mechanismen zugrunde liegen können, wird die Idee aufgenommen, dass soziale Phänomene – in Abhängigkeit der gegebenen Anfangsbedingungen und anderer externer Einflussfaktoren – unterschiedliche Ausprägungen haben können und keinen allgemeinen Gesetzmäßigkeiten unterliegen. Trotz seiner Popularität (vgl. Mantzavinos 2015) hat der mechanistische Ansatz jedoch auch zahlreiche Schwierigkeiten. Ein zentrales Problem bezieht sich auf die Spezifikation der notwendigen und hinreichenden Bedingungen, die etwas erfüllen muss, um als (sozialer) Mechanismus zu gelten. Darüber hinaus ist die Beurteilung davon, was die kausal relevanten Faktoren eines kausalen Prozesses sind und als solche in die Beschreibung des Mechanismus mit einfließen, schwierig (z. B. Woodward 2014). Skeptiker argumentieren, dass der Versuch, wissenschaftliche Erklärungen in der PW zu geben, hoffnungslos sei (Tilly 2001). Erstens seien die Bedingun635
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
gen, unter denen komplexe politische Phänomene hervorgebracht werden, schwer zu spezifizieren. Zweitens seien die ihnen zugrundeliegenden kausalen Prozesse nicht verallgemeinerbar. Nur moderate Skeptiker erlauben, dass ein besseres Verständnis einzelner politischer Phänomene in Abhängigkeit ihrer konzeptionellen Beschreibung von den im konkreten Fall bestehenden Bedingungen erreicht werden könne. Demnach könnte der Zusammenbruch der Deutschen Demokratischen Republik (DDR) mittels gründlicher Recherche der spezifischen politischen, sozialen und kulturellen Bedingungen und durch Identifikation der für den Zusammenbruch des Regimes (kausal) relevanten Faktoren detailliert beschrieben werden. Dies ließe jedoch keine Ableitung allgemeiner Gesetzmäßigkeiten oder Mechanismen über den Zusammenbruch politischer Systeme zu. Für eine Alternative zu naturalistisch fundierten Ansätzen in der PW argumentieren die Vertreter der hermeneutischen (auch interpretativen bzw. verstehenden) Methode (Moon 1975; Müller 1990; Taylor [1967] 1994; Sigwart 2013). Sie dient der Interpretation von Texten und wird daher oft in der Politischen Theor ie angewandt (Berg-Schlosser/Stammen 2003, 121). Ihre Vertreter argumentieren, dass eine objektive und von spezifisch ideologischen Standpunkten unabhängige PW nur ein Ideal sei. Politikwissenschaftliche Theor ien nähmen Einfluss auf die Wahrnehmung und Gestaltung des politischen Lebens und damit indirekt auf das Verhalten politischer Akteure; die PW müssten diese Elemente der Reflexivität und Performativität anerkennen (vgl. Mantzavinos 2005; Moon 1991, 47). Darüber hinaus sei die Identifizierung von Ursache-Wirkungsbeziehungen nicht notwendig, um politisches Handeln zu verstehen (Moon 1975, 155). Die verstehende Methode erfordere vielmehr die Rekonstruktion und Interpretation einer Handlung innerhalb ihres sozialen, kulturellen und politischen Kontextes und im Lichte etablierter Konventionen, Normen und Deutungsmustern mittels Introspektion und subjektiver Erfahrung (Moon 1975, 155 ff.).20 Einige Vertreter der hermeneutischen Methode argumentieren, dass ihre Anwendung in der PW die kritische Beurteilung und die Artikulierung gesellschaftlich erwünschter, d. h. normativer Ziele ermöglicht. Da das, was wir in einer Gesellschaft als sinnhaft und bedeutungsvoll ansehen, immer vom historischen Kontext abhängig sei, würde sich als zentrale Aufgabe der PW das kontinuierliche Rekonstruieren der grundsätzlichen Ideen und konstitutiven Sinnzusammenhänge ergeben. Diese Rekonstruktion wird für die Analyse sowie das kritische Hinterfragen gesellschaftlicher Diskurse und das Sicherstellen von deren Kohärenz sowie für die substantielle Beurteilung normativer Politikziele im Lichte der historischen Umstände vorausgesetzt (Moon 1975, 155). Dies sei eine Aufgabe, welcher sich die PW nicht entziehen könne und solle (Goodin/Klingemann 1998a, 10; Müller 1990). Die Untersuchung von politischen Phänomenen auf Basis naturalistischer Methoden alleine reiche hierfür nicht aus (Cribb 1991). Siehe Mantzavinos (2005) und Elster (2007) für Argumente dafür, die Bedeutung der Debatte um Erklären und Verstehen zu relativieren. 20
636
Philosophie der Politikwissenschaft
6 Normative Aspekte der Politikwissenschaft Ein drittes Themenfeld der PPW könnte sich mit der Beantwortung von Fragen zur Objektivität der Politikwissenschaft sowie zur Trennung zwischen Fakten und Werten befassen. Die Forderung einer Trennung zwischen Fakten und Werten geht mit dem sogenannten Wertfreiheitspostulat einher. Das Postulat verweist auf die explizite Unterscheidung zwischen sowie die Kennzeichnung von Werturteilen und Sachaussagen durch die Wissenschaftlerin (vgl. Opp 2014, 240 ff.). Ein Werturteil ist eine Aussage darüber, dass etwas der Fall sein oder nicht sein soll (ibid., 239). Politische Forderungen, dass rechtsradikale Parteien verboten werden sollten oder dass die Stammzellenforschung aus ethischen Gründen nicht weitergeführt werden dürfe, enthalten Werturteile. Dass die Bildung rechtsradikaler Gruppierungen in einer Region positiv korreliert mit einer hohen Arbeitslosenrate und fehlenden beruflichen Perspektiven, ist hingegen eine Sachaussage, die alleine auf Beobachtungen und Fakten verweist. Seit Beginn des 20. Jahrhunderts gilt Max Weber als einer der prominentesten Vertreter des Wertfreiheitspostulats in den Sozialwissenschaften (Keuth 1989; Opp 2014, 239; Weber 1949; 1994 [1904]). Das Wertfreiheitspostulat kann als faktisches oder als normatives Postulat verstanden werden. Als faktisches Postulat adressiert es die Frage, ob Fakten und Werte tatsächlich getrennt werden. Dabei kann unterschieden werden zwischen, erstens, der Frage nach dem kausalen Einfluss von Werten und moralischen Einstellungen auf den Erkenntnisprozess und, zweitens, der Möglichkeit zur begrifflichen Trennung zwischen Wertaussagen und faktischen Aussagen. Verstanden als normatives Postulat adressiert es die Frage, ob Fakten und Werte in der PW getrennt werden sollten. In beiden Fällen setzt die Akzeptanz des Wertfreiheitspostulates voraus, dass Fakten und Werte eindeutig voneinander getrennt werden können. Die Möglichkeit einer solchen Trennung ist aus verschiedenen Gründen jedoch umstritten (Pfetsch 2012). Welche Werte könnten im ersten Schritt die politikwissenschaftliche Forschung überhaupt beeinflussen? Allgemein wird zwischen epistemischen und nicht-epistemischen Werten unterschieden. Epistemische Werte sind wahrheitsfördernde Werte, wie beispielsweise Einfachheit und Fruchtbarkeit. Nicht-epistemische Werte umfassen moralische Überzeugungen und soziale Werte, politische Ideologien, Vorurteile, oder andere Glaubensrichtungen. Der Einfluss von epistemischen Werten auf den wissenschaftlichen Erkenntnisprozess gilt grundsätzlich als wenig kontrovers, da sie den Zielen wissenschaftlicher Forschung, wie z. B. Wahrheit, dienlich sind. Kritiker haben jedoch auch argumentiert, dass Einfachheit oder Fruchtbarkeit keinesfalls eindeutige Indikatoren für die Wahrheit einer Theorie seien, auch wenn Wahrheit ein unumstrittenes Ziel der Wissenschaft sei (z. B. Putnam 2002, 32 ff.). Darüber hinaus ist die konkrete Bedeutung von epistemischen Werten, wie beispielsweise Einfachheit, keinesfalls eindeutig und lässt daher einen Interpre637
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
tationsspielraum offen, der wiederum den Einfluss von nicht-epistemischen Werten auf die wissenschaftliche Vorgehensweise zulässt (vgl. Wilholt 2007). Zuletzt verschreiben sich Politikwissenschaftler nicht notwendigerweise den gleichen epistemischen Werten, was unmittelbare Konsequenzen für die Beurteilung einer Theorie hinsichtlich ihrer Nützlichkeit oder Fruchtbarkeit haben kann. Beispielsweise hängt das Urteil über die Nützlichkeit der RCT stark von der jeweiligen epistemischen Position des Politikwissenschaftlers ab (MacDonald 2003). Ein Instrumentalist beurteilt die Theor ie hinsichtlich ihrer Nützlichkeit zur Formulierung von testbaren Voraussagen. Der Realist hingegen beurteilt die Theor ie nach ihrer Fähigkeit, kausale Zusammenhänge zwischen unbeobachtbaren Entitäten und ihrer Erklärungskraft zu identifizieren. Der Einfluss verschiedener epistemischer Werte kann so zu Unterschieden in der Beurteilung einer Theor ie führen. Eine andere Schwierigkeit zur Umsetzung des Wertfreiheitspostulats betrifft die sprachliche Trennung von Fakten und Werten. Es wird argumentiert, dass die Sprache in den Sozialwissenschaften unvermeidlich wertbeladen und damit keine neutrale Beschreibung sozialwissenschaftlicher Phänomene möglich sei (vgl. Putnam 2002; Rosenberg 2012).21 Beispielsweise wird die Entscheidung über Klassifizierung und Definition eines Phänomens in der (komparativen) PW wesentlich von der subjektiven Einschätzung des Wissenschaftlers beeinflusst (Grant 2004). Stellt sich in einer Analyse die Frage, ob der Krieg in Bosnien eher dem Vietnamkrieg, dem Zweiten oder dem Ersten Weltkrieg ähnelte, muss der Politikwissenschaftler bereits ein Urteil bezüglich der Art des Phänomens selber fällen, um das Phänomen überhaupt erst zu definieren (Grant 2004, 180). Die Bezeichnung eines bestimmten politischen Systems als ›Regime‹, eines ökomisches Systems als ›kapitalistisch‹ oder eines bestimmten Verhaltens als ›korrupt‹ vermischt die Beschreibungsebene mit der Beurteilungsebene; nicht-epistemische Werte des Politikwissenschaftlers fließen bereits in die Beschreibung des Phänomens mit ein (vgl. Rosenberg 2012). Die Diskussion des Einflusses von nicht-epistemischen Werten ist mit Blick auf die PW besonders relevant, da die wissenschaftliche Analyse politischer Phänomene eng verbunden sein kann mit Fragen nach der Umsetzung ideologischer Glaubensrichtungen sowie spezifischer politischer und gesellschaftlicher Zielsetzungen. Als angewandte Sozialwissenschaft soll die PW Ergebnisse von praktischer Relevanz für die politische Sphäre und die Gesellschaft allgemein produzieren, die bei der Formulierung und Erreichung politischer Ziele ihre Anwendung finden (Waldo 1975, 114). Genauer können nicht-epistemische Werte die politikwissenschaftliche Forschung auf mindestens vier Ebenen beeinflussen: Sie können einfließen 1) in die Begründung der Problemselektion; 2) in die Vorgehens Putnam (2002) spricht in diesem Zusammenhang von »thick concepts«. Er bezieht sich auf Begriffe mit einer deskriptiven sowie einer evaluativen Komponente, die in diesem Falle nicht trennbar seien. 21
638
Philosophie der Politikwissenschaft
weise zur Datensammlung; 3) in die Methodenauswahl; und 4) in die Akzeptanz von Thesen und Theorien. Auf der Ebene der Problemselektion kann beispielsweise die Entscheidung für eine Analyse von Bürgerkriegen beeinflusst werden von der Beurteilung der Wissenschaftlerin, dass Bürgerkriege etwas Negatives sind, die es wirksam zu bekämpfen gilt. Auf der Ebene der Datenerhebung können die Werte des Wissenschaftlers dessen Entscheidung beeinflussen, für welche Variablen Daten gesammelt werden sollen. Nimmt er auf Basis einer gängigen Theor ie an, dass Bürgerkrieg verstärkt in totalitären Regimen entsteht und sich zwischen beiden Variablen ›Bürgerkrieg‹ und ›totalitäres Regime‹ eine robuste positive Korrelation erwarten lässt, so wird er im ersten Schritt ohne tiefere Reflexion Daten zur Überprüfung dieser Aussage sammeln. Damit trifft er jedoch implizit eine Annahme darüber, welche Variablen er als irrelevant beurteilt (engl. omitted variables bias). Welche Variablen in einer Analyse als irrelevant angesehen werden, ist möglicherweise abhängig vom kulturellen, sozialen und politischen Hintergrund des Wissenschaftlers. Den Einfluss von nicht-epistemischen Werten auf die Methodenauswahl zeigt exemplarisch eine Studie von Dawson/Wilson (1991). In Abhängigkeit von der Hautfarbe der Politikwissenschaftler unterschieden sich deren Analysen afroamerikanischer Politik mit Blick auf die Formulierung von Forschungsfragen, die angewandten Methoden sowie die Beurteilungskriterien verschiedener Politiken systematisch. Schließlich können sich nicht-epistemische Werte auf die Akzeptanz von Hypothesen und Theor ien auswirken. Befürwortet ein Wissenschaftler den Besitz von Waffen, kann seine Einstellung die Akzeptanz der These, dass Waffenbesitz keinerlei Auswirkungen auf die Gewaltbereitschaft der Bürger innerhalb einer Gesellschaft hat, beeinflussen und damit gezielt politische und rechtliche Maßnahmen und Reformen legitimieren (vgl. Opp 2014, 240; Vollrath 1990, 133). Es wurde außerdem kritisiert, dass Kenneth Arrows Sozialwahltheor ie sowie die RCT allgemein in politikwissenschaftlichen Arbeiten von William Riker und James Buchanan spezifische, in der westlichen Welt dominierende Werte wie Individualismus, freie und rationale Entscheidung und persönliche Selbstverwirklichung verkörperten. Dies erschwere die kulturübergreifende Anwendung der Theorie, diene der Abgrenzung und Stabilisierung der westlichen Ideologie des Kapitalismus gegenüber dem sowjetischen Sozialismus und dem Totalitarismus allgemein und führe zum Ausschluss konkurrierender, mit diesen Werten in Widerspruch stehenden Theor ien (vgl. Amadae 2003; Mansbridge 1990). Politische Phänomene wie globaler Terrorismus oder Migration könnten jedoch nur durch Rückgriff auf regionale Unterschiede in Werteschemata erklärt werden. Insbesondere Kulturtheoretiker haben mit Blick auf die PW argumentiert, dass der theoretische Schwerpunkt auf die freie Entscheidung des Einzelnen die Begrenzungen ignoriere, denen soziale Wesen innerhalb ihrer Gesellschaft ausgesetzt sein können. Andere institutionelle Bedingungen, Tradition, Gewohnheiten, 639
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Bräuche und soziale Normen würden von der Theor ie ignoriert oder konzeptionell trivialisiert. Obwohl man sich in allen vier Fällen womöglich über die epistemischen Werte einig ist, kann die Beeinflussungen durch nicht-epistemische Werte substantielle Auswirkungen auf Forschungsergebnisse in der PW haben. Dieser Einfluss wird daher oft als Grund für die Verzerrung von Ergebnissen angesehen und führt zum Vorwurf ihrer Unverlässlichkeit und Subjektivität (vgl. Martin/McIntyre 1994, 521; Risjord 2014, Kap. 2; Rosenberg 2012). Nicht alle PolitikwissenschaftlerInnen finden den Einfluss von nicht-epistemi schen Werten generell problematisch. Vielmehr steht neben zentralen empirischen Fragen nach dem Zustandekommen von politischen Institutionen und den Eigenschaften von politischem Handeln auch die Formulierung von Evaluierungskriterien zur Beurteilung politischer Phänomene im Zentrum politikwissenschaftlicher Forschung (Almond 1998). Darüber hinaus wird argumentiert, dass es in der Verantwortung des Wissenschaftlers liege, gesellschaftliche Veränderungen und gerechte Lebensbedingungen herbeizuführen sowie das Zusammenleben innerhalb einer Gemeinschaft zu verbessern (vgl. Pfetsch 2012, 17; Rosenberg 2012; Mansbridge 2014, 8). Dass politikwissenschaftliche Ergebnisse politisch relevant sein sollen, setzt zwar nicht notwendigerweise voraus, dass die Ergebnisse im ersten Schritt nicht unabhängig von nicht-epistemischen Werten sein können. Wenn jedoch ein erklärtes Ziel des Politikwissenschaftlers die praktische Relevanz seiner Analysen ist, kann und sollte die Ebene der Fakten explizit mit der Ebene der Werte vermischt werden (vgl. Waldo 1975, 114). Voraussetzung dafür sei alleine die Einigung innerhalb der PW über diejenigen Werte, die dieser Beurteilung zugrunde gelegt werden sollen. Die politikwissenschaftliche Analyse kann eng verwoben sein mit Ideologiekritik und Emanzipationsbestrebungen (Pfetsch 2012; Risjord 2014, 25). Vertreter feministischer oder marxistischer Ansätze, sowie der kritischen Theor ie argumentieren ganz explizit für den Gebrauch von Theor ien zur Durchsetzung gesellschaftlicher Veränderungen sowie zur Rechtfertigung politischer Ideologien. Deklariert als wissenschaftlicher Ansatz hat der Marxismus zu massiven gesellschaftlichen Veränderungen geführt, welche von SozialwissenschaftlerInnen verteidigt, jedoch gesellschaftlich vielfach als moralisch verwerflich beurteilt wurden (Opp 2014, 241). Vor diesem Hintergrund ist es verständlich, dass beispielsweise das Wertfreiheitspostulat von Marxisten, Vertretern der kritischen Theor ie und der hermeneutischen bzw. interpretativen Methode abgelehnt wurde (Keuth 1989; Opp 2014, 239). Für Weber liefert hingegen genau diese Motivation eine Begründung für die normative Interpretation des Wertfreiheitspostulats. Für ihn muss die Frage, was in der Welt geschehen soll, irrelevant sein für die Frage was in der Welt ist. Eine Trennung zwischen faktischen Aussagen und normativen Werturteilen ist erstrebenswert, da sie u. a. dazu beitragen würde, dass subjektive Einstellungen nicht unter dem Deckmantel der Wissenschaftlichkeit verteidigt werden könnten und 640
Philosophie der Politikwissenschaft
somit Dogmatismus vermieden werden kann. Die Entscheidung für oder gegen eine Handlung, ein politisches System oder eine politische Ideologie sei, so Weber, alleine eine persönliche Entscheidung und könne nicht auf Basis von Fakten gerechtfertigt werden (vgl. Keuth 1989, 34 ff.). Die Diskussion zur Rolle von Werten in der PW sowie die kritische Beurteilung einer Unterscheidung zwischen Fakten und Werten wäre eine weitere zentrale Aufgabe einer PPW.
7 Konklusion Die PW ist eine integrative und pluralistische Disziplin, die sich der politischen Sphäre mittels empirisch-analytischen sowie normativen Theor ien und quantitativer und qualitativer Methoden zuwendet. Dabei versucht sie, die Brücke zwischen Wahrheitsfindung und praktischer Relevanz zu schlagen. Sie ist als solche für die philosophische Diskussion nicht nur interessant, sondern könnte mit Blick auf ihre Fortentwicklung als wissenschaftliches Unterfangen von einer solchen Diskussion profitieren. Bislang wurde die PW in der Philosophie der Sozialwissenschaften jedoch vernachlässigt. Dieser Artikel hat Anknüpfungspunkte für drei mögliche Themenfelder einer PPW aufgezeigt: den methodologischen Bereich, den traditionell wissenschaftsphilosophischen Bereich, und den Bereich normativer Aspekte der PW. Es wurde deutlich, dass ausreichend Potential für einen fruchtbaren Dialog zwischen der Philosophie und der PW besteht, um diese Themenfelder weiter auszuarbeiten.
Literatur Empfehlungen: Es gibt bislang keinen umfassenden deutsch- oder englischsprachigen Überblick über die analytische Wissenschaftsphilosophie der PW. Die Reihe der Oxford Handbücher gibt eine Übersicht über verschiedene Kernthemen der PW; das Oxford Handbook of Political Methodology (2008) beispielsweise, hrsg. von J anet BoxSteffensmeier, Henry Brady und David Collier, enthält eine gelungene Mischung von Übersichtsartikeln über die wichtigsten Debatten zu methodologischen Kernfragen innerhalb der PW, wobei das Thema der Kausalität zentral diskutiert wird. Einen Überblick über methodologische Fragestellungen in den Sozialwissenschaften mit Beispielen aus der PW bietet Opp (2014).
641
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Achen, Christopher H. (1983). »Towards Theor ies of Data: The State of Political Methodology«, in: Finifter, Ada W. (Hg.): Political Science: The State of the Discipline, 69 – 9 3, Washington, DC: The American Political Science Association. Allais, Maurice (1979). »The Foundations of a Positive Theory of Choice Involving Risk and a Criticism of the Postulates and Axioms of the American School«, in: Maurice Allais und O. Hagen (Hg.): Expected Utility Hypotheses and the Allais Paradox, 27 – 148. Dordrecht: D. Reidel Publishing Company. Almond, Gabriel A. (1998). »Political Science: The History of the Discipline«, in: Robert E. Goodin und Hans-Peter Klingemann (Hg.): A New Handbook of Political Science, 50 – 9 6. Oxford: Oxford University Press. Amadae, Sonja M. (2003). Rationalizing Capitalist Democracy: Cold War Origins of Rational Choice. Chicago: University of Chicago Press. Anand, Paul, Prasanta K. Pattanaik und Clemens Puppe (Hg.) (2009). The Handbook of Rational and Social Choice: An Overview of New Foundations and Applications. Oxford: Oxford University Press. Aristotle (1925 [350 B. C. E.]). Nicomachean Ethics. Übersetzt von Sir David Ross, London: Oxford University Press. Arrow, Kenneth J. (1951). Social Choice and Individual Values. New Haven: Yale University Press. – (1958). »Utilities, Attitudes, Choices: A Review Note«, Econometrica, Vol. 26 (1), 1 – 23. Ball, Terence (1991). »Wither Political Theory?«, in: William Crotty (Hg.): The Theory and Practice of Political Science, 57 – 76. Evanston, Illinois: Northwestern University Press. Bates, Robert H., et al. (1998). Analytic Narratives. New Jersey: Princeton University Press. Berg-Schlosser, Dirk, und Stammen, Theo (2003). Einführung in die Politikwissenschaft, München: Ulrich Beck Verlag. Berlin, Isaiah (1999). »Does Political Theory Still Exist?«, in: Henry Hardy (Hg.): Concepts and Categories: Philosophical Essays, 143 – 72. London: Pimlico. Bevir, Mark (2008). »Meta-Methodology: Clearing the Underbrush«, in: Janet Box-Steffensmeier, Henry Brady, und David Collier (Hg.): The Oxford Handbook of Political Methodology, 48 – 70. Oxford: Oxford University Press. Boettke, Peter J., et al. (2006). »Where Economics and Philosophy Meet: Review of the Elgar Companion to Economics and Philosophy with Responses from the Authors«, The Economic Journal, Vol. 116 (512), S. F306–F25. Box-Steffensmeier, Janet, Henry Brady und David Collier (2008). The Oxford Handbook of Political Methodology. Oxford: Oxford University Press. Brady, Henry E. (2008). »Causation and Explanation in Social Science«, in: Janet Box-Steffensmeier, Henry Brady, und David Collier (Hg.): The Oxford Handbook of Political Methodology, 217 – 70. Oxford: Oxford University Press. Bromberger, S. (1966). »Why Questions«, in: R. G. Colodney (Hg.): Mind and Cos-
642
Philosophie der Politikwissenschaft
mos: Essays in Contemporary Science and Philosophy, Vol. 3, 87 – 111. Pittsburgh, PA: University of Pittsburgh Press. Buchanan, James M., und Gordon Tullock (1962). The Calculus of Consent: Logical Foundations of Constitutional Democracy. Ann Arbor: University of Michigan Press. Bunge, Mario (1996). »The Seven Pillars of Popper’s Social Philosophy. Philosophy of the Social Sciences, Vol. 26 (4), 528 – 556 Cartwright, Nancy (1983). How The Laws of Physics Lie, Oxford: Oxford University Press. – (1999). The Dappled World: A Study of the Boundaries of Science, Oxford: Oxford University Press. – und Eleonora Montuschi (2014). Philosophy of Social Science: A New Introduction, Oxford: Oxford University Press. Cribb, Alan (1991). Values and Comparative Politics. Aldershot: Avebury. Davidson, Donald (2001 [1980]). »Actions, Reasons and Causes«, in: Donald Davidson (Hg.): Essays on Actions and Events, 3 – 19. Oxford: Oxford University Press. Dawson, Michael C., und Ernest J. Wilson (1991). »Paradigms and Paradoxes: Political Science and African-American Politics«, in: William Crotty (Hg.): Political Science: Looking to the Future, 189 – 234. Evanston, Illinois: Northwestern University Press. Dogan, Mattei (1998). Political Science and the other Social Sciences, in: Goodin, Robert E. und Hans-Dieter Klingemann (Hg.): A New Handbook of Political Science, 97–132. Oxford: Oxford University Press. Dowding, Keith (2005). »Is it Rational to Vote? Five Types of Answer and a Suggestion«, British Journal of Politics & International Relations, Vol. 7, 1 – 18. Downs, Anthony (1957). An Economic Theory of Democracy. New York: Harper & Row. Dryzek, John S., Bonnie Honig und Anne Phillips (Hg.) (2006). Introduction, in: The Oxford Handbook of Political Theory, 3 – 41. Oxford: Oxford University Press. Elster, Jon (1985). Making Sense of Marx. Cambridge: Cambridge University Press. – (1989). Nuts and Bolts for the Social Sciences. Cambridge: Cambridge University Press. – (1994). »The Nature and Scope of Rational-Choice Explanations«, in: Michael Martin und Lee C. McIntyre (Hg.): Readings in the Philosophy of Social Science, 311 – 22. Cambridge, Mass.: MIT Press. – (2000). »Review: Rational Choice History: A Case of Excessive Ambition«, American Political Science Review, Vol. 94 (3), 685 – 95. – (2007). Explaining Social Behavior: More Nuts and Bolts for the Social Sciences. Cambridge: Cambridge University Press. Farr, James (1985). Situational Analysis: Explanation in Political Science, The Journal of Politics, Vol. 47 (4), 1085 – 1107. Feddersen, Timothy J. (2004). »Rational Choice Theory and the Paradox of Not Voting«, Journal of Economic Perspectives, Vol. 18 (1), 99 – 112. 643
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
Ferejohn, John, und M. Fiorina (1974). »The Paradox of Not Voting: A Decision-Theoretic Analysis«, American Political Science Review, Vol. 68, 525 – 36. Friedman, Milton (2008 [1953]). The Methodology of Positive Economics. Daniel M. Hausman (Hg.), The Philosophy of Economics: An Anthology, 145 – 79, Cambridge: Cambridge University Press. Gähde, Ulrich, Hartmann, Stephan, Wolf, Jörg Henning (Hg.) (2013). Models, Simulations, and the Reduction of Complexity, Berlin: Akademie-Verlag. Gerber, Alan S., und Donald P. Green (2008). »Field Experiments and Natural Experiments«, in: Janet Box-Steffensmeier, Henry Brady, und David Collier (Hg.): The Oxford Handbook of Political Methodology, 357 – 81. Oxford: Oxford University Press Godfrey-Smith, Peter (2003). Theory and Reality: An Introduction to the Philosophy of Science. Chicago: University of Chicago Press. Goodin, Robert, und Hans-Peter Klingemann (1998a): »Political Science: The Discipline«, in: Robert Goodin und Hans-Peter Klingemann (Hg.): A New Handbook of Political Science, 3 – 49. Oxford: Oxford University Press. – (Hg.) (1998b): A New Handbook of Political Science. Oxford: Oxford University Press. Grant, Ruth W. (2004). »Political Theory, Political Science, and Politics«, in: Stephen K. White und J. Donald Moon (Hg.): What is Political Theory?, 174 – 92. London: SAGE Publications. Green, Donald P., und Ian Shapiro (1994). Pathologies of Rational Choice Theory: The Critique of Applications in Political Science. New Haven: Yale University Press. – (1995). »Pathologies Revisited: Reflections on our Critics«, Critical Review, Vol. 9 (1/2), 235 – 76. – (1999). Rational Choice: Eine Kritik am Beispiel von Anwendungen in der Politischen Wissenschaft. München: Oldenburg Wissenschaftsverlag. Gunnell, John G. (1983). »Political Theory: The Evolution of a Sub-field«, in: Ada W. Finifter (Hg.): Political Science: The State of the Discipline, 3 – 45. Washington: American Political Science Association. Hands, D. Wade (2001). Reflection without Rules: Economic Methodology and Contemporary Science Theory. Cambridge: Cambridge University Press. Hardin, Russel (2008). »Normative Methodology«, in: Janet Box-Steffensmeier, Henry Brady, and David Collier (Hg.): The Oxford Handbook of Political Methodology, 35 – 47. Oxford: Oxford University Press. Hardin, Russell (2010). »Book Review of Beyond Optimizing: A Study of Rational Choice by Michael Slote«, American Political Science Review, Vol. 84 (3), 977 – 78. Hausman, Daniel M. (1992). The Inexact and Separate Science of Economics. Cambridge: Cambridge University Press. – (Hg.) (2008). Philosophy of Economics: An Anthology. 3. Aufl. Cambridge: Cambridge University Press. Hay, Colin (2004). »Theory, Stylized Heuritsic or Self-Fulfilling Prophecy? The Sta644
Philosophie der Politikwissenschaft
tus of Rational Choice Theory in Public Administration«, Public Administration, Vol. 82 (1), 39 – 62. Hedström, Peter (2008). »Mechanisms to Strengthen Causal Inferences in Quantitative Research«, in: Janet Box-Steffensmeier, David Collier, und Henry Brady (Hg.): The Oxford Handbook of Political Methodology, 319 – 38. Oxford: Oxford University Press. Hedström, Peter, und Petri Ylikoski (2010). »Causal Mechanisms in the Social Sciences«, Annual Review of Sociology, Vol. 36, 49 – 6 7. Hempel, Carl G., und Paul Oppenheim (1948). »Studies in the Logic of Explanation.« Philosophy of Science, Vol. 15, 135 – 175 [Reprinted in Hempel (1965)]. Hempel, Carl G. (1965). Aspects of Scientific Explanation and Other Essays in the Philosophy of Science, New York: The Free Press. – (1942). The Function of General Laws in History, Journal of Philosophy, Vol. 39, 35 – 48. Herfeld, Catherine, und Katrien Schaubroeck (2013). The Importance of Commitment for Morality: How Harry Frankfurt’s Concept of Care Contributes to Rational Choice Theory, in: Musschenga, Bert und Anton van Harskamp (Hg.): What Makes Us Moral: On the Capacities and Conditions for Being Moral, 51 – 72, Berlin: Springer. Herne, Kaisa, und Majia Setälä (2004). »A Response to the Critique of Rational Choice Theory: Lakatos’ and Laudan’s Conceptions Applied«, Inquiry, Vol. 47 (1), 67 – 85. Hollis, Martin (2002). The Philosophy of Social Science: An Introduction. Cambridge: Cambridge University Press. Hüttemann, Andreas (2007). Naturgesetze, in: Bartels, A. und Stöckler, M. (Hg.): Wissenschaftstheorie. Texte zur Einführung, 135 – 53, Paderborn: Mentis. Johnson, James (1993). »Is Talk Really Cheap? Prompting Conversation Between Critical Theory and Rational Choice«, American Political Science Review, Vol. 87 (1), 74 – 86. – (1996). »How Not to Criticize Rational Choice Theory: Pathologies of ›Common Sense‹«, Philosophy of the Social Sciences, Vol. 26 (1), 77 – 91. – (2002). »How Conceptual Problems Migrate: Rational Choice, Interpretation, and the Hazards of Pluralism«, Annual Review of Political Science, Vol. 5, 223 – 48. – (2010). »What Rationality Assumption? Or, How ›Positive Political Theory Rests on a Mistake«, Political Studies, Vol. 58 (2), 282 – 9 9. Johnson, Paul E., und Philip A. Schrodt (1991). »Analytic Theory and Methodology«, in: William Crotty (Hg.): Political Science: Looking to the Future, Vol. I, 99 – 163. Evanston, Illinois: Northwestern University Press. Kahneman, Daniel (2003). »A Psychological Perspective on Economics«, American Economic Review, Vol. 93 (2), 162 – 6 8. – und Amos Tversky (1979). »Prospect Theory: An Analysis of Decision under Risk«, Econometrica, Vol. 47 (2), 263 – 91. 645
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
–, Jack L. Knetsch und Richard H. Thaler (1986). »Fairness and the Assumptions of Economics«, Journal of Business, Vol. 59 (4), 285 – 300. –, Slovic, Paul und Amos Tversky (Hg.) (1982). Judgment under Uncertainty: Heuristics and Biases. Cambridge: Cambridge University Press. Keuth, H. (1989). Wissenschaft und Werturteil. Zu Werturteilsdiskussion und Positivismusstreit. Tübingen: Mohr Siebeck. Kincaid, Harold und Don Ross (Hg.) (2009). The Oxford Handbook of Philosophy of Economics. Oxford: Oxford University Press. Kirchgässner, Gebhard (2008). »On Some Problems to Apply the Economic Model of Behaviour in Political Science«, Analyse & Kritik, Vol. 30, 649 – 6 67. Kitcher, Philip (1981). Explanatory Unification, Philosophy of Science, Vol. 48 (4), 507 – 531. Koertge, Noretta (1979). »The Methodological Status of Popper’s Rationality Principle«, Theory and Decision, Vol. 10 (1/4), 83 – 95. Lange, M. 2013. What Makes an Explanation Distinctively Mathematical?. British Journal of the Philosophy of Science, Vol. 64 (3), 485 – 511. Laslett, Peter (1956). »Introduction«, in: Peter Laslett (Hg.): Philosophy, Politics, and Society, Oxford: Oxford University Press. Lehtinen, Aki (2013). »Three Kinds of ›As-If‹ Claims«, Journal of Economic Methodology, Vol. 20 (2), 184 – 2 05. List, Christian, und Kai Spiekermann (2013). »Methodological Individualism and Holism in Political Science: A Reconciliation«, American Political Science Review, Vol. 107 (4), 629 – 43. List, Christian, und Laura Valentini (2014). »Political Theory«, available at SSRN: http:// ssrn.com/abstract=2376325 or http://dx.doi.org/10.2139/ssrn.2376325 (27. 12. 2016). Loomes, Graham, Starmer, Chris, und Robert Sugden (1991). »Observing Violations of Transitivity by Experimental Methods«, Econometrica, Vol. 59 (2), 425 – 39. Machamer, Peter, Darden, Lindey, und Carl Craver (2000). »Thinking About Mechanisms«, Philosophy of Science, Vol. 67, 1 – 25. MacDonald, Paul K. (2003). »Useful Fiction or Miracle Maker: The Competing Epistemological Foundations of Rational Choice Theory«, American Political Science Review, Vol. 97 (4), 551 – 65. Mansbridge, Jane J. (Hg.) (1990). Beyond Self-Interest, Chicago: University of Chicago Press. Mansbridge, Jane J. (1995). »Rational Choice Gains by Losing«, Political Psychology, Vol. 16 (1), 137 – 55. – (2014). »What Is Political Science For?«, Perspectives on Politics, Vol. 12 (1), 8 – 17. Mantzavinos, Chrysostomos (2005). Naturalistic Hermeneutics. Cambridge: Cambridge University Press. – (Hg.), (2009). Philosophy of the Social Sciences: Philosophical Theory and Scientific Practice. Cambridge: Cambridge University Press. Mantzavinos, C. (2009). »A Note on Methodological Individualism«, in: Cherkaoui, 646
Philosophie der Politikwissenschaft
Mohamed und Peter Hamilton (Hg.): Raymond Boudon. A Life in Sociology, 211 – 15, Oxford: Bardwell Press. Mantzavinos, C. (2015). »Scientific Explanation«, in: International Encyclopedia of Social and Behavioral Sciences, 2. Aufl. Hrsg. von James D. Wright., Vol. 21, 302 – 307. Marchionni, Caterina (2013). »Playing With Networks: How Economists Explain«, European Journal for Philosophy of Science, Vol. 3 (3), 331 – 52. Martin, Michael, und Lee C. McIntyre (Hg.) (1994). Readings in the Philosophy of Social Science. Cambridge, Mass.: MIT Press. Mill, John Stuart (1874 [1844]). Essays on Some Unsettled Questions of Political Economy, 2. Aufl. London: Longmans, Greens, Reader, und Dyer. Monroe, Kristen R. (1991). »The Theory of Rational Action: What Is It? How Useful Is It for Political Science«, in: William Crotty (Hg.). Political Science: The Theory and Practise of Political Science, Vol. I, 77 – 9 3. Evanston, Illinois: Northwestern University Press. –, und Kristen Hill Maher (1995). »Psychology and Rational Actor Theory«, Political Psychology, Vol. 16 (1), 1 – 21. – (1997). »Book Review: Pathologies of Rational Choice Theory: A Critique of Applications in Political Science by Donald P. Green and Ian Shapiro«, Political Theory, Vol. 25 (2), 289 – 95. Moon, J. Donald (1975). »The Logic of Political Inquiry: A Synthesis of Opposed Perspectives«, in: Fred Greenstein und Nelson Polsby (Hg.): The Handbook of Political Science, 131 – 228. Reading, Mass.: Addison-Wesley. – (1991). »Pluralism and Progress in the Study of Politics«, in: William Crotty (Hg.): The Theory and Practice of Poliical Science, Vol. I, 45 – 56. Evanston, Illinois: Northwestern University Press. – (2004). »The Current State of Political Theory: Pluralism and Reconciliation«, in: Stephen K. White und J. Donald Moon (Hg.): What is Political Theory?, 12 – 29. London: SAGE Publisher. Morton, Rebecca C., und Kenneth C. Williams (2008). Experimentation in Political Science, in: Janet Box-Steffensmeier, Henry Brady und David Collier (Hg.): The Oxford Handbook of Political Methodology, 339 – 56. Oxford: Oxford University Press. Müller, Johann Baptist (1990). Hermeneutik und Politikwissenschaft, in: Haungs, Peter (Hg.): Wissenschaft, Theorie und Philosophie der Politik: Konzepte und Probleme, 119 – 132. Baden-Baden: Nomos. Neal, Patrick (1988). »Hobbes and Rational Choice Theory«, Western Political Quarterly, Vol. 41 (4), 635 – 52. Niskanen, William A. (1971). Bureaucracy and Representative Government. Chicago: Aldine, Atherton. Olson, Mancur (1965). The Logic of Collective Action: Public Goods and the Theory of Groups. Cambridge, Mass.: Harvard University Press. Opp, Karl-Dieter (2014). Methodologie der Sozialwissenschaften: Einführung in Pro647
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
bleme ihrer Theoriebildung und praktischen Anwendung, 7. Aufl., Dordrecht: Springer. Pettit, Philip (2000). »Rational Choice, Functional Selection and Empty Black Boxes«, Journal of Economic Methodology, Vol. 7 (1), 33 – 57. Pfetsch, Frank R. (2012). Theoretiker der Politik: Von Platon bis Habermas. 2. Aufl. Baden-Baden: Nomos. Popper, Karl (1985). »The Rationality Principle « in D. Miller (Hg.): Popper - Selections, 357 – 65. Princeton: Princeton University Press. Putnam, Hilary (2002). The Collapse of the Fact/Value Dichotomy and Other Essays, Cambridge, MA: Harvard University Press. Reiss, Julian (2012). The Philosophy of Economics. London: Routledge. Riker, William H. (1995). »The Political Psychology of Rational Choice Theory«, Political Psychology, Vol. 16 (1), 23 – 4 4. – (1962). The Theory of Political Coalitions. New Haven: Yale University Press. – und P. C. Ordeshook (1968). »A Theory of the Calculus of Voting«, American Political Science Review, Vol. 62, 25 – 4 2. – (1973). Introduction to Positive Political Theory. Englewood Cliff, N. J.: Prentice Hall. Risjord, Mark (2014). Philosophy of Social Science: A Contemporary Introduction, New York: Routledge. Rosenberg, Alexander (2012). Philosophy of Social Science. Boulder: Westview Press. Salmon, Merilee H. (Hg.), (1992). Introduction to the Philosophy of Science. Englewood Cliffs, N. J.: Prentice-Hall. Salmon, W. (1971). Statistical Explanation and Statistical Relevance, Princeton University Press: Princeton. Satz, Debra, und John Ferejohn (1994). »Rational Choice and Social Theory«, Journal of Philosophy, Vol. 91 (2), 71 – 87. Schelling, Thomas (1978). Micromotives and Macrobehavior. New York: W. W. Norton. Sen, Amartya K. (1977). »Rational Fools: A Critique of the Behavioral Foundations of Economic Theory«, Philosophy and Public Affairs, Vol. 6 (4), 317 – 4 4. – (1985). »Goals, Commitment, and Identity«, Journal of Law, Economics and Organization, Vol. 1 (2), 341 – 55. – (2002). Rationality and Freedom. Cambridge, Mass.: Harvard University Press. – (2005). »Why Exactly is Commitment Important for Rationality?«, Economics and Philosophy, Vol. 21, 5 – 13. Shapiro, Ian (2004). »Problems, Methods, and Theor ies: What’s Wrong With Political Science and What To Do About It«, in: Stephen K. White und J. Donald Moon (Hg.): What is Political Theory?, 193 – 216. London: SAGE Publications. Shepsle, Kenneth A. (2005). Rational Choice Institutionalism. Cambridge, Mass.: Harvard University Press. Simon, Herbert A. (1955). »A Behavioral Model of Rational Choice«, The Quarterly Journal of Economics, Vol. 69 (1), 99 – 118. 648
Philosophie der Politikwissenschaft
– (1959). Theor ies of Decision-making in Economics and Behavioral Science, American Economic Review, Vol. 49 (3), 253 – 283. – (1995). »Rationality in Political Behavior«, Political Psychology, Vol. 16 (1), 45 – 61. Sigwart, Hans-Jörg (2013). »Das politisch-hermeneutische Problem: Zur Gegenstandsbestimmung einer ›verstehenden Politikwissenschaft‹ «, in: Politisches Denken - Jahrbuch, 163 – 189. Steel, Daniel, und Francesco Guala (Hg.) (2011). The Philosophy of Social Science Reader. London and New York: Routledge. Steele, Katie (2014). Choice Models, in: Cartwright, N./Montushi, E. (Hg.): Philosophy of Social Science: A New Introduction, 185 – 2 07. Oxford: Oxford University Press. Sugden, Robert (1991). »Rational Choice: A Survey of Contributions from Economics and Philosophy«, The Economic Journal, Vol. 101 (407), 751 – 85. Taylor, Charles (1994 [1967]). »Neutrality in Political Science«, in: Michael Martin und Lee C. McIntyre (Hg.): Readings in the Philosophy of Social Science, 547 – 70. Cambridge, Mass.: MIT Press. Tilly, Charles (2001). »Mechanisms in Political Processes«, Annual Review of Political Science, Vol. 4, 21 – 41. Tversky, Amos, und Daniel Kahneman (1974). »Judgment under Uncertainty: Heuristics and Biases«, Science, Vol. 185 (4157), 1124 – 31. – (1981). »The Framing of Decisions and the Psychology of Choice«, Science, Vol. 211 (4481), 453 – 58. – (1986). »Rational Choice and the Framing of Decisions«, Journal of Business, Vol. 59 (4), 251 – 78. Udehn, Lars (2001). Methodological Individualism: Background, History and Meaning. London: Routledge. – (2002). »The Changing Face of Methodological Individualism«, Annual Review of Sociology, Vol. 28, 479 – 507. Vanberg, Viktor J. (2004). »The Rationality Postulate in Economics: Its Ambiguity, Its Deficiency and Its Evolutionary Alternative«, Journal of Economic Methodology, Vol. 11 (1), 1 – 29. Van Hees, Martin (1997). »Explaining Institutions: A Defence of Reductionism«, European Journal of Political Research, Vol. 32, 51 – 6 9. Vollrath, Ernst (1990). »Faktizität und Normativität. Zur Problematik ihres Verhältnisses in Politischer Theorie und Politischer Wissenschaft«, in: Peter Haungs (Hg.): Wissenschaft, Theorie und Philosophie der Politik, 133 – 55. Baden-Baden: Nomos. Von Wright, Georg Hendrik (1971). Explanation and Understanding, Ithaca und London: Cornell University Press. Waldo, Dwight (1975). »Political Science: Tradition, Discipline, Profession, Science, Enterprise«, in: Fred I. Greenstein und Nelson W. Polsby (Hg.): Political Science: Scope and Theory, 1 – 130. Reading, Mass.: Addition Wesley Publishing. Weber, Max (1949). The Methodology of the Social Sciences. Hrsg. von Edward A.; Finch Shils, Henry A., New York: The Free Press. 649
V. Die Philosophie der Sozial- und Verhaltenswissenschaften
– (1994 [1904]). »›Objectivity‹ in the Social Science and Social Policy«, in: Michael, McIntyre und Martin, Lee C. (Hg.): Readings in the Philosophy of Social Science, 535 – 45. Cambridge, Mass.: MIT Press. White, Stephen K. (2004). »Pluralism, Plattitudes, and Paradoxes: Western Political Thought at the Beginning of a New Century«, in: Stephen K. White und J. Donald Moon (Hg.): What is Political Theory?, 1–11. London: SAGE Publications. White, Stephen K., und J. Donald Moon (Hg.) (2004). What is Political Theory? London: SAGE Publications. Wilholt, Thorsten (2007). ›Soziale Erkenntnistheor ie‹, Information Philosophie Nr. 5, 46 – 53. Winch, Peter (1958). The Idea of a Social Science and its Relation to Philosophy, London: Routledge. Woodward, James (2014). »Scientific Explanation«, in: Edward N. Zalta (Hg.), The Stanford Encyclopedia of Philosophy, ‹http://plato.stanford.edu/archives/win2014/ entries/scientific-explanation/› (1. November 2014). Zuckert, Catherine H. (1995). »On the ›Rationality‹ of Rational Choice«, Political Psychology, Vol. 16 (1), 179 – 9 8.
650
Personen- und Sachregister A Abduktion 414, 416, 432, 434, 450 Abstraktion 58, 65, 71, 244, 290, 298, 301 ff. Adorno, Theodor W. 139 Affektivität 463 Aizawa, Kenneth 461, 483 Analyse, chemische 229 Analysis komplexe 58 reelle 57, 64 Aristoteles 17, 26, 55, 106, 133, 144, 233, 236, 259 f., 358, 513, 585 Arithmetik 57 f., 64, 71, 526 Art, biologische 268, 270 Arten, natürliche 27, 270, 288, 297, 480, 493 Ästhetik 107, 247 Atomismus 557 Augustinus 107, 134, 144 B Baumgarten, Alexander Gottlieb 107 Baumgartner, Hans Michael 135, 143, 151, 156 Bayesianismus 214 Beardsley, Monroe C. 118 Beatty, John 151, 272, 419, 421 Bechtel, William 273, 300, 322, 325, 329 f., 336, 346, 456, 483, 485 f. Begriffsanalyse 79 f., 87, 174, 178, 180, 448 Behaviorismus 94, 442, 457, 463, 477 f., 521, 531, 626 Bell, John 214, 217 Bermúdez, José Luis 475, 481 f. Bestätigung 120, 148, 156, 203, 218, 221, 332, 346, 382, 391–393, 431, 604 Bidirektionalität 295, 297 Bildgebung 327, 328, 334 ff. Bindungsproblem 341
Binnendifferenzierung des Rechts 167 Biologie, synthetische 246 Block, Ned 477 Borges, Jorge Louis 111 Brooks, Rodney 448, 456 f.7 Brouwer, L. E. J. 54, 58 f.
C Canguilhem, Geoges 292, 303 Carnap, Rudolf 18, 33 f., 79, 235, 260, 263 ceteris paribus 25, 553 Chang, Hasok 31 Chemie 27, 133, 169, 253, 270, 361, 413 Chinesisches Zimmer 450 Chomsky, Noam 512, 514, 516 f., 521–523, 525 ff. Churchland, Patricia 320 Churchland, Paul M. 324 Cicero, Marcus Tullius 134, 144, 359 Clark, Andy 344, 453 f., 457 Collingwood, Robin George 146, 541 Computation 444, 449, 452 Computermodell 301, 444, 449, 451, 454 Comte, Auguste 138, 168, 231 Condorcet, Marie Jean Antoine Nicolas Caritat, Marquis de 136 covering law model 20, 146, 328, 484 D Danto, Arthur C. 143, 156 Darwin, Charles 268 f., 276, 492 Dedekind, Richard 54, 57, 64, 71 Deduktion 272, 416, 433, 621 deduktiv-nomologisches Erklärungsmodell 272, 274, 328, 428, 484, 627 Derrida, Jacques 134, 188 Design 271, 338, 364, 368, 463, 499 f., 588, 598, 603 deterministisches Chaos 552 651
Personen- und Sachregister
dichte Beschreibungen 564 Dilthey, Wilhelm 146, 168 double-counting 392 Dray, William 146, 156, 274 Droysen, Johann Gustav 146 Dynamizismus 322, 451 f., 455–457
E Eigenrationalität (des Rechts) 183, 185 Einstein, Albert 206, 221 Eliminativismus 480 f., 555 Emergenz 210 f., 423, 425, 435, 559, 566 Emotionspsychologie 493 Empirismus 18, 19, 21 f., 31, 36, 45, 146, 205, 489, 583, 586, 604 britischer 489 logischer 604 Enaktivismus 322, 454 f., 461, 465 Entdeckung in der Psychologie 484, 486 Entscheidungstheorie 381 f., 399, 400, 402, 404, 494, 587, 589, 590, 592, 606, 620 f. Epistemologie der Intuition 86, 92 der Sprache 527 der Technik 371 kognitive 89 soziale 93, 97, 308 Erklärung dynamische 330 evolutionäre 271, 275, 562 funktionale 20, 271, 329 f., 484, 561 historische 146, 155 f., 271, 274, 427 kausale 147, 413 ff., 432, 426 ff. mechanistische 20, 271, 273, 329 f., 332, 344, 425, 445, 485, 632 narrative 414 f., 426, 432, 435 nomologische 272, 332, 415 E-Sprache 525, 529 Evidenz 81, 84 f., 91, 148, 203, 214, 221, 326, 341, 389 f., 396 f., 405, 534, 584 Evolution 148, 257 f., 260, 268, 270, 273, 275, 327, 365, 419, 426, 463, 484, 492, 533, 631 652
Evolutionstheorie 253, 258, 274 f. Experiment 86, 97, 148, 218, 290, 333, 337, 363, 366, 431, 435, 485, 520, 552, 566, 586, 597, 615, 634
F Fallstudie 84, 96 f. Falsifikation 148, 625 Fichte, Johann Gottlieb 135, 137 f. Fiktionalität 106, 113, 123 Fiktivität 106, 110, 116 Finanzmärkte 40 Fingerabdruck 389, 390 f. Fleck, Ludwik 291, 309 Fodor, Jerry 80, 413, 442, 447, 482 f., 489 f., 512, 522 Frege, Gottlob 54, 57 f., 67, 71 Funktionalismus 95 f., 323, 444, 477, 479, 482 f., 512, 531 Funktionsbegriff 273, 364–366, 484 G Gedankenexperiment 80, 89, 205, 607 Gehirn 296, 302, 319, 323, 326, 339, 341, 343 ff., 432, 442, 445 f., 448, 450 f., 453, 454, 464, 490, 515, 517, 522, 525, 530 Geist 83, 86, 137, 322 f., 445, 449, 454, 460 f., 486, 496, 530 Geometrie 55–57, 204, 207 Gerechtigkeit 182, 366 Gerechtigkeitsmaßstab 181 Geschichtsforschung 133, 143 Geschichtsphilosophie 132, 144 Geschichtsschreibung 105, 131 f., 153, 428, 477 Geschichtswissenschaft 30, 167, 274, 544, 561, 615, 628 Gesellschaft 545 f., 553, 560–562, 568 f. Gesellschaftskritik 568 f. Gödel, Kurt 54, 58, 61 Goldstein, Kurt 291 Grammatik, generative 517, 523 f., 526, 529, 532
Personen- und Sachregister
H Hacking, Ian 151, 270, 292 f., 300, 305, 333, 339 Handlungen 546, 549–551, 554 ff., 563 f. Hatfield, Gary 477, 497 Hebb, Donald 322, 345 Hegel, Georg Wilhelm Friedrich 107, 137, 168, 231 Hellman, Geoffrey 65 Hempel, Carl Gustav 79, 120, 146, 272, 300, 329, 426, 484, 627, 628 Hermeneutik 107, 145, 146 Hilbert, David 54, 58 f. Holismus 546, 555 ff., 565 homo oeconomicus 24, 179, 591 Hull, David L. 244, 264, 270, 276, 426 Hutton, James 414 I Idealisierung 17, 40, 290, 366 f., 594 idiographisch (vs. nomothetisch) 145 individualisierend (vs. generalisierend) 145 Individualismus 546, 555–560, 565 in der Kognitionswissenschaft 465 in der Politikwissenschaft 635, 639 liberaler 187 methodologischer 594, 632 Individuum 36, 44, 91, 145, 150, 209, 234, 237, 265, 267, 270 f., 288, 292 f., 297, 303–307, 321, 345, 398 f., 454, 459, 587, 593 f., 600, 608, 623, 629, 632 Induktion 416, 424, 434, 450 Inferenz 148, 328, 635 Ingenieurwissenschaft(en) 257, 357, 368, 373 Instrumentalismus 586 Intentionalismus 119 Intentionalität 486, 628 Intervention 170, 288, 298, 339, 596, 605, 635 Introspektion 476, 496 f., 502, 623, 625, 636
Intuition, rationale 84 Intuitionismus 58, 59 IPCC 386–389, 393, 396 f., 401 I-Sprache 523, 525, 529, 531
K Kant, Immanuel 56, 78, 81, 107, 136, 169, 180, 183 f., 202, 231, 259 f., 527 Kausalinferenz 609 Kausalität 20, 25, 27, 38, 132, 151, 155, 329, 338, 340, 558, 563, 566, 583, 586, 609, 618, 627 Kitcher, Philip 71, 253 Klassifikation 109, 121, 141, 151, 229, 243, 267, 300, 302, 304–306 Klima 382 ff., 392 ff., 433 Klimamodell 384, 386, 390–392, 394 Klimaproxy 386 Klimawandel 381–399, 406, 418, 436 Klinik 290, 294, 296–298, 339 Koch, Robert 295 Kognition automatische 91 erweiterte 460 Sandwichmodell 442, 452 situierte 322, 447, 452 f., 455, 458, 463, 466 verteilte 460 Kognitionswissenschaft 179, 255, 273, 322, 479, 491, 514, 531, 536 erster Generation 345, 449, 462 f. zweiter Generation 458, 463 Kollapstheorien 215 kollektive Intentionalität 557 f. Kommunikation 114, 167, 172, 397, 459 f., 519, 527, 597 Komplexität 22, 167, 320–323, 326, 327, 333 f., 344, 533 f., 634 Konnektionismus 321 f., 341, 447, 449, 451 Konnektomik 333 Kosmologie 203, 211, 221 f. Krankheit 255, 287, 343, 362 653
Personen- und Sachregister
Künste mechanische 358, 359 praktische 359 Künstliche Intelligenz 189, 322, 441
L Labor 149, 205, 229, 235, 245, 256, 287, 362, 391, 428, 477, 521 Laudan, Larry 24, 626 Laudan, Rachel 414 Lebewesen 229, 240, 255, 257, 259 f., 264 f., 267, 275, 292, 454, 520 Legalität 183 Legitimität 183, 185, 253 Leibniz, Gottfried Wilhelm 144, 202 Linguistik 105, 155, 448 Lipton, Peter 432, 434 Lochargument 207 f. Logik 57, 59, 61, 63, 71, 84, 91, 93, 173 f., 187, 189, 233 f., 244, 263, 302, 331, 415, 494–496, 512, 516, 530, 583, 629 Logizismus 57, 59 Loopingeffekt siehe Rückkopplungseffekt Löwy, Ilana 291, 293, 295 Lyotard, Jean-François 141 M Marr, David 331, 444, 488 Marx, Karl 138, 372, 617 Materialismus dialektischer 231 eliminativer 324, 531 Mathematik 78, 244, 360, 415, 516, 583 Mechanik bohmsche 214 f., 217 klassische 28, 206, 211, 241 f. statistische 241 theoretische 367 Medizin 185, 255, 287, 357, 362, 368, 460, 475 Mengenlehre 60 f., 64, 66 Messproblem 201, 212 654
Messung, psychometrische 499 Metaphysik der Wissenschaft 22 f., 26, 261 Mill, John Stuart 17, 57, 585 f., 596, 599, 617 Modell-Ensemble 395 Modularität 327, 502, 522 Molekül 232, 287, 364, 366 Monismus 549, 565 anomaler 531 methodologischer 243, 531 Moral 81, 88, 134, 138, 156, 181 f., 258, 502 multiple Realisierbarkeit / Multirealisierbarkeit 323 ff., 483, 558
N Nachweis 291, 299, 301, 346, 386–389, 457, 484, 500 Nagel, Ernest 324, 417 Narrationen 564 Narratologie 155 Naturalismus 80, 82, 86, 347, 451 natural kinds siehe Arten, natürliche Naturgesetz 9, 17, 20 f., 25, 27, 38, 55, 218, 253, 272 ff., 329, 484 f., 545, 552 ff., 627 Naturphilosophie 27 f., 132, 137, 202, 231, 259–262, 266, 414 Netzwerk 173, 275, 277, 307, 321 f., 326 f. Netzwerktheorien 559 Neurath, Otto 18, 263 neuronaler Code 346 Neurowissenschaft computationale 321 f., 331, 345 soziale 321, 336 f. systemische 321, 323, 326, 331 Neurowissenschaften 28, 288, 293, 309, 444 f., 462 f., 478, 480, 482, 485, 488 Newton, Isaac 202 f., 329, 530, 628 Nicht-Lokalität 214, 218, 220 f. Nominalismus 62, 64 f., 237, 513 nomologischer Skeptizimus 551 Normativität 172, 181, 365 Notwendigkeit 79, 137, 151, 154, 175,
Personen- und Sachregister
188, 223, 309, 358, 389 f., 446, 481, 531, 627 Nutzenfunktion 400, 402–404, 588 f., 620 Nutzentheorie 587, 621
O Ökonomie 543 Ökonomik 20, 39, 178 f., 186 f., 293, 381, 495 Ontologie fiktiver Gegenstände 115 literarischer Werke 113 Organismus 256, 257, 260, 265 ff., 275, 288, 291 f., 296, 299, 301 f., 304, 308, 365, 421, 454, 490–494, 514, 518, 521, 525, 527 P Paradox 89, 93, 169, 233, 526, 590, 596, 607, 623 Paternalismus, libertärer 591 Pauling, Linus 287 f., 294 Peano, Guiseppe 57, 71 Philosophie analytische 78, 94, 107, 123, 235, 583 der Sozialwissenschaften 543, 548 experimentelle 89 Piccinini, Gualtiero 332, 447, 455, 485 Platon 54, 133, 513 Platonismus 60, 71 Plattentektonik 418 f., 421, 427, 433 Plotin 107 Pluralismus 67, 565 f. explanativer 303, 330, 426, 564 f. integrativer 309 methodologischer 243, 246, 567 Politikwissenschaft 543, 564 f. Positivismus 549 Postmoderne 141, 155 Präferenzen 39, 401 f., 587 ff., 598, 603, 606–608, 615, 621–625, 628, 630 Pragmatik 115, 116, 168, 516, 536 Praxistheorien 559
Präzision 367 f. predictive coding 344 Psychiatrie 288 f., 292 f., 300, 302, 307, 323, 346, 502 Putnam, Hilary 80, 122, 240, 481 f., 512, 638
Q Quantengravitation 203, 209–211, 220, 223 Quantenmechanik 33, 41, 201, 209 Quantentheorie 209, 211, 218, 223 Quine, Willard Van Orman 18, 31, 61, 64, 79, 120, 234, 512, 514 f., 604 R radikaler Holismus 555 Rationalismus Kritischer 146, 178, 586 methodologischer 87 modaler 80, 82 Rationalität 402, 404, 476, 494 f., 501, 535, 606, 620, 622, 626 Rationalitätskritik 122 Raumzeit 27, 203, 204, 208 Realismus, mathematischer 60–62, 64, 71 Rechtsanwendung 167, 172, 174, 184 Rechtsdogmatik 167 Rechtskritik 182, 189 Reduktion 28, 57, 59, 201, 235, 240, 413, 417, 420 ff., 558, 627 Reduktionismus 28 f., 244, 323 f., 330, 347, 413, 417, 480 f. Regelkenntnis 373 Regression 390, 601 f. Regularität 145, 333, 551 f., 566, 615, 621, 628 Relationalismus 204, 206 Repräsentation 302, 345 f., 384, 397, 403, 444 ff., 463, 487, 490, 524, 533 Rickert, Heinrich 145 Ricœur, Paul 142, 156 655
Personen- und Sachregister
Robustheit 290 f., 298–300, 389, 396, 405, 432, 498, 598, 628 Rückkopplungseffekt 293, 305, 554 Ruse, Michael 244, 264
S Schelling, Friedrich Wilhelm Joseph 137 f., 635 scientific metaphysics siehe Metaphysik Searle, John 114, 450 f., 487 Semantik 93, 115 f., 176, 324, 345 f., 463, 486, 515 f., 536 Skeptizismus 549, 561 Skinner, Burrhus 442, 514, 521, 530 social kinds 549, 552, 554 soziale Phänomene 544 ff., 555 ff., 562 Sozialwahltheorie 399, 603, 616, 639 Spieltheorie 399, 584, 592, 597 f., 606, 609, 615, 620 f., 626 Sprachphilosophie 97, 346, 511, 515 Statistik 132, 216, 615 Stich, Stephen 88, 495 Stoff 229, 364 Strukturtheorie 33, 237, 241–243 Substantialismus 204 f., 207 Superorganismus 265 Superposition 212 f., 215 Syntax 176, 345, 463, 486, 515–517, 530 Synthese 229, 236, 243, 364 T Technik 134, 230, 245, 308, 357 Technikwissenschaft(en) 308 Technologie 357–361, 368, 373 Theorie, philosophische 77, 584 Theoriebeladenheit 148, 334 f. Therapie 96, 297 Thomas von Aquin 107, 134 Tierkognition 337 Tomasello, Michael 337, 515 f., 520, 522, 526, 529, 532
656
U Universalienproblem 237 Unsicherheit 381 f., 385, 394 ff., 605, 622, 625, 628 Unterbestimmtheit 148, 337, 414, 426, 428–431, 434 f. Unverzichtbarkeitsargument 61 f. V Validierung siehe Validität Validität 94, 290, 298 f., 301, 431, 499 f., 502, 566, 634 Varela, Francisco 342, 454 f. Variabilität 292, 297, 333, 387–390, 528 Verifikation 148, 500 Verstehen (vs. Erklären) 146 f., 152, 484, 547, 550, 636 Vico, Giambattista 135 Viele-Welten-Interpretation 215 Virchow, Rudolf 294 Vorhersagbarkeit 28, 382 Vorhersagen 223, 243, 304, 344, 391 ff., 414, 493 f., 548, 560, 586 f., 596 f. W Walter, Sven 340 Weber, Max 178, 187, 593, 617, 637 Wellenfunktion 212 ff. Wertfreiheit 178, 543 Wertfreiheitspostulat 637, 640 White, Hayden 141 Wiener Kreis 18, 28, 34, 260, 479 Willensfreiheit 339 f., 445 Wimsatt, William 40, 118 f., 425, 595 Windelband, Wilhelm 145 Wissen, implizites 371–375 Wissenschaft angewandte 362, 375 theoretische 243 Wissenschaftlichkeit 21, 168 f., 171, 173, 361, 477, 521, 531, 641 Wohlfahrt 366, 584, 606–608
Autorinnen und Autoren
Bradley, Richard Department of Philosophy, Logic and Scientific Method London School of Economics and Political Science Buskes, Chris J. J. Research Group Cognition, Culture and Language Faculteit der Filosofie, Theologie en Religiewetenschappen Radboud Universiteit Nijmegen
Herfeld, Catherine Munich Center for Mathematical Philosophy Ludwig-Maximilians-Universität München Hinzen, Wolfram ICREA, Department of Translation and Language Sciences Universitat Pompeu Fabra, Barcelona Huber, Lara Philosophin, freie Autorin Hamburg
De Regt, Henk Afdeling Filosofie Vrije Universiteit Amsterdam
Hübner, Dietmar Institut für Philosophie Leibniz Universität Hannover
Feest, Uljana Institut für Philosophie Leibniz Universität Hannover
Keuck, Lara Institut für Geschichtswissenschaften Humboldt-Universität zu Berlin
Fischer, Eugen School of Politics, Philosophy, Language and Communication Studies Universitiy of East Anglia
Klauk, Tobias Courant Forschungszentrum »Textstrukturen« Georg-August-Universität Göttingen
Frigg, Roman Department of Philosophy, Logic and Scientific Method London School of Economics and Political Science
Kleinhans, Maarten G. Departement Fysische Geografie Universiteit Utrecht
Greve, Jens Fakultät für Soziologie Universität Bielefeld Hansson, Sven Ove Institutionen för Filosofi och Historia KTH – Royal Institute of Technology Stockholm
Köppe, Tilmann Courant Forschungszentrum »Textstrukturen« Georg-August-Universität Göttingen Kuhlmann, Meinard Philosophisches Seminar Johannes-Gutenberg-Universität Mainz
657
Autorinnen und Autoren
Lohse, Simon Institut für Philosophie & Centre for Ethics and Law in the Life Sciences Leibniz Universität Hannover
Thompson, Erica Centre for the Analysis of Time Series London School of Economics and Political Science
Lyre, Holger Lehrstuhl für Theoretische Philosophie Otto-von-Guericke-Universität Magdeburg
Walter, Sven Institut für Kognitionswissenschaft Universität Osnabrück
Reiss, Julian Department of Philosophy Durham University
Werndl, Charlotte Fachbereich Philosophie, Kultur- und Gesellschaftswissenschaftliche Fakultät Universität Salzburg
Reydon, Thomas Institut für Philosophie & Centre for Ethics and Law in the Life Sciences Leibniz Universität Hannover
Wilholt, Torsten Institut für Philosophie Leibniz Universität Hannover
Schummer, Joachim Institut für Philosophie Karlsruher Institut für Technologie
Wüthrich, Christian Département de Philosophie Université de Genève
Steele, Katie School of Philosophy Australian National University
Zabel, Benno Fachbereich Rechtswissenschaft Rheinische Friedrich-Wilhelms-Universität Bonn