Begründungsstrategien: Ein Weg durch die analytische Erkenntnistheorie [Reprint 2014 ed.] 9783050073514, 9783050030883

Aus dem Inhalt: Epistemologie und Wissenschaftstheorie. Der metatheoretische Rahmen. Begründungsstrategien. Kohärenz. Ei

200 12 36MB

German Pages 434 [440] Year 1996

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
I Epistemologie und Wissenschaftstheorie
A. Problemstellungen der Erkenntnistheorie
1. Wissen und Begründung
2. Epistemische Rechtfertigungen als Wahrheitsindikatoren
B. Wissenschaftliche Theorien und Erklärungen
1. Theorien und ihre innere Struktur
2. Unterschiedliche Erklärungskonzeptionen
II Der metatheoretische Rahmen
A. Zur Naturalisierung der Erkenntnistheorie
1. Genese und Rechtfertigung
2. Resignation in bezug auf das Projekt einer ersten Philosophie
3. Methodologischer Naturalismus
4. Evolutionäre Erkenntnistheorie
5. Resümee
B. Wahrheit und Wahrheitsindikatoren
1. Deflationäre Wahrheitskonzeptionen
2. Epistemische Wahrheitsbegriffe
3. Eine Korrespondenztheorie der Wahrheit
4. Resümee
C. Zur Struktur unserer Erkenntnis
1. Epistemische Subjekte
2. Inferentielle Rechtfertigungen
3. Implizites Wissen
4. Epistemische Arbeitsteilung
5. Hierarchische Strukturen
6. Resümee
III Begründungsstrategien
A. Externalistische Strategien
1. Externalistische Wissenskonzeptionen
2. Externalistische Rechtfertigungen
3. Eine Diagnose der intuitiven Attraktivität des Externalismus
4. Resümee
B. Fundamentalistische Erkenntnistheorien
1. Fundamentalistische versus kohärentistische Rechtfertigungsstrukturen
2. Das Regreßargument für den Fundamentalismus
3. Natürliche epistemische Arten und Hintergrundwissen
4. Der Einwand des Kriteriums
5. Substantieller Fundamentalismus
6. Resümee
IV Kohärenz
A. Bestandteile von Kohärenz
1. Kohärenz und Konsistenz
2. Die Bedeutung von Theorien für Kohärenz
3. Sind unsere Schlüsse deduktiv?
4. Abduktion und Induktion
5. Epistemische Stützung durch Erklärungen
6. Analogiebeziehungen
B. Eine Kohärenztheorie der Wahrnehmung
1. Vier Typen von Irrtumsquellen
2. Eine kohärentistische Rechtfertigung von Wahrnehmungen
3. Empiristische und rationalistische Wahrnehmungsauffassungen
4. Erinnerung und Introspektion
C. Lokale und Globale Aspekte von Rechtfertigung
D. Drei Kohärenzkonzeptionen
1. Lehrers Kohärenztheorie
2. Bonjours Theorie der Rechtfertigung
3. Thagards Theorie der Erklärungskohärenz
E. Einwände gegen Kohärenz als Erklärungskohärenz
1. „Erklärung“ ist kein epistemischer Begriff
2. Sind Erklärungen interessenrelativ?
3. Der Trivialitätsvorwurf
4. Rechtfertigungen ohne Erklärung
F. Eine diachronische Theorie der Erklärungskohärenz
G. Die Vereinheitlichung unseres Wissens
H. Einige Konsequenzen der KTR
I. Resümee
Anhang: Bayesianistische Schlüsse
V Einwände gegen eine Kohärenztheorie
A. Das Regreßproblem
1. Pragmatischer Kontextualismus
2. Lineare Rechtfertigungsstrukturen?
3. Epistemologischer Konservatismus
B. Der Isolationseinwand
C. Der mehrere-Systeme Einwand
D. Resümee
VI Metarechtfertigung
A. Interne Skepsis
B. Externe Skepsis
1. Fallibilismus und Skeptizismus
2. Wissensskeptizismus und Rechtfertigungsskeptizismus
3. Unnatürliche Zweifel?
4. Realismus als beste Erklärung?
5. Erkenntnistheoretische Ziele
6. Eine Entscheidung gegen den Skeptiker
C. Resümee
VII Wissenschaftliche Theorien
A. Die Entscheidung für den Strukturalismus
B. Mehrdeutigkeiten des Theoriekonzepts
C. Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik
1. Die begriffliche Struktur und die Gesetze von Theorie-Elementen
2. Innertheoretische Querverbindungen: Constraints
3. Intertheoretische Querverbindungen: Links
4. Die „empirische“ Ebene einer Theorie
5. Der Anwendungsbereich einer Theorie
6. Das Theorien-Netz der Newtonschen Partikelmechanik
7. Theoriendynamik
8. Die empirische Behauptung einer Theorie
9. Approximationen und erlaubte Unschärfemengen
10. Zusammenfassung der strukturalistischen Theorienauffassung
VIII Wissenschaftliche Erklärungen
A. Erkenntnistheoretische Funktionen von Erklärungen
B. Wissenschaftliches Verstehen
C. Die klassische Erklärungskonzeption
1. Erste Probleme des DN-Schemas
2. Asymmetrie und Irrelevanz
3. Grade von Erklärungen
D. Neue Ansätze in der Erklärungstheorie
1. Zur Pragmatik von Erklärungen
2. Kausale Erklärungen
IX Erklärung als Vereinheitlichung
A. Friedmans Vereinheitlichung der Phänomene
B. Kitchers Vereinheitlichung der Argumentationsformen
C. Einbettung in ein Modell
1. Ein allgemeiner Modellbegriff
2. Einbettungen und Erklärungen
D. Ein Beispiel für Vereinheitlichung
E. Komponenten der Vereinheitlichung
1. Begriffliche Vereinheitlichung in Strukturarten
2. Sukzessive Vereinheitlichung durch Gesetze
3. Vereinheitlichung durch Konsistenzforderungen
4. Vortheoretische Vereinheitlichung und theoretische Größen
5. Vereinheitlichung der Phänomene
6. Stringenz durch kleinere erlaubte Unschärfen
7. Intertheoretische Vereinheitlichung
8. Empirische Behauptung und organische Einheit von Theorien
9. Formale Explikation von Vereinheitlichung
F. Analogien und Kohärenz
G. Einbettung und kausale Erklärung
H. Zur Problemlösekraft des Einbettungsmodells
1. Erklärungsanomalien
2. Asymmetrien der Erklärung
3. Irrelevanz
4. Statistische Theorien und Erklärungen
5. Und wenn die Welt nicht einheitlich ist?
I. Resümee
Literaturverzeichnis
Index
Recommend Papers

Begründungsstrategien: Ein Weg durch die analytische Erkenntnistheorie [Reprint 2014 ed.]
 9783050073514, 9783050030883

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Thomas Bartelborth Begründungsstrategien

Thomas Bartelborth

Begründungsstrategien Ein Weg durch die analytische Erkenntnistheorie

Akademie Verlag

Die Deutsche Bibliothek - Cip-Einheitsaufnahme Bartelborth, Thomas: Begründungsstrategien : ein Weg durch die analytische Erkenntnistheorie / Thomas Bartelborth. Berlin : Akad. Verl., 1996 ISBN 3-05-003088-7

© Akademie Verlag GmbH, Berlin 1996 Der Akademie Verlag ist ein Unternehmen der VCH-Verlagsgruppe. Gedruckt auf chlorfrei gebleichtem Papier. Das eingesetzte Papier entspricht der amerikanischen Norm ANSI Z.39.48 - 1984 bzw. der europäischen Norm ISO TC 46. Alle Rechte, insbesondere die der Übersetzung in andere Sprachen, vorbehalten. Kein Teil dieses Buches darf ohne schriftliche Genehmigung des Verlages in irgendeiner Form - durch Photokopie, Mikroverfilmung oder irgendein anderes Verfahren - reproduziert oder in eine von Maschinen, insbesondere von Datenverarbeitungsmaschinen, verwendbare Sprache übertragen oder übersetzt werden. All rights reserved (including those of translation into other languages). No part of this book may be reproduced in any form - by photoprinting, microfilm, or any other means - nor transmitted or translated into a machine language without written permission from the publishers. Druck: GAM Media GmbH, Berlin Bindung: Verlagsbuchbinderei Mikolai GmbH, Berlin Printed in the Federal Republic of Germany

Inhaltsverzeichnis

I Epistemologie und Wissenschaftstheorie A. Problemstellungen der Erkenntnistheorie 1. Wissen und Begründung 2. Epistemische Rechtfertigungen als Wahrheitsindikatoren B. Wissenschaftliche Theorien und Erklärungen 1. Theorien und ihre innere Struktur 2. Unterschiedliche Erklärungskonzeptionen

II Der metatheoretische Rahmen A. Zur Naturalisierung der Erkenntnistheorie 1. Genese und Rechtfertigung 2. Resignation in bezug auf das Projekt einer ersten Philosophie 3. Methodologischer Naturalismus 4. Evolutionäre Erkenntnistheorie 5. Resümee B. Wahrheit und Wahrheitsindikatoren 1. Deflationäre Wahrheitskonzeptionen 2. Epistemische Wahrheitsbegriffe 3. Eine Korrespondenztheorie der Wahrheit 4. Resümee C. Zur Struktur unserer Erkenntnis 1. Epistemische Subjekte 2. Inferentielle Rechtfertigungen 3. Implizites Wissen 4. Epistemische Arbeitsteilung 5. Hierarchische Strukturen 6. Resümee

III Begründungsstrategien A. Externalistische Strategien 1. Externalistische Wissenskonzeptionen 2. Externalistische Rechtfertigungen

11 16 17 18 25 25 26

31 31 33 38 39 51 55 56 57 58 61 62 63 64 65 68 70 75 80

83 83 84 94

6

Inhaltsverzeichnis 3. Eine Diagnose der intuitiven Attraktivität des Externalismus 4. Resümee B. Fundamentalistische Erkenntnistheorien 1. Fundamentalistische versus kohärentistische Rechtfertigungsstrukturen 2. Das Regreßargument fiir den Fundamentalismus 3. Natürliche epistemische Arten und Hintergrundwissen 4. Der Einwand des Kriteriums 5. Substantieller Fundamentalismus 6. Resümee

IV Kohärenz A. Bestandteile von Kohärenz 1. Kohärenz und Konsistenz 2. Die Bedeutung von Theorien für Kohärenz 3. Sind unsere Schlüsse deduktiv? 4. Abduktion und Induktion 5. Epistemische Stützung durch Erklärungen 6. Analogiebeziehungen B. Eine Kohärenztheorie der Wahrnehmung 1. Vier Typen von Irrtumsquellen 2. Eine kohärentistische Rechtfertigung von Wahrnehmungen 3. Empiristische und rationalistische Wahrnehmungsauffassungen 4. Erinnerung und Introspektion C. Lokale und Globale Aspekte von Rechtfertigung D. Drei Kohärenzkonzeptionen 1. Lehrers Kohärenztheorie 2. BonJours Theorie der Rechtfertigung 3. Thagards Theorie der Erklärungskohärenz E. Einwände gegen Kohärenz als Erklärungskohärenz 1. „Erklärung" ist kein epistemischer Begriff. 2. Sind Erklärungen interessenrelativ? 3. Der Trivialitätsvorwurf 4. Rechtfertigungen ohne Erklärung F. Eine diachronische Theorie der Erklärungskohärenz G. Die Vereinheitlichung unseres Wissens H. Einige Konsequenzen der KTR I. Resümee Anhang: Bayesianistische Schlüsse

V Einwände gegen eine Kohärenztheorie A. Das Regreßproblem 1. Pragmatischer Kontextualismus

104 106 107 108 113 116 118 119 133

135 136 136 137 138 144 148 153 154 155 159 162 163 166 169 169 172 176 182 183 184 186 188 192 199 202 206 207

213 213 214

Inhaltsverzeichnis 2. Lineare Rechtfertigungsstrukturen? 3. Epistemologischer Konservatismus B. Der Isolationseinwand C. Der mehrere-Systeme Einwand D. Resümee

1 216 220 231 232 233

VI Metarechtfertigung A. Interne Skepsis B. Externe Skepsis 1. Fallibilismus und Skeptizismus 2. Wissensskeptizismus und Rechtfertigungsskeptizismus 3. Unnatürliche Zweifel? 4. Realismus als beste Erklärung? 5. Erkenntnistheoretische Ziele 6. Eine Entscheidung gegen den Skeptiker C. Resümee

235 237 242 244 246 251 254 258 261 267

VII Wissenschaftliche Theorien A. Die Entscheidung für den Strukturalismus B. Mehrdeutigkeiten des Theoriekonzepts C. Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik 1. Die begriffliche Struktur und die Gesetze von Theorie-Elementen 2. Innertheoretische Querverbindungen: Constraints 3. Intertheoretische Querverbindungen: Links 4. Die „empirische" Ebene einer Theorie 5. Der Anwendungsbereich einer Theorie 6. Das Theorien-Netz der Newtonschen Partikelmechanik 7. Theoriendynamik 8. Die empirische Behauptung einer Theorie 9. Approximationen und erlaubte Unschärfemengen 10. Zusammenfassung der strukturalistischen Theorienauffassung

269 270 273 274 274 276 279 281 283 285 287 288 292 297

VIII Wissenschaftliche Erklärungen A. Erkenntnistheoretische Funktionen von Erklärungen B. Wissenschaftliches Verstehen C. Die klassische Erklärungskonzeption 1. Erste Probleme des DN-Schemas 2. Asymmetrie und Irrelevanz 3. Grade von Erklärungen D. Neue Ansätze in der Erklärungstheorie 1. Zur Pragmatik von Erklärungen 2. Kausale Erklärungen

303 303 304 306 308 315 316 318 318 326

8

Inhaltsverzeichnis E. Resümee

344

IX Erklärung als Vereinheitlichung A. Friedmans Vereinheitlichung der Phänomene B. Kitchers Vereinheitlichung der Argumentationsformen C. Einbettung in ein Modell 1. Ein allgemeiner Modellbegriff 2. Einbettungen und Erklärungen D. Ein Beispiel für Vereinheitlichung E. Komponenten der Vereinheitlichung 1. Begriffliche Vereinheitlichung in Strukturarten 2. Sukzessive Vereinheitlichung durch Gesetze 3. Vereinheitlichung durch Konsistenzforderungen 4. Vortheoretische Vereinheitlichung und theoretische Größen 5. Vereinheitlichung der Phänomene 6. Stringenz durch kleinere erlaubte Unschärfen 7. Intertheoretische Vereinheitlichung 8. Empirische Behauptung und organische Einheit von Theorien 9. Formale Explikation von Vereinheitlichung F. Analogien und Kohärenz G. Einbettung und kausale Erklärung H. Zur Problemlösekraft des Einbettungsmodells 1. Erklärungsanomalien 2. Asymmetrien der Erklärung 3. Irrelevanz 4. Statistische Theorien und Erklärungen 5. Und wenn die Welt nicht einheitlich ist? I. Resümee

347 347 353 363 363 366 369 371 372 374 375 376 377 382 383 383 388 395 397 399 399 400 403 404 408 410

Literaturverzeichnis Index

413 427

Vorwort

Die Erkenntnistheorie ist eines der zentralen Gebiete der Philosophie. Sie fragt, wann unsere Wissensansprüche berechtigt sind und wann wir über gute Begründungen unserer Meinungen verfugen. Leider ist die gegenwärtige analytisch orientierte Philosophie der Erkenntnis überwiegend im englischsprachigen Raum zu Hause. In dieser Arbeit versuche ich sie auch dem deutschsprachigen Publikum etwas näher zu bringen und einen Einstieg in eine grundlegende Fragestellung dieser Disziplin zu geben. Es geht mir vor allem darum, was eine Begründung einer Meinung auszeichnet, während ich die weniger einschlägigen Diskussionen um den Wissensbegriff nur nebenbei erwähne. Außerdem möchte ich einem Versäumnis der Erkenntnistheorie entgegenwirken, nämlich neue wissenschaftstheoretische Resultate nicht zur Kenntnis zu nehmen, die wichtige Hilfsmittel zur Lösung epistemischer Probleme bereitstellen. Es wird Zeit für eine engere Zusammenarbeit beider Disziplinen. Mein Weg durch die analytische Philosophie der Erkenntnis bietet eine Einführung in das Thema und beginnt mit einer Erörterung der grundlegenden Begriffe wie „Meinung", „Rechtfertigung" und „Wahrheit". Dann werden die verschiedenen Grundpositionen vorgestellt, wobei ich für eine ganz bestimmte Theorie eintrete, nämlich eine Kohärenztheorie der Begründung. Die Argumentation für diese Theorie und ihre Ausgestaltung begleiten uns als roter Faden überall auf unserem Weg. Dabei müssen wir uns nach und nach von einigen liebgewordenen etwa empiristischen Ansichten verabschieden und uns mit einer diachronischen Theorie der Erklärungskohärenz anfreunden. Um diese vollends kennenzulernen, müssen wir uns außerdem der Frage zuwenden, was eigentlich das Charakteristische an einer Erklärung ist. Eine substantielle Antwort auf diese Frage, die im letzten Drittel der Arbeit gegeben wird, ist auf eine Teilnahme an der entsprechenden wissenschaftstheoretischen Debatte angewiesen. Die versuche ich so intuitiv wie möglich und mit vielen Beispielen zu gestalten, damit man auch als Nichtfachmann verstehen kann, worum es dabei geht. Die Arbeit ist aus meiner Habilitationsschrift des Jahres 1993 hervorgegangen, die anhand zahlreicher Diskussionen überarbeitet wurde. Für Anregungen danke ich in erster Linie Prof. Ulrich Gähde, Prof. Ulises Moulines und Prof. Peter Bieri; des weiteren danke ich Dr. Elke Brendel, Dr. Oliver Scholz, Dr. Dirk Koppelberg und einigen Studenten aus meinen Seminaren. Die verbliebenen Fehler sind natürlich trotzdem mir zuzuschreiben, schon deshalb, weil ich nicht allen Anregungen gefolgt bin.

I Epistemologie und Wissenschaftstheorie

Sehen wir im ebenmäßigen Sand eines Strandes klare Fußabdrücke in regelmäßiger Folge, so denken wir unwillkürlich: Da muß ein Mensch gelaufen sein. Doch trotz der Unwillkürlichkeit haben wir damit bereits eine Art von Schluß vollzogen. Einen Schluß von Indizien auf etwas, das wir nicht direkt gesehen haben. Unser Alltag ist voll von solchen Schlüssen, obwohl wir sie meist nicht einmal bemerken. Verzieht jemand das Gesicht, nachdem er sich mit einem Messer in den Finger geschnitten hat, nehmen wir selbstverständlich an, daß er Schmerzen hat. Auch das können wir nicht direkt wahrnehmen - jedenfalls nicht so direkt wie er selbst. Wir verfahren in all diesen Fällen ähnlich wie ein Detektiv, der anhand bestimmter Spuren erschließen muß, wer wohl der Mörder war. Selbst wenn uns jemand erzählt, er hätte einen Verkehrsunfall beobachtet, und wir ihm das glauben, vollziehen wir einen Schluß von der Schilderung zu dem Glauben an das Vorliegen eines bestimmten Verkehrsunfalls. Daß es sich tatsächlich um Schlüsse handelt, mag folgender Hinweis verdeutlichen: Auch wenn wir in den geschilderten Beispielen unseren Sinneswahrnehmungen vollkommen vertrauen, können wir uns in den darauf gestützten Annahmen irren. Die Spuren im Sand hätte auch eine Maschine dort hinterlassen können; das Messer schneidet vielleicht nur in eine Fingerattrappe (etwa bei Filmaufnahmen) und der Betreffende spielte nur den angeblichen Schmerz; die Schilderung war gelogen usw. All die genannten Schlüsse sind natürlich völlig in Ordnung, aber nicht zuletzt die Irrtumsmöglichkeiten weisen darauf hin, daß wir trotzdem nach einer Rechtfertigung oder Begründung für die Schlüsse fragen dürfen. Etwa: Wieso glaubst du, daß dein Bekannter dich nicht angelogen hat? Oder: Wieso glaubst du, daß du dich nicht getäuscht hast und nur den Trickaufnahmen zu einem Spielfilm zuschautest? Den Philosophen und speziell den Erkenntnistheoretiker interessiert außerdem, welches Schlußverfahren jeweils zum Einsatz kam und wie es sich begründen läßt, daß wir diesem Verfahren vertrauen. Schlüsse, in denen wir über das uns Bekannte hinausgehen, nennt man induktive Schlüsse (oder technischer: nichtmonotone Schlüsse), während sichere Schlüsse, in denen wir uns nicht irren können, deduktive genannt werden. Man kann die Frage also auch so formulieren: Gibt es bestimmte induktive Schlußweisen, die in unseren Beispielen angewandt wurden, und wie lassen sie sich rechtfertigen? Ein einfaches Induktionsverfahren wird schon seit der Antike diskutiert, nämlich die enumerative oder konservative Induktion. Danach sammeln wir eine Reihe von gleich-

12

I Epistemologie und Wissenschaftstheorie

artigen Fällen und schließen dann, daß wir auch in allen weiteren Fällen auf ähnliche Zusammenhänge stoßen werden. Wenn wir etwa 20 Raben untersucht haben und sie waren alle schwarz, werden wir von allen Raben erwarten, daß sie schwarz sind. Unsere Schlüsse im Alltag entsprechen allerdings oft nicht diesem einfachen Verfahren. Muß ich tatsächlich erst viele Schilderungen von Verkehrsunfällen meines Bekannten auf ihren Wahrheitsgehalt hin untersucht haben, ehe ich mit Fug und Recht annehmen darf, daß sein Bericht auch in diesem Fall der Wahrheit entspricht? Das geht wohl doch zu weit. Wir können aus vielen anderen Indizien begründen, daß wir ihn für glaubwürdig halten, und haben dann gute Gründe, seiner Schilderung zu glauben, selbst wenn es sich um seine erste Schilderung eines Verkehrsunfalls handelt. Ebenso ist es mit den Spuren im Sand. Es genügt schon ein einzelner Fall, um unsere Schlüsse zu untermauern. Wir schließen ohne eine Untersuchung weiterer Beispiele, daß hier ein Mensch gelaufen sein muß. Statt von enumerativer Induktion zu sprechen, läßt sich der vollzogene Schluß daher besser als ein Schluß auf die beste Erklärung beschreiben. D.h. wir suchen jeweils nach der Annahme, die die beste Erklärung für unsere Wahrnehmungen darstellt, und halten sie wegen ihrer Erklärungskraft auch für gut begründet. Für derartige Schlüsse (die ich im folgenden auch Obduktionen" nennen werde) gelten ganz andere Maßstäbe als für die konservativen Induktionen. So kommt es nicht darauf an, daß wir schon sehr viele ähnliche Fälle untersucht haben. Wichtiger ist meist, ob wir über alternative Erklärungen verfügen. Da im Normalfall keine anderen Erklärungen für die Fußspuren in Betracht kommen, als die gegebene, scheint unser Schluß vollkommen gerechtfertigt zu sein. Schon die wenigen Beispiele offenbaren allerdings einen grundlegenden Aspekt der Schlüsse auf beste Erklärungen: Sie sind wesentlich abhängig vom jeweiligen Hintergrundwissen. Was für uns die beste Erklärung für etwas ist, hängt von unseren anderen Annahmen über die Welt ab. Wir nehmen eventuell an, daß Menschen die Abdrücke im Sand hinterlassen haben müssen, weil es keine dazu geeigneten Maschinen gibt und wir normalerweise auch keine Motive kennen, entsprechende Maschinen zu bauen. Vielleicht haben wir noch nicht einmal die Phantasie, derartige Möglichkeiten überhaupt zu erwägen. Diese Abhängigkeit der Abduktionen von unseren Hintergrundannahmen ist im Alltag oft versteckt, weil sie sich nur auf Selbstverständliches bezieht. Aber sie wird schnell deutlich, sobald wir annehmen, daß keine „Normalsituation" vorliegt. Befinden wir uns auf einer Insel, die einem Ferienclub gehört, der gerne Belebtheit vortäuschen möchte und zu diesem Zweck rund um die Uhr Maschinen herumschickt, die Fußabdrücke hinterlassen, ist nicht mehr klar, welches nun die beste Erklärung unserer Beobachtung ist. Wissen wir darüber hinaus, daß es außer uns praktisch noch keine Gäste auf der Insel gibt, aber sehr viele Abdruckmaschinen, gewinnt die Maschinenerklärung die Oberhand. Nicht nur die Beurteilung der Plausibilität von Erklärungen und erklärenden Hypothesen, sondern natürlich auch ihre Auswahl ist von unserem Hintergrundwissen abhängig. In vielen Fällen halten wir sogar nur eine erklärende Hypothese für möglich. Vielleicht denken wir, es ließen sich überhaupt keine Fußabdruckmaschinen bauen und

A. Problemstellungen der Erkenntnistheorie

13

können uns z. B. nicht erklären, wie diese so gebaut werden sollten, daß sie außer Fußabdrücken keine anderen Abdrücke wie Reifenspuren im Sand hinterlassen. Dann würden wir diese Alternativerklärung nicht ernsthaft erwägen. In gewisser Weise stoßen wir hier bereits auf ein weiteres wichtiges Merkmal der Abduktionen, nämlich einen Regreß. Die gesuchten Erklärungen sollten möglichst selbst wieder nur erklärbare Bestandteile enthalten. Diese Einbettung von Erklärungen in weitergehende Erklärungszusammenhänge wird in meiner Arbeit unter dem Stichwort ,JCohärenz" präzisiert werden. Doch dem möchte ich an dieser Stelle noch nicht vorgreifen. Bleiben wir noch ein wenig bei den einfachen Abduktionen. Man könnte anhand der Beispiele vielleicht den Eindruck gewinnen, die Abduktion sei nur ein typisches Schlußverfahren unseres Alltags. Doch das wäre ein ganz falscher Eindruck. Gerade in den Wissenschaften oder auch vor Gericht sind Schlüsse auf die besten Erklärungen allgegenwärtig. Denken wir z. B. an einen Mordprozeß. Die Staatsanwältin wird Indizien (dazu zähle ich auch Zeugenaussagen) vorlegen, die gegen den Angeklagten sprechen sollen. Sie könnte anfuhren, daß am Tatort Blut mit seiner Blutgruppe gefunden wurde, daß er ein Mordmotiv und die Gelegenheit hatte: Er war etwa in Geldnot und hatte einen Schlüssel zum Haus seiner ermordeten Erbtante. Da außerdem ein Ermordeter vorliegt und es dafür eine Erklärung (sprich einen Mörder) geben muß, sei die Geschichte der Staatsanwaltschaft, wonach der Angeklagte nachts in das Haus seiner Tante ging und sie die Treppe hinunterstieß (wobei er sich verletzte), die beste Erklärung für die gesammelten Indizien. Für ihre Beweisführung muß die Staatsanwältin nicht erst etliche einschlägige Straftaten des Angeklagten abwarten, um dann einen enumerativen Induktionsschluß führen zu können. Entsprechende Vorstrafen des Angeklagten machen die Erklärung der Staatsanwältin zwar noch überzeugender, aber sie sind weder notwendig noch hinreichend für eine Verurteilung. Die Verteidigung könnte die Beweisführung unter anderem dadurch angreifen, daß sie alternative Erklärungshypothesen vorträgt. Vielleicht hatte die Tante noch einen weiteren geldgierigen Neffen, der sehr gut mit einem Dietrich umzugehen weiß und ebenfalls kein Alibi für die Mordnacht besitzt. Sie muß also nicht einmal bestreiten, daß die Staatsanwältin eine gute Erklärung der Indizien geliefert hat. Es genügt meist schon zu zeigen, daß sie nicht unbestreitbar die beste Erklärung darstellt. Zumal die Staatsanwaltschaft gerade in Strafverfahren nicht nur eine recht gute Erklärung liefern muß, sondern eine, die jenseits allen vernünftigen Zweifels die beste ist. Die gerade nur angedeuteten Mechanismen der Beweisführung stellen erste Hinweise für meine Behauptung dar, daß wir es hier wiederum mit den typischen Regeln für Abduktionen zu tun haben. Auch in wissenschaftlichen Kontexten treffen wir wieder auf abduktive Schlüsse. Wenn es um Fragen der Rechtfertigung oder Wahrheit wissenschaftlicher Theorien geht, berufen wir uns gern auf ihre Erklärungsleistung. Eine in den Wissenschaften vielfach anzutreffende Argumentation besagt sogar, daß eine Theorie genau dann besser begründet ist als eine andere, wenn sie mehr Phänomene und diese möglichst auch noch besser erklärt als ihre Konkurrentin. Wir nehmen etwa an, daß sich unser Weltall ausdehnt,

14

I Epistemologie und Wissenschaftstheorie

denn diese Annahme ist die beste Erklärung für die zu beobachtende Rotverschiebung in den Spektrallinien entfernter Sterne. Die Erklärungsleistung zeichnet diese Annahme gegenüber anderen kosmologischen Modellen erkenntnistheoretisch aus. Selbst in philosophischen Begründungen wird der Schluß auf die beste Erklärung eingesetzt; z. B. in Argumenten für die Existenz einer Außenwelt. So beruft sich schon Hume (1978, 196ff) auf Konsistenz und Kohärenzphänomene für die Behauptung, es gäbe unbeobachtete Gegenstände. Hume spricht zwar manchmal davon, wir müßten sie annehmen, um Kontradiktionen zu vermeiden, aber Bennett (1984, 325) hat gezeigt, daß Hume tatsächlich nur sagen kann, daß wir ohne die Annahme dieser Gegenstände über keine Erklärung für die Kohärenz und Konstanz unserer Wahrnehmungen verfugen. Der Schluß auf die beste Erklärung ist bis heute eines der prominentesten Argumente für realistische Positionen geblieben. Das gilt sowohl für einen „Common Sense" Realismus wie für den wissenschaftlichen Realismus (s.z.B. Devitt 1991, 111 ff). Abduktionen sind geradezu allgegenwärtig in den Wissenschaften und eigentlich in allen Disziplinen festzustellen. Ein Beispiel aus der Linguistik: Dort finden wir in Chomskys Hypothese einer angeborenen Grammatik einen weiteren typischen Vertreter dieses Schlußverfahrens. Wir können uns nach Chomsky nämlich nur aufgrund einer derartigen Annahme erklären, wieso wir so schnell unsere Sprache erlernen, obwohl diese eine sehr komplexe Struktur aufweist. Die Beispielliste für dieses Begründungsverfahren ließe sich ohne weiteres verlängern. Jedenfalls weist sie schon darauf hin, daß gerade die erkenntnistheoretisch interessantesten Schlüsse keine deduktiven und auch keine konservativen induktiven Schlüsse sind. Wir werden im Verlauf der Arbeit immer wieder feststellen müssen, daß das grundlegendste Schlußverfahren, das uns für nichtdeduktive Schlüsse zur Verfügung steht, das des Schlusses auf die beste Erklärung ist. Eine der zentralen Thesen meiner Arbeit besagt daher: Für wissenschaftliche Theorien und auch für viele Alltagsüberzeugungen ist ihre Erklärungsstärke der zentrale Aspekt ihrer epistemischen Beurteilung. Dieses Phänomen erklärt das große Interesse von Philosophen an einem besseren Verständnis dessen, was eine Erklärung ausmacht. Doch so gut wir auch im Entwerfen und im Beurteilen von konkreten Erklärungen sind, so schwierig ist es trotzdem, die folgenden drei Fragen zu beantworten: 1. Was ist eine (wissenschaftliche) Erklärung? 2. Warum sind Erklärungen so bedeutsam in der epistemischen Beurteilung von Meinungen bzw. Theorien? und schließlich: 3. Wann sind die Erklärungen durch eine Annahme (Theorie) besser als die durch eine andere? Diesen Fragen ist meine Arbeit gewidmet. Zu ihrer Beantwortung wird neben einer allgemeinen Erklärungstheorie vor allem eine Theorie der wissenschaftlichen Erklärung

A. Problemstellungen der Erkenntnistheorie

15

entwickelt, die wiederum eng mit einer Analyse, was eine wissenschaftliche Theorie ist und welche inneren Strukturen sie aufweist, verknüpft wird. Voraussetzung für eine erfolgversprechende Bearbeitung der genannten Projekte ist zunächst eine Antwort auf die zweite Frage, welchen epistemischen Wert Erklärungen besitzen. Hauptsächlich an dieser Antwort wird die zu entwickelnde Metatheorie der Erklärung zu messen sein. Sie wird in einer Theorie der epistemischen Rechtfertigung oder Begründung gegeben, die Erklärungen eine grundlegende erkenntnistheoretische Aufgabe zuweist. Bei der Rechtfertigungstheorie handelt es sich um eine diachronische Version einer Kohärenztheorie, die an bestimmten Stellen an die Theorien von BonJour, Harman, Lehrer, Seilars, Thagard und anderen Kohärenztheoretikern anknüpft, aber an anderen Stellen auch eigene Wege geht, um die bekannten Schwächen der genannten Ansätze zu vermeiden. In dieser Konzeption wird Kohärenz maßgeblich durch Erklärungsbeziehungen gestiftet. Zugleich beantwortet sie die alte Frage, welche Struktur unsere Begründungen aufweisen: Statt linearer Ketten, wie man sie aus logischen Ableitungen kennt, bilden sie ein Netzwerk von sich gegenseitig stützenden Aussagen, die durch Erklärungen untereinander verknüpft sind. Erklärungen bilden demnach geradezu den „Zement unseres Wissens", der die Teile unseres Wissens zu einem systematischen Ganzen zusammenfugt. Diese Anknüpfung an Humes Metapher von der Kausalität als dem „cement of the universe" legt es nahe, die Aufgabe von Erklärungen gerade in der Aufdeckung von kausalen Beziehungen zu sehen. In dieser Richtung sind deshalb auch viele Wissenschaftsphilosophen vorgegangen; z. B. Salmon (1984) ist hier als einer der prominentesten zu nennen. Doch meine Untersuchung der epistemischen Funktionen von Erklärungen zeigt, daß diese intuitiv so ansprechende Erklärungskonzeption letztlich zu kurz greift und nur einen Aspekt von Erklärungen erfaßt. Das wird an den Stellen offensichtlich, an denen es nicht nur kausale Beziehungen sind, die unsere Welt „zusammenhalten", sondern z. B. auch strukturelle Zusammenhänge. In unseren Modellen der Welt finden sich daher neben Kausalerklärungen Beziehungen inferentieller und begrifflicher Art, die genauso gut erklärende Funktionen übernehmen können wie die kausalen. Wir benötigen also eine neue und umfassendere Erklärungstheorie. Den Bereich des wissenschaftlichen Wissens werde ich in der Arbeit hervorheben, denn zum einen finden wir dort Erklärungen, die eine explizite Form annehmen, wie wir sie in unseren Alltagserklärungen meist nicht erreichen, und zum anderen stellt dieser Bereich einen nicht mehr wegzudenkenden Teil unseres Hintergrundwissens dar. Die Einschätzung der Erklärungsstärke und Entwicklung von entsprechenden Kriterien ist für Alltagserklärungen oft mit großen Vagheiten behaftet, weil sie kaum ausformuliert werden und sich unscharfer Begriffe bedienen. Für wissenschaftliche Erklärungen, die in schriftlicher Form vorliegen und sich auf entwickelte wissenschaftliche Theorien stützen, kann ihre Bewertung dagegen präzisiert werden; zumal in den Wissenschaften selbst bereits bestimmte methodische Standards für eine derartige Einschätzung etabliert sind. Kriterien, die für den Bereich der Wissenschaften Geltung besitzen, lassen sich schließlich mit manchen Einschränkungen und Modifikationen auf Erklärungen aus dem

16

I Epistemologie und Wissenschaftstheorie

Alltag übertragen, weil zwischen alltäglichen und wissenschaftlichen Erklärungen grundlegende Gemeinsamkeiten bestehen. Mein Unternehmen beginnt also damit, eine diachronische Kohärenztheorie der Rechtfertigung zu entwickeln, die den allgemeinen Rahmen bereitstellt, in dem Erklärungen die wichtigste Aufgabe bei der Erzeugung von Kohärenz zukommt. Erst im zweiten Schritt wird eine Explikation von „(guter) Erklärung" folgen, die ihren Schwerpunkt in einer Explikation von „wissenschaftlicher Erklärung" findet. Neben diesen beiden Aufgabenstellungen ist es ein Anliegen dieses Buchs, einen längst fälligen Brückenschlag zwischen der heutigen Erkenntnistheorie und der Wissenschaftstheorie zu bewerkstelligen. Denn obwohl diese philosophischen Disziplinen thematisch eng verbunden sind, treten sie in den meisten akademischen Diskussionen, wie z. B. der über epistemische Rechtfertigungen, getrennt in Erscheinung. Meine Arbeit wird diese Beobachtung an vielen Stellen weiter untermauern. Obgleich etwa der Erklärungsbegriff explizit eine zentrale Rolle in zahlreichen erkenntnistheoretischen Ansätzen neueren Datums spielt, wird dort kaum zu seiner Explikation beigetragen schon gar nicht gemäß dem Stand der entsprechenden wissenschaftstheoretischen Diskussion. Vielmehr wird, was unter einer Erklärung zu verstehen ist, entweder offengelassen und nur an ein vages Alltagsverständnis dieses Begriffs appelliert, oder man bezieht sich schlicht auf das Hempel-Oppenheim Schema der Erklärung, das in der wissenschaftstheoretischen Debatte um Erklärungen wegen seiner zahlreichen Mängel schon seit längerem ausgedient hat. Auf der anderen Seite sieht es nicht besser aus: Die wissenschaftsphilosophische Diskussion, welche der auf das DN-Schema der Erklärung folgenden Konzeptionen über wissenschaftliche Erklärungen zu bevorzugen sei, wird nahezu ausschließlich anhand von Anwendungen dieser Erklärungsansätze auf Beispielfälle gefuhrt. Welche epistemische Funktion Erklärungen zu erfüllen haben und wie sie sich in bestimmte Erkenntnistheorien einfügen, bleibt dabei außen vor, obwohl diese Überlegungen offensichtlich einschlägig für die Beurteilung von Erklärungen sind.

A. Problemstellungen der Erkenntnistheorie BonJour hat in seinem vielbeachteten Buch The Structure of Empirical Knowledge (1985) im wesentlichen drei Problembereiche für die heutige Erkenntnistheorie genannt, die auch für die vorliegende Arbeit eine fruchtbare Unterteilung darstellen. Da ist zunächst ein vornehmlich begriffsanalytisches Projekt, in dem der Begriff „Wissen" zu explizieren und die Wahrheitsbedingungen für Sätze wie „S weiß, daß p" zu bestimmen sind. Ein zweites Unternehmen der Erkenntnistheorie läßt sich in einer Theorie der Rechtfertigung ermitteln, die uns angeben soll, was eine gute epistemische Rechtfertigung bzw. Begründung einer Meinung ist. Das dritte Vorhaben, das BonJour als „Metarechtfertigungii bezeichnet, bezieht sich insbesondere auf das Zweite, indem es den Zusammenhang zwischen dem explizierten Rechtfertigungsverfahren und dem Wahrheitsbegriff untersucht und beinhaltet vor allem die Auseinandersetzung mit dem

A. Problemstellungen der Erkenntnistheorie

17

Skeptiker. Dieses Buch soll in seinem erkenntnistheoretischen Teil überwiegend das zweite Problem behandeln und darüber hinaus zumindest eine Antwortskizze auf den Fragenkomplex der Metarechtfertigung (speziell auf die Herausforderung durch den Skeptiker) anbieten, während die Wissensdefinition keinen Gegenstand der Arbeit bilden wird. Trotzdem ist ein erster Blick auf dieses Thema schon zu Zwecken der Abgrenzung erforderlich.

1. Wissen und Begründung Die Aufgabe zu bestimmen, was Wissen ist, ist eine der grundlegenden Fragen seit den Anfängen der Philosophie. Der wohl einflußreichste Vorschlag war der Piatons im Theaetet und im Menon. Danach verstand man den Wissensbegriff lange Zeit so, daß jemand eine Aussage p weiß, wenn er den wahren und zugleich begründeten Glauben hat, daß p. Erst Gettier hat (1963) einen Typ von Situationen gefunden, der nach ihm benannt wurde und in seinen zahlreichen Ausgestaltungen Gegenbeispiele gegen die meisten vorgelegten Wissensdefinitionen anbieten kann. An einem einfachen Gettierbeispiel möchte ich auf das Verhältnis von Wissensdefinition und der Begründung von Meinungen eingehen. Nehmen wir an, ein Student von mir fährt einen BMW und behauptet, er gehöre ihm auch. Da ich keinen Grund habe, seine Behauptung in Zweifel zu ziehen, denn er ist weder ein Angeber, noch finanziell zu schlecht gestellt für ein solches Auto, glaube ich ihm, daß ihm der Wagen gehört. Dazu habe ich in diesem Fall auch gute Gründe, und man dürfte meine Überzeugung sicherlich als Wissen bezeichnen, wenn nicht eine Komplikation ins Spiel käme. Der Student wollte mich tatsächlich an der Nase herumfuhren. Der BMW gehört - so nimmt er jedenfalls an - einem Freund von ihm, der ihm den Wagen geliehen hat. Er selbst besäße demnach überhaupt kein Auto. Aber, ohne daß er davon wußte, hat sein Vater den BMW von seinem Freund für ihn gekauft. Entgegen seinen eigenen Annahmen gehört ihm der BMW also doch. Damit sind für meine entsprechende Überzeugung alle Anforderungen der Platonischen Wissensdefinition buchstäblich erfüllt: Mein Glaube, daß ihm der BMW gehört, ist wahr und auch begründet. Trotzdem möchten wir in diesem Fall nicht von Wissen sprechen, weil meine Gründe für die Meinung, daß der Student einen BMW besitzt, mit ihrer Wahrheit nichts zu tun haben. Bei meinem Wissensstand, der sich ganz auf die Angaben des Studenten stützt, ist es bloß ein glücklicher Zufall, daß die Meinung wahr ist, und somit keineswegs Wissen. Wir hätten genau dieselben Gründe zur Verfugung gehabt, wenn der Vater nicht so großzügig gewesen und der Student immer noch auf ein Leihauto angewiesen wäre. Also können wir nicht mit Fug und Recht behaupten, ich hätte gewußt, daß dem Student ein BMW gehört, denn Wissen verlangt mehr als eine bloß zufällig wahre Meinung, für die man Gründe hat, die nur zufällig mit der Wahrheit der Meinung zusammenhängen. Diese Beschreibung des Falles, die von den meisten Wissenstheoretikern geteilt wird, setzt voraus, daß wir in der geschilderten Situation tatsächlich über eine Rechtfertigung unserer Überzeugung: „Student X besitzt einen BMW" verfügen, da sonst die entspre-

18

I Epistemologie und Wissenschaftstheorie

chende Platonische Bedingung in dem Gettierbeispiel nicht erfüllt wäre und dieses seine Funktion als Gegenbeispiel nicht übernehmen könnte. Diese Redeweise entspricht auch unseren üblichen Vorstellungen von Rechtfertigungen. Die geschilderten Gründe - die man in einer erweiterten Geschichte natürlich ohne weiteres noch verstärken könnte stellen gute Gründe für meine Uberzeugung dar, nur reichen diese Gründe eben nicht für Wissen aus. Dazu müssen in eine Wissensdefinition vermutlich weitere Anforderungen mit aufgenommen werden. An dieser Stelle wird erkennbar, wie sich die Wege für eine Theorie der Rechtfertigung und eine Wissensexplikation trotz ihres Zusammenhangs trennen. In dem Projekt der Wissensdefinition sucht man nach spezifischen Rechtfertigungen, nämlich solchen, die für wahre Meinungen auch zu Wissen führen, oder beschreitet ganz andere Wege, indem man die Rechtfertigungsbedingung der Platonischen Definition durch völlig andersgeartete Forderungen ersetzt. Die für Wissen spezifischen Rechtfertigungsbedingungen sind aber keinesfalls für Rechtfertigungen per se unerläßlich, denn in dem Gettierbeispiel liegen sie offensichtlich nicht vor, obwohl wir es mit guten Gründen für unsere Meinung, daß der Student einen BMW besitzt, zu tun haben. Das Projekt der Wissensexplikation, das manchmal auch als „Gettierologie" bezeichnet wird, hat sich so zu einer subtilen Tüftelei der Formulierung immer ausgefeilterer Bedingungen für Wissen und dem Konstruieren immer komplizierterer Gegenbeispiele im Stile Gettiers entwickelt. Dabei geht es nicht darum, besonders gute Rechtfertigungen von schlechteren abzugrenzen, sondern darum, einen ganz speziellen Typ von Rechtfertigungen für eine geeignete Wissensbedingung zu bestimmen. Es wird schon vorausgesetzt, unsere Vorstellung, was eine Rechtfertigung ausmacht, sei bereits hinreichend geklärt, und wir könnten nun unter den Rechtfertigungen nach solchen für Wissen suchen. Eine beliebige Rechtfertigung ist eben nur zu wenig für Wissen. Sie kann daher z. B. durch externalistische Anforderungen an die Rechtfertigung ergänzt werden; wie etwa die Harmansche Bedingung, nach der die Rechtfertigung selbst nicht auf falschen Annahmen beruhen darf. Es ist wichtig, dieses Projekt deutlicher von dem zu trennen, eine Theorie der epistemischen Rechtfertigung zu entwerfen, als das in der erkenntnistheoretischen Forschung bisher geschieht. Etliche Autoren vermengen beide Fragestellungen, als ob es um ein und dasselbe Unternehmen ginge oder versuchen auf dem „Umweg" über die Rechtfertigungstheorie eigentlich nur zu einer Wissensdefinition zu gelangen. Dann hat die Rechtfertigungstheorie meist erkennbar darunter zu leiden, daß ihre Konstrukteure schon auf den zweiten Schritt abzielen. Mir soll es in dieser Arbeit nur um eine Theorie der epistemischen Rechtfertigung oder Begründung zu tun sein und die Explikation von „Wissen" wird dabei bestenfalls am Rande besprochen.

2. Epistemische Rechtfertigungen als Wahrheitsindikatoren Der kurze Abstecher in das Vorhaben der Wissensexplikation sollte daran erinnern, an welcher Stelle in den klassischen Wissensdefinitionen eine Konzeption von Rechtferti-

A. Problemstellungen der Erkenntnistheorie

19

gung bereits vorausgesetzt wird. Die Bedeutung einer Theorie der Rechtfertigung von Meinungen erschöpft sich aber keinesfalls darin, eine Vorarbeit zur Wissensdefinition zu sein. Es ist ein Vorhaben der Erkenntnistheorie, das weit über die spezielle Problematik des Wissensbegriffs hinausreicht und unabhängig von den Idiosynkrasien unseres Wissensbegriffs behandelt werden kann. Wenn man Jay F. Rosenberg (1986, 17ff) wenigstens im Grunde zustimmt, daß das Wesen des Philosophierens geradezu darin besteht, Positionen immer nur mit Begründungen zu vertreten und bereit zu sein, auf Argumente gegen diese Positionen wieder mit Argumenten zu antworten, gehört das Anfertigen von Rechtfertigungen unerläßlich zur Praxis des Philosophierens. Eine Analyse, was Rechtfertigungen ausmacht, sollte daher ein wichtiges Geschäft für jede Metaphilosophie darstellen. Die Bereitschaft, für eigene Behauptungen auch Gründe anzuführen und nicht bloß auf zufällig angenommenen Behauptungen zu beharren, ist die kognitive Leistung, die einen Philosophen von einem bloßen Dogmatiker oder einem Kind unterscheidet, das eine Meinung von seinen Eltern übernommen hat, ohne sie selbst begründen zu können. Offenheit für neue Argumente, die es gestattet, auch die angeführten Begründungen selbst wieder in Zweifel ziehen zu können, ist der wichtigste Schritt weg von einer dogmatischen Verteidigung seiner Ansichten zu einer rationalen Auseinandersetzung. Eine Rechtfertigung einer Behauptung besteht in idealtypischer Vereinfachung aus zwei Teilen. Einmal aus weiteren Hypothesen oder Annahmen, die als Prämissen der Rechtfertigung auftreten und zum zweiten aus der Behauptung, daß diese Annahmen die in Frage stehende Position in bestimmter Weise rechtfertigen. Ein Angriff auf eine philosophische Position kann sich dementsprechend entweder gegen die Prämissen richten und nach Begründungen für sie verlangen oder dagegen, daß sie tatsächlich die fragliche Meinung stützen. Im Verlaufe eines solchen Angriffs auf eine philosophische Ansicht werden meist selbst wieder Behauptungen formuliert, die ebenfalls zu begründen sind. Diese natürlich stark vereinfachte Darstellung einer dialektischen geführten Diskussion mag als Hinweis genügen, warum Rechtfertigungen in philosophischen Disputen eine zentrale Rolle zukommt. Wir sollten schon deshalb die philosophische Verpflichtung übernehmen, über die Frage zu reflektieren, wie eine gute epistemische Rechtfertigung auszusehen hat. Begründungen bzw. Rechtfertigungen (diese Ausdrücke werden von mir bezogen auf epistemische Kontexte synonym gebraucht) anzugeben, ist natürlich keineswegs Philosophen vorbehalten, sondern eine Selbstverständlichkeit in vielen außerphilosophischen, wissenschaftlichen und eventuell vollkommen banalen Kontexten. Selbst wenn ich auf einer Party äußere: „Fritz ist eifersüchtig auf Hans", ist die Erwiderung: „Wieso glaubst du das?", eine naheliegende Aufforderung, die geäußerte Meinung nun auch zu begründen. Dann kann ich womöglich anführen, Fritz habe sich gestern sehr feindselig gegenüber Hans verhalten und dies sei ein Zeichen seiner Eifersucht. Wenn meinem Gesprächspartner diese Rechtfertigung meiner Behauptung nicht ausreicht, kann er entweder meine Prämisse bestreiten: „Fritz hat sich nicht feindselig gegenüber Hans verhalten, sondern war nur allgemein mürrisch", oder den Rechtfertigungsanspruch dieser

20

I Epistemologie und Wissenschaftstheorie

Prämisse in Abrede stellen: „Auch wenn Fritz sich feindselig verhalten hat, so deutet das keineswegs auf Eifersucht hin, sondern ist darin begründet, daß Hans den Fritz geschäftlich hereingelegt hat." Wie eine derartige Diskussion weiter verlaufen kann, läßt sich leicht ausmalen. Schon in diesem einfachen Beispiel sind zwei Aspekte von Rechtfertigungen gut erkennbar. Zum einen die oben schon beschriebene Grundstruktur von Rechtfertigungen und zum anderen ihre erkenntnistheoretische Funktion. Da wir in vielen Fällen die Wahrheit bestimmter Behauptungen nicht direkt überprüfen können, suchen wir nach indirekten Anzeichen für ihre Wahrheit oder auch Falschheit. Dabei steht meist der in der Pflicht, Wahrheitsindikatoren vorzulegen, der eine Meinung vorträgt. Indizien für die Wahrheit einer Aussage darzustellen soll zugleich die für die weitere Arbeit leitende Charakterisierung von Rechtfertigungen sein. Eine terminologische Abgrenzung ist aber noch angebracht. Mit „Rechtfertigung" beziehe ich mich nur auf epistemische Rechtfertigungen. Bekanntlich spricht man auch in anderen Kontexten von Rechtfertigung. So könnte mein Chef mich z. B. auffordern, mich zu rechtfertigen, warum ich in der letzten Woche nicht gearbeitet habe. Wenn die Fakten bereits geklärt sind und ich ihm nicht in seiner Behauptung, daß es so war, widersprechen möchte, erwartet er eine moralische oder sogar juristische Rechtfertigung von mir. Diese Rechtfertigung soll dabei nicht eine Begründung dafür darstellen, daß bestimmte Annahmen wahr sind, sondern hat die Funktion, mich moralisch zu entlasten, mein Verhalten zu rechtfertigen. Dazu teile ich ihm in der Regel gleichfalls neue Fakten mit - etwa, daß ich krank war aber diese Fakten werden in diesem Kontext nicht als Indizien dafür betrachtet, daß ich nicht im Dienst war, sondern gelten hoffentlich als angemessene Entschuldigung für meine Abwesenheit. Epistemische Rechtfertigungen zielen dagegen auf Wahrheit ab. Sie sind noch nicht einmal in erster Linie dazu geeignet, andere von der Wahrheit einer Behauptung zu überzeugen - selbst wenn das Partybeispiel oder diskurstheoretische Ansätze das vielleicht nahelegen mögen. Das können in bestimmten Fällen andere Überlegungen, die z. B. an bestimmte Vorurteile des Adressaten appellieren oder an gewisse Emotionen rühren, viel eher leisten, obwohl wir diese Überlegungen nicht unbedingt als Wahrheitsindikatoren anerkennen werden. Im Gegenteil erachten wir sie sogar oft als irreführend: Wir werden nicht in der Werbung nach typischen Vertretern guter Rechtfertigungen und Wahrheitsindikatoren suchen, obwohl sie ganz darauf abstellt, uns von etwas zu überzeugen. Die tatsächliche Überzeugungskraft einer Argumentation möchte ich aus der Diskussion um Rechtfertigungen weitgehend heraushalten und in einer Theorie der Argumentation oder Rhetorik ansiedeln. So kann ein zwingender mathematischer Beweis ein optimaler Wahrheitsindikator sein, weil er die Wahrheit einer Behauptung sogar garantiert, aber trotzdem wenig überzeugend wirken, weil er zu lang und kompliziert erscheint, um von vielen Leuten verstanden zu werden. Außerdem sind typische Argumentationsweisen häufig nur aus der dialektischen Situation heraus zu analysieren, etwa in einer dialektischen Logik, und in bestimmten Fällen kaum als Rechtfertigungen zu

A. Problemstellungen der Erkenntnistheorie

21

bezeichnen. Walton (1984, 4ff) gibt dazu ein Beispiel für eine Variante eines ad hominem Arguments, dem sehr wohl ein Platz in einem entsprechenden Disput zukommt, das aber keine epistemische Begründung darstellt: Der Vater ermahnt den Sohn weniger zu rauchen, denn das würde sein Krebsrisiko dramatisch erhöhen. Darauf erwidert der Sohn: „Aber Du rauchst doch selbst jeden Tag ein Päckchen." Diese Replik sagt uns nichts über den Zusammenhang von Rauchen und Krebs, aber ein Vorstoß des Mottos „Du praktizierst nicht, was Du predigst" kann auf eine Art pragmatischer Inkonsistenz eines Diskussionspartners verweisen, die der Überzeugungskraft seiner Argumente Abbruch tut. Die epistemologische Rechtfertigungstheorie hat in derartigen Fällen andere Aufgabenstellungen als eine Argumentationstheorie und bedient sich bei allen Zusammenhängen, die es unzweifelhaft zwischen diesen Gebieten gibt, auch anderer Methoden. Trotz dieser sicher notwendigen Warnungen, den Zusammenhang zwischen Rechtfertigungen und Motiven oder Ursachen für unsere Überzeugungen nicht zu eng zu sehen, sollte es bestimmte Gemeinsamkeiten geben. Wenn wir von guten Argumenten verlangen, nachhaltige Überzeugungsarbeit zu leisten und nicht nur auf die menschlichen Schwächen einiger Diskussionspartner zu zielen, so sollte hinter jedem guten Argument auch eine gute Begründung stehen. Gute Argumente wären demnach überzeugend verpackte Begründungen. Darüber hinaus erwarten wir einen Zusammenhang zum Rationalitätsbegriff. Vollkommen rationale Personen sollten von guten epistemischen Rechtfertigungen überzeugt werden können, wenn sie keine Gegenargumente anzubieten haben. Das ist aber vielleicht nicht so sehr eine Behauptung über die kausale Wirksamkeit von Rechtfertigungen in der Meinungsbildung, als vielmehr ein analytischer Bestandteil eines entsprechenden normativen Konzepts von Rationalität. Neben epistemischen Rechtfertigungen lassen sich also noch viele Beispiele anderer Rechtfertigungen finden, die im folgenden ebenso ausgeklammert werden sollen, wie die motivationalen Aspekte von Rechtfertigungen. Es wird nur um die Frage gehen, was eine gute Rechtfertigung ist, und nicht um die, von welchen Argumenten bestimmte Menschen sich besonders beeindrucken lassen. Epistemisch zu rechtfertigen sind - und das wurde in den Beispielen schon angedeutet - Aussagen oder Meinungen aus recht unterschiedlichen Bereichen. Im folgenden möchte ich mich vornehmlich mit Rechtfertigungen für empirische Meinungen beschäftigen, aber an vielen Stellen ist offensichtlich, daß zumindest wesentliche Strukturähnlichkeiten zu Rechtfertigungen von moralischen oder anderen nicht-empirischen Behauptungen gegeben sind. Allerdings treten für Begründungen normativer Behauptungen spezifische Probleme hinzu, die zunächst auszuklammern ein methodisches Gebot sein sollte. Die Moralphilosophie ist ein gutes Beispiel dafür, daß wir von Begründungen sprechen, die etwas mit der Richtigkeit moralischer Normen zu tun haben, obwohl die Frage, ob es so etwas wie ethisches Wissen und moralische Wahrheit gibt, recht umstritten ist. Was das genaue Ziel moralphilosophischer Begründungen von ethischen Normen sein soll, wenn wir nicht auch in einem anspruchsvollen nichtrelativistischen Sinn von moralischer Wahrheit sprechen möchten, ist ein schwieriges Problem der Metaethik. Das hat einige

22

I Epistemologie und Wissenschaftstheorie

Moralphilosophen wie Brink (1989) zu der Ansicht des moralischen Realismus geführt. Für ihn kann auch im Bereich der Ethik die Suche nach Wahrheit eine geeignete Beschreibung unserer Praxis moralischen Räsonierens abgeben.

a) Die Entwicklung einer diachronischen Kohärenztheorie Meine Argumentation für eine bestimmte „Ethik des Meinens", nämlich eine Kohärenztheorie der Rechtfertigung, erfolgt in mehreren Schritten. In Kapitel (II) wird der metatheoretische oder metaphysische Hintergrund skizziert, vor dem die folgende Untersuchung stattfinden soll. In (II.A) wende ich mich als erstes gegen Versuche, die Erkenntnistheorie in radikaler Weise zu „naturalisieren", wie wir sie etwa bei Quine finden, der die Erkenntnistheorie zur Gänze an die Naturwissenschaften delegieren möchten. Eine sorgfältige Unterscheidung zwischen Genese und Rechtfertigung von Meinungen bietet dabei immer wieder den besten Ausgangspunkt zur Zurückweisung naturalistischer Angriffe auf die philosophische Erkenntnistheorie, die im Unterschied zu rein naturwissenschaftlichen Forschungsvorhaben eine zum Teil normative Zielsetzung verfolgt. Ähnliche Einwände sind auch gegen Naturalisierungsvorstöße wie den der evolutionären Erkenntnistheorie wirksam, der darüber hinaus noch eine ganze Reihe inhärenter Probleme mit sich bringt. Zusätzlich zu dieser negativen Abgrenzung gegenüber radikalen naturalistischen Vorgehensweisen, beinhaltet Kapitel (II.A) auch die Ausarbeitung einer positiven Methodologie. Die Naturalisierung der Epistemologie wurde zumindest teilweise durch die Fehlschläge motiviert, die Erkenntnistheorie in Form einer ersten Philosophie zu begründen, und es bleibt daher die Frage offen, was an die Stelle der ersten Philosophie treten kann, wenn die Naturwissenschaften und ihre Methoden dafür ungeeignet erscheinen. Hier, wie auch für normative Theorien in der Ethik, scheint mir nur eine Form des von Goodman und Rawls propagierten reflektiven Gleichgewichts - das ich in seiner hier vertretenen Form auch als „methodologischen Naturalismus" bezeichne - den richtigen Weg zu weisen. Das Kapitel (II.B) ist einer Bestimmung derjenigen Wahrheitskonzeption gewidmet, die mit der Redeweise von Wahrheitsindikatoren gemeint ist. Dabei wähle ich denselben Rahmen, in dem auch klassische erkenntnistheoretische Debatten geführt wurden, d.h. eine realistische Vorstellung von der Außenwelt gepaart mit einem realistischen Wahrheitsbegriff im Sinne einer Korrespondenzauffassung von Wahrheit. Allen noch so verlockenden Versuchen, den Einwänden des radikalen Skeptikers dadurch zu entkommen, daß man die Welt als wesentlich durch uns konstruiert ansieht oder Wahrheit als epistemisch ideale Rechtfertigung betrachtet, wird damit eine klare Absage zugunsten der klassischen Erkenntnisproblematik erteilt. Ehe ich zu einer direkten Untersuchung von Begründungsverfahren übergehen kann, werden in Kapitel (II.C) noch einige Grundfragen der Struktur unserer Meinungssysteme und ihrer Rechtfertigungsbeziehungen rekonstruiert, so etwa, daß Rechtfertigungen immer relativ zu einem bestimmten Hintergrundwissen bestehen. Bei Menschen setzt sich das zu einem großen Teil aus dem nicht unproblematischen impliziten Wissen

A. Problemstellungen der Erkenntnistheorie

23

zusammen. Für andere epistemische Subjekte wie z. B. Wissenschaftlergemeinschaften, die hier auch zugelassen werden sollen, ergeben sich dagegen völlig andere Probleme. Um zu einer einigermaßen realistischen Darstellung unseres Erkenntniserwerbs zu kommen, ist aber in jedem Fall ein Phänomen zu berücksichtigen, das ich als „erkenntnistheoretische Arbeitsteilung" bezeichne. Schon der Spracherwerb aber auf jeden Fall der Wissenserwerb und die uns zur Verfugung stehenden epistemischen Rechtfertigungen unterliegen zu wesentlichen Teilen einer gesellschaftlichen Arbeitsteilung. Der methodologische Solipsismus Descartes verkennt, daß wir bereits zum Verständnis der Wörter, mit denen wir unsere Überzeugungen wiedergeben, auf sozial vermittelte Bedeutungen - etwa in Form der Putnamschen Stereotypen - angewiesen sind. Das gilt für die meisten Bereiche unseres Wissens. Sie sind nur als eine Form von gesellschaftlichem Wissen verfügbar, und eine Erkenntnistheorie, die diesem Phänomen nicht Rechnung tragen kann, gerät immer in die Gefahr, dem Erkenntnissubjekt eine Herkulesarbeit aufzubürden. Diese Vorarbeiten sind zwar langwierig, aber notwendig, um im folgenden einer Reihe von Einwänden und Mißverständnissen begegnen zu können. Erst in Kapitel (III) beginnt eine direkte Argumentation für die Kohärenztheorie, indem ihr Hauptkonkurrent, der fundamentalistische Ansatz, bekämpft wird. Dazu wird zunächst einmal die heutzutage für Fundamentalisten gebräuchliche externalistische Variante ihrer Rechtfertigungsstrategie zurückgewiesen; jedenfalls für den Bereich der epistemischen Rechtfertigungen, denn für das Projekt der Wissensexplikation sind externalistische Schachzüge kaum noch wegzudenken. Für die Ausarbeitung einer Rechtfertigungstheorie erweist sich das externalistische Vorgehen allerdings als eine glatte Themaverfehlung. Mit dieser generellen Argumentation gegen alle externalistischen Schachzüge, die in verschiedenen Variationen immer wieder in fundamentalistischen Erkenntnistheorien auftreten, untergrabe ich gleichzeitig das wichtigste Standbein der empiristischen Epistemologie. Die Festlegung auf nicht-externalistische Rechtfertigungen verringert also die Attraktivität fundamentalistischer Ansätze im allgemeinen. Sie können dann keine überzeugende Antwort auf die Frage geben, welcher Art die Rechtfertigungen ihrer basalen Meinungen sind. Dadurch verlieren sie auch die Unterstützung ihres wichtigsten Arguments, dem Regreßargument, weil sie selbst keine stichhaltige Lösung für einen Stopp des Regresses mehr anzubieten haben. Dazu kommt eine Reihe interner Probleme, wie ihre implizite Annahme, es gäbe natürliche epistemische Arten von Aussagen, die sich anhand von Beispielen als unplausibel herausstellt. Da sie darüber hinaus noch nicht einmal andere erkenntnistheoretische Ziele wie die Irrtumssicherheit ihrer fundamentalen Aussagen (etwa im Phänomenalismus) gewährleisten können, fuhrt das letztlich zu einer Zurückweisung der Konzeption basaler Überzeugungen. Demnach ist jede unserer Meinungen im Prinzip anhand anderer Meinungen begründungspflichtig, und die einzige Metatheorie, die diesem Erfordernis Rechnung trägt, ist eine Kohärenztheorie der Rechtfertigung. Sie wird in Kapitel (IV) entwickelt und selbst begründet. Dafür ist als erstes zu klären, was Kohärenz über bloße Konsistenz hinaus ist,

24

I Epistemologie und Wissenschaftstheorie

worauf meine Antwort lautet: Ein Netz von Abduktionsbeziehungen, das über einen gewissen Zeitraum hinweg stabil geblieben ist. Kohärenz setzt sich dabei aus verschiedenen Aspekten der relationalen und systematischen Kohärenz zusammen, die außer der Güte der Einbettung einer Meinung in ein Netzwerk von Meinungen auch holistische Beurteilungen der globalen Kohärenz dieses Systems von Meinungen berücksichtigten. Neben einer Reihe von Überlegungen und Beispielen, die die intuitive Kraft dieser Kohärenztheorie belegen sollen, zeigt die Kohärenztheorie ihre Leistungsfähigkeit speziell in der bisherigen Domäne der empiristischen Theorien, den Beobachtungsaussagen. Für sie stütze ich mich auf die von BonJour entwickelte kohärenztheoretische Begründung von Wahrnehmungsaussagen, die auch das besondere Irrtumsrisiko bestimmter Typen von Beobachtungsaussagen besser als empiristische Konzeptionen erklären kann. Abgeschlossen wird die Ausgestaltung der Kohärenztheorie in Kapitel (V) mit einer Beantwortung der Standardeinwände, die gegen Kohärenztheorien erhoben werden. Da ist in erster Linie wieder das schon erwähnte Regreßargument zu nennen, das gerade Fundamentalisten gerne für ihre Position zitieren. Doch relativ zur Antwort des Fundamentalisten hat die Kohärenztheorie die eindeutig informativere Antwort anzubieten und kann darüber hinaus eine falsche Voraussetzung des Regreßarguments entlarven. Zusätzlich verstärke ich an diesem Punkt die Kohärenztheorie durch den epistemologischen Konservatismus, der noch einmal den diachronischen Charakter der Rechtfertigungstheorie betont. b) Metarechtfertigungen Im Verlauf der Ausarbeitung meiner Rechtfertigungstheorie wird die Plausibilität bestimmter Rechtfertigungsverfahren immer schon ein Thema sein - wie für die Wissensexplikation die Auseinandersetzung mit den Gettierschen Beispielen. Trotzdem bleibt noch Raum für ein eigenständiges drittes Projekt innerhalb der Erkenntnistheorie, das ,Metarechtfertigung" genannt wird. Für das entwickelte Rechtfertigungsverfahren soll gezeigt werden, daß es sich tatsächlich um einen Vorschlag für epistemische Rechtfertigungen handelt, d.h. ein Verfahren, das auf Wahrheit abzielt. Spätestens in diesem Rahmen haben wir uns mit den verschiedenen Formen des Skeptizismus auseinanderzusetzen, der das ganze erkenntnistheoretische Unternehmen bedroht. Der Skeptiker kann sich auf den vorgegebenen Rahmen einer realistischen Auffassung der Welt und den korrespondenztheoretischen Wahrheitsbegriff berufen, der immer eine Lücke zwischen unseren gerechtfertigten Überzeugungen und der Wahrheit läßt, von der der Skeptiker behauptet, wir könnten sie nicht überwinden. In meiner Antwort auf den Skeptizismus beschränke ich mich darauf, Erwiderungen auf zwei Typen von Skeptikern zu formulieren, nämlich einen Cartesianischen radikalen Skeptiker und einen sehr gemäßigten Skeptiker, der unsere Überzeugungen über unsere kausale Stellung in der Welt nicht gänzlich in Frage stellt. In beiden Fällen betrachte ich die skeptischen Einwände aber als sowohl verständliche wie auch berechtigte Herausforderungen, denen nicht leicht zu begegnen ist.

B. Wissenschaftliche Theorien und Erklärungen

25

Ein reflektives Unternehmen wie das der Metarechtfertigung wird dabei mit dem Problem konfrontiert, wie sich Behauptungen im Rahmen einer Metarechtfertigung selbst begründen lassen. Dazu wiederum auf die explizierten Rechtfertigungsverfahren zurückzugreifen, erscheint zirkulär. Zu Metarechtfertigungsverfahren Zuflucht zu nehmen, scheint nur auf einen Regreß immer höherer Ebenen zu fuhren. Trotzdem ist man natürlich auf den Einsatz bestimmter grundlegender Rechtfertigungsmöglichkeiten angewiesen. Dazu untersuche ich unter anderem eine bestimmte apriorische Anwendung des Schlusses auf die beste Erklärung, deren Schwachpunkte ich aufzeigen werde, und zu der ich eine Alternative vorschlagen möchte.

B. Wissenschaftliche Theorien und Erklärungen Die von mir vertretene Kohärenztheorie der Rechtfertigung bestimmt Kohärenz wesentlich als Erklärungskohärenz. Dabei blieb jedoch der Erklärungsbegriff selbst noch relativ unexpliziert. Diesen weißen Fleck auszufüllen ist die Aufgabe der letzten drei Kapitel meiner Arbeit, in denen ich aus den bereits genannten Gründen den Schwerpunkt der Explikation auf die wissenschaftlichen Erklärungen lege.

1. Theorien und ihre innere Struktur Für sie wird noch deutlicher als etwa für Alltagserklärungen, wie sehr sie auf wissenschaftliche Theorien angewiesen sind. Allerdings zeigt sich schon in der allgemeinen Erkenntnistheorie, daß wir uns in den Begründungen einer Meinung immer auf allgemeine Annahmen oder „kleine Theorien" stützen müssen. Schon aus diesem Grund lohnt es sich, die Explikation von „Erklärungskohärenz" mit einer Untersuchung von Theorien und ihren Leistungen für den Zusammenhalt unseres Wissens zu beginnen (Kap. VII). Bei der Untersuchung, was Theorien sind, präsentieren sie sich keineswegs als eine nahezu amorphe Menge von Sätzen, wie es etwa noch von den logischen Empiristen oder den Popperianern angenommen wurde. Vielmehr weisen sie eine Vielzahl von inneren Komponenten auf. Die ermöglichen es ihnen, anhand eines komplizierten Zusammenspiels, Beobachtungsdaten aber auch andere Theorien in einen Zusammenhang zu stellen. Um die innere Struktur von Theorien und das Zusammenwirken der Komponenten verstehen zu können, setze ich die sogenannte strukturalistische Auffassung von Theorien ein, die auf Arbeiten von Suppes und Sneed zurückgeht und in Deutschland vor allem durch Wolfgang Stegmüller Verbreitung fand. Diese semantische Konzeption versucht anhand von Fallstudien - aus inzwischen fast allen Wissenschaftsbereichen (s. dazu Diederich/Ibarra/Mormann 1989) - die Funktionsweise von Theorien zu erfassen, indem sie den Informationsflüssen innerhalb von Theorien und zwischen Theorien nachgeht. Theorien sind demnach hierarchisch aufgebaute Netze, die mit Hilfe von Grundgesetzen und Spezialgesetzen, innertheoretischen und intertheoretischen Brückenstrukturen sowie durch die Einführung theoretischer Ober-

26

I Epistemologie und Wissenschaftstheorie

modelle versuchen, eine systematische Konzentration unserer Erkenntnisse zu erreichen. Aufgrund dieser differenzierten Sicht von Theorien läßt sich der empirische Gehalt, d.h. die mit einer Theorie aufgestellte Behauptung über die Welt, präzisieren. Es werden dabei viele metatheoretische Phänomene zugänglich, wie z. B. die Bedeutung der allgegenwärtigen Approximationen in quantitativen empirischen Theorien für ihren Gehalt. Der ist wiederum eng verbunden mit der Erklärungsstärke und den Erklärungsspielräumen der Theorie, die sich in diesem Rahmen ebenfalls bestimmen lassen.

2. Unterschiedliche Erklärungskonzeptionen In den Kapiteln (VIII) und (IX) entwickle schließlich ich meine Antwort auf die Fragen, wieso wir für Erklärungen auf Theorien angewiesen sind und was unter einer Erklärung zu verstehen ist. Dazu nenne ich neben der epistemischen Funktion, die Erklärungen zu erfüllen haben - die im erkenntnistheoretischen Teil der Arbeit bereits ausführlich erörtert wurde - eine andere wesentliche Funktion von Erklärungen: Sie sollen uns zu einem Verständnis bestimmter Vorgänge verhelfen. Der Verstehensbegriff ist seinerseits erläuterungsbedürftig, wobei ich an Explikationsvorschläge von Michael Friedman und Karel Lambert anknüpfe. Unter diesen Gesichtspunkten - und natürlich auch anhand von Beispielen - werden unterschiedliche wissenschaftstheoretische Ansätze bewertet, für die ich mit dem klassischen deduktiv nomologischen Erklärungsschema von Hempel und seinen Schwierigkeiten den Anfang mache. Einige grundlegende Fragen der Debatte lassen sich bereits an diesem Schema erörtern. So argumentiere ich mit Beispielen aus der Wissenschaftspraxis gegen Hempel dafür, daß Naturgesetze weder notwendige noch hinreichende Bestandteile von Erklärungen darstellen; und auch Hempels Berufung auf elliptische oder statistische Erklärungen vermag die nomologische Sichtweise von wissenschaftlichen Erklärungen nicht zu retten. Entsprechende Einsichten und vor allem Probleme der Kontextabhängigkeit von Erklärungen waren der Anlaß für die Entwicklung von pragmatischen Erklärungstheorien. Die Einbeziehung pragmatischer Aspekte von Erklärungen stellt unbestritten eine fruchtbare Ergänzung einer Explikation von Erklärung dar. Sie kann aber nicht die Aufgabe ablösen, objektive Beziehungen zwischen Explanans und Explanandum zu ermitteln. Deshalb werden zwei prominente Ansätze zur Charakterisierung objektiver Erklärungsbeziehungen daraufhin untersucht, ob sie erfolgreich die Nachfolge der Hempelschen Theorie antreten können. Das ist zum einen die kausale Erklärungstheorie, für die Erklärungen eines Ereignisses in der Angabe seiner Ursachen bestehen (Kap. VIII) und zum anderen die Vereinheitlichungskonzeption von Erklärung, für die Erklärungen zwar weiterhin Deduktionen ä la Hempel sind, aber nur solche Deduktionen eine Erklärungsleistung erbringen, die vereinheitlichende und systematisierende Funktionen in einem bestimmten Sinn besitzen (Kap. IX). Für die kausalen Ansätze spricht insbesondere, daß sie die Asymmetrie der Erklärungsbeziehung nachzuzeichnen gestatten und wir intuitiv in vielen Fällen eine Aufdek-

B. Wissenschaftliche Theorien und Erklärungen

27

kung von Ursachen als erklärend ansehen. Das größte Problem, vor dem jede heutige kausale Erklärungstheorie zu bestehen hat, ist jedoch die Analyse von Kausalität selbst. Sie muß auf der einen Seite die meisten Fälle heutiger wissenschaftlicher Erklärungen abdecken können und auf der anderen Seite trotzdem noch inhaltlich hinreichend bestimmt sein, daß der Ausdruck ist Ursache von y" nicht zu einer bloßen Leerformel verfallt. Einer der prominentesten Versuche, diesen Erfordernissen gerecht zu werden, der von Wesley Salmon stammt, stellt eine Analyse von kausalen Prozessen und ihren Interaktionen ins Zentrum. Ihn unterziehe ich einer detaillierten Kritik. Allgemein schätze ich die Vorgehensweise der Proponenten kausaler Erklärungstheorien als nicht sehr erfolgversprechend ein, wenn es darum geht, eine vollständige Erklärungstheorie zu entwickeln, denn es gibt bereits zu viele Beispiele von nichtkausalen Erklärungen, die als wissenschaftliche „Erklärungen" nicht weniger überzeugend wirken als ihre kausalen Amtsbrüder. Auf entsprechende Beispiele stoßen wir bevorzugt in bestimmten Bereichen der Wissenschaft wie etwa der Evolutionstheorie oder in den Gesellschaftswissenschaften. Aber auch in zentralen Feldern der heutigen Physik finden wir mit der Quantenmechanik eine genuin statistische Theorie, die sich noch nicht einmal mehr in eine statistische Kausalvorstellung wie das „Common-Cause" Modell zwängen läßt. Die kausale Erklärungstheorie deckt daher zwar einen wichtigen Teilbereich von wissenschaftlichen Erklärungen ab, kann aber nicht beanspruchen, allgemein zu bestimmen, was unter „Erklärung" zu verstehen ist. Das ist auch nicht verwunderlich, denn eine Untersuchung allein der recht unterschiedlichen in der Physik vertretenen Modelle von Kausalität ergibt keine gehaltvollen Gemeinsamkeiten mehr, auf die eine Theorie kausaler Erklärungen aufbauen könnte. Die Kausalitätskonzeption erweist sich eher als ein Familienähnlichkeitsbegriff, der für eine Erläuterung des Erklärungsbegriffs zu wenige Gemeinsamkeiten für alle Typen kausaler Beziehungen mit sich bringt. Umfassender gelingt es dagegen den Vereinheitlichungskonzeptionen, heutige wissenschaftliche Erklärungen in einer Theorie zu erfassen. Das konnten insbesondere Friedman und Kitcher in einer Reihe von Fallstudien zeigen. Für sie gibt die Systematisierungsleistung von Theorien zugleich an, in welchem Maß sie unser Verständnis befördern und zur Erklärung der Welt beitragen. Beide haben denn auch in diesem Rahmen Explikationsvorschläge vorgelegt, die allerdings bei genauerer Analyse ebenfalls gravierende Mängel aufweisen. Für Friedman werden in wissenschaftlichen Erklärungen typischerweise nicht Einzelereignisse, sondern Phänomene, also allgemeinere Ereignistypen, erklärt. Wissenschaftliche Erklärungen bewirken nach Friedman vor allem eine Reduktion der Vielzahl von Phänomenen auf wenige grundlegende. Das versucht er am Beispiel der kinetischen Gastheorie zu belegen. Aber seine formale Explikation von Vereinheitlichung, die auf eine Zählung von Phänomenen angewiesen ist, weist schwerwiegende Defekte auf, die Kitcher schon bald aufdecken konnte. Trotzdem erfaßt Friedmans Konzeption wesentliche Ideen der Vereinheitlichung und kann als Wegweiser in die richtige Richtung dienen.

28

I Epistemologie und Wissenschaftstheorie

Einen anderen Weg zur Charakterisierung von Vereinheitlichung beschreitet Kitcher selbst, für den unsere besten wissenschaftlichen Erklärungen gerade darauf beruhen, daß wir mit nur wenigen Argumenttypen auskommen, um eine Vielzahl von Phänomenen abzuleiten. Statt der Reduktion vieler Phänomene auf wenige, besteht für Kitcher das Ziel der Vereinheitlichung in der Reduktion der (erklärenden) Argumente auf einige wenige Typen von Argumenten - Kitcher spricht hier von ,¿4rgumentschemata". Diese Typen werden im wesentlichen beschrieben durch die Grundgleichungen zentraler Theorien wie die Newtonschen Axiome. Kitcher lenkt unseren Blick von den Dingen, die vereinheitlicht werden, stärker auf die Art und Weise, wie wir sie mit Hilfe von Gesetzen vereinheitlichen. Das ist eine hilfreiche Ergänzung der Friedmanschen Ideen. Dabei betont auch Kitcher wie schon Friedman die Bedeutung holistischer Zusammenhänge für die Beurteilung von Erklärungen. Ob ein einzelner Erklärungsvorschlag eine gute Erklärung darstellt oder nicht, ist demnach nicht allein anhand seiner Struktur zu erkennen (astrologische Erklärungen können dieselbe Struktur aufweisen wie vorzügliche wissenschaftliche), sondern nur an seiner Einbettung in größere Zusammenhänge. Für seine Konzeption sprechen seine Fallstudien von wissenschaftlichen Theorien, deren Erklärungskraft er in seinem Ansatz überzeugend zu rekonstruieren weiß. Probleme treten allerdings wiederum in der Präzisierung dieser Idee von Vereinheitlichung auf. Um etwa der Gefahr durch triviale Argumentmuster zu entgehen - Kitcher spricht auch von „unechter Vereinheitlichung" muß er für seine Argumentmuster eine gewisse „Stringenz" verlangen, für deren Explikation er sich auf die Inhalte der Theorien zu beziehen hat. Das fällt ihm ausgesprochen schwer, da seine Konzeption eher auf einer abstrakteren Beurteilungsebene angesiedelt ist und er auch über keine ausgearbeitete Konzeption der inneren Struktur von Theorien verfügt. Hier kann die strukturalistische Wissenschaftsauffassung bessere Resultate erzielen und eine Bestimmung der Stringenz von Theorien auf eine Untersuchung ihres empirischen Gehalts zurückführen. Dabei wird der Schritt von einer eher syntaktischen Analyse bei Kitcher zu einer semantischen oder modelltheoretischen Auffassung im Sinne des Strukturalismus notwendig. Außerdem gelingt es Kitcher nicht, ein Phänomen einzufangen, das man besonders für hochentwickelte quantitative Theorien - die Kitcher nicht untersucht - und ihre Dynamik beobachten kann, nämlich das des Fortschritts durch Verkleinerung der notwendigen Unschärfemengen und Approximationen einer Theorie. Um dieses wissenschaftliche Phänomen der geringeren Unschärfen korrekt zu rekonstruieren, bedarf es ebenso einer semantischen Sichtweise auf Theorien wie an anderen Stellen. Das spricht wiederum für eine modelltheoretische Analyse, da diese Approximationen und ihre Bedeutung für den empirischen Gehalt einer Theorie exakt zu erfassen vermag. Eine noch stärkere Abkehr von der Kitcherschen Konzeption wird schließlich notwendig, weil Kitcher dem ,ßeduktions-Chauvinismus" verhaftet bleibt und nur deduktive Argumente für ihn wirklich erklärend sind. Doch viele Erklärungen in den Wissenschaften entsprechen nicht dieser Vorstellung: etwa in den Geschichtswissenschaften oder in den Fällen statistischer Theorien.

B. Wissenschaftliche Theorien und Erklärungen

29

Die semantische Theorienauffassung bietet dazu eine Lösung, die sowohl deduktive wie auch nichtdeduktive Erklärungen unter eine Konzeption, nämlich die der Einbettung in ein Modell, bringen kann. Das ist die Erklärungstheorie, die ich im letzten Kapitel der Arbeit ausarbeite. Sie ist nicht mehr dem Deduktions-Chauvinismus verpflichtet und kann von Einbettungen nicht nur im logisch präzisen Begriffsapparat der Modelltheorie sprechen, sondern auch in informellen Kontexten, in denen wir Erklärungsmodelle nur informell beschreiben oder vielleicht nur mit Analogiemodellen arbeiten. So läßt sich auch verstehen, inwiefern Alltagserklärungen als die informellen Vorläufer wissenschaftlicher Erklärungen zu betrachten sind und wo die Vorteile der letzteren liegen. Überdies gelingt es der semantischen Einbettungstheorie, die drei zentralen Beurteilungsdimensionen einer Vereinheitlichungskonzeption von Erklärung zu bestimmen, die man als ihre Systematisierungsleistung, ihre Stringenz (bzw. ihren Informationsgehalt) und ihre organische Einheitlichkeit bezeichnen kann. In dieser Analyse kann ich weiterhin das schon erwähnte Phänomen der Approximationen präzise behandeln und darüber hinaus eine andere in der Erklärungsdebatte schon mehrfach erhobene Forderung einlösen, nämlich zu ermitteln, welchen Beitrag die unterschiedlichen Theoriekomponenten zu einer Erklärung leisten. Dazu präsentiere ich eine Erklärungstheorie, die die vereinheitlichende Funktion der verschiedenen Teile einer (wissenschaftlichen) Theorie angibt. Sie schließt so die noch verbliebene Lücke in der diachronischen Kohärenztheorie der Rechtfertigung, die der intuitive und nicht weiter präzisierte Gebrauch des Erklärungskonzepts dort hinterlassen hatte. Dabei lassen sich mit der neuen Erklärungskonzeption außerdem viele der alten Probleme lösen, auf die das DN-Schema der Erklärung keine Antworten geben konnte. Es ist das Ziel dieses Buchs, ein Forschungsprogramm vorzustellen, das in konstruktiver Weise eine Kohärenztheorie der Rechtfertigung entwickelt, einen weitergehenden Vorschlag in der Debatte um wissenschaftliche Erklärungen gibt und darüber hinaus die engen Beziehungen dieser beiden Projekte deutlich macht. Natürlich kann ein so umfassendes Forschungsprogramm nicht mit einer Monographie als abgeschlossen angesehen werden, sondern bietet an nahezu allen Stellen Raum für eine weitere Ausarbeitung sowie zahlreiche Anhaltspunkte für Auswirkungen auf „Nebenkriegsschauplätze", denen ich hier noch nicht nachgehen konnte. Ich bitte den Leser daher um Verständnis, daß ich die Diskussionen an vielen Stellen nicht vertiefe, obwohl das naheliegend erscheint. Das habe ich vor allem dort nicht getan, wo ich den Eindruck hatte, die mir zur Zeit bekannten weitergehenden Analysen würden zwar hilfreiche Differenzierungen vornehmen, aber keine neuen konstruktiven Resultate für die Kohärenz- und Erklärungstheorie bieten.

II Der metatheoretische Rahmen

Ehe ich in die erkenntnistheoretische Diskussion um konkrete Ansätze für Rechtfertigungstheorien einsteige, sind einige Vorüberlegungen über die Rahmenbedingungen angebracht, unter denen diese Diskussion stattfinden soll. Im Teil (A) dieses Kapitels wird es daher um den methodologischen Rahmen der Arbeit gehen. Neben der Verteidigung gegen einen radikalen Skeptiker muß jede Rechtfertigungskonzeption auch gegenüber Konkurrenztheorien begründet werden. Doch wie kann man dabei vorgehen, auf welches Begründungsverfahren können wir uns berufen, wenn wir erst noch zu entscheiden haben, welches Verfahren tatsächlich Wahrheitsindikatoren liefert? Zunächst weise ich einige naturalistische Strategien zurück, die zu diesem Zweck vorgeschlagen wurden, aber schließlich trete ich für einen moderaten „methodologischen Naturalismus1'1' ein. Der Abschnitt (B) betrifft den semantisch-metaphysischen Rahmen, in dem die erkenntnistheoretischen Fragestellungen angesiedelt werden. Den Hintergrund der klassischen Erkenntnistheorie - auf den ich mich ebenfalls verpflichten werde - bilden korrespondenztheoretische und realistische Auffassungen, deren erkenntnistheoretische Bedeutung ich anhand einer kurzen Betrachtung der Alternativen verdeutlichen möchte. Der letzte größere Abschnitt (C) ist dem empirisch-deskriptiven Hintergrund gewidmet, der die grundlegende Struktur von Meinungssystemen auf einer phänomenologischen Ebene beschreibt und die für mein Unternehmen wesentlichen Elemente in Erinnerung ruft. Einige der Punkte, die in diesem Kapitel zur Sprache kommen, werden dem einen oder anderen recht selbstverständlich erscheinen - das hoffe ich sogar - , trotzdem werden alle genannten Punkte in der erkenntnistheoretischen Diskussion an bestimmten Stellen vernachlässigt, übersehen oder sogar explizit abgestritten. Deshalb ist es erforderlich, diesen Rahmen noch einmal explizit anzugeben und kurz zu seinen Gunsten zu plädieren.

A. Zur Naturalisierung der Erkenntnistheorie Schon in der Einleitung habe ich darauf hingewiesen, daß ich mit einer naturalistischen Vorgehensweise in der Erkenntnistheorie sympathisiere, mich aber in späteren Phasen meines Projekts von einer rein naturalistischen Methodologie lösen möchte. Mein Verhältnis zur naturalistischen Vorgehensweise genauer zu bestimmen, ist für den Fortgang der Untersuchung unerläßlich, und ich möchte deshalb den systematischen

32

II Metatheoretischer

Rahmen

Teil meiner Arbeit damit beginnen. Unter einer Naturalisierung der Erkenntnistheorie werden von Philosophen leider recht unterschiedliche Dinge verstanden. Der wohl radikalste Naturalist der heutigen Erkenntnistheorie ist der amerikanische Philosoph Willard van Orman Quine, für den die Erkenntnistheorie ein Projekt ist, das die Philosophie besser gleich an die Naturwissenschaft - vermutlich die empirische Psychologie abgeben sollte. Eine Beschäftigung mit Quines radikalen Ansichten wird daher den Ausgangspunkt meiner Stellungnahme zum Naturalismus bilden. Neben Quine firmieren allerdings auch noch moderatere Naturalisten unter diesem Stichwort. Grundsätzlich läßt sich der epistemologische Naturalismus am besten als eine Ansicht darüber klassifizieren, wie man in der Erkenntnistheorie vorzugehen hat, also als eine Art von Meta-Erkenntnistheorie oder Methodologie der Erkenntnistheorie. Keith Lehrer (1990, 154) faßt darunter alle Positionen, die die Erkenntnistheorie allein durch natürliche Begriffe wie den der kausalen Beziehungen analysieren oder sogar vollständig auf solche Begriffe reduzieren wollen. Dazu gehören dann vor allem die externalistischen Positionen, denen ich das Kapitel (III.A) gewidmet habe. Trotzdem gehört für diese Autoren eine Analyse, wie eine dritte Bedingung für Wissen auszusehen hat, sehr wohl noch zur Erkenntnistheorie philosophischer Prägung. Sie verlangen nur, daß diese Bedingung sich wesentlich auf kausale Zusammenhänge stützen muß. Eine Überzeugung, die Wissen darstellen soll, muß auf „zuverlässige Weise" durch unsere Umwelt verursacht sein (s. III.A). Natürlich gehört dann die Untersuchung, ob diese Beziehung in einem konkreten Einzelfall besteht, ganz in den Zuständigkeitsbereich des Naturwissenschaftlers. Aber die Präzisierung der Bedingung selbst verbleibt innerhalb der Philosophie. Devitt (1991, Kap. 5.8) bestimmt den Begriff des Naturalismus noch liberaler: Zunächst beginnt man mit einer Beschreibung der tatsächlich akzeptierten epistemischen Verfahren und Bewertungen. Das ist ein „low-level" empirisches Unternehmen. In einem zweiten Schritt wird man versuchen, anhand von Konsistenz- und Kohärenzüberlegungen Kriterien für gute und schlechte Rechtfertigungen anzugeben. Das ist eine vage Beschreibung eines Projekts, das zumindest durch seinen metatheoretischen Status und seine eindeutig normativen Aspekte im zweiten Schritt nicht in den gewöhnlichen Zuständigkeitsbereich der Naturwissenschaften fällt. Unter dieses Verständnis von naturalistischer Erkenntnistheorie gehört auch das von Rawls propagierte Verfahren zur Begründung normativer Aussagen, das Rawls (1979, 38) selbst als „reflective equilibrium" bezeichnet. In diesem recht liberalen Sinn von Naturalismus, in dem man zwar mit einer Beschreibung unserer tatsächlichen epistemischen Begründungspraxis startet, aber dann mit Hilfe des Verfahrens eines reflektiven Gleichgewichts zu einer normativen Theorie gelangt, möchte auch ich mich als Naturalisten bezeichnen. Diese stellt allerdings eindeutig keine naturwissenschaftliche Theorie mehr dar, sondern eine Metatheorie mit normativer Kraft. Da es sich hierbei um einen Naturalismus handelt, der unsere tatsächlichen Bewertungsmethoden zum Ausgangspunkt nimmt, spreche ich manchmal auch von „ methodologischem Naturalismus". Das dient zugleich einer Abgrenzung von den radikalen Naturalisierungsversuchen Quines.

A. Zur Naturalisierung der Erkenntnistheorie

33

1. Genese und Rechtfertigung Als Ausgangspunkt der Erörterung soll die alte Unterscheidung zwischen den zwei Fragen dienen, die man beide mit einer Äußerung wie: „Warum glaubst Du das?" meinen kann. Die eine fragt danach, wie es dazu kam, daß man eine bestimmte Meinung annahm, während die andere fragt, welche Rechtfertigungen man für diese Meinung besitzt. Daß die Antworten auf diese beiden Fragen keineswegs immer identisch sein müssen, können viele Beispiele illustrieren. Nehmen wir an, ich halte die politische Partei X für die beste Partei. Auf die erste Frage, wie ich zu dieser Ansicht kam, könnte ich z. B. antworten: Meine Eltern fanden die Partei X schon immer am besten, und ich übernahm früher alle Ansichten von meinen Eltern, unter anderem auch diese. Das scheint eine annehmbare Antwort auf die erste Frage zu sein, ist aber nicht befriedigend als Antwort auf die zweite Frage, wie ich meine Behauptung, die Partei X sei die beste, begründen kann. Solange ich meine Eltern nicht in politischen Fragen für besonders kompetent halte - und das war hier nicht vorausgesetzt erwarte ich auf die zweite Frage eine Antwort ganz anderer Art. Etwa eine Erklärung, wieso ich die Mietrechtspolitik und andere Vorhaben der Partei X für besonders gut halte oder Ähnliches. Die erste Antwort gibt mir sozusagen den kausalen Weg an, auf dem ich zu dieser Meinung gelangt bin und bezieht sich damit auf Vergangenes, während die zweite Antwort nach der Verankerung dieser Meinung in meinem heutigen Überzeugungssystem fragt. Beide exemplarisch vorgeschlagenen Antworten können daher auch nebeneinander bestehen und zugleich wahr sein. Meine Vorliebe für die Partei X kann einfach aus der Übernahme der Ansichten meiner Eltern entstanden sein, aber gerechtfertigt ist sie heute durch eine detaillierte Analyse der Politik von X. Das Phänomen des Auseinanderklaffens der Entstehung einer Meinung und ihrer Rechtfertigung findet sich natürlich nicht nur im Alltag, sondern genauso in den Wissenschaften. Der Chemiker Kekule, der das System der chemischen Strukturformeln entwickelt hat, beschrieb einige Jahre später, wie er im Jahre 1865 die spezielle Strukturformel für das von Faraday entdeckte Benzol fand. Während einer Reise hatte er einen Tagtraum, in dem Ketten aus Kohlenstoffatomen wie lebende Wesen herumtanzten und sich plötzlich zusammenrollten wie eine Schlange. Da kam er auf den entscheidenden Gedanken: Das Benzolmolekül mußte ringförmig sein. Diese Überzeugung Kekules konnte er später anhand einer entsprechenden Strukturformel und vieler Daten bestätigen.1 Auch in diesem Beispiel finden wir eine Antwort auf die erste Frage, die nur wenig mit der Antwort auf die zweite Frage gemein hat. Man sollte die Fragen der Genese einer Meinung und die ihrer Rechtfertigung wenigstens zu Beginn einer Analyse der Struktur unserer Erkenntnis voneinander trennen, und es werden gute Argumente erforderlich, wenn man trotzdem behaupten möchte, daß die Antworten auf die beiden Fragen zusammenfallen. Dabei ist offensichtlich, daß die erste Frage keine genuin philosophische Frage ist, sondern eher in den Bereich der empirischen Psychologie fällt. Das ist für die zweite Frage aber alles andere als selbstverständlich, und Quines Plädoyer für eine naturalisierte Erkenntnistheorie lebt zuweilen

34

II Metatheoretischer

Rahmen

davon, daß er diese beiden Fragen nicht klar genug unterscheidet. Quines Position wurde motiviert durch seine Kritik an seinen empiristischen Vorgängern - bei denen die Trennung auch nicht immer deutlich ist - , die in ihrer Erkenntnistheorie Wahrnehmungstheorien darüber vorschlagen, wie wir von bestimmten Beobachtungen, Reizungen der Sinnesorgane oder gar Sinnesdaten zu unseren Meinungen gelangen. Dabei bedienen sie sich häufig einer Reihe problematischer empirischer Annahmen und Konstruktionen wie Sinnesdaten oder dem empirisch Gegebenen. Für diese Ansätze hat Quine sicher Recht, daß sie aus heutiger Sicht nicht immer als gelungene Forschungsprogramme anzusehen sind, und wir an diesen Stellen lieber auf die empirische Forschung setzen sollten, als eine Lehnsessel-Psychologie zu betreiben. Mit den angesprochenen Wahrnehmungstheorien ist aber nur ein kleiner Teilbereich der Erkenntnistheorie in den Blick genommen worden. Davon, daß dieser Bereich vermutlich besser an die Psychologie delegiert werden sollte, können wir nicht einfach schließen, auch das angeführte Rechtfertigungsprojekt, das mit der zweiten Frage verknüpft ist, gehöre ebenfalls zur Psychologie. Die Psychologie beschreibt und erklärt nur, wie wir zu bestimmten Meinungen gelangen - jedenfalls, wenn sie es schafft, so erfolgreich zu sein aber doch nicht, wann eine Meinung als gut begründet in unserem Meinungssystem zu gelten hat. Auch wenn konkrete empirische Theorien in der Rechtfertigung unserer Meinungen eine wichtige Rolle zu spielen haben, so klären diese Theorien doch nicht die Frage, was eine gute Rechtfertigung ausmacht und von einer schlechten unterscheidet. Das bleibt weiterhin einer metatheoretischen Reflexion etwa über die rechtfertigende Rolle bestimmter Theorien in einem bestimmten Kontext überlassen. Die Frage nach der Güte von Rechtfertigungen ist aber sicherlich sinnvoll, denn wir finden im Alltag, in der Politik und in den Wissenschaften eindeutige Beispiele für gute und schlechte Begründungen. Man muß sich nur einmal konkret vor Augen führen, welche Folgen die Quinesche Konzeption der Abgabe der Erkenntnistheorie an die empirische Psychologie bezogen auf den Fall wissenschaftlicher Forschung hätte, wenn wir sie tatsächlich ernst nähmen. Um die empirische Bestätigung einer Theorie einzuschätzen, müßte ein Psychologe denjenigen untersuchen, der an die Theorie glaubt, um herauszufinden, wie der Weg der Überzeugungsbildung von den Sinnesreizungen bis hin zur Entwicklung der Theorie bei ihm vor sich ging. Das scheint kaum ein hilfreiches Verfahren zur Bewertung wissenschaftlicher Hypothesen zu sein.2 Eine Zeitschrift wie Nature wird keine Psychologen zu ihren Autoren schicken, sondern diese eher fragen, welche Fakten und Experimente sie anbieten können, die ihre Theorie stützen. Ob diese das tun und in welchem Ausmaß, ist dann Gegenstand einer logischen Analyse der Beziehung zwischen Theorie und Fakten und ihrer metatheoretischen Bewertung. Wenn die Fakten, die ein Wissenschaftler uns nennt, stimmen, was sich unter anderem mit Hilfe eigener Experimente überprüfen ließe, könnte uns auch die Mitteilung des untersuchenden Psychologen, daß der Wissenschaftler selbst nicht an seine Theorie glaubt und uns nur hinters Licht führen wollte oder alle eigenen Experimente und Ableitungen nur geträumt hat, im Hinblick auf die Glaubwürdigkeit seiner Theorie kalt lassen - nicht so natürlich im Hinblick auf die

A. Zur Naturalisierung

der

Erkenntnistheorie

35

Integrität des Wissenschaftlers. Wieso nimmt Quine die intuitive Unterscheidung in Ursachenforschung und Bewertung von Meinungen trotzdem nicht ernst? Quine scheint beispielsweise in (1975) für die Erkenntnistheorie nur ein wichtiges philosophisches Projekt zu identifizieren, das man als eine Form von sprachlich gewendeter erster Philosophie beschreiben könnte: die Übersetzungsreduktion all unserer Begriffe und insbesondere die der Wissenschaften auf die Begriffe einer unteren, etwa einer phänomenalen, Ebene. Das Scheitern Carnaps, der dieses Unternehmen in seinem Logischen Aufbau der Welt am weitesten vorangetrieben hat, und die Übersetzungsunbestimmtheit zeigen für Quine, daß dieses Unternehmen nicht gelingen kann (s. Koppelberg 1987, 301ff). Auch mir scheint dieses Projekt einer Übersetzungsreduktion auf erste Grundbegriffe nicht besonders aussichtsreich.3 Das Reduktionsprojekt ist obendrein ein Vorhaben, das in den Bereich der rein sprachphilosophisch geprägten Philosophie fällt, die den Rahmen der metatheoretischen Untersuchung unnötig einschränkt und deren Bedeutung für die Erkenntnis- und Wissenschaftstheorie leicht überschätzt wird.4 Andere Fragen, d.h. Fragen außerhalb der Übersetzungsreduktion und formaler Gebiete wie der Logik und Mathematik, siedelt Quine hingegen in den empirischen Wissenschaften an. Nach dem Scheitern des Reduktionsprojekts kann es für ihn daher nur noch empirische Fragen geben, die in den Fachwissenschaften zu behandeln sind. Die Philosophen haben zu Recht die Hoffnung aufgegeben, alles in logisch-mathematische und Beobachtungsbegriffe übersetzen zu können,... Und manche Philosophen haben in dieser Irreduzibilität den Bankrott der Erkenntnistheorie gesehen. Carnap und die anderen logischen Positivisten des Wiener Kreises hatten schon den Begriff „Metaphysik" in einen pejorativen, Sinnlosigkeit konnotierenden Gebrauch gedrängt; der Begriff „Erkenntnistheorie" war der nächste. Wittgenstein und seine Jünger vor allem in Oxford, fanden eine philosophische Restbeschäftigung in der Therapie: nämlich Philosophen von der Verblendung zu kurieren, es gäbe erkenntnistheoretische Probleme. Aber ich meine, daß es an dieser Stelle wohl nützlicher ist, statt dessen zu sagen, daß die Erkenntnistheorie auch weiterhin fortbesteht, jedoch in einem neuen Rahmen und mit einem geklärten Status. Die Erkenntnistheorie oder etwas Ähnliches erhält ihren Platz innerhalb der Psychologie und somit innerhalb der empirischen Wissenschaften. (Quine 1975, 114f; kursiv von mir)

Doch damit übersieht Quine, daß noch Raum übrig bleibt für metatheoretische Untersuchungen z. B. über die Methoden in den Naturwissenschaften, die sicherlich keine definitorischen Reduktionen beabsichtigen, aber als metatheoretische Projekte zumindest zum Teil auch normativen Charakter haben und nicht zuletzt dadurch eine gewisse Eigenständigkeit gegenüber den rein naturwissenschaftlichen Fragestellungen besitzen. Auch der Hinweis von Koppelberg (1987, 181 f), daß Theorien nicht nur durch Tatsachen bestimmt werden, sondern auch „normative Ingredienzen" in den Naturwissenschaften eine Rolle spielen, entlastet Quine nicht. Die metatheoretische Untersuchung solcher Werte und ihrer Funktionen, ihrer Begründung sowie ihrer Richtigkeit, ist zu unterscheiden von ihrer Verwendung in den Wissenschaften. Der Naturwissenschaftler, der sich bei seiner Theorienwahl auf bestimmte Normen stützt, wird allein dadurch noch

36

II Metatheoretischer Rahmen

nicht zu einem Metawissenschaftler, der diese Normen untersucht. Ebensowenig wie der Vogel, der die Gesetze der Aerodynamik für sein Fliegen ausnutzt, deshalb schon ein Physiker ist. Quines strikte Ablehnung einer Erkenntnistheorie mit normativen Anteilen erinnert mich an die Ansicht der logischen Empiristen, für die moralische Normen nicht rational diskutierbar waren, und wird mit ähnlich puritanischer Strenge vorgetragen. 5 So wenig wie dieses Dogma der logischen Empiristen die Philosophen von einer rationalen Diskussion und Bewertung moralischer Normen abhalten konnte, kann Quines Argumentation mit der Konsequenz, normative Überlegungen seien in der Erkenntnistheorie unmöglich, eine Diskussion der zahlreichen heute vorliegenden Ansätze zu entsprechenden Erkenntnistheorien ersetzen. Eine klare Trennung von Genese und Rechtfertigung von Meinungen erleichtert die Einschätzung von Quines Position: Wenn er die Erkenntnistheorie an die empirischen Wissenschaften abgeben möchte, so bedeutet das eigentlich etwas anderes, als daß die bisherigen erkenntnistheoretischen Fragen nun an eine andere Disziplin verwiesen werden. Sie werden aufgegeben und andere Fragen - eben die der empirischen Wissenschaften - sollen an ihrer Statt in den Vordergrund treten. Er plädiert für einen Themenwechsel und nicht eine andere Art, dieselben Fragen der klassischen Erkenntnistheorie zu beantworten. Quine selbst verschleiert diesen Unterschied zwischen der genetischen und der Rechtfertigungsfrage gern durch die Redeweise vom Erwerb von Informationen. Die Erkenntnistheorie verwirft der Naturalismus nicht, sondern er assimiliert sie der empirischen Psychologie. Die Wissenschaft selbst sagt uns, daß unsere Informationen über die Welt auf Erregungen unserer Oberflächen beschränkt sind, und dann wird die erkenntnistheoretische Frage ihrerseits zu einem innerwissenschaftlichen Problem: Wie ist es uns menschlichen Tieren gelungen, aufgrund derart beschränkter Informationen zur Wissenschaft zu gelangen? (Quine 1985, 95)

Innerwissenschaftlich wird aber höchstens die kausale Genese unserer wissenschaftlichen Überzeugungen erforscht. Quine berücksichtigt wiederum keine metatheoretischen Untersuchungen über die Fachwissenschaften und ihre Normen, die auf der Ebene einer Metatheorie gerade nicht innerwissenschaftlich im Sinne Quines sind. Aber was sollte uns hindern, auch die Normen von Wissenschaftlern in rationaler Weise zu kritisieren? Quines (1985, 94) einziges Argument dafür scheint zu sein, daß es keine erste Philosophie geben kann, von der aus sich diese Praxis kritisieren ließe. Damit bringt er die fragwürdige Voraussetzung ins Spiel, daß solch eine Kritik nur auf der Grundlage einer ersten Philosophie stattfinden könne. Daß das keineswegs das einzige Verfahren zur Begründung normativer Sätze sein muß, ist aber längst bekannt und wird in (A.3) weiter ausgeführt. Es bleiben also - auch wenn man mit Quine in der Meinung übereinstimmt, daß es keine erste Philosophie als sichere Grundlage der Erkenntnis geben kann - die Fragen offen: Warum sollen die klassischen erkenntnistheoretischen Fragen nun nicht mehr weiter untersucht werden? Warum sollten wir nur noch quid-factis Fragen und keine de-jure Fragen mehr stellen? Damit ist natürlich noch nicht vorentschieden, ob es einen allgemeinen Kanon von Regeln der epistemischen

A. Zur Naturalisierung der Erkenntnistheorie

37

Rechtfertigung zu entdecken gibt oder vielleicht nur Regeln für bestimmte Gebiete unserer Erkenntnis oder sogar noch weniger. Das kann erst am Ende eines derartigen Vorhabens beurteilt werden. Die neueren Arbeiten in diesem Bereich der Philosophie geben jedoch keinen Grund für den Quineschen Pessimismus oder sogar einen darauf gegründeten Philosophieverzicht. Wie steht Quine dann zum Skeptiker? In dieser Frage ist seine Haltung nicht immer einheitlich,6 doch in der Hauptsache betrachtet er ihn als „Überreaktion", die sich als Reaktion auf bestimmte Irrtumsmöglichkeiten ergab. Dennoch bleibt der Skeptizismus auch für Quines eigene Darstellung unserer Erkenntnis ein virulentes Problem, obwohl er ihn nonchalant beiseite zu schieben versucht. An verschiedenen Stellen (z. B. in 1975a) beschreibt er den kausalen Weg unserer Erkenntnis als auf der Reizung unserer Sinnesorgane durch Lichtstrahlen und Molekülen beruhend. Da er nicht wirklich zwischen Fragen der Rechtfertigung und der Genese unserer Meinungen unterscheidet und die kausale Genese unserer Meinungen für ihn immer bei unseren Sinnesreizungen beginnt, beruhen seiner Meinung nach alle unsere Überzeugungen auch im Sinne ihrer Begründbarkeit auf unseren Sinnesreizungen.7 Genau auf dieses fundamentalistische Bild unserer Erkenntnis weiß der radikale Skeptiker seine Einwände aufzubauen. Er bietet uns mögliche Modelle an, in denen wir dieselben Wahrnehmungen oder Sinnesreizungen haben, wie in unserem jetzigen Bild der Welt, aber ihre kausalen Entstehungsgeschichten sind von unseren radikal verschieden. Wir sind in diesen Modellen etwa Spielbälle eines bösen Dämons oder Gehirne in der Nährlösung eines üblen Wissenschaftlers, dem es mit Hilfe eines Computers gelingt, irreführende Sinnesreizungen vorzunehmen. Die Herausforderung des Skeptikers an Quine besagt nun: Wieso sollten wir diese Möglichkeiten nicht genauso ernst nehmen, wie die von uns bevorzugten Entstehungsgeschichten, wenn doch unser einziger Zugang zur Welt in unseren Sinnesreizungen besteht, die uns - so sind die skeptischen Modelle konstruiert - keinen diskriminierenden Hinweis für eines der beiden Modelle geben können? Auch vis-à-vis dem Skeptiker hat Quine keine überzeugenden Gründe für seine Zurückweisung dieser Fragen anzubieten. Quine kommt dem Skeptiker mit seinem Holismus eigentlich zunächst ein Stück weit entgegen, denn wir können nach Ansicht Quines unser Überzeugungssystem an vielen Stellen - im Prinzip an allen beliebigen Stellen - umbauen, um es mit unseren Beobachtungen in Einklang zu bringen (s. Quine 1979, 47). An welchen Stellen wir Änderungen vornehmen, scheint für Quine deshalb relativ willkürlich zu sein, weil er metatheoretische Bewertungen nicht sehr schätzt und unsere Theorien durch die Erfahrung immer wesentlich unterbestimmt bleiben. Ein solcher Umbau kann nach Quine sogar die zentralsten Teile unseres Wissen wie z. B. die eingesetzte Logik betreffen. Der Skeptiker geht nun einfach noch einen Schritt weiter und nimmt die Unterbestimmtheit auch für seine radikalen skeptischen Hypothesen in Anspruch. Die Daten, für Quine die Sinnesreizungen, genügen nicht, um unsere gewöhnlichen Theorien über die Welt festzulegen, aber ebensowenig, um unser übliches Weltbild gegenüber den radikalen skeptischen Hypothesen zu bevorzugen. Die Sinnesreizungen enthalten keine internen

38

II Metatheoretischer

Rahmen

Hinweise, ob sie vom Computer des Wissenschaftlers erzeugt wurden, oder auf die normale Weise. Also fragt der Skeptiker, warum wir seine Hypothesen ablehnen. Quines Antwort, diese seien Überreaktionen, nennt keine Anhaltspunkte, wieso diese Frage illegitim sein sollte (s. Quine 1981, 475), wo sie doch nur eine konsequente Fortführung seiner eigenen Überlegungen darstellen. So fuhrt Quines eigene liberale Methodologie gepaart mit seinen fundamentalistischen Tendenzen, die sich aus seiner empiristischen Beschreibung unseres Erkenntnisprozesses ergeben, direkt zu skeptischen Fragen, wenn man sie nur konsequent anwendet. Zumindest der radikale Naturalismus Quines ist meines Erachtens somit unbegründet, und wir finden weiterhin sinnvolle Fragestellungen in der Epistemologie, die wir nicht komplett an die Naturwissenschaften abgeben können, sondern müssen auf die Herausforderung durch den Skeptiker reagieren. Daher werde ich im übernächsten Abschnitt für eine andere und moderatere Form von Naturalismus plädieren.

2. Resignation in bezug auf das Projekt einer ersten Philosophie Ein Grund für die wachsende Popularität naturalistischer Ansätze in der Erkenntnistheorie ist vermutlich die Einsicht, daß die hochgesteckten Anforderungen des radikalen Skeptikers nicht erfüllt werden können. So sieht sich der Erkenntnistheoretiker der Forderung Descartes aus seiner ersten Meditation gegenüber: Da ja schon die Vernunft anrät, bei nicht ganz gewissen und zweifelsfreien Ansichten uns ebenso der Zustimmung zu enthalten wie bei solchen, die ganz sicher falsch sind, so reicht es für ihre Verwerfung insgesamt aus, wenn ich bei einer jeden irgendeinen Anlaß zum Zweifeln finde. (Descartes 1986, 63; kursiv von mir)

Diese Forderung nach völliger Gewißheit scheint uns heute ausgerechnet für die interessantesten Teile unseres empirischen Wissens unerreichbar zu sein. Das gilt um so mehr, wenn man unter Gewißheit nicht nur subjektive Sicherheit versteht - wie es der Begriff zunächst nahelegen könnte - , sondern sogar Unkorrigierbarkeit im Sinne von Williams (1981, 31). Es genügt für das Cartesische Unternehmen, ein sicheres Fundament für unsere Erkenntnis zu schaffen, natürlich nicht, daß wir uns bestimmter Meinungen sicher sind, in dem Sinn, daß uns keine Zweifel mehr bedrängen oder gerade einfallen. Das mag vielleicht schon anhand mangelnder Phantasie oder posthypnotischer Befehle gelingen. Es soll vielmehr aus unserer Überzeugung, daß p, auch tatsächlich folgen, daß p. Unsere Überzeugung soll ihre Wahrheit garantieren. Im Sinne der subjektiven Sicherheit waren sich einige Gelehrte des Mittelalters sicher, daß die Erde den Mittelpunkt der Welt darstellt und die Sonne sich um die Erde dreht, aber diese Überzeugungen waren nicht unkorrigierbar und bildeten daher keine sichere erste Grundlage unseres Wissens. Doch im Bereich der Wissenschaften, aber auch für weite Teile unseres Alltagswissens, gerät die Forderung Descartes in einen massiven Konflikt mit unseren übrigen metatheoretischen Ansichten. So sind wohl die meisten heutigen Wissenschaftler Fallibilisten, die metatheoretische Überzeugung teilen, daß unsere wissenschaftlichen

A. Zur Naturalisierung der Erkenntnistheorie

39

Theorien immer einen hypothetischen Charakter behalten und damit immer die Möglichkeit offen bleibt, daß sie falsch sind.8 Der Fallibilismus impliziert, daß wir die Forderung Descartes nach einer sicheren Grundlage unserer Erkenntnis nie werden einlösen können. Einige Erkenntnistheoretiker haben sich deshalb mit einer gewissen Resignation von dem klassischen Unternehmen Erkenntnistheorie abgewandt. So beschreibt auch Devitt (1991, 75) in etwa seine Hinwendung zum Naturalismus. Die Suche nach Gewißheit paßt nicht mehr zu unseren anderen epistemischen Überzeugungen, die stark durch die Überlegungen Poppers beeinflußt wurden. Ein ähnliches Motiv fanden wir auch bei Quine für seine naturalisierte Erkenntnistheorie. Gerade die empiristisch geprägten fundamentalistischen Erkenntnistheorien - in deren Tradition Quine steht, die er aber auch kritisiert - sind seiner Ansicht nach in dem Versuch einer Grundlegung unseres Wissens gescheitert.9 Quine veranlaßte das zu einem allgemeinen Verzicht in bezug auf Fragestellungen der Erkenntnistheorie kombiniert mit einer gewissen Form von Wissenschaftsgläubigkeit. Er scheint manchmal davon auszugehen, mit dem Scheitern einer ersten Philosophie sei keine Form von Erkenntnistheorie mehr möglich. Diese zwei Optionen, Suche nach absoluter Gewißheit oder Aufgabe der Erkenntnistheorie, sind aber sicher nicht erschöpfend, was große Teile der heutigen Erkenntnistheorie beweisen. Auch in dieser Arbeit soll ein dritter Weg für die Erkenntnistheorie beschritten werden.

3. Methodologischer Naturalismus Während der Quinesche Naturalismus in der Erkenntnistheorie sich in erster Linie der kausalen Entstehungsgeschichte unserer Meinungen zuwendet und nicht dem Problem, wie sie gerechtfertigt werden können, möchte ich einen anderen naturalistischen Ansatz vorschlagen. Statt die empirische Frage zu stellen, welche Mechanismen unsere Überzeugungen hervorgerufen haben, beginne ich mit der ebenfalls empirischen Frage, welche Rechtfertigungen und Rechtfertigungsverfahren wir gewöhnlich als gut anerkennen. Diese Beurteilung von konkreten Rechtfertigungen als mehr oder weniger gut hat immer schon normativen Charakter, der sich in der rein naturwissenschaftlichen Aufklärung der kausalen Zusammenhänge zwischen unseren Überzeugungen und den sie verursachenden Ereignissen allein nicht wiederfinden läßt. Wir sollten uns vielmehr auf unsere Werturteile beziehen, wie überzeugend eine bestimmte Begründung unserer Meinungen ist. Sie bieten uns erste Anhaltspunkte, in welchen Fällen, wir von erfolgreichen und in welchen wir von minderwertigen Rechtfertigungsversuchen sprechen sollten. Derartige Einschätzungen von Begründungen manifestieren sich im Alltagsleben und ebenso in politischen Kontexten, wo wir unsere jeweiligen Behauptungen zu begründen haben und diese Begründungen von den Zuhörern oder Wählern je nach Bewertung goutiert oder abgelehnt werden können. Ähnliche Beispiele finden wir um so mehr in stärker institutionalisierten Rechtfertigungsverfahren wie der Wahrheitsfindung vor Gericht oder in den Wissenschaften, bei denen unsere Vorstellungen von einer gelunge-

40

II Metatheoretischer

Rahmen

nen Rechtfertigung noch stärker ausgeprägt sind. In einem ersten Schritt der Untersuchung werde ich unsere üblichen epistemischen Bewertungen und die Rechtfertigungsstruktur unserer Erkenntnis auf einem recht allgemeinen Niveau beschreiben. Dabei geht es nur um relativ schwache und allgemein akzeptierte Vorstellungen zur Rechtfertigung und nicht so sehr um die idiosynkratischen Konzeptionen von Rechtfertigung einzelner Personen. Es handelt sich aber bereits an dieser Stelle um ein hermeneutisch geprägtes und rekonstruktives Unternehmen, denn wir alle verwenden zwar ständig Rechtfertigungen und Begründungen und bewerten sie, aber nur die wenigsten Menschen haben explizite Ansichten darüber, was gute Rechtfertigungen ausmacht. Hier ist die metatheoretische Theoriebildung gefragt, die ein Interpretationsmodell vorlegt, in das unsere Begründungspraxis eingebettet werden kann und durch das sie verstehbar wird. Natürlich können auch die in dieser Metatheorie ermittelten Bewertungen, die unsere herkömmlichen Bewertungen zum Ausgangspunkt nehmen, nicht als sakrosankt erklärt und schlicht übernommen werden, sondern sind jeweils einer philosophischen Reflexion oder Metabewertung zu unterziehen. An keiner dieser Stellen geht es um eine rein empirische Theorie, sondern immer auch um eine normative Klärung und Weiterentwicklung unserer epistemischen Ansichten. Eine solche kritische Weiterentwicklung und Auseinandersetzung mit unserer Rechtfertigungs- und Begründungspraxis wird aber erst durch ein Offenlegen und Explizitmachen wesentlicher Teile dieser Praxis ermöglicht. In der Erkenntnistheorie und der Wissenschaftsphilosophie treffen wir aber auch immer wieder auf eine grundsätzlich andere Vorgehensweise, die eben nicht die konkrete Wissenschaftspraxis zum Ausgangspunkt nimmt. Man verfolgt statt dessen eine stärker aprioristische Strategie und beruft sich auf allgemein plausible erkenntnistheoretische Annahmen, ohne sie laufend an konkreten Beispielen zu überprüfen. Welche Gefahren das in sich birgt, möchte ich durch einen kleinen Exkurs enthüllen, der den Unterschied von naturalistischen und aprioristisch orientierten Methodologien verdeutlicht. In der Wissenschaftsphilosophie finden wir viele schöne und berühmte Beispiele für metatheoretische Plausibilitätsüberlegungen ohne Rückbindung an konkrete Fallstudien. Ulrich Gähde hat dafür einmal das Schlagwort „Wissenschaftsphilosophie ohne Wissenschaft" geprägt. Nun gibt es sicher „schwere Fälle" dieser Vorgehensweise, mit denen zu beschäftigen geradezu unfair erschiene, weshalb ich mich einem versteckteren Fall zuwenden möchte, der noch dazu eine große anfängliche Plausibilität auf seiner Seite hat, nämlich Poppers Falsifikationismus. Der Wissenschaftshistoriker Kuhn hat sicher schon einiges dazu beigetragen, unsere Wachsamkeit gegenüber der recht einfachen erkenntnistheoretischen Auffassung Poppers von der Wissenschaftsdynamik zu schärfen. Er argumentiert dafür, daß Poppersche Falsifikationen in der Wissenschaftsgeschichte so gut wie nie vorkommen. Doch woran liegt das? Verhalten sich die Wissenschaftler aus Gründen des persönlichen Ehrgeizes oder anderen externen Motivationen erkenntnistheoretisch skrupellos oder sogar irrational? Der „Apriorist" stimmt solchen Vermutungen vorschnell zu, während der Naturalist zunächst die Hypothese verfolgen wird, daß die Wissenschaftler sich in den meisten Fällen durchaus einigermaßen ver-

A. Zur Naturalisierung der Erkenntnistheorie

41

nünftig entschieden haben, aber die Poppersche Rationalitätskonzeption defizitär sein könnte. Um diese Vermutung zu testen, hat er die tatsächlichen wissenschaftlichen Entscheidungssituationen ausführlicher zu analysieren, als das durch kurze Verweise auf Beispiele - wie wir sie auch bei Popper finden - möglich ist.10 Wie ein derartiges Verfahren aussehen kann, möchte ich zumindest an einem Kritikpunkt an der Popperschen Wissenschaftsmethodologie exemplarisch vorführen. a) Poppers Falsifikationismus Das Beispiel von Poppers Logik der Forschung und der großen Resonanz, die Kuhns Kritik daran gefunden hat, bringt eindeutige naturalistische Tendenzen unserer Metaphilosophie zum Ausdruck. Popper kann zwar gute Argumente zugunsten seiner falsifikationistischen Anschauung der Wissenschaften beibringen, aber wenn sich die Wissenschaftler tatsächlich ganz anders verhalten, als er es vorschreibt, betrachten wir das als einen bedeutsamen Einwand gegen seine Theorie, der Poppers apriorischere Argumente dafür aus dem Felde schlagen kann. Auch Popper ist natürlich von seiner Kenntnis konkreter wissenschaftlicher Theorien ausgegangen, als er seine Wissenschaftskonzeption entwickelt hat. Aber er hat von Beginn an normativen Zielen - wie zu zeigen, daß die Astrologie oder die Psychoanalyse keine wirklich wissenschaftlichen Theorien seien - großes Gewicht in seiner Vorstellung von wissenschaftlicher Rationalität eingeräumt. Seine Falsifikationstheorie der empirischen Wissenschaften, wonach Theorien als gewagte Hypothesen ins Leben treten sollen und sich dort empirischen Falsifikationsversuchen zu stellen haben, wenn sie sich bewähren möchten, scheint für eine idealisierte Sicht der Wissenschaften zunächst ausgesprochen plausibel zu sein. Auch die Forderung, daß Theorien im Prinzip falsifizierbar sein sollten, um überhaupt empirischen Gehalt zu besitzen und dann bei tatsächlichem Auftreten von Widersprüchen mit der Erfahrung als falsifiziert zu gelten haben und aufgegeben werden müssen, wirkt recht überzeugend. Schließlich besitzen nur falsifizierbare Theorien auch prognostische Fähigkeiten und sind nicht ausschließlich auf post hoc „Erklärungen" vergangener Ereignisse beschränkt. Eine Wettertheorie, die nur für das Wetter der letzten Tage sagen kann, wie es zu erklären ist, und dabei darauf festgelegt ist, jedes Wetter zu akzeptieren, ist kaum als interessante empirische Theorie zu betrachten. Sie bringt als Prognose nur Tautologien wie: „Morgen regnet es oder es regnet nicht" zustande. Gestattet die Theorie dagegen auch nur eine gehaltvolle Vorhersage über das morgige Wetter, die jedenfalls irgendein Wetter für den nächsten Tag ausschließt, ist sie natürlich auch falsifizierbar im Sinne Poppers. So weit so gut. Die aufgezeigte Plausibilität der Popperschen Methodologie betrifft aber nur die eher apriorisch zu nennende Betrachtungsweise. Sobald man sich metaempirischen Untersuchungen der Wissenschaften zuwendet, verliert die Poppersche Metatheorie schnell an Glaubwürdigkeit. Im Fall der Popperschen Theorie geschah das auf zwei Weisen. Kritik ging einmal von den schon erwähnten wissenschaftshistorischen Analysen aus, die darauf hinweisen, daß tatsächliche wissenschaftsdynamische Prozesse nicht die Gestalt von Popperschen Falsifikationen besitzen.11 Man muß schon einen gesunden popperianischen Dogmatis-

42

II Metatheoretischer

Rahmen

mus aufweisen, um darauf mit einem Achselzucken und der Bemerkung: „Um so schlimmer für die Wissenschaften", zu reagieren. Der naturalistisch gesinnte Wissenschaftsphilosoph wird dagegen jetzt hellhörig, denn wissenschaftliche Vorgehensweisen sind, wenn auch selbstverständlich nicht in jedem Einzelfall, zunächst unsere paradigmatischen Vorbilder wissenschaftlicher Rationalität. Sie können als solche nicht ohne eingehendere Diagnose als irrational eingestuft werden, wollen wir uns mit unserem Rationalitätsbegriff nicht jeglicher Anbindung an unseren gewöhnlichen Begriff von Rationalität begeben. Ein völlig neu eingeführter Rationalitätsbegriff wäre ein reines Kunstprodukt und der Wissenschaftler könnte zu Recht fragen, wieso er sich dafür interessieren sollte. Das gilt dann nicht mehr, wenn man ihm zeigt, daß er gemäß einer konsequenten Anwendung seiner eigenen Normen nicht mehr rational handelt. Erst bei einer solchen Anbindung unserer normativen Methodologie an seine eigene Praxis kann diese Methodologie ihm auch Hinweise auf Inkonsistenzen oder Inkohärenzen in seiner eigenen Vorgehensweise aufzeigen. Doch der alleinige Hinweis der Wissenschaftshistoriker, daß die Wissenschaften nicht falsifikationistisch verfahren, bleibt höchst steril, solange nicht aufgeklärt wird, wieso Poppers Methodologie nicht befolgt wird und auch nicht so zwingend ist, wie sie zunächst wirkt. Die neuere Wissenschaftsphilosophie bietet anhand differenzierterer metatheoretischer Modelle wissenschaftlicher Theorien tiefergehende Einblicke in die Struktur und Funktionsweise von Theorien. Sie ermöglichen unter anderem eine präzise Diagnose, woran der Falsifikationismus krankt und weshalb das tatsächliche Vorgehen der Wissenschaftler weder als falsifikationistisch noch als irrational anzusehen ist. An dieser Stelle setzt die zweite Kritik an Popper an, die die Poppersche Theorie in bezug auf ihre methodologische Brauchbarkeit für die Beschreibung wissenschaftsdynamischer Prozesse analysiert. Poppers Fehler, aber auch der einiger Vorgänger wie der logischen Empiristen ist es, von einer zu einfachen und zu stark idealisierten Konzeption dessen auszugehen, was eine empirische Theorie ausmacht. Seine metatheoretische Konzeption empirischer Theorien ist der Metatheorie der Mathematik entlehnt, nach der Theorien einfach aus deduktiv abgeschlossenen Satzklassen bestehen, die weitgehend amorph und ohne innere Struktur sind. Popper geht sogar noch weiter und behauptet, es handle sich dabei nur um Allsätze. Diese können dann durch Beobachtungen, die in Form singulärer Existenzsätze niedergelegt werden, mit Hilfe des Modus Tollens widerlegt werden. Daß es zumindest auch Existenzsätze in empirischen Theorie gibt, die dort eine wesentliche Funktion übernehmen, ist eigentlich zu offensichtlich, um hier noch einmal erörtert zu werden.12 Aber die metamathematische Sicht auf Theorien ist auch aus anderen Gründen unangemessen. Empirische Theorien besitzen zunächst eine reichhaltige innere Struktur mit mehreren Komponenten, die aufzuklären erforderlich ist, um die empirische Behauptung der Theorie zu explizieren und zu verstehen. So wird in vielen metatheoretischen Konzeptionen für solche Theorien zwischen zwei Typen von Begriffen unterschieden: Beobachtungsbegriffe oder empirische Begriffe und theoretische Begriffe. Während die empirischen Begriffe bereits ohne die Theorie zur Verfügung stehen, werden die theore-

A. Zur Naturalisierung der Erkenntnistheorie

43

tischen erst durch die Theorie eingebracht und eventuell implizit definiert. Das ist nur eine vorläufige und allein unzureichende Unterscheidung, um zu verstehen, wie empirische Theorien aufgebaut sind. Sie zeigt aber schon einen wichtigen Unterschied zwischen empirischen und mathematischen Theorien, den man in einem rein metamathematischen Konzept nicht wiedergeben kann. Die sogenannte strukturalistische Auffassung von empirischen Theorien, die an Patrick Suppes semantische Darstellung von Theorien anknüpft und von Sneed, Stegmüller, Moulines und anderen weiterentwickelt wurde, hat dazu eine Reihe weiterer interessanter Angebote gemacht, auf die ich in Kapitel (VII) ausführlicher eingehen werde. Ein einfacher Punkt soll jedoch schon an dieser Stelle Erwähnung finden: Für mathematische Theorien ist ihr Anwendungsbereich vorgegeben. Sie treffen auf alle Strukturen zu, die die Definition ihrer Grundelemente erfüllen. Das heißt z. B., daß die Theoreme der Zahlentheorie von allen Gegenständen erfüllt werden, die den Peano Axiomen genügen. Empirische Theorien funktionieren in diesem Punkt vollkommen anders. Ihr Anwendungsbereich wird nicht anhand einer formalen Definition allgemeiner Strukturen festgelegt, sondern wird außerhalb der mathematischen Theorie etwa durch Angabe paradigmatischer Elemente oder Typen von physikalischen Systemen beschrieben. Die Newtonsche Partikelmechanik soll z. B. auf Pendel, Billiardbälle, Planeten, das Erde-Mond System, Kanonenkugeln usw. angewandt werden. Diese realen Systeme (oder Typen von solchen) können zunächst vorgängig zur Behandlung durch die Theorie und unabhängig von der Begrifflichkeit der mathematisch formulierten Gesetze der Theorie identifiziert werden. Es ist auch keineswegs intendiert, daß alle realen Systeme, die sich mit der Begrifflichkeit der Newtonschen Theorie wie Kräften und Massen beschreiben lassen, deshalb gleich als Anwendungen dieser Theorie zu betrachten sind. Selbst wenn es gelingt, einen wirtschaftlichen Binnenmarkt mit Hilfe von „Kräften" und sogar „Massen" in irgendeiner Weise zu beschreiben, wird er dadurch noch nicht zum Anwendungsobjekt der Newtonschen Mechanik - oder sogar zu einem Testfall für die Brauchbarkeit dieser Theorie. Hier sind bestenfalls heuristisch hilfreiche Analogiebeziehungen zu erkennen. Diese Einsicht, daß der Bereich der intendierten Anwendungen einer Theorie ein relativ selbständiger Bestandteil in einer empirischen Theorie ist, zeigt schon einen, historisch tatsächlich oft beschrittenen, Weg auf, der Popperschen Falsifikation auf sinnvolle Weise zu entkommen. Newton hatte ursprünglich angenommen, seine Theorie noch auf viele andere als die oben genannten Phänomene erfolgreich anwenden zu können, wie z. B. die Bereiche chemischer und optischer Phänomene und Ebbe und Flut. Als sich diese Gebiete und später noch andere Bereiche, in denen wir elektrische oder magnetische Kräfte finden, nicht im Rahmen der Newtonschen Theorie behandeln ließen, haben Newton und seine Anhänger nicht seine Theorie verworfen, sondern - und wem scheint das nicht sinnvoll zu sein? - schlicht auf „mechanische" Phänomene eingeschränkt. Selbst im Bereich der mechanischen Phänomene war die Geschichte nicht ganz so einfach, und es mußten zwischenzeitlich noch verwegenere Abgrenzungen vorgenom-

44

II Metatheoretischer Rahmen

men werden (s. Moulines 1979), die in der Popperschen Methodologie keinen angemessenen Platz finden. Ein weiteres Beispiel für dynamische Entwicklungen in der Wissenschaft, die sich am besten als Veränderungen des Bereichs der intendierten Anwendungen beschreiben lassen, findet sich in der Elektrodynamik. Obwohl die klassische Maxwellsche Elektrodynamik hervorragend funktionierte, zeigte sich zu Anfang dieses Jahrhunderts, daß sie für die elektrisch geladenen Teilchen innerhalb eines Atoms nicht eingesetzt werden konnte. Hier waren es auf der einen Seite die Abstrahlungsphänomene der schwarzen Körperstrahlung und der photoelektrische Effekt, die diesen Ausschluß nahelegten und auf der anderen Seite die intertheoretischen Verbindungen des Bohrschen Atommodells, die ihn sogar verlangten, um Inkonsistenzen zu vermeiden. Das war Bohr bei dem Erarbeiten seiner Atomtheorie auch bewußt, wenn auch vielleicht nicht unter genau derselben Beschreibung, wie ich sie gegeben habe (s. dazu Bartelborth 1989). Für ihn gehörten daher die gebundenen Elektronen nicht mehr zum Anwendungsbereich der klassischen Elektrodynamik. Natürlich sind derartige Immunisierungen von Theorien - die widerspenstige intendierte Anwendungen schlichtweg aufgeben - nicht in allen Fällen sinnvoll. So hilfreich das Streichen der Chemie aus der Newtonschen Theorie auch war, so blieb es doch unbefriedigend, die gebundenen Elektronen im Atom einer Behandlung durch die Elektrodynamik zu entziehen, während freie Elektronen weiterhin der Maxwellschen Theorie gehorchen. Dieser unbefriedigende Zustand war der natürliche Ausgangspunkt der Suche nach einer beide Fälle umfassenden Theorie, die letztlich zur Entwicklung der Quantenelektrodynamik geführt hat. Trotzdem scheint auch vom heutigen Kenntnisstand die Forderung maßlos, die klassische Elektrodynamik hätte bei Bekanntwerden der widerspenstigen Phänomene eigentlich vollständig aufgegeben werden müssen. Sie ist selbst heute noch eine durchaus zutreffende Theorie für sehr viele Anwendungsbereiche. Popper hat sich mit seiner zu idealisierten Sichtweise von Theorien den Blick auf eine Analyse dieser Phänomene selbst verstellt und kann diese Beispiele in seiner Auffassung von Theorien nicht erfassen. Nur wenn man Poppers einfache Konzeption von Theorien akzeptiert, bleibt seine Forderung des Falsifikationismus damit noch so intuitiv überzeugend wie zunächst angenommen. 13 Eine Metatheorie, die demgegenüber in enger Anbindung an konkrete Beispiele die Struktur von Theorien und ihrer Bedeutung in der Theoriendynamik ermittelt, wird Theoriekomponenten wie den Anwendungsbereich einer Theorie und ihre empirische Funktion in den Blick nehmen. Die strukturalistische Auffassung hat tatsächlich noch eine ganze Reihe weiterer innerer Strukturen von Theorien offengelegt, die ebenfalls verständlich machen, weshalb die Wissenschaften nicht falsifikationistisch verfahren und trotzdem rational bleiben können. Zu dem methodologischen Naturalismus - wie ich meine Metaphilosophie nenne - gehört es also, unsere tatsächliche Methodologie und ihre Bewertung zum Ausgangspunkt einer metatheoretischen Untersuchung zu nehmen, und sie anhand von Beispielen immer wieder in bezug auf ihre Gültigkeit hin zu überprüfen. Demgegenüber fällt der Apriorist

A. Zur Naturalisierung der Erkenntnistheorie

45

zu schnell dem Fehler anheim, seine normativen Ansichten für verbindlich zu erklären, ohne ihre Anwendbarkeit zu überprüfen. b) Reflektives Überlegungsgleichgewicht In der Erkenntnistheorie wiegen die methodologischen Probleme sogar noch schwerer als in der Wissenschaftstheorie, denn auf welche Begründungsformen soll man sich beziehen, wenn man erst eine allgemeine Theorie der Begründung aufstellen und selbst rechtfertigen möchte? Wenn wir nicht über eine erste Philosophie verfügen, die ohne jede eigene Voraussetzung als Basis für die Begründung der Rechtfertigungstheorie dienen kann, sind wir daher bei der Konstruktion erkenntnistheoretischer Theorien mehr denn je auf einen methodologischen Naturalismus angewiesen. Doch wie kann der in diesem Fall aussehen? Chisholm (1979, 171) unterscheidet zwei Fragen, die auf verschiedene Vorgehensweisen für die Erkenntnistheorie deuten: 1. Welchen Umfang hat unser Wissen? und 2. Was sind die Kriterien des Wissens? Für den Empirismus ist es charakteristisch anzunehmen, wir hätten eine Antwort auf die zweite Frage und könnten auf dieser Grundlage versuchen, die erste zu beantworten. Chisholm sieht sich dagegen mit Moore auf der anderen Seite. Er betont die Gewißheit unserer Common-Sense Überzeugungen, denen wir gegen skeptische Spitzfindigkeiten vertrauen sollten, und versucht Kriterien für Wissen auf eine Weise anzugeben, daß unsere bisherigen Annahmen über den Umfang unseres Wissens aufrechterhalten werden können. Doch diese Vorgehensweise ist sicher viel zu blauäugig, denn der Common-Sense hat zu allen Zeiten viele offensichtlich falsche und ungerechtfertigte Ansichten enthalten. Warum sollte also gerade er für philosophische Reflexionen sakrosankt sein? Da auch die empiristische Vorgehensweise schließlich nicht überzeugend wirkt (s. dazu III.B) sollte ein metaphilosophisches Verfahren irgendwo dazwischen zu suchen sein. Eine erste schon relativ klare Beschreibung, wie es aussehen kann, bietet uns Russell in seiner Erörterung der Bedeutung von Wahrheit: Der Vorgang, den wir zu durchlaufen haben, ist seinem Wesen nach der einer Analyse: wir haben verschiedene komplexe und mehr oder weniger verworrene Meinungen über das Wahre und das Falsche und müssen sie auf Formen zurückführen, die einfach und klar sind, ohne einen Widerstreit zwischen unseren ursprünglichen komplexen und verworrenen Meinungen und unsern zum Schluß einfachen und klaren Behauptungen hervorzurufen. Diese schließlichen Behauptungen sind teils nach ihrer eigenen Evidenz, teils nach ihrem Vermögen zu prüfen, das 'Gegebene' zu erklären; und das 'Gegebene' sind bei einem solchen Problem die komplexen und verworrenen Meinungen, mit denen wir beginnen. Diese Meinungen müssen bei ihrer Klärung notwendig einer Veränderung unterliegen, aber diese Veränderung sollte nicht größer sein als durch ihre anfängliche Verwirrung gerechtfertigt ist. (Russell 1910, 100)

46

II Metatheoretischer Rahmen

Eine entsprechende Darstellung findet sich bei Nelson Goodman (1988) in seiner Rechtfertigung des von Hume so gebeutelten Induktionsschlusses. Dabei zieht er die Rechtfertigung deduktiver Schlüsse zum Vergleich heran und kommt zu dem Ergebnis: Das sieht eindeutig zirkulär aus. Ich sagte, deduktive Schlüsse würden aufgrund ihrer Übereinstimmung mit gültigen allgemeinen Regeln gerechtfertigt, und allgemeine Regeln würden gerechtfertigt aufgrund ihrer Übereinstimmung mit gültigen Schlüssen. Doch das ist ein guter Zirkel... Eine Regel wird abgeändert, wenn sie zu einem Schluß fuhrt, den wir nicht anzuerkennen bereit sind; ein Schluß wird verworfen, wenn er eine Regel verletzt, die wir nicht abzuändern bereit sind. Der Vorgang der Rechtfertigung besteht in feinen gegenseitigen Abstimmungen zwischen Regeln und anerkannten Schlüssen; die erzielte Übereinstimmung ist die einzige Rechtfertigung, derer die einen wie die anderen bedürfen. (Goodman 1988, 86f)

Sowohl unsere anerkannten Schlüsse wie auch unsere Schlußverfahren können nach Goodman in einem Prozeß der gegenseitigen Abstimmung schließlich als ungültig verworfen werden; wir müssen uns nicht, wie Chisholm vorschlägt, für eine Seite entscheiden, und diese als ohne wenn und aber gegeben voraussetzen. Neben den deskriptiven Aspekten kommen in diesem Verfahren normative ins Spiel, denn man begnügt sich nicht mit einer unkritischen Beschreibung und Übernahme der bisherigen Schlüsse und Regeln, sondern versucht in mehreren Arbeitsgängen die guten von den schlechten Rechtfertigungen zu trennen und die schlechten Regeln und Schlüsse auszufiltern. Schlüsse und Regeln, die diesen Prozeß überstehen, gelten dadurch als begründet. Es ist daher kein Zufall, daß dieses Verfahren auch für ethische Theorien, die als ein Paradebeispiel für normative Theorien stehen, Anwendung findet. Rawls (1975, 65fi) machte das Goodmansche Verfahren unter dem Namen des reflektiven Gleichgewichts bekannt und begründete mit seiner Hilfe seine Theorie der Gerechtigkeit. In der Erkenntnistheorie können wir nicht umhin, in ähnlicher Weise zu verfahren und mit bestimmten anerkannten Rechtfertigungen zu beginnen, um dann ihnen entsprechende Rechtfertigungsverfahren vorzuschlagen, die uns zudem plausibel erscheinen. In deren Licht haben wir wiederum unsere anerkannten Rechtfertigungen zu untersuchen, ob sie wirklich gute Gründe bereitstellen. Anschließend müssen wir erneut überlegen, ob unsere Rechtfertigungsverfahren im Lichte dieser Überlegungen wirklich so überzeugend sind, wie wir zunächst angenommen haben usf. Das kann ein längerer Reflexionsprozeß sein, der aber vielleicht schon nach wenigen Schritten zu einer einigermaßen stabilen Metatheorie fuhrt. Tatsächlich finden alltägliche und philosophische Dispute oft in entsprechender Weise statt, wobei allerdings im allgemeinen nicht gleich mehrere Reflexionsstufen durchlaufen werden. Denken wir als Beispiel an Piatons Staat (erstes Buch 331c), wo Sokrates gegen die Ansicht argumentiert, Gerechtigkeit bestehe darin, die Wahrheit zu sagen und das, was man von jemandem empfangen hat, diesem zurückzugeben. Sokrates verweist darauf, daß wir nach dieser Konzeption von Gerechtigkeit einem Menschen, der inzwischen wahnsinnig geworden ist, auch seine Waffen zurückgeben müßten, die er uns geliehen hat. Das kann aber nicht gerecht sein, und daher ist im Sinne einer reductio ad absurdum diese Gerechtigkeitsvorstellung zu verwerfen. Hier

A. Zur Naturalisierung der Erkenntnistheorie

47

wurde eine auf den ersten Blick plausibel erscheinende Regel für gerechtes Verhalten zurückgewiesen, weil sie in Konflikt mit unseren Intuitionen über gerechtes Verhalten in einem bestimmten Anwendungsfall steht. Umgekehrt berufen wir uns in Diskussionen, ob eine bestimmte Handlung moralisch richtig war, meist auf allgemeinere Regeln, um unsere Meinung zu stützen, wobei wir hoffen, daß diese Regeln so einleuchtend sind, daß auch unser Widerpart sich von ihnen überzeugen lassen wird. Gegen jemanden, den wir dabei beobachten, wie er aus Vergnügen seinen Hund schlägt, werden wir z. B. einwenden, es sei doch offensichtlich Unrecht, einer leidensfähigen Kreatur nur zum Spaß Schmerzen zuzufügen. Ein solcher Appell wird zwar wahrscheinlich nur in den seltensten Fällen praktischen Erfolg haben, aber wenn es dem Tierquäler aus irgendeinem Grund um eine moralische Rechtfertigung seiner Handlung zu tun ist, ist es nun an ihm, sich gegen den Vorwurf zu wehren. Als rationaler Diskussionspartner könnte er versuchen, die genannte Regel anzugreifen etwa indem er anhand von entsprechenden Anwendungsfällen zeigt, daß sie nicht in dieser Allgemeinheit gültig ist - oder ihr zustimmen und etwa erläutern, wieso sein Verhalten trotz des Anscheins nicht unter die Regel subsumierbar sei. Und selbst wenn er nur eine fadenscheinige Ausrede daherstottert, zeigt das schon, daß ihn der Hinweis auf die allgemeine Regel nicht einfach kalt läßt. Dieses Verfahren wirkt noch etwas spärlich und bedarf einer weiteren Ausarbeitung. In seiner bisherigen Form wird es meist als enges Reflektives Gleichgewicht zwischen Regeln und Einzelfällen bezeichnet, das zu einem Verfahren des weiten reflektiven Gleichgewichts zu erweitern ist. Dafür werden größere Teile unseres Hintergrundwissens in die Beurteilung mit eingebracht, die nicht nur aus den jeweiligen Bereichen stammen, um deren Regeln es geht, wie das bisher der Fall war. Daniels hat in (1979) einen derartigen Vorschlag für die Ethik unterbreitet, den ich auf die Erkenntnistheorie übertragen möchte. Danach müssen wir dem oft holistischen Charakter von Begründungen auch auf der Metaebene gerecht werden, indem wir alle relevanten Teile unseres Hintergrundwissens in einen solchen Reflexionsprozeß einbringen. Als Ausgangspunkt des Verfahrens sind dann die folgenden drei Komponenten unseres Überzeugungssystems zu nennen: (a) Eine Menge wohlüberlegter epistemischer Bewertungen einzelner Rechtfertigungen, (b) eine Menge von erkenntnistheoretischen Prinzipien und (c) unser weiteres relevantes Hintergrundwissen, das z. B. in Form von empirischen Theorien über unsere Wahrnehmung und unsere Erinnerungsfähigkeiten und anderen typischen Hilfstheorien wie etwa der Statistik vorliegt.14 Unter den wohlüberlegten und reflektierten epistemischen Bewertungen sind Einschätzungen von bestimmten rechtfertigenden Argumenten zu verstehen, bei denen wir uns relativ sicher sind, daß die bekannten Fehlerquellen, wie besondere persönliche Betroffenheit, mangelhafter Kenntnisstand etc., keine Rolle gespielt haben und wir zu einem ausgewogenen Urteil anhand einer Abwägung aller uns bekannten relevanten Umstände gelangt sind. Wie für die Rechtfertigung empirischer Theorien nicht einfach

48

II Metatheoretischer Rahmen

alle Daten unterschiedslos herangezogen werden, sondern nur solche, die schon einen Ausleseprozeß durchlaufen haben, werden also auch hier nicht alle epistemischen Bewertungen, die wir vorfinden, als Ausgangsdaten zugelassen, sondern nur solche, die einen vortheoretischen Filterprozeß überstanden haben. Dabei werden die aussortiert, für die wir bereits, ohne über eine ausgefeilte Rechtfertigungstheorie zu verfugen, erkennen können, daß sie unzuverlässig sind. Unter (b) werden verschiedene epistemische Prinzipien betrachtet und in der Suche nach einem Reflexionsgleichgewicht daraufhin untersucht, wie gut sie im Lichte unserer Hintergrundtheorien - die z. B. aus gewissen Metaprinzipien und relevantem empirischen Wissen bestehen - die wohlüberlegten epistemischen Bewertungen erklären oder systematisieren können. Das Ziel besteht in einem Überzeugungssystem, in dem die drei Komponenten in möglichst kohärenter Form vorliegen; d.h., wir suchen nach Prinzipien, die unsere epistemischen Bewertungen in optimaler Form erklären, wobei aber in verschiedenen Reflexionsschritten auch einige der wohlüberlegten Bewertungen selbst wieder aufgegeben oder revidiert werden können. Die allgemeine Strategie bei der Suche nach einem Reflexionsgleichgewicht wird dabei vermutlich eher konservativ sein und versucht mit möglichst wenig Änderungen im Gesamtsystem unserer Überzeugungen auszukommen, wobei die Größe der Änderungen sicher selbst wiederum im Lichte bestimmter Metabewertungen zu beurteilen ist.15 So werden wir im Normalfall Bewertungen unproblematisch erscheinender Wahrnehmungsurteile als zuverlässig nicht allzu schnell aufgeben, nur weil das unsere epistemischen Prinzipien vereinfachen könnte. Dem steht unsere Metabewertung entgegen, daß gerade Zuverlässigkeitsannahmen dieses Typs unersetzliche Eckpfeiler unserer Erkenntnis sind. Bei ihrer Preisgabe würden zu wenige unserer Vorstellungen von epistemischer Beurteilung aufrechterhalten. Trotzdem kann uns schließlich die epistemische Theorie auch Argumente an die Hand geben, grundlegende Bewertungen einer Reflexion zu unterziehen, und sie eventuell zu revidieren. Für diesen Vorgang, der einer kleinen erkenntnistheoretischen Revolution gleichkäme, lassen sich bisher wohl kaum einfache und strikte Spielregeln angeben. Jedenfalls muß das Verfahren fortgesetzt werden, bis ein Reflexionsgleichgewicht der drei Komponenten erreicht ist. Das ist natürlich nur eine recht abstrakte Beschreibung dieses komplexen Verfahrens, das wir in unterschiedlichen Bereichen der Philosophie zur dialektischen Begründung von Normen antreffen. Interessant scheint mir noch der Hinweis, daß nicht nur einschlägige empirische Theorien wie die über unsere Wahrnehmung und unsere Informationsverarbeitung erkenntnistheoretisch bedeutsam sein können. Wir finden z. B. in der Philosophiegeschichte immer wieder Entwicklungen, für die ebenso das zeitgeschichtliche Weltbild naturwissenschaftlicher und religiöser Art relevant ist. Um einige Beispiele zu erwähnen: Wenn Kant zu Beginn seiner Kritik der reinen Vernunft fragt „Wie sind synthetische Urteile a priori möglich?", so geschieht das aufgrund seiner Annahme, daß ihre Existenz offensichtlich ist. Dafür spielt seine Auffassung der Geometrie und der naturwissenschaftliche Hintergrund der Newtonschen Mechanik als Paradigma für Wissen

A. Zur Naturalisierung der Erkenntnistheorie

49

eine wesentliche Rolle. Angesichts der Entwicklung der Wissenschaften seit Kant stehen uns heute eine Reihe neuer Gesichtspunkte zur Verfügung: Die mathematische Geometrie gilt inzwischen eher als analytisch und die euklidische Geometrie sowie die Newtonsche Theorie haben ihren ausgezeichneten Status verloren; außerdem sind ihre grundlegenden Charakteristika wie ihre deterministische Vorstellung von Kausalität nicht mehr aufrecht zu erhalten. Auch die Cartesianische Erkenntnistheorie enthält eine Reihe von Annahmen, die auf der Grundlage seines Weltbildes sicher anders als heute zu bewerten sind. Da ist zunächst der Ausgangspunkt Descartes in einer Reflexion auf die Inhalte unserer eigenen mentalen Vorstellungen, für die er annimmt, daß sie uns vollkommen transparent sind. Daß diese Annahme nicht unproblematisch ist, ist uns heute nicht nur durch die Freudsche Redeweise vom Unterbewußten geläufig. Ebenso ist Descartes Idee, vermittels eines Gottesbeweises zu einer Begründung unserer Erkenntnis zu gelangen, heutzutage kaum noch plausibel. In diesen Beispielen, deren Liste sich leicht verlängern ließe, enthüllt sich eine eindeutige Abhängigkeit erkenntnistheoretischer Überlegungen von unserem Hintergrundwissen in bezug auf physikalische, psychologische oder religiöse Ansichten. Sie zeigt, warum die Berücksichtigung eines weiten Reflexionsgleichgewichts in unserer Methodologie wichtig ist, auch wenn wir damit noch nicht die Mechanismen aufgeklärt haben, wie die empirischen Theorien letztlich Eingang in die Erkenntnistheorie finden. Es bleiben eine Reihe von Fragen offen, wie die, ob es immer ein Gleichgewicht geben wird oder ob nicht vielmehr die Inkohärenz immer so groß bleiben könnte, daß wir nicht von einem Reflexionsgleichgewicht reden möchten; oder ob es mehrere Gleichgewichtszustände geben kann. Es ist ebenso unklar, wieviele Reflexionsstufen durchlaufen werden müssen, bis sich ein entsprechendes Gleichgewicht einstellt. Des weiteren kann der Bereich unseres Wissens, der Berücksichtigung finden soll, ständig erweitert werden oder sich durch neue Erkenntnisse verändern. Außerdem sind die Spielregeln nicht soweit geklärt, daß schnelle Einigung über ihre Anwendung zu erwarten ist. Aber auch wenn sich die Regeln des Gleichgewichtsverfahrens bisher nicht allgemein explizieren lassen, scheinen seine Anwendungen in Einzelfällen oft ziemlich überzeugend zu sein. Schauen wir zum Abschluß noch auf zwei Einwände gegen das Verfahren des reflektiven Gleichgewichts, die aus einer anderen Richtung kommen. Da ist zunächst die Kritik von Stich (1988), daß die analytische Erkenntnistheorie schlicht von Bedeutungsanalysen ausgeht, denen man damit eine Aufgabe zuweist, die sie nicht erfüllen können. Stich hat wohl Recht, daß es in der „ ordinary language "-Philosophie Tendenzen gab, handfeste philosophische Probleme, wie die moralische Frage, was man in einer bestimmten Situation tun solle, durch eine Bedeutungsanalyse zu entscheiden. Genügt es nicht - so dachte mancher „ordinary language"-Philosoph - , einfach zu ermitteln, wie das „soll" in unserer Sprache korrekt gebraucht wird, um damit auch die moralische Frage zu beantworten? Ein bekannter Versuch, sehr direkt so zu argumentieren, findet sich in Searles Herleitung eines scheinbar moralischen Gebots aus rein deskriptiven Prämissen. Searle demonstriert dort (erstmals 1964) in einer Reihe von Einzelschritten,

50

II Metatheoretischer

Rahmen

wie daraus, daß jemand im geeigneten Kontext die Worte äußert: „Ich verspreche, Dir fünf Dollar zu zahlen", geradezu analytisch folgt, daß er auch eine Verpflichtung übernommen hat, die fünf Dollar zu bezahlen. Doch Mackies Analyse (1981, 82ff) macht eine implizite Voraussetzung in dieser Argumentation namhaft, die offenbart, daß wir damit keineswegs eine moralische Norm allein aufgrund sprachlicher Zusammenhänge begründen konnten. Der Schluß basiert nämlich unter anderem auf dem Akzeptieren der Institution des Versprechengebens und ihrer Regeln. Lehnt man diese Institution, die sogar in sprachliche Zusammenhänge Eingang gefunden hat, dagegen ab, hat auch das gegebene „Versprechen" keine verpflichtende Kraft mehr. Die rein sprachliche Analyse entbindet einen daher nicht von der moralphilosophischen Aufgabe einer Rechtfertigung der fraglichen Norm, Versprechen einzuhalten.16 Spätestens seit Moores Angriff der offenen Frage auf naturalistische Fehlschlüsse sollte die Sterilität rein sprachphilosophischer Analysen bekannt sein (s. auch Sosa 1989). Sie können nur mit einiger Akribie ermitteln, was der normale Muttersprachler in dieser Frage denkt,17 aber damit ist noch keineswegs entschieden, ob diese Common Sense Ansichten auch begründet oder begründbar sind. Es ist z. B. noch nicht einmal ausgeschlossen, daß diese Ansichten untereinander inkonsistent sind, was sicherlich in einigen Fällen passiert. Putnam (1990, 279ff) behauptet sogar, daß es so etwas wie einen Nazi mit rationalen Überzeugungen überhaupt nicht geben könne, womit der Vorwurf innerer Unstimmigkeit der Überzeugungen auf größere Gruppen einiger Gesellschaften zuträfe. In solchen Fällen spricht alles dafür, die Ansichten des Common Sense zurückzuweisen und gegebenenfalls, sollten sie bereits im Sprachgebrauch etabliert sein, für eine Änderung des Sprachgebrauchs einzutreten. Im Bereich empirischen Wissens spielen irreführende Redewendungen wie „die Sonne geht a u f ' keine so verderbliche Rolle wie im moralischen oder politischen, wo sie häufig genug zur Verschleierung fehlerhafter normativer Ansichten eingesetzt werden. Statt die „semantische Umweltverschmutzung" in diesen Fällen zu bekämpfen, wird sie durch die bloße Sprachanalyse festgeschrieben, was kaum das Ziel aufklärerischer Philosophie sein kann. Stich Kritik an diesen Vorgehensweisen ist daher berechtigt, aber sie trifft die meisten heutigen analytischen Erkenntnistheoretiker und Moralphilosophen nicht, denn sie versuchen gerade mit dem Gleichgewichtsverfahren eine substantielle Theoriebildung vorzunehmen, die den bisherigen Sprachgebrauch und Common Sense keineswegs zementiert, sondern durch interne Reflexionen zu kritisieren und an einigen Stellen zu überwinden sucht. Um seinen Vorwurf aufrechtzuerhalten, hätte Stich nachzuweisen, daß man sich in dem vorgeschlagenen Reflexionsprozeß nicht hinreichend weit von den ursprünglichen Positionen entfernen könne, aber das wurde bisher keineswegs belegt. Gewichtiger erscheint auf den ersten Blick der Einwand von Nisbett und Stich (1980), daß empirische Untersuchungen demonstrieren, welch typische Fehlschlüsse, wie z. B. der des Spielers („gamblers fallacy"), sich in unserer tatsächlichen inferentiellen Praxis finden lassen. Kann es sinnvoll sein, diese zu Beginn des Verfahrens als Ausgangspunkt zu verwenden? Eine erste Replik kann in dem Hinweis bestehen, daß im Gleichgewichtsverfahren eher die geäußerten und reflektierten epistemischen Bewertun-

A. Zur Naturalisierung der Erkenntnistheorie

51

gen als Daten herangezogen werden und nicht die bloß im Verhalten geoffenbarten. Trotzdem lassen sich vermutlich in unseren bereits reflektierten Absichtserklärungen einige dieser Fehlschlüsse wiederfinden, die dann in den Reflexionsprozeß mit eingehen werden. Doch gerade dieser Einwand dokumentiert zugleich, daß sich Fehlschlüsse durch eine Reflexion der Praxis als solche aufdecken lassen, denn darauf müssen sich Nisbett und Stich schon stützen, wenn sie von „Fehlschlüssen" sprechen. In einem reflektiven Gleichgewicht sind diese dann natürlich zurückzuweisen. In dem erweiterten Reflexionsprozeß können wir auf alle Informationsquellen zurückgreifen, die uns überhaupt zugänglich sind und dazu gehören dann auch Expertenmeinungen, die es auch für Inferenzverfahren gibt (s. dazu Conee und Feldman 1983). Der Fehlschluß des Spielers ist mit den Regeln der Statistik zu konfrontieren und zurückzuweisen. Die Beispiele von Nisbett und Stich sind daher gute Beispiele dafür, wie das Gleichgewichtsverfahren tatsächlich zur theoretischen Überwindung auch schlechter Schlußregeln durch entsprechende Reflexion gefuhrt hat.18 Anwendungen des Gleichgewichtsverfahrens beschränken sich auch nicht auf die Erkenntnistheorie, sondern es kann sich um Explikationen von Begriffen handeln, deren Einschränkung auf bestimmte Bestandteile des Begriffs eine Bewertung beinhaltet, oder die Begründung einer Moraltheorie oder die Begründung projektierbarer Schlußregeln der Induktion usf. Das Verfahren kann in diesen unterschiedlichen Gebieten seine vereinheitlichende Kraft für die Metaphilosophie unter Beweis stellen, in Konkurrenz zu anderen Verfahren treten und so weiterentwickelt werden.19 Eine weitere Ausgestaltung erfährt es im folgenden in seinem praktischen Einsatz im Verlauf der Arbeit.

4. Evolutionäre Erkenntnistheorie Obwohl das eigentlich nicht mein Hauptthema ist, möchte ich doch einige Bemerkungen dazu machen, welche Stellung der Evolutionstheorie in dem Unternehmen Erkenntnistheorie zukommt. Die „evolutionäre Erkenntnistheorie" ist ein aufstrebendes Gebiet in der institutionalisierten Philosophie und viele Autoren berufen sich nonchalant auf die Evolution, als ob diese über alle Schwierigkeiten, die in ihren erkenntnistheoretischen Systemen auftreten, in geradezu naturwissenschaftlicher Weise hinweghelfen könnte. Da sind sicher Warnungen angebracht, die Evolution vorsichtiger zum Einsatz zu bringen. Zunächst dürfte es eigentlich selbstverständlich sein, daß man die Evolution nicht erfolgreich gegen einen radikalen Skeptiker ins Feld fuhren kann, denn die Berufung auf Darwinistische Theorien setzt bereits einen guten Teil unseres Wissens über unsere Vergangenheit voraus, die wir zur Begründung evolutionärer Theorien benötigen. Dazu kommen Erkenntnisse aus der Molekularbiologie und anderen Gebieten wie der Chemie, auf die sich Darwins Theorie zusätzlich berufen muß, wenn man der Evolutionstheorie den wissenschaftlichen Status verschaffen möchte, der ihr heutzutage zukommt. All diese Erkenntnisse stellt ein radikaler Skeptiker aber bereits in Frage, so daß wir uns ihm gegenüber einer petitio principii schuldig machten, würden wir sie voraussetzen. Diesen Punkt möchte ich nicht in seine Details verfolgen, zumal entsprechende Analysen an

52

II Metatheoretischer Rahmen

anderer Stelle vorgelegt wurden. Sehr klar geschieht das in Bieri (1987), wo auch der Rettungsversuch Vollmers (1983, 37f), daß der dabei auftretende Zirkel nicht wirklich vitiös sei, überzeugend zurückgewiesen wird (s. Bieri 1987, 132ff). Kann die Evolution denn innerhalb einer „naturalisierten Erkenntnistheorie" eine wichtige Rolle übernehmen, wenn man die eben geäußerten Einschränkungen einer solchen Wendung der Epistemologie einmal außer Acht läßt? Unsere Vorstellungen von Evolution sind zweifellos ein wichtiger Bestandteil der internen Erklärung für die Entstehung von Teilen unserer Erkenntnisfahigkeiten. Während wir uns im Rahmen einer Naturalisierung zunächst nur nach einer internen Rechtfertigung umgeschaut haben, wieso wir annehmen, daß bestimmte Meinungen auf zuverlässigen Wahrnehmungen beruhen, und uns dazu der Sinnesphysiologie zugewandt hatten, fragen wir nun danach, wie und wieso wir zu den Sinnesapparaten gelangt sind, die diese Zuverlässigkeit besitzen. Aber auch an dieser Stelle der Argumentation ist wiederum Vorsicht angebracht. Das läßt sich an einem typischen Beispiel für die Berufung auf die Evolution verdeutlichen: Michael Devitt (1991, 78) geht auf Putnams Bedenken gegenüber apriorischen Ablehnungen bestimmter Theorien in der Wissenschaft wie z. B. Dämonentheorien ein. Eine derartige Bevorzugung bestimmter Theorien ist nach Devitts Meinung angeboren, und er fragt dann: „Is the innateness worrying?". Daß dem nicht so sei, wird mit Hilfe der Evolution begründet. It is not, because it is explicable along Darwinian lines. If a beliefforming procedure is a good one, then it is not surprising that it should be innate. Good procedures lead to truths which are conducive to survival. Thus natural selection will favour organisms with good procedures. Devitt (1991,78)

Überlegungen dieser Schlichtheit sind leider im Umgang mit der Evolutionstheorie verschiedentlich anzutreffen; da ist Devitt nicht das eine schwarze Schaf. Gegen diese Form, die Evolution ins Spiel zu bringen, lassen sich eine Reihe von Einwänden geltend machen. Gegenüber klassischen erkenntnistheoretischen Fragestellungen liegt zunächst eine Änderung des Themas vor. Der Erkenntnistheoretiker fragt nach der Begründung einzelner Meinungen und nicht nach den „eingebauten" Mechanismen der Überzeugungsbildung. Deren möglicherweise evolutionär erworbene Zuverlässigkeit kann uns bestenfalls schwache indirekte Hinweise für eine bestimmte Meinung bieten, daß diese wahr ist. Doch lassen wir uns auf diesen Punkt einmal ein, dann möchte ich in weiteren Schritten andere Bedenken gegen die evolutionäre Überlegung vortragen. Zunächst werde ich dafür eintreten, daß wir mit der natürlichen Auslese im günstigsten Fall auf solche eingebauten überzeugungsbildenden Mechanismen schließen dürfen, die Beobachtungsüberzeugungen betreffen - wobei mit „Beobachtungsüberzeugungen" Überzeugungen gemeint sind, mit denen wir wiederzugeben gedenken, was wir wahrnehmen. Nur für diese und eng daran angelehnte Überzeugungen können wir für bestimmte Umgebungen einen Zusammenhang zu dem Überleben der Individuen einer Art herstellen. Auf der Ebene abstrakter physikalischer oder gar mathematischer Theorien ist die Redeweise von natürlicher Auslese höchstens als sehr schwache Ana-

A. Zur Naturalisierung der Erkenntnistheorie

53

logie zu betrachten. Sie sind weit von den Umständen entfernt, für die unsere Fähigkeiten durch den Prozeß der natürlichen Auslese gegangen sind (s. Nagel 1992, 138ff). Was man mit „Evolution" auf dieser Ebene meinen kann - welche Art metatheoretischer Theorie über die Theoriendynamik - bedürfte eigener Explikationen, und in einem zweiten Schritt müßte belegt werden, daß solche „Evolutionen" in der Wissenschaftsgeschichte auch tatsächlich anzutreffen sind. Bis zu solchen metatheoretischen Resultaten ist aber noch viel Arbeit zu leisten und einige Hinweise sollen andeuten, warum ich eher skeptisch bin, was den Erfolg dieses erkenntnistheoretischen Projekts betrifft. Ob das persönliche Überleben durch das Vertreten wahrer Theorien überhaupt gefördert wird, dürfte stark von den jeweiligen Umständen abhängen. Zu Galileis Zeiten war es kaum förderlich, wahre Ansichten über die Stellung von Sonne und Erde zu haben und diese auch noch öffentlich zu verkünden. Daß es in späteren Zeiten einen Vorteil für das Überleben bedeutet und daß dieser Vorteil auf angeborene Meinungsbildungsverfahren zurückgeht, bleibt eine genauso gewagte empirische Behauptung. Wie sehen denn die Mechanismen aus, die verhindern, daß Menschen, die falsche Theorien vertreten, „weil sie vermutlich falsche Mechanismen der Meinungsbildung haben", an der Verbreitung ihrer Gene durch Fortpflanzung gehindert werden? Eine Ablehnung der Quantenmechanik führt nach unserem jetzigen Kenntnisstand weder zu frühzeitigem Ableben noch zu erhöhter Unfruchtbarkeit. Spekulationen sind eher in der anderen Richtung möglich, daß die Labors der Physiker und die Strahlenbelastungen im Umkreis der Teilchenbeschleuniger ... Außerdem verschwenden die Wissenschaftler ihre fruchtbarsten Jahre mit dem Studium, statt konsequent ihre genetische Ausstattung zu verbreiten. Die Lächerlichkeit dieser Überlegungen sollte nur deutlich machen, wie weit wir von solchen Ansichten, auf die Devitt sich beruft, tatsächlich entfernt sind. Aber selbst für den Bereich der Beobachtungsüberzeugungen, in dem es nur um Meinungen über wahrgenommene Teile unserer Umgebung geht, ist der Zusammenhang zwischen Mechanismen, die wahrheitsförderlich sind, und der Überlebensfähigkeit von Individuen nicht so einfach, wie von Devitt unterstellt. Wir stoßen wiederum auf eine starke Abhängigkeit von der jeweiligen Umwelt. In einer Umgebung, in der Nahrung in einem einigermaßen ausreichenden Maße vorhanden ist, jedoch viele giftige Pflanzen vorkommen, die der Nahrung äußerlich ähnlich sehen, ist eine Strategie der Vorsicht, die auch viele Pflanzen, die eßbar wären, eher als giftig einstuft, gegenüber einer die auf Ermittlung der wahren Qualitäten ausgerichtet ist, vom Standpunkt der Überlebensfähigkeit vorzuziehen. Die Evolution wird unter derartigen Umständen ihre Individuen nicht auf Wahrheitsfindung hin auswählen, sondern auf größere Vorsicht hin. Zusätzlich mag der Zeitfaktor der Einschätzung von Pflanzen im Hinblick auf ihre Genießbarkeit noch eine Rolle spielen; so z. B., wenn natürliche Feinde existieren, die ein allzu langes Nachdenken über die Frage der Eßbarkeit bestimmter Pflanzen zu eigenen Freßzwecken mißbrauchen könnten. Auch dieser Faktor ist der Frage der Ermittlung wahrer Ansichten gegenüber eher fremd. Die Entwicklungen durch natürliche Auslese verlaufen auch nicht immer in einer bestimmten Richtung, was das bekannte Beispiel der Nachtfalter in Mittelengland

54

II Metatheoretischer Rahmen

belegt. Um sich der Umwelt während der industriellen Revolution mit ihrem Ruß anzupassen, nahmen die vorher weiß-braun gesprenkelten Falter eine gräuliche Farbe an, begannen aber, nachdem die Luft in den sechziger Jahren wieder besser wurde, zu ihrer ursprünglichen Farbe zurückzukehren. Das Beispiel demonstriert wiederum die Kontextabhängigkeit und Wankelmütigkeit von evolutionär favorisierten Eigenschaften und daß der Schluß, was die Evolution ausgesucht hätte, müsse nach diesem langen Ausleseprozeß nun in bestimmter Hinsicht maximal geeignet sein, kaum plausibel ist. All die Überlegungen der Nützlichkeit bestimmter Mechanismen der Überzeugungsbildung für ganz bestimmte Tiere in einer ganz bestimmten Umwelt - wie etwa der Zeitfaktor - sind Überlegungen die den epistemologischen, die nur auf Wahrheit ausgerichtet sind, eigentlich fremd sind und gehören deshalb nicht in eine Erkenntnistheorie. Wahrheit und Nützlichkeit von Überzeugungen für die Individuen einer bestimmten Art müssen daher keineswegs zusammenfallen. Ihr Zusammenhang sollte für den jeweiligen Einsatz der Evolution in der Erkenntnistheorie genauer ermittelt werden. Das gilt natürlich in zunehmendem Maße dort, wo wir uns Überzeugungen über unsere Umwelt zuwenden, die mit unserem Überleben in keinem direkt erkennbaren Zusammenhang mehr stehen, etwa Annahmen über weit zurückliegende und für unser Überleben relativ belanglos erscheinende Ereignisse oder Ansichten wie die genannten sehr theoretischen in der Grundlagenforschung der heutigen Physik oder Mathematik. Zu dieser Kluft zwischen Nützlichkeit fürs Überleben und Wahrheit kommen innertheoretischen Hindernisse für eine Verwirklichung der nützlichsten Mechanismen hinzu. Die Theorie der natürlichen Auslese ist eine statistische Theorie mit Phänomenen wie „genetic drift" und „genetic hitchhiking", die einer idealen Verwirklichung selbst der Nützlichkeit im Wege stehen. Das weist darauf hin, daß die Reichweite evolutionärer Erklärungen auch noch einer innertheoretischen Abschätzung bedarf. „Genetic Hitchhiking" bezeichnet den Umstand, daß ganze Gene vererbt werden. Wenn ein Gen sich in einem Genpool durchsetzt, weil es bestimmte nützliche Eigenschaften kodifiziert, so werden auch alle anderen ebenfalls von dem Gen bestimmten Eigenschaften in der Population auftreten, ob diese nun nützlich sind oder nicht. 20 Das kann verhindern, daß ideale Lösungen in bestimmten Bereichen verwirklicht werden, selbst wenn diese in einer Art bereits genetisch vertreten sind. Das Auftreten bestimmter Eigenschaften, die von der Natur auf ihre Eignung hin geprüft werden, ist darüber hinaus ein Zufallsprozeß, in dem ideale Eigenschaften nur dann instantiiert werden können, wenn zunächst zufällig die geeigneten Mutationen der Gene auch auftreten. Selbst wenn das der Fall ist, bleibt es noch dem Zufallsprozeß der natürlichen Auslese überlassen, ob sie sich auch im Genpool durchsetzen können, was man mit „genetic drift" bezeichnet. Die Literatur zur Evolutionstheorie gibt auch eine Reihe von Beispielen an, in denen gerade nicht die idealen Lösungen realisiert wurden. So nennt Dawkins (1990, 112f) uns das Beispiel der sonderbaren, asymmetrischen Verdrehung des Kopfes bei Plattfischen, bis seine beiden Augen nach oben schauen, wenn sie sich auf den Boden niederlassen. Das wirkt gegenüber der entsprechenden Entwicklung beim Rochen unangemessen. „Kein vernünftiger Planer hätte eine solche

A. Zur Naturalisierung der Erkenntnistheorie

55

Monstrosität erdacht, wenn er in eigener Verantwortung einen Plattfisch hätte schaffen sollen." (Dawkins 1990, 112). Diese und schwerwiegendere „Fehler" der Evolution wie der menschliche Blinddarm und der Daumen des Panda - sind z.T. dadurch zu erklären, daß die Evolution eben nicht mit einem leeren Zeichenbrett begann, sondern auf dem aufbauen mußte, was sie schon vorfand, und das sind bei den Plattfischen Vorfahren, die sich im Unterschied zum Rochen auf die Seite und nicht den Bauch gelegt haben. Neben der Verwirklichung minderwertiger Lösungen hat die evolutionäre Sichtweise kognitiver Prozesse mit Fragen des generellen Leib-Seele Problems zu kämpfen. Sie hat zunächst zu beschreiben, wie Überzeugungen oder andere mentale Zustände mit semantischer Information, für deren Zuschreibung eine Rationalitätsannahme wesentlich erscheint, in biologischen Systemen instantiiert sein können. Die Evolutionstheorie beschreibt die Entstehung von Organen mit bestimmten Eigenschaften und ist ganz der materiellen Beschreibungsebene verhaftet. Daß die Redeweise evolutionärer Erkenntnistheoretiker von Informationsverarbeitung diesen problematischen Punkt eher verschleiert als löst, wird durch eine Reihe von Überlegungen (s. dazu Bieri 1987, 122ff) deutlich. Der Begriff „Information" ist ziemlich mehrdeutig. Man unterscheidet deshalb auch zumindest in syntaktische, semantische und pragmatische Information. Syntaktische Information findet sich in allen Gegenständen. Jeder Baum trägt syntaktische Informationen über seine kausale Vorgeschichte: Sein Aufbau enthält unter anderem die Information, wie alt er ist. Um diese Information im Sinne eines sehr umfassenden Informationsbegriffs geht es in der Rechtfertigung von Meinungen aber nicht. In der klassischen Erkenntnistheorie werden kognitive Zusammenhänge zwischen Überzeugungen untersucht, die spezifische Informationen enthalten, nämlich semantische Informationen, also Entitäten, die wahr oder falsch sein können. Der eher schillernde allgemeine Informationsbegriff versteckt mit seiner Mehrdeutigkeit oft nur die tiefliegenden Probleme der Zuschreibung semantischen Gehalts zu den Zuständen eines biologischen Systems. Auch zu dieser Problematik sind weitere Vorarbeiten notwendig, um den Wert der Evolution für eine naturalisierte Erkenntnistheorie einschätzen zu können. Wir sollten daher ausgesprochen vorsichtig mit Behauptungen über den evolutionären Wert wahrer Überzeugungen und entsprechender Veranlagungen zur Überzeugungsbildung sein. Für mein Projekt, das der klassischen erkenntnistheoretischen Problematik gewidmet ist, hat die evolutionäre Erkenntnistheorie leider keine erfolgversprechenden Ansatzpunkte anzubieten.

5. Resümee Als Resignation auf das Scheitern der Versuche, dem Skeptiker Paroli zu bieten und die Philosophie auf die sichere Grundlage einer prima philosophia zu stellen, hat in den letzten Jahrzehnten eine Naturalisierung unterschiedlicher Bereiche der Philosophie (insbesondere der Erkenntnistheorie) an Boden gewonnen. Die alte Unterscheidung

56

II Metatheoretischer

Rahmen

zwischen Rechtfertigungen und Genese von Meinungen zeigt jedoch, daß eine radikale Naturalisierung darauf hinausläuft, die klassischen Fragen der Erkenntnistheorie ganz zugunsten rein naturwissenschaftlicher Fragestellungen aufzugeben. Dafür können die radikalen Naturalisten, allen voran Quine, aber keine überzeugenden Gründe angeben, denn die klassische Frage danach, was ich glauben soll, bleibt weiterhin aktuell. Sie erfährt in der analytischen Erkenntnistheorie neueren Datums mit der Methodologie des reflektiven Überlegungsgleichgewichts eine Wendung hin zu substantieller philosophischer Theorienbildung. Statt in den Pessimismus der radikalen Naturalisten einzustimmen, soll in der vorliegenden Arbeit ein Methodologischer Naturalismus liberaleren Typs zur Anwendung kommen, der in kritischer Anknüpfung an bisherige Konzeptionen von epistemischer Rechtfertigung eine zum Teil normative, philosophische Theorie der Begründung von Meinungen vorschlägt.

B. Wahrheit und Wahrheitsindikatoren Meine erste Charakterisierung von epistemischen Rechtfertigungen war die von Wahrheitsindikatoren, die uns als Hinweis oder Grund dienen können, anzunehmen, daß eine bestimmte Meinung wahr ist; oder man könnte auch sagen, die für uns die Wahrscheinlichkeit erhöhen, daß die gerechtfertigte Meinung wahr ist. Epistemische Rechtfertigungen sind unser Lackmustest für Wahrheit. Was meint man aber in diesem Zusammenhang mit „Wahrheit"? Um die grundlegende Intuition von Rechtfertigungen als Wahrheitsindikatoren einschätzen zu können, werde ich eine kurze Charakterisierung des dabei vorausgesetzten Verständnisses von Wahrheit angeben. Diese Explikation von „Wahrheit", soll uns noch einmal den metaphysischen Rahmen vor Augen fuhren, in dem erkenntnistheoretische Fragestellungen üblicherweise angesiedelt sind. Anfangen möchte ich mit einer Abgrenzung gegen einige heute verbreitete Interpretationen des Wahrheitsbegriffs. Es ist in den letzten Jahren zunehmend in Mode gekommen, sich von realistischen Positionen abzuwenden und schwächere Konzeptionen von Wahrheit als die einer Korrespondenztheorie zu vertreten. Diese Auffassungen der Wirklichkeit und der Wahrheit sind zumeist epistemisch infiziert, d.h. Wahrheit wird als in irgendeiner Weise abhängig von unseren erkenntnistheoretischen Zugangsmöglichkeiten aufgefaßt. Diese Wendung soll oft dazu dienen, die Kluft zu verkleinern, die zwischen unseren Meinungen über die Welt und der Welt selbst gesehen wird, um damit die Möglichkeiten des Skeptikers zu beschneiden, unser Wissen unter Hinweis auf diese Kluft in Frage zu stellen. Für mein Ziel, eine Theorie von epistemischer Rechtfertigung als Wahrheitsindikation zu entwerfen, sind epistemisch infizierte Wahrheitsdefinitionen und auch deflationäre Entwertungen des Wahrheitsbegriffs aber eher ungeeignet. Das möchte ich im folgenden kurz erläutern. Die drei Hauptrichtungen in denen eine Explikation des Wahrheitsbegriffs gesucht wird, werde ich dazu vorstellen und auf ihre Einsatzmöglichkeiten als Hintergrund für erkenntnistheoretische Fragestellungen untersuchen.

B. Wahrheit und Wahrheitsindikatoren

57

1. Deflationäre Wahrheitskonzeptionen In der philosophischen Wahrheitsdebatte stoßen wir spätestens seit Tarskis berühmter Wahrheitsdefinition in den dreißiger Jahren dieses Jahrhunderts auf die sogenannten deflationären Auffassungen des Wahrheitsbegriffs oder Redundanztheorien der Wahrheit, die den Wahrheitsbegriff vom Sockel im Zentrum der Philosophie stürzen und für die Wirklichkeitserkenntnis entwerten möchten. Für einen Deflationisten besitzt der Wahrheitsbegriff keine erklärenden Funktionen mehr und zeichnet nicht etwa Sätze aus, weil sie in einer besonderen Beziehung zur Welt stehen, sondern erfüllt nur bestimmte sprachliche Funktionen, die sich anhand der Äquivalenzthese Tarskis verstehen lassen, nach der für jede Aussage p gilt: (ÄT)

„p" ist wahr genau dann, wenn p.

Diese Äquivalenzthese wird von Philosophen der unterschiedlichsten Richtungen als ein wesentliches Bedeutungsmerkmal des Wahrheitsbegriffs akzeptiert, aber sie bietet ebenfalls Hinweise darauf, wie wir uns seiner entledigen können. Den Grundgedanken einer Redundanztheorie finden wir schon in dem klassischen Aufsatz von Ramsey (1931)21, in dem er sagt: „dann ist evident, daß der Satz »Es ist wahr, daß Cäsar ermordet wurde« nicht mehr bedeutet als: Cäsar wurde ermordet." Der Ausdruck „ist wahr" ist für einen Deflationisten darüber hinaus recht hilfreich, wenn wir den Behauptungen von jemand anderem zustimmen möchten, ohne ihn im einzelnen zu wiederholen; hier genügt dann etwa: „Alles, was er gesagt hat, ist wahr". Viel mehr als solche ganz nützlichen sprachlichen Hilfen bietet der Wahrheitsbegriff jedoch für einen Deflationisten nicht, ob es sich dabei um Disquotationstheorien wie die von Leeds (1978) oder andere Varianten der Redundanztheorie handelt. Der Wahrheitsbegriff bezeichnet in diesem Rahmen keine substantielle Eigenschaft von Sätzen, die bestimmten von ihnen eine besondere Beziehung zur Welt zuspricht; er verkümmert zu einem bloß sprachlichen Hilfsmittel. Die meisten Auseinandersetzungen in der Erkenntnistheorie, z. B. die mit dem Skeptiker, stützen sich dagegen auf ein anspruchsvolleres korrespondenztheoretisches Verständnis des Wahrheitsbegriffs, das auch ich in dieser Arbeit voraussetzen werde, denn es ist gerade Wahrheit, worauf epistemische Rechtfertigungen abzielen. Für eine deflationäre Auffassung von Wahrheit, wird es unverständlich, wieso uns dieses Ziel am Herzen liegen soll. Wahrheit interessiert uns als Grundlage für Entscheidungen und praktisches Handeln, und in diesen Kontexten gibt uns eine deflationäre Theorie kein angemessenes Verständnis, wieso Wahrheit dafür so bedeutsam sein soll. Das kann nur eine substantiellere Konzeption von Wahrheit, die uns erklärt, wieso die Auskunft, daß eine Aussage wahr ist, so wichtig für uns ist: Die Annahme, daß ein Satz wahr ist, gibt uns Informationen über die Welt und nicht nur über sprachliche Zusammenhänge. Um an diese Informationen zu gelangen, sind wir mangels einer direkten Einsicht der Wahrheit vieler Meinungen auf den indirekten Zugang über epistemische Rechtfertigungen angewiesen. Eine deflationäre Wahrheitsauffassung konnte daher kaum den

58

II Metatheoretischer Rahmen

Rahmen abgeben, in dem von Aristoteles über Descartes bis in die heutige Zeit Erkenntnistheoretiker über Wissen und Begründungen nachgedacht haben. Selbst Kant schreibt in der Kritik der reinen Vernunft (A 58/ B 82): „Was ist Wahrheit? Die Namenerklärung der Wahrheit, daß sie nämlich die Übereinstimmung der Erkenntnis mit ihrem Gegenstande sei, wird hier geschenkt, und vorausgesetzt;" Im Kontext der Epistemologie möchte ich es daher als gegeben annehmen, daß wir über eine gehaltvollere korrespondenztheoretische Wahrheitskonzeption verfugen, denn nur so können wir an die klassischen Fragestellungen dieser Disziplin anknüpfen. Allerdings soll damit noch nicht endgültig entschieden sein, inwieweit die Erkenntnistheorie auf einen substantiellen Wahrheitsbegriff tatsächlich zwingend angewiesen ist. Michael Williams (1991, 244f) bemüht sich zu zeigen, daß sogar mit einem deflationären Wahrheitsbegriff noch kein Verzicht auf ein objektives Verständnis der Welt verbunden ist. Auch der Skeptiker kann seine unbequemen Fragen nach einer Begründung unserer Meinungen weiterhin stellen, wenn wir mit dem Ausdruck „wahr" nicht eine substantielle Eigenschaft bezeichnen. Nur möchte ich die erkenntnistheoretische Auseinandersetzung nicht unnötig mit den Komplikationen eines deflationären Wahrheitsbegriffs belasten, denn das ist kaum hilfreich für die Frage nach der richtigen Erkenntnistheorie. Der Hauptkonkurrent korrespondenztheoretischer Auffassungen von Wahrheit ist auch sicherlich an anderer Stelle zu suchen: Vor allem in den epistemisch infizierten Wahrheitsbegriffen, die im Unterschied zu deflationären Konzeptionen die erkenntnistheoretische Auseinandersetzung maßgeblich beeinflussen können. Ihnen soll daher etwas mehr Aufmerksamkeit zuteil werden.

2. Epistemische Wahrheitsbegriffe Im Kampf gegen den Skeptiker ist es verführerisch, die epistemischen Wahrheitsauffassungen einzusetzen. Sie identifizieren Wahrheit mit „warranted assertibility", rationaler Akzeptierbarkeit und ähnlichen epistemisch geprägten Begriffen - zumindest für den Fall idealer epistemischer Bedingungen oder im idealen Grenzwert der Forschung. Putnam (1978, 126) spricht sogar davon, es sei „unverständlich", daß eine epistemisch ideale Theorie, die allen möglichen Beobachtungen entspricht und alle anderen Kriterien an Theorien wie Einfachheit, Schönheit, Plausibilität etc. genügt, falsch sein kann. 22 Um epistemische Wahrheitskonzepte untersuchen zu können, ist zunächst zu klären, was mit „möglichen Beobachtungen" oder einem „Grenzwert der Forschung" gemeint ist. Diese Fragen zu beantworten ist ein bekanntermaßen virulentes Problem für alle Ansätze in diesem Bereich. Aber auch, wenn wir von den sich dabei auftuenden inneren Schwierigkeiten der Position zunächst einmal absehen, können die epistemisch infizierten Wahrheitsbegriffe nicht das leisten, was man sich im Kampf gegen den Skeptiker von ihnen verspricht. Ein wesentliches Motiv für ihre Einführung innerhalb der Erkenntnistheorie stammt aus einer Schwierigkeit im Rahmen der Korrespondenzauffassung von Wahrheit, auf die etwa Davidson (1987, 271) aufmerksam macht. Begründungen einer Meinung sind in

B. Wahrheit und Wahrheitsindikatoren

59

einer Kohärenztheorie der Erkenntnis nur in anderen bereits von uns akzeptierten Überzeugungen zu suchen. Einen direkten Vergleich von Meinungen mit der Welt hält Davidson sogar für eine absurde Vorstellung. Die Wahrheit einer Meinung hängt im Rahmen einer Korrespondenzkonzeption aber ausschließlich von ihrer Beziehung zur Welt ab und nicht davon, welche Überzeugungen wir über die Welt haben. Wie können wir dann jemals wissen, daß der Kohärenztest einer Meinung ein Wahrheitstest ist? Die an dieser Stelle immer verbleibende Lücke nutzt geschickt der Skeptiker und weist auf die Möglichkeit hin, all unsere Vorstellungen von der Welt könnten ein komplettes Märchen sein, auch wenn sie eine noch so kohärente Geschichte bilden. Solange Wahrheit unsere Evidenzen transzendiert und in einer Beziehung von Sätzen zur Welt zu suchen ist, während Rechtfertigungen immer nur Beziehungen zwischen Aussagen betreffen, können wir uns nie der Richtigkeit unserer Meinungen versichern. Es bleibt sogar das Problem, ob wir auch nur den kleinsten Grund angeben können, daß epistemische Rechtfertigungen ihren Namen verdienen und Wahrheitsindikatoren darstellen, wenn Wahrheit und Rechtfertigung auf so verschiedene Weise definiert werden. Ein naheliegender Schachzug, um dem Skeptiker den Boden zu entziehen, ist, ihm eine falsche Auffassung von Wahrheit und einer von unseren Überzeugungen unabhängigen Welt zu unterstellen. Ist Wahrheit immer nur relativ zu unseren Evidenzen oder Theorien zu definieren, wie es z. B. Rorty (1984, im englischen 281) und Putnam (1990, Kap. III) vorschlagen, verkleinert sich offensichtlich die für den Skeptiker verbleibende Lücke. Daß sich auf diesem Weg der Skeptiker jedoch nicht wirklich besiegen läßt, können die beiden folgenden Gedankengänge offenlegen: Erstens werden auch die epistemischen Wahrheitskonzeptionen im allgemeinen Wahrheit nicht mit dem identifizieren, was zur Zeit gerade für uns gerechtfertigt ist, denn damit würde Wahrheit ein höchst instabiles Gut, das zeitlich und interpersonell sehr variabel wäre. So weit wollen sich auch die Vertreter epistemischer Wahrheitskonzeptionen nicht von unserem traditionellen Wahrheitsverständnis entfernen. Sie verbinden mit dem Wahrheitsbegriff weiterhin gewisse Objektivitätsstandards. Putnam (1990, 163ff) wendet sich z. B. vehement gegen einen Relativismus in bezug auf Wahrheit, der für ihn mit der Aufgabe der Unterscheidung zwischen recht haben und glauben, recht zu haben, einhergeht und unser Sprechen damit zu einem bloßen Absondern von Geräuschen verkommen läßt. Für ihn übersieht der Relativist, „daß es eine Voraussetzung des Denkens selbst ist, daß es so etwas wie objektive »Richtigkeit« gibt" (1990, 168). Wahrheit ist nur mit unseren Evidenzen in einem idealen Grenzwert zu identifizieren und transzendiert demnach immer unsere tatsächlich verfügbaren Evidenzen. Das ruft wiederum den Skeptiker auf den Plan, der an dieser Stelle mit der Bemerkung einhaken kann: Wir verfugen über keinen Anhaltspunkt, um zu entscheiden, wie weit wir von diesem idealen Grenzwert mit unseren augenblicklichen Meinungen entfernt sind. Die Wissenschaft ist voll von Irrwegen und in einem dieser Irrwege können wir uns gerade befinden.23 Was macht uns so sicher, daß wir im Moment nicht einer überdimensionalen Phlogistontheorie zum Opfer fallen? Allein die Wendung zu epistemischen Auffassungen von Wahrheit offeriert noch keine

60

II Metatheoretischer

Rahmen

Indizien, mit welchen Teilen unseres Überzeugungssystems wir uns bereits in der Nähe dieses idealen Grenzwerts aufhalten und mit welchen wir uns auf einem möglicherweise kompletten Irrweg befinden. Daher bleibt auch für die epistemisch infizierten Wahrheitsbegriffe das Problem der Skepsis bestehen und ebenfalls das Problem, den Zusammenhang zwischen Wahrheit und Rechtfertigungen zu bestimmen - jedenfalls solange sie nicht bereit sind, jeden Objektivitätsanspruch für Wahrheit aufzugeben. Ein zweiter Punkt für das Scheitern der epistemischen Wahrheitskonzeptionen als Heilmittel gegen die Skepsis ist folgender: Auch wenn es uns mit dieser epistemischen Wendung der Wahrheitskonzeption gelänge, die Lücke zwischen Wahrheit und unseren Evidenzen zu schließen, hätten wir den Skeptiker damit nicht besiegt, sondern vielmehr klein beigegeben. In dem Maße, wie wir die Vorstellung einer objektiven Wirklichkeit, die unabhängig von uns existiert, verlassen, und uns darauf zurückziehen, Erkenntnisse über eine von uns konstruierte Welt zu besitzen, verlassen wir nämlich auch die Ausgangsposition, gegen die der Skeptiker angetreten war. Wir nähern uns dann idealistischen Auffassungen der Wirklichkeit, die selbst bereits grundlegend skeptisch infiziert sind.24 Epistemische Wahrheitskonzeptionen verfehlen also ihr Ziel, eine Therapie des Skeptizismus zu formulieren. Sie sind auch nicht verständlicher als eine Korrespondenzauffassung (s. B.3) und vor allem, sie sind als Zielvorstellung für eine Erkenntnistheorie unbrauchbar, was ein kleines Gedankenexperiment belegen kann. Nennen wir die Rechtfertigungen, die der erst noch zu entwickelnden Theorie epistemischer Rechtfertigungen in idealer Weise genügen, „ideale B-Rechtfertigungen" (für BartelborthRechtfertigungen). Eine Aussage p hieße dann im Rahmen einer dazu passenden epistemischen Wahrheitsdefinition genau dann wahr, wenn sie ideal B-gerechtfertigt wäre. Unsere Suche nach epistemischen Rechtfertigungen als eine Suche nach Wahrheitstests oder Wahrheitsindikatoren zu beschreiben, würde damit völlig uninformativ, denn es hieße nichts anderes, als daß wir nach B-Rechtfertigungen suchen, die Indikatoren für ideale B-Rechtfertigungen darstellen. Solange wir aber noch keine Konzeption von BRechtfertigungen besitzen, kann uns auch die Aufforderung zur Suche nach Indikatoren für ideale B-Rechtfertigungen keine Anhaltspunkte dafür an die Hand geben, was eine gute B-Rechtfertigung ist. Die Rede von Wahrheitsindikatoren gibt in dieser Wahrheitsauffassung keinen intuitiven Hinweis mehr, wonach wir suchen sollen, weil sie keine von unseren Rechtfertigungen unabhängigen Instanz mehr darstellt. Schlimmer noch, wir verlieren mit einem epistemischen Wahrheitsbegriff auch unseren Maßstab, mit dem wir verschiedene Theorien der Rechtfertigung vergleichen können. Eine andere Rechtfertigungstheorie, die mit B-Rechtfertigungen unverträgliche Rechtfertigungstypen favorisiert, nennen wir sie Theorie der A-Rechtfertigung, könnte mit demselben Recht wie die Theorie der B-Rechtfertigungen für sich in Anspruch nehmen, Wahrheitsindikatoren anzubieten, wenn Wahrheit in idealer Rechtfertigung besteht. Für einen Vertreter dieser A-Theorie der Rechtfertigung bestünde Wahrheit dann nämlich in idealer A-Rechtfertigung, für die selbstverständlich gerade ARechtfertigungen einen guten Indikator abgeben und nicht B-Rechtfertigungen. Die

B. Wahrheit und Wahrheitsindikatoren

61

Wahrheitssuche verliert so ihre anleitende Funktion für die Epistemologie, und die Auskunft, epistemische Rechtfertigungen seien Wahrheitsindikatoren wird zu einer relativistischen Auskunft. Ihre Bedeutung hängt von der jeweils vertretenen Rechtfertigungskonzeption ab. Ein Leitbild für die Erkenntnistheorie und einen neutralen Schiedsrichter für verschiedene Rechtfertigungstheorien kann der Wahrheitsbegriff dagegen nur dann verkörpern, wenn er von epistemischen Verunreinigungen befreit und damit auch neutral gegenüber verschiedenen Ansätzen der epistemischen Begründung ist. Gerade für die Erkenntnistheorie ist es daher notwendig, die Wahrheit eines Satzes und unsere Indizien dafür strikt auseinanderzuhalten. Es ist auch nicht schwer, einen derartigen von unseren Rechtfertigungstheorien unabhängigen Wahrheitsbegriff zu finden.

3. Eine Korrespondenztheorie der Wahrheit Die naheliegendsten Kandidaten dazu sind Korrespondenzkonzeptionen der Wahrheit, für die die Wahrheit einer Aussage in ihrer Übereinstimmung mit den Tatsachen besteht. Dieses Verständnis des Wahrheitsbegriffs entspricht unserem umgangssprachlichen Umgang mit „Wahrheit" und erscheint uns meist so selbstverständlich, daß die damit verbundene Charakterisierung von Wahrheit gern als trivial bezeichnet wird. Das stört mich keineswegs. Ich möchte nur eine besonders schwache und intuitiv verständliche Form der Korrespondenztheorie der Wahrheit vertreten, die, gerade wenn sie als trivial betrachtet wird, als Ausgangspunkt und metaphysischer Hintergrund der Untersuchung akzeptiert werden kann. In der hier vertretenen Version der Korrespondenzkonzeption möchte ich mich auch nicht damit beschäftigen, wie sich die Korrespondenzbeziehung weiter explizieren läßt. Das könnte etwa geschehen anhand einer Tarskischen Wahrheitstheorie, die zunächst die Wahrheit von Sätzen auf die Referenzbeziehungen seiner Komponenten und die Erfüllungsrelation zurückführt. Sie ließe sich ergänzen durch eine Referenztheorie für die Komponenten, für die ich eine Kombination aus einer Kennzeichnungstheorie und einer kausalen Referenztheorie wählen würde. Doch die erkenntnistheoretischen Untersuchungen dieser Arbeit möchte ich nicht mehr als unbedingt notwendig mit sprachphilosophischen und metaphysischen Annahmen aus anderen Gebieten belasten und deshalb soll nicht von semantischen Beziehungen der Teile eines Satzes zu Teilen der Wirklichkeit die Rede sein. Ebensowenig möchte ich die Metaphern von Abbildung der Wirklichkeit oder Übereinstimmung mit der Wirklichkeit überbeanspruchen. Daher werde ich nicht für eine Form von Ähnlichkeitstheorie zwischen der Wirklichkeit und bestimmten sie abbildenden Aussagen eintreten. Tatsächlich anknüpfen möchte ich dagegen an Aristoteles schlichte Kennzeichnung von Wahrheit: „Von etwas, das ist, zu sagen, daß es nicht ist, oder von etwas das nicht ist, daß es ist, ist falsch, während von etwas, das ist, zu sagen, daß es ist, oder von etwas, das nicht ist, daß es nicht ist, ist wahr." In Anlehnung an eine solche semantisch und metaphysisch bescheidenere Konzeption von Korrespondenz, nenne ich eine Aussage p dann wahr, wenn die Dinge so sind, wie es in p behauptet wird. Moser (1991, 26) zeigt,

62

II Metatheoretischer

Rahmen

daß diese intuitive Konzeption von Wahrheit die Tarski-Äquivalenz impliziert, aber nicht mit ihr äquivalent ist, was man von einer Korrespondenzauffassung auch erwarten sollte. Bereits BonJour (1985, 167f) hält für erkenntnistheoretische Untersuchungen eine entsprechende Wahrheitsdefinition für ausreichend. Er ergänzt sie für empirisches Wissen allerdings noch um eine Relativierung auf eine raumzeitliche Einordnung. Mit dieser Formulierung der Korrespondenzauffassung von Wahrheit, die in erkenntnistheoretischen Debatten häufiger zugrundegelegt wird, sollen die Probleme anspruchsvollerer Wahrheitskonzeptionen für das vorliegende Projekt ausgeklammert werden. Das soll nicht die Frage präjudizieren, ob anspruchsvollere Konzeptionen von Korrespondenztheorien möglich sind. Entsprechende Explikationen der Korrespondenzvorstellung sind eben nur nicht mein Thema. Da es mir hier nur um empirisches Wissen geht, ist eine solch schwache Korrespondenztheorie der Wahrheit auch gut verständlich, denn für diesen Bereich sind in geradezu paradigmatischer Weise unsere Intuitionen geprägt worden, was unter einer wahren Aussage zu verstehen ist.25 Insbesondere sollen durch eine Einschränkung auf nichtreflexive empirische Aussagen auch technische Komplikationen ausgeklammert werden, die durch die Paradoxien wie die Lügner-Paradoxie für eine vollständige Wahrheitstheorie zu berücksichtigen wären. Damit die Wahrheitskonzeption inhaltlich einen gewissen Gehalt behält, sollte sie allerdings zumindest die Zielvorstellung beinhalten, daß die Wendung „wenn die Dinge so sind' realistisch zu verstehen ist - also als eine Aussage über eine von unseren Ansichten dazu unabhängige Wirklichkeit.26 Wenn man sich in der Korrespondenztheorie nicht auf eine von uns unabhängige Wirklichkeit bezieht, würde die Klausel „wenn die Dinge so sind" in der Wahrheitsdefinition in unübersehbarer Weise abgeschwächt und eventuell auch mit idealistischen Auffassungen der Wirklichkeit verträglich sein, die zu verteidigen Erkenntnistheoretiker im allgemeinen nicht so spannend finden. Diese einfache Korrespondenzauffassung der Wahrheit scheint mir als Hintergrund für erkenntnistheoretische Analysen relativ unproblematisch zu sein, wenn wir weiterhin offen dafür sind, auch die realistischen Annahmen zur Disposition zu stellen. Trotzdem gibt es natürlich eine ganze Reihe von Einwänden sowohl gegen den Realismus wie auch die Korrespondenzkonzeption der Wahrheit, die zu einem großen Teil von Hilary Putnam kommen, der eine Art Galionsfigur des Antirealismus geworden ist, vielleicht, weil er sich selbst in der Frage des Realismus vom Paulus zum Saulus gewandelt hat. Diesen Einwänden nachzugehen bleibt allerdings anderen Arbeiten überlassen, in denen der Realismus das Hauptthema darstellt, während es an dieser Stelle genügen mag, den Rahmen zu benennen, in dem die Diskussion stattfinden soll.

4. Resümee Was kann und sollte der Erkenntnistheoretiker unter „Wahrheit" verstehen? Wenn er eine für epistemologische Projekte informative Antwort geben möchte, mit der er an klassische erkenntnistheoretische Fragestellungen anknüpft, kann die Antwort meines Erachtens nur in einer korrespondenztheoretischen Konzeption von Wahrheit zu suchen

C. Zur Struktur unserer

Erkenntnis

63

sein. Daß diese trotz zahlreicher antirealistischer Kritiken durchaus hoffähig bleibt, versuchte ich auf zwei Wegen plausibel zu machen: Erstens weisen andere Auffassungen von Wahrheit trotz einer Verwässerung des Wahrheitsbegriffs genügend eigenständige Probleme auf. Zweitens stütze ich mich nur auf eine schwache und intuitive Wahrheitskonzeption, die gegen viele Einwände von antirealistischer Seite relativ immun erscheint, weil diese sich oft auf weitergehende Behauptungen einer stärkeren realistischen Position beziehen. Gegen diese Korrespondenzauffassung von Wahrheit läßt sich zumindest nicht mehr einwenden, sie sei völlig unverständlich oder unmöglich, so daß es keinen Sinn hätte, an klassische Erkenntnisprobleme anzuknüpfen, ohne zunächst den metatheoretischen Rahmen völlig zu verändern, in dem sie formuliert wurden. Eine Verteidigung einer realistischen Korrespondenztheorie der Wahrheit erscheint vor allem dann aussichtsreich, wenn wir nicht den Strohmann betrachten, der uns von Antirealisten häufig als Realismus präsentiert wird, sondern eher an unsere „gewöhnlichen" Vorstellungen von Realität anknüpfen und versuchen, diese zu präzisieren.

C. Zur Struktur unserer Erkenntnis Eine der metatheoretischen Grundlagen meiner Überlegungen zur Erkenntnistheorie, aber auch zur Wissenschaftstheorie, soll eine Bestandsaufnahme der Struktur unseres Wissens und gerade unseres empirischen Wissens bilden. Dieses Vorgehen erwies sich als der einzig gangbare methodologische W e g (s. II.A) zur Begründung normativer Theorien der epistemischen Rechtfertigung. Die dafür notwendigen Untersuchungen unserer Vorstellungen von guter Rechtfertigung und paradigmatischen Beispielen von epistemischen Rechtfertigungen sind, was ihren empirischen Gehalt betrifft, auf einem recht allgemeinen Niveau angesiedelt. Es geht primär um Grundzüge unseres Wissens oder unserer Rechtfertigungspraxis und nicht etwa um Einzelheiten der Rechtfertigungsstruktur bestimmter Individuen, die zu erforschen natürlich in das Gebiet der empirischen Psychologie fällt. Im Vordergrund dieses Abschnitts steht daher die Einführung und Explikation allgemeiner Unterscheidungen und das Erarbeiten einiger terminologischer Hilfen dazu. Insbesondere wird auch das wissenschaftliche Wissen einbezogen. Dazu finden wir in der Wissenschaftstheorie bereits eine Vielzahl von Untersuchungen und konkreten Fallstudien vor, auf die ich mich im Verlauf der Arbeit immer wieder beziehen werde. Ihre systematische Analyse wird allerdings vornehmlich in den dritten eher wissenschaftsphilosophisch orientierten Teil fallen. Die zu Beginn entwikkelten begrifflichen Klärungen unseres Wissens und seiner Zusammenhänge sollen an geeigneter Stelle im Verlauf der Arbeit verfeinert werden. Da das Ziel der Untersuchung eine Theorie der Rechtfertigung ist, sind besonders die Rechtfertigungszusammenhänge und unsere intuitive Metatheorie dieser Zusammenhänge die Schwerpunkte dieses Abschnitts.

64

II Metatheoretischer

Rahmen

1. Epistemische Subjekte Wenn wir uns fragen, ob eine bestimmte Aussage oder Überzeugung gerechtfertigt ist oder wie sie zu rechtfertigen sein könnte, beziehen wir uns dabei immer - wenn auch manchmal nur versteckt - auf ein bestimmtes Aussagensystem relativ zu dem die Rechtfertigung zu denken ist. Betrachten wir nur die oben genannten Beispiele, in denen jemand aufgefordert wird, eine Behauptung zu begründen. Er hat dann andere seiner Meinungen zu zitieren, wenn er diesem Verlangen nachkommen möchte.27 Rechtfertigung von Meinungen ist daher nicht absolut zu denken, sondern immer relativ zu anderen Meinungen, auf die ich mich zu Zwecken ihrer Rechtfertigung berufe. 28 Gerechtfertigt sein per se könnte dann vielleicht als ein Spezialfall verstanden werden und hieße etwa „gerechtfertigt sein für ein allwissendes Wesen" oder „gerechtfertigt sein relativ zur Menge aller wahren Aussagen". Daß dieser „Spezialfall" nicht unproblematisch ist, ist offensichtlich. Als rechtfertigende Aussagensysteme denken wir uns im allgemeinen nicht beliebige Mengen von Aussagen, sondern solche Systeme, die wir einem epistemischen Subjekt S zuschreiben können. Wir fragen also normalerweise nicht, ob eine Überzeugung p per se gerechtfertigt ist, sondern ob p für S gerechtfertigt ist. Es scheint mir geradezu selbstverständlich zu sein, daß nur eine solche Frage Sinn hat. Man wird sogar noch weiter relativieren müssen und sagen: p ist zum Zeitpunkt t für S gerechtfertigt. Natürlich sind für verschiedene mögliche epistemische Subjekte wie z. B. bestimmte Menschen oder Götter in verschiedenen Situationen zu verschiedenen Zeiten andere Aussagen gerechtfertigt. In einer erkenntnistheoretischen Untersuchung ist man dabei in erster Linie an begründenden Zusammenhängen interessiert, die nicht mit den Eigenheiten verschiedener Personen variieren sollten, sondern interpersonelle Gültigkeit besitzen. Demnach könnte man von den jeweiligen Subjekten und ihren speziellen Eigenschaften auch abstrahieren und etwa von epistemischen Zuständen sprechen, wie das in einigen Bereichen der epistemischen Logik geschieht. Da ich mich aber nicht bei den zahlreichen zum Teil recht technischen Problemen einer Beschreibung oder gar formalen Explikation epistemischer Zustände aufhalten möchte (und formale Präzisierungen epistemischer Zustände an dieser Stelle auch für verfrüht halte), belasse ich es dabei, in der anschaulicheren Redeweise von epistemischen Subjekten und ihren Überzeugungen zu sprechen.29 Insbesondere sollen der Einfachheit halber nur Überzeugungen ohne weitere Qualifizierung wie etwa probabilistische Abschwächungen (Glaubensgrade) betrachtet werden, die eine vorerst unnötige Komplikation ins Spiel brächten. Im folgenden ist also die genannte Relativierung von Rechtfertigungen auf ein Aussagensystem immer mit zu denken, auch wenn sie nicht explizit angegeben wird. Dieser Punkt erscheint selbstverständlich und seine Erwähnung fast überflüssig, wenn er nicht in bestimmten erkenntnistheoretischen Debatten wieder vergessen würde, was mich später zwingen wird, auf ihn zurückzugreifen. Hauptsächlich werde ich unter „epistemischem Subjekt" an Menschen und ihre Überzeugungen denken, aber auch andere Möglichkeiten werden keineswegs ausge-

C. Zur Struktur unserer Erkenntnis

65

schlössen. So könnten Gruppen von Menschen - man denke nur an die vielbeschworene „scientific Community" Tiere, Computer oder Gott als epistemische Subjekte auftreten. Das ist auch nicht unüblich, so spricht etwa Lehrer in (1987) von „social knowledge", für das er nahezu dieselben Bedingungen wie für individuelles Wissen postuliert.

2. Inferentielle Rechtfertigungen Eine weitere Abgrenzung, die bisher schon implizit vorausgesetzt wurde, soll noch explizit angegeben werden. Wenn ich von Überzeugungen oder Wissen oder unserem Wissenskorpus spreche, so beziehe ich mich damit immer auf Entitäten, die die Struktur von Aussagen (.Propositionen) haben, also wahrheitswertfähig sind. Für die zu rechtfertigenden Aussagen ist das naheliegend, denn wir suchen nach Wahrheitsindikatoren für sie, was zumindest voraussetzt, daß sie selbst wahrheitswertfähig sind. Aber auch die Rechtfertigung besteht wiederum aus Aussagen und ihren inferentiellen Beziehungen zur rechtfertigenden Aussage. In der Diskussion fundamentalistischer Ansätze der Epistemologie (III.B) werde ich daneben zwar auch Vorschläge für andere Rechtfertigungsverfahren untersuchen, aber auf ein generelles Problem solcher Ansätze, die etwa von einer direkten Konfrontation bestimmter Aussagen mit unserer Wahrnehmung sprechen, sei schon an dieser Stelle hingewiesen. Wenn ein bestimmter Wahrnehmungszustand zur Rechtfertigung herangezogen wird, so läßt sich immer die Frage stellen, ob er vielleicht neben anderem auch kognitiven Gehalt besitzt, d.h. ob er bestimmte Aussagen beinhaltet, wie daß das Haus vor mir rot ist. Ist das der Fall, so können wir die Rechtfertigung natürlich auf diese Aussagen beziehen, die er beinhaltet. Ist das aber nicht der Fall und der Wahrnehmungszustand, wird von uns so charakterisiert, daß er keine begrifflich bestimmten und behauptenden Bestandteile enthält, so bleibt es ein offenes Problem, wie ein solcher Zustand überhaupt rechtfertigend für eine Aussage wirken kann. Der Hinweis auf die propositionale Struktur von Meinungen soll Meinungen unter anderem von anderen Arten von Informationsbesitz abgrenzen (vergleiche dazu Bieri 1987, 17ff). Auch Thermostaten haben in einem gewissen Sinn bestimmte Informationen über die Temperatur ihrer Umgebung. Doch ich möchte den Begriff der Überzeugung so anspruchsvoll benutzen - und das ist meines Erachtens in der Erkenntnistheorie auch erforderlich (s. dazu III.A.l.d) - , daß man ihnen in diesem Sinne keine Überzeugungen zusprechen darf. Das scheint schon deshalb sinnvoll, weil sie ihre Informationen nicht in einer Weise intern repräsentieren, die zu unseren Zuschreibungen von Überzeugungen paßt. Ohne daß ich mich zu weit in die Gefilde der Philosophie des Geistes oder der Sprachphilosophie vorwagen möchte, seien doch einige Intuitionen genannt, die meine Verwendung des Überzeugungsbegriffs leiten. Dazu gehört, daß derjenige, der eine Überzeugung hat, über eine Sprache verfügt und die in Frage stehende Überzeugung auch in dieser Sprache repräsentiert werden kann. Die Formulierung ist bewußt so vorsichtig gewählt, weil ich keineswegs behaupten möchte, daß die interne Speicherung dieser Überzeugungen ebenfalls immer in propositionaler Form erfolgen muß. Aber

66

II Metatheoretischer

Rahmen

auch wenn sie z. B. für die uns gerade nicht bewußten Überzeugungen, die den überwältigenden Anteil an unseren Überzeugungen ausmachen, in nicht propositionaler Struktur vorgenommen würde, so können wir sie doch nur in propositionaler Form als Grundlage für unser erkenntnistheoretisches Räsonieren verfugbar machen - jedenfalls, wenn es uns um bewußte Rechtfertigungen von Überzeugungen handelt, wie sie für Wissen erforderlich sind. Für kognitive Rechtfertigungen wird man weiterhin verlangen, daß das epistemische Subjekt die fraglichen Überzeugungen auch verstehen kann und nicht nur nachplappert wie ein Papagei. Die zuletzt genannte Bedingung ist offensichtlich sinnvoll, aber ihre Explikation ist wiederum ein eigenständiges und sicher schwieriges Thema der Philosophie des Geistes. In meinem Projekt soll es nur um kognitive epistemische Rechtfertigungen gehen, wie sie der menschlichen Erkenntnis eigentümlich sind, und die Forderung nach inferentiellen Rechtfertigungen, bei denen die Rechtfertigungen im wesentlichen aus Aussagen bestehen, ist ihm daher angemessen. Bezogen auf den Thermostaten dürfte diese Bemerkung verhältnismäßig leicht nachvollziehbar sein.30 Er besitzt zwar Informationen, aber er verfügt nicht in irgendeinem anspruchsvolleren Sinn über Rechtfertigungen und noch nicht einmal über Überzeugungen. Neben solchen klaren Fällen stoßen wir auf eine Reihe anderer Beispiele, für die unsere Intuitionen nicht so einmütig sind. Man kann vermutlich zwischen dem Thermostaten und dem Menschen eine Kette von Fällen konstruieren, für die Informationsbesitz relativ kontinuierlich an Überzeugungsähnlichkeit gewinnt. Die Informationen werden immer stärker in einer semantisch zu nennenden Form abgelegt. Von diesen denkbaren Ketten kann ich nur einige Glieder anführen, die jeweils einige der für Überzeugungen notwendige Bedingungen erfüllen: Unsere Chromosomen speichern oder beinhalten hochkomplizierte Informationen in den DNS-Strängen. Man kann sogar wie Baines (1989) von einer genetischen Sprache mit Sätzen und einer Grammatik sprechen, die aus vier Grundbausteinen - Wörtern oder Buchstaben - ihre Informationen zusammensetzt und sie mit Hilfe von Satzzeichen strukturiert. Das werde ich nur als analoge Verwendungen des Ausdrucks Sprache bezeichnen und möchte in derartigen Fällen nicht von Überzeugungen sprechen, die in unseren Genen niedergelegt sind. Dabei ist für mich die Intuition im Spiel, daß es so etwas wie eine bewußte Verarbeitung der Informationen in Form von Propositionen geben muß, damit Überzeugungen vorliegen können. Etwas schwieriger wird die Entscheidung schon im Falle von Schachcomputern, bei denen eine Art inferentieller Verarbeitung der Informationen stattzufinden scheint. Nach Dennett (z. B. 1987) sollten wir ihnen Überzeugungen zuschreiben. Sein Argument dafür ist, daß wir uns auf diese Weise ihre Züge am besten erklären und sie am zuverlässigsten vorhersagen können. Diese Art der Zuweisung bestimmter Eigenschaften zu Gegenständen der Welt scheint dem auch von mir geliebten Schluß auf die beste Erklärung zu entsprechen. Daß ich Dennett darin trotzdem nicht folgen möchte, verlangt eigentlich nach einer umfangreicheren Diskussion, die aber eher in den Bereich der Philosophie des Geistes gehört. Hier mögen einige Bemerkungen ausreichen. Wenn wir nach einer Erklärung suchen, so wünschen wir uns eine wahre Erklärung, die die tat-

C. Zur Struktur unserer Erkenntnis

67

sächlichen Ursachen für ein Ereignis namhaft macht. Doch es ist unklar, ob unsere propositionale Beschreibung des Computers das leisten kann. So paßt zu unserer Vorstellung von den jetzt konstruierbaren Schachcomputern - darüber was in einer sehr phantasievollen Science Fiction Geschichte möglich sein könnte, möchte ich nicht weiter spekulieren - eine Beschreibung, nach der ihre Strategien propositional repräsentiert werden, nicht kohärent hinein. Das wird schon in einer Betrachtung des Schachprogrammbeispiels deutlich. Für Schachcomputer wissen wir, daß sie von ihrem Programmaufbau her anhand recht einfacher Stellungs- und Variantenberechnungsverfahren arbeiten, die uns eher an einen komplizierten Thermostaten als an bewußte Informationsverarbeitung erinnern. Unsere Beschwörung: „Er plant einen heimtückischen Königsangriff' werden wir daher als eine typische „als ob" Beschreibung verstehen. Wir wählen dieses „als ob" Vorgehen, nicht als beste Erklärung, sondern eher wegen seiner Prognosemöglichkeiten. Es erlaubt uns wenigstens einige oberflächliche Vorhersagen, wie der Computer wohl weiterspielen wird. Aber wenn uns auch Schachcomputer intuitiv kaum geeignete Kandidaten für die Zuschreibung von Überzeugungen zu sein scheinen, werden wir schwankend, wenn wir an höher entwickelte Computer oder Roboter denken. Spätestens bei Computern, die einen Turing-Test bestehen, d.h. mit denen man sich unterhalten könnte, ohne an der Unterhaltung selbst zu bemerken, daß es sich um einen Computer und nicht einen Menschen handelt, scheiden sich bekanntlich die Geister. Zugegeben, es handelt sich dabei zumindest zum Teil um eine terminologische Frage. Unser Überzeugungsbegriff ist zu einem gewissen Grad anthropomorph und widersetzt sich schon daher einer solchen Zuschreibung. Das möchte ich aber an dieser Stelle nicht zu stark machen. Man könnte ja auch für eine sinnvolle Revision dieses Begriffs im Rahmen einer Theorie des Geistes plädieren, die uns von einem derartigen ArtenChauvinismus befreit. Die Frage, ob auch Computer Überzeugungen haben, wird hier also nicht entschieden. Ein anderer Schritt, der unsere Ansicht, ob echte Überzeugungen vorliegen, auf die Probe stellt, ist der zum Tier. Bei manchen höher entwickelten Arten gibt es sicher Ansätze für eine Sprache. Wie dieser Fall letztlich einzuschätzen ist, ist hauptsächlich eine Frage an den Fachwissenschaftler und nicht an den Philosophen. Daher kann ich bestenfalls eine laienhafte Ansicht anbieten, die sich auf mein geringes Wissen zu diesem Problem stützt und eher als Klärung meiner Verwendung des Wortes „Überzeugung" dienen soll. Demnach scheinen mir Verständigungsmöglichkeiten bei Tieren im allgemeinen noch nicht hinreichend, um von einer Sprache mit Aussagen in dem vollen Sinne zu sprechen, den ich hier verwende, da es auch bei ihnen keine entsprechend reflektierte Verwendung von Überzeugungen zu geben scheint. Doch daran hängt für mein Projekt nicht viel. Wenn wir ihnen Überzeugungen zuschreiben möchten, kommen wir allerdings zunächst in Schwierigkeiten, weil uns ihr Repräsentationssystem dazu nicht ausreichend vertraut ist. Schon aus diesem Grund werde ich mich auf Überzeugungen beschränken, die in einer uns bekannten menschlichen Sprache formuliert sind.

68

II Metatheoretischer

Rahmen

3. Implizites Wissen Ein weiterer Punkt, der ebenfalls den Fragenkomplex betrifft, inwieweit man davon sprechen darf, daß reale epistemische Subjekte also z. B. Menschen in bestimmten Überzeugungen gerechtfertigt sein können, soll noch gestreift werden. Die Zuschreibung von Überzeugungen und inferentiellen Rechtfertigungen ist mit vielen aus der Philosophie des Geistes bekannten Problemen behaftet. Diese stehen meist deshalb nicht im Vordergrund meiner Aufmerksamkeit, weil ich eher die Frage untersuche, ob iur ein vorgegebenes Überzeugungssystem S eine bestimmte Überzeugung p gerechtfertigt ist, statt die, wann und wie man jemandem (gerechtfertigte) Überzeugungen zuschreiben kann. Trotzdem tauchen im Zusammenhang mit Erkenntnistheorien immer wieder Fragen danach auf, wie realistisch ihre Rechtfertigungskonzeptionen sind und ob Menschen in diesem Sinn überhaupt über Begründungen für irgendwelche ihrer Überzeugungen verfugen. Auch wenn dieser Aspekt nicht zentral für mein Vorhaben ist, sind dazu einige Bemerkungen angebracht. Unsere Zuschreibungen von Überzeugungen und Rechtfertigungen beziehen sich nicht nur auf unsere jeweils bewußten Überzeugungen - das sind im Normalfall auch nur sehr wenige - , sondern müssen ebenfalls unsere impliziten Überzeugungen mit umfassen. Schon unser eigener Name oder unser Geburtsdatum und vieles mehr, das uns ganz vertraut ist, sind uns in vielen Augenblicken nicht bewußt. Das sollte natürlich nicht in erkenntnistheoretischen Zusammenhängen dazu führen, daß wir auf die Behauptung festgelegt sind: Wir wüßten nicht, wie wir heißen. Es erscheint erkenntnistheoretisch relativ unproblematisch, uns entsprechende unbewußte Überzeugungen zuzuschreiben.31 Das gilt in ähnlicher Weise für viele Überzeugungen unseres Alltagslebens. Etwa daß Telefone im allgemeinen nicht eßbar sind, Treppen unser Gewicht tragen wohlgemerkt hier ist vom Normalfall die Rede - , und unzählige andere Dinge dieser Art.32 Diese impliziten oder unbewußten Überzeugungen sind am ehesten als Dispositionen zu bestimmten bewußten Überzeugungen oder einem entsprechenden etwa sprachlichem Verhalten zu verstehen. Wenn wir von einer realistischen Auffassung von Rechtfertigung reden möchten, sollten tatsächlich zumindest einige unserer gewöhnlichen Überzeugungen gerechtfertigt sein. Das kann aber nur der Fall sein, wenn wir die impliziten Überzeugungen und Rechtfertigungen, die wir dispositionell besitzen, mit einbeziehen. Das entspricht unserem alltäglichen Sprachgebrauch und sollte uns daher vertraut erscheinen. Sicherlich lassen sich Grenzbereiche angeben, wo schwer zu entscheiden ist, ob jemand eine bestimmte Überzeugung implizit besitzt. Das Ergebnis von mathematischen Berechnungen, ist uns im allgemeinen vorher nicht bekannt. Haben wir dann schon vor unserer expliziten Berechnung die Überzeugung, daß 1235+4234=5469 ist? In diesen Fällen gibt es eine nachprüfbare Disposition zuzustimmen, aber oft verlangt man von Überzeugungen mehr, etwa, daß wir sie zumindest irgendwann schon einmal bewußt gehabt haben. Diese Forderung erscheint mir jedoch zu stark, wenn wir an andere Fälle denken. Dann gehörten nämlich auch selbstverständliche Meinungen, die auch in

C. Zur Struktur unserer Erkenntnis

69

unserem Verhalten dokumentiert werden, wie die, daß Telefone meistens nicht eßbar sind, nicht zu unseren impliziten Überzeugungen, auf die wir bei der Suche nach einer Rechtfertigung bezug nehmen dürfen. Wenn wir uns in einer Rechtfertigung unserer Ansichten jedoch nur auf derartig selbstverständliche Meinungen zu stützen haben, wird kaum jemand einwenden, man wäre in seiner Ansicht deshalb nicht gerechtfertigt gewesen, weil man nie vorher bewußt gedacht hatte, daß Telefone nicht eßbar seien. Damit sollen unter „implizite Überzeugungen" sowohl die momentan unbewußten Überzeugungen wie auch einfache Ableitungen aus unseren Überzeugungen, die wir bei kurzer Reflexion ziehen, subsumiert werden. Gewisse Vagheiten der Zuschreibung impliziter Meinungen können hier nicht ausgeräumt werden, sind aber tolerierbar, denn im Vordergrund stehen Fragen nach der Natur des Rechtfertigungszusammenhangs und nicht in erster Linie Fragen danach, ob man von bestimmten Personen sagen kann, sie seien in ihren Meinungen gerechtfertigt. Ebenso wie man viele Überzeugungen nur als implizite Überzeugungen zuschreiben kann, darf man natürlich auch von vielen Rechtfertigungen nur impliziten Besitz erwarten. D.h., wir sind nach einer gewissen Reflektion auf das Ersuchen um eine Rechtfertigung in der Lage, eine solche zu produzieren (s.a. BonJour 1985, 20).33 Schon Descartes, der in den Meditationen von einer weitgehenden Transparenz unseres Geistes gegenüber sich selbst ausging, kannte das Problem impliziten Wissens. Allerdings birgt für Descartes das implizite Wissen immer eine Irrtumsmöglichkeit, die für bewußte Meinungen nicht gegeben ist, denn implizites Wissen ist für ihn nicht klar und deutlich. Klar und deutlich können stets nur unsere momentan bewußten Vorstellungen sein. Selbst für die mathematischen Wahrheiten gilt: Sobald wir nicht mehr an sie denken, sind wir uns ihrer nicht mehr sicher, weil sie uns in dem Moment auch nicht mehr klar und deutlich gegeben sind. Um so mehr bedroht dieses Problem, daß wir unsere Aufmerksamkeit immer nur auf einen Teil unserer Meinungen richten können, jeden anderen Bereich unseres Wissens, so daß wir nach Descartes zur Überwindung des Zweifels immer auf Gott angewiesen sind: Da ich von einer solchen Natur bin, daß ich, solange ich etwas ganz klar und deutlich erfasse, an dessen Wahrheit glauben muß, und da ich aber auch von einer solchen Natur bin, daß ich nicht mein geistiges Auge immer auf dieselbe Sache richten kann, um sie klar aufzufassen, und die Erinnerung an die früher gebildete Meinung oft wiederkehrt, so können, wenn ich nicht mehr auf die Gründe achte, derentwegen ich so geurteilt habe, mir andere Gründe entgegentreten, die mich, falls ich nicht wüßte, daß Gott existiert, leicht von der Meinung abbringen würden, und so hätte ich niemals von irgendeiner Sache ein wahres und sicheres Wissen, sondern nur unbestimmte und veränderliche Meinungen. (Descartes 1986, 173)

Die mathematischen Wahrheiten sind implizit verfügbar und jederzeit ins Bewußtsein zurückzurufen. Aber Descartes muß Gott bemühen, um sich solcher impliziten Wahrheiten auch in ihrem impliziten Zustand gewiß zu sein. Descartes Konzeption von Rechtfertigung ist damit deutlich anspruchsvoller, als die hier vertretene, da er für Rechtfertigungen Gewißheit verlangt, die uns momentan bewußt ist, während ich auch implizite rechtfertigende Überzeugungen und Rechtfertigungen gelten lasse. Das hängt natürlich

70

II Metatheoretischer Rahmen

mit seiner strengen Forderung nach Sicherheit oder Unkorrigierbarkeit (s.a. III.B) zusammen, der ich mich nicht anschließen werde. Sie stellt für implizite Überzeugungen das Problem des Erinnerungsirrtums in den Vordergrund, auf dessen Bedeutung für die Erkenntnistheorie ich in (IV.B.4) zu sprechen komme.

4. Epistemische Arbeitsteilung Ein grundlegendes Phänomen realer epistemischer Begründungen wird durch eine überwiegend vereinfachende und stark von historischen Positionen geprägte Erkenntnistheorie außer acht gelassen. Gegen das einfache Bild der Empiristen - und das entsprechend einfache auf Seiten der Rationalisten daß eine einzelne Person auf sich allein gestellt bestimmte Beobachtungen macht, dann Theorien dazu entwickelt und sie durch diese Beobachtungen rechtfertigt, soll eine Konzeption von Wissen und Rechtfertigungen konstruiert werden, die besser zu unserem offensichtlich arbeitsteiligen Wissenserwerb paßt. Daß unser Wissenserwerb im Regelfall kein Unternehmen für Einzelgänger ist, beschreibt Gilbert Harman in der folgenden Form: Learning about the world is a cooperative enterprise. One comes to accept things as a member of one's family or society of profession or culture. It is only when people become methodologically self-conscious that they distinguish their own private opinions from the things they accept as members of a group. (Harman 1986, 51) Für naturalistische Vorgehensweisen haben diese evidenten soziologischen und psychologischen Tatsachen auch erkenntnistheoretische Konsequenzen, die eine Beschränkung auf eine solipsistische Position - und insbesondere eine Beschränkung auf einen Solipsismus der Gegenwart, wie wir ihn z. B. bei Descartes als erkenntnistheoretischen Ausgangspunkt finden - nicht einfangen kann. In unserem Wissenskorpus stoßen wir an zahlreichen Stellen auf Überzeugungen, deren wir uns mit guten Gründen sicher sind, die wir jedoch nicht allein begründen können, ja für die wir nicht einmal über implizite Rechtfertigungen verfügen. Zu ihrer Rechtfertigung sind wir wesentlich auf das Zeugnis und die Kenntnisse anderer Leute angewiesen. Das betrifft bereits die einfachsten Meinungen über alltägliche Dinge, die in der Nachbarschaft, der Politik, in anderen Ländern oder schlicht in unserer Abwesenheit passieren, ist aber viel brisanter für den Bereich wissenschaftlichen Wissens. Bei Überzeugungen über die Schädlichkeit von Cholesterin, die Wirkungen von Vitaminen, das Verhalten von Atomen oder Computern etc. sind wir auf die Urteile von medizinischen und anderen Fachleuten und ihre Rechtfertigungen für diese Meinungen angewiesen. Unsere Überzeugungen, daß die Sonne morgen wieder aufgehen wird, daß der Mond sich um die Erde bewegt usw., sind sicher nicht unbegründet, so daß wir sogar höhere Wetten darauf abschließen würden. Und wer möchte wohl dagegen halten? So wettete der Mathematiker G.H. Hardy täglich, daß die Sonne wieder aufgeht, sein Vermögen gegen einen halben Penny (nach Dawkins 1990, 137). Was könnten die meisten von uns aber als Begründung dieser Ansicht anführen? Wohl nicht viel, wenn sie nicht auf Fachbücher und Experten verweisen. Direkt zugänglich bleiben für viele

C. Zur Struktur unserer Erkenntnis

71

nur Rechtfertigungen wie: Daß es schon immer so war, wobei sie das aus eigener Anschauung nur für sehr wenige Tage der Erdgeschichte behaupten können, und vielleicht noch, daß die Erde sich dreht. Aber selbst ein heutiger Physiker, der sich guten Gewissens auf seine Kenntnisse der Mechanik bei der Erklärung der Bewegung von Sonne, Erde und Mond stützen kann, hat damit direkten kognitiven Zugang nur zu einem recht kleinen Teil der gesellschaftlich verfugbaren Daten. Er kann unmöglich die vielen Meßdaten über die Umlaufbahnen im Gedächtnis haben. Ohne die enorme Zahl von Daten sind die mechanischen Theorien allein aber noch keine gute Begründung unserer Annahmen. Sollen wir nun sagen, daß wir uns geirrt haben über die Güte der uns zur Verfugung stehenden Rechtfertigungen? Womöglich gibt es keinen einzigen Menschen, der auch nur einen kleinen Teil unserer Gründe für unser Modell des Sonnensystems in der Form parat hat, daß man sie ihm als eine Form von impliziten Wissen zuschreiben könnte. Sie sind inzwischen vielmehr in Computern gespeichert. Gibt es daher niemanden, der in den genannten Annahmen im starken Sinn des Wortes gerechtfertigt ist? Das scheint keine plausible Beschreibung unserer epistemischen Situation zu sein. Einige Wissenschaftler etwa der Nasa haben Zugriff auf diese Daten und können sie im Prinzip zum Test unserer Vorstellung vom Planetensystem heranziehen und tun das bei vielen Gelegenheiten auch. Wir dürfen darauf verweisen, daß bestimmte Daten an bestimmten Stellen im Prinzip verfugbar sind und von Wissenschaftlergruppen ausgewertet werden, auch wenn wir sie selbst nicht parat haben und noch nicht einmal wissen, welchen Umfang und welcher Art diese Daten sind. Sollten wir diese Möglichkeiten zur Rechtfertigung unserer Ansichten ausschließen, weil sie nicht der klassischen stark solipsistisch geprägten : Vorstellung vom Erkenntniserwerb im Rahmen eines methodologischen Solipsismus entsprechen, würden wir auf die umfangreichste Wissensquelle verzichten, die uns zur Verfugung steht. Dann erhalten die Skeptiker sofort die Oberhand, die uns vorwerfen, daß wir auch schwächere Anforderungen als absolute Gewißheit niemals erreichen werden. Eine Aufgabe der heutigen Erkenntnistheorie ist zu untersuchen, wie das sozial verfügbare Wissen in die Begründungen unserer Meinungen eingehen kann. Worüber wir zunächst verfugen, sind Einschätzungen darüber, wie bedeutsam die von der Gesellschaft gesammelten Daten sind und darüber hinaus Einschätzungen, aus welchen Quellen wir über welche Dinge mit welchem Zuverlässigkeitsgrad Auskunft erlangen können. Unsere Ansichten über die Bewegungen der Planeten sind durch die immensen wissenschaftlichen Datensammlungen tatsächlich begründeter, als es entsprechende Ansichten der Menschen früherer Jahrhunderte waren, obwohl das neu hinzugekommene Wissen eher ein Expertenwissen ist, das für keinen Menschen mehr direkt zugänglich ist. Daß die gesellschaftlich verfügbaren Theorien und Daten eine begründete Sicht der Planetenbewegung abgeben, ist für uns auch anhand der Erfolge der Raumfahrt indirekt erkennbar. Erfolgreiche Flüge zum Mond, Erd- und andere Satelliten sind für uns am ehesten verständlich, wenn wir davon ausgehen, daß unsere wissenschaftlichen Theorien über ihre Bewegungen und Anziehungskräfte im wesentlichen richtig sind. Indizien

72

II Metatheoretischer

Rahmen

dafür, daß die wissenschaftlichen Theorien der Mechanik ein richtiges Bild der Welt zeichnen, finden wir noch in vielen anderen Bereichen. Wir können uns an unzähligen Stellen - die Beispielliste zeigte nur einen sehr kleinen Ausschnitt - auf Rechtfertigungen für unsere Überzeugungen stützen oder berufen, die wir nicht direkt zur Verfugung haben und die überhaupt keine Einzelperson zur Gänze parat haben kann, die aber in unserer Gesellschaft verfügbar sind. Das bezeichne ich, in auch inhaltlich enger Anlehnung an Putnams Überlegungen zur Bedeutungstheorie (s. Putnam 1979, 37ff), als ejoistemische Arbeitsteilung. Die Rechtfertigungen lassen sich stückweise zusammensetzen, wobei die Stücke verschiedenen Personen verfügbar sind. Trotzdem können sich in bestimmter Weise auch andere oder sogar alle Mitglieder der Gesellschaft darauf berufen. Man kann zu Zwecken der Abgrenzung Begründungen dieser Art als indirekte Rechtfertigungen durch epistemische Arbeitsteilung bezeichnen. Erst wenn wir sie berücksichtigen, erhalten wir Menschen, die nicht nur mit lauter unbegründeten Meinungen ausgestattet sind. Ein Projekt einer heutigen Erkenntnistheorie sollte es somit sein, den Formen gesellschaftlichen Wissens und unseren indirekten Zugriffsmöglichkeiten darauf im Hinblick auf Rechtfertigungen weiter nachzuspüren. Dieses Vorhaben ist natürlich zu einem guten Teil ein empirisches Forschungsprogramm, für das sich eine Zusammenarbeit etwa mit der Wissenschaftssoziologie anbietet. In dem Sinne, daß wir uns nicht direkt auf eigene Überzeugungen in unseren Rechtfertigungen stützen, habe ich Rechtfertigungen, die sich wesentlich auf gesellschaftlich verfugbares Wissen stützen, „indirekte Belege" für die Wahrheit unserer Meinungen genannt. Indirekte Belege behandeln wir häufig mit einer gewissen Skepsis. Oft mit größerer Skepsis als die meisten anderen Indizien. Man denke nur an die Einschätzung von Behauptungen, die man nur vom Hören-Sagen kennt, vor Gericht. Epistemisch problematisch ist in diesen Fällen meist, daß wir nur wenig über die epistemische Zuverlässigkeit der Quellen dieser Behauptung aussagen können. Jede indirekte Rechtfertigung, die sich auf gesellschaftlich verfügbares Hintergrundwissen bezieht, bedarf aus diesem Grund einer besonders sorgfältigen Einschätzung der Zuverlässigkeit ihrer Quelle, die über ihren rechtfertigenden Charakter mitbestimmt. Solche Einschätzungen müssen sich ihrerseits im allgemeinen wieder auf nur sozial verfügbare, ebenfalls recht indirekte Belege stützen, ohne das wir die Begründungsstrukturen, die diesem gesellschaftlichen Wissen zugrunde liegen selbst überprüfen könnten. Daneben werden wir zur Bewertung indirekter Belege prüfen, wie kohärent sie sich in unser bisheriges Hintergrundwissen einpassen lassen. Die Belege, die wir dafür heranziehen sind vielfältig, und die verlangten Einschätzungen stehen in einem umfangreichen Netz von anderen Überzeugungen und MetaÜberzeugungen, anhand dessen sie in holistischer Weise vorgenommen werden. Ähnliches trifft aber auch für unsere eigenen Erinnerungen zu, wenn wir sie in epistemisch verantwortlicher Weise einschätzen wollen. Wir müssen uns dazu ganz analog überlegen, unter welchen Bedingungen wir unseren Erinnerungen trauen können (s. dazu IV.B.4). Sicherlich sind viele Teile des gesellschaftlich begründeten Wissens

C. Zur Struktur unserer Erkenntnis

73

epistemisch eindeutig unproblematischer, als z. B. viele unserer Erinnerungen, von denen wir oft genug erfahren müssen, daß sie uns trügen. Trotzdem lassen wir Meinungen, die sich auf Erinnerungen berufen, meist ohne große Bedenken für Rechtfertigungen zu. Daher sollten wir auch die indirekten Rechtfertigungen durch epistemische Arbeitsteilung nicht schlechter behandeln und mit entsprechenden Vorbehalten, was ihre Zuverlässigkeit betrifft, ebenfalls akzeptieren. Ein ganz anderer Zugang zur epistemischen Arbeitsteilung findet sich noch außerhalb erkenntnistheoretischer Überlegungen in sprachphilosophischen Positionen, die den sozialen Beitrag zur Bedeutung unserer Äußerungen und Überzeugungen betonen. Wenn wir z. B. als einziges Heilmittel gegen Probleme um „private Sprachen" im Sinne Wittgensteins wesentlich auf die Sprachgemeinschaft angewiesen sind, so wird die gesellschaftliche Arbeitsteilung bereits für die Festlegung, was wir meinen, konstitutiv und natürlich um so mehr für alles, was darauf aufbaut. Doch diesen sprachphilosophischen Zusammenhängen kann ich an dieser Stelle nicht weiter nachgehen, sondern möchte mich statt dessen einem engen Anknüpfungspunkt zur Argumentationstheorie zuwenden. Die epistemische Arbeitsteilung trifft sich mit einer Argumentform, die in der Argumentationstheorie gut bekannt ist, nämlich dem Argument aus der Autorität. Zwischen epistemischen Rechtfertigungen und Argumenten gibt es eine enge Beziehung, aber doch Unterschiede in der Betonung (s. Kap I). Während es für Rechtfertigungen nur auf den tatsächlichen Zusammenhang zwischen Rechtfertigung und gerechtfertigter Meinung ankommt, spielt für Argumente stärker ihr pragmatischer Kontext eine Rolle; an wen sie adressiert sind, welches Hintergrundwissen der jeweilige Adressat mitbringt und ob sie so formuliert sind, daß sie Überzeugungskraft besitzen. Trotzdem sollte sich im Prinzip aus jeder guten Rechtfertigung ein Argument gewinnen lassen, indem man sie didaktisch so aufbereitet, daß sie den Adressaten überzeugt. Andererseits gehört zu einem guten Argument meines Erachtens ebenfalls, daß es nicht nur gut ankommt, sondern auch sachlich richtig ist, also eine gute Rechtfertigung dahinter steht. Den Rechtfertigungen per epistemischer Arbeitsteilung entsprechen dabei in etwa die Argumente aus der Autorität, in denen man sich für eine Behauptung auf Autoritäten beruft. Diese Argumentform hatte lange Zeit keinen guten Ruf, stand sie doch auf den ersten Blick dem Fehlschluß eines argumentum ad hominem verdächtig nahe, aber eine Präzisierung zeigt auch deutlich die erkenntnistheoretisch bedeutsamen Unterschiede. Für die prinzipielle Zulässigkeit von Argumenten aus der Autorität tritt Salmón überzeugend ein: Nur ein notorischer Besserwisser kann annehmen, daß es niemals erlaubt ist, sich auf • Autorität zu berufen, denn bei der Aneignung und Anwendung von Wissen kann man nicht darauf verzichten, sich in angemessener Weise einer Autorität zu bedienen. Wenn wir jede Berufung auf Autorität ablehnen würden, dann müßten wir zum Beispiel behaupten, daß niemand jemals Grund hat, das Urteil eines erfahrenen Arztes über eine Krankheit zu akzeptieren. Man müßte vielmehr versuchen, selbst ein erfahrener Arzt zu werden, würde aber dabei der unlösbaren Aufgabe gegenüberstehen, sich niemals auf die Ergebnisse anderer

74

II Metatheoretischer Rahmen

Experten verlassen zu dürfen. Anstatt die Berufung auf Autorität vollkommen abzulehnen, müssen wir versuchen, die berechtigten von den unberechtigten Berufungen auf Autorität zu unterscheiden. (Salmon 1983, 184)

Als eine korrekte Argumentationsform für diesen Argumenttyp nennt Salmon dann (1983, 185) den Schluß: Das Argument aus der Autorität x ist bezüglich p eine verläßliche Autorität, x behauptet, daß p. Also: p Wichtig für die Anwendung einer Berufung auf eine Autorität, ist immer, daß sie gerade für dieses Gebiet eine Autorität ist, und außerdem ist natürlich kein umgekehrter Schluß - im Sinne eines argumentums ad hominem - zulässig, nach der jemand keine Autorität darstellt und wir deshalb seiner Ansicht für falsch halten sollten. Auch das angegebene Schema für die Bezugnahme auf Autoritäten weist viele Analogien zu den Rechtfertigungen auf, die wir in (IV.B) für Beobachtungsüberzeugungen kennenlernen werden. Weiterhin nennt Salmon schon die wichtigsten Fehlerquellen für Schlüsse aus der Autorität, die uns Hinweise bieten, wie das Argument in umfangreicheren Rechtfertigungszusammenhängen eingeschätzt werden kann. In dieser Richtung können wir auch über indirekte Rechtfertigungen weiter nachdenken. Das muß aber späteren Arbeiten überlassen bleiben. Auf eine Konsequenz der epistemischen Arbeitsteilung möchte ich an dieser Stelle wenigstens noch aufmerksam machen. Spätestens durch die epistemische Arbeitsteilung gewinnt das wissenschaftliche Wissen eine grundlegende Bedeutung für all unser Wissen und unsere Rechtfertigungen. Man kann sagen - und das ist zunächst einfach als Tatsachenbehauptung und nicht als Bewertung gemeint daß die Wissenschaften das Rückgrat des gesellschaftlichen Wissens darstellen, sind sie doch auch von der Gesellschaft mit der systematischen Sammlung von Erkenntnissen beauftragt. Jeder, der sich in Widerspruch zu diesem Wissen begibt, hat Schwierigkeiten, seine Überzeugungen in einer offenen Diskussion gesellschaftlich durchzusetzen. Das zeigt deutlich den geradezu basalen Charakter dieses Wissens in den modernen Gesellschaften. Selbst von Sekten und okkulten Bewegungen wird dieser Primat des wissenschaftlichen Wissens zunehmend - wenn auch häufig nur implizit - anerkannt. Sie bemühen sich zum einen darum, die meist vorhandenen Widersprüche zu wissenschaftlichen Auffassungen zu beseitigen oder herunterzuspielen und zu verschleiern, und andererseits bemühen sie sich sogar häufig, sich einen wissenschaftlichen Anstrich zu geben, in dem sie behaupten, sich auf wissenschaftliche Erkenntnisse zu stützen. In jedem Fall findet das wissenschaftliche Wissen auf dem Wege über die epistemische Arbeitsteilung Eingang in die impliziten Rechtfertigungen aller Mitglieder der Gesellschaft. Darauf hingewiesen, daß sie sich dazu in Widerspruch befinden, werden sie es in aller Regel als Anfechtung empfinden, mit der man sich auseinanderzusetzen hat. Was natürlich keineswegs bedeutet, daß man seine liebgewonnen Überzeugungen

C. Zur Struktur unserer Erkenntnis

75

zugunsten dieser Erkenntnisse einfach aufgibt, denn dazu gibt es zu viele Immunisierungsmöglichkeiten für unsere Meinungen. Auch für politische Entscheidungen bildet das wissenschaftliche Wissen die bestimmende Wissensgrundlage, soweit es denn verfügbar ist und nicht aus bestimmten Gründen unterdrückt wird. Das belegen unter anderem die regelmäßigen Anhörungen von Experten, Enquete-Kommissionen etc., was natürlich ebensowenig wie im individuellen Fall bedeuten muß, daß es in entsprechenden politischen Entscheidungen auch tatsächlich umgesetzt wird. Doch zumindest zeigen diese Analysen die große Bedeutung, die speziell dem wissenschaftlichen Wissen für unser Überzeugungssystem in unserer intuitiven Einschätzung beigelegt wird. Das Problem, wie sich gesellschaftliches Wissen definiert, ist mit dem Hinweis auf die institutionalisierten Wissenschaften natürlich noch längst nicht gelöst, denn auch wissenschaftliches Wissen ist ja selbst wieder Gruppenwissen. Dazu, wie wissenschaftliches Wissen zu charakterisieren ist, gibt es verschiedene Vorschläge, die ich im dritten Teil der Arbeit ansprechen möchte.

5. Hierarchische Strukturen Unser Überzeugungssystem ist alles andere als eine amorphe Menge von isoliert nebeneinanderstehenden Einzelerkenntnissen, sondern besitzt im Gegenteil vielfältige innere Struktur. Auf einige Unterscheidungen, die in der Erkenntnistheorie eine gewisse Bedeutung besitzen, komme ich nun zu sprechen. In unserem Netz von empirischen Überzeugungen über die Welt - von mathematisch/logischen, ästhetischen, religiösen oder moralischen Überzeugungen soll hier nicht die Rede sein - finden sich zuerst einmal verschiedene Grade der Allgemeinheit unserer Meinungen, Überzeugungen über andere Überzeugungen, darunter insbesondere Ansichten über den Grad der Rechtfertigung bestimmter Meinungen und anderes mehr. An diesem Punkt möchte ich anhand einiger klassifizierender Begriffe den Blick auf die Vielfalt unseres Überzeugungssystems und einige seiner strukturierenden Dimensionen richten, bin aber weit davon entfernt, dafür Vollständigkeit zu beanspruchen. Wie wichtig die Beachtung der Komplexität gewöhnlicher Überzeugungssysteme gerade für eine Bewertung der Kohärenztheorien ist, soll schon an dieser Stelle ein Beispiel erläutern. Kritiker von Kohärenzkonzeptionen der Erkenntnis übersehen oft diese Vielfalt und schätzen daher die Wirksamkeit von Kohärenztests in unserem Meinungssystem völlig falsch ein. So lautet ein in verschiedenen Varianten immer wiederkehrender Einwand gegen Kohärenz als Maßstab für den Umbau unseres Überzeugungssystems: Wir können die Kohärenz unserer Meinungen ganz einfach dadurch erreichen, daß wir Beobachtungen, die nicht kohärent zu unseren Überzeugungen passen, zurückweisen. Damit bliebe, so der Einwand, unser Meinungssystem kohärent. Dieser Einwand übersieht gleich zwei wichtige Dinge. Erstens liegt ihm die Verwechslung von Kohärenz mit Konsistenz zugrunde. Auf die beschriebene Art mögen wir ein konsistentes Meinungssystem behalten, aber Kohärenz verlangt auch positive Bestandteile, also etwa inferentielle Beziehungen der Meinungen untereinander, die durch das Vorliegen von Konsistenz keines-

76

II Metatheoretischer Rahmen

wegs gewährleistet werden können (s. IV.A.l). Das einfache Abweisen von Beobachtungsüberzeugungen ist daher kaum geeignet, zur Kohärenz eines Meinungssystems beizutragen. Kohärenz verlangt vielmehr, daß man sich darum bemüht, weitere Überzeugungen zu gewinnen, die eine stärkere Vernetzung der Meinungen zur Folge haben. Kohärenzforderungen wirken in einem komplexen Überzeugungssystem also sicherlich auf eine völlig andere Art als ein einfacher Inputfilter. Der zweite Aspekt, an dem der Vorwurf die innere Vielfalt unserer Überzeugungssysteme übersieht, ist der unserer epistemischen Überzeugungen. Die meisten Menschen haben bestimmte MetaÜberzeugungen dergestalt, daß normale Beobachtungen für uns den wichtigsten Input an Informationen über die Außenwelt bieten. Es paßt dann eben nicht kohärent in unser Überzeugungssystem hinein, diese schlicht abzulehnen. Sobald wir überhaupt die Augen aufmachen, nehmen wir unwillkürlich wahr und erwerben - ob wir es nun wollen oder nicht - bestimmte Beobachtungsüberzeugungen. Indem wir diese zurückweisen, verletzen wir auf eklatante Weise unsere Vorstellungen von der Welt und unserer Stellung in ihr, wenn wir nicht wenigstens eine passende Geschichte darüber erzählen können, wieso es sich gerade bei diesen Wahrnehmungen um eine Sinnestäuschung gehandelt hat. Damit paßt dieses Vorgehen nicht kohärent zu unseren epistemischen Anschauungen darüber, wie grundlegend und zuverlässig derartige Beobachtungsüberzeugungen über die Welt Auskunft geben. Der Kritiker eines Kohärenztests hat diese MetaÜberzeugungen nicht beachtet und scheint einer zu einfachen Vorstellungen unserer Überzeugungssysteme aufgesessen zu sein. Um dem wenigstens etwas entgegenzuwirken, möchte ich einiger Dimensionen der Einteilung unserer Erkenntnisse auflisten. a) Grade von Allgemeinheit Wir haben Überzeugungen über das, was wir gerade wahrnehmen: über Gegenstände unserer Umgebung und auch über unseren eigenen Zustand (Schmerz, Müdigkeit, Freude etc.). Diese bezeichne ich häufig als Beobachtungsüberzeugungen oder manchmal (hoffentlich selten) auch nachlässiger als Beobachtungen. In Beobachtungsüberzeugungen geht es im allgemeinen um Einzeldinge, etwa konkrete Gegenstände unserer Umgebung oder bestimmte Personen, mit denen wir in Kontakt kommen. Daneben verfugen wir über viele allgemeinere Annahmen oder sogar kleine Alltagstheorien, auf die wir uns im Alltag verlassen, die mit unseren Beobachtungen auf viele Arten zusammenhängen. So glauben wir vielleicht, daß Fritz ein jähzorniger Mensch ist. Das betrifft dann nicht nur unsere momentanen Beobachtungen, sondern auch Vergangenes und Zukünftiges. Dabei besitzen wir nicht nur Minitheorien über Einzeldinge, sondern natürlich auch eine Vielzahl von Ansichten über Gegenstandsiype«. Das sind Theorien, die schon auf einem etwas höheren Allgemeinheitsniveau liegen. Etwa, daß man Menschen, die zum Jähzorn neigen, besonders in Streßsituationen nicht reizen sollte (hier gleich als Handlungsanweisung formuliert, aber die zugrundeliegenden Überzeugungen kann jeder erraten), daß Zucker sich in Wasser auflöst, daß Sonnenbaden und Sonnenbrände unser Hautkrebsrisiko erhöhen, daß Zinssenkungen die Inflation anheizen

C. Zur Struktur unserer Erkenntnis

11

können u.v.m. Einige der Beispiele stammen aus dem wissenschaftlich technischen Bereich, wie auch bei vielen anderen ersichtlich ist, daß bestimmte wissenschaftliche Theorien hinter ihnen stehen. Da sind sicherlich psychologische Theorien zu nennen, wie die Freudsche, die zum Teil auch in unsere Alltagsansichten über andere Menschen Eingang gefunden hat, politische, medizinische und biologische Theorien oder auch Theorien über die Entwicklung unseres Sonnensystems und die Entstehung von Leben auf der Erde, sowie über unsere eigene Entwicklungsgeschichte. Gerade die letzteren hatten bekanntlich wieder starke Auswirkungen auf bestimmte religiöse Auffassungen, was zeigt, wie auch inhaltlich zunächst entferntere Bereiche untereinander vernetzt sein können. In der nächsten Allgemeinheitsstufen über diesen Theorien finden wir dann z. B. Theorien der Chemie oder Physik über allgemeine Zusammenhänge zwischen Stoffen oder über Phänomene aus der Elektrodynamik, Thermodynamik, Mechanik und dem atomaren Bereich. Diese sind für die meisten Menschen wohl nur noch als gesellschaftliches Wissen verfügbar, übernehmen aber in unserer Wissensvernetzung trotzdem wesentliche Aufgaben. Dazu kommen allgemeine Annahmen, die auf verschiedenen Ebenen in verschiedenen Interpretationen anzutreffen sind. Etwa die, daß bestimmte Ereignisse Ursachen einer bestimmten Art besitzen, daß gewisse Kontinuitäten in allen natürlichen Prozessen zu finden sind und sich Dinge nur mit bestimmten Geschwindigkeiten kontinuierlich ändern. Das mag als kleiner Potpourri genügen, der ein wenig der Vielfalt unsere Überzeugungssysteme und ihrer Hierarchie von Allgemeinheit aufzeigt. Einem weitverbreiteten Irrtum möchte ich in diesem Zusammenhang gleich vorbeugen. Zumindest handelt es sich um eine Frage, die ich nicht vorentschieden wissen möchte, weil sie gerade zwischen fundamentalistischen Ansichten von Rechtfertigung und Kohärenztheorien strittig ist. Sie wird oft genug als unbemerkte Voraussetzung eingeschmuggelt, wenn man sich anschickt, dem Skeptiker Paroli zu bieten. Bei Watkins (1984, 79) finden wir zunächst fünf Ebenen von Aussagen, die ich etwas verkürzt wiedergebe:34 level-0: perceptual reports of a first person, here-and-now type, level-1: Singular statements about observable things or events. level-2: empirical generalisations about regularities displayed by observable things and events. level-3: exact experimental laws concerning measurable physical magnitudes. level-4: scientific theories that are not only universal and exact but postulate unobservable entities. Gegen eine entsprechende Einteilung unserer Überzeugungen habe ich nichts, nur gegen eine Beschreibung dessen, was ein Erkenntnistheoretiker zu leisten hat, anhand dieser Beschreibung. Nach Watkins muß er dem Skeptiker entgegentreten, der uns fragt: Wie kann denn eine Aussage eines höheren Typs durch Aussagen niedrigerer Typen begründet werden? Der Skeptiker macht dann meist eine Unterbestimmtheit der höheren Ebenen durch die niedrigeren Typen geltend und fragt weiter, wie wir denn die indukti-

78

II Metatheoretischer Rahmen

ven Verfahren begründen wollen, mit denen wir aufzusteigen gedenken. Wenn wir uns nun brav ans Werk machen und etwa entscheidungstheoretische Überlegungen zur Begründung eines Induktionsprinzips entwickeln, so haben wir schon eine Voraussetzung geschluckt, die ich mit einer Einteilung dieser Art noch nicht verbinden möchte: Rechtfertigungen laufen nur von unteren Ebenen zu höheren und nicht umgekehrt. Dadurch würden die unteren Ebenen in irgendeiner Form als erkenntnistheoretisch primär gegenüber den unteren Ebenen ausgezeichnet. Meist denkt man daran, daß sie auch sicherer sind und der Skeptiker räumt uns - wenn er versöhnlich gestimmt ist zumindest für die Ebene 0 oder sogar 1 ein, daß sie unproblematisch sei. Diese Voraussetzung möchte ich nicht unterschreiben, und ich werde später (s. III.B) sogar explizit gegen sie argumentieren. b) MetaÜberzeugungen Zusätzlich zu unseren Überzeugungen über die Welt haben wir auch viele Überzeugungen über unsere Überzeugungen, also MetaÜberzeugungen. Dazu gehören zunächst schlicht Überzeugungen darüber, welche Überzeugungen wir haben. Auf diese etwas paradox anmutenden MetaÜberzeugungen und die speziellen Probleme ihrer Begründung gehe ich in Abschnitt (IV.B.4) ein. Weiterhin haben wir verschiedene Arten von Einteilungen und Bewertungen unserer eigenen Überzeugungen, die selbst wieder als MetaÜberzeugungen einer bestimmten Art zu beschreiben sind. Darunter fallen z. B. Bewertungen, welches Wissen für uns wichtig ist, welches wir geheimhalten sollen, welche unserer Überzeugungen vielleicht unmoralisch sind, aber auch Einschätzungen und die sind für die Erkenntnistheorie besonders interessant - epistemischer Art darüber, in welchen unserer Meinungen und in welchem Ausmaß wir in diesen Meinungen gerechtfertigt sind, wie sie entstanden sind, wie Begründungen für sie überhaupt auszusehen haben etc. Auch Theorien darüber, was eine gute Rechtfertigung oder Erklärung ist, wird man hier ansiedeln. D.h. übrigens auch, daß ein großer Teil der Philosophie in den Bereich dieser MetaÜberzeugungen einzuordnen ist. Darunter fallen ebenso unsere Ansichten über induktive Zusammenhänge wie die Kenntnis der Paradoxien, die sie bedrohen (Hempel, Goodman); ebenso unsere Meinungen zu wissenschaftsphilosophischen Themen wie die, daß unsere Theorien fallibel sind, wie auch unsere Ansichten zur Wissenschaftsgeschichte, die vielleicht in einem kumulativen Fortschrittsbild oder eher in Kuhnschen wissenschaftlichen Revolutionen zu sehen sind. c) Rechtfertigungshierarchien Das für uns spannendste Thema im Rahmen der MetaÜberzeugungen sind natürlich die epistemischen Überzeugungen und vermutete und tatsächliche Rechtfertigungsverhältnisse in unserem Wissenskorpus. Gibt es so etwas wie basale Überzeugungen, für die wir keine Rechtfertigungen annehmen und auch keine benötigen, wie das die Fundamentalisten behaupten; oder finden wir zumindest asymmetrische Verhältnisse, wonach bestimmtes Wissen zur Rechtfertigung anderer Teile unseres Wissens benutzt wird und nicht umgekehrt? Am besten zugänglich ist hier wiederum der große Bereich des gesell-

C. Zur Struktur unserer Erkenntnis

79

schaftlich verfugbaren Wissens innerhalb der Wissenschaften, da dieses Wissen größtenteils explizit niedergelegt und damit für eine Analyse relativ gut zugänglich ist. In dem weiten Gebiet der Wissenschaften von historischen Kenntnissen bis hin zu Erkenntnissen über unsichtbar kleine Teilchen findet sich zudem eine Anzahl verschiedener epistemisch interessanter Phänomene, die in spezielleren wissenschaftsphilosophischen Arbeiten besprochen werden, auf die ich mich zu gegebener Zeit beziehen werde. Einige informelle Aspekte möchte ich jedoch noch kurz erwähnen. Da sind zum einen gewisse typisch asymmetrische Zusammenhänge der Begründung und der epistemischen Priorität. Etwa eine im allgemeinen erkenntnistheoretisch grundlegende Stellung der Physik. Man spricht zwar viel über den grundlegenden Status der Physik in den Naturwissenschaften, aber es ist oft nicht klar, in welchem Sinn das geschieht. Die Frage etwa, ob sich andere Disziplinen definitorisch auf die Physik reduzieren lassen, ist mindestens sehr umstritten. Andererseits scheint es einen wahren Kern in der Redeweise von einer grundlegenden Stellung der Physik zu geben, den man genauer bestimmen kann. Am deutlichsten wird er meines Erachtens in der epistemisch herausgehobenen Stellung der Physik. Die Physik steckt geradezu den Rahmen ab, innerhalb dessen die anderen Wissenschaften sich zu bewegen haben. Wenn wir in der Biologie auf Phänomene stoßen, die gegen ein allgemeines Energieerhaltungsprinzip zu verstoßen scheinen, so werden wir zunächst davon ausgehen, daß wir den fraglichen Vorgang noch nicht richtig verstanden haben und bestimmte Energieformen bisher unseren Messungen entgangen sind. Hier wird den Gesetzen der Physik eindeutig Priorität gegenüber denen der Biologie eingeräumt. Solche Vorrangregeln sind sicher nicht dogmatisch und starr zu befolgen, aber sie haben doch großes Gewicht für unsere epistemischen Einschätzungen von wissenschaftlichen Hypothesen. Ähnlich sieht der Vergleich mit anderen Disziplinen aus. Die Gesetze der Physik werden in den Geschichtswissenschaften herangezogen - etwa um das Alter bestimmter Objekte zu bestimmen - um bestimmte historische Hypothesen zu begründen, aber umgekehrt werden historische Theorien kaum zur Untermauerung physikalischer Gesetze eingesetzt.35 Man erinnere sich nur daran, wie rasch der Streit der Historiker um die Echtheit der „Hitler-Tagebücher" des Stern beendet wurde, als eine physikalisch chemische Analyse zu dem Ergebnis kam, das Papier wäre nicht alt genug für echte Tagebücher. Den Ergebnissen der physikalischen Untersuchungen vertraute man hier schneller und hielt sie für zuverlässiger, als die historischer oder sprachlicher Analysen. Dabei stoßen wir auch auf epistemische Voraussetzungsverhältnisse, wonach bestimmte Theorien sich auf die Richtigkeit anderer Theorien stützen müssen. Das gilt auch innerhalb der Einzeldisziplinen dort, wo man die Frage nach einer epistemischen Schichtung oder Hierarchie versus holistischen Zusammenhängen aufwerfen kann.36 Des weiteren stoßen wir in den Wissenschaften auf epistemische Einschätzungen und Kategorisierungen, die allerdings nicht immer explizit vorgenommen werden. Penrose (1989, 152) gibt dazu eine explizite grobe Kategorisierung von Theorien in „superb", „useful" und „tentativ" an, wobei wir den physikalischen Theorien der ersteren Kategorien weit mehr vertrauen und etwa auch davon ausgehen, daß wir sie nicht so bald aufgeben werden, als

80

II Metatheoretischer Rahmen

denen, die wir nur für vorübergehend nützlich halten, die Penrose unter „tentative" einordnet.37

6. Resümee Im Rahmen eines methodologischen Naturalismus ist ein ausgefülltes Bild der Struktur unserer Erkenntnis der natürliche Ausgangspunkt zur Entwicklung einer Theorie der epistemischen Rechtfertigung. Einige wichtige Elemente dieses Bildes wurden dazu vorgestellt. So sind Rechtfertigungen immer zu relativieren auf ein epistemisches Subjekt oder ein Überzeugungssystem, das sich im wesentlichen als Aussagenmenge charakterisieren läßt, und haben die Form von inferentiellen Zusammenhängen. Um zu einem einigermaßen realistischen Bild auch individueller epistemischer Rechtfertigungen zu gelangen, sind dabei ebenso implizite Meinungen und Begründungen zu berücksichtigen, wie auch das Phänomen gesellschaftlichen Wissenserwerbs, das ich „epistemische Arbeitsteilung" genannt habe. Außerdem lassen sich verschiedene eventuell sogar epistemisch bedeutsame Hierarchien in unseren Überzeugungssystemen identifizieren. Zum einen kommen unsere Überzeugungen in unterschiedlichen Abstufungen von Allgemeinheit daher, von Beobachtungsüberzeugungen bis zu allgemeinsten Theorien, aber darüber finden wir MetaÜberzeugungen, und andere epistemische Bewertungen der unterschiedlichen Bereiche empirischer Erkenntnis, die in jeder umfassenden kohärentistischen Analyse unserer Überzeugungen eine Rolle für die Bewertung eingehender Informationen zu übernehmen haben.

Anmerkungen

81

Anmerkungen zu Kapitel II I

Siehe dazu Asimov 1986, 19f. Stellen wir uns ruhig einmal ernsthaft vor, jemand hätte zu Ohm einen Psychologen geschickt, um festzustellen, ob dessen Theorie über den Zusammenhang von Stromstärke und elektrischem Feld stimmt. Was könnte der eigentlich untersuchen? 3 In einer Argumentation für diese Annahme würde ich mich allerdings nicht auf eine Übersetzungsunbestimmtheitsthese berufen, sondern vielmehr auf die konkreten Schwierigkeiten dieses Vorhabens wie die drohenden Unendlichkeiten (s. Stegmüller 1958). 4 Ich möchte mich hier eher van Fraassens (1980, 56) Diktum anschließen, daß viele Probleme der syntaktischen Sichtweise von Theorien, die sich etwa um solche Definierbarkeitsfragen drehen, „purely selfgenerated problems, and philosophically irrelevant" sind; zumal die Aufteilung in ein Beobachtungsund ein theoretisches Vokabular und die damit erhoffte Bestimmung des empirischen Gehalts von Theorien aus unterschiedlichen Gründen nicht funktioniert. 5 Eine deutliche Äußerung dieser Ansicht findet sich z. B. in der sprachphilosophischen Argumentation für die Sinnlosigkeit moralischer Normen bei Ayer (1970, 141 ff). 6 Für eine interessante Analyse dieses Punktes s. Williams (1990, 256ff). 7 Wir werden später sehen, daß die kausale Genese unserer Überzeugungen keineswegs die Rechtfertigungsstruktur unseres Wissens in dieser Weise festlegt. 8 Das mag sogar auf der Objektebene bei der Betrachtung einzelner Theorien durchaus mit völliger subjektiver Sicherheit, daß eine bestimmte Theorie wahr ist, einhergehen. Die Lebensfähigkeit einer empiristischen Erkenntnistheorie wird ein Thema des nächsten Kapitels sein. 10 Natürlich ist damit auch das mögliche Ergebnis, daß trotz aller wohlwollenden Interpretation des Wissenschaftlerverhaltens sich keine Rationalisierung finden läßt und somit schließlich die Vermutung, er handele unvernünftig, als richtig erweist, nicht von vornherein ausgeschlossen. II Für Diskussionen dieser Art s. Kuhn, Lakatos, Feyerabend. 12 Man denken dazu nur an die in Gesetze auftretenden Naturkonstanten wie die Newtonsche Gravitationskonstante, die Lichtgeschwindigkeit oder das Plancksche Wirkungsquantum. 13 Das Beispiel der Popperschen Methodologie zeigt allerdings auch, wie eine falsche aber gut verständliche und intuitive Theorie einen wichtigen Anstoß für die metatheoretische Forschung darstellen kann. 14 Sie zeigt etwa, daß viele typische Schlußweisen unseres Alltags, die statistische Aussagen betreffen, mit großer Vorsicht zu genießen sind (s. Tversky/Kahneman 1982) Daß die konservative Vorgehensweise auch erkenntnistheoretisch zu begründen ist, wird in (V.A.3) zu erläutern sein. 16 Siehe dazu auch Tugendhat (1984, 59ff), der früher einen entsprechenden semantischen Zugang zur Moral propagiert hat und seine spätere Kritik daran (1984, 6). 17 Dazu hat schon Sidgwick (1962, Buch III Kap. XI, Resümee S. 360), der einige unsere Common Sense Ansichten zur Moral genauer untersucht hat, darauf hingewiesen, daß die Common Sense Moral meist auch noch viel zu vage gehalten ist, um die interessanteren Fälle entscheiden zu können. 18 Natürlich soll damit nicht die Behauptung verbunden werden, man könnte durch die bloße Reflexion auch das entsprechende Verhalten ändern. Diesem Wunschdenken der Aufklärung möchte ich nicht folgen. 19 Daniels (1979) gibt noch eine Reihe von Punkten an, wo sich dieses Verfahren von intuitionistischen und subjektivistischen Verfahren unterscheidet. 20 Sollten sie zu schädlich für das Überleben sein, wird sich dieses Gen natürlich nicht durchsetzen. 21 Also bereits bevor Tarski 1935 seine Wahrheitstheorie zum erstenmal auf einer Konferenz in Paris der Öffentlichkeit präsentierte.

82

II Metatheoretischer

Rahmen

22 Das hieße, daß die Position des radikalen Skeptikers eigentlich unverständlich ist. In dieser Richtung argumentiert Putnam auch in (1990, Kap. 1) in seinem berühmten Gehirn im Topf Argument. Doch das kann letztlich nicht überzeugen (s. etwa Nagel 1992, 126ff). 23 Das trifft sich auch mit Putnams (z. B. 1978, 25) Argument der Meta-Induktion gegen den Realismus. 24 Eine andere Wendung, um die Lücke zwischen Wahrheit und Rechtfertigungen zu schließen ist die von Fundamentalisten wie Schlick gewählte, wonach zumindest bestimmte basale Überzeugungen direkt mit der Wirklichkeit verglichen werden können. Die Schwächen dieses zur epistemischen Wahrheitskonzeption dualen Vorstoß werden in (III.B.5.a) erörtert werden. 25 Für mathematische oder moralische Aussagen würde es natürlich schon schwieriger - wenn nicht unmöglich - , eine entsprechende Korrespondenzkonzeption zu entwickeln. 26 Über den Zusammenhang zwischen Realismus und Wahrheit und eine weitergehende Explikation des Realismus siehe Devitt (1991). Wie ein weitergehender Realismus, der sich etwa auf wissenschaftliche Gegenstände bezieht, zu explizieren ist, ist in Bartelborth (1993a) nachzulesen. Die bekanntesten und meines Erachtens erfolgversprechendsten Gegenvorschläge zu dieser Ansicht werden in den Kapiteln (III.A) und etwa (III.B.5.b) behandelt und zurückgewiesen. 28 Als Spezialfall soll hier auch zugelassen werden, daß die Aussage sich selbst rechtfertigt oder die Rechtfertigungsmenge sogar leer ist. 29 Einige Erkenntnistheoretiker wie Chisholm und Lehrer, sprechen statt von den Überzeugungen einer Person lieber davon, welche Aussagen sie als wahr akzeptiert. Was jemand tatsächlich glaubt oder überhaupt zu glauben bereit ist, ist vielleicht eher eine Frage seiner emotionellen und motivationellen Situation, während das Akzeptieren von bestimmten Aussagen als wahr, stärker unsere epistemische Bewertung zum Ausdruck bringt. Der Einfachheit halber möchte ich auf diese Möglichkeit der Differenzierung verzichten und spreche nur schlicht von den Überzeugungen und Meinungen einer Person. 30 Trotzdem werden wir in (III.A) noch Erkenntnistheorien kennenlernen, für die gerade der Informationserwerb von Thermostaten das Vorbild menschlicher Erkenntnis abgibt. 31 Diese impliziten oder unbewußten Überzeugungen haben natürlich nichts gemein mit den unterbewußten Überzeugungen, von denen in der Psychoanalyse die Rede ist, die uns ja gerade nicht so leicht zugänglich sind. 32 Wie umfangreich dieses Wissen ist, ist wohl erst durch die „frame"-Probleme in der KI Forschung richtig deutlich geworden.

33

Für unsere Überlegungen zur Rechtfertigungsstruktur unseres Wissens stehen viele langfristige Überzeugungen zur Verfugung. Gerade diese Überzeugungen können uns nicht immer bewußt sein, sondern sind meist nur implizit gegeben. 34 Für Beispiele zu den Ebenen muß ich auf Watkins (op. cit.) verweisen. 35 Auf einen möglichen Ausnahmefall hat mich Ulrich Gähde aufmerksam gemacht. Um 1844 benannte der Earl von Rosse ein Gebiet entsprechender Form im Sternbild Stier „Krabben-Nebel" oder Krebsnebel, in dem nach historischen Aufzeichnungen um 1054 ein neuer Stern aufgetaucht war. Aus der Ausdehnungsgeschwindigkeit dieser Nebelwolke konnte er auf den Zeitpunkt einer Supernovaexplosion zurückrechnen, der gut mit den historischen Daten übereinstimmte. In einem solchen Beispiel, wird man die historisch überlieferten Daten den astronomischen Berechnungen als epistemisch überlegen betrachten, denn die astronomischen Berechnungen geben uns keine sehr eindeutigen Anhaltspunkte für das Auftreten zurückliegender Supernovaexplosionen und ihrer genauen Zeitpunkte. 36 Für die Frage nach einer epistemischen Hierarchie im Rahmen der Relativitätstheorie s. Bartelborth 1993a. 37 Dazu zählt er übrigens auch seine eigenen Twistortheorien.

III Begründungsstrategien

Ehe ich mich einem konkreten Verfahren zur Rechtfertigung von Überzeugungen und seinen Details zuwenden kann, müssen in diesem Kapitel einige generelle Weichenstellungen vorgenommen werden. Epistemische Rechtfertigungen können in recht unterschiedlichen Richtungen gesucht werden, die jeweils allgemeine, aber bindende Vorgaben abgeben, wie eine Rechtfertigung auszusehen hat. Diese Richtungen möchte ich kurz als unterschiedliche Rechtfertigungsstrategien bezeichnen. Einige werde ich in diesem Kapitel vorstellen und auf ihre Brauchbarkeit für die Entwicklung einer angemessenen Rechtfertigungstheorie prüfen. Dabei sollen zwei Rechtfertigungsstrategien und zwar die externalistische und die fundamentalistische - zurückgewiesen werden. Beide Strategien versuchen ein vollkommen anderes Bild von der Struktur unserer Begründungen zu zeichnen, als ich es vertreten werde. Mit ihrer Widerlegung wird daher der Weg erkennbar, auf dem schließlich die gesuchte Theorie der epistemischen Rechtfertigung zu entwickeln ist. Das muß eine internalistische Kohärenztheorie einer bestimmten Form sein, die ich aber erst im nächsten Kapitel vorstelle. Da die plausibelsten und heutzutage gebräuchlichsten fundamentalistischen Positionen externalistische Varianten des Fundamentalismus sind, wende ich mich als erstes generell gegen den Externalismus, was die Diskussion der dann noch verbliebenen fundamentalistischen Rechtfertigungskonzeptionen erheblich erleichtern wird.

A. Externalistische Strategien Eine wesentliche Unterscheidung, nach der Erkenntnistheorien eingeteilt werden, ist die von externalistischen und internalistischen Elementen in Rechtfertigungen. Diese Einteilung wird allerdings nicht einheitlich vorgenommen, weshalb es auch nicht zweckmäßig erscheint, eine ganz präzise Formulierung für die Unterscheidung anzubieten. Die würde einigen Ansätzen nicht gerecht werden. Statt dessen möchte ich nur die Ideen dieser Unterscheidung nennen.1 Interne Elemente von Rechtfertigungen für ein epistemisches Subjekt S sind solche Elemente, die für S selbst kognitiv zugänglich sind. Dabei ist „kognitiv zugänglich" in dem Sinn zu verstehen, daß es sich um semantische Informationen handelt, zu denen das Subjekt bewußten, dispositionellen oder einfachen

84

III Begründungsstrategien

inferentiellen Zugang hat. Darunter sind wiederum die impliziten Überzeugungen, die wir uns im Prinzip ins Bewußtsein rufen können, mitgemeint.2 Externe Elemente einer Rechtfertigung für S sind solche, die für S nicht intern sind. Externalistische Positionen in der Rechtfertigungsdebatte, d.h. Rechtfertigungstheorien, für die Rechtfertigungen wesentlich externe Elemente enthalten, beziehen sich auf Bedingungen, die für das Subjekt der Überzeugung in dem Sinn extern sind, daß sie nicht zu seiner Beschreibung oder Kenntnis der in Frage stehenden Situation gehören. Die Überzeugungen müssen nur in einer besonderen Beziehung zu den Tatsachen stehen, von denen die Überzeugungen handeln. Dabei ist an natürliche objektive Beziehungen gedacht, wie dem Zusammenhang zwischen einem beobachtbaren Ereignis und einer ihm entsprechenden Beobachtungsüberzeugung, die über geeignete Sinneswahrnehmungen miteinander verbunden sind. Eine solche Beziehung muß nur tatsächlich bestehen, aber das epistemische Subjekt muß noch nicht einmal die geringste Ahnung vom Bestehen dieses Zusammenhangs haben, um in seiner Meinung gerechtfertigt zu sein. Derartige externe Bedingungen oder Tatsachen stellen meist auf den kausalen oder naturgesetzlichen Zusammenhang zwischen den in Frage stehenden Tatsachen und der sie ausdrückenden Überzeugung ab. Spätere Beispiele werden noch weitergehend erläutern, an welche Zusammenhänge und Tatsachen ein Externalist dabei denken mag. An der Frage, ob solche externen Elemente erkenntnistheoretisch bedeutsam sind, scheiden sich die Geister. Einige Erkenntnistheoretiker fordern, Rechtfertigungen müßten vollständig intern sein (z. B. BonJour, Moser, Pollock), andere begnügen sich mit überwiegend externen Rechtfertigungen (z. B. Armstrong, Dretske, Goldman, McGinn, Nozick) und eine dritte Gruppe vereinigt beide Elemente in ihren Theorien (z. B. Lehrer, Aiston, Swain) in bestimmten Mischformen.

1. Externalistische Wissenskonzeptionen a) Eine neue Wissensbedingung Ein zentrales Motiv für die gegenwärtige Popularität externer Bedingungen in der Erkenntnistheorie ist das bereits vorgestellte Gettier Problem für die Platonische Wissensdefinition. Eine Abwandlung des in (I.A) erwähnten Beispiels im Stile Gettiers soll dieses Motiv begreiflich machen. Besagter Student Fritz fährt wieder einen BMW, und ich habe außerdem allen Grund anzunehmen, daß Fritz dieser BMW gehört. Dann habe ich auch Grund zu schließen auf: (*)

Einer meiner Studenten besitzt einen BMW.

In dem derzeitigen Beispiel sei der Vater von Fritz jedoch nicht ganz so großzügig wie im ersten Fall, und Fritz gehöre der BMW diesmal nicht.3 Meine Meinung, daß einer meiner Studenten einen BMW besitzt, sei aber trotzdem richtig, da der Student Franz, der nur zu bescheiden ist, um damit zur Uni zu fahren und über den ich nichts weiter

A. Externalistische Strategien

85

weiß, „heimlich" einen BMW sein eigen nennt. Damit erfüllt auch die Meinung (*) die Platonische Wissensbedingung, die wir jedoch abermals nicht als Wissen einstufen würden, denn daß diese Meinung wahr ist, verdanke ich nur einem glücklichen Zufall. Harman (1973, 47) schlägt angesichts derartiger Beispiele als weitere Wissensbedingung vor, die betreffende Meinung solle nicht wesentlich auf einer falschen Annahme beruhen: No False Conclusions Reasoning that essentially involves false conclusions, intermediate or final, cannot give one knowledge. In meinem Beispiel wird deutlich, daß die betreffende Meinung (*) sich auf die falsche Annahme gründet, daß Fritz einen BMW besitzt. Die Harmansche Bedingung kann in diesem Beispiel also eine natürliche Erklärung anbieten, warum es sich bei (*) nicht um Wissen handelt. So weit so gut. Leider sind nicht alle Gettier Beispiele von dieser Art. Schon in dem in Kapitel (I.A) angegebenen Fall ist es nicht so klar, auf welche falsche Annahme meine Überzeugung, daß ein bestimmter Student einen BMW besitzt, tatsächlich wesentlich angewiesen ist. Hängt sie etwa wesentlich davon ab, daß der Student selber weiß, daß er einen BMW hat und daß er mich nicht täuschen will? Die Schilderung des Beispiels erzwingt diesen Zusammenhang keineswegs. Noch schwieriger wird es für Harman in anderen Fällen, wo es sehr künstlich erscheint, überhaupt noch von Räsonment oder Inferenzen zu reden, in deren Verlauf man sich auf falsche Annahmen stützt. Denken wir uns den Fall, in dem jemand - nennen wir ihn Hans - auf ein Bild der Person X hinter einem Fenster schaut, aber denkt, er sieht X durch das Fenster. Ein Spaßvogel hat ein Bild von X hinter dem Fenster angebracht, um Hans an der Nase herumzufuhren. Hans schaut nun in das Fenster und glaubt X stünde vor ihm. Tatsächlich steht X zufällig in diesem Moment wirklich hinter seinem Bild hinter dem Fenster, nur daß Hans ihn nicht sehen kann. Man kann nun kaum behaupten, Hans wüßte, daß X vor seinem Fenster steht, denn dieses Zusammentreffen ist höchst zufällig. Trotzdem erfüllt auch diese Meinung von Hans die Platonischen Wissensbedingungen, denn das Vorsichsehen einer Person, muß man wohl als guten Grund für die Meinung, daß diese Person tatsächlich vor uns steht, betrachten. Da die Meinung sehr unwillkürlich in Hans durch seine Wahrnehmung hervorgerufen wurde, erscheint es gezwungen, diesen Wahrnehmungsvorgang als eine Form von Ableitung zu rekonstruieren, in der falsche Annahmen auftreten. Das muß Harman jedoch tun, will er derartige Beispiele innerhalb seiner Wissensanalyse abweisen. Weit natürlicher ist da schon die Antwort der sogenannten Reliabilisten (vom englischen „reliable"), die mit einigem Vorsprung die Hauptgruppe der Externalisten stellen. Das Problem, das ihrer Ansicht nach alle genannten Gettier Beispiele kennzeichnet, ist, daß der (kausale) Prozeß, der zu der betreffenden Überzeugung geführt hat, kein zuverlässiger Vorgang war, um wahre Meinungen zu produzieren. Hätte Franz nicht heimlich einen BMW besessen oder hätte X nicht zufällig vor dem Fenster gestanden, wären trotzdem die betreffenden Überzeugungen entstanden, dann aber falsch gewesen. Ihre

86

III

Begründungsstrategien

Wahrheit war somit nur ein besonderer Zufall der ganz speziellen Umstände des Beispiels. Normalerweise würden wir dagegen in entsprechenden Situationen zu falschen Meinungen gelangen. Der ganze Vorgang der Überzeugungsbildung hat also nur glücklicherweise zu einer wahren Meinung geführt und ist damit keineswegs ein „zuverlässiger Prozeß" der Überzeugungsbildung. Das macht ihn ungeeignet, Wissen zu begründen. Die Reliabilisten fordern als Konsequenz dieser Analyse die neue Wissensbedingung, daß der Prozeß der Überzeugungsbildung zuverlässig sein muß. Das macht in ihren Augen oft sogar die Forderung nach einer Begründung der Meinung im herkömmlichen Sinn in der Wissensdefinition überflüssig. Diese Überlegungen waren in verschiedenen Varianten der Ursprung externalistischer Theorien des Wissens.4

b) Was heißt „zuverlässige Überzeugungsbildung"? Ehe ich die Positionen der Reliabilisten weiter diskutieren kann, muß ich mich kurz der durchaus nicht einfachen Frage zuwenden, wie sich die zentralen Begriffe reliabilistischer Positionen explizieren lassen. Die Antworten darauf sind denn auch unterschiedlich, weisen aber zumindest in eine gemeinsame Richtung. Stellvertretend und illustrierend für viele Philosophen, die externalistische Positionen verteidigen, sollen hier die typischen Konzeptionen von zwei prominenten Vertretern, D.M. Armstrong und A.I. Goldman, zur Sprache kommen. Armstrong hat als Analogie für seine externalistische Konzeption von Rechtfertigung das Thermometer als Anzeiger bestimmter Informationen gewählt. Damit die Angaben des Thermometers zuverlässig sind, muß es einen gesetzesartigen Zusammenhang zwischen Temperatur und der Anzeige des Thermometers geben. Ähnlich muß man sich nach Armstrong auch den Zusammenhang im Fall unserer Überzeugungen vorstellen: Er verlangt einen gesetzesartigen Zusammenhang zwischen der Meinung von S, daß p, und dem Sachverhalt, daß p, der so beschaffen ist, daß die Meinung nur auftritt, wenn der Sachverhalt auch tatsächlich vorliegt (Armstrong 1973, 166). Dagegen stellt Goldman (1979, 10; 1986, 103ff) relativ direkt auf die Zuverlässigkeit des kognitiven Prozesses ab, der zu der Überzeugung geführt hat. Für ihn ist das eine Frage der Wahrheitsquote mit der der Prozeß zu wahren Meinungen führt. 5 Das scheint mir auch der Kerngedanke des Reliabilismus zu sein, auf den letztlich alle anderen Spielarten in irgendeiner Weise zurückgreifen sollten. Weshalb das so ist, kann ich hier nur andeuten. Denken wir etwa an kausale oder gesetzesartige Varianten wie die von Armstrong, so haben die alle mit einem Problem zu kämpfen: Die Redeweise von Naturgesetzen oder Kausalität wird kaum verständlicher oder leichter explizierbar sein als die von Wahrheitsquoten. Für die Frage nach der Gesetzesartigkeit zeigen das die Diskussionen um Goodmans „grue"-Paradox, für die Kausalität werde ich das selbst in Kapitel (VIII.D.2) ausführen. Beide Varianten stellen bestenfalls Spezialfälle des Wahrheitsquoten-Ansatzes dar, die sich zudem nur schwer auf Fälle mathematischen Wissens oder Wissens um allgemeine Zusammenhänge ausdehnen lassen. Deshalb werde ich mich direkt den Erfolgsaussichten der Wahrheitsquotenkonzeption zuwenden.

A. Externalistische

Strategien

87

Sie hat zunächst zwei Dinge genauer anzugeben, nämlich wie man den Prozeß zu beschreiben hat, der zuverlässig sein sollte, und für welche Situationen wir diese Zuverlässigkeit von ihm erwarten können. Zunächst zur Beschreibung, unter der ein Prozeß betrachtet wird, bzw. der Auswahl eines Prozeßtyps. Es geht natürlich nicht nur darum, ob das konkrete Ereignis der Meinungsbildung ein wahres oder falsches Resultat ergeben hat, sondern, ob es zu einem Typ von Vorgang gehört, der im allgemeinen vertrauenswürdig ist. Hier liegt eine Gefahr der Trivialisierung des ganzen Ansatzes. Hat eine Meinungsbildung zu einer falschen Meinung gefuhrt, waren dafür ganz bestimmte Faktoren verantwortlich,6 von denen wir sagen könnten, daß sie einen unzuverlässigen Prozeßtyp charakterisieren. Jedenfalls sind wohl alle Meinungsbildungen, an denen sie in entsprechender Weise beteiligt sind, unzuverlässig. Als zuverlässig würden dann nur noch Prozesse gelten, in denen keine derartigen Faktoren mehr zu finden sind. Doch das heißt schlicht, daß nur noch solche Prozesse als zuverlässig gelten dürfen, die tatsächlich zu wahren Meinungen fuhren. Das erscheint überzogen und liefe auch der Idee des Reliabilismus zuwider. Reliabilisten verlangen nicht nach Wahrheitsgarantierenden Prozessen - welche sollten das auch sein? - , sondern nur nach im allgemeinen tatsächlich zuverlässigen. Pollock (1986, 114ff) verdeutlicht das Problem von der Seite realistischer Bedingungen her: Kein Prozeß von Überzeugungsbildung ist per se und unter allen Umständen zuverlässig. Prozesse, die wir normalerweise für zuverlässig halten, wie solche, die auf Sinneswahrnehmungen visueller Art beruhen, sind es nur unter bestimmten Lichtverhältnissen wenn wir keine Drogen konsumiert haben und die skeptischen Hypothesen falsch sind. D.h., wir werden dabei nicht von einem Cartesischen Dämon hinters Licht gefuhrt und unser visueller Kortex wird nicht von einem Computer in der Hand eines bösen Wissenschaftlers stimuliert, sondern auf die „normale" Weise. Der Reliabilist steht vor der Aufgabe, den Situationstypus so spezifisch zu beschreiben, daß klar wird, wieso ein entsprechender Vorgang der Sinneswahrnehmung zuverlässig ist, aber nicht so spezifisch, daß nur noch die eine in Frage stehende Sinneswahrnehmung darunter fällt. Außerdem wird jeder realistische Prozeßtyp, den wir nennen können, immer auch Fälle beinhalten, in denen er zu falschen Meinungen führen kann. Hier drohen natürlich gleich wieder Gettier Beispiele. Als weiteres Erschwernis kommt hinzu, daß auch das Umgekehrte gilt: Prozesse, die wir normalerweise als lächerlich betrachten, können in bestimmten Situationen durchaus sinnvoll sein. Wittgensteins Beispiel, daß man sich nicht zum zweitenmal dieselbe Zeitung kauft, um das zu überprüfen, was in der ersten steht, erscheint uns normalerweise als selbstverständlich. Aber es gibt Umstände, unter denen das ein recht zuverlässiges Prüfverfahren ist. Ein in manchen Krimis beliebter Trick ist es, in einzelne Ausgaben einer Zeitung getürkte Artikel einzufügen, etwa um einem Agenten vorübergehend eine glaubwürdige Fassade zu verpassen. Das würde aber sofort auffallen, wenn man sich am nächsten Zeitungsstand eine anderes Exemplar derselben Zeitung kaufen würde, um damit die Meldung zu überprüfen. Selbst für dieses scheinbar absurde Verfahren gibt es also durchaus geeignete Anwendungsbedingungen. In diesem Beispiel wird die starke

88

III

Begründungsstrategien

Situationsabhängigkeit dieser Verfahren deutlich. Wieviel davon soll in die Auszeichnung eines Prozeßtyps eingehen? Um der trivialen und uninformativen Charakterisierung von zuverlässigen Prozessen als denen, die immer nur zu wahren Meinungen fuhren oder solchen, die alle Eigenschaften eines einzelnen konkreten Prozesses aufweisen, zu entkommen, sind wir gezwungen, von epistemisch ähnlichen Prozessen zu sprechen. Wie bestimme ich aber, was als epistemisch ähnlich zu gelten hat? Ist in unserem Gettier Beispiel das durch ein Fenster schauen ein unzuverlässiges Verfahren oder das durch ein Fenster schauen mit einem Bild davor oder das durch das Fenster schauen mit einem Bild einer bestimmten Person davor...'? Es ist schwer, einen Typ von Überzeugungsbildung in nicht willkürlicher Weise so zu charakterisieren, daß „unzuverlässiger Prozeß" nicht einfach bedeuten soll, die entstandene Überzeugung sei falsch und zuverlässige Prozesse gerade die Wahrheitsgarantierenden sind. Dazu ist zu bedenken, wie stark die Umstände variieren dürfen, unter denen unser Prozeß eine hohe Wahrheitsquote haben soll. Dürfen wir dabei nur an unsere tatsächliche Welt denken? Das scheint eine zu strenge Anforderung zu sein - jedenfalls wenn wir auch nach einer Theorie der Rechtfertigung suchen, was für Goldman der Fall ist. So gesteht er zum Beispiel zu, daß wir auch in den Fällen, in denen wir nur Gehirne im Topf eines geschickten Neurochirurgen sind, der unsere Welt durch einen Computer simulieren läßt, in unseren Meinungen intuitiv gerechtfertigt sind. Und das, obwohl sie in diesem unangenehmen Fall kaum Zuverlässigkeit im Sinne hoher Wahrheitsquoten beanspruchen dürfen. Wären wir also in der bedauerlichen Lage der Gehirne im Topf, würde Goldmans Theorie - zumindest für Rechtfertigungen - zu antiintuitiven Ergebnissen fuhren. Goldman (1986, 106f) fordert daher, daß der Prozeß in „normalen Welten" zuverlässig sei. D.h. in Welten (oder in Situationen), in denen unsere allgemeinen Überzeugungen über die üblichen Gegenstände und Ereignisse in unserer Welt wahr sind. Damit nähert er sich allerdings bereits wieder internalistischen Positionen, denn die Wahrheitsquote eines Prozesses wird nicht nach rein objektiven Merkmalen beurteilt, sondern wesentlich anhand unserer internen und damit subjektiven Vorstellung davon, was eine normale Welt ist. Andererseits verlangt Goldmans Ansatz auch zu wenig, doch davon später mehr. Es verbleibt damit zunächst ein wichtiges, noch nicht gelöstes Desiderat reliabilistischer Ansätze, eine brauchbare Explikation für „zuverlässiges Verfahren" anzugeben, weil ohne eine solche der ganze Ansatz unterbestimmt ist. Das könnte eine weitergehende Analyse der verschiedenen externalistischen Vorschläge noch besser demonstrieren, aber ich möchte nicht zu lange auf diesem Punkt herumreiten und nehme im folgenden zugunsten der Externalisten an, wir hätten schon eine brauchbare Explikation von „zuverlässig". Um zu erfahren, ob sich der Aufwand, nach einer Explikation zu suchen, auch lohnen würde, frage ich zunächst: Was hätte der Externalist damit gewonnen?

A. Externalistische Strategien

89

c) Eine Antwort auf den Skeptiker? Die Reliabilisten möchten natürlich eine Antwort auf den radikalen Skeptiker geben, der uns fragt, wie denn Wissen überhaupt möglich ist. Skeptische Hypothesen wie die Cartesischen, wonach wir alles nur träumen könnten oder ein böser Dämon uns in die Irre fuhrt, oder auch modernere Versionen davon, scheinen die Möglichkeit von Wissen zu bedrohen. Solange wir keinen Weg finden, dergleichen alternative Erklärungen für unsere Wahrnehmungen zurückzuweisen, oder sie wenigstens als in irgendeiner Weise minderwertig gegenüber unseren gewöhnlichen Ansichten über unsere Wahrnehmungen auszuweisen, bleibt nach Ansicht des Skeptikers unklar, wie wir überhaupt zu Wissen gelangen können. Die Reliabilisten haben darauf eine recht einfache Erwiderung anzubieten. Man betrachte die folgenden zwei Möglichkeiten: 1. Eine der skeptischen Hypothesen trifft auf uns zu. Dann sind unsere Vorstellungen über die Außenwelt reine Chimären, und wir haben kein Wissen über sie. 2. Die üblichen realistischen Auffassungen von unserer Stellung in der Welt sind zumindest zum Teil wahr. Dann sind wenigstens einige unserer Ansichten über die Außenwelt wahr und auf zuverlässige Weise entstanden. Der zweite Fall reicht in der extemalistischen Sichtweise bereits dafür aus, daß jedenfalls einige unserer Meinungen über unsere Umwelt Wissen darstellen. Allerdings wissen wir nicht, welche der beiden Möglichkeiten auf uns zutrifft, und können nicht einmal Gründe für den einen oder anderen Fall nennen. Für einen Externalisten ist das aber für Wissen auch nicht erforderlich, denn es genügt, daß geeignete Beziehungen zur Welt bestehen, unabhängig von unseren Kenntnissen darüber. Die Möglichkeit von Wissen ist damit für ihn nachgewiesen. Ob wir tatsächlich Wissen haben oder nicht, ist dann „nur noch" eine Tatsachenfrage danach, welche der beiden Möglichkeiten vorliegt. Wir alle können wohl deutlich das Unbehagen verspüren, das bei dieser Erwiderung auf den Skeptiker zurückbleibt, so gern wir auch nach Widerlegungen des Skeptizismus greifen würden. Man gewinnt nicht den Eindruck, der Skeptizismus sei mit dieser Entgegnung wirklich aus dem Felde geschlagen. Es ist allerdings nicht ganz einfach, dieses Unbehagen zu präzisieren. Ein Versuch sieht folgendermaßen aus: Der Skeptiker könnte sagen, er habe danach, ob unsere Überzeugungen auf zuverlässige Weise entstanden sein könnten, nicht gefragt, sondern danach, welche Anzeichen wir dafür besitzen. Seine Frage ist aus der Perspektive der ersten-Person gestellt, und er erwartet eine entsprechende Antwort. Die Antwort des Externalisten ist aber aus einer drittenPerson Perspektive gegeben und beantwortet deswegen nicht die ursprüngliche Frage, sondern eher die Frage, über welche Indizien ein idealer Beobachter, der alles über den Vorgang der Überzeugungsbildung weiß - bis auf den Punkt, ob die gebildete Überzeugung wahr sei - , für die Annahme verfügen könnte, daß die Überzeugung wahr sei. Der Extemalist könnte natürlich erwidern, die Ausgangsfrage sei eben in gewisser Weise falsch gestellt gewesen, wenn wir aber schlicht nach der Möglichkeit von Wissen fragen, hätte er die richtige Antwort gegeben. Doch auch dabei bleiben eine Reihe von Fragen

90

III

Begründungsstrategien

offen. Erstens ist damit nicht wirklich geklärt, warum die Frage des klassischen Skeptikers unzulässig sein sollte. Er könnte sie erneut formulieren als die Frage, welche Anhaltspunkte wir tatsächlich für unsere Annahme besitzen, in einer Welt mit zuverlässiger Überzeugungsbildung zu leben. Das scheint weiterhin eine uns brennend interessierende erkenntnistheoretische Frage zu sein, die durchaus verständlich und berechtigt ist, selbst wenn wir uns dem Externalisten anschließen würden, daß ihre Beantwortung für „Wissen" nicht erforderlich ist. Zweitens muß der Externalist mit seiner Wissensanalyse noch eine andere bittere Pille schlucken. Der Skeptiker kann seine ursprüngliche Frage nicht nur auf einer höheren Ebene in interessanter Weise wiederholen, sondern er kann auch auf interne Seltsamkeiten der reliabilistischen Wissenstheorie hinweisen. Wissen im Sinne des Reliabilisten ist z. B. nicht abgeschlossen unter bekannter, logischer Implikation. Prinzip der logischen Abgeschlossenheit Wenn S weiß, daß p, und weiß, daß q aus p logisch folgt, so weiß er, daß q. Dieses Prinzip der logischen Abgeschlossenheit unseres Wissen wirkt sehr plausibel. Wenn selbst logische Schlüsse nicht von Wissen wieder zu Wissen führen, wird Wissen ein höchst instabiles Gut (s. dazu Williams 1991, Kap.8). Akzeptiert der Reliabilist allerdings das Prinzip der logischen Abgeschlossenheit, gerät er sogleich wieder in direkten Konflikt mit den skeptischen Hypothesen. Aus meiner Überzeugung, an meinem Schreibtisch zu sitzen und auf meinen neuen „Notebook" zu schauen, folgt deduktiv - oder vorsichtiger ausgedrückt - analytisch die Überzeugung, daß ich kein Gehirn in einem Topf bin. Diese Schlußfolgerung war auch nicht so versteckt, daß sie mir verborgen geblieben wäre. Wenn also meine zuerst genannte Beobachtungsüberzeugung auf reliabilistische Weise Wissen ist - und das nehme ich einmal an - , so dürfte ich auch schließen, alle radikalen skeptischen Hypothesen seien falsch. Mit dem Abgeschlossenheitsprinzip könnte ich dann sogar weiter schließen: Ich weiß, daß die skeptischen Hypothesen falsch sind. Das erscheint nun aber deshalb nicht überzeugend, weil ich in der beschriebenen Situation nichts Substantielles gegen die skeptischen Hypothesen vorgebracht habe. So weit, in der geschilderten Situation tatsächlich behaupten zu dürfen, zu wissen, daß die skeptischen Hypothesen falsch sind, möchten Reliabilisten im Allgemeinen auch nicht gehen. Sie versuchen diesen Punkt mit ihrer Theorie zu umgehen und nicht direkt auf den Skeptiker zu antworten. Daher lehnen einige von ihnen, wie Nozick und Dretske, das Abgeschlossenheitsprinzip explizit ab. Wie sich das rechtfertigen läßt, möchte ich nicht weiter verfolgen, zumal mein Hauptgeschäft schließlich nicht eine Theorie des Wissens, sondern eine Theorie der Rechtfertigung ist. Eine weitere seltsame Konsequenz reliabilistischer Theorien des Wissens möchte ich aber noch andeuten. Insbesondere für Beobachtungsüberzeugungen erscheinen uns kausale Zuverlässigkeitstheorien noch recht einsichtig. Sie stellen geradezu das paradigmatische Anwendungsgebiet der reliabilistischen Wissenstheorie dar, anhand derer wir diese Theorie überhaupt anfänglich akzeptieren. Gerade für Beobachtungsüberzeugungen gilt, daß sie nur dann als Wissen einzustufen sind, wenn der Beobachtungsvor-

A. Externalistische Strategien

91

gang, der sie hervorgebracht hat, zuverlässig ist. Schwieriger wird es schon, für allgemeinere Teile unseres Wissens. Wie können die in einer reliabilistischen Theorie erfaßt werden? Inwiefern kann man sinnvoll davon sprechen, unsere wissenschaftlichen Theorien seien anhand eines zuverlässigen Prozesses entstanden? Das setzt zumindest voraus, daß es einen derartigen zuverlässigen Prozeß gibt, der uns auf relativ sichere Weise zu entsprechenden Theorien hinfuhrt. Das ist aber eine keineswegs unproblematische Voraussetzung der reliabilistischen Theorie, denn die Wissenschaftsphilosophie beteuert, die Entwicklung von empirischen Theorien sei kein Prozeß, der bestimmten Regeln wie denen einer induktiven Logik gehorcht, sondern ein Vorgang, der wesentlich auf die Kreativität und Phantasie des Wissenschaftlers angewiesen ist. Die Phantasie von Wissenschaftlern wird man aber kaum als zuverlässigen Vorgang der Überzeugungsbildung für allgemeinere Hypothesen ansehen. Dazu gibt es zu viele Fehlentwicklungen, die erst nachträglich durch empirische Tests wieder ausgeschieden werden konnten. Das angesprochene Problem wird dann noch größer, wenn das Abgeschlossenheitsprinzip abgelehnt wird. Wenn wir zunächst Beobachtungsüberzeugungen reliabilistisch als Wissen auszeichnen, stehen uns dann noch nicht einmal logische Schlüsse zur Gewinnung weiteren Wissens, etwa von wissenschaftlichen Theorien, zur Verfügung. Induktive oder andere inferentielle Schlüsse sind aber noch schlechter dran als deduktive. Wie können wir dann noch hoffen, wissenschaftliche Theorien als Wissen zu erweisen? d) Ein nicht-kognitiver Wissensbegriff? Die vorherigen Überlegungen fuhren uns unter anderem vor Augen, daß eine Wissensdefinition, die sich nur auf externalistische Bedingungen stützt und keine inferentielle Rechtfertigung einer Meinung mehr benötigt, nicht zu unserer üblichen Konzeption von „kognitivem Wissen" paßt. Lehrer (1990, 163) zeigt, wie sich die bekanntesten reliabilistischen Konzeptionen alle nach dem Thermometerbeispiel verstehen lassen. Wissenserwerb wird dabei in Analogie zur unbewußten Informationsverarbeitung eines zuverlässigen Meßgeräts gesehen. Hier ist natürlich wiederum (vgl. II.C.2) zwischen syntaktischer und semantischer Information in einem anspruchsvolleren Sinn zu unterscheiden. Ein Thermometer besitzt nur die erstere. Lehrer (1990, 163f) erläutert anhand eines Gedankenexperiments, daß wir kognitiv unzugängliche, kausale Prozesse, auch wenn sie beim Menschen ablaufen und zuverlässige Informationen (im syntaktischen Sinn) liefern, im üblichen Sinn nicht als Wissenserwerb betrachten. Nehmen wir an, Herrn Truetemp wird ein Temperatursensor in sein Gehirn implantiert, der bei ihm korrekte Temperaturüberzeugungen verursacht. Truetemp denkt z. B.: „Es sind jetzt 23,4° C." Er weiß jedoch nichts über diesen Sensor und macht sich auch keine weiteren Gedanken über seine Temperaturüberzeugungen und weiß noch nicht einmal, daß sie immer wahr sind. Seine völlige Ignoranz gegenüber dem Zustandekommen seiner Temperaturüberzeugungen hindert uns daran zu sagen, er wüßte, daß es gerade 23,4° C sind. Diese Überzeugung hat für ihn zunächst denselben Status wie jede andere zufällige, spontan auftretende Meinung, wie etwa, daß übermorgen das Ende der Welt sein könnte, deren Herkunft sich Herr Truetemp nicht erklären kann. Selbst wenn

92

III

Begründungsstrategien

diese Meinungen wahr sind und durch einen uns unbekannten, aber zuverlässigen Mechanismus hervorgerufen werden, bezeichnen wir sie nicht als Wissen, sondern eher als ungewisse Ahnungen. Zu unserem gebräuchlichen und anspruchsvolleren Wissensbegriff gehört es, eingehende Informationen auf ihre Zuverlässigkeit hin vor unserem Hintergrundwissen zu beurteilen, und das sogar in dem Fall (s.a. IV.B), daß es sich um Informationen unserer Sinne handelt. Um den Zusammenhang zwischen Wissen und der Bewertung eingehender Informationen anschaulich zu machen, kann eine Analogie behilflich sein: Wenn mir jemand etwas erzählt oder ich etwas in einer Zeitung lese, werde ich - und das erscheint uns für Wissen unvermeidlich zu sein - mich nur dann darauf verlassen, wenn ich Grund habe anzunehmen, es handele sich dabei um einen vertrauenswürdigen Informanten oder eine seriöse Zeitung. Wir glauben vielleicht, daß Fritz, wenn es um die Qualitäten seiner neuen Freundin, seines Lieblingsfußballers oder seinem neuen Auto geht, zu Beschönigungen und Übertreibungen neigt. Dann haben wir guten Grund anzunehmen, wir wüßten nicht wirklich, daß die drei Dinge so hervorragend sind, wie Fritz es behauptet. In diesem Fall verhilft es uns auch nicht zu Wissen, wenn Fritz tatsächlich ein völlig objektiv Urteilender für die besagten Dinge ist (also ein „zuverlässiges Meßgerät" für die fraglichen Eigenschaften darstellt) und alle seine Behauptungen, die wir für Schwärmereien hielten, vollkommen zutreffend sind. Unsere Hintergrundannahmen über Fritz entwerten die Behauptungen von Fritz für uns, selbst wenn diese Hintergrundannahmen falsch sind. Es gibt keinen guten Grund, mit den Informationen, die wir aus unseren Sinnen erhalten, anders zu verfahren. Analog zu der Einschätzung von Behauptungen anderer sollten wir auch unsere eigenen Annahmen und Beobachtungsüberzeugungen (kritisch) vor dem Tribunal unserer Hintergrundannahmen einschätzen, wenn es uns um Wissen geht. Zunächst ist auch hier nicht entscheidend, wie zuverlässig sie unbekannterweise für uns tatsächlich sind, sondern nur für wie zuverlässig wir sie halten. Um das zu illustrieren, hat Lehrer (1988, 335) ein phantasievolles Beispiel anzubieten. Die Künstlerin Dorothy Levine fertigt aus Keramik täuschend echte Imitationen von Handtaschen an. Ein Herr Trust, der um diese Spezialität der Künstlerin weiß, sieht nun im Vorzimmer von Frau Levine, eine Handtasche stehen. Da es der Künstlerin ähnlich sieht, auch ihre Gäste mit Handtaschenimitaten an der Nase herumfuhren zu wollen, kann Herr Trust seinen Sinneswahrnehmungen nicht vertrauen und nicht wissen, daß es sich um eine echte Handtasche handelt - auch wenn es sich tatsächlich um eine echte Handtasche handelt.

Die Unwissenheit des Herrn Trust hat auch in dem Fall Bestand, wenn er seinen Sinnen normalerweise traut, es auch in diesem Fall tut und sich der Meinung nicht entziehen kann, daß eine Handtasche vor ihm steht. Er hat für Wissen sein Hintergrundwissen um die Späße der Frau Levine zu berücksichtigen, die weitere Tests, etwa anfassen und hochheben der Handtasche, erfordern. Doch gerade diese erkenntnistheoretisch so entscheidende Bewertung unserer Beobachtungsüberzeugungen durch unser Hintergrundwissen kann der Reliabilist innerhalb seiner Konzeption nicht berücksichtigen,

A. Externalistische Strategien

93

denn sie ist auf der Ebene der inferentiellen Beziehungen unserer Meinungen angesiedelt und nicht auf der der kausalen Zusammenhänge, von der der Reliabilist spricht. Externalisten können durch kognitive Zusatzbedingungen oder Mischformen von externalistischen und internalistischen Elementen versuchen derartige Beispiele abzufangen. Aber eigentlich verschleiern sie damit höchstens die grundsätzliche Bedeutung der kognitiven Einschätzung eingehender Informationen für Wissen und kommen im allgemeinen dem Internalisten dabei bereits entgegen. Einen solchen Fall, den „Indikator Reliabilisten" Marshall Swain, werde ich in Abschnitt (III.A.2.b) noch vorstellen. Lehrer hat für diese Form der Einschätzung von eingehenden Informationen das Schlagwort geprägt: Wissen sei Metawissen. Externalistische Wissensdefinitionen beschreiben hingegen eher nicht-kognitive Informationsverarbeitung und knüpfen damit nicht an unseren gewöhnlichen Wissensbegriff an. Da sie aber im Trend naturalistischer Ansätze liegen, schließlich wird hier Wissen als eine natürliche Beziehung zwischen bestimmten Überzeugungen und Tatsachen in der Welt definiert, wirken sie attraktiv, auch wenn dafür der Wissensbegriff etwas verbogen werden muß. Einige Autoren (z. B. McGinn 1984) sprechen deshalb auch davon, sich nicht so sehr dem herkömmlichen Wissensbegriff zuwenden zu wollen, sondern vielmehr andere Formen von „Knowledge" mit zu berücksichtigen. Das paßt mit dem deutschen Wissensbegriff nicht besonders gut zusammen und ist eher verständlich, wenn man bedenkt, daß der englische Begriff „Knowledge" umfassender ist als der deutsche Wissensbegriff.7 Diese nicht-kognitive Tendenz extemalistischer Epistemologie scheint noch problematischer zu sein, wenn wir uns meinem Hauptthema, den epistemischen Rechtfertigungen, zuwenden und fragen, ob es für sie ebenfalls reliabilistische Vorschläge gibt. Für den Wissensbegriff ist es selbstverständlich, daß es sich dabei um einen Begriff zumindest mit gewissen externalistischen Elementen handelt, denn für ihn ist die Wahrheitsbedingung konstitutiv, die eine externalistische Bedingung darstellt. Ob die rein reliabilistischen Wissenstheorien bei der Suche nach einer zusätzlichen vierten oder neuen dritten Wissensbedingung erfolgversprechend sind, möchte ich anhand der oben genannten Probleme dieser Theorien jedoch bezweifeln. Damit ist noch nicht gesagt, daß nicht andere externalistische Theorien und insbesondere Mischformen zwischen internalistischen und externalistischen Theorien hier die überzeugendsten Lösungen anzubieten haben. In Frage kommen z. B. die Vorschläge von Lehrer oder auch von Moser. Für Lehrer (1988) muß zur subjektiven Rechtfertigung für Wissen hinzukommen, daß sie auch objektiv Bestand hat; in seiner Terminologie: daß sie auch eine Rechtfertigung vor dem Hintergrund des „verific systems" oder des „ultra systems" ist. Diese beiden Aussagensysteme entstehen aus unserem Meinungssystem, indem die falschen Überzeugungen entfernt und einige wahre dafür eingebracht werden. Für Moser (1991, 242ff) führen solche Rechtfertigungen zu Wissen, die „truth resistant" sind, d.h. die auch dann noch Bestand haben, wenn man sie mit zusätzlichen wahren Aussagen konfrontiert.

94

III

Begründungsstrategien

2. Externalistische Rechtfertigungen Den Abstecher zu den externalistischen Wissenstheorien möchte ich an dieser Stelle beenden und zusehen, was sich daraus für die Frage nach epistemischen Rechtfertigungen gewinnen läßt. Für sie ist es zunächst sicherlich noch unplausibler als für Wissen, daß es sich um einen externalistischen Begriff handeln könnte. Dazu möchte ich noch einmal darauf hinweisen, daß hier von Rechtfertigungen in einem allgemeineren Sinn die Rede ist und nicht nur von solchen, die zu Wissen fuhren. Die Sprachregelung ist in diesem Punkt alles andere als einheitlich. Lehrer scheint z. B. meist dort von Rechtfertigung zu sprechen, wo sie im Falle, daß sie wahre Meinungen rechtfertigt, auch bereits Wissen impliziert, und für Rechtfertigungen per se wählt Lehrer eher den Ausdruck „personally justified". 8 Für ihn ist es daher naheliegend, auch für „Rechtfertigungen" nach externen Zusatzbedingungen zu den von ihm genannten kohärentistischen internen Bedingungen zu fragen, denn für Wissen erwartet man, daß die Rechtfertigung nicht nur allgemein ein Indikator für Wahrheit ist, sondern daß auch die „richtige" Rechtfertigung vorliegt, die tatsächlich mit der Wahrheit des Wissens in diesem Einzelfall zusammenhängt. Für diesen Zusammenhang werden daher eventuell externe Bedingungen zu formulieren sein, die wir für Rechtfertigungen im allgemeinen nicht plausibel fordern können, da Rechtfertigungen auch dann bereits vorliegen, wenn wir gute Gründe für eine Meinung haben. Selbst wenn diese Meinung schließlich doch falsch ist, bedeutet das noch nicht, sie sei nicht gerechtfertigt gewesen. Das Haben einer falschen Meinung macht uns eben noch nicht zu epistemisch fahrlässigen Personen. Ich kann es daher nicht oft genug betonen: Wir können die Intuition, daß „Wissen" wesentlich durch externe Bedingungen bestimmt wird, nicht einfach in eine Theorie der Rechtfertigung übernehmen. Trotzdem wird häufig auch von externalistischen Rechtfertigungen gesprochen, und ich möchte zunächst einige wahrscheinliche Motive dafür nennen. Ein erstes ist das bereits genannte, daß die meisten Reliabilisten ihre Fragestellungen ganz aus der Wissensproblematik beziehen, und es dort naheliegend ist, nach zumindest zum Teil externalistischen Lösungen zu suchen. Da ich aber nach Rechtfertigungen unabhängig von einer Wissenstheorie suche, kann das für mich kein guter Grund sein, externalistische Elemente in eine Rechtfertigungstheorie aufzunehmen.

a) Fragen der klassischen Erkenntnistheorie Weit interessanter ist schon die Idee, die zahlreichen in Rechtfertigungen drohenden Regresse durch externalistische Elemente stoppen zu wollen. In internalistischen inferentiellen Rechtfertigungen möchte man sich immer nur auf Aussagen stützen, die selbst wieder gerechtfertigt sind. Das führt bekanntlich in einen unendlichen Regreß oder Zirkel der Rechtfertigung (s.a. III.B.2). Den versuchen Externalisten zu stoppen, indem sie z. B. fundamentalistische Positionen vertreten, in denen die basalen Überzeugungen externalistisch gerechtfertigt sind, etwa durch Berufung auf zuverlässige Wahrnehmungen. Doch dieser Versuch, den Regreß aufzuhalten, kann nur dann von Erfolg gekrönt

A. Externalistische

Strategien

95

sein, wenn wir die basalen Überzeugungen durch externalistische Zusammenhänge auch tatsächlich als intuitiv gerechtfertigt akzeptieren können. Genau das werde ich bestreiten, so daß damit die Grundintuition, die zu dem Regreß geführt hat, rechtfertigende Aussagen müßten selbst wieder gerechtfertigt sein, in den externalistischen Ansätzen nicht eingelöst werden kann. BonJour (1985, 38ff) hat sich dazu eine Reihe von Beispielen ausgedacht, die uns begreiflich machen sollen, warum reliabilistische oder andere externalistische Rechtfertigungen eigentlich keine Rechtfertigungen sind und insbesondere auch nicht für Wissen ausreichen. Um den Unterschied zwischen internalistisch und externalistisch begründeten Überzeugungen zugänglich zu machen, mußte BonJour nach Beispielen suchen, in denen wir auf zuverlässige Weise zu bestimmten Meinungen gelangen, aber selbst nichts darüber wissen. Nur in solchen Fällen ergibt sich eine wesentlich verschiedene Bewertung von externalistischer und internalistischer Seite. Da wir kaum klare Fälle dieser Art finden, sondern die meisten bestenfalls Mischformen zu sein scheinen, mußte BonJour zu etwas exotischen Beispielen greifen. Das sollte aber nicht darüber hinwegtäuschen, daß sie gut verständliche begriffliche Möglichkeiten aufzeigen, in denen die Unplausibilität der externalistischen Theorie deutlich wird und man im Prinzip analoge Beispiele aus dem Bereich unserer Wahrnehmung bilden könnte. BonJours Hauptpersonen nennen wir der Einfachheit halber Norman. Norman ist ein sehr zuverlässiger Hellseher (hier wird also eine bestimmte reliabilistische Bedingung erfüllt), aber Norman weiß nichts über seine Fähigkeit, er verfugt also nicht über eine entsprechende Einschätzung seiner auf hellseherischem Wege entstandenen Meinungen (eine internalistische Bedingung für Wissen ist also nicht erfüllt). Norman glaubt aufgrund seiner Hellseherei - diese wird als ein von ihm nicht bemerkter Vorgang betrachtet - , daß der Präsident gerade in N e w York ist.

Man kann dieses Beispiel noch auf recht unterschiedliche Weise ausgestalten, was BonJour auch unternimmt, und sich jeweils fragen, ob man Norman das Wissen zuschreiben möchte oder eine gerechtfertigte Überzeugung, daß der Präsident in New York ist. Der für den Externalisten ungünstigste Fall ist der folgende: Norman könnte zusätzlich über gute Hinweise verfügen, daß der Präsident sich in Washington aufhält und mit der festen etwa durch wissenschaftliche Theorien gestützten Ansicht leben, daß es Phänomene wie Hellseherei nicht geben kann. Was sollte uns dann noch veranlassen, ihm das Wissen zu unterstellen, der Präsident sei in New York, wenn diese Annahme für ihn selbst keine erkennbare epistemische Stützung besitzt und ihm sogar als eine seltsame und unerklärliche Ahnung erscheinen muß, die gegen all seine begründeten Überzeugungen steht. Diese Überzeugung ist dann ein Fremdkörper in seinem Meinungssystem, dessen zuverlässige Verursachung durch Hellseherei doch wohl keine Rechtfertigung für Norman bieten kann, an dieser Meinung festzuhalten. Wenn Norman epistemisch verantwortlich verfahren wollte, müßte er diese Meinung aufgeben. Es sind aber auch andere Varianten dieses Beispiels denkbar. So z. B., daß Norman keine weiteren Ansichten über den gegenwärtigen Aufenthaltsort des Präsidenten und keine über Hellseherei hat; oder daß er glaubt, hellsehen zu können, aber dafür keine

III Begründungsstrategien

96

Gründe hat usw. In all diesen Varianten scheint es uns ebenfalls kaum wirklich plausibel, von Norman zu sagen, er sei in seiner Meinung über den Präsidenten gerechtfertigt oder sie sei sogar Wissen. Seine weitgehende Ignoranz gegenüber der Entstehungsgeschichte seiner Überzeugung sowie das Fehlen jeder Einbindung der Hellseherei in den Korpus seiner Meinungen, machen ihm eine epistemische Bewertung dieser Meinung unmöglich und verhindern daher, daß sie zu Wissen im Sinne eines Lehrerschen Metawissens werden kann oder daß wir sie als begründet ansehen können. Das wurde schon frühzeitig auch von Erkenntnistheoretikern wie Chisholm in ähnlicher Weise eingeschätzt: So könnte jemand einwenden: „Die beste Rechtfertigung, die wir für eine Proposition haben, besteht doch darin, daß sie aus einer zuverlässigen Quelle stammt. Was könnte vernünftiger sein, als die Äußerungen einer solchen Quelle zu akzeptieren - sei die Quelle ein Computer, ein Sinnesorgan, oder die Wissenschaft selbst?" Die Antwort ist natürlich, daß es durchaus vernünftig ist, einer Quelle Glauben zu schenken, vorausgesetzt man weiß, daß sie zuverlässig ist, oder man hat gute Gründe oder eine gute Evidenz zu meinen, sie sei zuverlässig. (Chisholm 1979, 98) Der Externalist kann seine Konzeption mit einer Reihe von internalistischen Zusatzbestimmungen gegen solche Fälle Schritt für Schritt abzusichern suchen. 9 Doch abgesehen von einer gewissen Willkürlichkeit in der Wahl dieser Zusatzbedingungen, die den ad hoc Charakter dieser Modifikationen offenbaren, bleibt immer die grundlegende Frage zurück: Was trägt die externe Bedingung zur Rechtfertigung der Überzeugung überhaupt bei? Die im Kapitel (II.C.l) als grundlegend angesehene Relativierung von Rechtfertigungen auf ein bestimmtes Aussagensystem oder einen entsprechenden epistemischen Zustand paßt mit reliabilistischen Bedingungen in keiner Weise zusammen, weil diese nicht auf die inferentiellen Zusammenhänge zum Hintergrundwissen des epistemischen Subjekts abstellen. Eine reliabilistische Rechtfertigung hat demnach ein anderes Thema als die internalistische. Sie fragt nicht mehr danach, was ich tatsächlich fiir Gründe für eine meiner Meinungen habe und welche anderen Meinungen ich für sie anführen kann, sondern danach, welche Zusammenhänge zwischen dieser Meinung und bestimmten Tatsachen in der Welt objektiv bestehen. Definitionsgemäß bietet sie auch keine Antwort mehr auf die klassische erkenntnistheoretische Frage: Was soll ich glauben? Der Externalist tut häufig so, als ob er sich den klassischen erkenntnistheoretischen Fragen zuwenden würde, aber wenn wir ihn so interpretieren, macht er sich einer Themaverfehlung schuldig.

b) Eine externalistisch-internalistische Mischform Um den antiintuitiven Konsequenzen eines reinen Externalismus zu entgehen und trotzdem die Idee von externalistischen Elementen in Rechtfertigungen nicht vollständig aufzugeben, wurden die gemischt externalistisch/internalistischen Rechtfertigungskonzeptionen vorgeschlagen. So hat Marshall Swain in (1981) ein Rechtfertigungsverfahren konzipiert, das eine solche Mischform darstellt und wirft BonJour (in Swain 1989) vor,

A. Externalistische

Strategien

97

dessen Beispiele gegen Externalisten träfen jedenfalls nicht seine Rechtfertigungstheorie. In Swains Theorie, die man als ,Jleliabilitätsindikatortheorie" bezeichnen kann, besteht eine Rechtfertigung aus zwei Aspekten. Zum einen einer tatsächlich zuverlässigen Überzeugungsbildung und zum anderen einem für das epistemische Subjekt kognitiv zugänglichen Indikator für diese Zuverlässigkeit, die in unseren Meinungen über die Entstehung dieser Überzeugung auch in irgendeiner Weise repräsentiert ist. A belief is justified provided it is more likely to be true, given the reasons upon which the belief is based and relevant characteristics of the believer, than any competitor of the belief. The likelihood in question is objective, or external, and the characteristics of the believer which condition it need not be known to the believer. (Swain 1989,119)

Auch wenn mit dieser Theorie, weil sie internalistische Elemente beinhaltet, zunächst BonJours Norman Beispiel ebenfalls als Fall von Nichtwissen zurückgewiesen werden kann, ist damit noch nicht entschieden, ob sie einen wesentlichen Fortschritt gegenüber den rein externalistischen oder internalistischen Konzeptionen verkörpert. BonJour (1989, 279) gelingt es nachzuweisen, daß sich sein Norman Beispiel mit leichten Modifikationen auch gegen Swains Theorie richten läßt. Um nun nicht in einem Disput mit immer komplexeren Gegenbeispielen und subtileren Ausschlußbedingungen zu versinken, möchte ich lieber darauf eingehen, warum Swain überhaupt annimmt, man müsse statt einer internalistischen Rechtfertigungstheorie etwa ä la BonJour zu einer Mischform übergehen. Dazu Swain selbst: Part of the answer is: Consider the alternative! The alternative is to require for justified belief the accessibility of virtually everything relevant to one's justification, the view which BonJour seems to accept in his book. (Swain 1989, 120)

Swain hält den Internalismus also fur unrealistisch, weil er zu viel von den epistemischen Subjekten verlange und möchte die externalistischen Komponenten nutzen, um defizitäre interne Rechtfertigungen zu vollwertigen aufzuwerten. BonJour (1989, 280) stellt dazu als erstes die knifflige Frage, wie defizitär Rechtfertigungen denn auf der internalistischen Ebene sein dürfen, um durch externe Elemente noch gerettet werden zu können? Aber auch wenn es Swain gelänge, diese völlige Vagheit seiner Grundidee in nicht willkürlicher Weise zu überwinden, kehrt wieder das Problem zurück, daß gerade die externalistischen Elemente zur Beantwortung der grundlegende Frage „Was soll ich glauben?" nichts beizutragen haben. Sie erscheinen daher als ungeeignetes Mittel, um Defizite in Rechtfertigungen zu beheben. Wenn meine Rechtfertigung einer Meinung Defizite aufweist, kann ich nicht erwidern, ob sie wirklich defizitär ist oder nicht, werden wir vielleicht nie entscheiden können, denn dazu müßten wir erst alle Tatsachenzusammenhänge zwischen meinen Überzeugungen und der Welt kennen. Solange ich diese Zusammenhänge nicht in irgendeiner Form angeben oder auf sie verweisen kann, bleibt meine Rechtfertigung weiterhin unbefriedigend. Das muß natürlich nicht heißen, daß es sich nicht wenigstens noch um eine schwache Rechtfertigung handeln kann, denn Rechtfertigungen sind gradueller Abstufungen fähig.Mit diesem letzten Punkt möchte ich auch eine kurze Antwort auf Swains Vorwurf

98

III

Begründungsstrategien

der Überforderung epistemischer Subjekte durch den Internalismus geben, die in den folgenden Abschnitten noch ausgeführt wird. Neben idealen Rechtfertigungen können uns auch schwache Gründe einen Hinweis dafür bieten, was wir glauben sollen; auch solche Gründe, die für Wissen bei weitem nicht ausreichen. Außerdem sind die genannten Phänomene wie implizites Wissen und vor allem die epistemische Arbeitsteilung zu nennen, die unser Bild von Rechtfertigungen in realistischer Weise ergänzen und dem Subjekt einen Teil seiner Rechtfertigungsarbeit abnehmen können. Der externalistische Schachzug Swains kommt mir dazu verfehlt vor.10

c) Rechtfertigung und Ursachen An dieser Stelle ist es hilfreich, noch einmal auf ein früher schon angeschnittenes Thema zurückzukommen. Für einige Reliabilisten ist es erforderlich, daß die Belege, die wir für eine Überzeugung haben, zumindest zum Teil diese Überzeugung mitverursacht haben. Hier ist Vorsicht angebracht, denn im Hintergrund lauert wieder die Vermengung von Genese und Rechtfertigung. Selbst wenn es im Normalfall - etwa bei der Wahrnehmung - oft so sein mag, daß unsere Gründe für unsere Überzeugungen sich auf deren Entstehung beziehen, so gibt es doch keinen (das war ein Argumentationsziel des Abschnitts III.A) inhaltlichen oder begrifflichen Zusammenhang, der das erforderlich macht. Es sind viele Fälle denkbar, in denen Gründe und Ursachen für eine Überzeugung auseinanderfallen. Trotzdem läßt uns der Wunsch nach einer einfachen „natürlichen" Beziehung als Rechtfertigungsrelation immer wieder Gefahr laufen, die natürlichen Ursachen einer Meinung für ihre Rechtfertigung zu halten. Lehrer erläutert deshalb die Unterscheidung noch einmal durch eine nützliche Analogie zwischen Rechtfertigung und logischer Gültigkeit: If a person validly deduces a conclusion from something he knows, this may cause him to believe the conclusion or influence his belief in the conclusion. If valid deduction had no influence whatever on whether a person believed the conclusion, that would not undermine the validity of the inference. Similarly, if someone justifies some conclusion on the basis of something he knows, this may cause him to believe the conclusion or influence his belief in the conclusion. The justification of his conclusion, however, does not depend on the causal influence. (Lehrer 1990,171)

Sich diesen Unterschied zwischen der Gültigkeit von Schlüssen und Begründungen auf der einen und kausalen Beziehungen auf der anderen Seite immer wieder klar zu machen, ist auch ein Heilmittel gegen die Ansicht, Rechtfertigungen seien auf derartige kausale Beziehungen angewiesen. Unter diesem Aspekt gewinnen auch die Beispiele des Abschnitts zur Unterscheidung von Genese und Rechtfertigung erneut an Bedeutung. Mit diesem Rüstzeug möchte ich nun auf eine Redeweise eingehen, die einen kausalen Zusammenhang zwischen meiner Überzeugung und ihren Gründen nahezulegen scheint. Schon 1970 wies Harman (1987, 108ff) auf den Unterschied hin zwischen Gründen, die man hat, etwas zu glauben und solchen derentwegen man etwas glaubt. Die letzteren entscheiden für ihn darüber, ob man in seinem Glauben gerechtfertigt ist.

A. Externalistische

Strategien

99

Diese Unterscheidung fuhrt nach Harman nicht zu einer Unterscheidung zwischen verursachenden Gründen und solchen, die das nicht tun, sondern auf eine Untersuchung der Überlegungen, die zu unseren Meinungen geführt haben. Nicht zu einer Analyse ihrer kausaler Struktur und dem Prozeß des Überlegens, sondern zu einer Untersuchung der „abstrakten Struktur" aus Prämissen, Zwischenschritten und Schlußfolgerungen (Harman 1987, 119). Das mündete in seiner „no false conclusions" Bedingung der Wissensanalyse, die uns allerdings nicht zu überzeugen vermochte. In neueren Arbeiten versuchen Autoren erneut eine entsprechende Unterscheidung im Hinblick auf die Bedeutung von kausalen Zusammenhängen für unser Gerechtfertigtsein stark zu machen. Nach (Haack 1993, 75ff und Koppelberg 1994, 201 ff) hängt epistemische Rechtfertigung wesentlich davon ab, warum eine Person etwas meint, und das ist eine Frage der kausalen Abhängigkeit. Um dem nachzugehen, möchte ich zunächst ein Beispiel von Koppelberg (1994, 210) aufgreifen: Eine Person S besitzt unter anderem die folgenden drei Meinungen: 0) p (2) p—>q (3) q Ist er dann gerechtfertigt in seinem Glauben an q? Nach Koppelberg ist das jedenfalls dann nicht der Fall, wenn S q aus Gründen glaubt, die nichts mit den anderen beiden Meinungen zu tun haben und die ihrerseits eher irrational erscheinen. Dazu möchte ich zwei Fragen trennen, die meines Erachtens zu verschiedenen Gebieten gehören: 1. Welches sind die Gründe, derentwegen S an q glaubt? 2. Sind diese Gründe (erkenntnistheoretisch) gute Gründe? Mein Interesse gilt überwiegend der 2. Frage. Ich möchte wissen, wann bestimmte Meinungen gute Rechtfertigungen für eine Meinung abgeben können, zumal eine Antwort auf diese Frage uns leiten kann bei der Frage, was ich glauben soll. Welche Meinungen oder Zustände eine Person dazu gebracht haben, an q zu glauben, gehört dagegen eher in den Bereich der Philosophie des Geistes, oder wenn man wie ich etwas skeptisch bezüglich deren Leistungsfähigkeit ist, in den Bereich der empirischen Psychologie oder Neurophysiologie. Die Frage, wann eine Person S in einer konkreten Meinung gerechtfertigt ist, zerfallt somit in zwei Fragen. Wir müssen einerseits klären - das scheint bei einer kausalen Deutung des „derentwegen" ein empirisches Projekt zu sein - , aus welchen Motiven oder tatsächlichen Ursachen S die Meinung q akzeptiert, und müssen andererseits bewerten, ob diese Ursachen erkenntnistheoretisch akzeptable Gründe darstellen, an q zu glauben. In dieser Arbeit werde ich mich also der zweiten rein erkenntnistheoretischen Frage zuwenden und die erste Frage an die Philosophie des Geistes verweisen. Doch bevor ich mein eigentliches Projekt wieder aufnehme, möchte ich mich auch noch ein wenig an den Vermutungen darüber beteiligen, ob das „derentwegen" in der ersten Frage - also im Hinblick auf eine letztlich epistemische Fragestellung - kausal zu deuten ist. Susan Haack (1993, 76) hält die darin angesprochene Abhängigkeit für eine kausale Abhängigkeit und meint, daß wir alle kausalen Einflüsse, die S' Glauben an q

100

III

Begründungsstrategien

befördert oder gehemmt haben, wie bei einer Kräfteaddition berücksichtigen sollten. Um das durchzuhalten ist man auf bestimmte Ansichten in der Philosophie des Geistes festgelegt, die keineswegs unkontrovers sind. Nämlich daß wir Meinungen auch als Ursachen wie andere betrachten dürfen. Glaubt man dagegen, daß intentional beschriebene mentale Zustände ungeeignet sind, um physikalische Ursachen zu charakterisieren, so ist diese Redeweise - insbesondere zusammen mit der Redeweise der Verrechnung von Ursachen in einer Art Vektoraddition - kaum als hilfreiche Erläuterung aufzufassen. Aber selbst wenn wir die Voraussetzung von Haack übernehmen, scheint mir Kausalität keinen geeigneten Ansatzpunkt für eine Analyse der gesuchten Meinungsabhängigkeit darzustellen. Wenn in unserem Beispiel die Meinungen (1) und (2) den Glauben an q verursacht haben, so bleibt die bloße Verursachung meines Erachtens epistemisch irrelevant. Sie könnte zunächst eine Art „Kurzschluß" im Gehirn sein, den wir vielleicht genauso zwischen den Meinungen „r" und „non-r" wiederfinden. Ein derartiger kausaler Zusammenhang könnte unsere Ansicht S sei gerechtfertigt in seinem Glauben an q nicht begründen. Die Kausalität zwischen Ereignissen kann jedenfalls dieselbe sein, ob sie Meinungen instantiiert, die in einem deduktiven Verhältnis oder in einem kontradiktorischen stehen. Es kommt wiederum vielmehr auf unsere epistemische Bewertung an. S muß (1) und (2) für seine inferentiellen Gründe für (3) halten, damit wir sagen können, er sei in seinem Glauben an q gerechtfertigt. Zu dem Glauben an (1) bis (3) sollte daher eher eine weitere (implizite) MetaÜberzeugung treten, nämlich: „(1) und (2) begründen (3)". Das scheint mir eine naheliegendere Explikation von „derentwegen" in diesem Kontext zu sein und bietet sich natürlich auch als naheliegende Ergänzung der Kohärenztheorie der Rechtfertigung an, für die ich im Weiteren eintreten werde. Ob es erkenntnistheoretisch dann noch interessant ist, psychologische Spekulationen ins Spiel zu bringen, ob das die wahren Gründe von S für seinen Glauben an q sind, scheint mir eher fraglich. Das soll die Analyse eines Beispiels noch ein wenig beleuchten: Kommissar X entläßt die Mordverdächtige Y aus der Untersuchungshaft, die seine Geliebte ist. Sein Vorgesetzter macht ihm daraufhin Vorhaltungen, daß er Y nur aus persönlichen Neigungen freigelassen und damit seine Dienstpflichten verletzt hätte. Doch X kann dem zunächst Einiges entgegenhalten: Y hätte ein gutes Alibi für die Tatzeit, das mutmaßliche Motiv hätte nicht wirklich bestanden und außerdem sei Y von ihrem Charakter her eine solch grausame Tat nicht zuzutrauen. Die dienstliche Rechtfertigung des Kommissars hängt hierbei entscheidend davon ab, ob wir sagen können, daß er in seiner Ansicht, Y sei nicht mehr dringend tatverdächtig gewesen, tatsächlich epistemisch gerechtfertigt war oder nicht. Was kann der Vorgesetzte nun X noch entgegenhalten, um den Kommissar in die Schranken zu verweisen? Kann er ihm etwa nachweisen, daß X selbst nicht an das Alibi glaubte oder es nicht für hinreichend wasserdicht hielt, um seine Bewertung der „Tatverdächtigkeit" zu begründen, so hat er noch etwas in der Hand. Muß er aber zugeben, daß die Gründe, die X für seine Handlungen zu nennen weiß, dessen Bewertung perfekt rechtfertigen und daß X aufrichtig an diesen Zusammenhang glaubt, so scheint uns der folgender Einwand des Vorgesetzten ausgesprochen aus der Luft gegrif-

A. Externalistische Strategien

101

fen: „Sie hatten zwar sehr gute Gründe, um Y frei zu lassen, an die Sie auch geglaubt haben, aber das waren trotzdem nicht ihren wirklichen Beweggründe. Die stammten ganz aus dem persönlichen Bereich." Darauf kann der arme Kommissar natürlich auch nur zugeben, daß er über die kausale Verschaltung seiner Meinungen nicht mehr sagen kann, als daß seine bisherigen Auskünfte ehrlich waren. Wie will er sich jetzt noch rechtfertigen, wenn das Zitieren guter Gründe, an die er glaubt und von denen er glaubt, daß sie seine Ansicht begründen, dazu nicht ausreicht? Legen wir solche Maßstäbe an, erhalten wir einen ausgesprochen praxisfernen Rechtfertigungsbegriff. Nach den üblichen Standards war der Kommissar dagegen in seiner Ansicht über den Tatverdacht von Y gerechtfertigt und die weitergehende Spekulation, es wäre eher wohl eher seine Zuneigung zu Y kausal wirksam gewesen, diskreditiert X nicht, selbst wenn wir dafür Anhaltspunkte haben. Für eine normale epistemische Rechtfertigung einer Überzeugung ist das zuviel verlangt. Doch nun wieder zurück zur Beantwortung der zweiten Frage durch den Externalisten. d) Rationalität und Rechtfertigung Daß der Externalist eine Art von Themaverfehlung begeht, wird außerdem anhand einer analytischen Verbindung zur Handlungstheorie erkennbar. Es gibt sicher keinen ganz einfachen Zusammenhang zwischen den Konzepten von Rationalität und Rechtfertigung, aber daß es eine begriffliche Verbindung gibt, die ungefähr in der folgenden Weise beschrieben werden kann, scheint mir relativ unproblematisch zu sein: Rechtfertigungen und Rationalität (RR) Wenn ich mich in meinen (Handlungs-)Entscheidungen wesentlich auf bestimmte Annahmen über die Welt stütze - und das gilt insbesondere für wichtige Entscheidungen - , dann sollte ich gute Gründe für diese Annahmen haben, sonst handele ich irrational. Das Prinzip (RR) ist sicher nur unter bestimmten Bedingungen gültig, wie, daß ich genügend Zeit für meine Entscheidung zur Verfügung habe, die wichtigen Informationen für mich zugänglich sind und sich auch der Aufwand der Informationsbeschaffiing für die Entscheidung lohnt, etwa weil diese für mich entsprechend wichtig ist. Dazu kommen vielleicht noch weitere ceteris paribus Bedingungen. Aber wenn wir diese berücksichtigen, drückt (RR) einen quasi-analytischen Zusammenhang aus. Der geht für externalistische „Rechtfertigungen" verloren. Das ist wiederum an Beispielen erkennbar, die sich bei BonJour (1985, 45) finden. Nehmen wir an, Norman, der uns schon geläufige Hellseher, wird gezwungen, auf eine von zwei Möglichkeiten zu wetten. Die erste ist, daß der Präsident in New York ist, und die zweite, daß der Generalstaatsanwalt in New York ist. Um das Beispiel etwas dramatischer zu gestalten, nehmen wir weiter an, für Norman stehe eine Menge auf dem Spiel, vielleicht sogar sein Leben. Die erste Meinung sei nun aufgrund seiner zuverlässigen aber ihm kognitiv völlig unzugänglichen Hellseherei entstanden, so daß der Reliabilist ihm sogar das entsprechende Wissen zuschreiben würde; für die zweite hat er „nur" einige gute inferentielle Gründe, die es wahrscheinlich

102

III

Begründungsstrategien

machen, daß der Generalstaatsanwalt in New York ist, die aber nicht für Wissen ausreichen. Wenn wir uns Normans epistemische Situation vor Augen führen, wonach er zwar zunächst die Überzeugung hat, daß der Präsident in New York ist, jedoch nicht den geringsten Anhaltspunkt benennen kann, daß es so ist, er hingegen über gute Gründe für die zweite Meinung verfügt, so ist offensichtlich, daß wir seine Wahl nur dann vernünftig nennen würden, wenn er sich für die zweite Meinung entscheidet. Für den Reliabilisten entsteht damit eine Kluft zwischen begründeten Überzeugungen (oder sogar Wissen) und vernünftigem Handeln, die nicht zu unserem üblichen Gebrauch dieser Konzepte paßt. Er trennt das Begründungsgeschäft von seiner praktischen Konsequenz, handlungsanleitend zu sein, obwohl die für uns einen wesentlichen Grund darstellt, warum wir uns um epistemische Rechtfertigungen bemühen. Der Reliabilist kann natürlich auch in diesem Punkt für eine Änderung unseres Sprachgebrauchs eintreten, aber wenn er diesen Zusammenhang zur Rationalität aufgeben möchte, hat er die Frage zu gegenwärtigen, wozu sein Begriff der Rechtfertigung überhaupt tauglich sein soll. In dem Bereich, in dem er sich von unserer internalistischen Begründungskonzeption unterscheidet, kann er uns nicht mehr als Hilfe für Entscheidungen dienen, sondern ist nur aus der Perspektive eines allwissenden Dritten zu vergeben. e) Kritik am Internalismus Externalisten bedienen sich natürlich nicht nur direkter Argumente für den Externalismus, sondern auch Argumenten gegen ihre Gegenposition, den Internalismus, nach dem alle Elemente der Rechtfertigung uns kognitiv zugänglich sein sollen. Die meisten dieser Kritiken richten sich gegen spezielle Positionen etwa Positionen aus dem Lager der Kohärenztheorien der Rechtfertigung, wie auch ich sie später vertreten werde, und sollen daher auch erst an späterer Stelle zur Sprache kommen. Einen ziemlich allgemeinen Angriff auf den Internalismus, hatte ich schon in Abschnitt (III.A.2.b) erwähnt. Es wird behauptet, die internalistischen Ansätze wie der von BonJour stellten zu hohe Anforderungen an Rechtfertigungen. Eine Formulierung des Einwands findet sich wieder bei Swain (1989, 120): „We do not as a matter of empirical fact, have the grasp of our belief system, implicit or explicit, required by the doxastic presumption."11 Demnach sind internalistische Positionen zu anspruchsvoll und verlangen zuviel von einem epistemischen Subjekt für begründete Meinungen. Das hätte, so die Kritik, zur Folge, daß wir in den meisten unserer Common-Sense Überzeugungen nicht gerechtfertigt seien und man aufgrund internalistischer Rechtfertigungstheorien auch nicht erwarten dürfte, daß wir solche Rechtfertigungen zur Verfügung haben könnten. Die ganze Konzeption von internalistischen Rechtfertigungen wird damit unrealistisch und schlimmer noch, wir müssen sogar befürchten, unsere paradigmatischen Fälle und Vorbilder für Rechtfertigungen, die doch unseren Weg zu einer Theorie der Rechtfertigung leiten sollten, zu verlieren. In seiner Antwort auf diese Kritik am Internalismus weist BonJour als erstes darauf hin, daß natürlich auch unsere Common-Sense Ansichten tatsächlich nicht immer besonders gut begründet sind und keineswegs sakrosankt sein sollen. Das allein kann

A. Externalistische

Strategien

103

andererseits kaum als Erwiderung genügen, obwohl es eine Erkenntnis ist, die selbst bereits im Common-Sense Wissen verankert ist. Ein weiterer Punkt ist, daß, wenngleich das bisher nicht explizit erwähnt wurde, gerade das Konzept der allgemeinen Rechtfertigung (die im Falle ihrer Wahrheit nicht schon Wissen implizieren muß) Abstufungen erlaubt, die von sehr schlechten Begründungen, die man kaum noch als solche bezeichnen darf, bis zu sehr guten Rechtfertigungen reichen. Hier zeigt sich wiederum ein Vorteil einer von der Wissensdebatte abgelösten Untersuchung zur epistemischen Rechtfertigung, denn für Wissen ist eine solche Abstufung keineswegs ähnlich zwanglos möglich. In der Analyse von Rechtfertigungen war das Ziel eine Theorie der idealen Rechtfertigung, die sich nicht in voller Form in unseren tatsächlichen Rechtfertigungen wiederfinden lassen muß. Wenn einige unserer tatsächlichen Rechtfertigungen sie auch nur annähernd verwirklichen, ist unsere Theorie auch für sie aussagekräftig. Darüber hinaus sind zwei weitere Schritte zur Ehrenrettung tatsächlicher Begründungen bereits eingeführt worden. Der erste ist, nicht zu verlangen, unsere Rechtfertigungen müßten immer explizit verfügbar sein, sondern dispositionelle Rechtfertigungen und einfache Ableitungen zusätzlich als implizite Rechtfertigungen zuzulassen. Der zweite Schritt, der mindestens genauso bedeutsam ist, ist die epistemische Arbeitsteilung, die Rechtfertigungen oder Wissen als auch gesellschaftlich bestimmt ansieht. Eine naheliegende Frage an diesem Punkt der Diskussion ist aber sicher, ob die epistemische Arbeitsteilung nicht selbst bereits eine Form des Externalismus darstellt. Für den Einzelnen ist es allerdings so, daß eine nur gesellschaftlich verfügbare Rechtfertigung nicht vollkommen intern ist. Doch in einem liberaleren Sinn sind uns auch die in der Gesellschaft verfügbaren Rechtfertigungen kognitiv zugänglich, denn wir können sie etwa nachlesen oder sie uns von einem Experten erklären lassen, wobei wir vielfach auch schon vorher gute Gründe haben anzunehmen, daß sich damit Wissenslücken in ganz bestimmter Weise ausfüllen lassen. Jedenfalls liegen diese Rechtfertigungen schon in propositionaler Form vor und stellen nicht nur Berufungen auf eine „blinde" Kausalität dar, von der vielleicht niemand etwas weiß. Außerdem wurde im Sinne des Lehrerschen Diktums, nach dem Wissen immer Metawissen ist, verlangt, daß der Einzelne eine epistemische Bewertung dieser sozial verfügbaren Rechtfertigungen vornimmt. Auf einige der Probleme solcher Einschätzungen hatte ich schon hingewiesen. Diese diskreditieren gesellschaftliche Rechtfertigungen jedoch nicht grundsätzlich, sondern fuhren höchstens zu einer Herabstufung in der Frage, wie gut sie im Vergleich zu idealen Rechtfertigungen liegen. Jedenfalls unterscheiden sich arbeitsteilige Rechtfertigungen durch ihre prinzipielle Zugänglichkeit und der damit gegebenen Möglichkeit einer Metabewertung erheblich von „externen Rechtfertigungen". Wieso sie in bestimmten Problemstellungen als Beispiele interner Rechtfertigungen gelten dürfen, kann auch noch ein ganz anderer Gedankengang nahelegen. In der Frage, welche Dinge als epistemische Subjekte in Frage kommen, hatte ich auch Gruppen von Personen, z. B. eine bestimmte Wissenschaftlergemeinschaft oder andere Gruppen, zugelassen. Für sozial verfügbares Wissen ist es dann auch vertretbar, davon zu spre-

104

III Begründungsstrategien

chen, daß eine derartige Gruppe als Ganzes über dieses Wissen verfügt. Da sie wenigstens im Prinzip in der Lage ist, dieses Wissen in expliziter Form (als semantische Information) vorzulegen und darüber zu räsonieren, kann man sagen, die Gruppe besitze das Wissen oder die Rechtfertigungen in interner Form. Damit können wir ein epistemisches Subjekt vorweisen, das einige umfangreiche Rechtfertigungen in einer Form intern aufweist, die in manchen Fällen schon in die Nähe idealer Rechtfertigungen kommt. Für die Analyse von Erklärungen werde ich später unter anderem auch so verfahren, daß ich mir anschaue, über welche Erklärungen die „scientific Community" verfügt. Selbst wenn internalistische Theorien also keine realistischen Modelle in bezug auf einzelne Menschen abgäben, könnten sie es noch in bezug auf andere epistemische Subjekte sein, deren weitergehendes Studium ebenfalls erkenntnistheoretisch fruchtbar erscheint.

3. Eine Diagnose der intuitiven Attraktivität des Externalismus Nach den vielen Kritiken an der externalistischen Erkenntnistheorie und dort insbesondere an ihrem Einsatz im Rahmen von Theorien der Rechtfertigung, bleibt vielleicht trotzdem noch ein Unbehagen zurück, denn es fehlt bis jetzt eine Diagnose, wieso so vielen Philosophen die Strategie des Externalismus auf den ersten Blick einleuchtend erschien. Eine Erklärung dieses Umstandes möchte ich kurz erwägen, die noch einmal die grundlegende Schwäche des Externalismus aus einer etwas anderen Perspektive beleuchtet. Wenn uns der Externalist mit seinen Beispielen - in denen jemand über zuverlässige Wahrnehmungen zu einer wahren Beobachtungsüberzeugung gelangt - für sich zu gewinnen versucht, nehmen wir gezwungenermaßen immer die dritte-Person Sicht auf das epistemische Subjekt S seiner Beispiele ein. Wir erfahren etwa, aufgrund welcher Kausalketten die Person S zu der Überzeugung p gelangt ist. Daß p unter diesen Umständen gerechtfertigt ist, erscheint uns dann plausibel, weil wir als über den Sachverhalt aufgeklärter Betrachter in diesem Fall über eine interne Rechtfertigung für p verfugen. Für uns ist S in der Schilderung des Beispiels nämlich ein zuverlässiger „Anzeiger" einer bestimmten Tatsache, die in „p" ausgedrückt wird. Da wir um seine Zuverlässigkeit wissen, können wir uns auf ihn verlassen, wie auf die Anzeige eines Thermometers, über dessen Zuverlässigkeit wir uns vergewissert haben. Das kann uns zunächst dazu bewegen, dem Externalisten zuzustimmen, p sei gerechtfertigt. Doch entscheidend ist in der Debatte zwischen Internalisten und Externalisten nicht, ob wir über eine Rechtfertigung für p verfügen, sondern ob wir plausibel behaupten können, daß auch S über eine Rechtfertigung aus seiner ersten Person Sicht verfügt. Und genau das bestreitet der Internalist mit guten Gründen. Die Schwierigkeit in der Beurteilung der externalistischen Beispiele rührt zum Teil daher, daß wir diese Umsetzung vornehmen müssen, von unserer dritten Person Perspektive, in der wir eindeutig über eine Rechtfertigung für p verfügen, zu der Frage, wie die epistemische Situation für S selbst ausschaut. Hier kommt der Aspekt der Relativierung jeder Rechtfertigung auf einen epistemischen

A. Externalistische Strategien

105

Zustand oder ein epistemisches Subjekt, wie er bereits in (II.C.l) beschrieben wurde, ins Spiel. Das Auftreten dieser zwei Perspektiven mag den Umstand, daß externalistische „Rechtfertigungen" keine sind, in manchen geschickt gewählten Beispielen verschleiern, aber wir sollten ihn mittels der Unterscheidung der beiden Perspektiven im Gedächtnis behalten. In vielen Beispielen von Sinneswahrnehmungen fällt die Trennung der beiden Perspektiven nur deshalb nicht ins Gewicht, weil sowohl der Beobachter wie auch das epistemische Subjekt ähnliche Kenntnisse der Genese ihrer Meinungen aufweisen. Diese Fälle verleiten wieder dazu, die Trennung nicht zu berücksichtigen, was dem Externalisten sein Spiel erleichtert. Das Fazit derartiger Überlegungen drückt Nagel (1992, 122) so aus: Obgleich neuerdings viel Mühe auf sie verwandt wurde, können uns Definitionen des Wissens hier nicht weiterhelfen. Das Grundproblem der Erkenntnistheorie stellt sich als ein Problem der ersten Person: „Was soll ich glauben, und wie soll ich meine Überzeugungen rechtfertigen?" Hierbei handelt es sich nicht um ein impersonales Problem wie bei der Frage, ob man, wenn man meine Meinungen und einige Voraussetzungen hinsichtlich ihrer Beziehung zu etwas betrachtet, das faktisch der Fall ist, von mir sagen kann, ich 'wisse'. Die Beantwortung der Frage was Wissen sei, verhilft mir nicht zu einer Entscheidung darüber, was ich glauben soll.

Der Externalist entfernt sich mit seiner Strategie von diesem Grundproblem der Erkenntnistheorie in einer Weise, die zumindest für eine Rechtfertigungstheorie inakzeptabel ist. Allerdings ist auch unsere Neigung, diesen Übergang von unserer dritten Person Kenntnis der Dinge zu einer ersten Person Rechtfertigung von S mitzumachen, nur zu verständlich, entkommen wir damit doch scheinbar einem ganzen Bündel von schier unlösbaren erkenntnistheoretischen Problemen. Außerdem entspricht es unserer Naturalisierungstendenz, metaphysische Probleme und Fragestellungen normativer Art zugunsten naturwissenschaftlicher Fragestellungen aufzulösen. Mit diesem Programm sollen Fragen über Intentionalität oder andere geistige Phänomene, Fragen der Erkenntnistheorie oder auch der Ethik in „einfache" empirische Fragestellungen übersetzt und so einer „wissenschaftlichen" Behandlung zugänglich gemacht werden. Ob und inwieweit ein solches Programm - das oftmals noch mit Ansprüchen nach einer definitorischen Reduktion der Prädikate dieser Gebiete einhergeht - erfolgversprechend oder überhaupt nur sinnvoll ist, läßt sich natürlich nicht in einem Rundumschlag beantworten. Allerdings scheint mir die Bedeutung eines solchen Übersetzungsprogramms überschätzt zu werden. Es werden aus dem an sich ehrenwerten Motiv, sich nicht in unklaren Fragestellungen zu verlieren, zu weitgehende Konsequenzen gezogen, die zur Aufgabe sinnvoller philosophischer Probleme führen. In der Erkenntnistheorie ist für die Neigung zu naturalistischen Lösungen sicher die Erfolglosigkeit bei der Bekämpfung des Skeptikers ein erkennbares Motiv. Es ist trotz zahlreicher Anstrengungen nicht wirklich gelungen, dem radikalen Erkenntnisskeptiker zu antworten. Die Fixierung auf die andauernde Bedrohung jeder Erkenntnistheorie

106

III

Begründungsstrategien

durch die Fragen des Skeptikers hat wesentlich dazu beigetragen, daß Teile der Erkenntnistheorie praktisch ohne vorzeigbare Resultate geblieben sind. Daß die Erkenntnistheorie von der Debatte mit dem Skeptiker nicht nur profitiert, sondern auch darunter gelitten hat, zeigt sich darin, daß die meisten Erkenntnistheorien nicht zu subtileren Ausgestaltungen ihrer Grundposition gereift sind. So haben sich zwar schon einige Autoren als Kohärenztheoretiker verstanden, aber die meisten hatten nur wenig darüber zu sagen, worin denn die Kohärenz eines Meinungssystems besteht. Man weiß in der Regel noch Konsistenz zu nennen und daß Konsistenz nicht alles sein kann, was Kohärenz ausmacht, aber wo dieses Mehr zu suchen ist, bleibt ungeklärt, weil der Kampf gegen die skeptischen Einwände alle Kräfte beansprucht. Für andere Ansätze in der Erkenntnistheorie sieht es da nicht viel besser aus. Nach einer langen Geschichte ist dieses Ergebnis dürftig und scheint mir wenigstens zum Teil dadurch erklärbar zu sein, daß man die Beantwortung der skeptischen Einwendungen als eine Art von Voraussetzung dafür ansah, eine erkenntnistheoretische Konzeption weiter zu verfolgen. 12 Um so verlockender muß es da sein, sich auf naturalistische Weise der Fragen des Erkenntnisskeptikers zu entledigen. Das ist nur leider nicht ehrlich, weil man nicht auf die klassischen Fragen antwortet, sondern schlicht das Thema wechselt. Hier offener aufzudekken, was man zu den klassischen Fragen sagen kann und was nicht, ist redlicher und läßt gleichermaßen Spielraum dafür, für eine Änderung der Aufgabenstellung oder zumindest der Schwerpunkte epistemischer Forschung zu plädieren. Die Überlegungen zu externalistischen Ansätzen in der Erkenntnistheorie können natürlich keine Vollständigkeit beanspruchen, und es war auch nicht meine Absicht, einen Überblick über ihre zahlreichen Spielarten zu geben. Es sollte aber deutlich geworden sein, daß in der Debatte zwischen Externalisten und Internalisten eigentlich zwei verschiedene Fragestellungen im Spiel sind: eine subjektive und eine objektive. Erstere fragt, über welche Gründe ein Erkenntnissubjekt S verfugt, an p zu glauben, letzere, welche Gründe es geben kann, die Meinung p des S für zuverlässig zu halten. Beide sind natürlich eng miteinander verknüpft. Jeder der objektiven Gründe für p wird zu einem subjektiven, wenn S ihn mit guten Gründen zur Kenntnis nimmt. Das klassische erkenntnistheoretische Problem, woran wir denn glauben sollten, entspricht aber eindeutig der subjektiven Fragestellung. Für mein Projekt soll daher die internalistische Rechtfertigung ganz im Vordergrund stehen. Für sie muß man sich allerdings weiterhin mit dem klassischen Cartesischen Problem auseinandersetzen: Wieso können wir von den uns zugänglichen Indikatoren auf die Wahrheit bestimmter Aussagen schließen, wenn wir doch zur Begründung dieses Schlusses die Innenperspektive nicht verlassen können? Auf diesen Punkt komme ich in Kapitel (VI) zurück.

4. Resümee Im Rahmen naturalistischer Tendenzen in der Philosophie verfolgen einige Erkenntnistheoretiker eine externalistische Strategie bei der Lösung epistemologischer Probleme.

B. Fundamentalistische

Erkenntnistheorien

107

Sie setzen für Wissen und Rechtfertigungen auf externe Zusammenhänge zwischen Meinungen und Tatsachen, die dem epistemischen Subjekt aus seiner Innenperspektive nicht zugänglich sein müssen. Für das Vorhaben der Wissensexplikation erhoffen sie sich davon eine Antwort auf das Gettier-Problem und auf den Skeptiker, für eine Rechtfertigungstheorie versprechen sie sich darüber hinaus eine Lösung des Regreßproblems. Die größte Gruppe unter den Externalisten bilden die Reliabilisten, für die der gesuchte externe Zusammenhang in der Zuverlässigkeit der Überzeugungsbildung zu suchen ist. Neben dem Problem, „Zuverlässigkeit" in nichttrivialer Weise zu explizieren, führt der Reliabilismus zu Wissenskonzeptionen, die von unserem gewöhnlichen Wissensbegriff deutlich abweichen. Sie sind nicht so sehr an einer bewußten Verarbeitung semantischer Informationen orientiert, sondern vielmehr an den „blinden" kausalen Zusammenhängen, die die syntaktischen Informationen betreffen. Sie können den Einfluß unseres Hintergrundwissens auf die Frage, ob bestimmte Überzeugungen begründet oder sogar Wissen sind, nicht angemessen berücksichtigen. Wenn auch für „Wissen" externe Bedingungen sicher wesentlich sind, so ist das für allgemeine Rechtfertigungen keineswegs so plausibel. Sie sollen im Rahmen klassischer Fragestellungen der Erkenntnistheorie Auskunft auf die Frage geben, was wir glauben sollen. Dabei können aber nur die dem epistemischen Subjekt zugänglichen Aspekte der Situation hilfreich sein. Der Externalist wendet sich mit seinem Lösungsvorschlag von der klassischen Frage zu einer objektiven Beschreibung aus einer dritte Person Sicht und begeht damit eine Themaverfehlung, wenn er weiterhin behauptet, die klassische Frage zu beantworten. Im Hintergrund seines Vorgehens lauert dabei immer wieder der Genese-Rechtfertigungsfehlschluß, der die Verursachung einer Meinung über ihre Rechtfertigung entscheiden läßt.

B. Fundamentalistische Erkenntnistheorien Eine andere Unterscheidung, die gleichermaßen grundlegende Bedeutung für die Erkenntnistheorie besitzt, ist die zwischen fundamentalistischen und kohärentistischen Begründungsstrukturen. Unabhängig von der Unterscheidung zwischen internen und externen epistemischen Rechtfertigungen gibt es zwei konträre Ansichten über die richtige Struktur von Rechtfertigungszusammenhängen für unsere Überzeugungssysteme. Die in der Philosophiegeschichte in der einen oder anderen Version dominierende Vorstellung ist die des Fundamentalismus. Danach gibt es eine epistemisch ausgezeichnete Klasse von Überzeugungen, die selbst keiner Rechtfertigung durch andere Überzeugungen bedürfen. Von diesen basalen Überzeugungen nimmt der Fundamentalist im allgemeinen an, daß sie auf eine andere Weise als inferentiell gerechtfertigt sind, und sie deshalb in der Lage sind, als Basis zur Rechtfertigung anderer Überzeugungen zu dienen. Die wichtigsten Spielarten des Fundamentalismus finden sich in rationalistischen und empiristischen Erkenntnistheorien. Für erstere bedürfen gewisse notwendige erste Prinzipien, die unser Verstand als evident einsehen kann, keiner weiteren Begrün-

108

III

Begründungsstrategien

dung und für letzere sind Beobachtungsüberzeugungen, die unsere Wahrnehmungen als wahr erweisen, keiner Rechtfertigung fähig. Gegen den Fundamentalismus sollen in diesem Kapitel einige allgemeine Einwände erhoben werden, mit denen all seine Varianten zu kämpfen haben. Seine Diskussion und Zurückweisung wird einen weiteren Schritt hin zu einer kohärentistischen Erkenntnistheorie ausmachen, denn der Fundamentalismus ist der große Konkurrent einer Kohärenzauffassung von Begründung.

1. Fundamentalistische versus kohärentistische Rechtfertigungsstrukturen In einem ersten Schritt sollen die beiden gegensätzlichen Ansichten über Rechtfertigungsstrukturen expliziert werden, wobei ihre Unterschiede deutlicher zu Tage treten. So konträr die beiden Rechtfertigungsstrategien in bestimmten Aspekten aber auch wirken, so hat doch Susan Haack (1982/3) Recht mit ihrer Behauptung, daß sie nur die beiden Endpunkte eines Kontinuums von Rechtfertigungskonzeptionen sind und viele Positionen eher dazwischen angesiedelt sind. Haack nennt daher ihre eigenen Theorie aus diesem Bereich „foundherentism". Doch betrachten wir zunächst die „reinen" Formen. a) Formaler Fundamentalismus Mit einer Unterscheidung in formalen und substantiellen Fundamentalismus schließe ich mich Williams (1991, 114ff) an. Der formale Fundamentalismus macht zunächst nur Aussagen über die allgemeine Rechtfertigungsstruktur unserer Meinungen und behauptet die Existenz von basalen Meinungen, während der substantielle Fundamentalismus außerdem hinzufügt, welche Meinungen als basal auszuzeichnen sind. Einige Probleme fundamentalistischer Erkenntnistheorien werden schon in der strukturellen Beschreibung unserer Rechtfertigungen erkennbar, also auf der Ebene eines bloß formalen Fundamentalismus, andere hingegen erst beim Übergang zu einer substantiellen Ausgestaltung. Der Kern des formalen Fundamentalismus läßt sich in den folgenden zwei Thesen zusammenfassen: Formaler Fundamentalismus FU1 Es gibt basale Überzeugungen, die nicht inferentiell durch andere Überzeugungen gerechtfertigt werden müssen, sondern anderweitig gerechtfertigt sind. FU 2 Alle nicht-basalen Überzeugungen werden inferentiell gerechtfertigt unter direkter oder indirekter Bezugnahme auf basale Überzeugungen. Unter FU 2 ist meist mitgemeint, daß Rechtfertigungen gerichtet sind, d.h., daß die inferentiellen Zusammenhänge zwischen Aussagen nur in eine Richtung rechtfertigend wirken.13 Typisch dafür ist die Auffassung der Empiristen, nach der Rechtfertigungen

B. Fundamentalistische

Erkenntnistheorien

109

angefangen von Beobachtungsüberzeugungen zu allgemeineren Überzeugungen und Theorien übergehen. Epistemische Kraft besitzen in diesem Bild ursprünglich nur Beobachtungsüberzeugungen, die direkt durch Wahrnehmungen zu rechtfertigen sind. Alle anderen Überzeugungen beziehen ihre epistemische Stärke nur indirekt durch ihre Beziehungen zur Basis. Zum besseren Verständnis, was das spezielle an fundamentalistischen Rechtfertigungshierarchien ist, seien in Abgrenzung dazu zwei allgemeine Bestimmungsstücke für die formale Charakterisierung einer Kohärenztheorie angegeben: Formale Kohärenztheorie KO 1 Alle Überzeugungen sind inferentiell zu rechtfertigen. Es gibt keine selbstrechtfertigenden oder anderweitig gerechtfertigten Überzeugungen. KO 2 Inferentielle Beziehungen zwischen zwei Überzeugungen wirken immer in beide Richtungen rechtfertigend. Auch KOI und K02 können natürlich keine substantielle Kohärenztheorie vermitteln, weil sie z. B. offenlassen, wie die inferentiellen Rechtfertigungen, von denen in ihnen die Rede ist, auszusehen haben, worin also Kohärenz besteht. Sie geben nur allgemeine Merkmale der Struktur von Rechtfertigungszusammenhängen an.14 Die in FU 1 und FU 2 vorgeschlagene Charakterisierung des Fundamentalismus dürfte auf alle gewöhnlichen Formen fundamentalistischer Erkenntnistheorien zutreffen, da es sich um zwei minimale Forderungen handelt, die z. B. noch offenlassen, ob die basalen Meinungen irrtumssicher sind oder nicht. Außerdem beantworten die Formulierungen zumindest noch nicht explizit die Frage, ob der Typ von Überzeugungen, der als basale Überzeugungen in Frage kommt, für alle Rechtfertigungen immer derselbe sein muß. Diese Annahme sollte ein Fundamentalist allerdings unterschreiben. Erst sie trennt ihn von Kontextualisten vom Schlage eines Michael Williams, für den zwar auch jede Rechtfertigung auf bestimmte basale Überzeugungen angewiesen ist, aber welche das sind, kann für Williams mit dem Kontext der Rechtfertigung variieren. Fügen wir also diesen Punkt der festgelegten Basistypen noch explizit zur Definition des Fundamentalismus hinzu, denn gerade gegen ihn möchte ich die ersten direkten Kritiken am Fundamentalismus richten. Hinzu kommt noch, daß die Basistypen von Aussagen inhaltlich ausgezeichnet werden; die Inhalte der Überzeugungen legen fest, ob es sich um basale oder nicht-basale Überzeugungen handelt. Die basalen Meinungen sind durch intrinsische Merkmale als solche für das epistemische Subjekt erkennbar. Der Empirist wird Überzeugungen, die Beobachtungen ausdrücken, als basal einstufen, der Phänomenalist dagegen nur Überzeugungen, die ausschließlich die Qualitäten seiner Sinneswahrnehmungen wiedergeben.

110

III

Begründungsstrategien

FU 3 Die inhaltlich ausgezeichneten Typen von basalen Überzeugungen sind für alle Rechtfertigungskontexte (für alle Personen) dieselben. Erst mit FU 3 erhalten wir ein klares Bild der Rechtfertigungsstruktur im Fundamentalismus: Idealerweise handelt es sich um eine relativ starre Schichtenstruktur mit einer Basismenge von Aussagen, aus der jedes epistemische Subjekt eine Teilmenge als seine basalen Überzeugungen besitzt. Die Grundmenge ist zumindest dann ein für allemal festgelegt, wenn wir uns nur auf wahre Aussagen als basale Aussagen beziehen, was oft intendiert zu sein scheint, zumal viele historische Positionen des Fundamentalismus noch nicht einmal Irrtumsmöglichkeiten für ihre epistemische Basis zugestanden haben. Das ist ein geschickter Schachzug, denn räumt man Irrtumsmöglichkeiten für basale Überzeugungen ein, wird für jede konkrete basale Aussage p sofort die Frage nach einer Begründung laut: Warum sollte gerade p zu der Teilklasse der wahren basalen Überzeugungen gehören? Auch Popper, der Kritiker der logischen Empiristen, hat in der Logik der Forschung an der fundamentalistischen Rechtfertigungsstruktur festgehalten. Die Basis wird zwar per Entscheidung bestimmt und kann damit zu verschiedenen Zeiten eine andere sein, aber sie ist nicht selbst Gegenstand epistemischer Rechtfertigungen. Es sind nicht die inferentiellen Beziehungen zu anderen Meinungen, die sie begründen, sondern nur der Entschluß der Wissenschaftlergemeinschaft. Ein ideales Bild der Rechtfertigungsstruktur eines Überzeugungssystems X stellt sich für einen Fundamentalisten dann ungefähr so dar: In X gibt es eine Teilmenge B von basalen Aussagen, die selbst kein Ziel für inferentielle Rechtfertigungen innerhalb von X sind, und über B gibt es eine Pyramide von Überzeugungen, deren Rechtfertigungen zumindest indirekt alle auf B zurückzuführen sind. Die Teilmengen B gehören dabei für alle epistemischen Subjekte zu demselben Typ von Aussagen. Das Verfahren für den Erkenntnisgewinn, das der empiristische Fundamentalist empfehlen wird, ist dementsprechend einfach zu beschreiben: Sammle zunächst so viele basale Meinungen wie möglich und ziehe in einem zweiten Schritt daraus so viele Schlußfolgerungen auf Theorien wie möglich. Es zeigt sich jedoch schon bald, daß dieses Bild unserer Erkenntnis einige nicht unproblematische Konsequenzen besitzt. So unterstützt es z. B. eine instrumentalistische Auffassung der Wissenschaften. Sind wir von einer weitgehenden Unterbestimmtheit der Theorien durch die Basis überzeugt, so daß durch die tatsächlich ermittelten Basisaussagen immer verschiedene Theorien in gleich guter Weise begründbar sind, haben wir auch keine Gründe mehr, an die Wahrheit unserer speziellen wissenschaftlichen Theorien zu glauben, denn ihre Konkurrenten stehen erkenntnistheoretisch um keinen Deut schlechter dar. Das Argument der Unterbestimmtheit durch die Basis kennzeichnet ein sehr populäres Vorgehen von Skeptikern unterschiedlichster Herkunft; das spezielle Argument für eine antirealistische Haltung gegenüber wissenschaftlichen Theorien zieht sich z. B. durch das ganze Werk von van Fraassen (1980). Es kommt aber noch schlimmer. Akzeptieren wir das Argument einmal für unsere Theorien, so sind wir ihm auch in

B. Fundamentalistische

Erkenntnistheorien

111

bezug auf alle anderen nicht-basalen Meinungen ausgeliefert. Eine entsprechende Unterbestimmtheit läßt sich immer aufzeigen und fuhrt somit direkt zu skeptischen Positionen. Für den Kohärenztheoretiker gibt es diesen fundamentalen epistemischen Unterschied zwischen Theorien und Daten dagegen nicht. Theorien haben genauso eine wesentlich rechtfertigende Wirkung wie Beobachtungsüberzeugungen; man kann in der Erkenntnistheorie keine bedeutungsvolle Aufteilung in zwei derartige Mengen mehr vornehmen, womit jeder Argumentation in der oben genannten Weise von vornherein ein Riegel vorgeschoben wird. Neben dem idealen Bild des Fundamentalismus gibt es die tatsächlichen Ausgestaltungen zu substantiellen fundamentalistischen Positionen, die nun immerhin kurz zu Wort kommen sollen. b) Spielarten des Fundamentalismus Die inhaltliche Ausgestaltung des Fundamentalismus erlaubt vielfaltige Varianten, auf die im einzelnen ausführlicher einzugehen nicht Ziel dieser Arbeit sein kann. Aber ein kurzer Überblick über einige Spielarten, und welche Autoren dort anzusiedeln sind, soll die Diskussion um den Fundamentalismus anschaulicher gestalten. Zudem gibt er zu erkennen, wie zahlreich die Fundamentalisten in der Erkenntnistheorie vertreten sind. Daneben dokumentiert die Aufstellung, daß der substantielle Fundamentalismus keine einheitliche Position darstellt. D.h. jede Spielart des Fundamentalismus bedarf ihrerseits spezieller Begründungen über die der hierarchischen Rechtfertigungsstruktur hinaus, in denen andere Spielarten zurückgewiesen werden müssen. Der Überblick wird die Form von zwei Tabellen annehmen, die sich auf den Artikel von Triplett (1990) stützen und gerade auch neuere Arbeiten zu diesem Gebiet nennen, deren Autoren vielleicht nicht so allgemein bekannt sind wie die der klassischen Texte.15 In der ersten Tabelle wird eine Aufteilung danach vorgenommen, welche Eigenschaften jeweils für die basalen Meinungen in Anspruch genommen werden. In der zweiten Tabelle geht es dagegen um die Frage - über die sich schon deutlich weniger Erkenntnistheoretiker ausgelassen haben - , wie die basalen Meinungen denn die nicht-basalen begründen können. Die jeweiligen Einordnungen der Autoren in die Tabelle und ihre Zuordnungen zu verschiedenen Formen des Fundamentalismus sind natürlich nicht immer unkontrovers und manchmal auch durch die Werke der Autoren tatsächlich unterbestimmt. Für den Fortgang der Argumentationen zum Fundamentalismus sind die Details der Einordnung allerdings nicht entscheidend. Fragen alternativer Interpretationen einzelner Philosophen und ihre Klassifizierung stehen natürlich für die allgemeine Beurteilung des Fundamentalismus nicht im Vordergrund. Bei Triplett (1990) finden sich einige Hinweise auf solche Alternativen.

112

Merkmale der Basis Basale Uberzeugungen geben mentalen Zustand wieder (statt Zustand der Außenwelt). Basale Uberzeugungen sind unfehlbar.

III Variationen der Basis Typische Vertreter Descartes, früher Carnap, Ayer, Chisholm, Lewis, Mach, Moser, Russell, Schlick. Descartes, Lewis, Schlick, Chisholm.

Die Basis muß aus Uberzeugungen und nicht etwa aus Wahrnehmungszuständen bestehen. Basale Überzeugungen sind relativ auf einen Begründungskontext (Ablehnung von FU 3).

Lehrer, Pollock, Williams.

Begründungsstrategien

Anderer Ansicht Foley, Kekes, Quinton, späterer Carnap, Popper. Popper, Almeder, 1 Audi, Cornman, Goldman. | Cornman, Moser. 1

Wittgenstein, Sellars, Hanson, die meisten Feyerabend, Kuhn. Fundamentalisten, auch wenn sie es nicht explizit erwähnen.

Variationen des inferentiellen Zusammenhangs Typische Vertreter Art der inferentiellen Beziehungen Beziehungen deduktiv Descartes späterer Carnap Induktive Zusammenhänge Vermittlung durch epistemische Prinzipien Chisholm Cornman, Moser, Goldman Schluß auf die beste Erklärung Mach, Russell, früher Definitorische Reduktion auf Sinnesdaten Carnap, Ayer, Lewis, Dicker. In die erste Tabelle habe ich auch noch kontextualistische Varianten des Fundamentalismus aufgenommen, die FU 3 nicht erfüllen, da sie heute relativ viele Anhänger finden und zumindest einige wesentliche Bestimmungsstücke des Fundamentalismus teilen. Trotzdem gehört FU 3 sicherlich zu der herkömmlichen Auffassung der fundamentalistischen Erkenntnistheorie. Die beiden Tabellen können natürlich nur eine kleine und subjektiv gefärbte Auswahl der zahlreichen fundamentalistischen Variationen wiedergeben, die sich in verschiedene Richtungen ergänzen ließe. Sie vervollständigt unser Bild des Fundamentalismus über die im ersten Abschnitt genannten allgemeinen Annahmen hinaus. Das wohl wichtigste Argument, das Fundamentalisten für ihre Position beibringen können, bezieht sich nur auf die formale Struktur des Fundamentalismus, wird aber

B. Fundamentalistische

Erkenntnistheorien

113

immer durch Intuitionen unterstützt, die sich eher an bestimmten substantiellen Positionen orientieren. Diesem Argument ist der nächste Abschnitt gewidmet.

2. Das Regreßargument für den Fundamentalismus Natürliche Kandidaten für basale Meinungen sind Meinungen über unsere Sinneswahrnehmungen oder Wahrnehmungen innerer Zustände, denn die halten wir für relativ irrtumssicher. Außerdem können Empiristen an unsere Intuition appellieren, daß wir alle Informationen über die Welt durch unsere Sinne gewinnen, diese also als der natürliche Ausgangspunkt unserer Erkenntnis zu identifizieren sind. Ähnlich sieht es für unsere allgemeineren Annahmen oder Theorien über unsere Umwelt aus. Um sie zu entwickeln, sind wir auf Beobachtungen angewiesen. Man mag dabei an eine induktive Bestätigung von Theorien anhand experimenteller Daten oder, wie Popper, an eine Bewährung von Theorien in ernstzunehmenden Falsifikationsversuchen denken. Startpunkt aller weiteren Überlegungen sind im empiristischen Bild von Erkenntnis jedenfalls immer Beobachtungen. Doch so sehr sich dieses Bild uns auch aufdrängt, es spricht in erster Linie über die Genese unserer Meinungen, und die gibt noch nicht vor, in welchen Rechtfertigungszusammenhängen unsere Meinungen stehen. Diesen Schwachpunkt ihrer Konzeption erkennen natürlich auch einige Fundamentalisten und versuchen daher den eben geschilderten intuitiven Gedanken zu einem echten Argument für einen formalen Fundamentalismus auszubauen. Dieses Argument, das oft als erkenntnistheoretisches Regreßargument oder auch Agrippas Trilemma bezeichnet wird, bezieht sich nun nicht mehr auf die Genese von Meinungen, sondern ihre Rechtfertigungsstruktur. Wenn ich um eine Rechtfertigung meiner Behauptung, daß p, gebeten werde, kann ich auf zwei verschiedene Weisen reagieren: 1. Ich kann andere Behauptungen q äußern, die p inferentiell stützen sollen. 2. Ich kann mich weigern, eine Rechtfertigung in Form anderer Meinungen anzugeben. Der Fundamentalist behauptet nun, daß die erste Reaktion bestenfalls eine Verschiebung des Rechtfertigungsproblems darstellt, wir aber letztlich immer auf eine Reaktion des zweiten Typs zurückgreifen müssen. Und das begründet er so: Eine x-beliebige Behauptung q zu Rechtfertigungszwecken ins Spiel zu bringen, hilft uns erkenntnistheoretisch nicht weiter. Damit q tatsächlich eine Rechtfertigung darstellt, muß q selbst wieder gerechtfertigt sein, sonst könnten wir immer auf triviale Weise eine Rechtfertigimg für p finden, nämlich z. B. p&r mit beliebigem r, aus der p sogar deduktiv folgt. Also verlangt q nach weiteren begründenden Aussagen ri5 diese wiederum nach anderen Sj usf. Wir geraten, wenn wir bei Antworten des 1. Typs bleiben, entweder in einen unendlichen Regreß von immer neuen Aussagen in einer unendlichen Kette oder einen Zirkel, wo in der Begründungskette irgendwann eine Aussage auftritt, die schon vorher in der Kette vorkommt. Beide Ketten, die ins Unendliche führende und der Zirkel, so argumentiert der Fundamentalist, bringen uns keinen Fortschritt für das Rechtfertigungsproblem.

114

III

Begründungsstrategien

Im Falle des Zirkels sind eigentlich alle Aussagen nicht gerechtfertigt worden, weil keine durch eine bereits unabhängig begründete Aussage gestützt wird. Eine Metapher kann diesen Punkt illustrieren. So wenig sich jemand selbst an den Haaren aus dem Sumpf ziehen kann, so wenig können sich zehn Männer gegenseitig aus dem Sumpf ziehen, wenn keiner von ihnen festen Boden unter den Füßen hat. Metaphern dieser Art scheinen uns angemessen, um unser Unbehagen mit der zirkulären Rechtfertigung auszudrücken und die Vorstellung eines Rechtfertigungszirkels zurückzuweisen, aber es bleiben eben doch Metaphern. Außerdem haben sie bereits einen deutlich fundamentalistischen Beigeschmack. Im Falle des unendlichen Regresses, sind ebenfalls alle Aussagen unbegründet - so der Fundamentalist - weil wir nie wirklich zu einer bereits gerechtfertigten Überzeugung gelangen können, die ihre Rechtfertigung an andere Aussagen weitergeben könnte. Beide Konzeptionen, die der unendlichen Kette wie die des Zirkels, sind daher eindeutig intuitiv unbefriedigend. Ich möchte dem Fundamentalisten in diesem Punkt zunächst Recht geben, ohne allzu lange mit ihm über das Regreßarguments zu streiten. Im Vordergrund soll statt dessen in den nächsten Abschnitten eine Bestandsaufnahme stehen, was der Fundamentalist uns seinerseits auf das Regreßproblem anzubieten weiß. Auf den ersten Blick ist nämlich die Antwort, eine Rechtfertigung für bestimmte Meinungen durch Berufung auf andere Meinungen schlicht zu verweigern, auch nicht besonders überzeugend. Man könnte dem Fundamentalisten vorwerfen, das sei wohl der kürzest mögliche Zirkel, den er damit wählt. Der Fundamentalist verbindet im allgemeinen aber eine andere Idee mit seinen basalen Meinungen. Für ihn sind sie in irgendeiner Weise selbstrechtfertigend oder evident.16 Jedoch auch dieser Gedanke ist nicht leicht verständlich, wenn man bedenkt, daß die basalen Meinungen der Fundamentalisten üblicherweise nicht selbstreferentiell sind, also keine Aussagen über sich selbst machen. Trotzdem sollen diese Startschwierigkeiten des Fundamentalismus noch nicht zu seiner Ablehnung fuhren. Doch die Idee der Selbstrechtfertigung von Aussagen wird weiterhin als möglicherweise kritischer Aspekt des Fundamentalismus im Hintergrund bleiben. Nur zwei Bedenken gegen das Regreßargument sollen noch Erwähnung finden, bevor ich den Lösungsvorschlag der Fundamentalisten eingehender untersuche. Erstens wird von begründeten Meinungen nicht verlangt, daß man eine bestimmte Rechtfertigung explizit und tatsächlich vollständig durchlaufen hat oder tatsächlich durchlaufen kann. Wenn diese Rechtfertigungen implizit vorhanden sind, also im Prinzip verfugbar sind, genügt das bereits, um von jemandem zu sagen, er sei in seiner Meinung gerechtfertigt. So jedenfalls wollte ich begründete Meinungen hier verstanden wissen (s. dazu II.C.3). Für implizite Begründungen könnte also die Existenz einer potentiell unendlichen Kette als Rechtfertigung durchaus ausreichen, schließlich geht es bei Rechtfertigungsbeziehungen nicht um einen kausalen Vorgang der Rechtfertigung, der für unendliche Ketten natürlich nicht durchlaufen werden kann, sondern um eine inferentielle Beziehung zwischen Aussagen.17 Wenn es gelingt, die Kette anschaulich zu beschreiben, könnte das bereits als schwache Begründung für eine Aussage akzeptiert werden. Ein Beispiel

B. Fundamentalistische

Erkenntnistheorien

115

mag belegen, daß dieser Gedanke nicht so abwegig ist, wie er dem Fundamentalisten zunächst erscheint. Auf einer intuitiven Ebene, die natürlich nicht den strengen Anforderungen an mathematische Beweise entspricht, können wir dafür argumentieren, daß es zu jeder geraden Zahl eine größere gerade Zahl gibt: „Zu 2 gibt es 4, zu 4 gibt es 6, zu 6 gibt es 8 usw. und ich sehe nicht, warum das irgendwo aufhören sollte." Eine Überlegung dieser Art ist durchaus verständlich und wirkt überdies manchmal überzeugender als ein abstrakter mathematischer Beweis, obwohl sie natürlich nicht dessen Sicherheit bieten kann. Sie kann durchaus als ein Grund für die aufgestellte Behauptung dienen. In jedem Fall scheint mir der bloße Hinweis, daß man schließlich nicht alle Zahlen tatsächlich durchlaufen kann, nicht auszureichen, um damit zu demonstrieren, daß man die Behauptung über gerade Zahlen nicht im mindesten auf diese Weise unterstützen könne. Das Beispiel soll bekunden, daß unendliche Rechtfertigungsketten keineswegs immer völlig nutzlos sein müssen. Regreßargumenten gegenüber sollten wir daher mißtrauisch bleiben. Sie sind darüber hinaus - wie wir in (V.A.2) noch sehen werden - nicht völlig voraussetzungslos und legen vielleicht sogar falsche Maßstäbe an. Diese Skepsis gegenüber Regreßvorwürfen wird zum zweiten dadurch unterstützt, daß wir ähnliche Regreßargumente an vielen Stellen vortragen können. Auch dort, wo sie dem Fundamentalisten ebensowenig lieb sind wie dem Kohärenztheoretiker. Der Fundamentalist ist wie Erkenntnistheoretiker anderer Provenienz auf die Konstatierung bestimmter inferentieller Zusammenhänge angewiesen, um nicht-basale Meinungen anhand basaler zu rechtfertigen. Wenn ich q als Rechtfertigung für p angebe, stelle ich damit die Behauptung auf, daß hier eine epistemisch relevante Beziehung vorliegt, also q die Wahrscheinlichkeit für p erhöht. Das kann man so zusammenfassen: (*)

q rechtfertigt p.

Auch für diese Behauptung kann man nach einer Begründung verlangen. (Das gilt sogar im Falle, daß p aus q logisch folgt, was aber nicht der Regelfall und nicht der interessanteste Fall sein dürfte, sondern man denke z. B. an p als Theorie und q sie stützendes Datum.) Eine Begründung der Behauptung (*) ist, wenn man nicht derartige Begründungen selbst als basal betrachten möchte, wiederum auf inferentielle Rechtfertigungen angewiesen, für die man erneut fragen kann, ob sie wirklich rechtfertigend sind usf. Denn da jede dieser Rechtfertigungen eine Irrtumsmöglichkeit aufweist - und das gilt bekanntlich sogar für logische Ableitungen können wir jedesmal zu Recht nach einer Begründung dafür verlangen, daß sie tatsächlich zuverlässige Wahrheitsindikatoren darstellen. Außerdem lassen sich neben solchen Regreßbeispielen, mit denen wohl alle realistischen Rechtfertigungstheorien zu kämpfen haben, auch speziell auf den Fundamentalisten zugeschnittene Regreßargumente entwickeln. So hält er bestimmte Aussagen für basal und stützt sich in Rechtfertigungen auf sie. Dazu muß er sich für bestimmte Aussagen darauf berufen, daß gerade sie basal sind. Er hat also etwa die Behauptung zu vertreten:

116

III

Begründungsstrategien

(**) p ist basal. Nun können wir ihn danach fragen, wie er die Behauptung (**) zu begründen gedenkt. Im Falle von (*) hatte er zumindest noch die theoretische Möglichkeit, einfach (*) selbst wieder für basal zu erklären, wenn das auch nicht unbedingt eine realistische und plausible Erkenntnistheorie ergeben wird. Denn während wir vielleicht bei einfachen Beobachtungsaussagen eine gewisse Bereitschaft verspüren zu akzeptieren, daß man sie nicht unter Berufungen auf andere Meinungen weiter rechtfertigen muß, wird das für höherstufige Fragen danach, wie er sich der rechtfertigenden Wirkung bestimmter Argumente versichern kann, nicht mehr so natürlich erscheinen. Im Falle von (**) scheint dieses Vorgehen dagegen kaum weiter zu helfen, gerät man doch auch auf diesem Weg direkt in einen neuen Regreß, da es nun darum geht: (***) „p ist basal" ist basal. zu rechtfertigen usw. Diesem Regreß oder Zirkel kann er aber auch auf andere Weise nicht ausweichen, denn als überzeugter Fundamentalist muß er sich in der Begründung für (**) letztlich auf basale Meinungen beziehen, für die wir wieder fragen können, wie er sicher sein kann, daß es sich dabei um basale Meinungen handelt etc. Eine solche Inflation von Regressen scheint mir die Bedeutung, die wir einzelnen Regressen beilegen sollten, zu mindern. Vielleicht genügt doch die implizit vorhandene Möglichkeit des epistemischen Subjekts, im Prinzip auf jede neue Frage nach einer Begründung eine Antwort geben zu können - auch wenn sich die Kette ins Unendliche erstrecken mag. Jedenfalls könnte ein Anti-Fundamentalist dem Fundamentalisten erwidern, daß er zwar einen bestimmten Regreß aufweist, mit dem der Fundamentalist nicht zu kämpfen hat, daß aber dieser dafür mit anderen zu kämpfen hat, die auch nicht leichter aufzulösen sind. Der Fundamentalist steht in diesem Punkt jedenfalls nicht besser da als sein Gegenspieler. Schauen wir nun noch, ob der Fundamentalist mit seiner Einfuhrung von basalen Meinungen nicht obendrein in neue Schwierigkeiten gerät.

3. Natürliche epistemische Arten und Hintergrundwissen Die Bedingung FU 3 besagte, daß Aussagen allein nach allgemeinen inhaltlichen Merkmalen einen intrinsischen epistemischen Status erlangen; also etwa danach, ob sie von unseren Sinneswahrnehmungen oder äußeren Objekten bestimmter Größe handeln. Wenn ich eine Überzeugung über eine Sinneswahrnehmung habe, so ist sie für einen Empiristen per se vertrauenswürdig. Williams (1991, 116ff) spricht davon, daß die Überzeugungen in natürliche epistemische Arten aufgeteilt werden, die eine Form von epistemischer Hierarchie bilden. Diese Konzeption einer für alle Kontexte festgelegten hierarchischen Schichtung von Rechtfertigungszusammenhängen entspricht jedoch nicht unserem üblichen Vorgehen. Schon Wittgenstein hat in Über Gewißheit18 darauf aufmerksam gemacht, daß die Frage, welche Aussagen wir rechtfertigen und auf welche wir uns dabei stützen, vom jeweiligen Kontext abhängig ist. Der Historiker diskutiert nicht die Frage, ob das Universum älter als 100 Jahre ist, sondern setzt diesen Punkt selbst-

B. Fundamentalistische

Erkenntnistheorien

117

verständlich voraus, und wir würden ihn auch nicht fíir einen besonders gründlichen Historiker halten, wenn er in seinen Werken zu Beginn immer erst dafür plädieren würde. Argumente in dieser Richtung würden wir eher von einem Geologen oder Erkenntnistheoretiker erwarten. Wir legen zwar jeder Rechtfertigung bestimmte Aussagen zugrunde, aber es können Aussagen ganz unterschiedlichen Typs sein. Es muß sich dabei keineswegs um Beobachtungsüberzeugungen handeln. Gibt es denn nicht wenigstens eine Klasse von Aussagen, die man in allen Begründungen guten Gewissens als grundlegend ansehen darf? Der Empirist wird behaupten, das müßten doch die Wahrnehmungsaussagen sein, denn wenn wir an ihnen zweifeln, wie sollen wir dann überhaupt empirisches Wissen erwerben können?19 Tatsächlich haben wir eine Neigung, unseren Beobachtungen zu vertrauen und ziehen sie gerne zu Rechtfertigungen heran, aber es gibt genauso Kontexte, in denen sie selbst begründungspflichtig werden. Der Staatsanwalt beruft sich etwa auf die Beobachtungen eines Augenzeugen, um den Angeklagten zu überfuhren. Der Verteidiger zieht dagegen die Aussagen in Zweifel und verlangt nach einer Begründung, daß diese Wahrnehmungen keinen Irrtum darstellen.20 Auch wenn wir Beobachtungen nicht generell in Zweifel ziehen - was wohl aus praktischen Gründen nahezu unmöglich erscheint - , tun wir es mit guten Gründen doch in einigen Fällen; vor allem dann, wenn viel von der Wahrheit einer Beobachtungsaussage abhängt. In diesen Fällen bezweifeln wir Beobachtungen z. B. unter Bezugnahme auf Theorien über die Wahrnehmungsfähigkeiten von Menschen. Jedenfalls bekunden diese Beispiele keine festgelegte Hierarchie von Rechtfertigungen, nach der am Anfang einer Rechtfertigungskette immer Beobachtungen stehen müssen, die selbst keiner Rechtfertigung bedürfen. Es gehört vielmehr zu unseren Überzeugungen über Wahrnehmung, daß wir in manchen Fällen relativ zuverlässige Beobachter sind, aber in anderen Fällen unseren Sinnen nicht unbedingt vertrauen können. Für jede Beobachtungsaussage gibt es ein Irrtumsrisiko (s. III.B.5), und wir finden Beobachtungsaussagen auf jeder Ebene von epistemischer Sicherheit bzw. Unsicherheit. Wie für andere Meinungen auch, können wir für jede einzelne Beobachtungsaussage fragen, ob sie wahr und außerdem gut begründet ist oder nicht. Wir haben keinen Grund, Beobachtungsüberzeugungen gesondert zu behandeln und von jeder Begründungsverpflichtung zu befreien. Besonders unplausibel ist die Annahme, es seien intrinsische Merkmale einer derartigen Meinung, die sie als besonders geeignet - also etwa besonders irrtumssicher - ausweisen würden. Eine Überzeugung wie „Vor mir steht mein Bruder" oder „Vor mir steht eine Handtasche" kann in vielen normalen Situationen als ganz sicher und angemessene Grundlage weiterer Schlußfolgerungen dienen, aber sie wird unter anderen Umständen unsicher und begründungsbedürftig. Das hängt vor allem von der Situation und unserem Hintergrundwissen ab. Halluziniere ich des öfteren, oder könnte vielleicht eine lebensgroße Photographie meines Bruders vor mir stehen, von denen es viele gibt, oder werden Androiden nach dem Vorbild meines Bruders gebaut oder fällt mir auch nur ein, daß ich eigentlich keinen Bruder habe, obwohl ich ihn mir immer so gewünscht habe, steht die zunächst unproblematisch erscheinende Überzeugung schon in einem ganz anderen

118

III

Begründungsstrategien

Licht dar. Die zweite Überzeugung wäre zu überdenken, wenn ich mich wieder in der Wohnung der Künstlerin Dorothy Levine aufhielte. Der Externalist könnte an dieser Stelle entgegnen, daß wir um diese Bedingungen nicht Bescheid wissen müssen, um in unseren Wahrnehmungsüberzeugungen gerechtfertigt zu sein, es genügt dafür, daß sie vorliegen. Doch diesen Schachzug hat schon das Kapitel (III.A) widerlegt. Wir sind deshalb gezwungen, unser Hintergrundwissen zur epistemischen Beurteilung von Wahrnehmungsüberzeugungen zu Rate zu ziehen. Die angeblich basalen Meinungen sind nicht wirklich selbstrechtfertigend, sondern in ihrem epistemischen Status von unserem übrigen Wissenshintergrund abhängig. Sie haben keinen intrinsischen epistemischen Status wie FU 3 nahelegt. In bestimmten Fällen sind Beobachtungsaussagen sicherer als andere, aber in anderen Situationen gibt uns unser Hintergrundwissen gute Gründe, allgemeinere Überzeugungen wie, daß die Sonne jeden Tag wieder aufgehen wird, als verläßlicher anzunehmen. In einer ähnlichen Richtung hat BonJour sein allgemeines Argument gegen den Fundamentalismus entwickelt, in dem er danach fragt, wieso wir eigentlich von bestimmten basalen Meinungen annehmen, sie seien gute Wahrheitsindikatoren.

4. Der Einwand des Kriteriums Der letzte Abschnitt erklärte, wieso die üblichen Beispiele für basale Meinungen nicht durch intrinsische Eigenschaften erkenntnistheoretisch ausgezeichnet sind. Wenn wir wissen wollen, ob wir einen unsicheren Kandidaten oder einen nicht irrtumsgefährdeten Fall vor uns haben, sind wir daher auf zusätzliche Informationen aus unserem Hintergrundwissen angewiesen. BonJour (1985, 30ff) stellt ein noch grundsätzlicheres Argument gegen den Fundamentalismus vor, das sogar vor der Frage, welchen Einfluß zusätzliche Informationen auf den Status basaler Überzeugungen haben, ansetzt.21 Sein Ausgangspunkt ist die Überlegung, über welche Informationen ein Fundamentalist denn zumindest verfügen muß, damit er behaupten kann, eine vertretbare Antwort auf das Regreßproblem zu geben. Als Internalisten sind wir als erstes darauf angewiesen, daß wir die basalen Meinungen als solche auch erkennen. Sie müssen sich durch ein uns kognitiv zugängliches Merkmal M von nicht-basalen Meinungen unterscheiden, das sie zu basalen Meinungen macht. Damit der Fundamentalist über eine einsichtige Form von Rechtfertigung verfugt, sollte das kein beliebiges Merkmal sein, wie z. B., daß der erste Buchstabe des zweiten Wortes ein B sei, sondern es muß sich dabei um ein erkenntnistheoretisch bedeutsames Merkmal handeln. D.h. die Eigenschaft M zu haben muß die Wahrscheinlichkeit einer Meinung, wahr zu sein, erhöhen. Weiterhin kann M für einen Internalisten nur dann epistemisch relevant sein, wenn dieser Charakter von M als Wahrheitsindikator dem epistemischen Subjekt auch bekannt ist. M könnte z. B. die Eigenschaft sein, direkt unsere Sinnesdaten wiederzugeben, und als Phänomenalisten könnten wir M als einen Wahrheitsindikator betrachten, weil wir glauben, daß zwar für unsere Überzeugungen über äußere Gegenstände Irrtumsmöglichkeiten bestehen, aber nicht für unsere Ansichten über unsere direkt gegebenen Wahrnehmungsinhalte.

B. Fundamentalistische

Erkenntnistheorien

119

Die dann entstandene Situation läßt sich aber nur noch so beschreiben: Die in Frage stehende Überzeugung ist nicht mehr basal im Sinne von FU 1. Sie ist nicht selbstrechtfertigend, sondern ihre Rechtfertigung als „basale" Meinung hängt von anderen Überzeugungen ab wie der, daß sie die Eigenschaft M aufweist und daß M ein Wahrheitsindikator ist. Wir können die Rechtfertigung für eine derartige Meinung p somit in einem einfachen Schema wiedergeben: (1) Die Meinung p hat die Eigenschaft M. (2) Meinungen, die die Eigenschaft M haben, sind wahrscheinlich wahr. Also: Die Meinung p ist wahrscheinlich wahr. Das ist eine inferentielle Begründung für p, ohne die ein Internalist p als unbegründet ansehen sollte. Für empirische Behauptungen p sind die Behauptungen (1) und (2) außerdem nicht beide von rein apriorischem Charakter, was für die meisten Beispiele klar ersichtlich ist und einem Empiristen allemal begreiflich sein sollte. Für den Common-Sense Empiristen sollten etwa skeptische Hypothesen ausreichen, um ihm zu verdeutlichen, daß das Merkmal Aussage über einen Gegenstand mittlerer Größe zu sein, nur in bestimmten möglichen Welten ein Wahrheitsindikator ist und daher jedenfalls die Behauptung (2) empirischen Gehalt besitzt. Die als Kandidat für eine basale Meinung gestartete Überzeugung p erweist sich somit als nicht-basal. Dieses Argument, das BonJour (1985, 32) noch in einer ausführlicheren semiformalen Gestalt präsentiert, zeigt, daß wir nicht zugleich Fundamentalisten sein und ebenfalls die Gebote des Internalismus für epistemisch relevante und irrelevante Merkmale einhalten können. In dem Moment, in dem wir die internalistischen Forderungen und unsere Explikation von epistemischen Rechtfertigungen als Wahrheitsindikatoren ernst nehmen, sind wir auf inferentielle Begründungen für all unsere Meinungen zwingend angewiesen, wenn wir sie überhaupt als begründet betrachten wollen.

5. Substantieller Fundamentalismus In diesem Abschnitt sollen nun einige substantielle Ausgestaltungen des Fundamentalismus ausfuhrlicher zu Wort kommen, die in der empiristischen Tradition angesiedelt sind und auch mir früher in der einen oder anderen Variante attraktiv erschienen. Es läßt sich in solchen Beispielen konkreter vorführen, an welchen Stellen die Theorien auf unplausible Annahmen angewiesen sind. Als erstes stoßen wir auf die Sinnesdatentheorien, die unter anderem Namen schon von den britischen Empiristen vertreten wurden. Sie nahmen in neuerer Zeit mit dem „linguistic turn" der analytischen Philosophie die Wende zu einer sprachphilosophischen Theorie: dem Phänomenalismus. a) Sinnesdaten und der Phänomenalismus Fundamentalistische Ansätze, die unserer Erkenntnis Beobachtungssätze wie (1)

Vor mir steht eine Handtasche.

120

III Begründungsstrategien

zugrunde legen wollen, haben sofort mit dem Problem zu kämpfen, daß man sich bei solchen Beobachtungen irren kann. Wir können immer sinnvoll fragen: Wieso glaubst Du, daß Du Dich gerade in diesem Fall nicht irrst? Antworten wir darauf in Form einer Rechtfertigung, sind wir auf zusätzliche Informationen angewiesen, ob es sich jeweils um eine irrtumsträchtige Wahrnehmungssituation handelt oder nicht. Vor diesem Hintergrund konnten wir Beobachtungsüberzeugungen vom Typ (1) nicht mehr als „basal" einstufen. Um diesem Problem zu entgehen, versuchen Fundamentalisten Meinungen als basal auszuweisen, die schon eher als selbstrechtfertigend und irrtumssicher gelten können. Dementsprechend wählt Chisholm (1979, 41) seine Formel für das Evidente: „Was mich zu denken berechtigt, daß a F ist, ist einfach die Tatsache, daß a F ist." Dabei hat für Chisholm „unser Mensch seine Rechtfertigung einer Proposition einfach durch die Reiteration der Proposition gegeben". Dieses Verfahren der Rechtfertigung ist natürlich nicht für alle Meinungen sinnvoll, sondern nur für solche, die selbstrepräsentierend sind. Das sind Meinungen, die wenn sie wahr sind, notwendigerweise dem epistemischen Subjekt auch evident sind (Chisholm 1979, 43). Das wohl prominenteste Beispiel einer solchen Meinung ist ,Jch denke", denn wenn ich denke, ist mir das nach Descartes und Chisholm notwendigerweise auch unmittelbar evident. Doch letzteres Beispiel gibt noch keine sehr gehaltvolle Basis für weitere Annahmen ab jedenfalls wenn ich davon ausgehe, daß wir dem Cartesischen Weg, über einen Gottesbeweis weiterzukommen, nicht mehr folgen wollen. Deshalb haben Empiristen versucht, eine gehaltvollere Beobachtungsbasis zu finden. Einen Ausweg aus dem Problem des Satzes (1) scheint der Rückzug auf die subjektiven Elemente der Beobachtung zu bieten. Statt die „riskante" Behauptung (1) zu wagen, zieht sich der Sinnesdatentheoretiker etwa auf eine Behauptung vom Typ: (2)

Ich habe eine handtaschenartige Sinneswahrnehmung.

oder besser: (2') Ich habe eine Wahrnehmung, als ob eine Handtasche vor mir steht. zurück. (2) und (2') sind nur als Aussagen über unsere subjektiven Sinneseindrücke gemeint und stellen keine Behauptungen über äußere Gegenstände mehr auf. Die gewöhnlichen Irrtumsmöglichkeiten entfallen damit; aber auch der gewöhnliche Gewinn, den wir uns von unseren basalen Aussagen erhoffen, nämlich daß sie uns Informationen über die Außenwelt vermitteln. Es tritt nun die Frage stärker in den Vordergrund, wie man mit Sätzen vom Typ (2) überhaupt Überzeugungen vom Typ (1) und schließlich die darauf aufbauenden wissenschaftlichen Theorien begründen kann. Erkenntnistheoretiker verschiedener Couleur haben Vorschläge unterbreitet, die den Zusammenhang zwischen Sätzen vom Typ (1) und solchen vom Typ (2) erklären sollen. Dazu haben sie die Terminologie vom „Sinnesdatum" eingeführt. Was unter „Sinnesdatum" verstanden werden soll, variiert von Autor zu Autor und wird auch nicht immer deutlich ausgesprochen. Sinnesdaten sind in den meisten Fällen ungefähr zu beschreiben als der subjektive

B. Fundamentalistische Erkenntnistheorien

121

Wahrnehmungsinhalt, den wir bei einer Beobachtung haben und werden in etwa durch Sätze vom Typ (2) oder in anderen Fällen durch Sätze wie (3)

Hier ist jetzt rot.

zum Ausdruck gebracht; manchmal spricht man auch vom unmittelbar Gegebenen in der Wahrnehmung. Gerade von den letzten Sätzen erhoffte man sich eine besonders hohe Irrtumsresistenz. Z. B. Schlicks ,JConstatierungen" lassen sich am ehesten durch Sätze des Typs (3) beschreiben, die mit ihren indexikalischen Ausdrücken unsere Wahrnehmungsinhalte am besten wiedergeben (Schlick 1934, 92ff). Doch Schlick weist daraufhin, daß seine Konstatierungen sich eigentlich nicht in objektivierte Beschreibungen übersetzen lassen, da der hinweisende Gehalt von Konstatierungen, der eher durch eine entsprechende Geste zum Zeitpunkt der Konstatierung zum Ausdruck gebracht würde, dabei nicht erfaßt werden kann. Wenn ich die Konstatierung mache: „Hier ist jetzt blau", so ist sie nicht dasselbe wie der Protokollsatz: „M.S. nahm am soundsovielten April 1934 zu der und der Zeit an dem und dem Orte blau wahr", sondern der letzte Satz ist eine Hypothese und als solcher stets mit Unsicherheit behaftet. (Schlick 1934,97)

Allerdings hat Schlick hier nur die üblichen Protokollsätze der logischen Empiristen im Auge, die für seine Zwecke tatsächlich ungeeignet sind. Die Schlickschen Konstatierungen lassen sich wohl eher als indexikalische Aussagen des Typs (3) interpretiert im Rahmen ihres jeweiligen pragmatischen Kontextes darstellen. Einen moderneren Vorschlag in dieser Richtung, der dadurch noch nicht angemessen erfaßt wird, weil er sich nicht auf Objekte mit wesentlich semantischem Gehalt stützt, stellt Mosers Fundamentalismus dar, den wir im nächsten Abschnitt kennenlernen werden. Den Ausdruck ,ßinnesdaten" haben Moore und Russell im Englischen („sense data") eingeführt, aber mit Locke, Berkeley, Hume und Mill finden sich bereits frühere Sinnesdatenvertreter, die von „ideas" oder „impressions" sprechen. Sinnesdaten haben für repräsentative Realisten wie John Locke vor allem die Aufgabe, zwischen dem äußeren Objekt und dem epistemischem Subjekt zu vermitteln. Sie repräsentieren das Objekt in der Wahrnehmung. Demgegenüber streichen Idealisten wie Berkeley oder Mill gleich das Objekt und identifizieren es schlicht mit Komplexen von Sinnesdaten. Dazu hat Mill neben den tatsächlich wahrgenommenen sogar noch mögliche Sinnesdaten eingeführt, die niemand mehr tatsächlich empfunden haben muß.22 Phänomenalisten aus der analytischen Tradition wie z. B. Carnap und Ayer haben diese Überlegung im Sinn des Jinguistic turn" weitergeführt und eine einfache Theorie über den Zusammenhang zwischen Sätzen vom Typ (1) und solchen vom Typ (2) entwickelt. Für sie sind Aussagen über Gegenstände der Außenwelt in solche über Sinnesdaten übersetzbar. Wären Sinnesdaten die uns zugänglichen und irrtumssicheren Bestandteile unserer Sinneswahrnehmungen und alle anderen Sätze schließlich in Sinnesdatenaussagen übersetzbar, könnte das auf eine ideale fundamentalistische Position hinauslaufen. Von einer infalliblen Basis aus ließen sich alle wahren Aussagen

122

III

Begründungsstrategien

mit rein analytischen Schlüssen ableiten, wobei sowohl die Sinnesdaten wie auch die analytischen Schlüsse nebenbei noch die Anforderungen des Internalismus erfüllen könnten. Das ist natürlich viel zu schön um wahr zu sein. Schwierigkeiten stellten sich denn auch sogleich ein. Eine Dingaussage wie „Vor mir steht ein Würfel" läßt sehr viele, potentiell sogar unendlich viele, verschiedene Hinsichten zu, aus denen der Würfel betrachtet werden kann, für die sich entsprechende quader- oder würfelförmige Ansichten eventuell mit verschiedenen Farben ergeben. Eine konkrete Dingaussage der angegebenen Art impliziert daher eine entsprechende Vielzahl von Sinnesdatenaussagen (s. dazu Stegmüller 1958).23 Tatsächlich kann jeder Mensch zu einem Zeitpunkt aber immer nur eine solche Hinsicht einnehmen und damit ihrer sicher sein. Kognitiv zugänglich wird uns deshalb für Dingaussagen nie ihre gesamte Sinnesdatenbasis sein, sondern immer nur ein sehr kleiner Ausschnitt daraus. Das Bild eines infalliblen Fundamentalismus läßt sich dann nicht mehr aufrechterhalten, weil der analytische Zusammenhang zwischen den wenigen tatsächlich verfügbaren Daten und unseren Behauptungen vom Typ (1) verlorengeht. Das Problem wird noch dadurch verschärft, daß Dingaussagen auch Implikationen für Situationen haben, in denen wir das betreffende Ding für kurze Zeit überhaupt nicht betrachten und auch über keine anderen Sinnesdaten von ihm verfügen. 24 Von normalen Gegenständen wissen wir, daß sie gewisse Kontiniutäten aufweisen und können deshalb von einer Dingaussage Schlüsse auf nichtbeobachtete Dinge ziehen, während Sinnesdaten an unsere momentane Wahrnehmung gebunden bleiben. Trotzdem könnte der Phänomenalist weiter an seiner Übersetzungsthese festhalten, wenn er die nicht wahrgenommenen aber möglichen Hinsichten als mögliche Sinnesdaten mit aufnimmt, wie es Mill getan hat. Aber auch wenn die möglichen Sinnesdaten für die Übersetzungsthese interessant bleiben, für die erkenntnistheoretischen Überlegungen eines Internalisten müssen sie außen vor bleiben, weil sie uns nicht tatsächlich kognitiv verfügbar sind. Sie leisten daher nichts für die Begründung meiner Meinungen. Der Phänomenalist könnte sich dann nur auf die Position zurückziehen, daß die Übersetzungsthese den Zusammenhang zwischen Dingaussagen und Sinnesdaten vermittelt und die wenigen uns zugänglichen Sinnesdaten eben gerade unsere epistemische Basis für unseren Schluß auf bestimmte äußere Gegenstände bilden, auch wenn dieser Schluß kein analytischer mehr sein kann. Doch ob die Übersetzungsthese die ihr damit zugewiesene Aufgabe tatsächlich übernehmen kann, bleibt mehr als ungewiß. Auf welche Schwierigkeiten der ernsthafte Versuch stößt, das Reduktionsvorhaben in umfassender Weise tatsächlich auszuführen, zeigt z. B. Carnaps Logischer Aufbau der Welt. Insbesondere in größerer Entfernung von der Basis werden die reduzierenden Definitionen immer schwieriger. Einige der entstehenden Lücken sind von Goodman (1951) angegeben worden und andere von Carnap selbst. Auch dieses Standbein der phänomenalistischen Fundamentalisten, die Reduktion aller nicht-basalen Dingaussagen auf die Sinnesdatenüberzeugungen, die uns tatsächlich epistemisch zugänglich sind, muß daher als gescheitert angesehen werden.25

B. Fundamentalistische

Erkenntnistheorien

123

Wenn mir diese Pietätlosigkeit einmal erlaubt sei: Ein Gelingen dieses inzwischen verstorbenen Projekts scheint mir erkenntnistheoretisch nicht einmal besonders wünschenswert zu sein. Auch wenn es den Phänomenalisten vielleicht selbst nicht immer ganz klar war, weil sie ontologische Fragen meist als rein sprachliche Fragen verstanden wissen wollten, legt ihr Übersetzungsvorhaben den Grundstein für eine idealistische Theorie, die auf physische Gegenstände zugunsten der Sinnesdaten ganz zu verzichten gedenkt. Franz von Kutschera (1982, 223) subsumiert daher in seiner Erkenntnistheorie die Phänomenalisten unter die neueren Idealisten. Ein realistisch gesonnener Philosoph wird das phänomenalistische Reduktionsprogramm deshalb immer mit großer Skepsis verfolgen. Ein Realist bezüglich der Außenwelt wird auf Sinnesdaten sowieso nur dann zurückgreifen, wenn seine besten empirischen Theorien unserer Wahrnehmung Sinnesdaten für einen wesentlichen Bestandteil in unserem Wahrnehmungsvorgang ansehen. Dann sind sie aber in einem theoretischen Rahmen innerhalb seiner Vorstellung der Welt und unserer Stellung in ihr angesiedelt und nicht etwa Fundamente, auf die wir uns vor jeder empirischen Theorienbildung verlassen können. Man kann den Phänomenalismus auch als einen Versuch betrachten, sich dem Skeptiker entgegenzustellen. Wenn der uns den subjektiven Anteil an der Wahrnehmung als infallibel erkennbar zugesteht, lassen sich auf dieser Grundlage alle anderen Aussagen als komplizierte Sinnesdatenaussagen logisch ableiten, so daß keine epistemische Kluft mehr entsteht, wo der Skeptiker einhaken könnte. Daß die subjektiven Wahrnehmungsinhalte uns zunächst in unproblematischer Weise zugänglich sind, und wir uns nur fragen müssen, wie wir von dort zu Erkenntnissen über die Außenwelt gelangen, ist tatsächlich eine Standardsituation für viele skeptische Fragestellungen. Das Gehirn in der Nährflüssigkeit eines bösen Wissenschaftlers ist sich seiner Wahrnehmungen durchaus in zuverlässiger Weise bewußt, aber alle Schlüsse, die es daraus auf eine entsprechende Außenwelt zieht, sind leider falsch. Nicht so für den Phänomenalisten. Der könnte nämlich entgegnen, daß diese Darstellung inkonsistent ist, weil Aussagen über Gegenstände einer Außenwelt bedeutungsgleich zu Aussagen über Sinnesdaten sind. Das Gehirn im Topf macht also immer nur Aussagen über Sinnesdaten, und daß es sich dabei nicht irrt, war uns vom Skeptiker für diesen Fall zugestanden worden. Doch diese Wendung des Phänomenalisten, der aus seiner Not, das Verhältnis von Aussagen des Typs (1) zu denen des Typs (2) zu klären, eine Tugend macht, indem er sie als identisch einstuft, verzichtet darauf, Erkenntnisse über eine physische Welt in einem objektiven Sinn anzustreben. Sie kommt deshalb dem Skeptiker bereits in wesentlichen Punkten entgegen. Selbst ein Gelingen des phänomenalistischen Programms ist aus erkenntnistheoretischer Sicht, als Antwort auf den Skeptiker, daher nicht befriedigend. Interessanter wirkt da schon der Rückgriff auf die älteren Repräsentationstheorien der Erkenntnis kombiniert mit dem Schluß auf die beste Erklärung. Wenn wir in Sinnesdaten eine sichere Basis finden, können wir auf physische Objekte als die besten Erklärungen für das Auftreten dieser Sinnesdaten schließen. Ein solcher Verzicht auf eine analytische Herleitung von nicht-basalen Überzeugungen aus der Basis wäre eher im Sinne einer realistischen Auffassung des Fundamentalismus. Doch auch in dieser Version der

124

III

Begründungsstrategien

Sinnesdatentheorie stoßen wir schnell auf neue Probleme. Die ersten betreffen den Schluß auf die beste Erklärung. Was eine bessere Erklärung ist, ist immer vor unserem jeweiligen Hintergrundwissen zu beurteilen (s. dazu VI.B.4). Wieso sollten vor dem alleinigen Hintergrund von Sinnesdaten, die wir zu Beginn gesammelt haben, physische Dingtheorien eine bessere Erklärung für die Sinnesdaten anbieten als etwa skeptische Hypothesen, nach denen die Sinnesdaten uns von einem bösen Dämon oder Wissenschaftler eingegeben werden? Bei unserem gewöhnlichen Hintergrundwissen erscheinen sie uns als die natürlichsten Erklärungen, aber welche Anhaltspunkte finden sich dafür in einem reinen Sinnesdatenwissenshintergrund? Es dürfte unmöglich sein, die Abduktion im Rahmen dieser Theorie sinnvoll zum Einsatz zu bringen.26 Ein anderes Problem betrifft die Basis dieses Fundamentalismus. Sie erschien uns deshalb so sympathisch, weil sie infallibel sein sollte und auf diese Weise einigen Problemen anderer fundamentalistischer Theorien entgehen konnte.27 Dieser Annahme bin ich bisher einfach gefolgt, ohne damit allerdings ihre Wahrheit präjudizieren zu wollen. Kann man sich bei Aussagen wie (4)

Ich habe jetzt eine Rotwahrnehmung.

nicht doch irren? Um das zu untersuchen, muß ich zwei Lesarten des Satzes unterscheiden: In einer ersten, benenne ich mit (4) nur meine augenblickliche Sinneswahrnehmung mit einem Wort, nämlich „Rotwahrnehmung" - gleichgültig wie sie qualitativ beschaffen ist. Das scheint mir eine epistemisch uninteressante Lesart von (4) zu sein, denn (4) besagt in dieser Interpretation nicht mehr, als daß ich jetzt eine Empfindung irgendeiner Art habe, der ich einen Namen gebe. Es ist sicher nicht leicht zu sehen, wie man sich dann in (4) irren kann, aber es ist ebensowenig verständlich, wie mit (4) in dieser Lesart ein Erkenntnisgewinn verbunden sein könnte. Dazu müssen wir (4) schon so verstehen, daß meine Farbwahrnehmung durch (4) in einen Zusammenhang mit anderen Farbwahrnehmungen gebracht wird, die ich ebenfalls als Rotwahrnehmungen bezeichne. Dann meine ich mit (4) so etwas wie: Es gibt eine Klasse von qualitativ ähnlichen Farbwahrnehmungen in einem größeren Farbenspektrum, die ich mit „rot" bezeichne, und meine jetzige Wahrnehmung gehört zu dieser Klasse. Schon bei diesem geringen Gehalt kann ich mich in (4) aber auch irren, denn ich behaupte eine qualitative Ähnlichkeit zu anderen Farbwahrnehmungen, die nicht gegeben sein könnte. Für den Realisten genügt diese Erklärung, wie es zu einem Irrtum kommen könnte, um die Irrtumsmöglichkeit zuzugestehen. Aber auch Anti-Realisten wie Putnam sollten sie zugestehen, denn, daß ich mich dabei geirrt habe, könnte mir sogar selbst bewußt werden. Der Irrtum ist nicht etwa prinzipiell unentdeckbar. Wenn ich kurz nach dem Ausspruch (4) wieder eine andere Rotwahrnehmung habe und sie als solche erkenne, könnte ich sagen: „Stimmt, das ist Rot, vorher das war dann doch nur Violett und kein richtiges Rot. Die neue Wahrnehmung erinnert mich wieder an die Farbe Rot." Sobald ich also eine Aussage wenn auch nur mit nur geringem Gehalt akzeptiere und nicht nur eine der Art „Dies ist jetzt hier", gerate ich in die Gefahr des Irrtums, während andererseits mit gehaltsleeren Aussagen kaum ein Erkenntnisfortschritt zu erzielen ist. Das Fazit

B. Fundamentalistische

Erkenntnistheorien

125

dieses Abschnitts läßt sich daher - und wen wundert das eigentlich? - so zusammenfassen: Bei jeder Überzeugung mit nicht-leerem Gehalt können wir uns irren.28 Ein beliebter Schachzug in diesem Zusammenhang soll noch erwähnt werden, obwohl ich ihn kaum plausibel finde. Es wird eingewandt, daß ein Irrtum bei (4) nur ein Irrtum in der Bedeutung sei. Derjenige der (4) glaubt und sich irrt, habe sich nur in der Bedeutung des Wortes „Rotwahrnehmung" geirrt. Auch wenn man lieber nicht nachfragen möchte, was hier „nur" zu bedeuten hat, hat man kaum Grund, sich dieser Ansicht anzuschließen. Spätestens seit Quines Untersuchungen zur analytisch/synthetisch Unterscheidung ist deutlich geworden, wie wenig sich rein begriffliche Bestandteile einer Aussage von inhaltlichen Behauptungen abtrennen lassen. Aus welchem Grund sollte man also den oben genannten Gehalt von (4), nach dem eine Ähnlichkeit behauptet wird, als bloße Angelegenheit des Satzverstehens betrachten? Die angegebene Ähnlichkeitsbehauptung ist zunächst eine empirische Annahme, in der man sich irren kann, ohne deshalb gleich seiner Sprache verlustig zu gehen, was durch die beschriebene Situation, in der ich meinen Irrtum auch entdecke, noch einmal verdeutlicht wird. Ayer (1984, 66ff) gibt auch in Beispielen an, wie wir durchaus Indizien dafür haben können, in solchen Fällen einen tatsächlichen Irrtum zu begehen und nicht nur einen sprachlichen. Und so ist auch das Beispiel der Rotwahrnehmung beschrieben worden. Der Schachzug, den Irrtum als einen rein sprachlichen abzutun, ist für die erkenntnistheoretische Debatte daher kaum hilfreich. Gegen Sinnesdatentheorien lassen sich natürlich noch Einwände ganz anderer Art vorbringen, die darauf beruhen, daß hier von Philosophen seltsame psychische Entitäten postuliert werden, deren Existenz eine Frage ist, die eher in den Zuständigkeitsbereich von empirischen Disziplinen fällt, statt in den einer „armchair psychology". Aber auch ohne die Frage der empirischen Plausibilität der Sinnesdatentheorien weiter zu verfolgen, liegt bereits genügend Material vor, um von dieser speziellen fundamentalistischen Theorie keine Lösung unserer erkenntnistheoretischen Probleme zu erwarten. Einer modernen Variante derartiger Theorien möchte ich mich trotzdem noch ausführlicher widmen, nämlich der von Paul K. Moser, die den meines Erachtens erfolgversprechendsten Weg in diesem Bereich weist.

b) Mosers Fundamentalismus Die meisten gegenwärtigen Erkenntnistheoretiker argumentieren dafür, daß nur Überzeugungen rechtfertigende Wirkung für Überzeugungen haben können und nicht auch Entitäten ohne semantischen Gehalt. Überzeugungen können aber falsch sein, wenn sie nicht analytisch wahr sind, und daher ließ sich immer wieder berechtigterweise die Frage nach ihrer Begründung stellen, die den Fundamentalisten sofort in Verlegenheit bringt, denn wenigstens für seine basalen Meinungen möchte er gerade diese Frage eigentlich zurückweisen. Da wir uns außerdem schon von den externalistischen Lösungen des Rechtfertigungsproblems abgewandt hatten, scheinen wir um eine inferentielle Begründung auch für die angeblich basalen Meinungen nicht herumzukommen. Zu

126

III

Begründungsstrategien

diesem Argument sucht Moser (1989) einen Ausweg. Er entwirft eine fundamentalistische Theorie, fur die es auch Wahrheitsindikatoren nicht-propositionaler Art gibt. Mosers Fundamentalismus bleibt dabei trotzdem internalistisch in dem Sinne, daß uns alle Komponenten der Begründung bewußt zugänglich sein müssen; nur handelt es sich dabei nicht ausschließlich um Überzeugungen, sondern auch um nicht-propositionale Wahrnehmungszustände. Einen seiner zentralen Begriffe in diesem Zusammenhang, den der „direct attention attraction", beschreibt er unter anderem wie folgt: The sort of nonconceptual awareness most appropriate to Moderate and Radical Intemalism is direct attention attraction, where one's attention is directly engaged, if only momentarily, by the more or less determinate features of certain presented contents. Such attention attraction, being nonconceptual, does not itself essentially involve one's predicating something of the presented contents; yet of course it can be accompanied by such predicating. And such attention attraction is different from mere sensory stimulation, since it essentially involves direct awareness, albeit nonconceptual awareness, of what is presented in experience. (Moser 1989, 81)

Wenn man den Sinnesdatenbegriff weit faßt, verfolgt auch Moser eine Form von Sinnesdatentheorie, nur mit der Besonderheit, daß diese Sinnesdaten keine propositionale Struktur haben, 29 und wir uns auf die beschränken, die im Zentrum unserer Aufmerksamkeit stehen. Für die nicht-propositionale Struktur betont Moser die Unterscheidung zwischen einem Wahrnehmungszustand, der auf ein Objekt gerichtet ist, und seiner Beschreibung: Clearly our describing a nonconceptual experience or the object thereof requires our formulating a judgment about it. But this does not mean that the having of such an experience is essentially conceptual. The describing of an experience is one thing, and the having of it, another. (Moser 1989, 84f)

Für die Rechtfertigung von Meinungen stützt sich Moser nur auf den subjektiven Teil der nicht-propositionalen Wahrnehmungsinhalte. Diese sollen durch einen Schluß auf die beste Erklärung bestimmte Überzeugungen begründen: My rough preliminary proposal is this: one's subjective nonconceptual contents can make a proposition, P, evidentially probable to some extent for one in virtue of those contents' being explained for one by P in the sense that P is an essential part of an explanation for one of why those contents exists, or equivalently, why those contents occur as they do. (Moser 1989, 9If)

Mosers Sinnesdaten erinnern ein wenig an Schlicks „Konstatierungen", aber Moser weiß mehr als Schlick darüber zu sagen, wie Entitäten ohne semantischen Gehalt in Rechtfertigungen überhaupt vorkommen können. Leider kann ich hier nur eine vereinfachte Darstellung der recht ausgefeilten Wahrnehmungs- und Rechtfertigungstheorie Mosers geben, die dadurch sicher nicht so überzeugend wirkt, wie seine weitergehenden Ausfuhrungen; aber die Grundidee der Moserschen Theorie sollte deutlich geworden sein. Bestimmte basale Meinungen sind bei ihm dadurch gerechtfertigt, daß sie die besten Erklärungen für gewisse subjektive Inhalte unserer Wahrnehmungszustände sind. So könnte meine Annahme, daß ich mit einer Nadel gestochen werde, als beste Erklärung

B. Fundamentalistische

Erkenntnistheorien

127

meiner visuellen Wahrnehmungen in diesem Moment und meiner inneren Wahrnehmung einer bestimmten Schmerzqualität gerechtfertigt werden. Die Annahme ist in dieser Beschreibung nicht weiter von anderen Aussagen inferentiell abhängig und damit basal. Ihr rechtfertigendes Element („probability-maker") ist selbst kein Wahrheitswertträger und daher auch nicht begründungspflichtig. Moser (1989, 172) ist wie andere Fundamentalisten der Meinung, daß nur auf diesem Weg das Regreßproblem zu stoppen ist und auch der Rechtfertigungsskeptiker Humescher Prägung nur so überwunden werden kann (Moser 1989, 160ff). Wenn ich Moser in diesen Behauptungen auch nicht folgen möchte, halte ich seinen Ansatz doch für einen der aufschlußreichsten im fundamentalistischen Lager, weiß er doch als einer der wenigen einen interessanten intemalistischen Weg vorzuschlagen, wie unsere Wahrnehmungen, also nicht-semantische Informationen, bestimmte Beobachtungsüberzeugungen begründen können. Hier, wie auch bei den anderen Sinnesdatentheorien, möchte ich nicht in die Diskussion eintreten, wie gut gestützt die empirischen Bestandteile der Moserschen Theorie sind, obwohl das für alle derartigen Theorien sicher ein nicht unproblematischer Aspekt ist. Ich möchte mich lieber gleich der Frage zuwenden, welchen Fortschritt die Erkenntnistheorie von einer solchen Theorie zu erwarten hätte. Zunächst ist der Abstand von Mosers Begründung der Beobachtungsüberzeugungen zu einer entsprechenden kohärentistischen Theorie der Wahrnehmung wie der von BonJour, die ich im Kapitel (IV.B) vorstellen werde, nicht einmal so groß, wie man vermuten könnte. Während BonJour die Beobachtungsüberzeugungen als spontan auftretende Meinungen charakterisiert, für deren Auftreten die beste Erklärung im Lichte unseres Hintergrundwissens gerade ihre Wahrheit (also das Vorliegen entsprechender beobachtbarer Tatsachen ist) rechtfertigt Moser die Annahme von entsprechenden Beobachtungstatsachen damit, daß sie die besten Erklärungen für unsere Wahrnehmungszustände bieten. Während also BonJour nach Erklärungen für das Auftreten bestimmter Beobachtungsüberzeugungen fragt, geht Moser einen Schritt weiter zurück und fragt nach Erklärungen von Sinneswahrnehmungen, die in den Beobachtungsüberzeugungen beschrieben werden. Was sind nun die Vorzüge des BonJourschen Vorgehens, dem ich mich in (IV.B.2) anschließen werde? Ich glaube, da finden sich einige. Zunächst scheint es mir sauberer, die Erkenntnistheorie nicht ohne Notwendigkeit auf eine recht spezielle empirische Wahrnehmungstheorie festzulegen und das aus mehreren Gründen. Die Aufnahme einer speziellen Wahrnehmungstheorie in die Erkenntnistheorie führt zu einer Unflexibilität in bezug auf neue Wahrnehmungssituationen und neue empirische Ergebnisse in diesem Bereich. Für BonJour sind Theorien der Wahrnehmung Bestandteil des Überzeugungssystems des jeweiligen epistemischen Subjekts, das immer seine jeweils besten Theorien der Wahrnehmung zur Begründung seiner Meinungen heranzieht. Dadurch kann es immer die neuesten Erkenntnisse innerhalb derselben Erkenntnistheorie berücksichtigen. Für Moser wird jedesmal eine Abänderung der Erkenntnistheorie selbst notwendig, sobald sich neue Erkenntnisse in bezug auf die bewußten Bestandteile unserer Wahrnehmung ergeben. Eine Änderung zu Wahrnehmungstheorien, die mit den Sinnesdaten im Sinne Mosers nicht vereinbar sind, überlebt die Mosersche Erkenntnistheorie

128

III

Begründungsstrategien

schließlich überhaupt nicht. Die kohärentistische Rechtfertigung von Beobachtungen ist hier zunächst im Vorteil, daß sie nicht auf empirisch so umstrittene Entitäten wie Sinnesdaten angewiesen ist. Sie bliebe unter Änderungen oder sogar Revolutionen unserer Theorien der Sinneswahrnehmungen relativ stabil, denn die würden sich innerhalb der empirischen Ebene der Überzeugungen des epistemischen Subjekts abspielen, die nicht direkt die Metaebene unsere epistemischen Überzeugungen beeinflussen muß. Die Strategie, so wenig spezielle empirische Annahmen wie möglich in die Erkenntnistheorie aufzunehmen, weil die Erkenntnistheorie gerade die empirische Begründung von empirischen Theorien untersuchen soll, scheint zumindest ein sinnvolles regulatives Prinzip zu sein. Würden theoretische Änderungen an der Peripherie unseres Netzes auch gleich unsere Bewertungsgrundlage für Theorien ändern, steht schnell ein Relativismuseinwand ä la Kuhn vor der Tür. Ob Moser tatsächlich dem Skeptiker etwas entgegenzusetzen hat, ist auch nicht klar, wenn er sich in seiner Metatheorie bereits auf eine empirische Theorie verlassen muß, die zumindest der radikale Skeptiker in Frage stellt. Wir könnten sogar das Regreßproblem wiederbeleben, nämlich auf der Metaebene, denn hier kann man nach einer Rechtfertigung für Mosers Wahrnehmungstheorie fragen. Aber ich möchte in diesen Punkten auch nicht allzu kleinlich erscheinen und sie nur als Ansatzpunkte für weitergehende Kritiken erwähnen. Um einem vollen Internalismus gerecht zu werden, scheint es mir auch notwendig, daß das epistemische Subjekt selbst über die entsprechenden Wahrnehmungstheorien verfügt, in denen die von Moser beschriebenen Wahrnehmungszustände vorkommen, denn sonst können wir nicht davon sprechen, daß es wirklich über die von Moser genannte Rechtfertigung verfügt. Das epistemische Subjekt muß über die Stärken und Schwächen seiner eigenen Wahrnehmungsfähigkeiten Bescheid wissen, um eine für einen Internalisten zufriedenstellende Einschätzung derselben abgeben zu können. BonJour scheint in all diesen Punkten den einfacheren und überzeugenderen Weg gegangen zu sein. Am schwierigsten verständlich bleibt für mich aber, wie man davon sprechen kann, daß eine bestimmte Erklärung eine bessere Erklärung ist, ohne daß man dabei schon auf ein entsprechendes Hintergrundwissen rekurriert, vor dem solche Bewertungen vorgenommen werden können. Das epistemische Subjekt Mosers kann sich für seine Rechtfertigungen seiner basalen Meinungen jedoch nur auf seine nichtkognitiven Sinnesdaten stützen. Diese Anwendung der Abduktion widerspricht allem, was wir in unseren bisherigen Beispielen als wesentliche Elemente dieses Verfahrens aufzeigen konnten. Selbst auf der Metaebene, von der der Erkenntnistheoretiker die Situation beschreibt, kann sich Moser nicht auf irgendein Hintergrundwissen stützen, wenn er seinen Schluß auf die beste Erklärung auch gegen den Skeptiker einsetzen möchte. Der springende Punkt dieser Rechtfertigungstheorie ist also in Mosers fundamentalistischer Vorstellung von Begründung seine Erklärungstheorie, die ich nun etwas genauer unter die Lupe nehmen werde.30

B. Fundamentalistische

Erkenntnistheorien

129

Moser hat fur seine Zwecke eigens Ansätze einer Erklärungstheorie entwickelt. Seine Konzeption von Erklärung stützt sich vor allem auf die Idee, Erklärungen sollten unser Verstehen befördern: Here is an appropriate notion: one thing explains another when and only when the former makes it to some extent, understandable why the latter thing is as it is. (Moser 1989, 93) Wesentlich fur die Abduktion ist aber auch eine Konzeption von besserer Erklärung die es gestattet, zwischen verschiedenen Erklärungsmöglichkeiten eine Wahl zu treffen. Eine Intuition, auf die Moser sich zu diesem Zweck beruft, führt er anhand eines Beispiels ein. Meine momentane scheinbare Wahrnehmung eines blauen Buches kann mindestens auf zwei Weisen erklärt werden. Einmal dadurch, daß ein blaues Buch vor mir liegt, und zum anderen auch durch die Annahme eines Dämons, der mir diesen Eindruck vorspiegelt. Moser spricht sich für die erste Möglichkeit aus, weil in ihr keine überflüssige Entität eingeführt wird: A Cartesian demon is not represented in my experience by means of any of its own features, whereas a blue book is: by hypothesis I now experience only an apparent blue book. (Moser 1989,98) Überflüssige Entitäten erkennt man nach Moser also daran, daß sie in unseren Wahrnehmungen nicht repräsentiert sind. Diese positivistisch anmutende Konzeption ist natürlich ausgesprochen problematisch. Wann wird denn eine Entität in unseren Wahrnehmungen repräsentiert? Muß ich sie direkt sehen können, oder genügt es auch, daß sie indirekte Wirkungen hat? Im ersten Fall werden fast alle Erklärungen der Wissenschaften anhand von Feldern, Elementarteilchen, Genen etc. ausgeschlossen. Sind wir aber vernünftigerweise liberaler, könnte der Skeptiker versucht sein zu antworten: Der Dämon wird durch seine Wirkungen, nämlich die Welt, die er uns erleben läßt, repräsentiert - und insbesondere durch die Überlegungen über Dämonen, die wir gerade anstellen, die er uns als besonders raffinierten Hinweis auf sich selbst gibt. Neben der Forderung, daß Erklärungen besser werden, wenn sie auf überflüssige Entitäten verzichten, sollten Erklärungen nach Moser noch möglichst informativ sein. Beide Forderungen gehen in Mosers Explikationsvorschlag von „entscheidend besserer Erklärung" ein: One Proposition, P, is a decisively better explanation of subjective contents C than is another proposition, Q, if and only if (i) P explains C, and (ii) either (a) P answers all the explanationseeking why-questions about C answered by Q, but posits fewer gratuitous entities and fewer kinds of gratuitous entities than Q does, or (b) while positing no more gratuitous entities or kinds of gratuitous entities than Q posits, P answers all the explanation-seeking why questions about C answered by Q, and still others, or (c) P and Q answer the same why questions about C without either positing more gratuitous entities or kinds of entities than the other, but P is informationally more specific than Q. (Moser 1989,99) Diese Erklärungstheorie ist relativ stark auf Mosers speziellen Einsatz der Dämonenbekämpfung zugeschnitten, so daß es interessant ist, inwieweit sie tatsächlich tragfähig ist.

130

III

Begründungsstrategien

Zunächst sieht auch Moser (1989, 101 ff), daß die Güte der Erklärung eines bestimmten Sinnesdatums von äußeren Umständen abhängen kann. Ob auf der Straße vor uns, die weiter weg in der Hitze wie eine Wasserfläche erscheint, eine tatsächliche Wasserfläche die beste Erklärung für unsere Wahrnehmung ist oder entsprechende Änderungen des Brechungsindex der Luft über der heißen Straße, ist nicht allein an der Erklärung des einen Faktums zu erkennen. Sie bedarf der Berücksichtigung weiterer Beobachtungen, wie z. B. der, wie die Straße dort ausschaut, wenn wir näher hinkommen. Moser fragt deshalb nach besseren „overall" Erklärungen. Doch hier scheint mir Moser die holistischen Aspekte des Unternehmens Erkenntnisgewinn erheblich zu unterschätzen. Informationen können in unseren vollentwickelten Überzeugungssystemen über allgemeine Annahmen und wissenschaftliche Theorien transportiert werden; z. B. auch interpersonell oder über Epochen- und Gebietsgrenzen hinweg. Man denke weiterhin an die epistemische Arbeitsteilung. Mosers Projekt, nach einer wirklichen „overall" Erklärung allein auf der Basis von Sinnesdaten muß schlicht utopisch erscheinen. Gerade wenn man von einem epistemischen Subjekt sagen möchte, daß es über eine Begründung verfügt, ist es auf allgemeine Annahmen in der Bewertung von Erklärungen angewiesen. Es kann sich zwischen den genannten alternativen Erklärungen für die naß erscheinende Straße in der Wüste auch dann entscheiden, wenn es nicht zu besagter Stelle hingeht, weil es allgemeine Annahmen über Wasservorkommnisse in Wüsten und das Aussehen solcher Wüstenstrassen in der Hitze besitzt. Natürlich bleibt immer eine Irrtumsmöglichkeit bei diesen Schlüssen zugestanden, doch das gilt ebenso für Mosers Vorschlag. Er gibt sich hier einer neuen Variante des empiristischen Traums hin, daß wir im Prinzip mit reinen Wahrnehmungen und einer theoriefreien basalen Beschreibung dieser Wahrnehmungen alles Wichtige für unsere Erkenntnis beisammen haben. Aber wie der Mosersche Sinnesdatentheoretiker allein die einfache alternative Vermutung widerlegen will, daß sich die Straße in der Zeit seiner Annäherung von einer Wasserfläche in eine Teerdecke entwickelt hat, bleibt dabei unklar. Zur Widerlegung solcher Spekulationen, die doch unseren Sinneswahrnehmungen in Mosers Beispiel viel eher zu entsprechen scheinen als die richtige Erklärung, sind wir auf allgemeine Annahmen über die Beständigkeit von Stoffen wie Wasser und Teer angewiesen. Unsere empirischen Theorien ergeben sich auch nicht wie bei Moser in einem Schritt von bestimmten Wahrnehmungen aus, sondern sind, selbst wenn man im hierarchischen Bild bleiben möchte, eine komplizierte Stufenfolge. 31 Also auch für die Einschätzung, wann wir etwas gut verstehen, benötigen wir ein reicheres Hintergrundwissen als nur Sinnesdaten. Wir sprechen dann davon, daß wir etwas gut verstehen, wenn sich zeigen läßt, wie es sich in dieses Hintergrundwissen einbetten läßt. Das soll im letzten Teil der Arbeit thematisiert werden. Wie die Güte dieser Einbettung beurteilt werden kann, wird in der Kohärenztheorie genauer bestimmt. Ernstzunehmende Rechtfertigungsversuche für basale Meinungen wie der von Moser geben allerdings detailliertere und interessantere Einblicke in die Probleme eines empiristischen Fundamentalismus, als sie die allgemeine Debatte um die Struktur von Begründungen bieten kann. Es lohnt sich daher schon aus diesem Grund, sie weiter zu

B. Fundamentalistische

Erkenntnistheorien

131

verfolgen. Außerdem könnte Moser einen weiteren Schritt hin zu einer holistischen Sicht wagen und von einer wirklichen „overall"-Erklärung sprechen. Statt einzelne Meinungen könnte er unser gesamtes Meinungssystem als Erklärung unseres gesamtem Wahrnehmungsinputs betrachten. Damit ließen sich die eben genannten Probleme der Einschätzung bestimmter Beobachtungen anhand unseres Hintergrundwissens umgehen, denn dieses Hintergrundwissen wird hierbei selbst Bestandteil der Erklärung. Alternative Erklärungen wären nun komplette neue Weltbilder wie z. B. die der radikalen Skeptiker. Moser selbst dürfte über diese Entwicklung allerdings nicht wirklich glücklich sein, denn er hätte keine fundamentalistische Erkenntnistheorie mehr vor sich. Es würden keine einzelnen Meinungen mehr als basal und den anderen gegenüber epistemisch ausgezeichnet betrachtet. Es handelt sich eher um eine spezielle Kohärenztheorie, bei der jede einzelne Meinung dadurch gerechtfertigt wird, daß sie einen (kohärenten) Teil einer „overall"-Erklärung darstellt. Das gesamte Meinungssystem wird dagegen dadurch gerechtfertigt, daß es die Gesamtheit unserer Wahrnehmungszustände am besten erklärt. Auf diese Strategie komme ich im Zusammenhang mit den Kohärenztheorien und ihren Antwortmöglichkeiten auf den Skeptiker wieder zurück, möchte aber schon jetzt eine gewisse Skepsis gegenüber den Erfolgsaussichten auch dieses Projekts anmelden. Für diese „overall"-Erklärung können wir wiederum fragen, auf welcher Grundlage sie sich gegenüber alternativen Erklärungen als die bessere auszeichnen läßt. Es bleibt nun kein Hintergrundwissen als Schiedsrichter übrig. Auch die Frage, wann wir überhaupt von einer Erklärung sagen sollen, daß sie die bessere ist, müßte noch beantwortet werden. Mosers allgemeine Erklärungstheorie wird dafür kaum geeignet sein, und außerdem müßten wir diese Erklärungstheorie nun a priori rechtfertigen, was mir ebenfalls unmöglich erscheint. Ob eine Erklärung wirklich gut ist, wird zu wesentlichen Teilen erst durch unsere Erklärungspraxis - speziell unsere wissenschaftliche - erkennbar und ist nicht unabhängig davon vorzugeben. Der Ansatz einer „overall"-Erklärung all unserer Sinnesdaten beinhaltet zudem die Vorstellung, man könnte Wahrnehmungszustände vor ihrer begrifflichen Verarbeitung sicher speichern und sich schließlich überlegen, wie gut sie von unserem Meinungssystem erklärt werden. Diese Vorstellung ist kaum realistisch und kann bestenfalls als eine sehr idealisierte Rekonstruktion verstanden werden. Man fragt sich auch, woher auf der Beschreibungsebene dann die Begriffe kommen sollen. Der Ansatz geriete hier in ähnliche Schwierigkeiten, wie wir sie für Carnaps Projekt (Carnap 1928) finden. Die ganze Idee, Wahrnehmungszustände zunächst komplett von ihrer Weiterverarbeitung (Klassifizierung und weiterer theoretischer Einbettung) zu trennen, ist meines Erachtens verfehlt. Es kann daher nicht meine Aufgabe sein, ihn hier weiter auszubauen und zu verteidigen. So unsauber es auch ausschaut, beides geht immer Hand in Hand, und wir haben keine andere Möglichkeit als von diesem Prozeß in seiner Komplexität auszugehen. Genau das wird die (holistische) Kohärenztheorie der Rechtfertigung, die im nächsten Kapitel vorgestellt wird, unternehmen. Deutlich scheint mir auch, daß Mosers recht empiristische Erklärungstheorie für unsere Paradigmata von Erklärungen, die wissenschaftlichen Erklärungen, versagen

132

III Begründungs Strategien

muß. Überflüssige Entitäten als solche zu brandmarken, ist in jedem Fall ein schwieriges Unterfangen. Wissenschaftliche Theorien schätzen wir gerade für ihre theoretischen Entitäten, die wesentlich für Erklärungen und die Systematisierungsleistung von Theorien sind.32 Obwohl die meisten dieser Entitäten zumindest nicht direkt in unserer Wahrnehmung repräsentiert sind, wäre es ein fataler Fehler, die Theorien und Erklärungen zu bevorzugen, die versuchen sich auf Beobachtbares zu beschränken. Fast das Gegenteil ist der Fall. Doch dazu später mehr. Natürlich gibt es auch schlecht konstruierte Theorien mit überflüssigen Bestandteilen. Doch wie soll man von einer reinen Sinnesdatenbasis aus zwischen signifikanten und insignifikanten theoretischen Termen unterscheiden? Das ist nach Moser notwendig, um schlechtere von besseren Erklärungen zu unterscheiden. Dazu gibt es bereits eine ausführliche wissenschaftstheoretische Debatte, die die zahlreichen Untiefen dieser Fragestellung der signifikanten Terme aufgezeigt hat. Leider ist sie nicht mit einem so einfachen Vorschlag wie dem Moserschen abzuschließen. Hinter der Moserschen Idee steckt eine Art von Sparsamkeitsprinzip, nach der man keine Entitäten postulieren sollte, wenn sie nicht erforderlich sind; d.h. bei Moser, wenn sie nicht in unserer Wahrnehmung repräsentiert werden. Doch diese Formulierung ist viel zu unbestimmt und keine Hilfe, wenn es um die Frage geht, welche Entitäten wir annehmen sollten. Aber auch die Grundidee ist keine geeignete Maxime für die Wissenschaften. Der Physiker Richard Feynman hat uns mehrfach mit alternativen physikalischen Theorien beglückt, die mit weniger Entitäten auskommen als unsere gewöhnlichen. Das waren zum einen die elektrodynamischen Theorien ohne Felder, die statt dessen mit retardierten Fernwirkungen arbeiten, und zum anderen seine berühmte Theorie des Positrons (s. Feynman 1949), in der die Positronen zugunsten von Elektronen eliminiert werden. Beide Theorien stießen trotzdem in der Fachwelt nur auf wenig Gegenliebe, weil sie zwar Entitäten einsparen konnten, aber dafür andere wesentliche Prinzipien aufgaben. In seiner Positronentheorie mußten sich die Elektronen rückwärts in der Zeit bewegen und seine Theorie der retardierten Fernwirkungen verletzt zumindest lokal den Energieerhaltungssatz. Wir sind in unseren Theorien nicht so sparsam, wie Moser annimmt, und insbesondere gibt es viele andere Prinzipien, deren Erhalt uns mindestens genauso wertvoll erscheint. Erst eine sorgfältige Abwägung der Kohärenz vermag im konkreten Einzelfall zu sagen, welche Theorien besser sind: die sparsamen oder die reichhaltigen. Daher ist es keine gute Idee, einer Erklärungstheorie eine Sparsamkeitsforderung voranzustellen. Meine Überlegungen in der Frage der Signifikanz theoretischer Terme gehen jedenfalls genau den umgekehrten Weg. Statt die Unterscheidung nach besseren und schlechteren Erklärungen auf die Unterscheidung in benötigte und überflüssige Terme zu stützen, würde ich die signifikanten Terme als diejenigen auszeichnen, die in unseren besten Erklärungen benötigt werden. Diese Konzepte sind danach unverzichtbar, wenn wir nicht an Erklärungskraft einbüßen möchten. Auch diese Bewertung kann nur unter Heranziehung unseres Hintergrundwissens ermittelt werden und setzt vor allem voraus,

B. Fundamentalistische

Erkenntnistheorien

133

daß wir die Erklärungsgüte einschätzen können, ohne schon wissen zu müssen, welche Terme und Gegenstände dieser Theorien unentbehrlich sind.

6. Resümee Die zweite Weichenstellung dieses Kapitels betraf die Rechtfertigungsstruktur unserer Erkenntnis. Sind Rechtfertigungen letztlich lineare Ketten von Aussagen, die einen Startpunkt aufweisen, der selbst keiner Begründung durch andere Aussagen bedarf, oder ist ein holistisches Modell unserer Erkenntnis, in dem man für alle Behauptungen wiederum nach inferentiellen Rechtfertigungen fragen darf, angemessener? Für den Fundamentalisten hat die Erkenntnis ein Fundament in basalen Aussagen, die zwar gerechtfertigt sein sollen, aber nicht unter Bezugnahme auf andere Meinungen, um nicht in einen Regreß zu geraten. Schwierigkeiten macht allerdings die Frage, wie eine solche nichtinferentielle Rechtfertigung aussehen kann, wenn sie nicht bloß in einem externen Zusammenhang der Überzeugungen zu äußeren Tatsachen besteht und für das epistemische Subjekt erkennbare Hinweise auf die Wahrheit der basalen Meinungen geben soll. Die Antworten, die wir auf dieses Problem von Fundamentalisten erhalten, bleiben unbefriedigend, insbesondere wenn sie versuchen, sich um eine Begründung herumzudrücken, indem sie den Gehalt der Basisaussagen vermindern und für sie Irrtumsfreiheit behaupten. Doch für Aussagen mit empirischem Gehalt - und nur solche können als Basis des empirischen Wissens einen substantiellen Beitrag liefern - verbleibt immer ein Irrtumsrisiko, das eine Begründung erforderlich macht. Das BonJoursche Argument des Kriteriums zeigt, daß diese Begründung nur in weiteren Annahmen bestehen kann, also inferentieller Natur ist. Die starre Schichtenstruktur des Fundamentalisten kann uns daher kein geeignetes Modell für eine überzeugenden Begründungsstruktur bieten. Wir sind nun gezwungen nach einer kohärentistischen Alternative Ausschau zu halten.

Anmerkungen zu Kapitel III 1

Speziellere Charakterisierungen dieser Positionen finden sich z. B. bei Moser (1990, 69ff). Auf eine Position, die sich als eine Ausnahme zu dieser Regel versteht, den Fundamentalismus Mosers, für den die basalen Überzeugungen durch interne Zustände gerechtfertigt werden, die keine semantische Information haben, werde ich in (III.B.5.b) gesondert eingehen. Auch Moser fällt allerdings unter die allgemein gehaltene Bestimmung von internalistischen Elementen, wenn man „kognitiv zugänglich" nicht ganz so anspruchsvoll versteht, wie das in der gegebenen Erläuterung der Fall ist. 3 Auf juristische Unterscheidungen zwischen Besitz und Eigentum möchte ich hier verzichten. 4 Z. B. von Goldman (1967), Armstrong (1973), Nozick (1981), McGinn (1984) und anderen. 5 Eine ausführliche und kritische Diskussion der verschiedenen Ausgestaltungen des Reliabilismus durch Goldman gibt Haack (1993,139ff). 6 Dem sollten jedenfalls die Reliabilisten zustimmen, die sich den Prozeß als einen determinierten Kausalvorgang denken. 2

134 7

III

Begründungsstrategien

Das mag man auch als einen Hinweis ansehen, wie abhängig von sprachlichen Eigenheiten sprachphilosophische Analysen sein können. 8 Moser z. B. trennt diese verschiedenen Formen von Rechtfertigung strikter. 9 Goldman (1979) geht z. B. so vor. 10 Ausfuhrlicher wird dieser Typ von Einwand noch in (III.A.2.e) besprochen. 11 Auch bleibt nach Swain unklar, was mit „grasping a belief' gemeint ist. Zumal, wenn man auch implizite Rechtfertigungen zuläßt. 12 Meine Antwort auf die hier angesprochene Problematik, ob es sich lohnt, eine Erkenntnistheorie auszuarbeiten, wenn man nicht auch eine direkte Antwort auf den Skeptiker bereit hält, wird in den nächsten Kapiteln deutlicher. 13 „Inferentiell gerechtfertigt" bedeutet dabei, daß es gerade die inhaltlichen (etwa logisch-semantischen) Zusammenhänge zu anderen Aussagen sind, die die Rechtfertigungsleistung tragen. 14 Substantielle Kohärenztheorien werden im Kapitel (IV) behandelt. 15 Für ausfuhrlichere Literaturangaben muß ich auf den Aufsatz vonTriplett (1990) verweisen. 16 Man denke hier z. B. an Chisholms (1979, 40ff) Charakterisierung von selbstrepräsentierenden Sachverhalten oder Propositionen. 17 Bis heute wird der Regreß allerdings immer wieder zeitlich gedeutet. So spricht Musgrave (1993, z. B. 61) mehrfach von früheren Überzeugungen und schreibt: „Da keiner von uns immer schon gelebt hat, ist ein unendlicher Regreß unmöglich." 18 Dazu gehören etwa die Paragraphen 163,167, 234f u.a. 19 Der Empirist muß immer wieder als Paradebeispiel für einen Fundamentalisten herhalten, weil seine Position zumindest in vorsichtigen Formulierungen als der plausibelste Kandidat dieser Richtung auftritt. 20 Das wird in Kapitel IV.B erläutert. 21 Ein Argument ähnlicher Form steht auch bei Chisholm (1979, 47f), das dieser dem Skeptiker zuschreibt und auf das er auch keine überzeugende Antwort weiß. 22 Für einen Überblick über die Geschichte der Sinnesdaten in der Wahrnehmungstheorie s. Schantz (1991). 23 Nicht nur über visuelle Empfindungen, sondern ebenso über Empfindungen der anderen Sinne. 24 Ayer war sich in (1984, 118ff) dieser Probleme durchaus bewußt und glaubte in seinen späteren Jahren nicht mehr an eine vollständige Reduktion von Ding-Aussagen auf Sinnesdaten. 25 Allerdings ist Carnaps Ziel im Aufbau nicht primär ein erkenntnistheoretisches, obwohl er meist so gelesen wird (s. Bartelborth 1995). 26 Siehe dazu auch die Diskussion um Mosers Fundamentalismus im nächsten Abschnitt. 27 Das behauptete Ayer z. B. in (1979, II) und sogar noch in der zweiten Auflage von (1970, 15f), wo er von der Unmöglichkeit sich zu irren, außer einer rein verbalen spricht. In (Ayer 1984, 44ff) hat er dagegen dieser Behauptung bereits abgeschworen und argumentiert überzeugend gegen sie. 28 Ayer diskutiert in (1984,44ff) auch die (basale) Meinung „Ich existiere", für die wir bereits mit ähnlichen Problemen zu kämpfen haben. 29 Viele Sinnesdatenvertreter ließen es zumindest zu, daß die Sinnesdaten durch eine Aussage i.w. ausgedrückt werden können. 30 Dieser Aspekt der Moserschen Theorie trifft sich auch mit den im nächsten Kapitel zu untersuchenden Kohärenztheorien der Rechtfertigung, für die der Schluß auf die beste Erklärung ebenfalls eine zentrale Rolle übernehmen soll. 31 Das gilt in ähnlicher Weise für die Erinnerungen an frühere Wahmehmungszustände, auf die Moser angewiesen ist, sucht er „overall"-Erklärungen. 32 Warum das so ist, welche Funktion diese theoretischen Größen in Theorien zu übernehmen haben, wird im 3. Teil ausgeführt.

IV Kohärenz

Auch innerhalb der philosophischen Strömung des Wiener Kreises gab es bekanntlich bereits einen Vertreter einer kohärentistischen Erkenntnistheorie, nämlich Otto Neurath. Er stand damit gegen die eher fundamentalistisch orientierte Mehrheit der logischen Empiristen und sah sich unter anderem der Kritik durch den damaligen Leiter des Wiener Kreises, Moritz Schlick, ausgesetzt. Neurath entwickelte seine erkenntnistheoretischen Vorstellungen überwiegend in negativer Abgrenzung von den fundamentalistischen Ansichten Schlicks und des frühen Carnaps in bezug auf Protokollsätze. Seine eigene Konzeption von Kohärenz ist dann auch eher als dürftig zu bezeichnen; sie besteht nämlich nur aus der Forderung nach logischer Konsistenz. Schlick mahnt zu Recht an, daß damit alleine noch kein Kontakt eines Überzeugungssystems zur Wirklichkeit gegeben ist und alle Märchen epistemisch gleichwertig erscheinen, solange sie nur logisch konsistent auftreten. Auch Popper kritisiert in der „Logik der Forschung" (Popper 1984, 63), daß nach dieser Erkenntnistheorie jedes System vertreten werden könne.1 Diesem Einwand hatte Neurath nichts Substantielles entgegenzusetzen. Erkenntnistheoretisch bedeutsam ist also kaum die Neurathsche Epistemologie als einer Kohärenztheorie der Erkenntnis,2 sondern eher seine Kritik an der simplen Vorstellung von Schlick, man könne Sätze direkt mit der Wirklichkeit vergleichen (s. Koppelberg 1987, 33ff). Für meine Arbeit ist auch sein bekanntes Bild von uns als Schiffern, die ihr Boot auf hoher See umbauen müssen, ohne es im Dock aus ganz neuen Bestandteilen aufbauen zu können, zu einem Leitmotiv für die Erkenntnistheorie geworden. Vor allem die dynamischen Aspekte dieses Bildes werde ich schließlich in einer diachronischen Kohärenztheorie ernster nehmen, als er selbst es tat. Leider war Neurath nicht der letzte Kohärenztheoretiker, der mehr mit Kämpfen gegen äußere Feinde beschäftigt war, als mit einer Ausarbeitung der Kohärenzkonzeption selbst. Dieses Kapitel soll nun dazu dienen, eine systematische Kohärenztheorie der Rechtfertigung zu entwerfen, die die wesentlichen Schwächen früherer Ansätze vermeiden hilft. Der entscheidende erste Schritt dazu besteht in einer Untersuchung, welche Zusammenhänge zwischen Überzeugungen die Kohärenz eines Meinungssystems konstituieren. Der nächste Schritt gibt an, wie sich die Gesamtkohärenz des jeweiligen Systems aus den einzelnen Zusammenhängen zusammensetzt, was schließlich in einer semiformalen Konzeption von Kohärenz als Erklärungskohärenz zusammengefaßt wird.

136

IV Kohärenz

A. Bestandteile von Kohärenz 1. Kohärenz und Konsistenz Über Kohärenz wird in der Erkenntnistheorie heutzutage sehr oft gesprochen. Meist ohne gehaltvolle Vorstellungen davon zu haben, was denn Kohärenz sei; „Kohärenz" wird manchmal sogar wie ein Grundbegriff behandelt, über den sich nicht viel sagen läßt. Nur wenige Kohärenztheoretiker sind aber heute noch damit zufrieden, unter „Kohärenz" bloß „Konsistenz" zu verstehen. Abgesehen davon, daß in diesem Fall auch unklar wäre, wozu man den Kohärenzbegriff neben dem Konsistenzkonzept noch einfuhren sollte, möchte man unter einem kohärenten Überzeugungssystem eines verstehen, dessen Aussagen untereinander in vielfältiger Weise zusammenhängen, was durch Konsistenz allein noch nicht erreicht wird. Die besagt bloß, daß unsere Meinungen sich nicht direkt widersprechen, sich aus ihnen also keine Kontradiktionen (Aussagen der Form: „p und non-p") ableiten lassen. Wie schwach die bloße Forderung nach Konsistenz eines Systems sein kann, wird erkennbar, wenn wir einmal nicht an unsere gewöhnlichen, ziemlich reichhaltigen Überzeugungssysteme denken, für die bereits Konsistenz eine nicht so leicht zu realisierende Anforderung darstellt. Stellen wir uns zur Illustration statt dessen einen Superempiristen vor, der es aus vornehmer empiristischer Zurückhaltung vermeidet, auch nur irgendeine allgemeinere Hypothese oder sogar Theorie über die Welt zu glauben. Er sammelt einfach nur seine eigenen Wahrnehmungsberichte. Erlauben wir ihm aber wenigstens, um ihn nicht zu uninteressant zu gestalten, ein perfektes Gedächtnis, dem er vertrauen kann. Er könnte dann, ohne im geringsten beunruhigt zu sein, z. B. Meinungen in der folgenden Form sammeln: 1) 7.8.95, 18.3230: Vor mir steht ein Rolls Royce auf dem Wenzelsplatz. 2) 7.8.95, 18.323': Vor mir steht ein Mercedes am Fuße des Empire-State-Building. 3) 7.8.95, 18.3232: Vor mir liegt der leere Rote Platz, etc... Ein Meinungssystem, das so aufgebaut wäre, wäre aber offensichtlich kaum kohärent zu nennen. Und das, obwohl es logisch konsistent ist, denn es ist natürlich nicht logisch unmöglich im Sekundenabstand an so weit entfernten Plätzen der Welt zu sein, sondern höchstens physikalisch oder eher verkehrstechnisch unmöglich. Wenn wir davon absehen, daß uns die Aussagen als in hohem Maße widersprüchlich erscheinen, weil wir glauben, niemand könne sich so schnell von einem Platz zum anderen bewegen, bleibt immer noch, daß die Aussagen völlig zusammenhanglos nebeneinanderstehen. Das entspricht keinesfalls unserer Vorstellung eines kohärenten Überzeugungssytems. Schon deshalb verlangen die meisten Erkenntnistheoretiker für Kohärenz mehr als reine Konsistenz. Es bleibt nur offen, worin dieses Mehr bestehen soll. In den wenigen ausgearbeiteten Konzeptionen von Kohärenz spielen in der Regel Erklärungsbeziehun-

A. Bestandteile von Kohärenz

137

gen eine ausgezeichnete Rolle, deren epistemischer Funktion ich daher in den nächsten Abschnitten im einzelnen nachgehen möchte. Davor setze ich noch einige Bemerkungen über die Funktion von Theorien oder allgemeineren Annahmen in unserem Überzeugungssystem, die wir bei dem Superempiristen vermißt haben.

2. Die Bedeutung von Theorien für Kohärenz Das Beispiel des Superempiristen mit ausgeprägter theoretischer Abstinenz führt uns nicht nur eindringlich vor Augen, daß Konsistenz für Kohärenz zu wenig ist, sondern auch, wie sehr wir auf Theorien oder jedenfalls allgemeine verbindende Annahmen in unserem Überzeugungssystem angewiesen sind. Ein System wie das des Superempiristen, in dem sie völlig fehlen, enthält nur Aussagen, die ohne inneren Zusammenhang angesammelt wurden. Es gibt normalerweise weder Rechtfertigungszusammenhänge noch Widersprüchlichkeit darin, so daß die Rede von einem System von Meinungen eigentlich verfehlt ist. Daß unter den Meinungen des Superempiristen keine Widersprüche auftreten, ergibt sich schon daraus, daß die Beobachtungen nacheinander erfolgen und die entsprechenden Beobachtungsüberzeugungen daher genaugenommen mit einem Zeitindex zu versehen sind. Da sie auch nur Auskunft über den jeweiligen Zeitpunkt und nicht über andere geben, können sie sich strenggenommen nicht widersprechen. Selbst Aussagen, wie die oben angeführten, die sich intuitiv widersprechen, sind normalerweise nur als widersprüchlich mit Hilfe allgemeinerer Annahmen, etwa über eine gewisse Kontinuität in der Welt, auszuzeichnen.3 Das ist ein schlichter, aber dennoch grundlegender Befund, den man einmal festhalten sollte. Inferentielle Zusammenhänge in unseren Überzeugungssystemen, auch wenn es nur um solche für Beobachtungsaussagen untereinander geht, bedürfen der Vermittlung durch allgemeinere Aussagen oder Theorien. Wie sehr wir auf Theorien angewiesen sind, bemerken wir meist nicht, denn die stehen in jedem normalen Meinungssystem selbstverständlich zur Verfügung. Unsere Meinungssysteme sind tatsächlich ganz anders beschaffen als die des Superempiristen. Wir sind sogar auf kleine Theorien angewiesen, damit die Wörter, mit denen wir unsere Überzeugungen ausdrücken, Bedeutung besitzen. Wenn ich über Autos oder Bäume spreche, gehören zur Bedeutung dieser Begriffe immer bestimmte Annahmen über diese Gegenstände. Wenn es mich nicht beunruhigt, daß Objekte wie Bäume kleiner als ein tausendstel Millimeter und nur auf anderen Planeten zu finden sein sollen und ich sie darüber hinaus nicht mit bestimmten Wahrnehmungen in Beziehung bringen kann, muß man mir vorwerfen, ich hätte diese Begriffe einfach nicht verstanden. (Die Geschichte läßt sich natürlich leicht in dieser Richtung weiter fuhren, wenn einem die bisherigen Ungeheuerlichkeiten für die Schlußfolgerung noch nicht ausreichen.) Putnam (1979, 64ff) nennt entsprechende Minitheorien, über die ein kompetenter Muttersprachler für jeden Begriff seiner Sprache verfügen muß, die Stereotype, die wir mit einem Begriff verbinden.4 Das zeigt, daß das Beispiel des Superempiristen nicht nur psycho-

138

IV Kohärenz

logisch unrealistisch ist, sondern fast unverständlich wirkt, weil selbst ein Superempirist schon auf Minitheorien angewiesen ist, damit seine Meinungen überhaupt semantischen Gehalt aufweisen. Wichtig ist noch der Hinweis, daß die Minitheorie, die zur Bedeutung eines Begriffs gehört, keineswegs wahr sein muß, weshalb wir nicht versuchen sollten, die Putnamschen Stereotypen erkenntnistheoretisch zu strapazieren. Es lassen sich genügend Beispiele angeben, für die sie falsch sind. Darunter fällt auch das von Philosophen gern als Beispiel für einen analytischen Satz angeführte „Gold ist gelb". Das Metall Gold ist in reiner Form eher weiß und nur die Kupferbeimischungen besonders im Schmuckgold lassen es gelb erscheinen, worauf Putnam (1979, 69) hinweist. Aber abgesehen von ihren wichtigen Aufgaben zur Bedeutungskonstitution, benötigen wir zumindest Minitheorien, damit es irgendwelche inferentiellen Beziehungen zwischen unseren Überzeugungen geben kann. Sie sind daher in jedem Fall erforderlich, um Kohärenz in einem Überzeugungssystem zu erzeugen. Man könnte in Analogie zu Hume, der die Kausalität als „the cement of the universe" bezeichnet hat, sagen, die Theorien sind „the cement of belief'. Sie sind das, was unsere Meinungen zu einem Netz oder System von Überzeugungen zusammenfügt.

3. Sind unsere Schlüsse deduktiv? Ein idealisiertes Vorbild für inferentielle Beziehungen sind logische Deduktionen. In den konkreten Beispielen typischer Rechtfertigungen und Begründungen, die wir betrachtet haben und noch untersuchen werden, spielen (logisch) deduktive Schlüsse jedoch keine so offensichtliche Rolle. Diese Rechtfertigungen bewegen sich alle unterhalb der Schlüssigkeit einer logischen Herleitung. Das ist der intuitive Hintergrund der Behauptung Harmans (1973, 163ff), daß das Bild von inferentiellen Rechtfertigungen als Beweisen im logisch strengen Sinn abzulehnen ist. Harman (1986, 11 ff) versucht sogar zu zeigen, daß selbst die Forderung nach logischer Konsistenz unseres Meinungssystems und andere grundlegende Forderungen der Logik nicht als unbedingte Forderungen für unser Meinungssystem betrachtet werden sollten. So weit möchte ich Harman nicht folgen. Seine Beispiele dafür sind auch gewiß nicht überzeugend, sondern der Logik kommt sicherlich die wichtige Aufgabe zu, einen Rahmen abzustecken, an den sich Rechtfertigungen und Begründungen zu halten haben.5 Allerdings hat Harman Recht, daß das Vorbild deduktiver Argumente in der Philosophie zu oft den Status eines paradigmatischen Schlußverfahrens eingenommen hat, an dem sich alle Inferenzen zu orientieren haben; das häufig nur noch durch die Berücksichtigung von Wahrscheinlichkeiten ergänzt wird. Für epistemische Begründungen trifft diese Bild kaum zu. Wir sind auf der Suche nach Wahrheitsindikatoren, also nach Indizien dafür, daß eine bestimmte Überzeugung wahr ist. Deduktionen können zwar ideale Wahrheitsindikatoren darstellen - wenn unsere Prämissen wahr sind, garantieren sie schließlich die Wahrheit der Konklusionen logischer Schlüsse - aber das ist keineswegs der typische Fall auf den man bei der Suche nach epistemischen Rechtfertigungen abzielt. Deduktionen führen uns nämlich nicht aus dem heraus, was wir bereits wissen,

A. Bestandteile von Kohärenz

139

sie sind nicht gehaltsvermehrend. Epistemische Rechtfertigungen sind dagegen typischerweise dazu gedacht, unter Inkaufnahme eines größeren Irtumsrisikos einen echten Zugewinn an Erkenntnissen zu erreichen. Wir benötigen induktive Schlußformen z. B., um anhand einzelner Beobachtungen allgemeinere Hypothesen oder Theorien zu rechtfertigen. Auch viele Fälle, die wir umgangssprachlich als zwingende Schlußfolgerungen oder sogar Deduktionen bezeichnen, sind tatsächlich Inferenzen eines anderen Typs. Schauen wir uns dazu ein bekanntes Vorbild für Schlußfolgerungen aus der Literatur an: Sherlock Holmes behauptet manchmal, den Täter eines Verbrechens anhand von logischen Schlußfolgerungen zu ermitteln. Ein einfaches Beispiel aus seiner Fallsammlung soll dazu dienen, die Art der von ihm vorgenommen Inferenz genauer zu bestimmen. In „A Case of Identity" (Doyle 1986, 251 ff) kommt eine junge Dame namens Mary Sutherland zu Sherlock Holmes und bittet diesen, ihren kurz vor der Hochzeit verschwundenen Bräutigam Hosmer Angel für sie zu suchen. Sie berichtet Holmes, wie sie ihn vor nicht allzu langer Zeit kennengelernt hat, sie beide heiraten wollten, er aber kurz vor der Trauung auf unerklärliche Weise verschwunden ist. Im Verlaufe ihrer Erzählung nennt sie einige weitere Fakten, die Holmes sofort erkennen lassen, was sich zugetragen hat. Einige der für seine Schlußfolgerung bedeutsamen Tatsachen, die sie entsprechend schildert, möchte ich in übersichtlicher Form auflisten: (1) Mary Sutherland lebt bei ihren Eltern und unterstützt diese, solange sie noch keinen Mann gefunden hat, mit Hilfe der kleinen aber ansehnlichen Pension, die sie aus der Erbschaft eines verstorbenen Onkels erhält. (2) Ihr neuer Stiefvater Mr. Windibank, der 15 Jahre jünger ist als ihre Mutter, möchte nicht, daß sie ausgeht. (3) Als ihr Stiefvater in Frankreich ist, nutzt sie die Gelegenheit auszugehen und lernt Hosmer Angel kennen und schätzen. (4) Ihr Stiefvater möchte auch weiterhin nicht, daß sie ihn mit nach Hause bringt. (5) Als er wieder nach Frankreich reist, trifft sie sich wieder mit Hosmer Angel, und sie verabreden zu heiraten, noch bevor ihr Vater zurückkommt. (6) Ihre Briefe an Hosmer Angel schickt sie, auf seinen Wunsch hin, immer postlagernd. (7) Hosmer Angel ist überhaupt ein scheuer Mann, der sich kaum im Hellen mit ihr zeigt, und häufig eine Sonnenbrille trägt. (8) Er schreibt ihr immer auf einer Schreibmaschine. (9) Sie muß ihm feierlich schwören, immer zu ihm zu stehen, was auch passieren mag. (10) Um ihren Stiefvater nicht zu hintergehen, schreibt sie ihrem Stiefvater nach Frankreich über ihre bevorstehende Heirat, aber der Brief kommt unverrichteter Dinge zurück. (11) Ihre Mutter bittet sie, nichts von der geplatzten Hochzeit verlauten zu lassen, und ihre Eltern wollen auch nicht zur Polizei gehen, um Hosmer Angel suchen zu lassen.

140

IV Kohärenz

Diese elf Fakten nennt Miss Sutherland eingebunden in eine ausfuhrlichere Erzählung Sherlock Holmes und dieser verbindet sie sofort, obwohl viele zuerst recht zusammenhanglos wirken, durch das Einbringen einer Hypothese zu einer zusammenhängenden Geschichte. Er schließt, (H) Hosmer Angel und der Stiefvater Mr. Windibank seien ein und dieselbe Person, und (Hi) daß Mr. Windibank Miss Sutherland mit der aufgeführten Komödie davon abhalten wollte, sich in einen anderen Mann zu verlieben und dann das Haus ihrer Eltern zu verlassen. Mit dieser Annahme lassen sich die Fakten, die uns zunächst rätselhaft erschienen sind, entweder erklären, oder sie spielen eine Rolle in bestimmten Erklärungen, die ihnen einen Sinn verleihen. Gerade die überraschende Annahme (H) stiftet den Zusammenhang für eine Menge von anscheinend isolierten Fakten, während (Hi) eine Hilfsannahme ist, die auf der naheliegenden Vermutung beruht, daß die Eltern von Miss Sutherland gerne weiterhin in den Genuß ihres Geldes kommen möchten. (1) erklärt zunächst, wieso der Stiefvater den Wunsch (Hi) haben kann, daß sie weiter zu Hause wohnt. Dieser Wunsch erklärt, die Tatsache (2). (3) und (5) erklären zumindest zum Teil, wieso (H) überhaupt vorliegen kann, und (H) erklärt seinerseits (4). (H) erklärt auch (6), denn Hosmer Angel hat keine eigene Adresse, die er Miss Sutherland nennen könnte. Ebenso erklärt (H) (7), (8) und (11) dadurch, daß Hosmer Angel die Entdeckung seiner wahren Identität fürchtet. Weiterhin erklärt (H) (9) oder macht es jedenfalls verständlich, warum Angel sich von ihr Treue schwören läßt, denn nur so kann er sein Ziel, Miss Sutherland im Hause zu behalten, für längere Zeit verwirklichen. Schließlich wird auch (10) durch (H) erklärt, denn natürlich kann Mr Windibank alias Hosmer Angel nicht an zwei Orten zugleich sein. Sherlock Holmes überprüft seine Annahme (H) durch einen Briefwechsel mit Mr. Windibank, der ergibt, daß (12) die Briefe von Windibank und Angel auf derselben Maschine geschrieben wurden. Mit diesem zwölften Faktum ist für ihn die Schlußfolgerung (H) zwingend und auch der Leser hält den Fall gegen Mr. Windibank für wasserdicht. Aber für den Logiker ist klar - und das bedarf wohl keiner weiteren Ausführungen - , daß Sherlock Holmes in dieser Geschichte seine grauen Zellen nicht für einen logischen Schluß in Gang setzt, auch wenn man umgangssprachlich leichtfertig so redet. Und das ist in Sherlock Holmes anderen Fällen ganz ähnlich. Sein Schlußverfahren ist natürlich wiederum ein „Schluß auf die beste Erklärung" (SBE) oder eine „Abduktion", was ich mit einer recht liberalen Auffassung von „Erklärung" verbinde, die später zu präzisieren sein wird. Dieses Schlußverfahren bildet mit anderen Erklärungszusammenhängen die meisten und wichtigsten inferentiellen Beziehungen in unserem Überzeugungssystem. Ehe ich anhand weiterer Beispiele belegen kann, welch große Bedeutung der Abduktion in unserer Rechtfertigungspraxis zukommt, möchte ich das Verfahren in Form eines simplen Schemas vorstellen:

A. Bestandteile von Kohärenz

141

Schluß auf die beste Erklärung (Abduktion) - E,,..., En, sind Tatsachen, die einer Erklärung bedürfen - Die Annahme H erklärt Ei,..., En besser als alle alternativen Annahmen Also: H Das Schlußschema bedarf noch einiger Erläuterungen: Die Tatsachen Ej sind die Prämissen des Schemas; ebenso die Voraussetzung, daß sie der Erklärung bedürfen. Das ist immer vor unserem Hintergrundwissen zu beurteilen, worauf ich im Rahmen der Ausarbeitung einer Erklärungstheorie noch eingehen werde. Vor unserem Hintergrundwissen ist auch die zweite Prämisse zu verstehen. Welche Alternativen es zu H gibt und wie gut die von ihnen erbrachten Erklärungen sind, ist immer auf unseren jeweiligen epistemischen Zustand zu relativieren, denn eine Bezugnahme auf uns nicht zugängliche Alternativerklärungen würde die Forderung des Internalismus verletzen.6 Tatsächlich lassen sich immer einige alternative Erklärungen finden, denn wir können zur Not sogar auf skeptische Erklärungen zurückgreifen, aber in einigen Fällen können wir trotzdem aufgrund weniger Daten schließen, weil es keine ernstzunehmenden Konkurrenten zu einer bestimmten Erklärung gibt. Wie gut die Abduktion unsere tatsächlich akzeptierten Schlüsse zu beschreiben gestattet, soll in den folgenden Überlegungen erneut belegt werden. Weitere Zusammenhänge und Beispiele findet man dazu auch in Lipton (1991), bei dem die Abduktion ähnlich verstanden wird wie hier, allerdings um eine andere Erklärungstheorie ergänzt und nicht in eine umfassende Kohärenztheorie eingebettet wird.7 Schauen wir noch einmal auf einige Beispiele: Sherlock Holmes Vorgehen im oberen Fall war zwar eine recht idealisierte Form von Abduktion, aber sie macht durchaus plausibel, daß kriminalistische Begründungen für die Täterschaft einer Person, die sich auf Indizien stützen müssen, typischerweise die Form von Schlüssen auf die beste Erklärung annehmen. Wir kennen sie aus Kriminalromanen oder vielleicht sogar aus eigenen Überlegungen. Vorgetragen werden sie etwa vor Gericht, wenn der Staatsanwalt seine Indizien nennt: Hans hatte ein Motiv Fritz umzubringen, weil Fritz ihm seine Freundin ausgespannt hat; Fritz ist ermordet worden; Hans hat für die Tatzeit kein Alibi; neben dem Ermordeten findet sich ein Taschentuch von Hans; Hans wußte schon, bevor die Polizei es ihm kundtat, daß Fritz Tod war; auf der Uhr von Fritz sind noch Fingerabdrücke von Hans; Hans behauptet, Fritz nie besucht zu haben; usw. Dann schließt der Staatsanwalt: Also hat Hans den Fritz umgebracht, denn anders sind die genannten Fakten nicht zu erklären. Das ist eine typische Instanz des Schlusses auf die beste Erklärung, und der Verteidiger wird sich neben juristischen Winkelzügen und dem etwaigem Bestreiten einiger Prämissen des Schlusses - hier also den Indizien - bemühen, den Schluß zu entkräften. Zu diesem Zweck kann er alternative Erklärungen der Fakten vorschlagen, die genauso gut sind wie die Erklärung des Staatsanwaltes oder doch zumindest so gut, Zweifel daran zu wecken, die Erklärung des Staatsanwaltes für die Indizien sei unzweifelhaft besser als alle Alternativen. Er könnte vielleicht Margot ins Spiel bringen, die sowohl

142

IV Kohärenz

Fritz wie Hans haßt, auch kein Alibi hat, noch im Besitz eines Taschentuchs von Hans war und sich von Fritz eine Uhr geliehen hatte, die sie Hans gezeigt und dabei in die Hand gedrückt hat. Diese Fakten legen eine alternative Erklärung nahe, die den Status der Erklärung des Staatsanwaltes als beste Erklärung hinreichend erschüttern könnte, daß sich das Gericht entsprechend dem Grundsatz „in dubio pro reo" zu einem Freispruch entschließen könnte. Damit wir von den Indizien per Abduktion auf den Täter schließen können, ist im Sherlock Holmes Fall wie auch im zweiten Fall eine ganze Menge an implizitem Hintergrundwissen erforderlich. Um den Schluß des Staatsanwalts ziehen zu können, daß die beste Erklärung für unsere Indizien die ist, daß Hans den Fritz umgebracht hat, benötigen wir zunächst einmal Kenntnisse aus der Common Sense Psychologie. Wir müssen wissen, daß Hans vermutlich mit Eifersucht auf den Wechsel seiner Freundin zu Fritz reagiert hat und daß das für bestimmte Persönlichkeiten zu einem Haß führen und sogar zu einem Motiv für einen Mord anwachsen kann. Außerdem müssen wir uns darauf verlassen, daß Fingerabdrücke eindeutig eine Person kennzeichnen, daß Hellsehen nicht möglich ist u.v.m. Das ist der andere Bereich, an dem der Verteidiger ansetzen kann. Wenn er nachweisen kann, daß die Erklärung des Staatsanwaltes nicht so gut ist, wie es auf den ersten Blick scheint, weil sie sich auf unplausible Hintergrundannahmen stützen muß, kann er damit ebenfalls den Schluß auf die beste Erklärung unterminieren. Wird in der Verhandlung deutlich, daß Hans der Wechsel seiner Freundin vollkommen gleichgültig war (vielleicht weil er selbst schon eine andere hatte), stellt die Anklageschrift des Staatsanwaltes keine so gute Erklärung der Indizien mehr dar. Es bleiben plötzlich zu viele unerklärte Fakten übrig. Warum sollte Hans dann noch Fritz gehaßt haben? Wir sehen an diesem Beispiel auch, daß die erklärende Hypothese des Staatsanwaltes keineswegs eine einzelne Annahme darstellt, sondern eine komplette Geschichte, deren einzelne Teile sowohl erklärenden Gehalt haben sollen, als auch selbst erklärbar sein müssen, sonst erscheint sie uns nicht mehr überzeugend. Zu dieser Geschichte gehören letztlich Annahmen über den Gemütszustand von Hans, über seinen Griff nach der Uhr von Fritz, über seine potentielle Gewaltbereitschaft usf. Jede einzelne sollte Erklärungswert für die Indizien besitzen, aber auch selbst wieder eine Erklärung besitzen. Wir stoßen auf eine enge Vernetzung von Erklärungsbeziehungen zwischen den Teilen der anklagenden Geschichte, den bekannten Indizien und unserem übrigen Hintergrundwissen. Analog sieht es auch in unserem Sherlock Holmes Fall aus. Einige der Indizien (etwa 3, 4, 5 und 7) sind wesentlich für die Erklärung, wie es überhaupt möglich war, daß Hosmer Angel und Mr. Windibank ein und dieselbe Person sind, ohne daß Miß Sutherland das bemerkt hat. Wenn wir dafür keine Erklärung besäßen, bräche Sherlock Holmes schöne Lösung schnell in sich zusammen. Umgekehrt erklärt seine Hypothese H, dann einiges von dem auffälligen (paßt nicht gut in unser Hintergrundwissen) und daher erklärungsbedürftigen Verhalten von Mr. Windibank und Hosmer Angel. Das angegebene einfache Schema der Abduktion abstrahiert also von einigen wichtigen Zusammenhängen, die erst in einer umfassenderen Kohärenztheorie berücksichtigt werden. Nur diese Einbettung ermöglicht ein angemessenes Verständnis unserer Beurtei-

A. Bestandteile von Kohärenz

143

lung von Abduktionen. Diese holistischen Zusammenhänge erschweren es uns auch, alle Bestimmungsstücke der Beurteilung tatsächlich auf den Tisch zu legen. Doch davon später mehr. Obwohl es sich in den Beispielen um stark vereinfachte fiktive Fälle handelt, wird die Überzeugungskraft des Schlusses auf die beste Erklärung jeweils deutlich. Wie einschlägig solche Kohärenzüberlegungen für reale Kriminalfälle sein können, haben Untersuchungen wie die von Thagard (1989, 450ff) gezeigt, in denen Thagard sein Programm ECHO, das eine konnektionistische Implementierung seiner Kohärenztheorie (s. IV.D.3) darstellt, auf faktische Strafverfahren um Tötungsdelikte anwandte.8 Abduktionen finden sich aber natürlich nicht nur in der Kriminalistik und in formalisierten Situationen, in denen wir um Begründungen unserer Behauptungen gebeten werden, sondern auch immer wieder in Alltagsschlüssen. Dazu noch ein Beispiel: Wenn ich auf jemanden warte, der sich verspätet, stelle ich wahrscheinlich Vermutungen an, wieso er nicht rechtzeitig kommt. Dazu werde ich aus meinem relevanten Hintergrundwissen die nötigen Zusatzinformationen heranziehen wie: Er wollte mit dem Auto kommen; das springt oft nicht an; er glaubt trotzdem immer wieder, daß er es anbekommt; er bemüht sich eigentlich pünktlich zu sein,... Sollte ich viele Überzeugungen dieser Art und keine echten Alternativen, wie, daß er öfter verschläft, haben, werde ich annehmen, daß er zwar rechtzeitig aufgebrochen ist, aber sein Auto nicht anbekommen hat. Vor meinem Hintergrundwissen scheint das die beste Erklärung zu sein. In ähnlicher Form lassen sich auch unsere Überlegungen beschreiben, wenn ich jemand eine Überzeugung oder einen Wunsch zuschreibe. Über Wahrnehmungen zugänglich ist mir nur sein Verhalten. Ich sehe, für welches Auto oder Essen er sich entscheidet; er sagt mir, daß er keinen Pudding mag; ich berücksichtige, ob er irgendwelche Gründe haben sollte, mir seine Vorlieben zu verschweigen und so fort. Wir alle wissen, daß Beobachtungen der genannten Art, aber auch unsere weiteren Hintergrundannahmen über diese Person in die Beurteilung, welche Überzeugungen und Wünsche sie hat, einfließen können. Nicht ganz so einfach ist es schon zu sagen, welche Theorie von Personen und ihrem Verhalten wir dabei benutzen. Philosophen neigen dazu, Handlungen anhand einer Theorie rationalen Verhaltens erklären zu wollen. Man wird der Person dann solche Überzeugungen und Wünsche zuschreiben, die ihr Verhalten als möglichst rational erscheinen lassen. Einige Autoren (z. B. Davidson) halten dieses Vorgehen für geradezu konstitutiv für das Zuschreiben von intentionalen Zuständen. Nach ihrer Ansicht kann man das Verhalten anderer Menschen nur dann anhand von Wünschen und Überzeugungen verstehen, wenn wir sie mit Hilfe des „principles of charity" interpretieren, wonach man ihnen möglichst konsistente und möglichst viele wahre Überzeugungen zuschreiben muß.9 Diese Festlegung auf eine Rationalisierung von Verhalten scheint mir eher auf einem Mangel an anderen erklärenden Theorien zu beruhen, aber deshalb noch keineswegs konstitutiv für Verhaltenserklärungen zu sein. Wenn wir mehr über die betreffende Person wissen, können wir uns vielleicht auf Verhaltensregularitäten stützen, die zeigen, daß er in bestimmten Situationen leider immer wieder irrational handelt. Natürlich

144

IV Kohärenz

können wir ihm dann jeweils Wünsche und Überzeugungen zuschreiben, die auch dieses scheinbar irrationale Verhalten wieder rationalisieren würden. Doch das mag nicht kohärent zu anderen Teilen unseres Hintergrundwissens passen, die normalerweise bestimmte Einschränkungen für solche Zuschreibungen vorsehen; z. B., daß die Person auf Befragen hin diese Überzeugungen und Wünsche auch formulieren kann. Außerdem haben derartige Erklärungen wahrscheinlich nur noch einen geringen empirischen Gehalt, wenn wir so willfährig mentale Zustände zuschreiben, wie wir sie gerade benötigen. Darunter leidet sehr stark ihre erklärende Kraft (s. dazu Kap. IX).10 Aber welchen Theorien wir auch anhängen, wir werden von der Struktur her doch ähnlich vorgehen, wenn wir jemandem intentionale Zustände zuschreiben. Wir wählen die Zustände aus, die sein Verhalten im Lichte unserer Theorie menschlicher Handlungsweisen und unserer anderen Hintergrundannahmen über ihn am besten erklären. In den Wissenschaften und in der Wissenschaftstheorie ist die rechtfertigende Wirkung von Abduktionen längst ein anerkanntes Phänomen. Wissenschaftliche Theorien werden immer wieder anhand ihrer Erklärungskraft eingeschätzt. Daß uns Theorien Erklärungen für bestimmte Phänomene bieten, wird als ein wesentliches Ziel wissenschaftlicher Theorienbildung - wenn nicht sogar als das Hauptziel - angesehen. Wir bevorzugen eine Theorie gegenüber einer anderen, wenn sie uns bessere Erklärungen anzubieten hat. Diese Suche nach Theorien mit großer Erklärungskraft findet selbst ihre Erklärung zumindest zum Teil darin, daß wir Abduktionen als rechtfertigend betrachten und daher die Erklärungskraft einer Theorie als einen wichtigen Indikator für ihre Wahrheit nehmen. Auch bescheidenere Schlüsse als die auf ganze Theorien werden in den Wissenschaften vornehmlich anhand von Abduktionen vorgenommen. Dazu lassen sich zahlreiche Beispiele finden. Millikan schließt unter anderem aus der Tatsache, daß sich die gemessenen elektrischen Ladungen in seinen Experimenten alle als ganzzahlige Vielfache einer recht kleinen Ladung ergeben, daß es sich dabei um die Elementarladung handeln muß.11 Aus den Interferenzerscheinungen des Lichts schließen wir, daß es sich um ein Wellenphänomen handeln muß, aus Fossilienfunden auf die Evolutionstheorie usf. Das sind jeweils typische Beispiele dafür, daß wir nach den Hypothesen suchen, die unsere Beobachtungen am besten erklären. In der Einleitung hatte ich auch schon Beispiele aus der Philosophie beigebracht, die belegen, daß Abduktionen keineswegs auf die Naturwissenschaften beschränkt sind.

4. Abduktion und Induktion Natürlich lassen sich viele schöne Beispiele für Abduktionen finden, aber sind die nicht vielleicht auch durch andere Schlußverfahren angemessen zu beschreiben? Werfen wir einen Blick auf ein typisches Konkurrenzprodukt, das philosophiehistorisch sicher die bedeutsamste Rolle gespielt hat, den Induktionsschluß. Von Aristoteles, für den Induktion überwiegend in enumerativer Induktion bestand, über Francis Bacon, der mit seiner Ausschließungsmethode subtilere Regeln aufstellte und zufällige Korrelationen auszuschließen hoffte, über Mills Diskussionen der Induktion bis hin zu den logischen Empi-

A. Bestandteile von Kohärenz

145

risten und ihren Nachfolgern, die sogar eine Logik der Induktion aufgestellt haben, stand der Induktionsschluß im Zentrum des Interesses an den Beziehungen zwischen Theorie und Einzeltatsachen. Da auch die Abduktion ein Induktionsschluß im weiteren Sinn des Wortes ist, halte ich nun natürlich hauptsächlich nach alternativen Induktionsverfahren etwa im Sinne der konservativen oder enumerativen Induktion Ausschau. Induktionsschlüsse sind bekanntlich nicht beschränkt auf die Wissenschaften, sondern typische Inferenzverfahren unseres Alltags. Behavioristen zeigten den engen Zusammenhang zu unserem Lernverhalten. Aus der Erkenntnis, daß in Einzelfällen Bier unseren Durst auf angenehme Weise gelöscht hat, ziehen wir schon bald den Schluß, daß das auch in Zukunft der Fall sein wird. Den Besuch bestimmter Vorlesungen stufen wir schnell als langweilig ein etc. Vermutlich neigen wir geradezu zu vorschnellen Induktionsschlüssen, was auch dazu führt, daß wir manchmal sogar bereit sind, anhand nur weniger Daten und Einzelfälle alle Ausländer als unangenehm zu klassifizieren oder andere Vorurteile zu entwickeln. Das Wort „Vorurteil" zeigt hier schon, daß wir diesen Prozeß bei Reflektion als epistemisch minderwertig erkennen. Die Beispiellisten kann jeder schnell verlängern. In seiner klassischen Fassung gehen Induktivisten davon aus, daß wir aus den Beobachtungen durch eine Extrapolation der Form „more of the same" zu allgemeinen Tatsachen gelangen können, während Vertreter der Abduktion phantasievoll erdachte Hypothesen schon bei der Datenerhebung für wesentlich halten. Stelle ich fest, daß mein Kühlschrank nicht mehr läuft, vermute ich zunächst einen Stromausfall, als möglicherweise beste Erklärung, aber wenn ich dann sehe, daß mein elektrischer Wecker, der an demselben Stromkreis hängt, trotzdem funktioniert, muß ich nach anderen Erklärungen suchen (Beispiel von Lipton 1991, 67f). Dieses Vorgehen entspricht überhaupt nicht mehr der konservativen Induktion, von der ich nun zeigen möchte, daß sich auch ihre intendierten Anwendungen am ehesten als Schlüsse auf die beste Erklärung verstehen lassen.12 Das Prinzip der aufzählenden Induktion, das für diese Fälle vorgeschlagen wurde, kann man schematisch folgendermaßen darstellen: Prinzip der aufzählenden Induktion 1)Fa! ->Ga] 2) Fa2 -> Ga2 Also: 3) Vx (Fx

Gx)

Hierbei werden mit F und G bestimmte Eigenschaften bezeichnet und die a; bezeichnen die untersuchten Gegenstände. Das obige Beispiel des Biertrinkers läßt sich damit so beschreiben: F steht für die Eigenschaft, Bier zu sein, und G für die, gut zu schmecken. Die aj bezeichnen die einzelnen getrunkenen Biere, und wir schließen dann: Bier schmeckt gut. Doch auch das ist eigentlich nichts anderes als eine Form von Abduktion. Die beste Erklärung für all unsere Einzelbeobachtungen von gut schmeckenden Bieren, ist eben die, daß Bier ein gutschmeckendes Getränk ist. Beide Beschreibungen, die des

146

IV Kohärenz

Schlusses auf die beste Erklärung und die des aufzählenden Induktionsschlusses, scheinen für diesen trivialen Fall unseren Schluß angemessen darzustellen. Viele erhoffte Anwendungen eines Induktionsverfahrens sind jedoch nicht von dieser ausgesprochen einfachen Gestalt. Das zeigte sich bereits in der Geschichte der Ausarbeitung induktiver Methoden durch Bacon und Mill. Für Bacon ist der „Fall der Entscheidung'''' einer der wichtigsten seiner 27 Prärogativ Fälle (s. dazu Losee 1977, 68). Er gibt uns dazu das folgende Beispiel an: Für das Auftreten von Ebbe und Flut werden zwei Hypothesen vorgeschlagen. Die Waschschüsselhypothese, nach der das Wasser wie in einer hin- und her bewegten Waschschüssel hin- und herschwappt, und die Hypothese, daß der gesamte Wasserspiegel steigt und fällt. Welche der Hypothesen nun richtig sei, läßt sich seiner Meinung nach entscheiden, indem man beobachtet, ob die Flut an gegenüberliegenden Küsten gleichzeitig eintritt oder nicht. Man kommt in dieser Frage hingegen nicht weiter, indem man einfach willkürlich weitere Fälle von Ebbe und Flut betrachtet, sondern man muß speziell die Daten sammeln, für die ein Unterschied zwischen den beiden alternativen Hypothesen und ihren Erklärungen gegeben ist. Wir sind wiederum nicht so sehr an „more of the same" interessiert, sondern hauptsächlich an den Daten, die relevant für unsere Auswahl der besten Erklärung sind. Hier haben wir alle typischen Elemente des Schlusses auf die beste Erklärung, die wir schon bei Sherlock Holmes fanden, und die Struktur der einfachen Induktion ist kaum noch erkennbar. Die Entscheidung fällt in diesem Beispiel eindeutig zwischen konkurrierenden Erklärungshypothesen. Lipton (1991, 68) spricht von einer „explanatory detour", einem Umweg über Theorien, um die erkenntnistheoretisch notwendigen induktiven Zusammenhänge herzustellen. Auch Mill (s. Losee 1977, 146) verlangte für die volle Verifikation einer Hypothese, daß sowohl ihre deduktiven Folgerungen mit den Beobachtungen übereinstimmen, wie auch, daß die zu erklärenden Tatsachen aus keiner anderen Hypothese folgen. Die Ausarbeitung von Theorien der Induktion folgte also schon bald Wegen (und auch bei Aristoteles lassen sich schon Ansätze dafür finden), die viel besser in das Schema der Abduktion passen als in das ursprüngliche induktive Schema. Whewell (1967, 62) war wohl einer der ersten, die das am deutlichsten aussprachen. Er hatte bereits eine interessante Theorie über diese Form von Induktionsschlüssen entwickelt hat, die vor allem „consilience" von den erklärenden Hypothesen verlangte. Wir sind jedenfalls auf bestimmte Elemente unseres Hintergrundwissens bei unseren induktiven Schlüssen unwillkürlich angewiesen. Deshalb kommt uns ein Optimist, der vom 40. Stock eines Hochhauses springt und nach jedem Stock sagt: „Es geht doch ganz prima", trotz der tragischen Umstände eher lächerlich vor. So schlicht - im Sinne von „more of the same" - darf man das Induktionsverfahren eben nicht anwenden. Unser Wissen um solche Fälle sagt uns, daß trotz 20 Stockwerken erfolgreichen Flugs der Sprung kein gutes Ende nehmen kann. Der Proponent der Abduktion kann diesen Fall denn auch leicht aufklären: In unserem Hintergrundwissen gibt es eine alternative Erklärung, die wir für besser halten, nämlich die, daß jeder derartige Sturz zwar eine bestimmte Zahl von Stockwerken „gut geht", aber immer ein ungutes Ende haben muß. 13

A. Bestandteile von Kohärenz

147

Welch große Probleme eine induktive Theorie der Bestätigung zu bewältigen hat, wurde nicht nur durch Humes skeptische Frage, wie sich ein Induktionsschluß denn rechtfertigen läßt, deutlich. Hempels Rabenparadox wirft zusätzlich die Frage auf, welche Beobachtungen für eine induktive Bestätigung mitzuzählen sind (s. dazu Lenzen 1974, 127ff) und das Goodmansche Paradox stellte die noch grundsätzlichere Frage, welche allgemeine Hypothese durch unsere Beobachtungen überhaupt gestützt wird. Goodman (1988) zeigt unter dem Stichwort „das neue Rätsel der Induktion", daß sich zu vorgegebenen Daten, zu jeder Hypothese, die zu den Daten paßt, eine Alternativhypothese angeben läßt, die ebenfalls zu den Daten paßt. Um zwischen diesen Hypothesen eine Entscheidung herbeizuführen, sind wir auf unser Hintergrundwissen angewiesen, nach Goodman auf die Projizierbarkeit der in den Hypothesen verwendeten Prädikate. Diese Entscheidung ist keine Entscheidung der orthodoxen Konzeption von Induktion mehr, sondern eine Abduktion, die eine Hypothese deshalb als bessere Erklärung der Daten auszeichnet, weil sie von ihren Prädikaten her besser in unser Meinungssystem einzubetten ist. Sie fuhrt daher zu einem kohärenteren System als ihre Goodmansche Konkurrentin. Ein weiteres Phänomen, auf das schon Hume (1985, 131) hingewiesen hat, zeigt darüber hinaus noch, daß die aufzählende Induktion kein gutes Modell der Theorienbestätigung anzubieten hat. In vielen Fällen begnügen wir uns schon mit einer einzelnen Einsetzungsinstanz einer Hypothese, um sie zu akzeptieren. Wir verlangen dann nicht nach weiteren Tests, was für einen aufzählenden Induktivisten doch selbstverständlich sein sollte. Habe ich ein Auto einmal angelassen, glaube ich, daß der Motor funktionstüchtig ist. (Das kann natürlich keine Langzeitprognosen stützen). Daß oft so wenige Instanzen genügen, um eine Hypothese vorläufig zu akzeptieren, liegt daran, daß in unserem Hintergrundwissen zu diesem Zeitpunkt keine ernstzunehmenden Konkurrenzhypothesen verfügbar sind, die den Einzelfall ähnlich gut erklären könnten. Die epistemische Beurteilung derartiger Fälle orientiert sich nicht primär an der Anzahl der Einsetzungsfälle, sondern an dem Fehlen oder Vorhandensein plausibler alternativer Erklärungen in unserem Hintergrundwissen. Überhaupt scheint in den Beispielen nicht die Anzahl der Tests wesentlich zu sein, sondern eher schon die Variabilität der Testinstanzen, worauf ebenfalls bereits Whewell (1967, 65) hingewiesen hat. Wir würden das Auto nicht immer wieder unter denselben Bedingungen starten, sondern eher schon bei trockenem versus feuchten Wetter bei Frost oder wenn der Motor schon warmgefahren wurde usf. Nur davon können wir uns weitere aufschlußreiche Informationen versprechen. Natürlich sind in manchen Fällen auch bestimmte Stückzahlen gefragt, um eine repräsentative Stichprobe zu erhalten. Für Meinungsumfragen genügt es nicht, nur eine Person zu befragen; um die Jahresproduktion einer Autofirma auf ihre Qualität zu überprüfen, benötigt man mehr als ein Fahrzeug aus der Produktion. In solchen Fällen ist auch geradezu ein Kontinuum von konkurrierenden Hypothesen denkbar, die in einer epistemischen Einschätzung berücksichtigt werden wollen. Das ist typisch für quantitative Aussagen und ein Indiz für ihren hohen Gehalt.

148

IV Kohärenz

In den zuletzt genannten Beispielen ist die beurteilende Statistik gefragt, die ebenfalls typischerweise abduktiv vorgeht. Sie schätzt statistische Hypothesen etwa danach ein, wie wahrscheinlich sie die beobachteten Daten machen, also wie gut sie die Daten in einem intuitiven Sinn des Wortes erklären. Man schließt dann auf die Hypothese, aus einer Menge von konkurrierenden Hypothesen, die die beste Erklärung der Daten anzubieten hat, d.h. im statistischen Fall, für die die beobachteten Daten am wahrscheinlichsten sind. Mit statistischen Theorien und Verfahren der beurteilenden Statistik möchte ich mich in dieser Arbeit aber nicht weiter beschäftigen, da sie eine ganze Reihe von eigenständigen Problemen aufwerfen, die meine Untersuchung in unnötiger Weise komplizieren würden. Die angesprochenen Beispiele für Induktionsschlüsse sollten zunächst nur belegen, daß der einfache Fall der aufzählenden Induktion sich durch die Abduktion genauso gut beschreiben läßt wie durch ein Induktionsprinzip. Tatsächliche Beispiele von Hypothesenbestätigung sehen im allgemeinen aber viel komplizierter aus und zeigen insbesondere eine starke Abhängigkeit von unserem Hintergrundwissen und von dem Vorliegen alternativer Erklärungshypothesen. Die ist in einem Induktionsprinzip nicht so natürlich unterzubringen wie im Verfahren der Abduktion. In diesen Fällen zeigt der Schluß auf die beste Erklärung seine Überlegenheit gegenüber dem einfachen Induktionsschema. Eine Reihe von intendierten Anwendungsfällen des Induktionsprinzips werden besser verständlich, wenn wir sie als Schluß auf die beste Erklärung interpretieren. Die anfängliche Einfachheit des Induktionsprinzips geht in den betrachteten Beispielen und den genannten Paradoxien ebenfalls zusehends verloren. Das sind gute Gründe, das Induktionsprinzip nur als einen - wenn auch vielleicht wichtigen - Spezialfall der Abduktion zu betrachten. Dabei ist auch noch zu beachten, daß die klassische Induktion typischerweise in den Rahmen fundamentalistischer Konzeptionen von Begründung gehört, geht sie doch davon aus, daß wir zunächst die „Daten" vorgegeben haben und erst dann nach geeigneten Theorien suchen, die Verallgemeinerungen unserer Daten verkörpern. Daß man hingegen schon bei der „Datenerhebung" und Begründung von Beobachtungsaussagen auf Theorien angewiesen ist, ist eine Einsicht, die besser in die Kohärenztheorie paßt.

5. Epistemische Stützung durch Erklärungen Inferentielle Beziehungen bestehen denn auch nicht nur in der einen Richtung, vom Erklärten zum Erklärenden, sondern auch in der anderen Richtung vom Erklärenden zum Erklärten. Für eine Kohärenztheorie der Erkenntnis sollte das selbstverständlich so sein, denn Rechtfertigungsbeziehungen werden in Kohärenzkonzeptionen der Rechtfertigung üblicherweise als reziproke Beziehungen verstanden. Die rechtfertigende Wirkung von Erklärungen wird aber nicht nur von der Kohärenztheorie verlangt, sondern ist auch bereits unabhängig davon intuitiv plausibel. Relativ leicht ist das für die deduktivnomologische Erklärung erkennbar, weil Erklärungen die dem DN-Schema genügen und davon gibt es eine ganze Reihe, wie Hempel und Gefolgsleute nachweisen konnten

A. Bestandteile von Kohärenz

149

- insbesondere Deduktionen sind und daher als logische Schlüsse „ideale" Rechtfertigungen. Allerdings haben nicht alle Erklärungen, die man normalerweise so bezeichnet, bereits deduktiven Charakter,14 und Hempel spricht in solchen Fällen von unvollständigen Erklärungen. Aber auch Beispiele von unvollständigen Erklärungen wirken intuitiv rechtfertigend. Am deutlichsten wird das in den Beispielen, in denen wir berechtigte Zweifel an einer bestimmten Behauptung haben. Jemand erzählt uns z. B. von Vorgängen wie dem Gabelverbiegen des Uri Geller, die er gesehen hätte und die uns als Wunder erscheinen, oder einem Ufo, das er beobachtet zu haben glaubt. Daß er tatsächlich ein Gabelverbiegen beobachten konnte und daß es solche Vorgänge gibt, wird für uns genau in dem Moment glaubwürdiger, wo wir eine Erklärung erhalten, wie Uri Geller, nämlich etwa mit Hilfe bestimmter Chemikalien, seine „Wunder" bewerkstelligen konnte. Solange diese Geschichten sich dagegen noch nicht in unsere Vorstellung der Welt einfügen, sondern als Wunder auftreten, sind sie für uns sehr unwahrscheinlich und damit unglaubwürdig. Wenn man sie mit Hilfe einer Erklärung in unser akzeptiertes Modell der Welt integrieren kann, verlieren sie ihre anfängliche Unglaubwürdigkeit und unser Vertrauen in die Glaubwürdigkeit des Berichterstatters gewinnt im Normalfall die Oberhand. Erst dann werden wir seine Berichte akzeptieren, wenn auch vielleicht nicht seine Interpretationen und Schlußfolgerungen dazu. Gelingt es uns jedoch nicht, eine brauchbare Erklärung für ein Phänomen zu finden, kann das für uns einen guten Grund darstellen, den entsprechenden Beobachtungsbericht als einen Beobachtungs- oder Erinnerungsfehler abzulehnen. Wissenschaftler werden von Esoterikern gern als engstirnig abgestempelt, wenn sie sich nur sehr schwer von übersinnlichen Phänomenen oder der Astrologie überzeugen lassen. Doch die Wissenschaftler verfahren damit nur nach völlig korrekten epistemischen Prinzipien, die auch die Esoteriker selbst in anderen Kontexten anwenden. Das ist auch der Kern von Humes (1979, 141 ff) Argument gegen die Annahme von Wundern. Ein Wunder kann nur etwas sein, von dem wir sicher sind, daß es keine natürliche Erklärung besitzt. Geschehnisse von denen wir sicher sind, daß sie keine Erklärung besitzen, müssen aus dem Rahmen unserer Gesetze herausfallen und mit ihnen in irgendeiner Weise unverträglich sein. Damit wir etwas als Gesetz akzeptieren, hat es aber durch die Erfahrung bereits sehr gut bestätigt zu sein, und Berichte über Geschehnisse, die da nicht hineinpassen, sind ihrerseits immer viel schlechter bestätigt als die Gesetze. Sogar die Wunder, die wir selbst wahrzunehmen glauben, lassen daher in der Regel eine bessere Erklärung zu, als die, daß sich tatsächlich ein Wunder ereignet hat. Nämlich zumindest die, daß der Berichterstatter - im speziellen Fall auch wir selbst - uns geirrt haben. Humes Argument stützt sich an dieser Stelle auf den Schluß auf die beste Erklärung. Es wird die Glaubwürdigkeit alternativer Erklärungen für Wunderberichte oder eigene Wahrnehmungen vor unserem Hintergrundwissen eingeschätzt. Der Schluß, daß es sich um Berichte handelt, die tatsächlich auf ein Wunder zurückgehen, ist dabei nach Hume der Alternativerklärung, daß es sich um einen Irrtum der Wahrnehmung oder Überlieferung handelt, immer unterlegen, weil Wunder dem widersprechen

150

IV Kohärenz

müssen, was für uns einen ausgezeichneten epistemischen Status hat, nämlich Gesetzen. Seiner Meinung nach bevorzugt der Schluß auf die beste Erklärung daher immer die Annahme von Irrtümern gegenüber der von Wundern. Leider macht Hume es sich mit dieser apriorischen Argumentation gegen Wunder zu leicht. Wir werden in Abschnitt (IV. B) genauer erfahren, wie Wahrnehmungen in einer Kohärenztheorie behandelt werden, aber auf einen Punkt möchte ich schon jetzt hinweisen. Zu unseren Theorien über unsere Wahrnehmung gehört auch, daß wir uns nur unter bestimmten Bedingungen irren und dieser Irrtum ebenfalls einer konkreten Erklärung bedarf. In bestimmten Wahrnehmungssituationen sind wir uns ziemlich sicher, daß kein Irrtum vorliegt und keine Erklärung für einen Irrtum gegeben werden kann. Hier müßte der Irrtum selbst bereits als eine Art von Wunder erscheinen, das wir ebenfalls nicht zu akzeptieren bereit sind. Welches dann das größere Wunder ist, läßt sich nicht a priori entscheiden, und es ist jedenfalls nicht auszuschließen, daß wir uns in bestimmten Situationen dazu entschließen sollten, eher das beobachtete Ereignis als ein echtes Wunder zu akzeptieren, als es schlicht als Irrtum abzutun. Humes Argument weist freilich auf ein erkenntnistheoretisches Problem hin, mit dem angebliche Wunder immer zu kämpfen haben. Zum einen müssen ihre Befürworter zeigen, daß so etwas eigentlich nicht passieren kann, sonst wäre es kein Wunder; zum anderen müssen sie auch nachweisen, daß es doch passiert ist. So entsteht mit dem Akzeptieren eines Wunders jedesmal eine Inkohärenz in unseren Überzeugungen. Hume kann uns nur nicht überzeugen, daß es in allen derartigen Fällen die beste Auflösung dieser Inkohärenz ist, die Wunderberichte als Irrtümer abzutun, da wir uns auch damit eine Inkohärenz zu unseren Vorstellungen von unseren eigenen Wahrnehmungsfähigkeiten einhandeln. Nur wenn man diese Theorien über die eigenen Wahrnehmungsfähigkeiten ganz aus dem Spiel läßt - und an derartige Theorien über die Entstehung unserer Meinungen, also Theorien einer Metaebene, scheint Hume nicht gedacht zu haben - , wird sein Argument zwingend. Berücksichtigen wir sie, hängt die Frage, welche Inkohärenz letztlich größer ist, von den Einzelheiten des Falles und des Hintergrundwissens ab. Also erspart uns, so bedauerlich das sein mag, auch das Humesche Argument nicht die Untersuchung jedes Einzelfalls aufs Neue, bei dem wir mit „Wundern" in Berührung kommen. Das zeigt auch, was der Esoteriker leisten muß, will er uns von dem Vorhandensein bestimmter Phänomene überzeugen. Er muß Situationen herbeifuhren, in denen die Annahme, wir wären getäuscht worden oder hätten einen Beobachtungs- oder Interpretationsirrtum begangen, weniger gut in unser Hintergrundwissen paßt, als die Annahme dieser Phänomene. Ein bekanntes probates Mittel dazu ist die Angabe von Anweisungen, nach denen jeder diese Phänomene reproduzieren kann. Gelingt das nicht, verhalten sich die Wissenschaftler nicht nur gegenüber Kaffeesatzlesern, sondern auch gegenüber ihren Kollegen skeptisch. Das belegt z. B. der Fall der kalten Fusion. Für Beispiele von epistemischer Stützung durch Erklärung müssen wir natürlich nicht gleich Wunder bemühen. Die rechtfertigende Funktion von Erklärungen kennen wir auch aus Alltagssituationen. Sie wird dort z. B. in den Fällen deutlich, in denen wir keine Erklärung produzieren können und etwas noch nicht in unser Überzeugungs-

A. Bestandteile von Kohärenz

151

system eingebettet wurde. Dorothea berichtet uns, daß Hans 4000 DM in der Spielbank verloren hat. Da wir Hans als einen eher sparsamen und nicht besonders risikofreudigen Menschen kennen, haben wir dafür keine Erklärung, was uns zunächst an Dorotheas Erzählung zweifeln läßt. Wir fragen sie daher, wie es denn dazu kommen konnte und erwarten eine Erklärung von Hans Verhalten. Kann Dorothea nun eine glaubwürdige Erklärung produzieren, wird damit auch ihre Geschichte über Hans glaubwürdiger und zwar in dem Maße, in dem sie uns Hans Verhalten erklären kann. Sie könnte uns vielleicht erzählen, daß Hans dringend 20 000 DM für ein Auto oder ein Geschäft benötigte und keine andere legale Möglichkeit sah, an diese Summe zu kommen, als sein Glück im Spiel zu versuchen. Dieses uns allen vertraute Phänomen, daß eine bestimmte Behauptung dadurch plausibler wird, daß man weitere Fakten nennt, obwohl diese weiteren Fakten selbst keineswegs bekannt oder sicher sein müssen, demonstriert noch einmal die große epistemische Bedeutung, die wir Erklärungen beilegen. Ein Bayesianist,15 der Behauptungen anhand von Wahrscheinlichkeitsüberlegungen beurteilt, müßte sich über Beispiele dieser Art sehr erstaunt zeigen und eher in einer entgegengesetzten Richtung argumentieren.16 Dorotheas erste Behauptung war schon unwahrscheinlich, aber die Wahrscheinlichkeit für sie kann doch nicht anwachsen, wenn Dorothea ihre Geschichte durch weitere nicht sichere Behauptungen erweitert. Im Gegenteil hat die Gesamtgeschichte eine geringere Wahrscheinlichkeit, weil sie noch mehr Möglichkeiten besitzt, falsch zu sein, als Dorotheas ursprüngliche Behauptung. Der Bayesianist würde mit dieser Entgegnung aber meines Erachtens nur deutlich machen, daß wir Rechtfertigungen häufig nicht anhand einfacher Wahrscheinlichkeitseinschätzungen beurteilen. Thagard (1992, 90) nennt drei weitere Beispiele für eine bekannt rechtfertigende Wirkung von Erklärungen aus Bereichen, die er mit seinem Kohärenzprogramm namens ECHO genauer studiert hat. In einem Mordprozeß sucht man als Beweismaterial gegen den Angeklagten im allgemeinen nicht nur Indizien dafür, daß er die Tat begangen hat, sondern auch eine Erklärung, warum er die Tat begangen hat. Wenn wir nicht die geringsten Anzeichen eines Motivs erkennen können und den Angeklagten nicht für verrückt halten, läßt uns das an seiner Schuld zweifeln. Ähnlich sieht es mit der Diagnose eines Arztes aus. Sie wird glaubhafter, wenn er uns nicht nur sagen, kann, daß wir allem Anschein nach eine Leberzirrhose aufweisen, sondern er uns auch erklären kann, wie es dazu kam, und er etwa auf unseren übermäßigen Alkoholgenuß in Verbindung mit einer unbehandelten Gelbsucht verweisen kann. Das dritte Beispiel stammt aus der Wissenschaft. Die Erklärung, wie es zu einer bestimmten Entwicklung im Tierreich kommen konnte, etwa der Entwicklung der Lungen aus den Kiemen, erhöht für uns die Wahrscheinlichkeit, daß die Hypothese einer solchen Evolution wahr ist. All diese Beispiele beleuchten, wie wir mit den Berichten anderer Personen in epistemisch verantwortlicher Weise zu verfahren haben. In ähnlicher Form sollten wir dann auch die Informationen behandeln, die uns unsere Sinne vermitteln. Das heißt insbesondere, daß wir den Beobachtungsüberzeugungen mißtrauen sollten, die wie Wunder eine Art von Fremdkörper in unserem Überzeugungssystem darstellen. Wenn ich mich

152

IV Kohärenz

längere Zeit in einer leeren Wüste glaubte und plötzlich eine Oase vor mir dort auftaucht, obwohl die Wüste gerade vorher noch leer war, so habe ich allen Grund, dieser Beobachtung zu mißtrauen. Nebenbei bemerkt zeigt sich auch hier wieder eine Anwendung des Schlusses auf die beste Erklärung, denn für solche Fälle scheint die beste Erklärung zu sein, daß ich gerade halluziniere oder eine Fata Morgana sehe. Diese Annahme erklärt das Auftreten meiner Wahrnehmungen mit einer von mir akzeptierten Theorie, nach der unter bestimmten Bedingungen Halluzinationen auftreten können, während meine Beobachtung sonst in Konflikt kommt mit der Annahme, daß Oasen und andere Objekte entsprechender Größe nicht von einer Minute zur anderen auftreten können, wenn sie vorher noch nicht da waren. Es ist hoffentlich durch die Beispiele deutlich geworden, daß die Verankerung einer Aussage durch eine Erklärung, die sie in unser Meinungssystem einbettet, diese Aussage in einem gewissen Grad epistemisch rechtfertigt.17 In den Beispielen geht es dabei meist darum, bestimmten Aussagen ihre anfängliche Unplausibilität zu nehmen, die dadurch entstand, daß sie sich zunächst nicht kohärent in unser Modell unserer Welt einzufügen schienen. Der epistemische Gehalt von erklärenden inferentiellen Beziehungen erschöpfte sich aber nicht im Abbau negativer Gründe gegen eine Meinung, sondern trug in entsprechender Weise auch zur positiven Stützung bei. Eine Aussage, die im Zentrum unserer Theorien über die Welt steht, erfährt von all diesen Theorien eine gewisse Unterstützung. Wir erhalten ein System oder Netzwerk von Aussagen: Auf der einen Seite stehen die Beobachtungsüberzeugungen, die für sich allein noch völlig beziehungslos nebeneinander stehen. Auf der anderen Seite haben wir Theorien, die von den Beobachtungen mit Hilfe des Schlusses auf die beste Erklärung gestützt werden. Die Theorien können ihrerseits wieder andere Aussagen - unter anderem Beobachtungsaussagen - rechtfertigen, indem sie sie erklären. Sie stiften damit indirekte inferentielle Verbindungen unter den Beobachtungsüberzeugungen. Man könnte sagen, sie erzeugen die verbindenden Kanten in unserem Netz. Diese Metapher ist natürlich nicht auf die Auszeichnung einer festen theoriefreien Beobachtungssprache angewiesen. Es genügt, wenn man die Vorstellung von recht speziellen Aussagen hat, die untereinander unverbunden sind, und die von allgemeineren, die solche Verbindungen herstellen können. Zu welcher Sorte ein Satz gehört, muß weder über einen bestimmten Kontext hinaus festgelegt sein, noch ist mit den Beobachtungsüberzeugungen ein Anspruch auf epistemische Priorität verbunden. Im Gegenteil wird dieser Anspruch sogar in (IV.B) explizit bestritten werden. Theorien sollen auch nicht nur „Daten" vernetzen, sondern weisen gerade untereinander vielfältige inferentielle Beziehungen auf. Es werden singulare Tatsachen durch Theorien erklärt, aber allgemeinere Theorien können genauso gut weniger allgemeine Theorien erklären und vernetzen.18 Z. B. das Prinzip der Energieerhaltung ist auf einer sehr allgemeinen Stufe angesiedelt und fügt Theorien aus der Mechanik und der Elektrodynamik selbst über wissenschaftliche Revolutionen hinweg zusammen und erklärt bestimmte allgemeine Phänomene und Gesetze aus diesen Bereichen.

A. Bestandteile von Kohärenz

153

6. Analogiebeziehungen Eine weitere verbindungsstiftende Beziehung in unserem System von Meinungen, die immer wieder in wissenschaftlichen wie außerwissenschaftlichen Kontexten genannt wird, ist die der Analogie. Auch durch Analogien findet eine Vernetzung unserer Überzeugungen statt. Salmon (1983, 197ff) spricht sogar vom Analogieschluß als einem sehr häufig angewandten Schlußverfahren. Er weiß dazu eine Reihe von Beispielen aus unterschiedlichen Bereichen anzugeben. Im Falle unerwünschter Nebenwirkungen eines Medikaments bei Ratten schließen wir auf zu erwartende unerwünschte Nebenwirkungen beim Menschen. Aus der Tatsache, daß große Verschuldung für private Haushalte keine guten Prognosen für deren Zukunft zuläßt, schließen wir, daß sie auch für den Staatshaushalt schädlich ist. Philosophen und Theologen haben argumentiert, daß man aus dem planvollen Aufbau des Menschen auf einen göttlichen Schöpfer schließen kann, wie man aus dem Fund einer Uhr auf einen Uhrmacher schließen darf, der die Uhr geplant und gebaut hat. Im Bereich der Wissenschaften hat Mary Hesse (1963) eine Reihe von Beispielen für Analogien untersucht. Etliche berühmte Fälle sind uns allen bekannt, aber an einige möchte ich trotzdem noch einmal erinnern, um anzudeuten, wie stark Analogien im Netz unserer wissenschaftlichen Überzeugungen präsent sind. Maxwell entwickelte seine Theorie der Elektrodynamik anhand einer fortschreitenden Reihe von mechanischen Analogiemodellen, die von einem einfachen Modell einer inkompressiblen Flüssigkeit bis hin zu seinem komplizierten Wirbelmodell reichten. Entsprechende mechanische Analogien, z. B. von Elektrizität als einer Art Flüssigkeit, prägen sicher auch heute noch unsere Vorstellungen von Elektrizität. Für das Bohrsche Atommodell haben in seinen verschiedenen Phasen unterschiedlich ausdifferenzierte Formulierungen des Planetensystems Pate gestanden. Die Modelle von Licht als Welle oder als Teilchen ziehen sich durch die Diskussion um die Natur des Lichts wie ein roter Faden. Auch die Materie wird mit Ansammlungen kleiner Punktpartikel oder einer Flüssigkeit verglichen. Insbesondere ideale Gase werden als elastische kleine Billiardkugeln betrachtet. Solche Analogien sind natürlich keineswegs auf die Physik beschränkt. Für Darwins Konzeption der Entstehung der Arten spielte die Analogie zwischen künstlicher und natürlicher Zuchtwahl eine entscheidende Rolle. Zur Erklärung von Intelligenz oder sinnesphysiologischen Leistungen werden immer wieder Analogien der verschiedensten Art zu Computermodellen eingesetzt. Einige Analogien sind sogar schon in unserem Vokabular verankert. So sprechen wir von „wissenschaftlichen Revolutionen" oder dem „Treibhauseffekt" und stützen uns dabei auf Analogiemodelle in den entsprechenden Bereichen. Die Entwicklung und das Durchsetzen wissenschaftlicher Annahmen wird auch mit evolutionären Prozessen verglichen. Die Liste derartiger Beispiele ließe sich ohne weiteres verlängern. Daß in allen Zweigen unseres Wissens Analogien und Analogiemodelle eine wichtige Rolle spielen, dürfte also kaum zu bestreiten sein. Die strittige Frage ist eher, ob sie auch eine epistemische Funktion übernehmen können. Gibt die Bohrsche Analogie des Atoms

154

IV Kohärenz

mit einem Planetensystem uns einen Grund, eher an seine Theorie zu glauben, als wir es ohne diesen Vergleich getan hätten? Oder ist sie nur ein heuristisches Mittel gewesen, daß es Bohr erleichtert hat, seine Atomtheorie zu entwickeln und sie anderen Physikern zu vermitteln? Meines Erachtens haben Analogien neben heuristischen und didaktischen Funktionen, die eher in den Entdeckungskontext und die Vermittlung einer Theorie gehören, auch eine epistemische Funktion. Diese ist in den verschiedenen Beispielen allerdings recht unterschiedlich, je nachdem, wie weit die Analogie reicht, also wieviele positive Analogiebeziehungen und Disanalogien bestehen, je nachdem, ob es sich um eine eher formale oder stärker materiale Analogie handelt. Analogien zwischen Lichtund Wasserwellen sind nicht so eng wie die zwischen zwei genau gleich konstruierten Motoren. Geht der eine kaputt, wenn man ihn mit einem bestimmten Öl laufen läßt, haben wir natürlich allen Grund anzunehmen, daß dasselbe bei dem anderen Motor passieren würde. Viele Analogiebeziehungen erbringen offensichtlich erkenntnistheoretische Leistungen. In den angegebenen Illustrationsbeispielen sorgten die Analogiebeziehungen jedenfalls in einem bestimmten Ausmaß für eine stärkere Vernetzung unseres Überzeugungssystems, die kohärenzstiftend wirkt. Zu diesem Punkt kann ich erst in der Untersuchung von Erklärungen und der Rolle, die Modelle in der Wissenschaft spielen, gehaltvollere Analysen anbieten. Analogien sollen dann als eine recht abstraktere Form von Erklärungen ausgewiesen werden.

B. Eine Kohärenztheorie der Wahrnehmung Traditionell waren fundamentalistische Theorien wie die empiristischen dort zu Hause, wo es darum geht, dem Input für unser Überzeugungssystem in Form von Sinneswahrnehmungen einen angemessenen Platz einzuräumen. Dagegen wird kohärentistischen Theorien immer wieder vorgeworfen, sie könnten derartigen Input nicht in gebührender Weise berücksichtigen. Das sollte mit der BonJourschen Analyse von Wahrnehmungen anders geworden sein (BonJour 1987 und bes. 1985, II.6). Für die empiristischen Erkenntnistheorien beginnt alle Erkenntnis mit unseren Beobachtungen. Rechtfertigungen unserer Meinungen stützen sich immer mehr oder weniger direkt auf Beobachtungen. Dieses Bild von Erkenntnis kann zunächst trotz seiner Schlichtheit eine gewisse Plausibilität für sich in Anspruch nehmen. Sind nicht gerade Beobachtungsüberzeugungen als von außen kommend und nicht aus unseren anderen Überzeugungen abzuleiten anzusehen und damit paradigmatische Beispiele nichtinferentieller Meinungen? Hat nicht auch van Fraassen (in Churchland/ Hooker 1985, 286) Recht mit seiner Behauptung, daß unsere einzig legitime Informationsquelle über die Welt unsere Sinneswahrnehmungen sind und wir deshalb nicht umhin können, Empiristen zu sein? Sehen wir von den bekannten inhärenten Problemen, wie etwa der Theorienbeladenheit der Beobachtungssprache, ab, die in diesem Modell vom Wissenserwerb auftreten können, so erscheint uns diese Ansicht überzeugend. Dieses Modell beschreibt jedoch eigentlich nur die Genese unseres Wissens und hat somit keine direkten Implikationen für die

B. Eine Kohärenztheorie der Wahrnehmung

155

Struktur unserer Erkenntnis. Diese Trennung, die wiederum die Unterscheidung von Genese und Rechtfertigung stark macht, findet bei Empiristen nicht immer genügend Beachtung. Außerdem gibt es für das einfache empiristische Bild unseres Erkenntniserwerbs eine ständige Quelle der Beunruhigung, nämlich Sinnestäuschungen und unsere Kenntnis von möglichen Irrtumsquellen. Beobachtungen sind bekanntlich nicht unter allen Umständen zuverlässig, sondern können uns in bestimmten Situationen in die Irre führen. Das gilt nicht nur für den im Wasser geknickt erscheinenden Stab oder extreme Beispiele wie Halluzinationen, sondern findet sich bereits in gewöhnlichen Alltagssituationen. Wir erkennen einen Bekannten nicht, obwohl wir ihn ansehen oder halten irrtümlich einen Unbekannten für einen Bekannten, z. B. wenn wir ihn nur von hinten sehen, unaufmerksam sind usw. Die vielen Beispiele solcher Irrtümer bei unseren Beobachtungsüberzeugungen haben empiristische Philosophen auf so fragwürdige Theorien wie die phänomenalistischen geführt. Sie versuchen auf der Ebene von sogenannten Sinnesdaten wieder eine sichere Basis für unsere Erkenntnis zu finden. Doch entscheidend ist: Irrtümer unterlaufen uns nicht nur in statistischer Weise, sagen wir zu 5%, sondern wir haben relativ konkrete Ansichten oder sogar Theorien darüber, unter welchen besonderen Umständen wir unseren Sinnen vertrauen dürfen und unter welchen Umständen wir es lieber lassen sollten.

1. Vier Typen von Irrtumsquellen Um ein realistischeres Bild der Rechtfertigung von Wahrnehmungsüberzeugungen zu gewinnen, orientiere ich mich zunächst daran, wie andere meine Beobachtungen bewerten; man denke etwa an Situationen vor Gericht. Nehmen wir also an, ich sage in einem Mordprozeß aus, und man vermutet nicht, daß ich mit dem Angeklagten oder dem Staatsanwalt unter einer Decke stecke. Trotzdem wird das Gericht meine Angaben über meine Beobachtungen nicht einfach für bare Münze nehmen, sondern einer Bewertung im Hinblick auf ihre Zuverlässigkeit unterziehen, wozu zuerst eine Reihe von typischen Irrtumsquellen auszuschalten sind. Wenn ich von meinen Beobachtungen berichte, könnte mein Gedächtnis als eine Irrtumsquelle ins Spiel gebracht werden. Sehen wir davon vorläufig einmal ab und halten es für absolut vertrauenswürdig. Dann bleiben trotzdem eine Reihe anderer Faktoren übrig, die zu berücksichtigen sind. Da sind als erstes die äußeren Beobachtungsbedingungen zu nennen, nach denen man fragen könnte: War es zum Zeitpunkt der Beobachtung noch hell genug? Hatten Sie Gegenlicht? Verfälschte das rote Abendlicht nicht die Farben? War der beobachtete Mann nicht viel zu weit weg? Konnte man durch die trübe Scheibe wirklich jemand erkennen? usw. Je nach der Situation, um die es in der Aussage geht, können durch die angesprochenen Bedingungen Fehlerquellen ins Spiel kommen, die meine Wahrnehmung unzuverlässig werden lassen. Wir haben auch zumindest Common-SenseTheorien darüber, welche der äußeren Beobachtungsbedingungen in bestimmten Situationen eine relevante Beeinträchtigung darstellen können. Neben den äußeren Beobach-

156

IV Kohärenz

tungsbedingungen wird man mich vielleicht nach inneren Beobachtungsbedingungen befragen, die mehr auf meiner Seite angesiedelt sind und die Zuverlässigkeit meiner Sinnesorgane betreffen: Sind Sie kurzsichtig/schwerhörig? Hatten Sie Alkohol oder andere Drogen genommen? Waren Sie zu erkältet, um das ausströmende Gas riechen zu können? Haben Sie vielleicht geträumt? usw. Jeder kann sich leicht Situationen vorstellen, in denen diese und ähnliche Fragen für eine epistemische Beurteilung meiner Beobachtungen bedeutsam sind. Für viele Beobachtungen reicht es aber nicht aus, die physikalischen oder physiologischen Bedingungen zu untersuchen, unter denen die Wahrnehmungen gemacht wurden, sondern zusätzlich zu den Beobachtungsbedingungen spielen auch das Hintergrundwissen des Beobachters oder seine kognitiven Einstellungen eine Rolle für die Zuverlässigkeit der Wahrnehmung.19 Wenn ich berichte, einen roten Wagen gesehen zu haben, wird man vermutlich nicht allzuviel an Wissen auf meiner Seite verlangen, aber wenn ich berichte, einen roten Mazda 626 beobachtet zu haben, verlangt das schon bestimmte Kenntnisse, die etwa daran zu messen sind, wie viel ich über die Unterschiede dieses Fahrzeugs zu ähnlichen Typen weiß. Kenntnisse ganz anderer Art sind notwendig, wenn ich berichte, eine Gewinnstellung für Weiß auf einem Schachbrett gesehen zu haben. Wieder andere für die Beobachtung, daß mir ein Cockerspaniel über den Weg lief. Außer diesem rein kognitiven Hintergrundwissen, können ebenso bestimmte stärker emotional gefärbte Voreinstellungen meine Wahrnehmungen beeinträchtigen. Die Sozialpsychologie lehrt uns, daß bestimmte Annahmen, die wir über bestimmte Personengruppen haben, die man landläufig auch oft als Vorurteile bezeichnet, sogar unsere Wahrnehmungen deutlich beeinträchtigen können - oft in erheblich größerem Umfang als das von uns selbst vermutet wird. So berichtete, nach Vorlage von Bildern mit einem Weißen mit einem Rasiermesser in der Hand und einem Farbigen ohne, die Hälfte der Versuchspersonen, der Farbige hätte das Messer gehalten (z.Z. Schäfer/Six 1978, 83). Das Gericht könnte mich fragen, ob ich Vorurteile gegen Farbige, Ausländer oder Frauen in bestimmten Berufen habe. Auch positive Voreinstellungen oder Wünsche können natürlich unsere Zuverlässigkeit in Form von Wunschdenken trüben. Wir erhalten damit eine erste und grobe Typisierung bekannter Irrtumsquellen. Typen von Irrtumsquellen: • äußere Beobachtungsbedingungen • innere Beobachtungsbedingungen • kognitives Hintergrundwissen • emotionale Voreinstellungen Dieser kurze Abstecher in mögliche empirische Untersuchungen der Zuverlässigkeit unserer Wahrnehmungen, sollte demonstrieren, wie weitgehend unsere Theorien über den Wahrnehmungsprozeß die Bewertung dieses Inputs ermöglichen und sogar in wichtigen Situationen, etwa vor Gericht, steuern können. Dabei wurde deutlich, daß Faktoren aus den vier genannten Bereichen die Zuverlässigkeit unserer Wahrnehmungen auf jeweils unterschiedliche Art beeinträchtigen können und daß wir über Theorien

B. Eine Kohärenztheorie der Wahrnehmung

157

verfügen, um die Beeinträchtigungen abzuschätzen. Es geht mir natürlich hier nicht um die Details dieser Theorien und ihre Richtigkeit, sondern um das grundsätzliche Vorgehen bei der Beurteilung von Wahrnehmungen. Dabei suchen wir nach speziellen Irrtumsquellen und nehmen nicht etwa an, unsere Beobachtungen seien zu x% zuverlässig. Ausgangspunkt einer kohärentistischen Analyse einer bestimmten Sinneswahrnehmung ist also eine entsprechende Fehleranalyse. Zu ergänzen ist sie sicherlich um Kenntnisse über Besonderheiten des epistemischen Subjekts. Vielleicht wissen wir von ihm, daß er sich bei Automarken vorbeifahrender Fahrzeuge immer vertut, obwohl er eigentlich ein Fachmann auf diesem Gebiet ist und Augen wie ein Falke besitzt. Doch auch wenn all diese Bedingungen für die Zuverlässigkeit der Entstehung einer Beobachtungsüberzeugung sprechen, und wir damit über gute Gründe verfügen, sie zu akzeptieren, kann sie trotzdem falsch sein. Epistemische Rechtfertigung kann immer nur internalistisch sein und daher nur die Irrtumsmöglichkeiten ausschalten, die uns schon bekannt sind. Neben einer Bewertung des Informationswegs, können wir eine Zeugenaussage auch anhand dessen überprüfen, wie gut sie zu unseren anderen Informationen über den Fall paßt. Manchmal wissen wir, daß eine Wahrnehmungsüberzeugung falsch sein muß, ohne eine Irrtumsquelle dafür namhaft machen zu können. Das ist etwa bei sich widersprechenden Zeugenaussagen der Fall, von denen nur eine wahr sein kann. Ähnliches kann auch passieren, wenn sich eine Zeugenaussage vor unserem Hintergrundwissen wie ein Wunderbericht ausnimmt. Der dann entstandene Zustand bleibt natürlich solange epistemisch unbefriedigend, wie wir nicht die Falschaussage plus einer Erklärung für sie namhaft machen können. Wenn wir epistemisch verantwortlich urteilen wollen, könne wir diese Bewertung von Beobachtungen nicht auf andere beschränken und uns selbst schlicht als unfehlbar einstufen, indem wir uns ganz auf unsere subjektive Sicherheit verlassen. Daß diese keine Wahrheitsgarantie und auch nicht immer einen guten Wahrheitsindikator bietet, wissen wir. Meine eigenen Beobachtungen muß ich daher ebenso anhand meiner Theorien über zuverlässige Wahrnehmungen und mögliche Irrtumsquellen von Wahrnehmungen bewerten, wie ich das bei anderen tue. Das geschieht in einigen Fällen auch. Wir sagen dann etwa, ich glaube, Michael gesehen zu haben, bin mir aber nicht sicher, weil er so weit weg war, oder der Stock sieht im Wasser für mich gebogen aus, aber ich glaube trotzdem, daß er gerade ist. Es paßt weit kohärenter in unser Meinungssystem hinein, den Stock als gerade einzuschätzen. Wir sahen vielleicht, daß er gerade war, bevor er ins Wasser gehalten wurde, haben (implizite) allgemeine Annahmen, daß Stöcke aus Holz beim Eintauchen ins Wasser nicht verbiegen, wissen, daß Wasseroberflächen durch Lichtbrechung scheinbare Krümmungseffekte hervorrufen können usw. All unsere Wahrnehmungen werden vor dem Hintergrund unseres Wissens um diese Phänomene daher am besten durch die Annahme erklärt, daß der Stock gerade und nicht gebogen ist. Besonders in den Fällen, in denen viel von unserer Beobachtungsüberzeugung abhängt, können wir nicht mehr völlig auf unsere Wahrnehmungen vertrauen, sobald einige der aufgezählten Irrtumsquellen für uns erkennbar sind. So verlockend, wenn nicht geradezu psychisch notwendig, ein allgemeines Vertrauen in unsere eigenen

158

IV Kohärenz

Wahrnehmungen auch erscheint, für begründete Meinungen sind wir auf weitere Annahmen über unsere Zuverlässigkeit in entsprechenden Situationen angewiesen. Das wird uns vor allem dann bewußt, wenn nicht mehr die einfachen Standardbedingungen gegeben sind, in denen wir uns für zuverlässige Beobachter halten. Da diese Standardbedingungen allerdings in unseren Alltagssituationen meistens vorliegen, scheinen uns Wahrnehmungen im allgemeinen zuverlässige Grundlagen für unsere Erkenntnis abzugeben. Wenn es uns um begründete Meinungen geht, sind wir trotzdem stets auf eine Rechtfertigung solcher Wahrnehmungen anhand unserer Einschätzungen unserer Zuverlässigkeit als Beobachter in ganz bestimmten Situationstypen angewiesen. Welche das sind, läßt sich wiederum nicht ein für allemal a priori entscheiden, sondern ist selbst wieder Bestandteil allgemeinerer empirischer Theorien über die Welt und unseren Wahrnehmungsapparat. Zusammengenommen: Wir sollten unsere Beobachtungsüberzeugungen einer zweifachen Bewertung vor unserem Hintergrundwissen unterwerfen: 1. Wie zuverlässig war der Informationsweg? und 2. Wie kohärent fügen sie sich in unser Hintergrundwissen ein? Auch ein im allgemeinen zuverlässiger Informationsweg kann im Einzelfall zu falschen Annahmen führen. Um diese herausfiltern zu können, haben wir nur die Fehleranalyse zur Verfügung. Diese doppelte Überprüfung möchte ich noch am Beispiel eines Wahrnehmungstyps illustrieren, dem wir nicht so blind vertrauen wie unseren fünf Sinnen. Nehmen wir an, ich habe bei mir hellseherische Fähigkeiten entdeckt, und die sagen mir, daß in einigen Stunden Deutschland von einem riesigen Meteoriten getroffen und vernichtet wird. Bevor ich anfange, mir richtig Sorgen zu machen, überlege ich, wie zuverlässig ich als Hellseher bin. Nehmen wir an, meine bisherige Trefferquote liegt bei 90%. Das erscheint dann schon beunruhigend. Weiterhin überlege ich, ob meine Zuverlässigkeit von irgendwelchen speziellen Faktoren abhängt: meiner Konzentrationsfähigkeit, der Tageszeit, den Mondphasen, dem zuletzt gesehen Film, speziellen Inhalten der Vorahnung oder was sonst noch in Frage kommen mag. Dann muß ich überprüfen, ob diese Störfaktoren vorlagen und abschätzen, welche Beeinträchtigung sie zusammengenommen darstellen. Schließlich komme ich zu dem Ergebnis, daß die Zuverlässigkeit meiner hellseherischen Kräfte genug Anlaß zur Sorge bietet. Daher befrage ich nun einen befreundeten Astronomen dazu. Der kann mir zeigen, daß in der entsprechenden Richtung gar kein Meteorit im Anflug ist, der doch, sollte meine Vermutung wahr sein, sich längst zeigen müßte. Außerdem weiß er mir zu erklären, warum wir in nächster Zeit nicht mit einem derartigen Meteoriten zu rechnen haben. Obwohl das spezielle Verfahren zum Erkenntnisgewinn also zuverlässig ist, ist es durchaus sinnvoll, die Informationen aus dieser Quelle weiteren Kohärenztests gegen unser übriges Wissen zu unterwerfen. Eine sorgfältiges und erfolgloses Absuchen des Himmels sollte mich eigentlich wieder beruhigen. Ebenso gründlich sollten wir unsere anderen Wahrnehmungen beurteilen, auch wenn es uns sicher schwer fällt, ihnen gegenüber eine derart distanzierte Einstellung einzunehmen. Deshalb wird sich der Staatsanwalt auch nicht allein auf den guten Willen der Zeugen verlassen, sondern die genannten Punkte selber sorgfältig prüfen.

B. Eine Kohärenztheorie der Wahrnehmung

159

2. Eine kohärentistische Rechtfertigung von Wahrnehmungen Eine kohärenztheoretische Behandlung der Wahrnehmung startet bei den Beobachtungsüberzeugungen, die sich für uns spontan einstellen, wenn wir bestimmte Wahrnehmungen machen. Schaue ich auf meinen Schreibtisch, kann ich mich nicht dafür entscheiden zu glauben, daß ein Notebook vor mir steht oder nicht. Diese Meinung stellt sich spontan und unabweisbar ein. Nach BonJour sind Wahrnehmungsüberzeugungen bestimmte spontane Meinungen, die etwa durch ihre Inhalte und ihren Zusammenhang zu anderen Meinungen ausgezeichnet sind. Anhand unserer Theorien über unsere Wahrnehmung und mögliche Irrtumsquellen werden diese dann bewertet und jene unter ihnen, die diesen Test bestehen, sind für uns begründete Beobachtungsüberzeugungen. Das Lehrersche Diktum vom Wissen als Metawissen mündet damit für eine Wahrnehmungsüberzeugung p in so etwas wie das folgende Rechtfertigungsschema (vergleiche dazu BonJour 1985, 118ff): Rechtfertigungsschema fiir Wahrnehmungen (RW) 1) p ist spontan in mir aufgetreten. 2) p ist als Wahrnehmungsüberzeugung einer bestimmten Art (z. B. visueller Art) zu klassifizieren. 3) p entstand in mir unter der Bedingung B. 4) Wahrnehmungsüberzeugungen, die in mir unter B entstehen, sind nach meinem Hintergrundwissen wahrscheinlich wahr. (Es liegt u.a. keine der vier Irrtumsquellen vor.) Also:p ist wahrscheinlich wahr. Die Bedingung (1) besagt, daß p nicht Ergebnis einer Überlegung oder sogar Ableitung ist und auch nicht einer bewußten Erinnerung an ein bestimmtes Erlebnis. Damit ist aber noch nicht sichergestellt, daß es sich um eine Beobachtungsüberzeugung handelt. Das ist in einem zweiten Schritt eigens zu vermuten, denn es können auch Meinungen spontan in uns auftauchen, wie die, daß 19 eine Primzahl ist, die wir üblicherweise nicht als Beobachtungen klassifizieren. P sollte darüber hinaus als Beobachtung einer bestimmten Art eingestuft werden, denn danach richtet es sich, welche Bedingungen B in (3) relevant sind. Im vierten Schritt bringe ich meine Kenntnisse der Wahrnehmungstheorie und der besonderen Bedingungen meines Wahrnehmungsapparats, die mir bekannt sind, in Anschlag, so daß ich dann eine erste Begründung für p angegeben habe. Ein einfaches Beispiel mag das Schema illustrieren. Ich schaue mich um und sehe eine Stehlampe. Die Überzeugung, daß eine Stehlampe hinter mir steht, kann man nun wie folgt rechtfertigen (wobei ich das Problem des Gedächtnisses weiterhin ausklammere): In mir entstand spontan die Überzeugung, daß hinter mir eine Stehlampe steht. Dabei handelt es sich um eine visuelle Wahrnehmung. Die Stehlampe ist ein Objekt mittlerer Größe mit einem geringen Abstand von mir, und meines Wissens liegt keine

160

IV Kohärenz

mir bekannte Fehlerquelle der Wahrnehmung vor. Unter diesen Umständen kann ich meinen Augen trauen. Sehr wahrscheinlich steht also eine Stehlampe hinter mir. Damit ist eine kohärentistische Analyse natürlich noch keineswegs abgeschlossen. BonJour hat damit nur den Informationsweg im Blick. Das vorgeschlagene Rechtfertigungsschema ist eingleisig und kann die vielfältigen Zusammenhänge einer Beobachtung zu unseren anderen Meinungen noch nicht erfassen. Die Auszeichnung von p als einer Beobachtung hängt z. B. ebenfalls davon ab, welche anderen Beobachtungen wir kurz vor und nach p machen. Wir erwarten für die meisten Situationen eine gewisse Kontinuität und wären ausgesprochen skeptisch, wenn wir auf Beobachtungen wie die im Beispiel des Superempiristen (s. A.l) stießen. Außerdem können auch Theorien darüber, welche Ereignisse überhaupt auftreten können und welche nicht, zur Zurückweisung von Beobachtungen fuhren, falls diese im Lichte der Theorie als ein Wunder erscheinen (s. IV.A.5). Zusätzlich zu den Bedingungen (1) - (4) von RW sollten wir daher wenigstens noch eine Bedingung (5) aufnehmen: 5)

Die Annahme, daß p, fügt sich kohärent in unser Meinungssystem ein und erscheint uns insbesondere nicht als Wunder.20

Diese Bedingung mag als Hinweis genügen, daß neben der geradlinigen Rechtfertigung (1) - (4) noch andere Elemente aus dem Netz unseres Überzeugungssystems für die epistemische Bewertung einer Wahrnehmung bedeutsam werden können - was man von einer Kohärenztheorie wohl auch erwarten sollte. Trotz der Idealisierungen, die man vornehmen muß, um ein einfaches Schema RW zu bekommen, können die Überlegungen das eine zeigen, das wir festhalten sollten: Differenzierte Bewertung von Wahrnehmungen Wir können zwischen mehr oder weniger gut gerechtfertigten Beobachtungsüberzeugungen unterscheiden, die sich im allgemeinen anhand zahlreicher anderer Überzeugungen, die wir haben, rechtfertigen lassen, obwohl die Beobachtungsüberzeugungen spontan und nicht-inferentiell entstanden sind. Das bringt noch einmal den Unterschied zu empiristischen Konzeptionen von Erkenntnis zum Ausdruck, denn für sie sind die Beobachtungsüberzeugungen basal und lassen damit nach FU 1 keine derartigen inferentiellen Rechtfertigungen zu. BonJour (1985, 121ff) skizziert auch den Weg, auf dem sich negative Wahrnehmungsüberzeugungen begründen lassen. Etwa meine Überzeugung, daß keine Schreibmaschine vor mir steht. Auch diese Überzeugung sollte anhand meiner Beobachtungen gerechtfertigt werden. Das ist relativ analog zu dem Rechtfertigungsschema (RW) möglich und soll hier nur für das konkrete Beispiel angegeben werden: 1) Ich habe keine Wahrnehmungsüberzeugung, daß eine Schreibmaschine vor mir steht. 2) Es liegen bestimmte Bedingungen B für Beobachtungen visueller Art vor. (bestimmte Lichtverhältnisse, Augen auf, Brille auf, keine Drogen ...)

B. Eine Kohärenztheorie der Wahrnehmung

161

3) Unter den Bedingungen B würde wahrscheinlich eine spontane Wahrnehmungsüberzeugung, daß vor mir eine Schreibmaschine steht, auftreten, wenn vor mir eine Schreibmaschine stünde. Also: Vor mir steht wahrscheinlich keine Schreibmaschine.21 In beiden Fällen von Rechtfertigung positiver wie negativer Wahrnehmungen bin ich darauf angewiesen, meine Zuverlässigkeit als Beobachter angepaßt an die speziellen Umstände der Wahrnehmungssituation auf der Grundlage meiner Kenntnisse über meine Umgebung und mein Wahrnehmungsvermögen einzuschätzen. Das werden wir in der Praxis nur in außergewöhnlichen Situationen tatsächlich tun, aber wenn wir aufgefordert werden, eine unserer Beobachtungen zu rechtfertigen, geben Rechtfertigungen des Typs (RW) die besten Antworten. BonJour schneidet noch eine andere Frage an, die kurz aufzugreifen sich an dieser Stelle lohnt. Wenn Beobachtungsüberzeugungen spontan und unabweisbar in uns auftreten und wir uns nicht wirklich entscheiden können, eine bestimmte Wahrnehmungsüberzeugung zu haben oder nicht zu haben, welche praktische Relevanz hat dann die Rechtfertigung von Beobachtungsüberzeugungen? Diese Frage BonJours ließe sich auch auf andere Überzeugungen erweitern, denn in den meisten Fällen können wir uns nicht einfach entscheiden, etwas zu glauben oder abzulehnen, sondern da sind kausale Vorgänge am Werk, die nicht unserem direkten Einfluß unterliegen (s. dazu auch Williams 1978). Ich möchte hier nur auf zwei Punkte verweisen: 1. Auch wenn eine bestimmte Beobachtungsüberzeugung unwillkürlich in mir auftritt, kann ich sehr wohl noch in einem gewissen Maß entscheiden, welche Rolle sie in meinem Räsonieren und in meinen Entscheidungen spielen soll. Dazu ein Beispiel: Wenn ich gestern abend meine Frau in den Armen eines anderen Mannes zu sehen glaubte und mich schrecklich darüber aufgeregt habe, kann ich gleichwohl heute noch einmal nüchtern darüber nachdenken, für wie gewichtig ich meine Beobachtung halte. Bevor ich die Scheidung einreiche, überlege ich mir vielleicht, daß ich sie nur in einer „verräucherten Kneipe" auf größere Entfernung und von hinten sah und auch schon einige Gläser Wein getrunken hatte. Dann bin ich mir unsicher über die Zuverlässigkeit meiner Beobachtung und werde keine so gravierende Entscheidung wie ein Scheidungsverlangen allein auf diese eine Beobachtung stützen. 2. Ich könnte die Beobachtung im Nachhinein vielleicht sogar ganz aufgeben und zur gegenteiligen Ansicht gelangen. Mir könnte etwa einfallen, daß die Frau, die ich den Armen des Mannes sah, ein rotes Kleid trug, meine Frau aber rote Kleider haßt. Außerdem geht sie am Freitag doch immer zum Bowling, das sie niemals ausfallen lassen würde. Weitere Indizien können mir einfallen, die mich schließlich dazu veranlassen, meinen Verdacht gegen meine Frau vollkommen aufzugeben - ich bin schließlich auch nicht übertrieben eifersüchtig - und damit meine Überzeugung, daß ich meine Frau sah, nachträglich als Irrtum einzustufen. Erkenntnistheoretische Überlegungen, die meine Zuverlässigkeit als Beobachter betreffen und Kohärenztests, können also zumindest im Nachhinein eine wichtige Rolle für die Gestaltung

162

IV

Kohärenz

meines Überzeugungssystems und die zu ziehenden Konsequenzen spielen, selbst wenn die Beobachtungsüberzeugungen zunächst unabweisbar sind.

3. Empiristische und rationalistische Wahrnehmungsauffassungen Kehren wir mit der kohärentistischen Analyse von Wahrnehmungen ausgerüstet noch einmal zu den empiristischen und rationalistischen Erkenntnistheorien zurück. Empiristen wie Rationalisten waren in ihrer Mehrzahl Fundamentalisten. Inwieweit unterscheiden sie sich von der kohärentistischen Sichtweise der Rechtfertigung von Wahrnehmungen? Für Empiristen gibt es Beobachtungsüberzeugungen, die keiner inferentiellen Rechtfertigung bedürfen, weil sie direkt beobachtbare Tatsachen wiedergeben. Diese Theorie scheint uns jedoch nur deshalb einigermaßen plausibel, weil wir in den meisten Fällen von Wahrnehmungen zuverlässig Wahrnehmende sind. Man könnte sagen, ihre Theorie wird durch unsere allgemeinen Annahmen über unsere Wahrnehmungen für die meisten normalen Anwendungsfälle gerechtfertigt. Der Kohärenztheoretiker hat gegen diese Art der Rechtfertigung vor allem drei Einwände zu erheben: 1. Die Empiristen sind damit auf bestimmte inhaltliche Annahmen (oder Theorien) über unsere Wahrnehmung festgelegt — besonders deutlich wird das etwa bei Humes Konzeption, daß alle „ideas" letztlich auf „impressions" zurückzuführen sind —, die, selbst wenn wir sie heute noch akzeptieren würden, sich doch schon morgen als falsch herausstellen könnten. Es gibt dabei keinen Spielraum für künftige Entwicklungen, wie ihn der Kohärenztheoretiker aufzeigt. Für den gibt es immer die Möglichkeit, neue Erkenntnisse über unsere Wahrnehmung etwa in Form immer differenzierterer Theorien und Bedingungen für Irrtumsquellen zu berücksichtigen, denn das Schema (RW) ist anhand unserer jeweils besten Theorien über unsere Wahrnehmung auszufüllen. 2. Doch selbst wenn die Empiristen für ihre basalen Meinungen keine Sicherheit, sondern z. B. nur eine gewisse Wahrscheinlichkeit postulierten, bliebe ihr Ansatz damit unbefriedigend. Sie könnten vielleicht behaupten, Wahrnehmungsannahmen seien zu 80% wahr, doch damit würden sie all die Differenzierungsmöglichkeiten verschenken, genauer zu sagen, in welchen Fällen unsere Wahrnehmungen fehlgehen können und woran es jeweils liegt. Warum sollten wir nur unsere recht allgemeinen Einschätzungen über die Zuverlässigkeit bestimmter Typen von Aussagen berücksichtigen und nicht gleichermaßen alle anderen Erkenntnisse, die wir über den Einzelfall besitzen? 3. Aber schlimmer ist fast noch, daß der Empirist all diese Annahmen über unsere Wahrnehmungen nicht als Bestandteil einer Rechtfertigung des epistemischen Subjekts S selbst ansieht, sondern als dem Subjekt möglicherweise externe Theorien, denn S benötigt keine kognitiv verfugbaren Rechtfertigungen für seine Beobachtungsaussagen. Damit wird der Empirist zum Externalisten. Auf Seiten der Rationalisten sieht es nicht besser aus. Z. B. für Descartes sind alle Wahrnehmungen zuverlässig, die wir klar und deutlich haben. Irrtum kommt nur ins Spiel, wenn wir uns auf Urteile verlassen, die wir nicht klar und deutlich erfaßt haben. Sehen wir zugunsten Descartes zunächst davon ab, daß nicht so klar ist, in welchen

B. Eine Kohärenztheorie der Wahrnehmung

163

Fällen wir klare und deutliche Wahrnehmungen haben und die Frage zu stellen bleibt, ob wir uns in dieser Einschätzung nicht auch wieder irren können. Dann ist es vor allem Descartes Rechtfertigung seines Kriteriums, die uns heutzutage nicht mehr attraktiv erscheint. Nach Descartes irren wir uns bei klaren und deutlichen Wahrnehmungen nicht, weil Gott kein Betrüger ist und uns in solchen Fällen nicht hintergehen würde. Zu viele Menschen sind heute jedoch Agnostiker oder schlimmeres, als daß eine Berufung auf Gottes Eigenschaften in einer Erkenntnistheorie noch auf breite Zustimmung hoffen könnte. Auch Descartes ist in seiner Erkenntnistheorie also auf bestimmte (empirische) Theorien über die Beschaffenheit der Welt festgelegt, damit sein Rechtfertigungsverfahren begründet ist, die uns zweifelhaft erscheinen. Wie im Fall der Empiristen kommt dann noch mindestens der zweite Einwand hinzu, daß Descartes Erkenntnistheorie nicht offen bleibt für empirische Einsichten über unsere Wahrnehmungsfähigkeiten und ihre Schwachstellen. Was wir klar und deutlich erkennen, ist für Descartes kaum eine Frage empirischer Forschungen, sondern a priori introspektiv zu ermitteln. Damit gibt er die Chancen für interessante Einsichten anhand differenzierter Wahrnehmungstheorien aus der Hand, und alle oben zur Wahrnehmung angestellten Überlegungen demonstrierten, wie diese Einsichten ins Spiel kommen, wenn wir ermitteln, ob eine Beobachtung zuverlässig ist oder nicht. Der dritte Einwand gegen die Empiristen kann gegen Descartes nicht ohne weiteres erhoben werden, denn man muß die Cartesische Theorie nicht unbedingt als externe Theorie der Rechtfertigung interpretieren. Man kann annehmen, der Cartesische Meditierende verfügt mit dem apriorisch geführten Gottesbeweis über eine interne Metarechtfertigung für sein Wahrheitskriterium der klaren und deutlichen Erkenntnis, und auch die Anwendung dieses Kriteriums auf seine speziellen Wahrnehmungen, erfolgt dann unabhängig von unbekannten äußeren Zusammenhängen. Wir können Descartes also durchaus als Internalisten verstehen.

4. Erinnerung und Introspektion Zu den Wahrnehmungen zählt man üblicherweise auch noch die inneren Wahrnehmungen oder Introspektionen. Außerdem habe ich bisher immer die Erinnerungen und ihre Rechtfertigung ausgespart, obwohl diese in der Begründung, über die eine Person verfugt, eine wesentliche Rolle spielen werden. Zu diesen Themen möchte ich nun wenigstens einige Bemerkungen anfügen. Wenn ich mich bemühe, eine Begründung für eine Meinung p zu geben, bin ich an verschiedenen Stellen zumindest auf eine minimale Gedächtnisleistung angewiesen. Z. B. muß ich mich immer daran erinnern, welche Meinung ich rechtfertigen möchte.22 Dazu muß ich mich auf gewisse Formen von Introspektion verlassen. Wenn ich mich frage, ob ich über eine Begründung für p verfuge, muß ich zumindest schon wissen, daß ich p glaube und welche Überzeugungen ich überhaupt habe, auf die ich mich in der Begründung von p stützen darf. In beiden Fällen sollte ich also zuverlässige Metameinungen darüber besitzen, welche Meinungen ich bisher (implizit) habe. Diese Metameinungen stellen jedoch selbst wiederum empiri-

164

IV Kohärenz

sehe Annahmen dar und man könnte auch für sie nach Begründungen fragen. In diesen Begründungen — sollen sie denn inferentiell sein — muß ich mich aber wiederum darauf stützen können, welche anderen Meinungen ich habe. Droht damit nicht ein fataler Regreß? Dieser Ansicht ist z. B. Moser (1991, 174ff). Zunächst einmal trifft das nur auf den Fall privater Begründungen im stillen Kämmerlein zu. Wissenschaftliches Wissen oder anderes explizit notiertes Wissen ist davon nur sehr indirekt betroffen, denn das relevante Hintergrundwissen ist, weil es schriftlich fixiert ist, auch ohne die Erinnerung oder Introspektion einer bestimmten Person jederzeit zugänglich. Wichtige Begründungen können auf diese Weise den Problemen von Erinnerung und Introspektion ausweichen. Im Falle der Frage, in welchen Meinungen wir sozusagen privat gerechtfertigt sind, sind wir allerdings letztlich auf Erinnerungen und Introspektionen angewiesen. Um die Zuverlässigkeit unseres Gedächtnisses in unseren Rechtfertigungen berücksichtigen zu können, stehen uns aus der Innenperspektive im Normalfall zwei Vorgehensweisen offen. Zum einen können wir, wie bei Beobachtungen, unsere eigene Zuverlässigkeit anhand von Daten aus der Vergangenheit und Aussagen anderer Personen einschätzen. Wir wissen dann über uns selbst vielleicht, daß wir zwar zuverlässig Termine oder Zahlen behalten, aber nur selten einen Namen oder Gesichter. Dementsprechend zurückhaltend sollten wir sein, wenn wir jemanden als Herrn Müller zu erkennen glauben. Zum anderen können wir jede spezielle Erinnerung gegen andere Erinnerungen oder Daten, über die wir sonst noch verfugen, „checken". Wenn ich mich erinnere, am letzten Montag abend im Theater gewesen zu sein, kann ich mich weiter fragen, was denn gegeben wurde und das mit dem Spielplan vergleichen; ich kann überlegen, daß ich nachmittags beim Zahnarzt war und über welche Zwischenstationen ich von dort letztlich bis ins Theater gelangt bin. Außerdem frage ich mich z. B., ob ich im Theater noch Zahnschmerzen von der Behandlung gehabt habe oder ob im Theater doch erst Sonntag war und ich mir statt dessen gerade Sorgen über den bevorstehenden Zahnarztbesuch gemacht habe. Schließlich kann ich in meinen Terminkalender schauen oder Freunde befragen, ob sie am Montag abend mit mir zusammen waren usf. 23 War ich tatsächlich im Theater und mein Gedächtnis ist gut, sollten alle Antworten auf diese Fragen ein zusammenhängendes Bild meines Tagesablaufs am Montag bieten, das zu allen anderen Informationen wie Spielplan, Terminkalender, Aussagen anderer usw. paßt. Gibt es dagegen Unstimmigkeiten, werde ich nach Erklärungen dafür suchen, die schließlich auch in der Annahme münden können, daß ich mich geirrt habe und am Montag doch zu Hause geblieben bin. Beide Verfahren sind typische Kohärenztests und in analoger Form vor Gericht einsetzbar, um die Genauigkeit von Erinnerungen zu überprüfen. Man wird z. B. den Erinnerungen von mehreren Zeugen besonders vertrauen, wenn sie im wesentlichen übereinstimmen. Die beste Erklärung für ihre Übereinstimmung wird unter gewissen Umständen sein, daß sie zuverlässig über dasselbe Ereignis Auskunft geben. Sollten ihre Aussagen allerdings zu exakt übereinstimmen, kann das bereits Evidenz für die Unzuverlässigkeit der Zeugen sein. Die beste Erklärung kann in diesem Fall darin bestehen,

B. Eine Kohärenztheorie der Wahrnehmung

165

daß sie sich abgesprochen haben. Schließlich wissen wir auch, daß Menschen sich normalerweise nicht so gut erinnern und ihre Beobachtungen auf unterschiedliche Weise beschreiben. Hier finden wir wieder eine typische Instanz des Schlusses auf die beste Erklärung, die sich mit konservativ induktivem oder bayesianistischem Vorgehen nicht ohne Epizyklen erklären läßt. Noch schwieriger wird es für eine internalistische Rechtfertigungstheorie im Falle von Introspektionen, die für den Kohärenztest selbst bereits unentbehrlich sind. Sie hat mit dem obigen Zirkelvorwurf am schwersten zu kämpfen. BonJour (1985, 127f) beruft sich an dieser Stelle auf seine „Doxastic Presumption" (1985, lOlff), wonach die Annahme, daß wir ein einigermaßen zutreffendes Bild unserer eigenen Überzeugungen besitzen, eine Voraussetzung des ganzen Rechtfertigungsspieles ist. Nur wenn wir wissen, daß wir p glauben und daß wir weiterhin ein bestimmtes Überzeugungssystem X haben, läßt sich überhaupt die Frage aufwerfen, ob p vor dem Hintergrundwissen X gerechtfertigt ist. Dann, so argumentiert BonJour, darf ich mich in der Beantwortung der Frage, aber ebenfalls auf die Voraussetzung berufen, die in der Frage gemacht wurde. Dafür spricht auch, daß selbst so radikale Skeptiker wie der Cartesische nicht so weit gehen, unsere Annahmen darüber, was wir glauben, in Frage zu stellen. Das wird kaum das letzte Wort in dieser Angelegenheit sein, denn es ist z. B. nicht selbstverständlich, daß die Frage nach einer Begründung für p bereits die Kenntnis von X voraussetzt, aber ich möchte noch zwei weitere Anmerkungen hinzufügen, die ebenfalls einen gewissen Anteil an der Entschärfung dieser Schwierigkeit für eine Kohärenztheorie der Rechtfertigung haben können. Erstens ist von diesem Problem nicht nur die kohärentistische Position betroffen, sondern z. B. ebenso die üblichen Spielarten des empiristischen Fundamentalismus. Für sie sind zwar Beobachtungsüberzeugungen basal und bedürfen daher keiner inferentiellen Rechtfertigung, aber MetaÜberzeugungen über unser Überzeugungssystem werden im allgemeinen nicht unter diese basalen Überzeugungen gerechnet; insbesondere auch nicht MetaÜberzeugungen darüber, welche basalen Überzeugungen jemand besitzt. Wenn der Empirist nun nichtbasale Meinungen anhand basaler Meinungen inferentiell rechtfertigen möchte, ist er genauso auf eine Kenntnis seines Überzeugungssystems und speziell seiner basalen Meinungen angewiesen, wie ein Kohärenztheoretiker. Es ist BonJours Verdienst, diese Schwierigkeit überhaupt deutlich gesehen und einen ersten Lösungsvorschlag präsentiert zu haben. Zweitens habe ich auch von begründeten Meinungen nur verlangt, daß sie implizite Begründungen besitzen. Diese müssen im Prinzip zu entwickeln sein, aber nicht in Form expliziter MetaÜberzeugungen bereits vorliegen. Erst wenn ich eine Rechtfertigung meiner Meinungen explizit vornehmen möchte, ist man also auf etwas wie die BonJoursche „Doxastic Presumption" angewiesen, aber da ergeht es den meisten Konkurrenten nicht besser. Natürlich könnte der Externalist auch an dieser Stelle wieder einen einfachen Ausweg anbieten. Für ihn kann man sich darauf beschränken, daß unsere MetaÜberzeugungen darüber, welche Überzeugungen wir haben, tatsächlich zutreffen. Man würde einfach die Frage, welche Indizien wir für dieses Zutreffen haben, nicht mehr stellen. So leicht

166

IV Kohärenz

dieser Ausweg ist, so bleibt doch wiederum das eigentliche Problem unberührt. Die Frage nach solchen Indizien bleibt weiterhin eine sinnvolle erkenntnistheoretische Frage, die wir aufwerfen sollten, und der Externalist kann diesen Ausweg nur aufgrund eines Themawechsels anbieten, den ich nicht mitmachen möchte (s. III.A.2).

C. Lokale und Globale Aspekte von Rechtfertigung Auf den ersten Blick ist die Rechtfertigung einer Überzeugung eine Angelegenheit, die nur wenige Überzeugungen unseres Wissenssystems betrifft, nämlich die Prämissen der betreffenden Rechtfertigung. Das scheint insbesondere für unser Vorbild für Inferenzen, den logischen Schluß, zuzutreffen. Wenn eine Proposition p deduktiv aus einer Menge von M von Aussagen folgt, bedeutet das immer (selbst für unendliche Mengen M), daß es eine endliche Teilmenge von M gibt, aus der p folgt. Zur Überprüfung ob p folgt, genügt es außerdem, neben den Regeln der Logik ausschließlich p und M heranzuziehen. Die Inferenz bleibt in dem Sinne lokal. Sie ist nicht auf bestimmte Eigenschaften des ganzen Überzeugungssystems X angewiesen. Inferenzen, zu deren Beurteilung man sich auf Eigenschaften des ganzen Überzeugungssystems oder sehr große Teile davon stützen muß, nenne ich dagegen global. Epistemische Rechtfertigungen anhand von Kohärenz beinhalten sowohl lokale wie auch globale oder zumindest globalere Aspekte. Die Untersuchung einiger typischer Fälle kann das demonstrieren. Nehmen wir zunächst eine Beobachtungsüberzeugung, die durch eine Theorie erklärt wird. Die Erklärung selbst ist — wir werden das im letzten Teil der Arbeit präzisieren — eine bestimmte Beziehung zwischen Theorie und Beobachtung. Allein an der Theorie und der Beobachtungsüberzeugung läßt sich aber nicht ablesen, wie gut die Erklärung und damit die Rechtfertigung durch die Theorie ist. Eine astrologische Theorie oder eine Dämonentheorie kann in derselben strukturellen Beziehung zu einem Faktum stehen, wie die Newtonsche Mechanik zum Phänomen des freien Falls. Es kann in allen drei Fällen etwa eine Deduktion vorliegen. Einer Deduktion kann man nicht unmittelbar ansehen, ob es sich um eine gute Erklärung oder nur eine scheinbare und etwa empirisch leere Erklärung handelt. Wie gut die Erklärung ist, hängt unter anderem davon ab, wie gut die erklärende Theorie ist. Die epistemische Bewertung einer Theorie ist aber eine Sache, die nicht allein von der Beziehung zwischen Theorie und dem einen Datum abhängt, sondern vielmehr von der Beziehung zwischen der Theorie und vielen Fakten, die sie ebenfalls erklärt, und außerdem auch von vielen intertheoretischen Beziehungen zu anderen Theorien. Um an ein berühmtes Beispiel für eine Bewertung aufgrund intertheoretischer Zusammenhänge zu erinnern: Die Beurteilung der Newtonschen Mechanik, die über lange Zeit im wesentlichen unangefochten als die paradigmatische wissenschaftliche Theorie betrachtet wurde, änderte sich zusehends mit der Anerkennung der Maxwellschen Elektrodynamik. Unter anderem ihr unterschiedliches Invarianzverhalten war für Einstein das entscheidende Motiv, nach einer neuen Mechanik zu suchen. Einstein behaup-

C. Lokale und Globale Aspekte von Rechtfertigung

167

tete von sich selbst sogar, daß er den einzigen experimentellen Befund, der in den ersten Jahren für die spezielle Relativitätstheorie sprach, nämlich das Michelson-Morley Experiment, um 1905 nicht gekannt hat. Auch wenn seine Erinnerung ihn darin vermutlich in die Irre fuhrt (s. Pais 1982, 114ff), hat er recht, daß dieser Befund nicht den entscheidenden Anstoß zur Entwicklung der neuen Mechanik geben konnte (s. z. B. Holton 1981, 277ff). Das ist nur ein Beispiel für eine intertheoretische Abhängigkeit erkenntnistheoretischer Bewertungen, in dem zwei Theorien in einen erkenntnistheoretischen Zusammenhang gestellt werden, obwohl sie sogar über weitgehend getrennte Anwendungsbereiche verfügen. Das ist zugleich ein Hinweis, wie auf versteckte Weise intertheoretische Beziehungen epistemisch wirksam werden können. In der Debatte um holistische Strukturen in der Wissenschaft finden sich weitere Beispiele, auf die zum Teil schon Duhem hingewiesen hat. Ebenso gilt das für den Fall einer Theorie, die mittels Abduktion gestützt wird. Sie wird nicht nur von einer Anzahl von Daten gestützt, sondern die Bewertung, wie gut die sie stützenden Daten sind, bedarf wiederum einer Einschätzung der Zuverlässigkeit der Daten. Das geschieht mittels (anderer) Theorien wie Theorien der Wahrnehmung oder Theorien über die Kontinuität bestimmter Vorgänge etc. (vgl. IV.B.2). Dabei können auch Metaeinschätzungen etwa anhand epistemischer Überzeugungen über die Zuverlässigkeit bestimmter Wahrnehmungen in bestimmten Situationen eine Rolle spielen, z. B. über die Genauigkeit astronomischer Daten bei Fernrohrbeobachtungen zu einem bestimmten Stand der Fernrohrtechnik. Diese epistemischen Überzeugungen können ihrerseits erkenntnistheoretische Zusammenhänge zwischen vollkommen unterschiedlichen Theorien herstellen. Alle von mir diskutierten Beispiele für Begründungen mußten sich darauf beschränken, kleine Teile einer solchen Rechtfertigung herauszugreifen, weil die Analysen sonst zu umfangreich geworden wären, aber es gab in der Regel zusätzlich Hinweise, inwiefern weitere Zusammenhänge des Meinungssystems für diese idealisierten Rechtfertigungen erkenntnistheoretisch bedeutsam sind. Denken wir noch einmal an das Beispiel einer in der Hitze flüssig erscheinenden Straße aus Abschnitt (III.B.5.b) zurück, die sich beim Näherkommen als normale Asphaltstraße entpuppt. Um unsere Überzeugung zu begründen, daß sie das die ganze Zeit war und sich nicht erst beim Näherkommen von einer Flüssigkeit in Asphalt verwandelt hat, können wir uns auf zunehmend größere Teile unseres Hintergrundwissens beziehen; zunächst auf Wahrnehmungstheorien, die uns das Phänomen angefangen von der Lichtbrechung in der heißen Luft bis zu unserem Eindruck von Flüssigkeit erklären. Diese physikalischen und sinnesphysiologischen Theorien sollten ihrerseits nicht beliebige Theorien sein, sondern gut begründete Theorien, wenn sie eine gute Erklärung bieten sollen. Welche epistemische Kraft sie übertragen können, hängt von ihrer weiteren Verankerung in unserem Netz von Überzeugungen ab. Die Theorien des Lichts werden z. B. gestützt durch viele Phänomene der geometrischen Optik, der Interferenz, der Brechung etc., die sie erklären und durch ihre theoretische Einbettung in die Elektrodynamik als Theorie der elektromagnetischen Wellen und schließlich der Quantenoptik. Für all diese Theorien können wir wiederum fragen, wie sie epistemisch

168

IV Kohärenz

dastehen. Die Theorien der Sinnesphysiologie oder sogar neurologische Theorien unserer Wahrnehmungsverarbeitung stützen sich auf andere Daten und sind in andere theoretische Kontexte eingebettet; etwa in biologische Theorien über den Nervenaufbau und ihre Zusammenschaltung, die sich ihrerseits auf chemische und physikalische Gesetze stützen können usf. Außerdem dürfen wir unser Wissen über eine gewisse Kontinuität von Materie und speziell Asphalt unter gewissen Bedingungen in Anschlag bringen, die wir sowohl in unserem Alltagswissen wie in unserem wissenschaftlichen Wissen verankern können. Dahinter stehen noch allgemeinere Konzeptionen von Energieerhaltung, die ihrerseits in vielen spezielleren Theorien eine Bestätigung erfahren. Daneben können wir auch mögliche Fehlerquellen unserer Wahrnehmung ausschalten und uns darauf beziehen, wie zuverlässig wir ähnliche Wahrnehmungen in anderen Fällen vornehmen konnten. Dem Umfang einer solchen Analyse sind kaum Grenzen gesetzt, und ich kann an diesem Punkt natürlich nur einige Fingerzeige geben, auf welchen Wegen sie weitergehen kann. In einer Kontroverse mit jemandem, der eine meiner Meinungen in Frage stellt, kann ich nur hoffen, nicht so weit gehen zu müssen, indem ich gemeinsame Meinungen oder Theorien suche, die ich dann als Startpunkte meiner Begründung wählen kann. Im Prinzip kann sich die Zuverlässigkeitsanalyse einer Beobachtung also auf recht allgemeinem Niveau auf relativ globale Zusammenhänge unseres Meinungssystems beziehen aber ebenso auf spezielle Verästelungen, die wiederum allgemeine Ansichten wie die der Energieerhaltung stützen, und somit schließlich globalen, holistischen Charakter annehmen. Dem können wir in der Praxis nicht tatsächlich in allen Einzelheiten nachgehen, sondern wir können gegebenenfalls darauf verweisen, daß unser Meinungssystem so kohärent ist, daß es solchen Nachprüfungen standhalten würde, führte man sie weiter. Hier sind wir gezwungen, uns direkt auf die globale Kohärenz und Geschlossenheit unseres Wissens zu berufen.24 Auch für deduktive Beziehungen gilt daher, daß sich zwar lokal feststellen läßt, ob sie bestehen, aber welche epistemische Kraft sie übertragen, kann letztlich nur im Rahmen einer Bestimmung der globalen Kohärenz des ganzen Überzeugungssystems bestimmt werden. Denn auch für sie müssen wir ermitteln, welchen epistemischen Stellenwert ihre Prämissen aufweisen. Williams (1991, 276ff) unterscheidet dazu zwischen zwei Formen von Kohärenz: relationaler und systematischer. Relationale Kohärenz einer Aussage mit einem Überzeugungssystem betrifft die Frage, wie kohärent sich die Aussage (lokal) in dieses System einfügt, während es in der systematischen Kohärenz eines Überzeugungssystems darum geht, wie kohärent dieses System als Ganzes ist. Eine Kohärenztheorie der Rechtfertigung wird sich im allgemeinen auf diese beiden Formen von Kohärenz stützen müssen, um den globalen Aspekten von Begründungen ebenso gerecht werden zu können wie den lokalen. Ein Überzeugungssystem hat dabei um so größere rechtfertigende Kraft, je größer die Kohärenz der Überzeugungen dieses Systems untereinander ist, während die spezielle Rechtfertigung einer bestimmten Aussage davon abhängt, wie sehr gerade sie von diesem System begründet wird, wie (relational) kohärent sie also in das System hineinpaßt und zur (systematischen) Gesamtkohärenz beiträgt.

D. Drei Kohärenzkonzeptionen

169

Die beiden Formen von Kohärenz hängen natürlich in systematischer Weise zusammen, was in meiner Explikation von Kohärenz auch zum Ausdruck kommen wird. Bevor ich einen eigenen Vorschlag dafür vortrage, möchte ich aber noch einen Blick auf drei andere prominente Kohärenzkonzeptionen werfen und zusehen, wie es ihnen gelingt, die unterschiedlichen Aspekte von Kohärenz zusammenzufügen. Zur Vorsicht sei noch angemerkt, daß es natürlich falsch ist, den holistischen Aspekt von Rechtfertigungen und inferentiellen Zusammenhängen zu übertreiben und womöglich in einer Formel wie: „Alles hängt mit allem zusammen" oder „Alles hängt von allem anderen ab" zu formulieren. Auch hier finden sich Grade des Zusammenhängens und in vielen Fällen ist der Abstand von Aussagen so groß, daß man für viele Zwecke nicht mehr sinnvoll von einem Zusammenhang reden wird. Wie global bestimmte Zusammenhänge sind, kann auch nur für konkrete Fälle festgestellt werden. In der Wissenschaftstheorie finden sich einige Modelle und Untersuchungen zu diesem Thema, die anhand konkreter Fallstudien substantiellere Aussagen treffen können (s. z. B. Gähde 1983 und 1989 oder Bartelborth 1993). Diesen Punkt werde ich für den wissenschaftlichen Bereich im späteren Teil der Arbeit erneut aufwerfen.

D. Drei Kohärenzkonzeptionen In (IV.A) sind die wesentlichen Komponenten einer Kohärenztheorie der Rechtfertigung intuitiv besprochen worden, in (IV.B) habe ich dargestellt, wie sich eine wichtiger Bereich unserer Erkenntnis, nämlich die Beobachtungsüberzeugungen, in ihrem Rahmen unterbringen lassen und im vorigen Abschnitt wurde belegt, daß eine kohärentistische Rechtfertigung immer wesentlich holistische Aspekte zu berücksichtigen hat. Es ist nun an der Zeit, konkrete Vorschläge für Explikationen von „Kohärenz" daraufhin anzusehen, inwieweit sie diesen Anforderungen an Kohärenz gerecht werden. Zu diesem Zweck werde ich zuerst drei Konzeptionen von Kohärenz genauer untersuchen, um danach einen eigenen Explikationsvorschlag vorzustellen. Neben idealistischen Kohärenzvertretern wie Bradley oder Blanshard, für die sich Wahrheit durch Kohärenz definieren ließ (s. dazu Rescher 1982, 31 ff) und analytischen Philosophen wie Sellars und Rescher, die erste Vorschläge für Kohärenzkonzeptionen vorlegten (die hier allerdings nicht eigens betrachtet werden sollen), war es hauptsächlich Keith Lehrer, der die Kohärenztheorie in diesem Jahrhundert hoffähig gemacht hat.

1. Lehrers Kohärenztheorie Lehrer hat seine Vorstellungen von Wissen und epistemischer Rechtfertigung im Rahmen einer Kohärenztheorie in zahlreichen Artikeln und einigen Büchern entwickelt. Im Vordergrund steht für ihn das Projekt einer Wissensexplikation, aber in diesem Zusammenhang entwirft er ebenfalls eine Theorie der Rechtfertigung. Diese enthält eine Reihe von externalistischen Elementen, die für mein Projekt nicht weiter beachtet werden

170

IV Kohärenz

sollen. Hier steht daher seine Explikation von „personally justified", das sich ungefähr in mein „gerechtfertigt" übersetzen läßt, im Zentrum. Damit eine Überzeugung für ein Subjekt S gerechtfertigt ist, muß sie nach Lehrer mit dem Überzeugungssystem X von S kohärent sein. Lehrer spricht in diesem Zusammenhang von einem „acceptance system" statt von einem Überzeugungssystem (s. a. II.C.l), aber für unsere Zwecke können wir diese Unterscheidung vernachlässigen. Kohärenz ist für Lehrer überwiegend negativ bestimmt als Reduktion von Konflikten (s. z. B. Lehrer 1990a, 231). So hat eine Proposition p sich für Lehrer vor dem Hintergrundsystem X gegenüber allen Konkurrenten durchzusetzen und diese aus dem Felde zu schlagen, um aufgrund von X akzeptiert zu werden. In Lehrers Terminologie: p hat alle Konkurrenten auf der Grundlage von X aus dem Felde zu schlagen oder zumindest zu neutralisieren, um akzeptiert zu werden. Dabei wird ermittelt, welche von zwei konkurrierenden Annahmen relativ zu unserem Hintergrundwissen plausibler ist, und diese dann akzeptiert, während die aufgetretenen Konkurrenten, die Konflikte in unser Überzeugungssystem brächten, abgewiesen werden. Was damit in Lehrers Konzeption nicht auftritt, sind Anforderungen an die Kohärenz des Hintergrundwissens, die über Konsistenz oder Konfliktfreiheit für lokale Konkurrenten hinausgehen und positive Beziehungen zwischen den Meinungen verlangen. Gerade (IV.A.l) sollte zeigen, daß die Abwesenheit von Inkonsistenzen allein für Kohärenz bei weitem nicht ausreicht, und ebensowenig können in Lehrers lokaler Konzeption der Reduktion von Konflikten die holistischen Zusammenhänge, wie sie in (IV.C) angesprochen wurden, angemessen erfaßt werden. Lehrer verlangt nämlich nicht, daß jede Aussage p des Überzeugungssystems durch zahlreiche positive Verbindungen in X verankert wird, die die Grundlage für eine holistische Rechtfertigung von p bilden. Sehen wir uns dazu kurz die Einzelheiten der Lehrerschen Konzeption unter diesen Gesichtspunkten an. Eine semiformale Explikation von Lehrers Begriffen findet sich an unterschiedlichen Stellen seines Werks (z. B. 1988, 34Iff; 1990a, 232; 1990b, 148). Die folgende stammt aus Lehrer (1990b, 148): Dl. A system X is an acceptance system of S if and only if X contains just statements of the form, S accepts that p, attributing to S just those things that S accepts with the objective of accepting that p if and only if p. D2. S is justified in accepting p at t on the basis of system X of S at t if and only if p coheres with X of S at t. D3. p coheres with X of S at t if and only if all competitors of p are beaten or neutralized for S on X at t.25 D4. c competes with p for S on X at t if and only if it is more reasonable for S to accept that p on the assumption that c is false than on the assumption that c is true, on the basis of X at t.

D. Drei

Kohärenzkonzeptionen

171

D5. p beats c for S on X at t if and only if c competes with p for S on X at t, and it is more reasonable for S to accept p than to accept c on X at t. D6. n neutralizes c as a competitor of p for S on X at t if and only if c competes with p for S on X at t, the conjunction of c and n does not compete with p for S on X at t, and it is as reasonable for S to accept the conjunction of c and n as to accept c alone on X at t. D7. S is personally justified in accepting that p if and only if S is justified in accepting that p on the basis of the acceptance system of S at t. Die erste Bestimmung beschreibt Lehrers Konzeption von „acceptance system" als einem System von Aussagen, die man akzeptiert, weil man sie für wahr hält. Damit soll genau das für die Erkenntnistheorie relevante Merkmal von Überzeugungen herausgegriffen werden. In (D2) bekennt sich Lehrer zur Kohärenztheorie in bezug auf epistemische Rechtfertigungen. (D3) ist die einzige Bedingung, die den Kohärenzbegriff selbst näher bestimmt, aber es wird nichts über die mögliche Kohärenz oder Inkohärenz des Hintergrundwissens X gesagt, sondern nur darüber, ob p seine Konkurrenten besiegen kann. Daß dem Kohärenzkonzept in dieser Theorie keine eigenständige Rolle zufällt, kann man daran erkennen, daß es in den restlichen Bestimmungen nicht mehr auftritt und relativ leicht zu eliminieren wäre. Wir müßten dazu nur die Bedingungen (D2) und (D3) zu einer neuen Bedingung zusammenziehen: (D2')

S ist justified in accepting p at t on the basis of system X of S at t if and only if all competitors of p are beaten or neutralized for S on X at t.26

Kohärenz kommt damit eigentlich nicht wesentlich in dieser Definition vor, sondern nur als im Prinzip überflüssiger Zwischenschritt von Justified" zu „beaten" oder „neutralized". Lehrers Vorstellung von Kohärenz erschöpft sich denn auch in der von relationaler Kohärenz von Aussagen zu einem System X. Globale oder systematische Kohärenz ist für Lehrer dagegen kein Thema. Eine Aussage ist gerechtfertigt, wenn sie vor unserem Hintergrundwissen vernünftiger ist als ihre möglichen Konkurrenten. Die eher technischen Einzelheiten der Neutralisierung oder dem Schlagen von Konkurrenten sollen hier nicht untersucht werden, aber überraschend bleibt, daß Lehrer sich grundlegend auf das Konzept „vernünftiger vor unserem Überzeugungssystem X" stützt, ohne es weiter zu erläutern, obwohl das keineswegs aussichtslos erscheint. Derartige Bewertungen weiter aufzuschlüsseln ist gerade eine wesentliche Aufgabe, der Kohärenztheorie. Außer dem Hinweis, daß man „vernünftiger" nicht mit „wahrscheinlicher" identifizieren dürfe, weiß Lehrer aber nicht viel zu diesem Konzept zu sagen und führt es als einen Grundbegriff ein. Der für Kohärenz sicher wichtige Begriff der Konkurrenz von Aussagen leidet dann auch darunter, anhand eines zu ihm eng benachbarten Grundbegriffs definiert zu werden. Lehrers Beschränkung auf relationale Kohärenz, die auch nur als ein im Prinzip überflüssiger Zwischenschritt auftritt, läßt erkennen, daß es sich überhaupt nicht um eine

172

IV Kohärenz

genuine Kohärenztheorie handelt. Die Konkurrenz von Aussagen in unserem Meinungssystem ist sicher ein Phänomen, das die Kohärenz des Systems bedroht, aber dabei handelt es sich eben nur um einen Aspekt von Kohärenz. Die Vermeidung von Konflikten kann niemals auf positive Weise erschöpfend darstellen, worin Kohärenz besteht. Sehen wir uns als nächstes die Konzeption eines Konkurrenten von Lehrer an, der sich bemüht, die globalen Aspekte von Kohärenz zu berücksichtigen.

2. BonJours Theorie der Rechtfertigung In den letzten Jahren stand zunehmend die Kohärenztheorie von Laurence BonJour im Interesse der Erkenntnistheoretiker. Neben der Tatsache, daß BonJour sich als einer von wenigen bemüht, eine originäre Kohärenztheorie in einem realistischen Rahmen zu entwickeln, scheint mir insbesondere seine recht überzeugende Behandlung von Wahrnehmungen (s. IV.B), die häufig eher eine Schwachstelle von Kohärenztheorien darstellte, der Grund für dieses Interesse zu sein. In BonJours Kohärenztheorie spielt die systematische Kohärenz (allerdings ohne dort diesen Namen zu tragen), eine wichtige Rolle. Für ihn (BonJour 1985, 92) 27 hängt im Unterschied zu Lehrer die Rechtfertigung einer Überzeugung durch ein System von Überzeugungen wesentlich von der globalen Kohärenz dieses Systems ab. Er hat in (1985, 93ff) sein Konzept von Kohärenz vorgelegt, das er mit einer intuitiven Charakterisierung von Kohärenz einleitet, die noch einmal deutlich macht, in welcher Richtung er sucht. What then is coherence? Intuitively, coherence is a matter of how well a body of belief „hangs together": how well its component beliefs fit together, agree or dovetail with each other, so as to produce an organized, tightly structured system of beliefs, rather than either a helter-skelter collection or a set of conflicting subsystems. It is reasonably clear that this „hanging together" depends on the various sorts of inferential, evidential, and explanatory relations which obtain among the various members of a system of beliefs, and especially on the more holistic and systematic of these. So deutlich und klar BonJour seine Vorstellung von Kohärenz auch formuliert, so bleibt er doch in der Ausformulierung seiner Theorie an einigen Stellen enttäuschend. Schon daß er nicht klar zwischen relationalen und systematischen Aspekten der Kohärenz unterscheidet und viele Kohärenzforderungen ausgesprochen vage bleiben, da es die in ihnen verwendeten Grundbegriffe sind. BonJour (1985, 94) entschuldigt sich für diese Defizite seiner Theorie damit, daß sie nicht nur seine Erkenntnistheorie betreffen, sondern auch alle Konkurrenzprodukte, die seines Erachtens ebenfalls auf ein Kohärenzkonzept angewiesen sind. Das mag wohl stimmen, denn auch die fundamentalistischen Theorien kennen nicht nur basale Meinungen, sondern auch nichtbasale, die einer inferentiellen Rechtfertigung bedürfen. Aber erstens gibt es die Ausgestaltungen der Induktionslogik oder neueren epistemischen Logik, die mit sehr viel präziseren Konzeptionen aufwarten und außerdem bleibt natürlich gerade für eine Kohärenztheorie die berechtigte Forderung bestehen, genauer zu erfahren, was denn mit „Kohärenz" gemeint ist. BonJour (1985, 95ff) gibt uns dazu fünf Bedingungen für Kohärenz:

D. Drei Kohärenzkonzeptionen

173

1. A system of beliefs is coherent only if it is logically consistent. 2. A system of beliefs is coherent in proportion to its degree of probabilistic consistency. 3. The coherence of a system of beliefs is increased by the presence of inferential connections between its component beliefs and increased in proportion to the number and strength of such connections. 4. The coherence of a system of beliefs is diminished to the extent to which it is divided into subsystems of beliefs which are relatively unconnected to each other by inferential connections. 5. The coherence of a system of beliefs is decreased in proportion to the presence of unexplained anomalies in the believed content of the system. Die erste Forderung ist insoweit unproblematisch, wie sie nur die allseits anerkannte Forderung nach logischer Konsistenz für Kohärenz noch einmal beschwört. Allerdings ist sie so formuliert, daß Konsistenz fur Kohärenz eine conditio sine qua non wird. Enthält unser Überzeugungssystem auch nur eine Inkonsistenz, können wir danach nicht mehr von Kohärenz sprechen. Diese Forderung an das ganze Überzeugungssystem gerichtet erscheint mir zu stark, denn solche Inkonsistenzen finden sich durchaus immer wieder in unseren Überzeugungen, und damit muß nicht das ganze System gleich vollkommen inkohärent sein. Wie sich Inkonsistenzen logisch auf bestimmte Bereiche begrenzen lassen, z. B. anhand parakonsistenter Logiken, ist jedoch ein kompliziertes technisches Problem, das entsprechenden Rekonstruktionen von Wissenssystemen in der epistemischen Logik vorbehalten bleibt.28 Man darf Inkonsistenzen allerdings auch nicht auf die leichte Schulter nehmen, wie das in der Wissenschaftsphilosophie manchmal befürwortet wird. Ich bin kein Vertreter der Lakatosschen These, daß auch genuin inkonsistente Theorien akzeptiert werden können. Lakatos Beispiel dafür ist das Bohrsche Atommodell, das nur bei einer unangemessenen Interpretation intrinsisch inkonsistent erscheint (s. dazu Bartelborth 1989). Inkonsistenzen fuhren also wesentlich zu Inkohärenz, diese Inkonsistenzen sind trotzdem in vielen Fällen so zu begrenzen, daß sie nicht automatisch das ganze Meinungssystem infizieren. In der zweiten Bedingung möchte BonJour den Sonderfall von statistischen Aussagen behandeln, für den er Grade von Inkohärenz anerkennt. Er denkt dabei z. B. an Fälle, in denen wir glauben, daß p, und zugleich glauben, daß p sehr unwahrscheinlich ist. Es ist klar, daß auch solche Zusammenhänge eine gewisse Form von Inkohärenz in ein Aussagensystem bringen können. Die Besonderheiten statistischer Aussagen möchte ich aber hier nicht weiter verfolgen.29 In seiner 3. Bedingung geht es schließlich um allgemeinere inferentielle Zusammenhänge in unserem Überzeugungssystem. Es scheint einleuchtend, daß mit ihrer Vermehrung und Verstärkung die Kohärenz des Systems zunimmt. Relativ offen bleibt aber, an welche Inferenzen BonJour hier denkt —jedenfalls wenn man von Erklärungsbeziehungen absieht. Ebenso offen bleibt, ob sich derartige Zusammenhänge einfach aufzählen

174

IV Kohärenz

lassen und was unter ihrer Stärke verstanden werden soll. Wenn man diese Vagheiten in Rechnung stellt, bietet die ganze Bedingung (3) nicht viel mehr als eine Umformulierung von BonJours intuitiver Position. BonJour nennt als einzig substantielle Form von Inferenz neben den logischen Beziehungen die Erklärungsbeziehung, die seiner Meinung nach aber nur einen Teil der inferentiellen Beziehungen ausmacht. In diesem Punkt, den ich in Abschnitt (IV.E.4) wieder aufgreife, schließt er sich Lehrer an. Auch BonJours Ausfuhrungen zum Erklärungsbegriff fallen letztlich unbefriedigend aus, denn er weiß dazu nur auf das Hempelsche DN-Konzept der Erklärung zu verweisen, und Hempels Bemerkung, daß es sich bei Erklärungen um Deduktionen besonderer Art handelt, nämlich solche, die zur systematischen Vereinheitlichung beitragen. Hier sieht BonJour zwar zu Recht eine enge Verbindung zum Kohärenzkonzept, aber in der gegenwärtigen Formulierung bleibt die dritte Forderung zu inhaltsleer, solange nicht weiter expliziert ist, was unter den „inferentiellen Beziehungen" und speziell der „Erklärung" zu verstehen ist. Das gilt um so mehr, wenn man in Rechnung stellt, daß das Hempelsche Erklärungsschema keine adäquate Explikation von „Erklärung" liefert. BonJour hat daher auch keine besonders gehaltvolle Konzeption von Vereinheitlichung anzubieten. Zwar leidet die 4. Bedingung ebenfalls unter einer gewissen Vagheit, aber sie bringt immerhin einen hilfreichen und intuitiv verständlichen Begriff ins Spiel bringt, nämlich den des Subsystems. Ein Subsystem ist eine Teilmenge des Überzeugungssystems mit relativ wenigen inferentiellen Beziehungen zum Rest des System, so daß dadurch das ganze System nicht mehr zusammenhängend ist, sondern nahezu in Teilsysteme zerfällt. Damit nennt BonJour einen wesentlichen Punkt für die globale Kohärenz, denn es kommt dafür nicht nur darauf an, wieviele Erklärungsbeziehungen in dem System vorliegen, sondern auch, wie sie verteilt sind. Leider läßt uns BonJour hier im Stich, wie mögliche Beispiele aussehen könnten. Ohne mich auf die speziellen Beispiele festlegen zu wollen, könnte man an Theorien wie das Kaffeesatzlesen als Prognoseverfahren oder vielleicht Theorien über Kobolde denken, die nur wenige Verbindungen zu unserem übrigen Weltbild aufweisen. Unser Meinungssystem würde dadurch kohärenter werden, daß wir diese Theorien aufgeben, weil sie einen Fremdkörper in unseren Meinungssystemen darstellen, auch wenn sie in sich vielleicht so kohärent sind, daß jede einzelne Aussage des Subsystems einige inferentielle Rechtfertigungen aufweist. 30 Ein philosophisch interessantes Beispiel für ein Subsystem findet sich möglicherweise in der Philosophie des Geistes. Falls die eliminativen Materialisten Recht haben sollten, bilden unsere Überzeugungen über intentionale Zustände ein zunehmend isoliertes Subsystem, das nach entsprechenden Fortschritten der Neurophysiologie immer weniger Bezüge zu unserem wissenschaftlichen Weltbild aufweist. Aus Kohärenzgründen sollten wir es dann aus unserem Überzeugungssystem eliminieren. Davon sind wir tatsächlich natürlich noch sehr weit entfernt, aber das Beispiel offenbart, wie sich bestimmte wissenschaftliche Debatten in die Begrifflichkeit der Kohärenztheorie übersetzen lassen und damit die in ihnen enthaltene erkenntnistheoretische Fragestellung deutlicher wird.

D. Drei Kohärenzkonzeptionen

175

Das Konzept des Subsystems scheint mir ein wichtiges begriffliches Hilfsmittel zur Charakterisierung von Rechtfertigungsstrukturen unserer Meinungssysteme zu sein, aber auch für seine Explikation ist man darauf angewiesen, genauer zu bestimmen, welche inferentiellen Verbindungen für Kohärenz verlangt werden. Meines Erachtens handelt es sich neben der Forderung nach Konsistenz hauptsächlich um Erklärungsbeziehungen. Das paßt gut zur fünften BonJourschen Forderung, die Erklärungsanomalien für eine Abnahme von Kohärenz verantwortlich macht — leider auch ohne diesen Begriff inhaltlich stärker zu füllen. Natürlich ist nicht jede Aussage, die von einer Theorie nicht erklärt wird, damit schon eine Anomalie für diese Theorie. In den Debatten um Kuhn wird dieser Begriff verwandt und mit einigen Beispielen belegt, aber der inhaltliche Aspekt, der Anomalien zu Anomalien macht, ist meines Wissens auch dort nicht festgemacht worden. Das ist eine der vielen Aufgaben, die eine Erklärungstheorie zu übernehmen hat und wird daher im wissenschaftstheoretischen Teil der Arbeit behandelt (s. IX.H.1) Mein Resümee zu BonJours Theorie lautet daher: Die Explikation der zentralen Begriffe wie „probabilistische Konsistenz", „Anzahl und Stärke" inferentieller Beziehungen, „Erklärung", „Subsystem" und „Erklärungsanomalie" läßt noch zu viele Wünsche offen — j a zeigt nicht einmal, in welcher Richtung wir nach Präzisierungen suchen sollen —, um sich mit der BonJourschen Theorie zufriedengeben zu können. Neben den Bedingungen zur logischen oder probabilistischen Konsistenz spricht BonJour zwar von inferentiellen Beziehungen, er kann aber nur einen Typ solcher Zusammenhänge konkret benennen, nämlich die Erklärungsbeziehungen, die ihrerseits nur unbefriedigend expliziert werden. Außerdem machen sie nach BonJours Ansicht auch nur einen nicht näher bestimmten Teil der inferentiellen Zusammenhänge aus. Seine Konzeption von Kohärenz bleibt damit an relevanten Stellen zu vage, um abschließend beurteilt werden zu können. Außerdem wirkt die Zusammenstellung der Bedingungen nicht immer systematisch, und es fehlen Hinweise auf ihren Zusammenhang. Neben seiner Kohärenzkonzeption und seiner Vorstellung von nicht-linearer Rechtfertigung fügt BonJour seiner Rechtfertigungstheorie noch zwei weitere Bestimmungsstücke hinzu, seine ,J)oxastic Presumption" (1985, lOlff) und seine „Observation Requirement" (1985, 141 ff). Die „Doxastic Presumption" habe ich in (IV.B.4) bereits besprochen. Es ist eine Metaannahme BonJours über internalistische Rechtfertigungen, wonach Rechtfertigungen immer Rechtfertigungen unter der Voraussetzung sind, daß wir zumindest eine approximativ korrekte Vorstellung davon besitzen, welche Meinungen wir haben. BonJours „Observation Requirement" ist ebenfalls eine Metaforderung an Kohärenztheorien, mit der sich BonJour gegen den Vorwurf zur Wehr setzen möchte, daß in seiner Kohärenztheorie der Input, den unser Überzeugungssystem mittels Wahrnehmungen von außen erhält, nicht ausreichend berücksichtigt wird. Er formuliert diese Forderung: (OR) Observation Requirement: [...] in order for the beliefs of a cognitive system to be even candidates for empirical

176

IV Kohärenz

justification that system must contain laws attributing a high degree of reliability to a reasonable variety of cognitively spontaneous beliefs [...]. (BonJour 1985, 141) BonJour verlangt mit (OR) nicht, jedes kohärente System müsse auf empirischen Input bedacht sein. Aber er hält es für eine geradezu analytische Forderung, daß ein System, in dem man von empirischer Rechtfertigung durch Kohärenz spricht, bestimmte Wahrnehmungen als Input auszeichnen muß. Er läßt dabei jedoch offen, was von einem solchen System jeweils als Input betrachtet wird. Darüber haben die entsprechenden Theorien des betreffenden Systems anhand von Kohärenzüberlegungen zu befinden. Er sieht es - im Unterschied zu den Empiristen - nicht als eine Aufgabe einer Theorie der Rechtfertigung an, ein für allemal festzulegen, was als vertrauenswürdiger Input zu gelten hat und was nicht. Das paßt auch besser zu unserer differenzierteren Konzeption von Wahrnehmungen, die in unterschiedlichem Ausmaß zuverlässig sind, und unserer empirischen Forschung, die ermittelt, wie zuverlässig welche Beobachtungen sind. Unter entsprechenden Umständen könnten es sogar religiöse Erleuchtungserlebnisse sein, die uns Input von der Welt vermitteln. Auch das wird von (OR) nicht a priori ausgeschlossen. (OR) scheint damit eine plausible Metaforderung für empirische Rechtfertigung zu sein, die keine zu starken inhaltlichen Forderungen in die Erkenntnistheorie hineinträgt. Trotzdem werde ich mich einer anderen Metaforderung zuwenden, die meines Erachtens noch kanonischer in eine Kohärenztheorie paßt (s. V.A.3).

3. Thagards Theorie der Erklärungskohärenz Thagards Kohärenzkonzeption der Rechtfertigung (z. B. in 1989 und in einer Weiterentwicklung 1992, Kap. 4) ist die von unseren Beispielen am weitesten ausgearbeitete und wurde bereits in zahlreichen Anwendungen erprobt. Er nimmt den Begriff der Erklärung als Grundbegriff und bestimmt, wie sich daraus ein zumindest komparativer Begriff von Erklärungskohärenz ergibt, wenn man die Erklärungsbeziehungen eines Aussagensystems als bekannt voraussetzt. Diese Voraussetzung ist in der Praxis nicht unbedingt problematisch, weil wir oft relativ klare Vorstellungen davon haben - zumindest in den wissenschaftlichen Beispielen, die Thagard vorwiegend untersucht - , wo Erklärungsbeziehungen vorliegen. Für eine metatheoretische Explikation von epistemischer Rechtfertigung bleibt hingegen der Wunsch bestehen, ebenfalls über eine präzise Theorie zu verfugen, was man unter Erklärung verstehen soll, zumal Thagard selbst auf die vielen konkurrierenden Ansätze in der Diskussion um wissenschaftliche Erklärungen hinweist. Man muß bei Thagard zwischen zwei Formen unterscheiden, in denen er seine Theorie präsentiert. Die eine ist seine Theorie der Erklärungskohärenz, die in einer Reihe von semiformalen Prinzipien erläutert, worin Erklärungskohärenz besteht. Die andere ist sein auf der Grundlage dieser Theorie entworfenes konnektionistisches Computerprogramm namens ECHO, das die Prinzipien seiner Theorie in ein Programm umsetzt, mit dem sich die Kohärenz von Aussagenmengen bestimmen läßt. Mit Hilfe dieses Programms war es Thagard möglich, seine Kohärenztheorie auf eine Reihe

D. Drei Kohärenzkonzeptionen

177

konkreter Beispiele anzuwenden, für die sich plausible Ergebnisse einstellten (s. Thagard 1992). Hauptsächlich analysierte er mit ECHO und einer Theorie begrifflicher Revolutionen historische Fälle von wissenschaftlichen Revolutionen sowie die Beweisführung in verschiedenen Mordprozessen (Thagard 1989, 450ff). In beiden Typen von Anwendungen geht es darum, daß konkurrierende Theorien oder Hypothesen anhand von entsprechenden Daten gegeneinander abzuwägen sind. Nach Thagard läßt sich dieser Vorgang als ein Vergleich der internen Kohärenz des Komplexes aus Daten und Theorien auf der Grundlage der vorliegenden Erklärungsbeziehungen verstehen. Aus der Sicht der naturalistischen Methodologie sind die vielen erfolgreichen Anwendungen von ECHO eine Stützung der Sichtweise, daß Erklärungskohärenz unser entscheidender Wahrheitsindikator ist. Ich möchte mich hier aber ganz auf die Diskussion von Thagards Theorie und nicht die seines Programms konzentrieren. Er schlägt in seiner Theorie sieben Prinzipien vor, die angeben, wie Kohärenz aus Erklärungsbeziehungen entsteht. Die Prinzipien für Aussagen P, Q und ein Aussagensystem S lauten: Principle 1. Symmetry. (a) If P and Q cohere, then Q and P cohere. (b) If P and Q incohere, then Q and P incohere. Principle 2. Explanation. If Pj.-.Pn explain Q, then: (a) For each P| in P t .. .Pn, Pj and Q cohere. (b) For each Pj and P, in P,.. ,Pn, Pj and Pj cohere. (c) In (a) and (b) the degree of coherence is inversely proportional to the number of propositions P[.. ,Pn. Principle 3. Analogy. If P t explains Q,, P2 explains Q2, Pi is analogous to P2, and Ch is analogous to Q2, then P, and P2 cohere, and Q] and Q2 cohere. Principle 4. Data Priority. Propositions that describe the results of observation have a degree of acceptability of their own. Principle 5. Contradiction. If P contradicts Q, then P and Q incohere. Principle 6. Competition. If P and Q both explain a proposition Pj, and if P and Q are not explanatory connected, then P and Q incohere. Here P and Q are explanatory connected if any of the following conditions holds: (a) (b)

P is part of the explanation of Q. Q is part of the explanation of P.

178 (c)

IV Kohärenz P and Q are together part of the explanation of some propositions Pj.

Principle 7. Acceptability. (a) The acceptability of a proposition P in a system S depends on its coherence with the propositions in S. (b) If many results of relevant experimental observations are unexplained, then the acceptability of a proposition P that explains only a few of them is reduced. (Thagard 1992, 66; Vorgängerversion 1989). Zunächst fällt auf, daß Kohärenz für Thagard eine Relation zwischen einzelnen Aussagen darstellt und nicht eine Eigenschaft des ganzen Systems von Aussagen. Die quantitative Umsetzung seiner Theorie im Programm ECHO zeigt aber, wie dabei durchaus holistische Phänomene auftreten und berücksichtigt werden können. Billigen wir ihm diese Beschränkung auf einzelne Propositionen also zunächst einmal zu. Das erste Prinzip der Symmetrie ist wohl als Bedeutungspostulat für den Kohärenzbegriff zu verstehen und in dieser Form kaum kontrovers. Sein Einsatz in einer Theorie der Rechtfertigung bringt im Rahmen der Gesamttheorie die bereits erwähnte Reziprozität von Rechtfertigungsbeziehungen zum Ausdruck. Auffallend ist nur, daß auch die Inkohärenz eigens erwähnt wird. Würde er Inkohärenz mit der Abwesenheit von Kohärenz identifizieren, genügte eigentlich schon Bedingung (la), da (lb) keine besonders interessanten zusätzlichen Informationen böte. Inkohärenz ist also für Thagard vermutlich ein eigenständiges Konzept, auch wenn er das nicht sehr explizit ausdrückt. Dieser Aufteilung in Kohärenz und Inkohärenz schließe ich mich später an. Umgekehrt läßt sich das auch so ausdrücken: Kohärenz ist nicht gleich Abwesenheit von Inkohärenz. Hier schien gerade Lehrers Fehler zu liegen, denn es geht ihm nur um die Beseitigung der Inkohärenzen eines Systems. In (2a) bringt Thagard die schon in (IV.A) untersuchte Überzeugung zum Ausdruck, daß eine Erklärungsbeziehung eine Beziehung zwischen Explanandum und Explanans darstellt, die rechtfertigend wirkt. (2b) ist dagegen neu. Danach kohärieren zwei Propositionen, wenn sie gemeinsam zu einem Explanans gehören. Thagard nennt sie ,JCohypothesen". Das läßt sich z. B. als eine eingeschränkte Form einer Transitivitätsforderung für Kohärenz verstehen, denn Pj kohäriert mit Q und Q mit Pj und es wird verlangt, daß im Falle, wo die Kohärenz aus einer entsprechenden Erklärungsbeziehung resultiert, auch Pj mit Pj kohäriert. Zunächst ist zu bemerken, daß diese Bedingung nur sinnvoll sein kann, wenn es gelingt, überflüssige Elemente aus Erklärungen zu eliminieren, weil sonst folgender Fall auftreten könnte. Nehmen wir an, H erklärt E. Gilt dann automatisch auch, daß H&F mit beliebigem F E erklärt, wie das z. B. für das DN-Schema der Erklärung der Fall ist, so wird damit Kohärenz für nahezu beliebige Aussagen behauptet. Unter anderem an diesem Punkt zeigt sich eine Abhängigkeit der Thagardschen Kohärenztheorie von einer speziellen Erklärungskonzeption. In der Erklärungsdebatte hat es sich bekanntlich als ein ernstzunehmendes Problem erwiesen, irrelevante Bestandteile in Erklärungen als solche zu brandmarken.

D. Drei Kohärenzkonzeptionen

179

Thagard (1992, 67) beruft sich auf die tatsächlich gegebenen Erklärungen, in denen solche überflüssigen Bestandteile nicht vorkommen sollen. Das ist aber ein Schachzug, der fiir uns nicht in gehaltvoller Weise erhellt, warum bestimmte Aussagen in Erklärungen überflüssig sind und somit nicht mit anderen Aussagen des Explanans kohärieren. Eine allgemeine Transitivitätsbedingung mit einer gewissen Abschwächung der Kohärenz scheint auf den ersten Blick nicht unplausibel, aber die Beziehung von Kohypothesen und ihre Auszeichnung vor anderen transitiven Kohärenzbeziehungen verlangt nach einer weitergehenden Begründung. Hierzu wäre die Angabe von Beispielen hilfreich, zumal diese nicht immer die Thagardsche Behauptung zu bestätigen scheinen. Die Newtonsche Mechanik erklärt zusammen mit gewissen Anfangswerten warum die Sonne heute dort steht, wo sie steht. Wird dadurch aber eine Kohärenzbeziehung zwischen Newtonscher Mechanik und den Anfangswerten sichtbar? Das ist nicht unmittelbar einleuchtend, besonders da es sich um Aussagen ganz verschiedener Bereiche handelt, und Thagards Hinweis (1992, 67) auf die Duhem/Quine These hilft an dieser Stelle auch nicht weiter. Man könnte eher vermuten, daß Kohypothesen wohl nicht inkohärent sind, aber sollte nicht mehr erwarten. Die Bedingung (2c) gibt ein Kriterium zur Beurteilung der Güte einer Erklärung von Q an. Die Idee dahinter ist, daß eine Erklärung, die viele Hilfshypothesen eventuell mit ad hoc Charakter benötigt, schlechter ist, als eine Erklärung, die mit weniger Zusatzannahmen auskommt. Das ist intuitiv nachvollziehbar, setzt jedoch voraus, daß es möglich ist, Hilfshypothesen in geeigneter Weise zu zählen, was sich bei Explikationsversuchen (s. IX.A) als problematisch erwies. Ich möchte eine weitergehende Diskussion dieser Forderung auf den Teil der Arbeit vertagen, der mit der Ausarbeitung einer Erklärungstheorie befaßt ist. Der dritte Punkt betrifft schließlich die analogen Erklärungen, die ebenfalls in der Ausarbeitung der Erklärungstheorie auf dem Programm stehen und bereits in Abschnitt (IV.A.6) angesprochen wurden. Im Rahmen einer Erklärungstheorie und einer formalen Analyse von Analogiebeziehungen werde ich mich später der Thagardschen Ansicht, daß auch sie kohärenzstiftend sind, anschließen. Prinzip (4) ist eine Umsetzung von BonJours Metaforderung (OR) (s. voriger Abschnitt) auf der Objektebene. Diese Forderung ist besonders in der Thagardschen Formulierung nicht unproblematisch, wie die Überlegungen zu BonJours „Observation Requirement" schon nahelegen. BonJour hat sich in seiner Erkenntnistheorie mit gutem Grund nicht auf Aussagen einer bestimmten Art als Input, der epistemisch auszuzeichnen ist, festgelegt. Thagard tut das aber in (4), denn unter „Observation" muß man hier das verstehen, was wir üblicherweise mit „Beobachtung" meinen, weil (4) in unserer Sprache - der Metasprache, in der wir über das in Rede stehende Meinungssystem sprechen - formuliert ist. Damit bleibt nicht mehr der Spielraum für eine Auszeichnung von Beobachtungen oder Input unterschiedlicher Art innerhalb des Überzeugungssystems wie das bei BonJour der Fall ist. Welche Theorie der Wahrnehmung am besten ist, ist aber eine Frage der jeweiligen Objekttheorien und nicht einer Metatheorie wie der Erkenntnistheorie. Wollte Thagard diesen inneren Spielraum des Objektsystems mit seiner Formulierung auch zugestehen, müßte „Beobachtung" in (4) zumindest wie in

180

IV Kohärenz

dem jeweiligen Überzeugungssystem verstanden werden. Das wäre allerdings eine unschöne Vermengung der Objektebene des Systems mit der Metaebene von der aus das betreffende Überzeugungssystem beschrieben wird und sollte anders formuliert werden. Statt die Forderung (4) unter die Regeln des Systems aufzunehmen, sollte Thagard daher besser den Weg von BonJour beschreiten, eine entsprechende Metaregel anzufügen. Allerdings besagt Thagards 4. Prinzip nicht, daß nicht auch Beobachtungen als irrtümlich zurückgewiesen werden können. Seine Anwendungen seiner Theorie anhand von ECHO zeigen das ganz deutlich. Wie schon beim 2. Prinzip fällt also für sein 4. Prinzip wieder eine gewisse Inhomogenität - um nicht zu sagen Inkohärenz - des Regelsystems von Thagard auf. Im Hinblick auf sein Ziel, die Regeln in einem Programm zu implementieren, ist das verständlich, denn dafür benötigt er Regeln erster Stufe, die sich möglichst direkt in entsprechende Programmanweisungen umsetzen lassen. Aber für eine Explikation von Kohärenz und einer Kohärenztheorie der Rechtfertigung wäre eine systematischere Anordnung der Prinzipien, die ihren Status und Zusammenhang erkennbarer macht, wünschenswert gewesen. Im 5. Prinzip gibt Thagard Inkonsistenz, worunter auch analytische Inkonsistenz zu verstehen ist, als Grund für die Inkohärenz zwischen zwei Aussagen an. Diese Bedingung dürfen wir wieder als einen versteckten Hinweis betrachten, die Bedingungen für Kohärenz von denen für Inkohärenz abzutrennen. Inkohärenz wird nicht einfach als Abwesenheit oder Negation von Kohärenz betrachtet wird, sondern als Phänomen mit eigenen Aspekten (s. dazu IV.F). Außerdem wird spätestens an dieser Stelle sichtbar, daß Thagards Konzeption, Kohärenz und Inkohärenz nur in bezug auf zwei Aussagen statt auf ganze Systeme zu beziehen, unzureichend ist. Z. B. die drei Aussagen a, a-»b und b->-ia sind paarweise logisch konsistent, aber als System inkonsistent, da sich offensichtlich die Kontradiktion aA-ia daraus ableiten läßt. Dieser einfache Fall eines inkonsistenten Systems von Aussagen findet in der Regel (5) noch keine Berücksichtigung. In (6) behauptet Thagard, daß Aussagen aus konkurrierenden Erklärungen inkohärent sind, falls nicht besondere Bedingungen vorliegen. Sein Beispiel dafür sind zwei konkurrierende Erklärungen für das Aussterben der Dinosaurier. Die eine führt es auf eine Kollision der Erde mit einem Meteoriten zurück, während die andere ein Absinken des Meeresspiegels dafür verantwortlich macht. Aber selbst in Thagards Beispiel wird nicht deutlich, weshalb diese beiden Annahmen inkohärent sein sollen. Zunächst einmal gibt es die Möglichkeit, daß beide Effekte zusammen wirksam waren, die durch die Erklärungen jeweils nicht ausgeschlossen wird. Aber auch wenn nur eine Erklärung richtig ist, können doch beide erklärenden Hypothesen friedlich nebeneinander bestehen bleiben. Nur die Erklärungen selbst können in diesem Fall nicht gleichzeitig akzeptiert werden. Die Inkohärenz besteht dann zwischen den Aussagen: (1) „Die Kollision mit einem Meteoriten erklärt das Aussterben der Dinosaurier" und (2) „Das Absinken des Meeresspiegels erklärt das Aussterben der Dinosaurier".

D. Drei

Kohärenzkonzeptionen

181

Doch damit ist noch nicht begründet, daß auch die Aussagen (a) „Die Erde ist mit einem Meteoriten zusammengestoßen." und (b) „Der Meeresspiegel ist abgesunken." nicht zusammenpassen. Nehmen wir an, (1) sei richtig und (2) falsch und wir hätten auch gute Gründe für diese Ansicht. Dann ist damit lediglich ein Hinweis auf die Wahrheit von (b) weggefallen, der in einem Schluß auf die beste Erklärung des Dinosauriersterbens bestanden hätte. D.h. noch nicht, daß wir nun über positive Gründe gegen (b) verfugten. Für (b) könnten Gründe anderer Art sprechen, die von unserer Entscheidung für Erklärung (1) nicht berührt werden. Der Wegfall einer Bestätigung von (b) auf dem Wege über (2) ist aber bereits mit Thagards Prinzip 2 erfaßt worden.31 Thagards Prinzip (6) ist also in seiner gegenwärtigen Form nicht plausibel zu vertreten, zumal in dem untersuchten Gegenbeispiel keine Anhaltspunkte dafür vorliegen, daß eine seiner Ausnahmebedingungen (6a)-(6c) erfüllt ist. Nebenbei beruht die Bedingung (6c) auf Bedingung (2b), die ich bereits kritisiert hatte. An diesem Punkt zeigt sich wiederum, daß es sinnvoll sein kann, Bedingungen für Kohärenz und solche für Inkohärenz getrennt zu betrachten. Die Aussagen (1) und (2) erscheinen inkohärent, aber für die Aussagen (a) und (b) gilt das nicht, denn alles was passiert ist, daß (b) Schwächung seiner kohärenten Einbindung in S erfährt. Das allein kann man wohl kaum als Inkohärenz bezeichnen. Auf die Trennung von Bedingungen für Kohärenz und Inkohärenz werde ich deshalb in (IV.F) erneut eingehen. Thagard hat natürlich Recht mit folgender Behauptung: Es dürfte kaum zu bestreiten sein, daß wirklich konkurrierende Erklärungen eine Inkohärenz für ein Überzeugungssystem mit sich bringen, doch es ist auch nicht einfach, solche echten Konkurrenzen von friedlich koexistierenden Erklärungen zu unterscheiden, und es ist nicht ersichtlich, daß die Bedingungen (6a) - (6c) diese Abgrenzung leisten können. Es kann verschiedene Erklärungen für ein Ereignis aus verschiedenen Perspektiven geben, die nicht gegeneinander ums Wahrsein antreten. Lehrer versucht gerade diesen epistemisch entscheidenden Punkt, wann eine Konkurrenz ums Wahrsein vorliegt, ins Zentrum seiner Explikation von „c competes with q" für Aussagen c und q zu stellen, doch Thagard scheint dazu noch keinen Verbesserungsvorschlag anbieten zu können. Ein Autounfall kann etwa vom Verkehrspolizisten anhand einer Geschwindigkeitsübertretung, vom Psychologen anhand von Ermüdung des Fahrers, vom Automechaniker aufgrund der abgenutzten Bremsbeläge usw. erklärt werden, ohne daß eine dieser Erklärungen einer anderen ihr Wahrsein streitig machen müßte. Viele Faktoren sind vielleicht zusammengekommen und jede kausale Erklärung greift nur bestimmte Ursachen heraus. Oder wir werden mit genetischen und synchronischen Erklärungen konfrontiert, die auch beide zusammen wahr sein können. Wenn wir einen Pazifisten fragen, warum er sich weigert, in der Armee zu dienen, kann er auf der einen Seite erzählen, wie seine Eltern ihn dazu erzogen haben, bis er ein entsprechendes Verhalten internalisiert hatte, was dann ganz natürlich in seine Verweigerung mündete. Oder er kann seine Überzeugungen anführen, daß es unter allen Umständen unmoralisch ist, einen anderen

182

IV Kohärenz

Menschen zu töten und man als Soldat prinzipiell zum Töten bereit sein sollte, was ihn zur Verweigerung veranlaßt hat. Beide Erklärungen können zusammen richtig sein. Thagards Bedingung (6) schafft es nicht, auf informative Weise epistemische Konkurrenz zu charakterisieren. Eine Erklärungstheorie hat genauer zu bestimmen, wann tatsächlich konkurrierende Erklärungen in einem engeren Sinn vorliegen, der auch epistemische Konkurrenz der verschiedener Erklärungen beinhaltet. Für eine realistische Auffassung der Welt gehört auf jeden Fall dazu, daß die unterschiedlichen Erklärungsmodelle zusammenpassen, d.h. sich in ein übergeordnetes Modell einbetten lassen (s. dazu Bartelborth 1994a). Überhaupt kann man Thagards Zusammenstellung von Prinzipien nicht als homogen bezeichnen. So mischt er z. B. in (2) Forderungen, die angeben, wie sich Kohärenz aus Erklärungsbeziehungen ergibt, mit solchen, die eigentlich die Güte der Erklärungen betreffen, unter demselben Prinzip. Außerdem wird durch das Fehlen von Kohärenz als einer genuinen Eigenschaft eines ganzen Systems von Aussagen Thagards Kohärenzkonzeption unvollständig. Thagards Prinzip (7) ist nicht eine weitere Charakterisierung von Kohärenz, sondern drückt den intendierten Zusammenhang zwischen Kohärenz und Rechtfertigung oder in seinen Worten die Akzeptabilität einer Aussage P relativ zu einem System von Aussagen S aus. In (7b) wird dabei noch einmal - und wie mir scheint etwas unmotiviert - die Bedeutung von Beobachtungsdaten hervorgehoben. Das ist eigentlich überflüssig, weil Beobachtungen schon im 4. Prinzip eine besondere Bedeutung für die Kohärenz verliehen wurde. Auch (7b) vermittelt daher eher den Eindruck eines gewissen Mangels an Geschlossenheit und Einheitlichkeit der angeführten Prinzipien. Trotzdem bleibt Thagards Vorschlag als die bisher am weitesten ausgearbeitete Explikation von Kohärenz ein wesentlicher Maßstab für folgende Kohärenztheorien, insbesondere für die hier vorgelegte, zumal auch in Thagards Vorschlag neben rein logischen Beziehungen gerade Erklärungsbeziehungen als konstitutiv für Kohärenz betrachtet werden. Ehe ich einen eigenen Explikationsvorschlag vorstellen werde, der auch in dieser Richtung geht, möchte ich vorweg noch einige Einwände gegen diese Konzeption von Kohärenz, die Erklärungen ganz ins Zentrum stellt, entkräften.

E. Einwände gegen Kohärenz als Erklärungskohärenz Die Besprechung verschiedener Kohärenzkonzeptionen hat ergeben, daß BonJour im Unterschied zu Lehrer eine genuine Kohärenztheorie verfolgt, in der wesentlich ist, wie unsere Meinungen im Ganzen zusammenhängen. Als einzige inhaltlich bestimmte Beziehung neben der Konsistenz, die eher den Rahmen absteckt, in dem wir nach Kohärenz suchen können, weiß er aber nur Bedingungen zu nennen (4 und 5), die sich auf Erklärungsbeziehungen in dem System beziehen. Trotzdem stimmt er Lehrer zu, daß Erklärungsbeziehungen nur einen Teil der kohärenzstiftenden inferentiellen Beziehungen ausmachen. Wie groß und bedeutsam dieser Anteil ist, wird leider nicht weiter

E. Einwände gegen Kohärenz als Erklärungskohärenz

183

untersucht. Harman (1986, 75) kommt dagegen zu dem Resümee, für Kohärenz sei Erklärungskohärenz eine wichtige Form von Kohärenz, vielleicht sogar die einzige, aber auch dort wird dieser Punkt nicht gründlicher diskutiert. Das soll an dieser Stelle nachgeholt werden. Zunächst möchte ich einigen „Argumenten" nachgehen, die besagen, daß Kohärenz nicht im wesentlichen in Erklärungskohärenz besteht. Lehrer hat dazu drei Hauptargumente vorgetragen.

1. „Erklärung" ist kein epistemischer Begriff Lehrer übt in (1990b, 97ff) und (1974, 165ff) Kritik an der Hempelschen Erklärungstheorie, nach der wissenschaftliche Erklärungen deduktive Ableitungen des Explanandums (des zu Erklärenden) aus einem Gesetz und geeigneten Randbedingungen sind. Diese Kritik ist, wie wir im Erklärungsteil der Arbeit noch sehen werden, berechtigt. Seine Schlußfolgerung, die sich hauptsächlich auf ältere fragetheoretische Analysen zur Erklärung von Sylvain Bromberger (1965) stützt, daß wir zur Explikation von „Erklärung" wesentlich auf epistemische Konzepte angewiesen sind, ist es aber nicht, was der letzte Teil der Arbeit ebenfalls demonstrieren wird. Hätte er mit seiner Vermutung recht, könnten allerdings Probleme entstehen, wenn man - wie ich es hier vorschlage - den Begriff der Rechtfertigung als grundlegenden Begriff der Erkenntnistheorie betrachtet und ihn anhand von Kohärenz expliziert, aber den Kohärenzbegriff seinerseits anhand von „Erklärung" genauer zu bestimmen sucht. Es wäre nicht besonders hilfreich, den Erklärungsbegriff selbst wieder mittels epistemischer Begriffe wie „Rechtfertigung" klären zu wollen, da sonst ein Zirkel der Explikationen entstünde. Man könnte in diesem Fall sogar daran denken, ihn als nicht weiter erklärbaren Grundbegriff einzuführen, wie es Lehrer (1990b, 98) oder Thagard vorschlagen. Träfe Lehrers Schlußfolgerung für Erklärungen zu, erschiene dieser Gedanke plausibel, wäre aber auch keineswegs selbstverständlich. Häufig genug ist das Ziel philosophischer Bemühungen die Aufklärung wechselseitiger Beziehungen zwischen verschiedenen Konzepten. Eine Explikation, die komplexe analytische Verbindungen zwischen den Begriffen „Rechtfertigung", „Kohärenz" und „Erklärung" aufzeigt, ist daher nicht einfach als zirkulär in einem fatalen Sinn einzustufen, sondern höchstens nicht so informativ, wie man es sich erhofft hat. Auch hier sucht man eher nach einer naturalistischen Reduktion, die diese Begriffe auf nicht-normative „unproblematische" Konzepte zurückfuhrt. Obwohl der von Lehrer angedeutete Zirkel also nicht so folgenschwer wäre, wie Lehrer annimmt, werde auch ich versuchen, eine informativere Konzeption von Erklärung vorzuschlagen, nach der die Güte von Erklärungen nicht selbst wieder anhand epistemischer Begriffe bestimmt wird. Dazu gibt es eine Reihe neuerer und ermutigender Vorschläge, so daß der Pessimismus Lehrers in diesem Punkt wenigstens voreilig ist.

184

IV Kohärenz

2. Sind Erklärungen interessenrelativ? Erklärungen spielen nicht nur in Kohärenztheorien der Erkenntnis eine wichtige Rolle, sondern auch in fundamentalistischen Theorien. Fundamentalisten sind wie Kohärenztheoretiker auf Schlußverfahren wie den Schluß auf die beste Erklärung angewiesen, wenn sie beschreiben wollen, wie sich unsere Theorien über die Welt anhand unserer basalen Überzeugungen begründen lassen. Im Falle Mosers (s. III.B.5.b) sind sogar die basalen Überzeugungen durch einen derartigen Schluß auf die beste Erklärung zu begründen. Daher sind die Fragen, was eine Erklärung ist und was eine bessere Erklärung vor einer schlechteren auszeichnet, von generellerer erkenntnistheoretischer Bedeutung als nur zu bestimmen, was unter Kohärenz zu verstehen ist.32 Ein allgemeines Argument von Williams zur epistemischen Rolle, die Erklärungen übernehmen können, richtet sich dann auch gegen alle nicht kontextualistischen (objektiven) Vorstellungen von epistemischer Rechtfertigung. Williams (1991, 279ff) gesteht der Erklärungskohärenz zwar ebenfalls große Bedeutung für die Rechtfertigung zu, aber er glaubt, sie könne sie nur in einer kontextualistischen Theorie der Rechtfertigung übernehmen, weil Erklärungen niemals Erklärungen per se, sondern nur Erklärungen in einem bestimmten Kontext sind. Das ist eine weitere wichtige Stelle, an der die Erkenntnistheorie eine grundlegende Abhängigkeit von unserer Erklärungstheorie aufweist. Ausgangspunkt der Williamschen Überlegung ist wie schon für Lehrers Zirkelvorwurf im letzten Abschnitt - eine Kritik am Hempelschen Erklärungsparadigma. Sie zum Angriffsobjekt zu ernennen, erscheint gerechtfertigt, berufen sich doch Kohärenztheoretiker wie BonJour ganz unverblümt auf das DNSchema. Williams gibt ein Beispiel vom Putnamschen Typ für seine Ansicht an, daß Erklärungen interessenrelativ sind: I am in my office at exactly two o'clock one afternoon. This can be deduced from the fact that I was here a fraction of an instant before together with the impossibility of my exceeding the speed of light. But does this deduction explain my presence in my office? We are inclined to say not, because it is hard to see how the deduction could respond to any question anyone would normally ask. But strictly speaking, the question has no answer when put so baldly. Whether a deduction gives an explanation depends on our interests and background knowledge: it depends on what we don't know already and what, in particular, we want to know about the fact in question. An explanation is a response to a definite „why question." These contextual considerations are not just pragmatic extras. Take them away and there is no fact of the matter as to whether one proposition explains another. (Williams 1991, 281)

Für Williams bestehen Erklärungsbeziehungen immer nur relativ auf ein Hintergrundwissen und bestimmte Interessen, die mit einer Warum-Frage verknüpft sind. Die Relativierung auf ein bestimmtes Hintergrundwissen ist zunächst kein Problem, denn auch Rechtfertigungen haben immer nur Bestand relativ zu dem Hintergrundwissen des epistemischen Subjekts. Problematischer wäre schon eine vollständige Relativierung auf bestimmte Interessen, die mit einer Warum Frage verbunden sind. Hätte Williams in diesem Punkte Recht, ließe sich die Erklärungskohärenz eines Überzeugungssystems

E. Einwände gegen Kohärenz als Erklärungskohärenz

185

nicht als ein gegebener Wert betrachten, sondern wäre stark davon abhängig, welche Interessen man in einer bestimmten Situation hat. Damit hätte Williams zugleich recht, daß auch Rechtfertigungen wesentlich von den kontextuellen, pragmatischen Bedingungen abhingen, in deren Kontext sie gegeben würden. Einen derartigen Relativismus möchte ich nicht ohne Not akzeptieren und im letzten Teil der Arbeit werde ich daher eine Theorie der Erklärung ausarbeiten, nach der Erklärungen nicht in diesem Sinn wesentlich interessenrelativ sind. Dazu werden wir später sehen, daß für die Frage, nach welchen Erklärungen jemand sucht und welche Erklärungen ihn zufriedenstellen, natürlich die Frage, woran er Interesse hat und welches Hintergrundwissen er hat, einschlägig sind. Damit ist aber noch keineswegs gezeigt, daß Erklärungen wesentlich interessenrelativ in einem interessanten Sinn des Wortes sind, obwohl diese Annahme inzwischen weit verbreitet ist. Eine Überlegung sei dazu vorweggenommen. Logische Beziehungen sind sicher das Paradigma für Zusammenhänge, die nicht in einem wesentlichen Sinn von pragmatischen Faktoren abhängig sind. Wenn p aus q logisch folgt, so gilt das unabhängig davon, in welcher Situation ich mich gerade befinde, oder wen ich gerade auf diesen Zusammenhang aufmerksam machen möchte. Trotzdem bleibt natürlich die Frage, welche logischen Schlüsse ich aus meinen Überzeugungen ziehe, von meiner Situation und meinen jeweiligen Interessen abhängig. So könnte mich der Beweis des Gödelschen Satzes kalt lassen, weil ich zur Zeit an anderen Dingen interessiert bin. Das beeinträchtigt jedoch nicht seine Gültigkeit. Oder jemand beweist mir, daß sich aus meinen Überzeugungen zwingend ergibt, daß 2+2=4 gilt. Natürlich antworte ich ihm: Das ist für mich uninteressant, denn das weiß ich schon. Doch wann ein Schluß eine Deduktion ist, hängt trotz der beschriebenen Phänomene nicht von den Interessen irgendwelcher Personen ab. Es ist in diesem Sinn nicht subjektiv. Ähnlich sieht das für Erklärungen aus. Es gibt einen objektiven harten Kern der Erklärungsbeziehung, dessen Bestehen unabhängig von unseren Interessen bleibt. Im Unterschied zu logischen Schlüssen kommt hier allerdings zunächst noch hinzu, daß es mehr oder weniger gute Erklärungen gibt, aber darüber hinaus gibt es, wie für Deduktionen, das Phänomen, das uns manche Erklärungen schlicht nicht interessieren. Wenn der Pfarrer den Bankräuber fragt, warum er Banken ausraube - dies ist ein anderes Beispiel Putnams - , und jener antwortet, weil dort das meiste Geld sei, so könnte der Pfarrer ihm erwidern: „Damit hast Du nicht meine Frage beantwortet, sondern eher die eines Deiner Kollegen. Ich wollte dagegen wissen, warum Du nicht ein gottesfürchtiges Leben gefuhrt hast." Der Bankräuber lenkte vom Thema ab. Er hätte genauso gut wenn auch mit weniger Witz - erklären können, warum die Rotverschiebung vorliegt. In beiden Fällen hat er nicht auf die Frage des Pfarrers geantwortet und die produzierten Erklärungen mögen zwar gute Erklärungen auf andere Fragen sein, aber sie interessieren den Pfarrer eben nicht. Dabei ist wieder nicht die Erklärungsgüte oder das Bestehen einer Erklärungsbeziehung von unseren Interessen abhängig, sondern nur, nach welchen Erklärungen ich gerade suche, ist interessenabhängig. Der Bankräuber tut so, als ob er die Frage des Pfarrers nicht verstanden hätte und antwortet auf eine andere Frage,

186

IV Kohärenz

obwohl sich die Art der Frage, aus dem Kontext und den offensichtlichen Interessen des Pfarrers unschwer ermitteln ließ. Natürlich ist eine Antwort auf eine andere Frage als die gestellte unbefriedigend, aber das hat nichts mit einer angeblichen Interessenrelativität der Erklärungsbeziehung zu tun (Genaueres s. VIII.C.l). 3. D e r T r i v i a l i t ä t s v o r w u r f Ein anderes Problem, das Lehrer für die Erklärungskohärenz sieht, ist das der trivialen Immunisierung (1990b, 98f). Wenn wir erst einmal über eine Theorie und einige Daten verfugen, die zusammen ein erklärungskohärentes System bilden, können wir es immer auf einfache Weise dadurch erklärungskohärent behalten, daß wir neue auftauchende Daten, also spontane Meinungen, die Beobachtungen wiedergeben, schlicht als falsch zurückweisen. Obwohl Lehrer dieses Argument speziell gegen die Konzeption von Kohärenz als Erklärungskohärenz wendet, möchte ich zunächst erwähnen, daß es sich in analoger Form selbstverständlich auch gegen andere Kohärenzkonzeptionen wenden läßt. Auch ihnen ließe sich vorwerfen, sie seien zu konservativ und in ihnen könnte man auf einfache Weise Kohärenz beibehalten, indem man widerspenstige Aussagen, welcher Art auch immer, schlicht aufgibt. Sie könnten sich doch einfach mit einer schön zurechtgelegten Geschichte begnügen und alle anderen Meinungen einfach abweisen. Mit diesem Vorwurf hätte sich dann natürlich auch Lehrer in seiner eigenen Kohärenzkonzeption auseinanderzusetzen. Das Argument gehört daher genaugenommen nicht an diese Stelle, weil es sich nicht speziell gegen Kohärenz als Erklärungskohärenz richtet, sondern generell gegen Kohärenztheorien. Trotzdem möchte ich mich schon hier damit beschäftigen, weil Lehrer es vor allem als einen Einwand gegen Erklärungskohärenz formuliert. Dieser Einwand erscheint mir weiterhin besonders interessant zu sein, weil er ein viel zu eingeschränktes Verständnis davon offenbart, was Kohärenz eines Überzeugungssystems bedeutet. Antworten auf diesen Einwand können daher als sinnvolle zusätzliche Erläuterungen des Kohärenzbegriffs und seiner Anwendung verstanden werden. Der Kohärenztheoretiker kann auf zwei Punkte hinweisen. Der erste, den Lehrer für seine eigene Kohärenztheorie nicht genügend beachtet, bezieht sich auf die Gesamtkohärenz eines Überzeugungssystems. Es mag zwar sein, daß sich auf die beschriebene triviale Weise ein kohärentes System von Meinungen aufrechterhalten läßt, aber das zeigt noch nicht, daß die Kohärenzkonzeption nicht Änderungen in unserem Überzeugungssystem gebietet. Es könnte nämlich sein, daß es eine alternative Theorie zu unserer Theorie gibt, die dieselben Beobachtungen und auch noch die neuen widerspenstigen Beobachtungen besser erklärt als die alte. Diese neue Theorie würde damit zu größerer Gesamtkohärenz führen, die wesentlich für Rechtfertigungen ist, und daher in einer genuinen Kohärenztheorie besser gerechtfertigt sein als die alte. Wir müßten in diesem Fall die alte Theorie zugunsten der neuen verwerfen. Der Trivialitätseinwand läßt sich daher nicht in seiner bisherigen Form aufrechterhalten.

E. Einwände gegen Kohärenz als Erklärungskohärenz

187

Allerdings könnte das eben beschriebene Verfahren immer noch zu konservativ sein. Wenn wir solange Beobachtungen einfach verwerfen dürften, bis wir eine neue Theorie gefunden hätten, die sie auch zu erklären gestattet, müßten wir unsere Rechtfertigungspraxis wohl merklich umstellen. Kohärenz und insbesondere Erklärungskohärenz bezieht sich aber nicht nur auf die einfachen Verhältnisse zwischen Daten und Theorien, sondern bezieht sich auf eine Reihe anderer Überzeugungen und MetaÜberzeugungen (s. II.C.5.b) die gegen das triviale Verfahren sprechen. Da sind vor allem die epistemischen MetaÜberzeugungen zu nennen, die einen recht zentralen Status in unseren Überzeugungssystemen einnehmen, die die spontan auftauchenden Beobachtungsaussagen als überwiegend verläßlichen Input in unser Überzeugungssystem einstufen. Viele epistemische Subjekte werden sogar sagen, daß sie die einzig gehaltvolle Informationsquelle über die Welt sind. Beobachtungsüberzeugungen zurückzuweisen steht daher im Widerspruch zu diesen MetaÜberzeugungen und bedarf spezieller Erklärungen, die uns sagen, warum wir in bestimmten Fällen unseren Wahrnehmungen nicht vertrauen sollten. Das wird in diesen Ausnahmefällen durch viele Theorien über unseren Wahrnehmungsapparat und unsere kausale Stellung in der Welt gedeckt. Erst wenn wir all diese Theorien aufgeben könnten und zu völlig anderen Ansichten über unsere Stellung in der Welt und die Entstehung der laufend auftretenden Wahrnehmungsüberzeugungen kämen, ließe sich das genannte Immunisierungsverfahren anwenden. Dabei müßten wir aber an ausgesprochen seltsame Personen denken, damit sich interne Kohärenz einstellte. Neben dem Superempiristen könnte man sich vielleicht eine vollkommen autistische Person vorstellen, die sich von ihrer Umwelt völlig abgewandt hat und möglicherweise auf diese Weise sehr seltsame Auffassungen von ihrer Stellung in der Welt entwickelt hat. Nur sie könnte ein solch schlichtes Immunisierungsverfahren einsetzen. Sie könnte gegebenenfalls den Standpunkt des Solipsismus vertreten und jede Außenwelt leugnen. Wenn es für sie aber überhaupt noch einen sinnlichen Kontakt zur Außenwelt gibt, treten weiterhin spontane Meinungen über Gegenstände in ihr auf, die die interne Kohärenz ihrer Meinungen gefährden. Hat sie allerdings einen solchen Kontakt nicht mehr, kann Kohärenz tatsächlich kein Wegweiser auf dem Weg zur Wahrheit mehr sein. Doch wer mit solch katastrophalen Startbedingungen anfängt, hat auch mit anderen Erkenntnistheorien keine Chance zu begründeten empirischen Erkenntnissen zu gelangen. Auf derartige Fälle komme ich bei der Besprechung der skeptischen Hypothesen wieder zurück. Komplette Abschottungen in unserem kausalen Kontakt zur Welt bei einer kohärenten Innenperspektive können wir mit Hilfe einer Kohärenztheorie der Erkenntnis also tatsächlich nicht aufdecken, ebensowenig wie uns andere (internalistische) Erkenntnistheorien dagegen versichern können. Mit derartig radikalen skeptischen Möglichkeiten kann man sich nicht auf dieser Ebene auseinandersetzen (s. dazu VI. B). Es bleibt jedoch noch ein Aspekt des Lehrerschen Einwands zu besprechen. Die Kohärenztheorie funktioniert am plausibelsten für vollentwickelte, normale und komplexe Überzeugungssysteme. Was bisher noch nicht angesprochen wurde, ist, ob sie auch deren Entstehung erklären kann oder wenigstens damit verträglich ist. Diese Frage

188

IV Kohärenz

geht sicher über das hinaus, was eine Erkenntnistheorie leisten muß, spielt aber dafür, wie kohärent sie sich in unsere metatheoretischen Modelle vom Erkenntniserwerb einpassen läßt, eine Rolle. Einige Bemerkungen möchte ich immerhin dazu machen. Natürlich geht es nicht in erster Linie darum, eine empirische Theorie vorzuschlagen, wie der Ausbau eines Überzeugungssystems beim Menschen tatsächlich vonstatten geht, sondern eher darum, ein Modell anzugeben, wie ein solcher Aufbau mit Hilfe von Kohärenz überhaupt denkbar ist. Das könnte ganz grob so aussehen: Wenn wir eine rudimentäre Sprache erlernt haben, haben wir auch Beobachtungsüberzeugungen, die spontan in uns entstehen. Dazu entwickeln wir, zu Beginn sicher sehr implizit, - vielleicht als eine Form von eingebautem Induktionsschluß - einige allgemeinere Hypothesen, die damit die Kohärenz erhöhen. Unsere Theorien über die Welt werden dann langsam komplexer und die Datenmenge nimmt gleichzeitig zu. Thagard versucht in (1992, Kap. 10) einige Hinweise zu geben, daß für die begriffliche Entwicklung des Kindes in einigen Punkten ähnliche Mechanismen der Kohärenzkonstitution am Werke sind wie für die von Wissenschaftlern, die er genauer studiert hat. Dazu bespricht er eine ganze Reihe neuerer Arbeiten aus der Entwicklungspsychologie, die ermutigende Ansätze in dieser Richtung zu bieten haben. Diese Ansätze in der Entwicklungspsychologie sollen nur verdeutlichen, daß es für Kohärenzkonzeptionen keineswegs unverständlich erscheinen muß, wie solche reichhaltigen Meinungssysteme überhaupt entstehen konnten. Wie die Entwicklungsgeschichten tatsächlich am besten zu charakterisieren sind, fällt allerdings in den Zuständigkeitsbereich der empirischen Psychologie.

4. Rechtfertigungen ohne Erklärung Meine Vorstellung von Kohärenz schließt an die von Seilars und Harman an, die vermuten, daß Kohärenz ausschließlich in Erklärungsbeziehungen zu sehen ist. Dazu kommen für mich allerdings noch Forderungen nach logischer oder probabilistischer Konsistenz und entsprechenden inferentiellen Zusammenhängen hinzu. Gegen diese Konzeption sind die Einwände am schwerwiegendsten, die auf Fälle verweisen, in denen andere inferentielle Beziehungen Kohärenz stiften. Lehrer (1990b, 105f) diskutiert zwei Beispiele solcher Fälle. Beispiel 1: Eine Eule sitzt auf einem Flaggenmast und eine Maus vor mir am Boden. Wenn ich bestimmte Randbedingungen kenne, wie die Höhe des Mastes und seine Entfernung von der Maus, kann ich mit Hilfe des Satzes von Pythagoras und den Randbedingungen die Entfernung der Maus von der Eule als drei Meter betragend ableiten. Die Überzeugung, daß die Maus drei Meter von der Eule entfernt ist, ist damit zwar perfekt gerechtfertigt, aber es handelt sich dabei trotzdem nicht um eine Erklärungsbeziehung. Beispiel 2: Im zweiten Beispiel sieht David Hume eine männliche Leiche. Er kann dann schließen, daß dieser Mann geschlechtlich gezeugt wurde. Zu Humes Zeiten, wo es noch keine künstlich Befruchtung gab, war dieser Schluß sicher begründet. Auch hierbei handelt es

E. Einwände gegen Kohärenz als Erklärungskohärenz

189

sich nicht um eine Erklärungsbeziehung, denn die geschlechtliche Zeugung erklärt nicht, wieso der Mann tot auf der Straße liegt. Auch BonJour (1985, 100) schließt sich Lehrers Ansicht an, daß es weitere inferentielle Beziehungen neben Erklärungsbeziehungen geben müsse, die Kohärenz stiften und nennt zur Unterstützung dieser Ansicht Lehrers erstes Beispiel. Doch wie überzeugend sind diese Beispiele? Mit dem ersten Beispiel habe ich zunächst schon deshalb keine Probleme, weil es sich um einen logischen Schluß anhand von mathematischen Gesetzen handelt. Neben erklärenden Beziehungen hatte ich deduktive Zusammenhänge als einen grundlegenden Aspekt von Kohärenz akzeptiert und nur dafür plädiert, daß Kohärenz nicht ausschließlich in Konsistenz oder logischer Ableitbarkeit zu suchen ist. Für Kohärenz sind wir darüber hinaus auf Theorien angewiesen, die ihrerseits mit Hilfe von Abduktionen und Beobachtungen begründet werden müssen. Es handelt sich in diesem Beispiel um einen eher mathematisch zu nennenden Schluß, auch wenn Lehrer (1990b, 97) den Satz des Pythagoras kurzerhand zu einem empirischen Gesetz deklariert, und es ist eine grundsätzlichere Frage, ob man sagen sollte, daß auch mathematische Theorien erklären können. Diese Frage möchte ich später bejahen, aber an dieser Stelle noch verschieben, zumal das Beispiel kein Gegenbeispiel gegen meine Kohärenzkonzeption darstellt. Damit Lehrers Beispiel zur vorliegenden Frage also überhaupt etwas beisteuern kann, muß man den bei ihm eingesetzten Satz des Pythagoras im Rahmen einer Theorie der physikalischen Geometrie betrachten. In diesem Rahmen kann man ihn aber auch als Teil einer Erklärung dafür betrachten, warum der Abstand zwischen Maus und Eule gerade 3 Meter beträgt. Je nachdem in welchen größeren Zusammenhang die physikalische Geometrie gestellt wird, könnte die etwa folgendermaßen aussehen: In dem untersuchten System liegen keine sehr großen Massen vor, so daß wir von möglichen Abweichungen von einer euklidischen Geometrie absehen können. Damit gilt auch das Theorem des Pythagoras approximativ, so daß sich aus den anderen Abständen gerade der Abstand 3 Meter für Katze und Eule ergibt. Wenn wir die Raumkrümmung oder die Behauptung, daß sie nicht vorliegt, als ein kausales Phänomen betrachten und nicht mehr nur als rein mathematischen Zusammenhang, erhalten wir also eine einfache Form von kausaler Erklärung, die die Randbedingungen mit dem gesuchten Abstand verknüpft. Für die empirische Theorie ist die Berufung auf den Satz des Pythagoras dann nur eine Abkürzung für die Aussage, daß keine (oder vernachlässigbar kleine) Raumkrümmung in diesem Raum-Zeit Gebiet vorliegt. Etwas spannender sind da schon Beispiele des zweiten Typs. Allerdings handelt es sich in einer normalen Ausgestaltung der Geschichte auch hierbei zunächst um eine einfache Konsistenzfrage. Hume hatte zu seiner Zeit sicher die allgemeine Überzeugung, daß alle Menschen irgendwann geschlechtlich gezeugt worden sind. Aus Konsistenzgründen muß er das dann auch von dem toten Menschen in der Straße annehmen. Daß diese Annahme sich auf eine empirische Hypothese gründet, was Lehrer (1990b, 105) überraschenderweise sehr betont, tut dem deduktiven Zusammenhang zwischen der

190

IV

Kohärenz

allgemeineren Hypothese und ihrer Anwendung auf das spezielle Beispiel natürlich keinen Abbruch. Komplikationen kommen erst ins Spiel, wenn wir die Situation in die heutige Zeit versetzen. Da wir heutzutage angesichts der Möglichkeit künstlicher Befruchtung nur noch behaupten würden, daß die allermeisten Menschen geschlechtlich gezeugt wurden, könnte man zwar immer noch mit guten Gründen darauf schließen, daß eine Leiche vermutlich irgendwann einmal geschlechtlich gezeugt wurde, aber das ist dann kein logischer Schluß mehr. Allerdings geht es hier immer noch um probabilistische Konsistenz, die ich ebenfalls als eine Erweiterung der Konsistenz auf den Fall statistischer Aussagen mit zulasse, und nur deshalb nicht genauer untersuche, weil ich mich hier nicht mit dem speziellen Problembereich der Wahrscheinlichkeitsaussagen beschäftigen möchte. Neben dieser Auskunft, daß die vermeintlichen Gegenbeispiele keine wirklichen Gegenbeispiele gegen eine Kohärenztheorie sind, für die Kohärenz durch logische Beziehungen und Erklärungsbeziehungen erzeugt wird, drängt sich die Frage auf, welchen Stellenwert in einem größeren Erklärungsrahmen die angesprochenen Schlüsse besitzen. Im Humeschen Fall ist die geschlechtliche Zeugung ein Ereignis einer langen Kausalkette von Ereignissen, die letztlich zu der Leiche auf der Straße geführt haben. Wir werden es normalerweise nicht als eine Ursache oder sogar Erklärung für die Leiche betrachten, weil in derartigen Fällen eine erklärungsheischende Warum-Frage meist eine Frage nach den Todesursachen sein dürfte. Unter geeigneten Rahmenbedingungen offenbart aber auch der Hinweis auf die geschlechtliche Zeugung einen gewissen Erklärungswert. Z. B. wenn künstlich gezeugte Menschen unsterblich wären, könnte der Schluß darauf, daß die Leiche geschlechtlich gezeugt wurde, ein Schluß auf einen Teil der besten Erklärung sein. Natürlich bliebe die geschlechtliche Zeugung immer nur eine partielle Erklärung für die Leiche, weil nur ein Teil der Ursache damit genannt würde. Trotzdem mag der Hinweis genügen, daß auch diese Beziehung einen gewissen Erklärungswert hat, wenn man entsprechende Fragestellungen vor sich hat. Das wird nur dadurch verborgen, daß wir die Annahme der geschlechtlichen Zeugung in unserem Hintergrundwissen als selbstverständlich voraussetzen. Das macht diese Schlüsse aber zugleich auch weniger spannend, denn sie ergeben sich deduktiv aus anderen Überzeugungen. Lehrer (1990b, 105f) deutet aber schon selbst einen weiteren Kommentar an, den ein Verteidiger einer Erklärungskohärenztheorie zu diesen Beispielen außerdem abgeben sollte. Auch wenn in diesen Beispielen keine direkten Erklärungszusammenhänge auftreten, sondern nur Konsistenzforderungen zum Tragen kommen, stehen bestimmte Erklärungsbeziehungen im Hintergrund, die die genannten Überzeugungen in einen größeren Rahmen einbetten. Die allgemeinere Aussage, daß alle Menschen geschlechtlich gezeugt wurden, ist ein Bestandteil eines allgemeineren Erklärungszusammenhangs in den Überzeugungen, die wir bei Hume vermuten. Auf dieses Hintergrundwissen stützt sich Hume bei seiner Behauptung, daß die Leiche vor ihm früher einmal geschlechtlich gezeugt wurde. Da Hume Mary Shelleys Frankenstein noch nicht kennen konnte, konnte

E. Einwände gegen Kohärenz als Erklärungskohärenz

191

er sich vermutlich die Person, die tot vor ihm lag, nur als auf geschlechtlichem Wege gezeugt denken. Die geschlechtliche Zeugung ist daher ein wesentlicher Teil seiner einzigen Erklärung für die Existenz der Person, die wiederum Teil einer Erklärung dafür sein kann, daß die Leiche vor ihm liegt. Auch in diesem Beispiel liegen vielfältige Erklärungsbeziehungen zwischen dem Vorliegen der Leiche und der Zeugung der Person vor, die diese beide in eine längere Erklärungskette stellen. Die Annahme, daß der Mensch geschlechtlich gezeugt wurden, mag Hume dabei so selbstverständlich erschienen sein, daß er normalerweise über keine Begründung dafür nachgedacht haben dürfte. Aber stellen wir ihn fiktiv vor die Frage, wie er sie denn rechtfertigen könnte, sollte er meines Erachtens in der genannten Richtung antworten. Gegen die letzte Überlegung führt Lehrer (1990b, 106) seine ,^4nti-Erklärerli ins Feld, die ein wenig meinen Superempiristen ähneln. Diese seltsame Gruppe von Menschen fragt aus religiösen Gründen nie danach, warum oder wie bestimmte Dinge sich ereignen. Lehrer beschreibt ihr Wirken wie folgt: Anti-explanationists ask not why or how things happen but are content to observe the way things happen and rely on such observations without seeking explanations. They pride themselves in their intellectual humility. Such people might arrive at the pythagorean theorem from observation. They may not inquire as to why it is true and they may not have deduced it from more general axioms. Nonetheless, they might be completely justified in accepting -what they derive from it, for example, that the mouse is five feet from the owl, whether or not the theorem or the conclusion derived from it contributes to the explanatory coherence of some overall system of beliefs. (Lehrer 1990b, 106; kursiv von mir)

Gerade Lehrers Behauptung, daß die Anti-Erklärer vollständig in ihrer Annahme, daß die Maus fünf Fuß von der Eule entfernt ist, gerechtfertigt sind, steht hier zur Diskussion. Daß Lehrer das voraussetzt, ist eine Form von „question begging". Das Beispiel leidet in seiner Klarheit wiederum darunter, daß der Satz des Pythagoras für sich genommen nur ein mathematischer Satz ist, der natürlich nicht ohne weiteres auf Beziehungen in der physischen Welt angewandt werden darf. Verstehen wir ihn aber wieder als Bestandteil einer empirischen Theorie, erkennen wir bald, daß Lehrers Anti-Erklärer eben gerade über keine Begründung für ihre Annahme des Abstandes von Maus und Eule verfügen. Die Anti-Erklärer bemerkten nur, daß in einer Reihe von konkreten Einzelfällen bestimmte geometrische Zusammenhänge vorlagen. Wie sollen sie aber aus diesen Wahrnehmungen in der Vergangenheit für den jetzt vorliegenden Fall von Maus und Eule einen Gewinn ziehen, wenn sie nicht irgendeine allgemeine Annahme der Art machen, daß für alle Fälle eines bestimmten Typs entsprechende geometrische Verhältnisse vorliegen? Diese Annahme ist in ihrer Allgemeinheit aber wie jede andere empirische Theorie zu behandeln und zu rechtfertigen; etwa durch einen Induktionsschluß, der besagt, daß diese Annahme (auch in der empirischen Welt gelte überall die euklidische Geometrie) unsere beste Erklärung für die festgestellten Zusammenhänge darstellt. Wie Lehrer ohne solch allgemeinere Annahmen im Eule-Beispiel von vollständiger Rechtfertigung oder bei solchen allgemeinen Annahmen ohne einen Induktionsschluß von vollständig gerechtfertigt sprechen kann, bleibt unverständlich. Ich kann ihm darin nicht

192

IV Kohärenz

folgen. Die bloße Beobachtung und Nachmessung von Abständen in bestimmten Einzelfällen sagt ohne verallgemeinernde Annahmen nichts über andere Fälle aus, die noch nicht untersucht wurden. Für eine Begründung der speziellen Eule-Maus Entfernung sind die Anti-Erklärer also auch auf allgemeinere Theorien und deren Rechtfertigung angewiesen. Lehrers Beispiele sind daher keine überzeugenden Gegenbeispiele gegen die hier entwickelte Kohärenzkonzeption, die Konsistenz als einen logischen Rahmen beinhaltet und wesentlich Erklärungsbeziehungen für Kohärenz verantwortlich macht. Gerade die spannenderen Induktionsschlüsse stützen sich meist auf Erklärungsbeziehungen. Nur das wird die Botschaft sein. Trotzdem können all diese Überlegungen natürlich nicht völlig ausschließen, daß wir auf inferentielle Zusammenhänge in unserem Wissen stoßen, die weder deduktiver Art noch erklärend sind. Auch sie würden allerdings im Normalfall die vorliegende Kohärenzkonzeption nicht gefährden, sondern könnten als sinnvolle Ergänzungen der vorliegenden Konzeption betrachtet werden; denn die Annahme, daß weiterhin Erklärungsbeziehungen für Kohärenz in unserem Meinungssystem wesentlich bleiben, ist durch die vorangehenden Überlegungen schon hinreichend demonstriert worden.

F. Eine diachronische Theorie der Erklärungskohärenz In der Tradition von Seilars (1963, Kap. 11 Abschn. 85) und Harman (1986) scheint mir die Kohärenz eines Überzeugungssystems im wesentlichen in seinen Erklärungsbeziehungen zu bestehen, was in den vorangegangenen Abschnitten begründet wurde. Mein eigener Vorschlag für eine Kohärenztheorie der Rechtfertigung knüpft an die Diskussion positiver wie negativer Art der Vorschläge von Lehrer, BonJour und Thagard an, und soll ein Verbesserungsvorschlag sein. Insbesondere möchte ich die verschiedenen Aspekte von Kohärenz in systematischer Weise auseinanderhalten. Zu diesem Zweck unterscheide ich zwischen relationaler und systematischer Kohärenz und denke auch, daß es sich lohnt, einen eigenständigen Begriff von Inkohärenz zu präzisieren. Die leitende Idee der Explikation von Kohärenz ist die von BonJour genannte, daß ein System von Meinungen um so kohärenter ist, um so größer seine Vernetzung ist. Zunehmende Vernetzung wird durch mehr, aber auch durch bessere Verbindungen zwischen den Meinungen eines Netzes bewirkt. Sie ist zum einen durch logische Beziehungen gegeben und zum anderen durch Erklärungsbeziehungen. 33 Erklärungsbeziehungen können dabei, müssen aber nicht, ebenfalls logische Beziehungen einer bestimmten Art sein. Hier sind also Überschneidungen zugelassen, aber weder ist jede logische Ableitung eine Erklärung, noch ist jede Erklärung deduktiv. Tatsächlich bedeutsamer und interessanter scheinen mir die Erklärungsbeziehungen für die Vernetzung zu sein, da nur sie uns zu gehaltsvermehrenden Schritten befähigen, mit denen wir den bisherigen Kreis unserer Erkenntnis erweitern können. Für sie ist neben der Anzahl ihre Stärke wesentlich, denn die Bewertung wie gut Erklärungen sind, erlaubt graduelle Abstufungen. Wir

F. Eine diachronische Theorie der Erklärungskohärenz

193

können nun angeben, wie eine Aussage oder Meinung p für ein epistemisches Subjekt S zu einem bestimmten Zeitpunkt, wo S das Überzeugungssystem X hat, gerechtfertigt ist. Dabei bekommen alle Bedingugen noch einen Namen, um sie später besser in Erinnerung rufen zu können. Eine Kohärenztheorie der Rechtfertigung (KTR) (1) Rechtfertigung p ist für S in dem Maße gerechtfertigt, (a) wie sein Überzeugungssystem X kohärent ist [systematische Kohärenz] (b) wie p kohärent in X hineinpaßt [relationale Kohärenz] (c) wie p zur Kohärenz von X beiträgt [.Kohärenzerhöhung] (d) wie p Inkohärenzen von X vermeiden hilft [Inkohärenzvermeidung] (2) Systematische Kohärenz X ist um so kohärenter, (a) je mehr inferentielle Beziehungen (logische und Erklärungsbeziehungen) die Propositionen in X vernetzen [ Vernetzungsgrad] (b) je besser die Erklärungen sind, die X vernetzen [Erklärungsstärke] (c) je weniger Inkohärenzen in X vorliegen [Inkohärenzgrad] (d) je bewährter X ist [,Stabilitätsbedingung] (3)Inkohärenz X ist um so inkohärenter, (a) je mehr Inkonsistenzen in X auftreten (auch probabilistische) [.Inkonsistenzbedingung] (b) in je mehr Subsysteme X zerfällt, die untereinander relativ wenig vernetzt sind, [Subsystembedingung] (c) je mehr Erklärungsanomalien in X auftreten [Anomalienbedingung] (d) je mehr konkurrierende Erklärungen in X vorliegen [Konkurrenzbedingung] (4) Relationale Kohärenz p paßt um so kohärenter in das System X, (a) [Abduktionsbedingung] (i) je mehr Propositionen aus X p erklärt oder abzuleiten gestattet und (ii) um so besser es sie erklärt, (b) [Einbettungsbedingung] (i) je öfter p aus X abzuleiten ist und (ii) je öfter und besser p von den Propositionen aus X erklärt wird, Diese Explikation bedarf einiger Erläuterungen. Für den Normalfall gehe ich davon aus, daß p selbst ein Element von X ist, aber das ist nicht zwingend erforderlich. In (1) soll zum Ausdruck kommen, wie Rechtfertigungen durch Kohärenz bestimmt sind. Dabei werden die verschiedenen Aspekte von Kohärenz gesondert berücksichtigt. Als recht-

194

IV Kohärenz

fertigend für p soll das ganze Überzeugungssystem X angesehen werden. (Wem das Schwierigkeiten macht, weil p selbst ein Element von X ist, der kann sich an dieser Stelle auch Y = X\{p} denken). Da X zur Rechtfertigung von p herangezogen werden soll, wird in der Forderung (la) nach systematischer Kohärenz verlangt, daß X selbst möglichst kohärent ist. Das entspricht dem globalen Aspekt von Kohärenz (s. IV.C) im Hinblick auf die Vorstellung, daß X selbst kohärent sein sollte, um p rechtfertigen zu können, weil X nur dann eine Verankerung der Rechtfertigung zu bieten hat, die weiteren Nachforschungen über den epistemischen Status der Prämissen standhält. Man könnte sagen, daß hier festgestellt wird, wie groß die gesamte rechtfertigende Kraft von X ist. Dagegen gibt (lb) an, inwieweit gerade p durch X gerechtfertigt ist. Das bemißt sich an der relationalen Kohärenz von p und X. Unter (lb) sind daher eher die lokalen Aspekte einer kohärenten Einbettung gemeint. (Auch hier mag es einfacher sein, sich die relationale Kohärenz als eine Beziehung zwischen p und Y vorzustellen.) Schließlich soll in (lc) thematisiert werden, welchen Beitrag p in X zur systematischen Kohärenz von X leistet, inwieweit es die systematischen Kohärenz von X wirklich vergrößert. Ein simples schematisches Beispiel kann verdeutlichen, daß dieser Punkt noch nicht durch die relationale Kohärenz von X und p abgedeckt ist. Es sei X gegeben durch die Aussagen p, q, r und s. Betrachten wir zwei Möglichkeiten von inferentiellen Zusammenhängen in X: a) Alle Aussagen in X sind mit allen anderen inferentiell verbunden. b) q, r und s sind untereinander isoliert, aber alle mit p inferentiell verbunden. Die relationale Kohärenz von p und X ist in beiden Fällen dieselbe, denn in beiden Fällen bestehen zwischen p und den anderen drei Aussagen dieselben inferentiellen Zusammenhänge. Aber der Beitrag, den p zur Gesamtkohärenz leistet, ist in (a) und (b) recht unterschiedlich. Im ersten Fall geht er über die relationale Kohärenz eigentlich nicht hinaus, denn die Aussagen von X sind bereits alle direkt untereinander verbunden. In (b) hingegen, stehen q, r und s ohne die Anwesenheit von p völlig isoliert da, während durch p immerhin zumindest indirekte Verbindungen zwischen q, r und s geschaffen werden. X erhält in diesem Fall nur durch p einen Zusammenhalt in einer Netzstruktur. Im Beispiel (b) könnten q, r und s z. B. die Beobachtungsüberzeugungen eines Superempiristen sein, die isoliert nebeneinander stehen und durch eine Theorie p gemeinsam erklärt und damit auch in einen indirekten Zusammenhang gebracht werden. Oder q, r und s sind die Tatsachen aus der Erzählung von Conan Doyles „A Case of Identity", die zunächst recht unzusammenhängend wirkten, während p gerade Sherlock Holmes erklärende Hypothese der Identität von Stiefvater und Bräutigam darstellt, die nun Verbindungen zwischen diesen Tatsachen schafft, wo vorher noch keine erkennbar waren. Wenn lebensechte Fälle auch häufig nicht so durchschaubare Beispiele bieten, dürfte doch klar geworden sein, daß die Einschätzung der Bedeutung von p für die systematische Kohärenz von X nicht allein von der relationalen Kohärenz abhängt, sondern ebenfalls von der speziellen Beschaffenheit von X. Im Falle (a) liegt bereits mit

F. Eine diachronische Theorie der Erklärungskohärenz

195

X\{p} ein hochkohärentes System Y vor, zu dem die indirekten Verbindungen, die p stiftet, nicht viel beizutragen haben, während in (b) X ohne p wenig kohärent ist und erst durch die indirekten Verbindungen, die p hineinträgt, ein gewisses Maß an systematischer Kohärenz in X entsteht. Ein anderes interessantes Beispiel, in dem die Beiträge zur relationalen und systematischen Kohärenz auseinanderklaffen, stellen ad hoc Hypothesen dar. Sie selbst besitzen, und das macht gerade ihren ad hoc Charakter aus, nur wenig relationale Kohärenz zu X. Aber sie können trotzdem die systematische Kohärenz von X entscheidend verbessern, indem sie als Brückenthesen zum Abbau von Inkohärenzen beitragen. Dazu ein konkreter Fall aus der Geschichte der Astronomie: Bei dem Vergleich der Bahn des Merkur mit den Berechnungen anhand der Newtonschen Gravitationstheorie bemerkte Leverrier 1845, daß der Perihel (dem sonnennächsten Punkt auf seiner elliptischen Bahn) des Merkur sich schneller bewegte, als es die gravitativen Einflüsse der anderen bekannten Planeten erwarten ließen. Damit entstand eine Inkohärenz zwischen Beobachtungen und der Newtonschen Theorie. Um Theorie und Beobachtung zu versöhnen, nahm Leverrier an, daß es einen kleineren Planeten, noch näher an der Sonne gab, der für diese Abweichung verantwortlich wäre, und taufte ihn Vulcanus, nach dem römischen Gott des Feuers. Die Annahme des Vulcanus konnte die entstandene Inkohärenz zunächst beseitigen und trug somit entscheidend zur systematischen Kohärenz des wissenschaftlichen Wissens der damaligen Zeit bei. Allerdings war es um die relationale Kohärenz dieser Annahme nicht so gut bestellt. Der Planet war noch nicht beobachtet worden und neben der Bahnanomalie des Merkur gab es nur eine metatheoretische Analogie, die für ihn sprach, nämlich das entsprechende Vorgehen im Fall der Bahnabweichung des Uranus, wo die Astronomen - ebenfalls unter wesentlicher Mitarbeit von Leverrier - den später entdeckten Planeten Neptun vermuteten. Die Annahme des Vulcanus ist somit ein Beispiel, wie eine Aussage über ihre relationale Kohärenz hinaus, die in diesem Fall nicht sehr groß war, zur systematischen Kohärenz beitragen kann. Die epistemische Funktion von ad hoc Annahmen, wie sie in diesem Beispiel sichtbar wird, entspricht auch den Lakatosschen Überlegungen, die man als ein Plädoyer betrachten kann, ad hoc Annahmen in den Wissenschaften erkenntnistheoretisch ernster zu nehmen, als daß früher der Fall war. Das genannte Beispiel belegt, wie fruchtbar sie sein können. Wenn sich auch die Vulcanus Hypothese als falsch herausstellte, hat sich die entsprechende Neptun-Vermutung doch schon bald bewahrheitet. Die KTR gibt uns das geeignete Rüstzeug an die Hand, die epistemischen Vorzüge und Nachteile von ad hoc Hypothesen detaillierter zu beschreiben und in einen Zusammenhang zu anderen Begründungen von Aussagen zu stellen. Wie sich das Konzept der systematischen Kohärenz, auf das sich (la) und (lc) beziehen, seinerseits explizieren läßt, wird in (2) vorgeführt. Die systematische Kohärenz hängt entscheidend vom Grad der Vernetzung im System X ab. Die Vernetzung wird durch inferentielle Beziehungen hergestellt, die in erster Linie in logischen und Erklärungsbeziehungen bestehen. Während die logischen Beziehungen keine Abstufungen zulassen, sind Erklärungsbeziehungen noch nach besseren und weniger starken Erklä-

196

IV Kohärenz

rungszusammenhängen zu unterscheiden. Zu der Forderung nach möglichst vielen inferentiellen Verbindungen in (2a) kommt daher die Forderung der Erklärungsstärke nach möglichst guten Erklärungen in (2b). Was dabei unter „besserer Erklärung" zu verstehen ist, wird in der Erklärungsdebatte genauer bestimmt. In (2c) wird als eigenständiges Konzept, das der Inkohärenz genannt, auf das schon (ld) bezug nimmt. Das ist dadurch gerechtfertigt, daß es in (3) in sinnvoller Weise durch eigenständige Bedingungen definiert wird, nach denen ein nicht-kohärentes System X noch keineswegs inkohärent sein muß. Es könnte sich z. B. bei X um ein System von lauter isolierten Überzeugungen wie denen des Superempiristen handeln, dann wäre X zwar hochgradig nicht-kohärent, aber nicht unbedingt im selben Ausmaß inkohärent. Eine Eigenständigkeit von „Inkohärenz" wird auch in ihrer Explikation unter (3) deutlich werden. Bisher kam die Stabilitätsbedingung (2d) noch nicht zur Sprache, die eher den dynamischen Aspekt von Rechtfertigungen und Wissen betrifft, statt die statischen, auf die ich mich in den anderen Bestimmungen bezogen habe. In (2d) wird von X verlangt, daß es über längere Zeit hinweg stabil kohärent geblieben ist, d.h., daß es in dieser Zeit trotz möglichst zahlreichen Inputs keine revolutionären Änderungen erfahren hat. Die Stabilität ist für uns ein wichtiges Indiz dafür, daß unsere Weltsicht zutreffend ist. Sie zeigt, daß unsere bisherigen Theorien sich auch bei auftretenden neuen Beobachtungen bewährt haben. Die Theorien sind keine ad-hoc-Justierungen, sondern fruchtbare Forschungsprogramme. Wann man dabei von konservativen Entwicklungen und wann von revolutionären Änderungen sprechen kann, läßt sich hier nicht en passant aufklären. Aber es gibt jedenfalls Lösungsvorschläge, die bereits auf zahlreiche Beispiele erfolgreich angewandt wurden und zudem in den Rahmen der Kohärenztheorie passen, wie der von Thagard (1992), der wissenschaftliche Revolutionen anhand ihrer begrifflichen Revolutionen zu identifizieren sucht. Vor allem Änderungen in den begrifflichen Hierarchien und Teil-Ganzes Beziehungen von Theorien sind für Thagard entscheidende Hinweise auf das Vorliegen begrifflicher Revolutionen. Zum zweiten Punkt der neuen Evidenzen möchte ich kurz ein Beispiel von Lipton (1991) aufgreifen und erweitern. Wenn wir über eine Karte für ein uns weitgehend unbekanntes Gelände verfügen und nicht wissen, ob sie dieses Gelände zutreffend darstellt oder nicht, so ist es sicherlich ein gutes Indiz für die Zuverlässigkeit der Karte, wenn wir sie an etlichen Stellen überprüft haben und sie dort jeweils stimmte. Das gilt um so mehr, wenn die Karte nicht speziell entworfen wurde, um gerade an diesen Stellen zu passen, sondern wenn sie auch für alle zufallig und eventuell unvorhersehbar herausgegriffenen Bereiche gilt. Ähnliches läßt sich für Theorien sagen. Sie werden besonders dadurch bestätigt, daß sie auch für solche Ereignisse eine gute Erklärung anbieten können, die bei ihrer Entwicklung noch nicht bekannt waren. Der Schluß auf die beste Erklärung - hier auf einer Metaebene eingesetzt - begründet, wieso neue Evidenzen erkenntnistheoretisch so besonders kostbar erscheinen. Kann eine Theorie nur die bereits bekannten Daten erklären, bleibt immer die Hypothese, daß sie gerade dafür notdürftig zurechtgeschneidert wurde, eine brauchbare metatheoretische Erklärung

F. Eine diachronische Theorie der Erklärungskohärenz

197

für dieses Faktum. Erklärt sie zunehmend aber auch neue bei ihrer Entstehung unbekannte Daten, verliert diese metatheoretische Hypothese an Gewicht, denn dafür hat sie keine Erklärung mehr. Die bietet uns dann eher die metatheoretische Annahme die Theorie sei zumindest approximativ wahr. Das weist speziell die neuen Daten als triftige Tests für die Wahrheit einer Theorie aus. Die Stabilitätsbedingung wird im Zusammenhang des methodologischen Konservatismus (s. V.A.3) noch ausführlicher besprochen. Auch BonJour (1985, 169ff) stützt sich auf eine entsprechende Annahme in seiner Argumentation gegen den Skeptiker. Analogiebeziehungen, die Thagard außerdem noch für Kohärenz nennt, müssen nicht eigens aufgeführt werden, weil sie im Rahmen meiner Erklärungstheorie als Spezialfälle von Erklärungen betrachtet werden können. Das Konzept der Inkohärenz, die der systematischen Kohärenz entgegenarbeitet, beinhaltet in (3a) zunächst die logischen Inkonsistenzen, von denen hier angenommen wird, daß sie sich in unseren Überzeugungssystemen lokal begrenzen lassen. Daneben rechne ich wie BonJour auch Aussagen, wie „p" und „p ist unwahrscheinlich" zu den Inkohärenzen, die zwar nicht wiedersprüchlich im streng logischen Sinn sind, aber doch offensichtlich eine Störung für den harmonischen Zusammenhang unseres Meinungssystems bedeuten. Falls sich echte Subsysteme in X identifizieren lassen, so ist auch das eine Verletzung eines einheitlichen Wissens, wie es für ideal kohärente Meinungssysteme wünschenswert ist. Subsysteme sind die Elemente einer Aufspaltung von X in Teilmengen mit der Eigenschaft, daß innerhalb jeder Teilmenge deutlich mehr Verbindungen unter den Elementen bestehen als zu den Elementen anderer Teilmengen. Dieses Phänomen ist ein Teil einer Abwesenheit von Kohärenz, weil hier weniger Verbindungen als möglich vorliegen, aber es ist eine ganz spezielle Form der Abwesenheit von Kohärenz, nämlich eine die die Verteilung von inferentiellen Zusammenhängen betrifft. Falls X mehrere Subsysteme aufweist, kann X zwar noch eine relative hohe durchschnittliche Vernetzung besitzen, die ihm zunächst ein gewisses epistemisches Gewicht sichert, aber X ist eigentlich aus verschiedenen Teilen zusammengefügt, die ihrerseits nicht gut zusammenpassen. In gewisser Weise zerfällt X in unzusammenhängende oder wenig zusammenhängende Komponenten, die sich gegenseitig epistemisch kaum stützen. Das Ausmaß, in dem das der Fall ist, ist natürlich Abstufungen fähig, so daß auch das Identifizieren und Einteilen von Subsystemen eine Sache des Grades ist. Die scheint mir allerdings sehr hilfreich für die Beschreibung globaler Eigenschaften von Überzeugungssystemen zu sein, weil sich die Diskussion um bestimmte Beispiele in unserem Wissen anhand dieses Konzepts leiten läßt. Daher wird Subsystembedingung (3b) als eigene Forderung in (3) aufgenommen. Man könnte die Subsysteme (in einer schwachen Analogie) mit getrennten Teillandkarten vergleichen, die nur wenige Berührungspunkte untereinander aufweisen. Wenn sich eine dieser Landkarten als zuverlässig für ihr Gebiet erwiesen hat, gibt uns das nur wenige Hinweise auf die Zuverlässigkeit der anderen. Bei einer umfassenden zusammenhängenden Landkarte haben wir hingegen

198

IV Kohärenz

mehr Anlaß, von einem Passen der Landkarte in einem Gebiet auf ihre allgemeine Brauchbarkeit und damit auf andere Gebiete zu schließen. Der in (3c) genannte Fall der Erklärungsanomalie läßt sich auch als ein Spezialfall eines kleinen isolierten Subsystems deuten, besitzt aber auch ausgeprägte eigenständige Charakteristika. Eine Aussage wird - im Unterschied zu Subsystemen - nicht allein dadurch schon zur Erklärungsanomalie von X, daß sie innerhalb von X nicht erklärt wird. Erklärungsanomalien sind spezifisch für bestimmte Theorien. Die Perihelanomalie des Merkur ist keine Anomalie für den psychologischen Behaviorismus - der hat seine eigenen - und auch nicht für die Maxwellsche Elektrodynamik, obwohl sie auch dort nicht erklärt wird, sondern für die Newtonsche Gravitationstheorie. Erklärungsanomalien sind Tatsachen, die zwar zum intendierten Anwendungsbereich einer Theorie T gehören, aber sich trotzdem dagegen widersetzen, von T erklärt zu werden. Dieser Punkt kann in der Erklärungsdebatte in (IX.H.1) angemessener behandelt werden. Daß Erklärungsanomalien in der Wissenschaftsdynamik eine große Bedeutung zukommt, ist spätestens durch die Kuhnschen wissenschaftshistorischen Untersuchungen bekannt. In (3d) ist die Rede von Konkurrenzerklärungen. Das sind Erklärungen, von denen wir annehmen müssen, daß sie nicht beide wahr sein können. In konkreten Fällen dürfte es meist intuitiv nicht schwer bestimmbar sein, ob tatsächlich konkurrierende Erklärungen oder koexistierende vorliegen. Schwieriger ist es schon, dafür ein einfaches Kriterium zu formulieren, aber es mag zunächst genügen, sich auf unser intuitives Verständnis von konkurrierenden Erklärungen zu stützen, da es mir in dieser Arbeit kaum möglich ist, schon alle Teile des hier vorgelegten Forschungsprogramms vollständig zu explizieren (s. Bartelborth 1994a). Im 4. Teil von KTR wird dann schließlich, die relationale Kohärenz diskutiert, auf die sich die Bedingung (lb) bezieht. Sie besteht in den inferentiellen Beziehungen, die zwischen p und dem Rest von X vorliegen. Dabei ist analog den Bedingungen (2a) und (2b) wieder in logische und Erklärungsbeziehungen zu unterscheiden und für die zweiteren eine möglichst hohe Erklärungskraft zu verlangen. Außerdem können diese inferentiellen Zusammenhänge in der einen wie der anderen Richtung vorliegen. Dabei lassen sie sich einmal als Abduktionsschlüsse und in der anderen Richtung als Einbettungen deuten. Daß die relationale Kohärenz nicht einfach mit der systematischen Kohärenz zu identifizieren ist, wurde bereits durch die Beispiele in der Diskussion von Bedingung (lc) belegt. Man könnte nun auch noch die relationale Inkohärenz eigens berücksichtigen. Aus Gründen der Übersichtlichkeit verzichte ich darauf, zumal sie auch schon in den Beitrag, den p zur Kohärenz von X leistet mit eingeht, denn als einen Aspekt der systematischen Gesamtkohärenz finden wir die Inkohärenz. Die in KTR vorgestellte Kohärenztheorie der Rechtfertigung erlaubt Vergleiche zwischen bestimmten Aussagen oder Theorien daraufhin, wie gut sie sich in unser Meinungssystem einfügen lassen. Sie ist in erster Linie als eine partiell komparative Theorie der Rechtfertigung zu verstehen. Komparativ ist sie, weil sie in manchen Fällen direkte Vergleiche gestattet, welche von zwei Aussagen vor unserem Hintergrundwissen besser begründet ist. Partiell bleibt sie, weil sie diesen Vergleich nicht für beliebige

G. Die Vereinheitlichung unseres Wissens

199

Aussagen gestattet. Für zwei Theorien T, und T2 kann man anhand von KTR erwägen, wie sie zur Kohärenz unseres Überzeugungssystems X beitragen würden und wie gut sie daher vor X gerechtfertigt wären. Ist Tj in allen Punkten der KTR besser oder zumindest genauso gut wie T 2 , so ist T, besser gerechtfertigt vor dem Hintergrund X. Liegen allerdings die Stärken von T, und die von T2 in jeweils verschiedenen Punkten von KTR, gibt KTR allein noch keine Auskunft darüber, welche Theorie epistemisch zu bevorzugen sei. Eine solche Abwägung z. B. von Erklärungsleistungen auf der einen Seite gegen die Vermeidung von Inkohärenzen auf der anderen Seite läßt sich zumindest bisher nicht allgemein treffen, sondern nur in konkreten Einzelfallen. Allerdings stellt KTR auch in diesen Fällen die Begrifflichkeit und die Beurteilungsdimensionen zur Verfügung, an denen eine entsprechende Abwägung auszurichten ist. Um diesen letzten Aspekt einer Bewertung anhand von (KTR) zu illustrieren, soll ein Beispiel skizziert werden. Eine solche Abwägung mußte für das Bohrsche Atommodell vorgenommen werden, das auf der einen Seite die Spektrallinien von Atomen erklären konnte, aber auf der anderen Seite in Konflikt mit der klassischen Elektrodynamik stand. Es hatte eine Reihe unbekannterer Konkurrenten wie das Plumpuddingmodell von J.J. Thomson (s. Pais 1986; 166, 185), die alle gewisse Erklärungsleistungen erbrachten, aber in dieser Hinsicht dem Bohrschen Atommodell eindeutig unterlegen waren. Insbesondere steht ihm natürlich auch der Konkurrent der theoretischen Enthaltsamkeit gegenüber, der sagt, wir haben einfach noch keine gute Atomtheorie, und die Linienspektren der Atome (insbesondere des Wasserstoffatoms) sind als bisher unerklärte Tatsachen zu akzeptieren. Lakatos hat in (1974) einige Faktoren genannt, die für diese Abwägung berücksichtigt werden können, die in Bartelborth (1989) weiter diskutiert werden. Dabei geht es um eine Abwägung der systematischen Kohärenz, die durch die Bohrsche Theorie gefördert wird, in dem sie die Linienspektren stärker in unser wissenschaftliches Wissen integriert, gegen eine Inkaufnahme einer Inkohärenz, die durch die Bohrsche Theorie entsteht, weil sie sich in Widerspruch zur klassischen Elektrodynamik setzt. An vielen Stellen stützt sich die Explikation der KTR auf den Erklärungsbegriff und artverwandte Begriffe wie den der Erklärungsanomalie oder den von konkurrierenden Erklärungen. Bisher konnte ich mich an diesen Stellen allerdings nur auf ein intuitives, und wie die philosophische Erklärungsdebatte zeigen konnte, keineswegs einheitliches Verständnis des Erklärungskonzepts stützen. Ein wesentlicher Schritt, um für KTR einen Substanzgewinn zu erzielen, bleibt daher die Ausgestaltung einer Erklärungstheorie, die im letzten Teil der Arbeit angesiedelt ist.

G. Die Vereinheitlichung unseres Wissens Es ergibt sich schließlich eine Art von Gesamtbild der Rechtfertigung durch Kohärenz, zu dessen Darstellung ich mich zunächst noch einmal dem Superempiristen zuwenden möchte, der kognitiv so bescheiden bleibt, sich ganz auf das Sammeln von Beobach-

200

IV Kohärenz

tungsaussagen zu beschränken. Er gleicht einem eifrigen Käfersammler, der es dabei bewenden läßt, die Käfer in der zeitlichen Reihenfolge ihres Auftretens zu sammeln, ohne je den Versuch zu unternehmen, sie nach irgendwelchen Ähnlichkeitsmaßstäben zu klassifizieren oder sogar Theorien über ihr Verhalten aufzustellen. Er stellt auch keine Vermutungen an, auf welche Käfer er noch stoßen wird und wie diese aussehen könnten. Auch die Funde noch so seltsamer Käfer können ihn nicht überraschen, da er keine Erwartungen über Käfer entwickelt. Obwohl er sich so intensiv mit Käfern beschäftigt, können wir ihn eigentlich nicht als Käferexperten bezeichnen. Er kann uns nicht viel Informatives über Käfer erzählen - nur, welche er gesammelt hat. Er kann uns auch nicht helfen zu verstehen, was für Käferarten es gibt oder warum sich Käfer in einer bestimmten Weise verhalten. Für den Superempiristen ist es sogar noch schlimmer, denn er sammelt nicht nur Gegenstände einer bestimmten Art, sondern unterschiedslos alles, was ihm begegnet, ohne vorher irgendwelche Annahmen darüber zu haben. In Abschnitt (IV.A.2) hatte ich schon darauf hingewiesen, daß dieses Bild bereits in sich nicht stimmig ist. Damit die Wahrnehmungen des Superempiristen überhaupt in Form von Überzeugungen mit propositionaler Struktur repräsentiert sein können, muß er Begriffe verwenden, wie z. B. in „Vor mir liegt ein schwarzer Ball". Klassifizierungen dieser Art beinhalten längst gewisse Behauptungen über Ähnlichkeiten und wie Putnam erläutert, zumindest implizite Annahmen bestimmter Minitheorien, die Putnam Stereotype nennt, wenn man überhaupt davon sprechen will, daß der Superempirist Meinungen hat, die er auch versteht. Sobald wir Überzeugungen über die Welt entwickeln, entwickeln wir auch bereits kleine Theorien über sie. Der Superempirist ist also nicht wirklich vorstellbar. Denken wir ihn uns aber so weit wie möglich verwirklicht. Er enthält sich jeder Ansicht über die Welt über die notwendigen Stereotypen hinaus. Für ihn gilt wieder, was wir auch für den Käfersammler feststellten, er ist kein Experte fiir die Welt und kann uns nur wenig Interessantes über sie mitteilen. Er kann die Ereignisse seiner Umwelt nicht erklären, er ist notgedrungen ein Anti-Erklärer, kann auch keine begründeten Retrognosen über die Vergangenheit seiner Gesellschaft oder über Geschehnisse abgeben, an denen er nicht selbst teilgenommen hat, weil auch dazu Theorien notwendig sind. Nur die gestatten es uns, anhand bestimmter Indizien auf Vergangenes zu schließen. Ich will nicht behaupten, er sei nicht lebensfähig, wie es manchmal radikalen Skeptikern vorgeworfen wird, sondern nur, daß sein kognitives Leben ausgesprochen ärmlich ist. Er versteht seine Umwelt eigentlich nicht und kann bestenfalls durch unbewußt erworbene Tropismen auf sie reagieren. Diese Vorstellung vom geistig verarmten Superempiristen soll noch einmal erläutern, wieso ontologische Sparappelle etwa von Empiristen, die immer wieder auf theoretische Enthaltsamkeit drängen, in die falsche Richtung weisen. Der Kohärenztheoretiker entwickelt seine Konzeption fast in der entgegengesetzten Richtung. Für ihn ist die Entwicklung von Theorien über die Welt auf vielen Ebenen das wichtigste erkenntnistheoretische Erfordernis. Nur durch allgemeine Hypothesen und Theorien entstehen Verbindungen zwischen unseren Beobachtungen, nur durch sie kann es zu einem wirkli-

G. Die Vereinheitlichung unseres Wissens

201

chen System von Meinungen kommen. Eine derartige Vernetzung unseres Wissens ist für begründete Meinungen unerläßlich. Die kohärenztheoretische Behandlung von Beobachtungen zeigt ebenso, daß den Beobachtungen noch nicht einmal epistemische Priorität eingeräumt werden sollte, denn zu ihrer Rechtfertigung stützen wir uns bereits auf Theorien unterschiedlicher Herkunft. Trotzdem wird der Kohärenztheoretiker nicht zum theoretischen Phantasten, denn nur die Theorien sind für ihn hilfreich, die tatsächlich erklärende und damit vereinheitlichende Kraft in bezug auf unsere Beobachtungsüberzeugungen besitzen. Je einheitlicher unser Modell der Welt beschaffen ist, desto besser sind für den Kohärenztheoretiker die Begründungen unserer Meinungen. Jede Uneinheitlichkeit in unserem Modell, etwa durch eine Aufspaltung in Subsysteme oder durch konkurrierende Ansichten, gebietet geradezu die Suche nach einer einheitlicheren Theorie. Die KTR hat damit eine gute metatheoretische Erklärung anzubieten, wieso wir in den Wissenschaften de facto an vielen Stellen auf diese Suche nach einheitlicheren Theorien stoßen34 und wieso viele Philosophen die Vereinheitlichung unseres Wissens für unsere Erkenntnis für wichtig halten. Für ein Verständnis der Welt in einem möglichst zutreffenden und umfassenden Modell sind wir auf kohärente Beschreibungen angewiesen. Auf der Suche nach wahren Meinungen über die Welt benötigen wir Indikatoren für Wahrheit. Diese können uns nur kohärente Überzeugungssysteme geben, denn jede Begründung einer unserer Meinungen ist wiederum indirekt von der Kohärenz des ganzen Systems abhängig. Der Kohärenztheoretiker sieht die Suche nach Wissen als eine Art von großem Puzzle, in dem wir erst dann annehmen können, ein richtiges Bild der Welt entwickelt zu haben, wenn alle Steine gut zusammenpassen und ein Gesamtbild entstanden ist. Ein Gesamtbild kann aber erst entstehen, wenn zusätzlich zu den Steinchen des Superempiristen, die keine Paßstellen untereinander aufweisen, größere Steine eingefügt werden, die einen Zusammenhang herstellen können. Dabei ist allerdings die Vorstellung des Empiristen, nach der wir immer mit lauter kleinen Puzzlesteinchen beginnen und dann erst nach den größeren Verbindungsstücken suchen, irreführend, denn auch die großen Steine entscheiden wiederum mit darüber, welche kleineren Steine in unser Gesamtbild passen und welche nicht. Unsere Suche richtet sich immer zugleich auf kleinere und größere Puzzlesteine. Der Kohärenztheoretiker muß damit natürlich noch nicht behaupten, daß es immer eine einheitliche Beschreibung der Welt gibt, sondern nur, daß wir ein großes erkenntnistheoretisches Interesse daran haben müssen, so kohärente Beschreibungen wie irgend möglich aufzusuchen. Gelingt uns das nicht einmal in geringem Umfang, sehen wir uns - nur dann ohne es zu wollen - in die epistemische Situation des Superempiristen gestellt. Im extremsten Fall läßt sich dann keine unserer Meinungen mehr begründen. Wir verfügen über keine Erklärungen des Geschehens unserer Umwelt mehr und können unsere Welt nicht mehr im kognitiven Sinn verstehen. Wir verbleiben mit lauter unzusammenhängenden Puzzlesteinchen, die wir nicht zusammensetzen können und sehen kein Bild der Welt mehr, das handlungsleitend sein könnte (s. a. IX.H.5). Hier trifft der Kohärenztheoretiker mit dem Sprachphilosophen zusammen, der uns sagt, daß wir

202

IV Kohärenz

zumindest auf Minitheorien bereits dann angewiesen sind, wenn unsere Äußerungen semantischen Gehalt besitzen sollen. Die Maxime des Kohärenztheoretikers könnte man in dem Schlagwort zusammenfassen: Ohne ein einigermaßen kohärentes, wenigstens in Teilen vereinheitlichtes Weltbild können wir kein Wissen und kein Verständnis der Welt erwerben. Auch die theoretische Unterbestimmtheit und sogar relativistische Konzeptionen der Wissenschaft werden durch das entworfene Bild vom Erkenntniserwerb nicht a priori ausgeschlossen. Ob es alternative Puzzlesteine gibt, die die Beobachtungen in einem Gesamtbild zusammenfugen oder nur ein einziges, hängt natürlich nicht zuletzt von den Wahrnehmungen ab, die wir tatsächlich machen. Ob sich die wissenschaftliche Entwicklung letztlich besser als eine langsame nicht immer geradlinige Annäherung an die Wahrheit oder eher als ein bloß auf bestimmte Gesellschaften zugeschnittenes Unternehmen verstehen läßt, bleibt internen Analysen der Wissenschaftsdynamik überlassen. Die müssen untersuchen, wie stabil oder revolutionär sich unser Wissen tatsächlich entwickelt.

H. Einige Konsequenzen der KTR In der Einleitung hatte ich schon auf den engen Zusammenhang zwischen epistemischen Rechtfertigungen und Argumenten hingewiesen, die letzteren aber zunächst aus dem Spiel gelassen. Wenigstens in Form einer Bemerkung möchte ich an dieser Stelle über mögliche Auswirkungen der vorgelegten Rechtfertigungstheorie auf unsere Konzeption von Argumentationen zu sprechen kommen. Ein gutes Argument sollte meines Erachtens den Diskussionspartner nicht nur kurzfristig überreden können, etwas zu glauben, sondern auch längerfristig stabile Begründungen beinhalten. Für derartige Begründungen offenbart die Kohärenztheorie der Rechtfertigung (KTR) einen langwierigen Weg, zeigt sie doch, daß epistemische Rechtfertigungen wesentlich holistischen Charakter haben und vom Zusammenhalt und der engen Verknüpfung aller unserer Meinungen abhängen. Wie gut eine bestimmte Überzeugung gerechtfertigt ist, bestimmt sich natürlich in erster Linie anhand ihrer relationalen Kohärenz, d.h. ihrer Einbettung in unser Meinungssystem durch möglichst viele gegenseitige inferentielle Verbindungen mit dem übrigen System. Das erklärt, wieso eine gute Begründung einer Meinung im allgemeinen nicht in einer einzelnen Herleitung oder „Deduktion" besteht, sondern einen weitaus beschwerlicheren Weg über die Analyse zahlreicher Erklärungszusammenhänge zu gehen hat. Viele philosophische Arbeiten - insbesondere die größeren, die sich nicht auf einen einzelnen Punkt einer Diskussion konzentrieren, sondern umfassend für eine ausgewachsene These argumentieren möchten - sind beredte Zeugnisse dieser Konsequenz aus KTR. Ebenso wird damit die Fruchtlosigkeit vieler mündlicher Argumentationen selbst bei gutwilligsten Diskussionspartnern verständlich, offenbart KTR doch, welche Herkulesarbeit zu leisten ist, soll auch nur eine der vertretenen Positionen gründlich

H. Einige Konsequenzen der KTR

203

begründet werden. Jede Seite wird zunächst einigen Rückhalt für ihre Ansicht in unseren Überzeugungssystemen für sich geltend machen können, so daß erst die Zusammenschau aller einzelnen Punkte sowie einer Analyse, wie gut sie jeweils in unserem Hintergrundwissen verankert sind, eine Entscheidung ermöglicht. Die Überprüfung der Verankerung erfordert ihrerseits eine Untersuchung, in welchen Erklärungsbeziehungen sie zu finden sind, welche Theorien daran beteiligt sind und wie gut diese Theorien und Erklärungen sind, was wiederum nach eine Analyse ihrer vereinheitlichenden Kraft verlangt. Das alles macht Begründungen natürlich nicht unmöglich, sondern zeigt nur, wie komplex und aufwendig sie letztlich sein können. Wir werden uns in den meisten Fällen wohl mit elliptischen Argumentationen zunächst zufrieden geben müssen und nur in besonders wichtigen Fällen in einer längeren Debatte die fehlenden Überlegungen nachliefern können. Zu den möglichen Anwendungsfällen kohärentistischer Begründungen gehören neben den hier diskutierten empirischen Aussagen auch normative Fragen etwa aus der Ethik. Für dieses Gebiet gilt Ähnliches wie für Diskussionen im empirischen Bereich. Diese Behauptung kann ich an dieser Stelle natürlich nicht ausführlich begründen, aber ich möchte anhand einer kurze Beispielskizze wenigstens eine Plausibilitätsbetrachtung dazu angeben, die erste Hinweise auf die Einbettung dieser These in unsere Hintergrundannahmen zu moralischen Fragen bieten kann. Nehmen wir eine moralische Frage wie die nach der Zulässigkeit von Abtreibungen. Wenn die öffentliche Debatte sich nicht um vorrangig juristische Probleme - etwa der Vereinbarkeit mit dem Grundgesetz - geht, gerät sie oft relativ schnell in eine Sackgasse. Die Vertreter liberaler Lösungen verweisen etwa auf die schlechten psycho-sozialen und oft auch medizinischen Folgen der Strafbarkeit und behaupten, daß es sich bei einem Fötus nicht um menschliches Leben handelt, so daß unsere üblichen Normen, solches nicht zu töten, hier nicht anwendbar sind. Die Gegner einer Liberalisierung setzen dem entgegen, daß es sich sehr wohl um menschliches Leben - zumindest der Möglichkeit nach - handelt und daß es daher auch entsprechenden Schutz und Vorrang gegenüber anderen Werten verdient. Viel weiter als zu einem Aufeinanderprallen dieser gegensätzlichen Standpunkte kommt es dabei vielfach nicht mehr. Das ist auch verständlich, wenn man die Debatte nicht erweitert und „holistischer" fuhrt. An dieser einen Stelle können wir nur unsere Meinungsdifferenzen konstatieren, ohne zu einem nennenswerten Fortschritt zu gelangen. Einen Weg auf dem ein Fortschritt zu erreichen sein könnte, möchte ich nun skizzieren. Wir müssen allgemeinere Prinzipien in Anschlag bringen und ihrerseits diskutieren, die unsere Entscheidung unterstützen. Z. B.: „Daß man keinen Menschen töten darf, außer aus Notwehr oder Nothilfe und daß jeder, der zu unserer tierischen Art gehört ein Mensch ist, ganz gleich in welchem Entwicklungsstadium." Dieses Prinzip läßt sich auf vielfache Weise kritisieren und muß sicherlich eine Reihe von Modifikationen durchlaufen, ehe es von beiden Seiten als glaubwürdiges Prinzip, nach dem man sich in anderen Fällen auch tatsächlich richten sollte, gelten darf. In jedem Fall benötigen wir solche „ethischen Theorien'1,, um die Diskussion

204

IV Kohärenz

von dem einen Fall auch auf andere Beispiele, die uns ähnlich gelagert erscheinen, ausdehnen zu können. Die Annehmbarkeit dieser Theorie läßt sich dann daran testen, wie gut sie unsere gemeinsamen moralischen Überzeugungen und Urteile in vielen anderen Fällen erklären kann. Akzeptieren wir diese Theorie in vielen anderen Fällen als die beste Erklärung dafür, daß wir das Verhalten x für falsch halten, so gibt uns das einige prima facie Gründe, sie auch im Falle des Paragraphen 218 anzuwenden. Zumindest trägt die jeweilige Gegenseite die Beweislast zu erläutern, warum wir uns hier anders verhalten sollten. Auch hier werden Verbindungen zwischen Einzelfällen anhand von Theorien und Konsistenzüberlegungen notwendig, um wenigstens eine Chance für eine begründete Entscheidung zu erhalten. Das ist natürlich eine stark idealisierte Darstellung derartiger Diskussionen. Im allgemeinen werden nicht nur eine allgemeinere Annahme zu überprüfen haben, sondern eine Vielzahl. Einen guten Einblick in die Vielschichtigkeit dieser speziellen moralphilosphischen Debatte bietet Hoerster (1991). Ein Hilfsmittel um bestimmte Annahmen auf ihre Kohärenz in unserem Hintergrundwissen zu überprüfen, das auch in der Ethik vielfach Anwendung findet, möchte ich nun noch kurz vorstellen, nämlich Gedankenexperimente. Die KTR erklärt uns, wieso Gedankenexperimente nicht nur in der Philosophie, sondern auch in den empirischen Wissenschaften eine so große Bedeutung besitzen.35 Das wohl berühmteste von ihnen, das Gegenstand einer Reihe von Konferenzen und schließlich auch von tatsächlichen Experimenten war, ist das sogenannte Paradox von Einstein, Podolsky und Rosen (EPR-Paradox), aber es gibt daneben noch eine Vielzahl von Gedankenexperimenten in den empirischen Wissenschaften. Einige berühmte haben einen Namen bekommen, wie Carnots Kreisprozeß, das Zwillingsparadoxon oder Maxwells Dämon, aber sehr viele andere finden sich in den Textbüchern, bei denen es dazu nicht gereicht hat. Man erinnere sich nur an die vielen Gedankenexperimente, auf die wir allein im Zusammenhang mit der Relativitätstheorie bereits stoßen. Doch warum schenkt man in den Naturwissenschaften Gedankenexperimenten eine so große Aufmerksamkeit? Der Empirist sagt uns immer, daß dort nur der Vergleich von Theorien mit den Beobachtungsdaten zählt. Sind die Gedankenexperimente demnach eher ein Hobby der Naturwissenschaftler ohne erkenntnistheoretischen Wert? Dem ist natürlich nicht so, und KTR gibt uns die Möglichkeit, dieses Phänomen der Gedankenexperimente in den Naturwissenschaften zu verstehen. Es handelt sich dabei um eine Form von Kohärenztests. Ein recht einfaches historisches Beispiel, das Popper (1984, 397ff) in einem Zusatz (*XI) zur Logik der Forschung schildert, soll erläutern, wie Gedankenexperimente als Kohärenztests dienen können. Galilei macht damit auf eine Inkohärenz in der Aristotelischen Theorie aufmerksam, nach der die natürliche Geschwindigkeit eines schweren Körpers größer als die eines leichten ist. Wenn wir zwei ungleich schwere Körper nehmen, so argumentiert Galilei, wird der schwerere sich gemäß dieser Theorie schneller bewegen als der leichtere. Wenn wir die beiden Körper nun zusammenbinden, wird der schnellere den langsameren beschleunigen und der langsamere den schnelleren verlangsamen. Somit sollte der zusammengesetzte Körper in seiner Geschwindigkeit

H. Einige Konsequenzen der KTR

205

zwischen dem langsameren und dem schnelleren liegen. Da er aber schwerer ist als jeder einzelne der Körper, sollte er nach Aristoteles Theorie eigentlich schneller als sie sein. In diesem Gedankenexperiment hat Galilei Schlußfolgerungen aus der Aristotelischen Theorie unter Zuhilfenahme bestimmter Hintergrundannahmen gezogen, wobei sich ein Widerspruch in den zentralen Aussagen der Theorie aufdecken ließ. Neben der Theorie selbst mußte er sich auf die Annahmen stützen, daß man das Gewicht der Verbindung zwischen den Körpern vernachlässigen kann und daß sich das Verhalten des Gesamtkörpers aus dem Verhalten der beiden einzelnen Körper zumindest qualitativ bestimmt. Zur Begründung dieser Annahmen wurde - z. B. von Mach - das intuitiv plausible Prinzip der kontinuierlichen Variation zitiert. Galileis Gedankenexperiment demonstriert, daß etwas nicht stimmen kann in der Aristotelischen Theorie der Bewegung. Wenn wir sie vor einigen einfachen Annahmen unseres Hintergrundwissens beurteilen, stoßen wir auf eine schwerwiegende Inkohärenz in der Theorie, die wir in dieser Form nicht akzeptieren können. Obwohl sich diese Inkohärenz immer schon in der Aristotelischen Theorie „versteckt" hielt, hat doch erst das Gedankenexperiment sie deutlich herausgestellt. In ähnlicher Form können wir auch die epistemische Funktion anderer Gedankenexperimente in den Naturwissenschaften als Kohärenztests interner Art gegen unser übriges Hintergrundwissen verstehen. Diese Funktion können sie natürlich nicht nur für empirische Theorien übernehmen, sondern ebenso für philosophische Theorien, die in einem noch stärkeren Maße auf interne „Kohärenzchecks" angewiesen sind, als das für empirische Theorien der Fall ist. In dieser Arbeit stützte sich unter anderem ein Argument gegen den Extemalisten auf ein Gedankenexperiment, nämlich das von Norman dem Hellseher, der zwar auf zuverlässigem Wege zu wahren Meinungen gelangt, die wir aber trotzdem nicht als Wissen bezeichnen möchten, weil Norman selbst der Ansicht war, daß Hellseherei Unsinn ist. Das Beispiel sollte aufdecken, daß die externalistische Konzeption von Wissen nicht zu unseren üblichen Annahmen über Wissen paßt, daß sie also nicht wirklich kohärent in unser Meinungssystem zu integrieren ist. Die KTR erlaubt uns aber nicht nur eine Erklärung der Bedeutung von Gedankenexperimenten, sondern gibt uns zusätzlich auch Hinweise, wie diese „Experimente" zu bewerten sind. So sollten sie sich als Kohärenztests vor unserem Hintergrundwissen nach Möglichkeit nur auf solche Annahmen unseres Hintergrundwissens stützen, die selbst nicht kritisch beurteilt werden. Je besser die im Gedankenexperiment vorgestellte Situation mit unserem Hintergrundwissen verträglich ist, um so ernster müssen wir das Gedankenexperiment nehmen; je utopischer und unwahrscheinlicher die Situation aber ist, um so weniger bedeutsam ist es, denn natürlich beziehen sich unsere Meinungen überwiegend auf den Bereich möglicher Welten, den wir für wahrscheinlich halten. Daran hat sich auch unsere Metabeurteilung entsprechender Inkohärenzen zu orientieren, schließlich wollen wir in erster Linie gut begründete Meinungen über unsere tatsächliche Welt erhalten. Diese zunächst abstrakten Betrachtungen kann ein Beispiel unterstützen, an dem ich exemplarisch vorführen möchte, wie man mit Hilfe von metatheoretischen Überlegun-

206

IV Kohärenz

gen gegen Gedankenexperimente vorgehen kann. Derek Parfit (1984) argumentiert in Reasons and Persons für eine reduktionistische Sichtweise personaler Identität, nach der unsere Identität in der Zeit im wesentlichen auf physikalischen und psychologischen Kontinuitäten und Zusammenhängen zwischen den verschiedenen Stadien unseren Existenz beruht. Diese Konzeption testet er (1984, 199ff) unter anderem an unterschiedlichen Varianten eines Gedankenexperiments, das er „Teletransportation" nennt. Dabei wird im einfachen Fall der Körper eines Menschen im Teletransporter auf der Erde zerstört, aber gleichzeitig auf dem Mars in exakter Kopie neu zusammengefügt. Für Parfit als Reduktionisten ist das genauso gut, wie gewöhnliches Überleben. Probleme macht ihm aber der „branch line case", in dem der Teletransporter das Original nicht zerstört und es daher eine Person zweimal (?) gibt. Wie der Reduktionist darauf reagieren kann, akzeptiert er erst einmal dieses Gedankenexperiment, möchte ich hier natürlich nicht besprechen, sondern auf ein externes Argument gegen das Parfitsche Gedankenexperiment eingehen. Die Teletransportation erscheint zunächst utopisch, aber andererseits ist es sicherlich eine logische Möglichkeit, die durchaus in unser Hintergrundwissen zu passen scheint. Doch dieser Schein trügt. Um wirklich als Fortsetzung meiner Person gelten zu können, muß die Kopie mir nicht nur oberflächlich ähnlich sein, sondern eine exakte Kopie bis in die atomare Struktur darstellen, und so beschreibt Parfit (1984, 199) den Fall auch. Insbesondere muß natürlich meine Gehirnstruktur ganz akkurat dupliziert werden. Doch bei dieser Anforderung paßt zumindest der Verzweigungsfall - aber vermutlich auch die „normale" Teletransportation - nicht tatsächlich in unser Hintergrundwissen. So erläutert Penrose (1989, 269f), daß es nach der besten wissenschaftlichen Theorie, die wir jemals hatten, der Quantenmechanik nämlich, unmöglich ist, eine solche Kopie bis in die Mikrostruktur vorzunehmen. Penrose weist explizit darauf hin, daß derartige Teletransportationen physikalisch unmöglich sind.36 Diese physikalische Unmöglichkeit „erledigt" einen Verzeigungseinwand natürlich nicht endgültig, aber sie kann ihn doch zumindest erheblich abschwächen, zeigt sie doch, wie inkohärent sich die Teletransportation mit Verzweigung sich in unserem Hintergrundwissen ausnimmt. Auf diese Weise kann KTR hilfreiche Hinweise für die Beurteilung von Argumentationen bieten.

I. Resümee Ziel dieses Kapitels war die Entwicklung einer Kohärenzkonzeption von epistemischer Rechtfertigung. Zu diesem Zweck wurden zunächst die wichtigsten möglichen Bestandteile von Kohärenz auf einer intuitiven Ebene erörtert, wobei sich neben logischen Zusammenhängen vor allem Erklärungsbeziehungen als kohärenzstiftend erwiesen haben. Andere Schlußformen wie der konservative Induktionsschluß können dagegen als Spezialfälle der Abduktion betrachtet werden. Eines der vielleicht größten intuitiven Hindernisse für Kohärenztheorien der Rechtfertigung stellen Beobachtungsüberzeugungen dar, die aufgrund ihrer Entstehung für inferentielle Begründungen zunächst unge-

Anhang: Bayesianistische Schlüsse

207

eignet erscheinen. Doch die Genese einer Meinung kann nicht ihre Rechtfertigung festlegen, und eine kohärentistische Analyse von Wahrnehmungen und ihren Irrtumsmöglichkeiten ergab letztlich eine realistischere Bewertung von Beobachtungsüberzeugungen, als es für Empiristen möglich ist. Mit dem Fallen dieser letzten Hürde ist der Weg zu einer Kohärenztheorie frei, der in einer semiformalen Explikation des Kohärenzbegriffs gipfelte. Dieser setzt sich zusammen aus relationaler und systematischer Kohärenz, sowie einem relativ eigenständigen Konzept von Inkohärenz, die alle zusammen bestimmen, wann sich eine Aussage kohärent in ein Meinungssystem einfügt. Für die Qualität dieser Einbettung sind holistische Zusammenhänge, die nach einer möglichst großen Vernetzung und Vereinheitlichung unserer Überzeugungen fragen, die ausschlaggebenden Faktoren.

Anhang: Bayesianistische Schlüsse Es ist hier nicht der Ort, sich ausführlicher mit dem Bayesianismus zu beschäftigen, zumal man dabei auch in die formalen Untiefen dieses Ansatzes einsteigen müßte. Trotzdem möchte ich kurz erläutern, inwiefern auch dieser Ansatz abduktive Charakteristika aufweist. Bayesianisten beschreiben unser Meinungssystem mit Hilfe von Glaubensgraden. Jede Überzeugung wird mit einer reellen Zahl zwischen 0 und 1 versehen, die den Grad angibt, mit dem wir sie akzeptieren. Dieser Grad wird im allgemeinen mit der Bereitschaft einer Person assoziiert, bestimmte Wettquoten auf die Überzeugung zu akzeptieren,. Will die Person rational bleiben, sollten ihre Glaubensgrade den Wahrscheinlichkeitsaxiomen gehorchen. Anderenfalls läßt sich zeigen, daß sie sich auf Systeme von Wetten einlassen würde, bei denen sie bestenfalls verlieren kann. Statt von Glaubensgraden spreche ich daher ab jetzt einfach von Wahrscheinlichkeiten p(A), die die Person ihrer Meinung A beimißt. Sie benötigt aber nicht nur einfache Wahrscheinlichkeiten für ihre Meinungen, sondern zusätzlich noch bedingte Wahrscheinlichkeiten p(A,B), die angeben, wie hoch die Person die Wahrscheinlichkeit von A einschätzt, wenn sie voraussetzt (bzw. erfährt), daß B der Fall ist. Bayesianisten sprechen dann darüber, wie jemand seine einfachen Wahrscheinlichkeitsschätzungen revidieren sollte, wenn er neue Beobachtungen E macht. Nur für die Überzeugungsänderungen hoffen sie substantielle Aussagen treffen zu können. Dazu stützen sie sich auf die folgende Konditionalisierungsregel: (K)

P n eu(A) = P a l t ( A , E )

D.h., wir sollten A in dem Grade glauben, wie wir, bevor wir E erfahren haben, an A unter der Annahme, daß E vorliegt, tatsächlich geglaubt haben. Ob das vernünftig ist, hängt natürlich ganz davon ab, ob dieser bedingte Glaube an A vernünftig war. Der sollte das Theorem von Boyes erfüllen:

208 (B)

IV Kohärenz P(A,E)=P(A);P(E'A) P(E)

Das verankert ihn zumindest ein wenig innerhalb der anderen Überzeugungen. Er hängt nun auf einfach kalkulierbare Weise mit dem unbedingten Glauben an A und dem an E, sowie dem bedingten an E unter der Voraussetzung A zusammen. Der Zusammenhang (B) gibt tatsächlich einige Aspekte derartiger Abschätzungen auf plausible Weise wieder. Nehmen wir an, daß A eine Hypothese ist, die wir durch die Beobachtungsüberzeugung E (evidence) stützen wollen. Dann ist die neue Wahrscheinlichkeit für A zunächst um so größer, je größer die alte Wahrscheinlichkeit für A war. Das scheint ziemlich unkontrovers. Sie ist aber auch um so größer, je eher E zu erwarten war, wenn A wahr ist. Das ist eine Art von abduktivem Schluß, denn die höhere Wahrscheinlichkeit ist zumindest ein Indikator, daß A eine Form von statistischer Erklärung für E bietet. Außerdem wächst nach (B) unser Glaube an A besonders, wenn E vorher recht unwahrscheinlich war. Das ist intuitiv und läßt sich in KTR so deuten, daß E zunächst nicht kohärent in unser Meinungssystem hineinpaßte, jedenfalls wenn wir von A einmal absehen. Nehmen wir aber A an, wird E gleich besser in unser Meinungssystem eingebettet, denn A verleiht E ja eine hohe Wahrscheinlichkeit. Damit steigert E in diesem Fall die relationale Kohärenz von A, indem sich dessen inkohärent erscheinende Konsequenzen als wahr erwiesen haben. Der Zusammenhang zu abduktiven Schlüssen wird noch deutlicher, wenn wir die versteckte Bezugnahme auf unser Hintergrundwissen K herausstellen und die BayesFormel (B) für den Fall mehrerer konkurrierender Hypothesen betrachten. Zunächst berücksichtigen wir K: (BK)p(A,E&K)=P(A'K)(^'A&K) p(E,K) Damit sind alle Wahrscheinlichkeiten bedingte Wahrscheinlichkeiten geworden. Die früheren einfachen oder a priori Wahrscheinlichkeiten erweisen sich als abhängig von unserem Hintergrundwissen, wie wir das für Schlüsse auf die beste Erklärung auch kennen. Wenn wir nun noch davon ausgehen, daß wir nicht nur eine Meinung A, sondern eine Menge von konkurrierenden Hypothesen {H!,...,H n } untersuchen, die eine disjunkte und erschöpfende Zerlegung der möglichen Erklärungen darstellen, erhalten wir mit einer kleinen wahrscheinlichkeitstheoretischen Umrechnung: (BZ) p(H i ,E&K) = n

¿p(E,Hi&K)-p(HiJK) i=l

Mit (BZ) könnten wir nun auf die Hypothese Hi schließen, die E am besten erklärt und damit die höchste Wahrscheinlichkeit aller Hypothesen erhält.

Anhang: Bayesianistische Schlüsse

209

Man könnte deshalb versucht sein, (BZ) als ein quantitatives Buchhaltungsverfahren für Abduktionen einzusetzen. Doch darauf möchte ich mich so schnell nicht einlassen. Schon die Quantifizierung von Glaubensgraden ist nicht unproblematisch. Für viele unserer Überzeugungen können wir bestenfalls sehr vage Schätzungen abgeben. Fragen Sie sich doch bitte einmal ernsthaft, für wie wahrscheinlich Sie die Quantenmechanik halten. Das wirft gleich eine Vielzahl von Fragen auf. Auch sind die wahrscheinlichkeitstheoretischen Berechnungsverfahren für Glaubensgrade keineswegs immer so plausibel, wie uns die Bayesianisten weismachen wollen. Das belegt schon das Beispiel meiner kleinen Geschichte in Abschnitt (A.5) (s. a. Cohen 1989, 17ff). Noch unrealistischer wird es, wenn man von uns nicht nur einfache Wahrscheinlichkeiten, sondern auch noch bedingte verlangt. Und das für alle nur denkbaren Beobachtungen, die wir irgendwann einmal machen könnten. Dieser extrem hohe „Rechenaufwand" erbringt trotzdem nur relativ geringe Erfolge, wenn man die erkenntnistheoretische Frage im Auge hat, was wir glauben sollen. Alle Forderungen des Bayesianismus an unsere Glaubensgrade sind bloß Konsistenzforderungen. Zunächst wird verlangt, daß sich die Glaubensgrade im Sinne der Wahrscheinlichkeitsaxiome nicht widersprechen. Wir dürfen also nicht gleichzeitig p(A)=0,9 und p(l A)=0,9 akzeptieren. Im nächsten Schritt erwartet der Bayesianismus von uns, daß unsere Glaubensänderungen zu unseren vorherigen bedingten Wahrscheinlichkeiten und dem Bayesschen Gesetz passen. Das ist schon alles. Diese Glaubensgrade oder subjektiven Wahrscheinlichkeiten können ansonsten so verrückt sein, wie man nur will. Die Berechnung der Glaubensgrade hat daher mehr buchhalterische Funktion, als daß sie normativ wirkt. Schlimmer ist allerdings noch, daß der Ansatz erstens fundamentalistisch ausgerichtet ist und zweitens Änderungen unserer Überzeugungen anhand neuer Begriffe und Theorien nicht nachzeichnen kann. Typischerweise unterscheidet der Bayesianist zwischen Daten und Hypothesen. Und in der Formel (K) werden die Daten schlicht als gegeben akzeptiert. Diese Unkorrigierbarkeit der Basis können wir zwar durch den Übergang zur Jeffrey- Konditionalisierung (J)

P n e u (A) = Xp a l t (A,E i ).p n e u (E 1 ) i=l

(wobei die E; wiederum eine vollständige Zerlegung unseres Wahrscheinlichkeitsraumes darstellen sollen) beheben, aber der fundamentalistische Charakter bleibt erhalten. Wahrscheinlichkeitsänderungen nehmen ihren Ausgang bei den „Daten" und verändern unsere Glaubensgrade für Hypothesen. Die Rechtfertigungsstruktur ist gerichtet und nicht reziprok. Das könnte vielleicht wenigstens ein approximatives Modell für die Wissenschaften darstellen. Doch hier kommt ein anderes gravierendes Problem ins Spiel. Wir wissen nicht auf welche neuen Theorien mit neuen Begriffen Wissenschaftler noch verfallen werden. Wie sollen wir daher für diese Fälle bereits jetzt bedingte Wahrscheinlichkeiten angeben? D.h., wir verfügen auch nicht über vollständige Hypothesenmengen. Die größten Fortschritte und Revolutionen in der Wissenschaftsgeschichte erfolgten durch

210

IV Kohärenz

Einführung neuer Theorien, die die Einführung neuer Begriffe beinhalten. Für diesen entscheidenden Schritt weiß uns der Bayesianismus keine Hilfe mehr anzubieten. Auch das, was Theorien und ihre Erklärungskraft auszeichnet, was Theorien oft so spannend für uns macht, wie ihr hoher empirischer Gehalt und ihre Erklärungskraft, tauchen im Bayesianistischen Rahmen nicht in geeigneter Weise auf. Doch dazu mehr in Kapitel IX.

Anmerkungen zu Kapitel IV 1 Popper selbst hat allerdings nicht viel mehr für seine Basissätze anzubieten. Sie werden per Beschluß akzeptiert. Das entspricht vermutlich der wissenschaftlichen Praxis, ist aber noch nicht die ganze Geschichte. Interessant ist doch eher, die methodischen Prinzipien anzugeben, die dabei berücksichtigt werden. 2 Neurath selbst wehrte sich gegen die Bezeichnung Kohärenztheorie, um sich von den britischen Idealisten abzugrenzen, (s. Koppelberg 1987, 20, Anm. 8) 3 Natürlich könnten im Prinzip auch Implikationen über Einzelfälle der Form a->-ib Widersprüche in das System bringen, aber solche Implikationen finden sich in unseren Überzeugungssystemen normalerweise nur dann, wenn sie durch eine allgemeinere Annahme über einen entsprechenden Zusammenhang von Dingen des Typs a und des Typs b gedeckt wird. Für den Superempiristen ist jedenfalls nicht erkennbar, wie er zu solchen Implikationen gelangen sollte. 4 Stereotypen sind allerdings nicht ganz so klar umrissene Gebilde wie etwa wissenschaftliche Theorien. 5 Auch Lakatos plädierte in (1974) dafür, daß wir den Rahmen der Konsistenz manchmal mit Gewinn verlassen sollten. Ich habe in (1988) zu zeigen versucht, daß auch das von Lakatos dafür angegebene Beispiel der Bohrschen Atomtheorie kaum ein gutes Argument für diese Ansicht darstellt. 6 Harman möchte demgegenüber auch nicht bekannte Alternativerklärungen mit einbeziehen. Er verletzt damit ohne Not und weitere Erläuterungen die Forderung des Internalismus und unsere Konzeption von Rechtfertigungen, die immer auf ein Hintergrundwissen relativiert sind. 7 Daß die Liptonsche Konzeption gerade an diesen Stellen wesentliche Defizite aufweist, wird in der gründlichen Besprechung von Achinstein (1992) ersichtlich. 8 Außerdem nennt Thagard (1992, 63) zwei Arbeiten von Pennington und Hastie, die die Entscheidungsfindung von Jurymitgliedern untersucht haben, und zu dem Schluß gekommen sind, daß sich vieles davon als Suche nach Erklärungskohärenz verstehen läßt. 9 Davidsons (1987) versucht daraus sogar ein Argument gegen den Skeptiker zu machen. Schließlich, wenn wir nicht umhin können, anderen Menschen möglichst viele wahre Überzeugungen zuzuschreiben, weil das die Spielregeln der Überzeugungszuschreibung sind, so wird unklar, wie der Skeptiker ernsthaft erwägen kann, daß wir nur falsche Meinungen haben könnten. Doch Davidsons Überlegung wird überzeugend von Susan Haack (1993, 60ff) kritisiert. 10 Sie haben sicherlich bemerkt, daß ich auf dem besten Weg bin, eine Erklärungsstrategie zu kritisieren, die unter anderem von der Psychoanalyse eingeschlagen wird. 11 Die tatsächliche Entwicklung war natürlich erheblich komplexer und Millikan mußte neben anderem einige Meßwerte als „Ausrutscher" ganz verwerfen u.v.m. Siehe zur Geschichte dieses Versuchs Holton 1981, 50ff. 12 Diese Behauptung findet sich auch bei Harman (1973, 130), allerdings ohne eine besondere Begründung und mehr auf die Auseinandersetzung mit der kausalen Wissenstheorie Goldmans bezogen.

Anmerkungen

211

13 In Teil 3 wird deutlich werden, daß diese Erklärung schon aus dem Grunde besser ist, weil sie eher zur Vereinheitlichung und Systematisiserung unserer Beobachtungen beiträgt, als das für die Hoffnung auf eine günstige Fortsetzung des bisherigen Fluges der Fall ist. 14 Beispiele dafür werden im 3. Teil diskutiert. 15 Bayesianisten (wie z. B. Horwich 1982) arbeiten mit Glaubensgraden, die sich gemäß den Axiomen der Wahrscheinlichkeitstheorie verhalten sollen. Für (quantitative) Änderungen unserer Überzeugungen aufgrund neuer Daten verlassen sie sich auf das Gesetz von Bayes (daher der Name) (s. dazu den Anhang zu diesem Kapitel). 16 Die tun das auch und sprechen etwa vom Simulationsirrtum. Das schnell Beiseiteschieben solcher Phänomene ist typisch für apriorische Begründungen von Methodologien. 17 Nebenbei können die Beispiele auch erläutern, was wir in alltäglichen Situationen unter Erklärungen verstehen, und es wird sich im dritten Teil zeigen, daß wissenschaftlichen Erklärungen eine ähnliche Rolle auf einer anderen Ebene zukommt. 18 Im dritten Teil wird eine Konzeption dafür, was Theorien sind, vorgestellt, die auch präzisieren kann, wie Theorien verschiedene Anwendungen „in einen Zusammenhang bringen". 19 An dieser Stelle sollte auch deutlich sein, daß ich unter Beobachtungsüberzeugungen nicht an so etwas wie theoriefreie Überzeugungen denke. 20 Holistischen Aspekten schenkt BonJour an dieser Stelle nicht genügend Aufmerksamkeit. Sie können hier nur angedeutet werden, wobei von „Kohärenz" natürlich nur in einem intuitiven Sinn gesprochen werden kann, der erst in (IV.F) präzisiert wird. 21 Auch dieses Schema sollte um eine Bedingung des Typs (5) ergänzt werden, also etwa durch: Die Annahme, daß keine Schreibmaschine vor mir steht, paßt auch kohärent zu meinen anderen Überzeugungen. 22 Jeder Redner wird wahrscheinlich den Fall kennen, wo er beim Sprechen das Argumentationsziel aus den Augen verloren hat und sich erst erneut daran erinnern muß. 23 Dieses Verfahren gibt uns natürlich keine Antwort auf die Fragen des radikalen Skeptikers, der alle unsere Meinungen und Metameinungen zugleich in Frage stellt (s.dazu VI). 24 Wir müssen uns etwa darauf berufen, daß wir uns nicht in einem Subsystem (s. (3b) von KTR in Abschnitt (IV.F) unseres Überzeugungssystems bewegen. 25 In Lehrer (1990, 148) beginnt dieser Punkt mit einem Schreibfehler, es wird das Definiendum von D2 wiederholt, den ich im Sinn von Lehrer (1988, 341) korrigiert habe. 26 Böse Zungen könnten damit den ursprünglichen Schreibfehler bei Lehrer in (D3) erklären, denn die dort formulierte Bedingung entspricht gerade (D21). 27 Eine kürzere Vorfassung erschien 1976 und ist in 1987 ins Deutsche übersetzt worden. 28 Schon Rescher (1982, 75ff) verweist auf die Notwendigkeit auch den Fall inkonsistenter Aussagensysteme zu behandeln. 29 Siehe dazu auch den Anhang zu diesem Kapitel. 30 Es lassen sich sicher eine Reihe von interessanteren Beispielen aus verschiedenen Bereichen finden, aber die würden zugleich in kontroversere inhaltliche Diskussionen führen, die an dieser Stelle unnötig erscheinen. Für wissenschaftliche Theorien wird ihre Zerlegbarkeit in Subsysteme unter dem Stichwort der organischen Einheitlichkeit in (IX.E.8) noch einmal aufgegriffen. 31 Ein anderer Punkt mit dem Thagard sich an dieser Stelle auseinanderzusetzen hätte, der nicht in offensichtlicher Weise durch seine Bedingungen (6a) oder (6b) abgedeckt ist, ist der der äquivalenten Beschreibungen oder Erklärungen, die in bestimmten Fällen sogar ein und dieselbe Theorie nur auf verschiedenen Ebenen liefern. Für Beispiele s. Bartelborth (1993a). 32 In der wissenschaftsphilosophischen Erklärungsdebatte wird dieser Punkt wieder zur Sprache kommen. 33 Die Konzeption von Kohärenz als Vernetzung findet sich auch schon bei den idealistischen Kohärenztheoretikern, etwa bei Blanshard (1939, 264) oder bei Ewing (1934, 229f), die beide für eine kohärente

212

IV Kohärenz

Vernetzung fordern, daß sich jede Aussage des Systems aus dem Restsystem ableiten läßt. Rescher (1982, 43f) hat die traditionellen Anforderungen an eine Kohärenztheorie in sechs Bedingungen zusammengestellt. 34 In der wissenschaftsphilosophischen Erklärungsdebatte wird dieser Punkt wieder zur Sprache kommen. 35 Zum folgenden siehe auch die Besprechung von Gedankenexperimenten in Bartelborth (1991). 36 Wenn sich Mikrozustände duplizieren ließen, könnten wir das so oft wiederholen, bis makroskopische Ausmaße erreichten würden. Dann ließen sich plötzlich Größen messen, die nach der Quantenmechanik nicht meßbar seien können, weil sie keine bestimmten Werte aufweisen.

V Einwände gegen eine Kohärenztheorie

Auch gegen Kohärenztheorien der Rechtfertigung gibt es natürlich eine Reihe von Einwänden, von denen ich wenigstens die prominentesten Vertreter in diesem Kapitel besprechen möchte. Wir wissen spätestens seit den Arbeiten Kuhns zur Wissenschaftsgeschichte, daß jedes noch so erfolgreiche Forschungsprogramm an einigen Stellen mit Anomalien zu leben hat, meist in der Hoffnung, diese später durch kleinere Revisionen beheben zu können. Allerdings liegt die Front, an der sich Theorien zu bewähren haben, auch nicht allein in der Auseinandersetzung mit den Daten (das waren in unserem Fall unsere reflektierten Beispiele für epistemische Begründungen und allgemeineren Vorstellungen darüber, wie derartige Begründungen auszusehen haben), sondern wesentlich in einem Sieg über die konkurrierenden Forschungsprogramme. Die KTR hat sich vor allem gegenüber fundamentalistischen Positionen zu behaupten. Ein Vergleich zu anderen Kohärenztheorien und anderen Ansätzen hat zum großen Teil bereits in den vorangegangenen Kapiteln stattgefunden, doch im Zusammenhang einiger klassischer Einwände gegen Kohärenztheorien werden weitere Vergleiche mit den Leistungen anderer Erkenntnistheorien zu ziehen sein.

A. Das Regreßproblem Fundamentalisten fuhren als wichtigstes Argument für ihre Position das Regreßargument an. Das bezieht sich darauf, daß man von rechtfertigenden Überzeugungen erwarten kann, sie seien selbst bereits gerechtfertigt. Dem hier lauernden Regreß oder Zirkel kann man ihrer Meinung nach nur entkommen, indem man an irgendeiner Stelle das Zurückgreifen auf andere Meinungen abbricht und diese ersten Meinungen für epistemisch grundlegend erklärt. Basale Meinungen müssen dann selbst gerechtfertigt sein, ohne dazu auf andere Meinungen angewiesen zu sein. Der fundamentalistische Lösungsvorschlag hatte sich aber als nichtrealisierbare Wunschvorstellung erwiesen. Sobald die Fundamentalisten in die Pflicht genommen wurden, die basalen Überzeugungen und die Art ihrer Rechtfertigung konkret anzugeben, war es um die Plausibilität ihrer Positionen geschehen. Die wohl prominentesten und erfolgversprechendsten Vorschläge fundamentalistischer Erkenntnistheorien sind sicher die empiristischen, wonach Beobachtungsüberzeugungen grundlegend für unsere Erkenntnis sind. Daß sie aber auch nicht überzeugen können, wurde spätestens durch die kohärentistische Analy-

214

V Einwände gegen eine Kohärenztheorie

se der Begründung von Beobachtungsüberzeugungen ersichtlich, denn die zeigte, wie auch in deren Rechtfertigung wesentlich unser Hintergrundwissen eingeht. Steht nun die Kohärenztheorie vis-à-vis dem Regreßproblem besser da? Hat sie eine Antwort auf dieses Problem anzubieten, die überzeugender ist als die des Fundamentalismus? In diesem Abschnitt möchte ich untersuchen, was sie zu unserer Intuition beitragen kann, daß rechtfertigende Aussagen immer schon gerechtfertigt sein müssen. Aber vorher soll noch kurz ein anderer Weg, sich gegen den Regreßeinwand zu verteidigen, zu Zwecken der Abgrenzung Erwähnung finden.

1. Pragmatischer Kontextualismus Eine Antwort auf das Regreßproblem und überdies auch auf weitergehende skeptische Einwürfe, die schon Wittgenstein ausprobiert hat, zielt auf den konkreten Einsatz und Kontext von Begründungen. In allen realistischen Beispielen von Rechtfertigungen steht die Frage nach einer Begründung in einem vorgegebenen Kontext. Je nach Kontext werden dabei jeweils bestimmte Meinungen nicht in Frage gestellt und können als eine Art von unkontroversem Hintergrundwissen vorausgesetzt werden. Wenn mich jemand fragt, wieso ich glaube, daß Fritz nicht gut auf mich zu sprechen ist, und ich antworte ihm, daß er direkt vor mir stehend „Idiot" zu mir gesagt hat, wird man natürlich in normalen Kontexten die Frage, ob man sich denn auch sicher sei, kein Gehirn in einem Topf zu sein - was ja eine andere Interpretation der Wahrnehmung erforderte - als bloße Zumutung, aber nicht als ernstzunehmende Frage verstehen. Auch in wissenschaftlichen Kontexten sind jeweils bestimmte Annahmen als unproblematisches Hintergrundwissen zu betrachten. Den Historiker, der eine Vermutung über Hitlers Einstellung zu Frauen äußert, frage ich nicht, welche Beweise er denn hätte, daß die Welt nicht erst vor drei Minuten entstanden sei, wobei uns ein böser Dämon mit falschen Erinnerungen über unsere Vergangenheit an der Nase herumführt, und Hitler daher nie existiert hat. Die Fragen enden in der Regel nicht erst bei skeptischen Hypothesen, sondern schon erheblich früher, weil wir unsere Begründungen auf einen weit größeren Bereich von gemeinsamem Hintergrundwissen aufbauen dürfen als die bloße Ablehnung skeptischer Hypothesen. Ein unendlicher Regreß ist daher ein Phänomen, dem wir in der Rechtfertigungspraxis nicht tatsächlich begegnen. Können wir diese Erkenntnis nicht zu einem Einwand gegen den Regreß ausbauen? Eine Position, die den Regreß auf diesem Weg als unbedeutend zurückweist, können wir als pragmatischen Kontextualismus bezeichnen. Sie studiert Begründungen in ihren praktischen Zusammenhängen, in denen der jeweilige Kontext festlegt, welches die Prämissen einer Rechtfertigung sind, auf die man sich beziehen darf.1 Das Regreßproblem tritt dann nicht mehr auf, weil wir immer ein Hintergrundwissen voraussetzen, auf das wir für die Rechtfertigung zurückgreifen dürfen. Diese Zurückweisung des Regreßproblems kann zeigen, daß es sich auch lohnen würde, eine Theorie der Rechtfertigung auszuarbeiten, wenn es nicht gelänge, eine Antwort auf das Regreßproblem zu geben. Aber natürlich zeigt sie nicht, daß es damit

A. Das Regreßproblem

215

obsolet geworden ist und man für eine Theorie der Rechtfertigung dieses Problem nicht mehr sinnvoll aufwerfen kann. Als Erkenntnistheoretiker kann ich durchaus zugestehen, daß in praktischen Begründungen das Regreßproblem nicht in Erscheinung tritt, weil sich die Gesprächspartner meist auf ein unkontroverses Hintergrundwissen beziehen können, aber niemand kann mir verbieten nachzufragen, ob dieses Hintergrundwissen auch gut begründbar ist. Dafür muß mir der Hinweis, die Diskussionspartner hätten sich darauf geeinigt, keineswegs ausreichen. Die Einigung sagt noch nichts darüber, ob dieses Hintergrundwissen wahr ist. Eine Rechtfertigung, die sich auf lauter unbegründete Meinungen stützt, die genauso gut falsch wie wahr sein können, ist aber kein Wahrheitsindikator mehr. Sie dient in diesem Zusammenhang nur dem praktischen Zweck, sich in einer Diskussion schnell auf eine Ansicht zu einigen. Der pragmatische Kontextualismus soll trotzdem an dieser Stelle als mögliche Antwort erwähnt werden, weil er eine immer wieder vorgebrachte Argumentationsform gegen skeptische Einwände aller Art darstellt. Es handelt sich außerdem weder um eine fundamentalistische Position, so wie wir sie gekennzeichnet hatten, noch um eine kohärentistische. Ein Kontextualist zeichnet keine Klasse von basalen Aussagen nur durch ihren Inhalt aus, sondern wählt jeweils nur in Abhängigkeit vom Kontext eines speziellen Rechtfertigungsprojekts bestimmte Überzeugungen als für diesen Kontext unproblematisch aus und unterschreibt damit nicht (FU 3) (s. Kap. III.B.l). Er verlangt auch von diesem Hintergrundwissen nicht, daß es kohärent sein muß, sondern nur, daß es für die beteiligten Diskussionspartner selbstverständlich erscheint. Von Williams (1991) wurde der interessante Versuch unternommen, aus diesen praktischen Überlegungen ein erkenntnistheoretisches Argument zu entwickeln und somit auch den Skeptiker anhand eines theoretisch fundierten Kontextualismus zurückzuweisen. Williams behauptet, daß die Fragestellungen des radikalen Skeptikers auf einen Fundamentalismus als theoretische Voraussetzung angewiesen sind und somit auf einer falschen erkenntnistheoretischen Annahme beruhen. Dadurch tritt der Kontextualismus aus dem von Erkenntnistheoretikern oft nicht so recht ernstgenommenen rein pragmatischen Kontext heraus und gewinnt auch theoretische Bedeutung. Um diesen Schritt durchführen zu können, ist Williams jedoch auf eine subtile Analyse der skeptischen Positionen angewiesen, die er bekämpfen möchte, die sehr viele angreifbare Einzelschritte enthält und sicher nicht als unkontrovers betrachtet werden kann. Der Kohärenztheoretiker ist zum Glück nicht auf eine derartig komplizierte Diagnose des Regreßproblem-Skeptizismus angewiesen, in der dem Skeptiker falsche theoretische Voraussetzungen vorgeworfen werden, sondern bemüht sich, eine direkte Antwort auf die Frage nach den Rechtfertigungen der Prämissen unserer Rechtfertigungen zu geben. Er beruft sich nicht auf kontextuelle Aspekte von Rechtfertigungen, sondern zeigt auf, wo die gesuchten Rechtfertigungen zu suchen sind.

216

V Einwände gegen eine Kohärenztheorie

2. Lineare Rechtfertigungsstrukturen? Der Kohärenztheoretiker hat auf das Regreßproblem die schlichte Antwort parat: Denken wir uns ein annähernd ideal kohärentes oder wenigstens hochkohärentes System X von Aussagen. Dann sind alle Aussagen dieses Systems auch optimal begründet. Für jede Aussage in dem System X gibt es sogar gleich mehrere inferentielle Begründungen, wenn X wirklich hochkohärent ist. Sobald ich mich also bei der Rechtfertigung einer Aussage p aus X auf andere Aussagen von X stütze, sind diese selbst gleichfalls gerechtfertigt. An diesem Punkt wird wieder ein holistischer Zug von Rechtfertigungen offenkundig. Bei Vorliegen systematischer, globaler Kohärenz hält unser Überzeugungssystem allen weiteren Nachfragen stand, und gestattet es, zu jeder Meinung aus X eine Rechtfertigung zu produzieren. Damit ist die Kohärenzkonzeption an keiner Stelle auf die Zurückweisung „In diesem Zusammenhang darf man nicht nach rechtfertigenden Meinungen fragen." angewiesen. Ein naheliegender Einwand von fundamentalistischer Seite scheint demgegenüber zu sein: Aber ist das denn möglich, müssen denn nicht bestimmte Überzeugungen vor anderen begründet werden? Es ist wichtig, zunächst noch einmal einem Mißverständnis in bezug auf Rechtfertigungszusammenhänge vorzubeugen, das sich hinter diesem Einwand häufig verbirgt. Begründungszusammenhänge sind nicht zeitlich zu verstehen oder als ein tatsächlicher Prozeß von Rechtfertigungen, auch wenn eine ganze Reihe von Formulierungen das nahelegen.2 Rechtfertigungsbeziehungen sind zeitlose inferentielle Zusammenhänge in der Art von logischen Zusammenhängen, während dagegen jeder Vorgang der Rechtfertigung, den ich vornehme, ein zeitlich ablaufender Prozeß ist; wie auch die Durchführung einer logischen Deduktion einen zeitlichen Prozeß darstellt. Man darf das Regreßargument daher nicht als ein Argument beschreiben, daß nach dem Vorgang des Begründens von Meinungen fragt, denn damit begibt man sich aus der Debatte um Rechtfertigungszusammenhänge in die der Genese von Meinungen. Explizite Rechtfertigungsketten kann man selbstverständlich nur endlich viele Schritte weit tatsächlich durchlaufen. Das sagt aber noch nicht, daß man nicht im Prinzip und implizit über weitere Rechtfertigungen potentiell sogar ohne Ende verfugt. Eine Analogie von Lehrer (1990b, 88f) kann diesen Punkt etwas erhellen. Die Addition von drei zu einer gegebenen Zahl kann ich aufgrund biologischer Beschränkungen, die wir alle bedauern, nur endlich oft vornehmen. Das heißt aber nicht, daß es eine größte Zahl geben muß, zu der ich drei nicht addieren könnte. Die Rechtfertigungsketten des Regreßarguments sind also nicht als Ketten von tatsächlich anzugebenden Rechtfertigungen, die wir nicht tatsächlich durchlaufen können, zu deuten, sondern nur als Problem der logischen Struktur von Rechtfertigungsbeziehungen. Die Begründungsstruktur kennt diese zeitlichen Relationen nicht, sondern ist zeitlos (vgl. III.B.2). Hat man die Vorstellung zeitlicher Beziehungen zwischen Argumenten für p und p selbst erst einmal aufgegeben, wird auch verständlicher, wie die Antwort der Kohärenztheoretiker auf das Regreßproblem zu verstehen ist. Ich gehe nicht von p zu anderen Aussagen q, die ich zuerst rechtfertigen muß, um p rechtfertigen zu können, und von

A. Das Regreßproblem

217

dort zu Aussagen r, die wiederum vorher zu rechtfertigen sind usw., sondern p ist gerechtfertigt aufgrund von q und q aufgrund von r usf. Der zunächst erweckte Eindruck, hier müßte eine unendliche Kette tatsächlich durchlaufen werden, war irreführend. Da in einem kohärenten Überzeugungssystem aber alle einzelnen Überzeugungen inferentiell gerechtfertigt sind, hat der Kohärenztheoretiker die im Regreßproblem gestellte Aufgabe beantwortet. Der weitergehende Einwand, das ganze Überzeugungssytem sei dann wohl nicht begründet, mündet bereits in eine radikalere Version des Skeptizismus, auf die ich erst im Kapitel (VI) eingehen möchte. Der Kritiker der Kohärenztheorie ist daher an dieser Stelle aufgerufen, sein Regreßargument so zu formulieren, daß es befreit ist von allen Vorstellungen zeitlichen Vorhergehens, aber auch nicht die Falschheit der kohärentistischen Position zur Voraussetzung erhebt. Überdies erhält man im kohärentistischen Bild unseres Überzeugungssystems keine einfache Kette von Überzeugungen der im Regreßargument angegebenen Art, sondern ein kompliziertes Netzwerk von Meinungen. BonJour formuliert diese Einsicht der Kohärenztheorie so, daß hier eine falsche Voraussetzung des Regreßarguments aufgedeckt wird, nämlich, daß Rechtfertigungen linear verlaufen. Damit ist zunächst darauf hingewiesen, daß ich nicht für eine Aussage immer nur eine andere zur Begründung heranziehe und dann wieder eine weitere usf. Die Begründungen fächern sich auf und in diesem großen Fächer, darf auch p selbst wieder eine kleine rechtfertigende Rolle übernehmen, was schon daran liegt, daß Rechtfertigungsbeziehungen reziprok sind. Ein idealisiertes Beispiel soll den Punkt illustrieren: Eine Beobachtungsaussage p eines kohärenten Systems X sei durch die Erklärung mit Hilfe einer Theorie T in X zum Teil gerechtfertigt. Die Theorie stützt sich epistemisch unter anderem auf ihre große Erklärungsleistung, nach der sie viele Beobachtungen auf zufriedenstellende Weise erklärt. Eine unter den vielen Beobachtungen, die die Theorie mittels Abduktion stützen, ist dabei wiederum p, das damit einen kleinen Beitrag leistet, die Erklärungsbreite und Leistungsfähigkeit der Theorie T aufzuzeigen. Natürlich sollte T nicht nur durch p zu rechtfertigen sein, denn dann hätten wir es mit einer ausgesprochenen ad hoc Theorie zur Erklärung von p zu tun, die eine Form von Inkohärenz, etwa gemäß dem Punkt des isolierten Subsystems, in X darstellte (s. KTR 3.b). Weiterhin gibt es eine Einbettung von T in ein umfangreicheres Netzwerk von anderen Theorien und Annahmen höherer Stufe, die T epistemische Unterstützung leisten. Für manche Theorien gab oder gibt es praktisch nur solche theoretischen Gründe und keine Beobachtungen, auf die sie sich berufen können. Das war etwa für die allgemeine Relativitätstheorie zu Beginn ihrer Karriere der Fall und ist heute für einige sehr moderne Theorien wie Twistortheorien oder ähnlich abstrakte Theorien wohl nicht viel anders. Schon Einsteins Gründe für seine Entwicklung der speziellen Relativitätstheorie waren zunächst rein theoretischer Art und bezogen sich auf das unterschiedliche Invarianzverhalten von Elektrodynamik und klassischer Mechanik und nicht die Beobachtung relativistischer Phänomene. Diese Zusammenhänge offenbaren, daß die Vorstellung von linearen Rechtfertigungen, die sich in unendliche Ketten oder Zirkel zurückverfolgen lassen, tatsächlich irreführend ist.

218

V Einwände gegen eine Kohärenztheorie

Auch die Beobachtungsüberzeugung p selbst wird nicht nur durch T und die von T geleistete Einbettung von p in unser Hintergrundwissen gestützt, sondern ist ihrerseits in viele empirische Zusammenhänge eingebettet. Einen hatten wir schon im Beispiel des Superempiristen erwähnt, nämlich die Kontinuität in unseren beobachtbaren Bereichen. Wird die wesentlich verletzt, spricht das gegen die Brauchbarkeit unserer Wahrnehmungen als Information über die Außenwelt, während ihr Vorliegen ein Grund ist, ihr zu vertrauen. Ähnlich sieht es für unsere Erwartungen aus. Mitten in einer menschenleeren Wüste erwarten wir keinen Eisstand oder eine Tankstelle, wenn noch nicht einmal eine Straße vorhanden ist, sondern befürchten beim Auftauchen eines Eisstands vielmehr, einer Halluzination zu unterliegen. Stimmen unsere Beobachtungen mit unseren Erwartungen überein, geben die Erwartungen, die ja ihrerseits auch begründbar sind, uns ebenfalls Grund, unseren Sinnen zu vertrauen. Darüber hinaus ist p vielleicht in einer Situation, für die wir uns selbst als zuverlässige Beobachter einstufen, spontan in uns entstanden, so daß auch unsere epistemischen Überzeugungen einen Grund bieten, an p zu glauben. Diese werden ebenfalls durch p bestätigt, wenn sich p bewährt und nicht später als falsch herausstellt, denn für sie ist p eine Instanz, die sie gut erklären können. Die genannten Zusammenhänge geben einen kleinen Ausschnitt aus dem vielfältigen Geflecht von Meinungen, in das p eingeordnet wird und die p epistemisch stützen, für die aber auch p wiederum einen Wahrheitsindikator darstellt. Hier drängt es sich auf einzuwenden, diese Beschreibung könne gleichwohl so nicht stimmen, denn eins müsse doch zuerst gerechtfertigt sein, p oder die anderen Aussagen, die p stützen sollen. Aber so vorgetragen versteckt sich dahinter wiederum nur die falsche Auffassung einer zeitlichen Beziehung, die bei Fundamentalisten in eine Asymmetrie der Rechtfertigungsbeziehung umgedeutet wird. Für Fundamentalisten sind Rechtfertigungen neben ihrer Eingleisigkeit auch noch gerichtet. Es kann immer nur p eine epistemische Unterstützung für q darstellen oder umgekehrt, aber es kann nicht sein, daß beide eine epistemische Stützung für den jeweils anderen abgeben. Doch welche Gründe, neben der zugegeben intuitiv wirksamen Vorstellung von Rechtfertigung als einem zeitlichen Vorgang, sprechen für diese einseitige Gerichtetheit? Hier ist der Fundamentalist aufgerufen, solche Gründe zu nennen, wenn er sich gegen Kohärenzkonzeptionen wenden möchte, denn der Kohärenztheoretiker hat zunächst ein plausibles Bild der Rechtfertigungszusammenhänge anzubieten - das des Netzes von Überzeugungen - , die sich in komplizierten Erklärungsbeziehungen gegenseitig stützen. In einem kohärenten Netz lassen sich für alle Elemente intuitiv überzeugende Rechtfertigungen anbieten. Damit sind natürlich auch alle Aussagen des Netzes, die zur Rechtfertigung herangezogen werden, selbst wieder gerechtfertigt. Unserer Intuition, daß nur begründete Meinungen rechtfertigende Wirkung haben können, ist damit entsprochen. Es gibt selbstverständlich auch Versuche von raffinierten Fundamentalisten, das Regreßargument ohne Anklang an zeitliche Beziehungen zu formulieren. Moser (1991, 56ff) stellt etwa einen solchen Fall dar, der alle Antworttypen auf das Regreßargument daraufhin genauer untersucht. Für Rechtfertigungen anhand von kohärenten Netzen macht er z. B. geltend:

A. Das

Regreßproblem

219

At most such coherence makes the members possibly true. But if coherence by itself is not probability-providing, a coherent system is not automatically probability providing. Thus Probability Coherentism does not provide an adequate evidence basis for evidential probability. (Moser 1991, 62) Und für seine Behauptung, daß Kohärenz noch nicht von sich aus „probability providing" ist, beruft er sich wesentlich auf den „mehrere Systeme"-Einwand-. There are comprehensive coherent systems of obviously false, evidentially gratuitous propositions, such as propositions in science fiction. And for virtually any coherent system of propositions, we can imagine an alternative system mainly of the denials of the propositions in the first system. (Moser 1991, 62) Davon einmal abgesehen, daß kaum zu erwarten ist, die Negationen unserer Meinungen könnten ebenfalls ein kohärentes System bilden, sind die von Kohärenztheorien wie KTR erlaubten Überzeugungssysteme keineswegs so beliebig, daß jede kohärente Geschichte zulässig ist. Mosers Überlegungen zum Regreßproblem münden an dieser Stelle aber schon in einen anderen klassischen Einwand gegen Kohärenztheorien, so daß schließlich das Regreßproblem hier keine eigenständige Bedeutung mehr besitzt, sondern im Rahmen des mehrere-Systeme Einwands (s. V.C) zu behandeln ist. Die kohärentistische Vorstellung von der Struktur der Begründung einer Aussage p ist also nicht die einer Kette von Rechtfertigungen, die man für p namhaft machen kann, sondern eher die, daß das ganze kohärente System X p auf vielen Wegen rechtfertigt. Dabei bezieht X seine eigene Rechtfertigung daraus, daß es sich um ein kohärentes System handelt, daß trotz ständigen Auftretens neuer spontaner Meinungen, die als Beobachtungsinput zu deuten sind, stabil bleibt. Die KTR beschreibt ein dynamisches Modell der Welt, das einen ständigen Strom von Informationen auf der Grundlage des jeweiligen Systems X kognitiv verarbeitet und seine langsame Anpassung zu einem immer geschlosseneren und informativeren Bild der Welt vorantreibt. Genau dieses Verfahren gibt uns einen Grund, daran zu glauben, daß es eine zunehmend korrektere Beschreibung der Welt oder bestimmter Teil der Welt darstellt. Darüber, wie gut X allgemein mit dem Beobachtungsinput fertig wird, gibt seine systematische Kohärenz Auskunft, während die relationale Kohärenz von p in X eher die spezielle Bestätigung von p durch X bestimmt. Natürlich kann man auch an dieser Stelle weiter fragen: Aber wie ist diese Vorgehensweise als Ganzes zu rechtfertigen? Da das Netz all unsere Überzeugungen erster wie auch höherer Stufen umfaßt, ist das bereits eine radikal skeptische Frage, die all unsere Meinungen gleichzeitig in Frage stellt. Hier meldet sich nicht mehr der Erkenntnistheoretiker, der eine andere Rechtfertigungstheorie gegen KTR stark machen möchte, sondern der externe Skeptiker (wie ich ihn in Kapitel (VI) nennen werde) zu Wort, mit dem ich mich erst dort beschäftigen werde. In diesem Kapitel wird immer noch eine Art von internem Standpunkt eingenommen. Es bleibt damit gegen den Regreßeinwand die Frage offen, wie er neben den klassischen Einwänden oder radikalen skeptischen Positionen einen neuen Aspekt ins Spiel bringen kann, der zwischen fundamentalistischen

220

V Einwände gegen eine Kohärenztheorie

und kohärentistischen Begründungsstrategien diskriminieren kann, ohne den Kohärenzvertreter auf falsche Annahmen über zeitliche Beziehungen oder lineare Rechtfertigungsstrukturen festzulegen. Dazu muß man natürlich ebenfalls im Auge behalten, wie überzeugend die Auskunft der Fundamentalisten zur Frage des Begründungsregresses ist. KTR hat zum Regreßproblem deutlich mehr zu sagen als der Fundamentalist, der sich für basale Meinungen z. B. auf ihre Selbstevidenz beruft, was einem ausgesprochen kleinen Zirkel gleichkommt. Eine weitergehende und zugleich ergänzende Antwort möchte ich nun diskutieren, weil sie eine sinnvolle Ergänzung von KTR um eine Metaregel darstellt.

3. Epistemologischer Konservatismus Den Kohärenztheorien wird verschiedentlich vorgeworfen (s. Kap. IV.E.3), zu konservativ auf neue Informationen zu reagieren. Dieser Vorwurf scheint auf einem zu engen Verständnis dessen, was alles in Kohärenzüberlegungen mit einbezogen werden muß, zu beruhen. In diesem Abschnitt möchte ich nicht die Kohärenztheorie gegen den Vorwurf des Konservatismus, sondern den Konservatismus selbst verteidigen und sogar für einen entsprechenden Zusatz zu KTR plädieren. Der Konservatismus soll als eine wünschenswerte metatheoretische Ergänzung von KTR betrachtet werden, die ein realistischeres Bild von Erkenntnis zeichnet, das auch die Entstehung von Meinungssystemen in Ansätzen modellieren hilft und darüber hinaus wünschenswerte epistemische Eigenschaften aufweist. Zunächst muß für die Diskussion geklärt werden, was unter einem Konservatismus in der Erkenntnistheorie im weiteren Verlauf verstanden werden soll. Es sind dazu recht unterschiedlich starke konservative Positionen etwa von Sklar (1975) formuliert worden. Im folgenden meine ich damit immer nur das relativ schwache Prinzip (MK): (MK) (Methodologischer) Epistemologischer Konservatismus Das Haben einer bestimmten Überzeugung in einem kohärenten und stabilen Überzeugungssystem stellt für sich bereits einen wenn auch schwachen Grund dar, an dieser Überzeugung festzuhalten. In den Fällen, in denen alle anderen Gründe zwischen zwei Hypothesen gleich sind, kann es einen Grund bieten, die zuerst gehabte Überzeugung beizubehalten. Das ist meines Erachtens die einzig vertretbare Form des erkenntnistheoretischen Konservatismus, in der z. B. nicht angenommen wird, daß die konservative Verankerung von Überzeugungen gegen andere epistemische Stützungen aufgerechnet werden kann. Ergeben sich gute (kohärentistische) Gründe gegen eine Meinung, sollten wir sie aufgeben, auch wenn wir sie bisher schon lange akzeptiert haben. Die Tradition soll der Vernunft nicht im Wege stehen, sondern ihr nur dort helfen, wo unsere anderen Gründe nicht ausreichend erscheinen. Etwa wenn wir zwischen zwei Hypothesen keine epistemischen Gründe angeben können, um die eine vorzuziehen, aber die eine bisher akzep-

A. Das Regreßproblem

221

tiert haben und die andere nicht, soll das als Grund anzusehen sein, sie der neu aufgetauchten Alternative erkenntnistheoretisch vorzuziehen. Es dürfte dabei auf der Hand liegen, daß das bloße Haben einer Überzeugung nur als ausgesprochen schwacher erster Grund für diese Überzeugung anzusehen ist. Das gilt vor allem dann, wenn das Überzeugungssystem hinreichend verrückt ist. Ein Überzeugungssystem wie das eines Superempiristen (vgl. IV.A.l) gibt uns kaum Anhaltspunkte, um an die einzelnen Meinungen des Superempiristen zu glauben. Die Forderung, nach Kohärenz und damit einem im Sinne von KTR einigermaßen „vernünftigen" System von Meinungen ist daher ein wichtiger Bestandteil von (MK), den Proponenten des Konservatismus allerdings meist nicht erwähnen. Außerdem sollte deutlich sein, auch wenn ich auf diesen Punkt aus Gründen der Vereinfachung nicht immer explizit hinweise, daß Überzeugungen eine Sache des Grades sind und (MK) bietet nur Gründe für einen Glauben einer geringen Stärke. Ohne hier ein formales Modell von verschiedenen Glaubensgraden favorisieren zu wollen, möchte ich noch einmal darauf verweisen, daß unser Überzeugungssystem verschiedene Metaebenen hat, auf denen sich zumindest implizit auch Überzeugungen über die Sicherheit unserer Überzeugungen finden lassen. In der Frage, ob morgen die Sonne wieder aufgehen wird, sind wir uns - von Bewölkungen einmal abgesehen - wohl meist sehr sicher, während das z. B. nicht gilt im Hinblick auf das Alter, daß wir erreichen werden. Das Haben und Einschätzen auch schwacher Gründe ist ein Bestandteil unserer epistemischen Theorie und auch diese MetaÜberzeugungen sind selbst wieder Gegenstand von Bewertungen. Doch was spricht für Überzeugungen, die wir bereits aufweisen, im Unterschied zu denen, die man statt dessen akzeptieren könnte, für die wir über keine schlechteren Gründe verfügen? Zunächst einmal sind es implizite Tests, die diese gehabten Meinungen durchlaufen haben, die die Alternativen nicht aufweisen. Diese Meinungen haben sich - und hier kommen wesentlich dynamische Aspekte ins Spiel - in ihrem bisherigen Einsatz bewährt. Jonathan Adler (1990) spricht in diesem Zusammenhang von „tacit confirmation". Wir können vermutlich nicht genau sagen, an welchen Stellen das der Fall war, aber sie haben als Bestandteile eines kohärenten Systems nicht zu auffälligen Widersprüchlichkeiten geführt. Bei jeder Aufnahme von Informationen und internen Kohärenztests einer Theorie steht natürlich nicht nur die eine Theorie zur Diskussion, sondern auch unser Hintergrundwissen, das wir zur Beurteilung heranziehen. Das ist schon eine Folge der Reziprozität von Rechtfertigungen. Dabei können in schwacher Form auch Teile betroffen sein, die wir nicht explizit testen, die sich aber stillschweigend bewährt haben, wenn die Kohärenz unseres Überzeugungssystems erhalten bleibt. Der Duhem-Quinesche Holismus besagt, daß wir in extremen Situationen sogar die Regeln unserer Logik aufgeben könnten, um mit bestimmten Beobachtungen fertig zu werden. Solange wir diese Notwendigkeit nicht verspüren, scheinen unsere Wahrnehmungen auch diese Regeln weiter zu bestätigen. Die Logik bewährt sich als wichtiges Metaprinzip für die Kohärenz unseres Meinungssystems, ohne direkten Tests unterworfen zu sein. Unsere bisherigen Überzeugungen haben also gegenüber neuen Vorschlägen

222

V Einwände gegen eine Kohärenztheorie

den epistemischen Vorteil, sich bereits stillschweigend bewährt zu haben, wenn sie Teil eines stabil kohärenten Überzeugungssystems sind. Es scheint auch kaum durchführbar, ihnen keinen Vertrauensvorschuß einzuräumen. Würden wir ständig offen dafür sein, zu ihren Alternativen zu wechseln und willkürlich wieder zurück, hätten wir an dieser Stelle eigentlich keine Meinungen mehr. Ohne (MK) wären diese Wechsel erkenntnistheoretisch aber rational. Wir wären indifferent gegenüber einer ganzen Familie von Aussagen. Da sich an jeder Stelle Alternativen finden lassen, beträfe das letztlich all unsere Meinungen. Im Nu stünden wir ohne Meinungen da und hätten dadurch nicht mehr die Möglichkeit, eingehende Informationen anhand unseres Hintergrundwissens zu bewerten. Realistischerweise kommt daher keine internalistische Erkenntnistheorie ohne einen entsprechenden Vertrauensvorschuß aus. Er ist geradezu eine Art Grundbedingung für das erkenntnistheoretische Räsonieren eines epistemischen Subjekts. Um uns fragen zu können, welche unserer Meinungen durch andere gestützt werden, müssen wir erst einmal (stabile) Meinungen aufweisen. Das ist auch nicht weiter problematisch, solange wir mit (MK) nur verbinden, daß es uns einen Start unserer Überlegungen gestattet und nicht gegen kohärentistische Gründe ausgespielt wird. Wir sind durchaus bereit, jede „konservative" Meinung aufzugeben, sobald sich Gründe gegen sie finden. Das unterscheidet (MK) in der zuletzt gegebenen transzendental anmutenden Verteidigung gegenüber den synthetischen Urteilen a priori des deutschen Idealismus. Dort glaubte man mit transzendentalen Argumenten eine starke Waffe in der Hand zu haben, um ganz bestimmte Meinungen zu begründen. (MK) tritt dagegen viel bescheidener auf. Es ist eher ein methodologisches Prinzip, ohne das wir nicht auskommen, das aber bloß einen schwachen Anfangsgrund etabliert. Dabei ist es auch nicht auf bestimmte Meinungen bezogen - es soll etwa kein Kausalprinzip rechtfertigen - , sondern bloß einen allgemeinen Startpunkt für weitere Überlegungen bereitstellen. Wie wichtig (MK) für unsere Fähigkeit ist, überhaupt Meinungen zu besitzen, können wir schließlich am Beispiel von jemand erläutern, der sich nach einer Art Anti-(MK) verhält und immer zu einer alternativen Meinung (etwa im Stile von Goodmans „grue"Beispiel) übergeht. Epistemisch würden diese Überzeugungsänderungen von Anti-(MK) geboten. Verlaufen sie hinreichend rasch, erscheint es unmöglich, ihm eine Meinung zuzuschreiben. Antworte ich etwa im Stundenrhythmus (oder sogar noch viel kürzeren Abständen) unterschiedlich auf die Frage, ob ich die Person X mag, ohne daß sich meine Kenntnisse dieser Person jeweils geändert hätten, kann man eigentlich kaum noch davon sprechen, ich hätte eine Meinung in dieser Frage.3 Zum Haben einer Meinung gehören neben der Disposition, mich in einer bestimmten Weise zu äußern, auch andere Verhaltensdispositionen, die sich erst im Laufe der Zeit zeigen und längerfristigen Charakter haben, der mit vollkommen revolutionären Meinungssystemen unvereinbar erscheint. Damit derartige Probleme nicht auftreten, sind wir auf eine gewisse Stabilität in unserem Überzeugungssystem zwingend angewiesen, die über reine Kohärenzüberlegungen hinausgeht. Diese Stabilität wird auch notwendig in der Diskussion mit dem Skeptiker in der Antwort auf seine Frage, warum wir an die Wahrheit unserer Meinungen glauben

A. Das Regreßproblem

223

sollten. Nur ein relativ stabiles Weltmodell kann für ihn eine echte Herausforderung darstellen (s. VI.B.4), denn nur dort, wo unsere Meinungen eine innere Konvergenz aufweisen, haben wir einen Grund anzunehmen, daß sie gegen die Wahrheit konvergieren. Innere Konvergenz ist dabei ähnlich wie der Begriff der Cauchy-Folgen in der Mathematik zu verstehen. Es bedeutet, daß die Änderungen unserer Meinungen zumindest in bestimmten Bereichen immer kleiner werden, geradezu gegen Null konvergieren. Wenn die aufgrund neuer Daten notwendigen Änderungen einer Theorie mit der Zeit immer kleiner werden, obwohl weiterhin neue Beobachtungen vorgenommen werden und die Theorie dabei möglichst harten Tests unterworfen wird, ist das ein erklärungsbedürftiges Faktum, für das die Annahme, es handele sich um approximativ wahre Theorien, am natürlichsten erscheint. Für diesen „Limes" unserer Meinungen haben wir dann Grund anzunehmen, daß es sich um wahre Theorien handelt. Nicht indem wir wie Putnam diesen Limes einfach als die Wahrheit definieren, sondern das Limesverhalten unserer Überzeugungen bietet einen Indikator, daß es sich dabei um die Wahrheit handeln könnte. Würde unsere Beschreibung der Welt an wesentlichen Stellen falsch sein, dürften wir erwarten (zumindest wenn die ganz radikalen skeptischen Hypothesen nicht zutreffen, die uns das Bild eines vollständigen systematischen Irrtums zeichnen), daß das falsche Bild an bestimmten Stellen zu Erklärungsanomalien führt, die uns Hinweise auf eine Unstimmigkeit geben würden. Das ist ein Verhalten, wie wir es für die Theorien, die wir bisher als falsch erkennen konnten, erlebt haben. Ohne innere Konvergenz erscheinen unsere Weltbilder dagegen wie wechselnde Moden ohne Ziel. Eine gewisse innere Stabilität ist also zumindest eine notwendige Bedingung für die Hoffnung auf Wahrheitsannäherung, aber auch ein wichtiges Indiz dafür, denn der Realist kann mit seiner realistischen Hypothese, daß die Welt in etwa so beschaffen ist, wie sie in unserem Überzeugungssystem beschrieben wird, eine gute Erklärung für die Bewährung des Überzeugungssystems trotz ständig neu eingehender Informationen anbieten. Damit ist natürlich noch nicht die Frage beantwortet, ob unsere Überzeugungen denn wenigstens für gewisse Bereiche tatsächlich ein entsprechendes Konvergenzverhalten aufweisen. Um das zu ermitteln, sind letztlich detaillierte Fallstudien notwendig, und ich möchte meine Ansichten dazu nur erwähnen. Ein Bereich, den man hier nennen könnte, ist der der Alltagsüberzeugungen, für den wir eine ziemliche Konstanz in ihren wesentlichen Anwendungen, etwa Alltagsgegenstände mittlerer Größe feststellen können. Natürlich sind viele Gegenstände und Erkenntnisse neu hinzugekommen, aber einfache Ansichten, wie daß bestimmte Gegenstände, die eben noch schwer waren, es auch jetzt sind, daß sie ihre Form und Farbe unter gewissen Bedingungen beibehalten, wie sie sich anfühlen werden usw., haben sich kaum verändert. Meines Erachtens ist auch für bestimmte Branchen der Wissenschaften ein Konvergenzverhalten zu bemerken. Dazu könnte man zählen: weite Bereiche der Chemie und Physik, aber auch die grundlegenden Annahmen der Evolutionstheorie oder gewisser technischer Bereiche und einiges mehr. An diesem Punkt der epistemischen Bewertung unseres eigenen Wissens sind Fragen wie die Kuhnschen nach der Inkommensurabilität aufeinanderfolgender wissen-

224

V Einwände gegen eine Kohärenztheorie

schaftlichen Theorien angesiedelt, die die Entwicklung unseres wissenschaftlichen Wissens als von Revolutionen durchbrochen bewerten. Ob Kuhn mit seiner Inkommensurabilitätsvermutung Recht hat, läßt sich nur durch historische Fallstudien endgültig entscheiden, was zu untersuchen eine Aufgabe anderer Arbeiten ist. Außerdem stellt (MK) die epistemisch rationalere Strategie im Vergleich zu ihren Alternativen im Umgang mit der theoretischen Unterbestimmtheit dar. Betrachten wir dazu den Fall von zwei anscheinend gleich gut bestätigten Hypothesen H! und H2, von denen wir bisher an H, glauben. Wie können wir verfahren? Wir könnten F^ einfach aufgeben, ohne an H 2 zu glauben, aber das wäre nicht sehr plausibel, denn wir würden ohne Gegenevidenzen und ohne Ersatz eine Meinung aufgeben, für die wir gute Gründe haben (s. dazu VI.B.5). Wir könnten auch die neue Hypothese H2 wählen, da wir nach Voraussetzung für sie ebenfalls über gute Gründe verfugen. Was würde es aber gerade in wissenschaftlichen Kontexten bedeuten, immer oder meistens die neue Hypothese zu wählen? Zunächst einmal scheint es im Rahmen einer Kohärenztheorie mit globalen Kohärenzforderungen kaum plausibel anzunehmen, daß sich rein lokale Alternativhypothesen finden lassen, die nur nach der Änderung einzelner Meinungen verlangen. Gerade die Fälle, die wir kennen, wie z. B. die Goodmanschen Hypothesen, erfordern bei genauer Betrachtung globalere Umbauten, damit das neue Überzeugungssystem dieselbe Kohärenz aufweist wie das alte. Da wir dabei nur eine Hypothese erhalten, die epistemisch nicht besser ist, als unsere bisherige, steht dem Aufwand, den wir beim Umbau unseres Überzeugungssystems übernehmen, keine epistemischer Gewinn gegenüber. Außerdem geraten wir mit diesem Vorgehen in die bereits geschilderten Probleme eines anti-konservativen Induktionsverfahrens. Als rationale Strategie für die Dynamik unseres Meinungssystems ist daher (MK) eindeutig vorzuziehen. Daß wir irgendeiner Art von Input gegenüber ein gewisses Vertrauen mitbringen müssen, hatte schon BonJour als eine analytische Bedingung für empirische Erkenntnis angegeben; aber wenn BonJour in seiner „Observation requirement" (s. IV.D.2 (OR)) davon spricht, daß wir unter den spontanen Meinungen einige als Beobachtungsüberzeugungen auszeichnen und sie bis zu einem gewissen Grad als zuverlässig akzeptieren sollten, setzt diese Konzeption bereits ein Hintergrundwissen voraus, das anhand eines Modells unserer Stellung in der Welt bestimmte Meinungen als Beobachtungen auszusondern gestattet. Einige Meinungen über Zahlen, die etwa im Verlaufe einer Berechnung auftauchen, werden nicht als Beobachtungen interpretiert, obwohl sie vielleicht genauso spontan auftreten wie Beobachtungen. Andererseits erwarten wir auch bestimmte Beobachtungen, so daß Beobachtungen uns nicht unbedingt spontan erscheinen müssen. Die Einordnung der Inhalte von Überzeugungen als beobachtbar oder nicht, setzt daher gleichfalls einen Hintergrund voraus, der sie als von außen kommend beschreibt. Damit wir die BonJoursche Bedingung (OR) überhaupt sinngemäß anwenden können, müssen wir schon anderen Teilen unseres Hintergrundwissens prima facie vertrauen; etwa Annahmen über den kausalen Ursprung bestimmter Meinungen. Damit die entsprechende Wirkung erzielt wird, benötigen wir daher eine Bedingung der Form (MK). Die impliziert unter anderem (OR) in einer schwachen Form und schafft für (OR)

A. Das Regreßproblem

225

erst sinnvolle Start- und Anwendungsbedingungen. Wenn wir nämlich gemäß (MK) all unseren Meinungen ein gewisses Vertrauen entgegenbringen, trifft das speziell für die Beobachtungsüberzeugungen zu, die sich spontan einstellen. Dabei kann die Art, wie (MK) mit dem Regreßproblem umzugehen gestattet, zeigen, wie gut (MK) an unsere Vorstellung von lokalen Rechtfertigungen angepaßt ist, die BonJour in seiner Bedingung (OR) noch außer Acht läßt. Daneben wird mit (MK) ganz im Sinne der Kohärenztheorie das Dogma der epistemischen Priorität von Beobachtungen auch auf der Metaebene aufgegeben. Wir gewähren nicht nur unseren Wahrnehmungsüberzeugungen einen kleinen Vertrauensvorschuß, sondern allen unseren Überzeugungen. (MK) wird somit zu einer Voraussetzung für empirische Erkenntnis, aber auch allgemeiner für begründete Meinungen. Man könnte geradezu sagen, daß (MK) eine transzendentale Voraussetzung für das Rechtfertigungsgeschäft darstellt, denn jede konkrete Begründung unserer Meinungen, die wir vornehmen, muß mit bestimmten Vorgaben irgendwelcher Art über die rechtfertigenden Meinungen starten; etwa Annahmen über die Bedeutung bestimmter Wörter, Metaannahmen darüber, welche und woher wir diese Überzeugungen haben oder wieso sie gerechtfertigt sind; Überzeugungen verschiedener Herkunft, auf die wir uns in unseren Begründungen stützen können. Selbst Descartes war in seiner „prima philosophia" für sein „Cogito" darauf angewiesen. Er mußte wissen, was „ich", „existieren" und „denken" bedeuten. In seiner Antwort auf die 6. Einwände beruft er sich darauf, daß diese Begriffe angeboren sind (Descartes 365f). Aber wie können wir wissen, wie sie korrekt zu gebrauchen sind, wenn wir nicht bestimmte Annahmen mit ihnen verknüpfen? Diese sind nicht rein apriorischer Art, da es keine so strikte Trennung zwischen analytischen und synthetischen Annahmen gibt. Der Hintergrund aller Vorgehensweisen und ihrer Rechtfertigung muß immer in einer Berufung auf bestimmte Teile unseres bisherigen Hintergrundwissens bestehen. Ziehen wir diesen Wissenshintergrund immer schon in Zweifel, läßt sich unser Vorgehen und der Entstehungsprozeß für unsere Meinungssystem nicht mehr verstehen. Jede Begründung von Meinungen beinhaltet daher eine Form von epistemologischen Konservatismus. Die von BonJour vorgeschlagene Beschränkung des Konservatismus auf Beobachtungsüberzeugungen bedarf selbst einer Begründung, die er uns schuldig bleibt. Das meines Erachtens einzig plausible und nicht willkürliche Verfahren dafür, wird durch (MK) angemessen ausgedrückt. Dieses Vorgehen entspricht noch weitergehend dem Neurathschen Bild von Schiffern, die ihr Schiff auf hoher See umbauen müssen, als das für BonJours Konzeption der Fall ist. Der Umbau kann nur anhand einer konservativen Strategie immer auf dem aufbauen, was wir schon vorfinden, und wird nie freischwebend im leeren Raum durchgeführt. Meine internalistische Position, nach der jede Rechtfertigung selbst wieder Meinungen zu zitieren hat, harmoniert vorzüglich mit der konservativen Forderung, unseren bisherigen Meinungen zunächst zu vertrauen. Insgesamt beschreibt (MK) den rationalen Teil der stark konservativen Tendenzen unserer tatsächliche Rechtfertigungspraxis und findet sich in weit stärkerer Form ebenfalls in heute vielfach akzeptierten wissenschaftlichen Methodologien wieder. Die KTR setzt allerdings dem Prinzip (MK) enge Grenzen für seine Anwendbarkeit, so daß

226

V Einwände gegen eine Kohärenztheorie

Wissenschaftler, die mit den Scheuklappen eines Paradigmas auf neue Daten und Theorien reagieren, sich nicht auf (MK) berufen können. Die Bedingungen von KTR sind zunächst überwiegend synchronisch formuliert, aber nicht nur synchronisch zu verstehen. Mit (2d) findet sich bereits ein wichtiger Hinweis auf eine diachronische Bedingung, die im Effekt besagt, daß ein kohärentes System um so bessere Rechtfertigungen liefert, um so längere Zeit es stabil kohärent geblieben ist. Es hat sich bei ständig neu eingehenden Informationen bewährt. Das waren erste Hinweise auf die Bedeutung eines Konservatismus für KTR. Da die konservative Vorgehensweise tatsächlich einen unverzichtbaren Bestandteil für jedes Rechtfertigungsverfahren darstellt, ergänze ich die Kohärenztheorie der Rechtfertigung nun noch explizit um das metatheoretische Prinzip (MK) des epistemologischen Konservatismus, das neben den synchronischen Bedingungen für Rechtfertigungen wieder stärker den dynamischen Aspekt von Überzeugungssystemen betont. (MK) wird jedenfalls durch erfolgreiche Anwendungen in der Wissenschaftsphilosophie gestützt. Ein methodologischer Naturalist sollte diese Leistungen von (MK) ernst nehmen. Er wird zumindest die Frage aufwerfen: Welche andere Erkenntnistheorie hätte hier bessere Erklärungen anzubieten? Doch schauen wir noch etwas genauer zu, an welchen Stellen zeitgenössische Wissenschaftsphilosophen konservativen Strategien das Wort reden.

a) Anwendungen des epistemischen Konservatismus In der erkenntnistheoretischen Debatte sind eine ganze Reihe konservativer methodologischer Prinzipien vorgeschlagen worden, die oft sogar deutlich über (MK) hinausgehen und trotzdem als plausibel akzeptiert wurden. Ihr gemeinsamer methodologischer Hintergrund als konservativer methodologischer Regeln war den betreffenden Autoren dabei allerdings nicht immer bewußt. Zunächst ist (MK) nicht so stark, wie bestimmte konservative methodologische Forderungen, die bei Lakatos oder Kuhn zu finden sind. Kuhns Struktur wissenschaftlicher Revolutionen hält das Festhalten an Paradigmata trotz Anomalien, solange keine neuen Paradigmata gefunden sind, für durchaus rational. Und Lakatos (1974, 137ff) plädiert in seiner Methodologie wissenschaftlicher Forschungsprogramme schon in Reaktion auf Kuhn und Feyerabend, dafür, daß wir selbst bei auftretenden Inkonsistenzen an einer Theorie festhalten sollten, solange sie sich in Erklärungen bewährt, also - in unserer Redeweise - im übrigen kohärenzstiftend verhält.4 Da eine innere Inkonsistenz eines Forschungsprogramms an zentraler Stelle eine schwere Schädigung der Kohärenz darstellt, kann sie sicher nicht allein durch ihre Erklärungserfolge ausgeglichen werden. Auch Lakatos scheint hier der konservativen Verankerung von Theorien großes Gewicht beizulegen und sie sogar gegen andere epistemische Gründe aufzurechnen. Daß er damit allerdings schon zu weit geht und seine Position nicht wirklich plausibel ist, habe ich an anderer Stelle (Bartelborth 1989) belegt. Ebenfalls konservative Lösungsvorschläge für epistemische Probleme hält Nelson Goodman (1988) für sein „grue"-Paradox bereit. Goodman kann dort bekanntlich

A. Das Regreßproblem

227

demonstrieren, daß wir zu unseren gewöhnlichen Verallgemeinerungen aus der Erfahrung immer alternative Verallgemeinerungen konstruieren können, die durch unsere Erfahrungen genauso gut gedeckt sind, die aber mit „seltsamen Prädikaten" wie „grue" formuliert wurden. Dabei werden diese Prädikate letztlich als seltsam zurückgewiesen, weil sie nicht so gut in unserem bisherigen Überzeugungssystem verankert sind wie unsere gewöhnlichen Prädikate, was bedeutet, daß sie bisher in unseren Überzeugungen nicht auftraten. Das Vorkommen in unseren bisherigen Überzeugungen wird also auch bei Goodman zu einem epistemischen Wert anhand dessen wir zwischen konkurrierenden Hypothesen entscheiden können. Goodman stellt dabei noch nicht einmal Anforderungen an die Vernünftigkeit der bisherigen Überzeugungen, wie sie in (MK) verlangt werden. Intuitiv sinnvoll scheint die Anwendung von (MK) auch für Fragen der theoretischen Unterbestimmtheit von Hypothesen durch die Beobachtungsdaten zu sein (s. a. Sklar 1975, 379ff). Selbst wenn man nicht an prinzipiell unterbestimmte Hypothesen durch die Erfahrung glaubt, scheint doch der Fall, daß zwei Hypothesen H, und H2 durch die bisher tatsächlich erhobenen Daten als gleich gut bestätigt zu gelten haben, ein Fall der wissenschaftlichen Praxis zu sein, für den sich genügend Beispiele in der Wissenschaftsgeschichte finden lassen. Das Prinzip (MK) spricht dann für die Hypothese, die wir de facto schon akzeptiert haben und stellt diese nicht schon deshalb in Frage, weil wir nun weitere Hypothesen mit der gleichen Erklärungsleistung gefunden haben. Damit ist natürlich noch nicht der Fall von gleichzeitig auftretenden Alternativen entschieden. Für den kann (MK) nur dann etwas besagen, wenn die eine zu bereits vorliegenden Überzeugungen besser paßt als die andere, die nach einer Revision schon vorliegender Meinungen verlangt. Nur in diesen Fällen gibt (MK) der Hypothese den epistemischen Vorzug, die zu größerer Stabilität für unser Meinungssystem fuhrt. Damit gestattet es (MK), Skeptiker, etwa instrumentalistischen Typs wie van Fraassen, zurückzuweisen, die die Existenz von empirisch gleich guten Theorien bereits zum Anlaß nehmen, unsere realistische Deutung von wissenschaftlichen Theorien als epistemisch unbegründet zurückzuweisen.5 Weiterhin kann (MK) auch eine Aufgabe gegen übermäßig erscheinende Ansprüche nach Begründungen übernehmen, wie sie im infiniten Regreßvorwurf zu Tage treten. Wann immer wir eine bestimmte Meinung p begründen, müssen wir andere Meinungen zitieren, die selbst wieder begründet sein sollten. Für eine vollständige Rechtfertigung verlangte der Vertreter des Regreßarguments von uns, die gesamte Kette von Begründungen, die hinter p steht, parat zu haben. Das ist zweifellos psychologisch unrealistisch und führt Rechtfertigungen ins Reich der Fabel, weshalb wir implizite Begründungen akzeptierten. Nun stellt die konservative Strategie eine weitere Antwortmöglichkeit bereit. Ein erster rechtfertigender Grund für die rechtfertigenden Meinungen findet sich schon darin, daß wir in einem kohärenten System an sie glauben. Wir berufen uns auf Meinungen aus unserem kohärenten Überzeugungssystem und sehen diese als prima facie begründet an. Damit zitieren wir nicht einfach willkürlich irgendwelche Meinungen in unserer Rechtfertigung, sondern nur Meinungen, die längst einen epistemischen

228

V Einwände gegen eine Kohärenztheorie

Ausleseprozeß durchlaufen haben und damit ein gewisses epistemisches Gewicht mitbringen. Darauf können wir mit (MK) bauen, ohne lange Rechtfertigungsketten tatsächlich durchlaufen zu müssen. Das kann auch unsere gewöhnliche Praxis des Begründens besser erklären, für Rechtfertigungen keine derartigen Ketten oder große Teile unseres Netzes auszubreiten, aber dennoch davon auszugehen, daß die zu Zwecken der Rechtfertigung genannten Meinungen keineswegs willkürlich und unbegründet gewählt wurden. Den Regreß stoppen wir also, indem wir uns schlicht auf andere unserer Meinungen stützen, die nach (MK) bereits eine erste Rechtfertigung mitbringen. b) Ist die konservative Strategie irrational? Die Beispiele der Anwendung von (MK) zeigen schon, daß der epistemologische Konservatismus ein durchaus intuitives Prinzip der Entwicklung unseres Meinungssystems und unserer Begründungspraxis verkörpert. Bereits gegen Ende von Piatons Menon (98a) verweist Sokrates auf einen Zusammenhang zwischen Begründung und Stabilität unserer Erkenntnis, wenn er sagt, daß es geradezu ein charakteristisches Merkmal begründeter Erkenntnis sei, stabiler zu sein, als bloße wahre Meinung. Trotzdem wird (MK) empiristischen Erkenntnistheoretikern, mit ihrer besonderen Präferenz zugunsten der Beobachtungen, als „schauderhaft" erscheinen. Sklar (1975, 383ff) nennt einen Einwand von Goldstick (1971, 186ff), der in typischer Weise ihr Unbehagen zum Ausdruck bringt. Goldstick, der sich allerdings gegen eine stärkere Version des Konservatismus als (MK) wendet, führt folgende Analogie an: Wenn in zwei Gesellschaften andere soziale Regelungen auf gleich gute Weise ihre Dienste tun, ist es rational für diese Gesellschaften, diese Regeln zu verteidigen und nur zu einem anderen System zu wechseln, wenn dieses eindeutig bessere Erfüllung der sozialen Ziele verspricht. Solange das nicht erkennbar ist, kann jede der beiden Gesellschaften schon zur Aufrechterhaltung der inneren Stabilität mit Recht für sich in Anspruch nehmen, das beste System für ihre Gesellschaft zu besitzen. Das klingt fast schon wie eine Verteidigung von (MK). Doch Entsprechendes kann man nach Goldstick nicht für die Rationalität von Meinungen sagen, denn hier geht es um ihre Wahrheit, und es können nicht inkompatible Meinungen gleichzeitig wahr sein. Der Konservatismus kann nach Goldstick jedoch gerade dazu führen, daß zwei Personen A und B bei gleichen empirischen Evidenzen andere Aussagen für wahr halten, weil sie eine andere Geschichte durchlaufen haben. Das paßt seiner Meinung nach nicht zusammen und zeigt eine Inkohärenz im epistemischen Konservatismus. Natürlich liegt Goldstick richtig, daß nicht beide Personen Recht in dem Sinn haben können, daß ihre Meinungen wahr sind, aber das bedeutet noch nicht, daß sie nicht beide über gerechtfertigte Meinungen verfügen können. Rechtfertigungen sind keine unfehlbaren Wahrheitsindikatoren, und wir waren uns schon einig, daß man noch keineswegs epistemisch irrational sein muß, wenn man falsche Meinungen akzeptiert. Daß inkompatible Meinungen bei verschiedenem epistemischem Hintergrundwissen gleichzeitig begründet sein können, erscheint daher unproblematisch. Neu kommt in Goldsticks Beispiel nur hinzu, daß der momentane epistemische Hintergrund in beiden

A. Das Regreßproblem

229

Fällen genau der Gleiche sein soll. Doch für Rechtfertigungen auf der Grundlage eines bestimmten Hintergrundwissens können wir auch keine Forderung erkennen, daß dieses Hintergundwissen nicht auch unterschiedliche Meinungen begründen helfen dürfte, denn Wahrheitsindikatoren müssen nicht unbedingt eindeutige Indikatoren sein. Wie das für KTR faktisch passieren könnte, hätte allerdings Goldstick zu belegen. Jedenfalls verliert sich Goldsticks Behauptung der Inkohärenz, wenn wir nicht auf die Wahrheit der beiden Meinungen schauen, sondern auf ihre Wahrheitsindikatoren, auf die sich die Unverträglichkeit nicht in derselben Weise überträgt. Und natürlich müssen wir außerdem im Auge behalten, daß es sich um zwei Personen handelt, denn für eine Person ist es zugegebenermaßen inkohärent, zwei miteinander unverträgliche Meinungen zu akzeptieren. Obendrein macht sich Goldstick einer „petitio" schuldig, wenn er schon voraussetzt, daß die epistemischen Belege für beide Meinungen jeweils gleich sind. Das gerade bestreitet der Proponent einer konservativen Strategie, die eine diachronische Rechtfertigungstheorie darstellt, in der die Vorgeschichte des jetzigen Überzeugungssystems zu berücksichtigen ist. Die empirischen Belege mögen zu einem bestimmten Zeitpunkt dieselben gewesen sein, aber die Rechtfertigungssgeschichten müssen verschieden sein. Wenn man annimmt, das könne keinen epistemischen Unterschied bedeuten, lehnt man damit den Konservatismus bereits ab. Der epistemisch Konservative hat eine dynamische Vorstellung von einer rationalen Entwicklung unseres Überzeugungssystems und fragt, wie es zu der beschriebenen epistemischen Situation kam. Damit (MK) zu dem von Goldstick beschriebenen Fall führen kann, müssen die epistemischen Zustände von A und B früher unterschiedlich gewesen sein, weil historische Symmetrie jedenfalls keine Entscheidung nach (MK) zuläßt. A hat z. B. irgendwann p akzeptiert und B das dazu inkompatible q auf der Grundlage unterschiedlichen Hintergrundwissens. Das hat sich erst später in irgendeiner Form angeglichen. Beim Akzeptieren von p und q waren für A und B die Alternativen noch nicht einmal für den Empiristen epistemisch gleichwertig. Muß man ihnen dann jetzt Irrationalität vorwerfen, wenn sie beim Auftauchen neuer Alternativen, die intern genauso gut bestätigt erscheinen, ihre ursprünglichen Meinungen nicht verwerfen? Auf mich macht eher letzteres Verhalten einen unvernünftigen Eindruck, und es paßt jedenfalls nicht zu unserer Praxis von Meinungsänderungen. Der von Goldstick geschilderte Fall von zwei Personen mit exakt gleicher epistemischer Stützung für verschiedene Aussagen scheint mir in dieser Beschreibung auf dem Hintergrund von KTR auch eher unwahrscheinlich zu sein. Wenn A und B zunächst ein wesentlich anderes Hintergrundwissen aufweisen, so bewerten sie alle eingehenden Informationen vor diesem unterschiedlichen Hintergrund. Selbst wenn sie also letztlich dieselben Beobachtungen machen, werden sie diese jeweils anders in ihre Meinungssysteme einordnen, ihnen einen anderen Platz im Rahmen ihrer Theorien zuweisen, so daß spätere Beobachtungsüberzeugungen für sie nicht wirklich epistemisch gleichwertig sind. Das wären sie nur auf einer tabula rasa, auf der einfach „reine" Daten gesammelt werden. Doch bereits die Vorstellung von Bedeutungen als kleinen Minitheorien zeigte, daß dieses von Empiristen favorisierte Bild der Erkenntnis nicht haltbar ist. Besonders

230

V Einwände gegen eine Kohärenztheorie

deutlich wird das auch für tiefgreifende Umwälzungen unseres Überzeugungssystems, die meist mit Änderungen in der begrifflichen Struktur verbunden sind, was wir aus der Geschichte wissenschaftlicher Revolutionen lernen können. Daher sind die epistemischen Zustände, die sich danach anhand von bestimmten Beobachtungen ergeben, schwerlich als vollkommen äquivalent anzusehen. Statt von im übrigen gleichen epistemischen Zuständen sollte man also lieber von gleichen Wahrnehmungen sprechen, die nur für einen Empiristen einen Schluß auf eine gleich gute Bestätigung derselben Theorie erlauben. Es ist in dieser Geschichte nicht der Konservatismus allein, der zu anderen Überzeugungen geführt hat, sondern ein unterschiedlicher epistemischer Hintergrund bei der Bewertung von Beobachtungen, der in jeder internalistischen Theorie der Wahrnehmung bedeutsam sein sollte. Das führt auch keineswegs dazu, daß unsere Rechtfertigungen in unplausibler Weise wesentlich auf historische Zufälligkeiten zu relativieren sind. Welche Beobachtungen wir machen und zu welcher Zeit wir sie machen, ist natürlich für die Frage, was wir jeweils begründen können, von Belang. Was sich jedoch in einem bestimmten Meinungssystem zu einem bestimmten Zeitpunkt rechtfertigen läßt und was nicht, ist jeweils eine Frage von Kohärenzüberlegungen. Der jeweilige Zustand unseres Meinungssystems ist also wegabhängig. Er kann davon abhängen, in welcher Reihenfolge wir unsere Beobachtungen machen. Das scheint mir nur für jemanden inakzeptabel zu sein, der Rechtfertigungen für eine rein statische Angelegenheit ohne dynamische Aspekte hält. Doch eine rein synchrone Metatheorie würde das Verhalten realer epistemischer Subjekte nicht angemessen beschreiben können. Harman (1986, 35ff) verweist in diesem Zusammenhang noch auf die Arbeit von Ross und Anderson (1982), die Hinweise darauf gibt, wie ausgesprochen konservativ wir uns in unserem Überzeugungswandel tatsächlich verhalten. Das zeigte sich unter anderem in psychologischen Experimenten, bei denen den Versuchspersonen vorgetäuscht wurde, sie hätten besondere Fähigkeiten im Lösen von Logikaufgaben oder im Unterscheiden von fiktiven und tatsächlichen Geschichten etc. Als man sie nachträglich über das Experiment aufgeklärt hat, so daß die guten Gründe für ihre Annahme, sie verfügten über derartige Fähigkeiten, entfielen, führte das in vielen Fällen nicht dazu, daß diese Annahme ebenfalls aufgegeben wurde. Sogar wichtige Entscheidungen wurden weiterhin auf der Grundlage einer Selbstzuschreibung dieser Fähigkeit getroffen. Dieses Verhalten ist durch (MK) natürlich bei weitem nicht mehr gedeckt, denn in den geschilderten Situationen liegen Gründe vor, daß die Annahme tatsächlich falsch ist. Aufgrund von KTR zusammen mit (MK) wäre dieses Verhalten also bereits als irrational einzustufen. Kohärenzüberlegungen sprechen in dem Beispiel nämlich eher dafür, daß die eigenen Fähigkeiten in den genannten Bereichen nicht über durchschnittliche Leistungen hinausgehen. (MK) ist damit nur der schwache rationale Kern eines derartigen Verhaltens und sollte somit aus Sicht des methodologischen Naturalismus als angemessener Ausgangspunkt weiterer erkenntnistheoretischer Überlegungen dienen.

B. Der Isolationseinwand

231

B. Der Isolationseinwand Ein alter Vorwurf gegen Kohärenztheorien, der sich früher allerdings gegen Kohärenztheorien der Wahrheit richtete und nicht immer sehr explizit formuliert wurde, ist der sogenannte Isolationseinwand. Man findet ihn unter anderem bei Schlick (1934, 85f), der den Zusammenhang von Meinungen zur Wirklichkeit anmahnt. Bei diesem Typ von Einwand handelt es sich eigentlich um ein Bündel von Einwänden mit einer gemeinsamen Stoßrichtung, die sich ungefähr in folgender Weise formulieren läßt: Wenn unser Überzeugungssystem allein anhand von internen Kohärenzüberlegungen bestimmt wird, wie kann es da zu einer Erkenntnis einer von unseren Überzeugungen unabhängigen Außenwelt kommen? Wo bleibt in diesem Bild unserer Erkenntnis der Kontakt zur Welt, der empirische Input von Informationen, der doch für empirische Erkenntnisse unerläßlich ist und den der Empirist deshalb auch ganz in den Vordergrund stellt? Kann die Kohärenz unseres Überzeugungssystems dabei nicht die einer rein fiktiven Geschichte sein? Eine Spezifizierung dieses Einwandes hatte ich schon untersucht (IV.E.3). Sie besagt, daß ein Meinungssystem einfach dadurch seine einmal gewonnene Kohärenz aufrechterhalten kann, daß es nicht hineinpassende Erfahrungen als falsch zurückweist. Dieser Einwand übersah die zahlreichen epistemischen Überzeugungen, die gerade innerhalb unseres Überzeugungssystems bestimmten Beobachtungen den Status wichtiger Informationen über die Welt zusprechen. Tatsächlich ist unser Meinungssystem im Normalfall nicht von der Welt isoliert, sondern kausal eng mit ihm verknüpft. Dieser Zusammenhang, der in unseren Ansichten über unsere kausalen Stellung in der Welt repräsentiert ist, läßt uns auch andere Varianten des Isolationseinwands als wirkungslos zurückweisen. Die Behandlung von Wahrnehmungsüberzeugungen (IV.B) sollte deutlich machen: Wenn keine der radikalen skeptischen Hypothesen wahr ist, verfügen wir über einen ständigen Input von Informationen anhand spontan auftretender Beobachtungsüberzeugungen, die vermittels der Sinne einen kausalen Kontakt zu unserer Umgebung herstellen. Diese sind nicht schlicht abzuweisen, was durch das Metaprinzip des epistemologischen Konservatismus noch einmal unterstrichen wurde, denn jede auftretende Überzeugung ist zunächst ernst zu nehmen. Den Beobachtungen wird in normalen Überzeugungssystemen außerdem ein besonderer Status als zuverlässiger Input eingeräumt, so daß ein solches System nicht durch einfache Ablehnung auf sie reagieren kann, wenn es KTR genügen will.6 Selbstverständlich können wir Beobachtungen unter besonderen Umständen auch zurückweisen, wenn wir etwa Gründe haben anzunehmen, daß sie auf kausal unzuverlässigem Wege entstanden sind. Aber zunächst bieten sie genau den gesuchten Kontakt zur Welt, und der Isolationseinwand zielt aus tatsächlichen Gründen ins Leere. Er ist auf die empirisch falsche Annahme angewiesen, daß wir nicht kausal mit der Welt verbunden sind. Soll er mit der zusätzlichen Behauptung verknüpft werden, es gäbe keinen solchen kausalen Kontakt, richtet sich der Isolationseinwand natürlich nicht mehr speziell gegen eine Kohärenzkonzeption von Rechtfertigung, sondern gegen alle Erkenntnistheorien. Dann ginge er aber auch in eine radikal

232

V Einwände gegen eine Kohärenztheorie

skeptische Position über, deren Diskussion ich auf das nächste Kapitel verschieben möchte.

C. Der mehrere-Systeme Einwand Ein anderer klassischer Einwand gegen die Kohärenztheorie, der allerdings nicht immer streng vom ersten getrennt wird, fuhrt die Möglichkeit mehrerer gleich kohärenter Systeme ins Feld. Eine gut erdachte Geschichte kann genauso kohärent sein wie unser ausformuliertes Weltbild. Wieso sollte dann dieses eher wahr sein, als irgendeine der anderen kohärenten Geschichten? Schlick geht so weit zu behaupten, daß damit Kohärenz als Wahrheitskriterium logisch unmöglich wird: Damit zeigt sich die logische Unmöglichkeit der Kohärenzlehre; sie gibt überhaupt kein eindeutiges Kriterium der Wahrheit, denn ich kann mit ihr zu beliebig vielen in sich widerspruchsfreien Satzsystemen gelangen, die aber unter sich unverträglich sind. (Schlick 1934, 87)7 Doch dieser Einwand trifft nur Kohärenztheorien der Wahrheitsdefinition und nicht Kohärenztheorien der Rechtfertigung oder Wahrheitsindikation. Für Definitionen der Wahrheit sollten wir allerdings verlangen, daß sie nicht zueinander inkompatible Aussagen gleichzeitig als wahr zulassen, aber von Indikatoren für Wahrheit können wir - wie schon mehrfach ausgeführt wurde - nicht verlangen, daß sie uns eine eindeutige Kennzeichnung der Wahrheit liefern. Gegenüber reinen Phantasiegeschichten ist unser Überzeugungssystem schon durch den im letzten Kapitel beschriebenen kausalen Kontakt zur Welt ausgezeichnet. Welchen Stellenwert besitzt darüber hinaus der Einwand, daß mehrere Überzeugungssysteme in gleicher Weise durch KTR zugelassen sein können? Das entspricht dem bekannten erkenntnistheoretischen Phänomen der Unterbestimmtheit, nach dem unsere Informationen manchmal nicht ausreichen, um alle alternativen Hypothesen über die Welt bis auf eine auszuschließen. Die Unterbestimmtheit ist ein Phänomen, mit dem alle Erkenntnistheorien zu kämpfen haben, das sich also nicht speziell gegen die Kohärenztheorie richtet. Im Gegenteil bietet gerade die Kohärenztheorie eine Reihe von Anhaltspunkten bei der Auswahl von (theoretischen) Hypothesen, die einem eingefleischten Empiristen nicht zur Verfügung stehen. Für den Kohärenztheoretiker ist die Gesamtkohärenz oder der Systemcharakter von Überzeugungssystemen ein zulässiger Hinweis auf ihre Wahrheit, während für den Empiristen ausschließlich die Berufung auf Beobachtungen zählen darf. Van Fraassen (1980, 87f) ist deshalb nur konsequent, wenn er Merkmale von empirischen Theorien wie Einfachheit, Vereinheitlichung und auch Erklärungskraft als rein pragmatische Tugenden von Theorien einstuft, die zwar für unseren Einsatz dieser Theorien sehr hilfreich sein können, die aber keinen Hinweis auf ihre Wahrheit abgeben: „They provide reasons to prefer the theory independently of the question of truth." Welchen Wert diese Tugenden von Theorien für uns haben, erklärt van Fraassen dann auch anhand pragmatischer Überle-

D. Resümee

233

gungen. Für einen Empiristen muß es unbegründbare Metaphysik sein, wenn wir eine einfachere Theorie einer komplizierteren mit derselben Bestätigung durch Beobachtungen als begründeter vorziehen, denn warum sollten unter den einfachen Theorien eher wahre zu finden sein als unter den komplizierteren? Dieses Phänomen finden wir auch für die Erklärungstheorie, für die van Fraassen (z. B. 1980, Kap.5) eine rein pragmatische Explikation vorschlägt, die wir später (VIII.C.l) noch kennenlernen werden. Nicht einmal die höhere Erklärungskraft einer Theorie kann der lupenreine Empirist also als Wahrheitsindikator zulassen. Daß diese Erkenntnistheorie an verschiedenen Stellen unplausibel erscheinen muß, ist wohl nicht mehr völlig überraschend. Vor allem läßt sie auch größere Spielräume der Unterbestimmtheit zu als KTR, was van Fraassen - wiederum konsequent - zu einer instrumentalistischen Auffassung wissenschaftlicher Theorien geführt hat. Damit ist sie viel stärker als die hier vertretene Rechtfertigungstheorie von Schwierigkeiten der Unterbestimmtheit betroffen, zumal neben KTR der epistemologische Konservatismus weitere Anhaltspunkte für eine Verringerung der Unterbestimmtheit liefert.

D. Resümee Zentraler Streitpunkt zwischen fundamentalistischen und kohärentistischen Ansätzen in der Rechtfertigungstheorie ist das klassische Regreßproblem der Begründung. In (III.B) hatte ich nachgewiesen, daß der Fundamentalist keine gute Antwort auf den von ihm bemühten Regreßeinwand anzubieten weiß. Der Kohärenztheoretiker kann dagegen darauf verweisen, daß in einem hochkohärenten Überzeugungssystem jede Meinung gerechtfertigt ist, wodurch der Regreßvorwurf, wenn er nicht im Sinne radikaler skeptischer Hypothesen gemeint ist, zurückzuweisen ist. Unterstützt wird diese Zurückweisung durch die Aufnahme eines schwachen epistemologischen Konservatismus in Form des metatheoretischen Prinzips (MK), daß zu einer realistischeren Sicht der Entstehung und Dynamik von Überzeugungssystemen führt und außerdem notwendig erscheint, um die für Erkenntnis und Wahrheitsannäherung erforderliche Stabilität zu gewährleisten. KTR ohne eine diachronische Bedingung (2c) allein ist nämlich auch mit revolutionären epistemischen Strategien wie Anti-(MK) verträglich, die uns kein Bild einer schrittweisen Annäherung an die Wahrheit mit immer kleiner werdenden Änderungen gestatten.

Anmerkungen zu Kapitel V 1

Sogar die Standards für Rechtfertigungen können dabei vom Kontext mit festgelegt werden. Wissenschaftliche Dispute verlangen natürlich andere als Stammtischreden oder Politikeransprachen. 2 Diese Formulierungen finden sich meist dort, wo man Genese und Rechtfertigungen nicht sauber trennt (etwa Musgrave 1993, 61). Beim Erwerb von Überzeugungen oder ihrer expliziten Rechtfertigung

234

V Einwände gegen eine

Kohärenztheorie

müssen wir natürlich irgendwo anfangen. Diese genetische Beschreibung wird häufig zu schnell als eine Beschreibung der epistemischen Struktur ins Spiel gebracht. 3 Wir erhalten übrigens schon deshalb keinen stabilen Zustand, weil durch einen Wechsel von Meinung A zu Meinung B nun wiederum A zu der neuen Meinung würde. Wir müßten also sofort wieder zu A zurückwechseln usf. 4 Feyerabend (1986, 240) stimmt dem emphatisch zu. Er unterscheidet dabei nicht (1986, 39ff), an welcher Stelle die Inkonsistenzen auftreten. Natürlich dürfen neue Theorien oder Daten alten Hypothesen widersprechen, aber der problematische Fall, den Lakatos diskutiert, ist der von Inkonsistenzen innerhalb der Grundlagen einer Theorie selbst, die ich in (1988) als genuine Inkonsistenzen bezeichne. 5 Gegen van Fraassen kann man auch direkt anhand von KTR argumentieren, was ich an anderer Stelle ausfuhren werde. Aber (MK) betont noch einmal explizit meine Zurückweisung derartiger Methodologien. 6 Was in hinreichend verückten Meinungssystemen passieren kann, für die das epistemische Subjekt etwa fest an Überzeugungen wie die der Skeptiker glaubt oder ein rein magisches Weltbild hat, vermag ich nicht zu sagen. Wenn man keine Wahrnehmungen als Input deutet und ihnen auch nicht im geringsten vertraut, kann man auch nicht mehr erwarten, sich auf internem Wege der Wahrheit zu nähern. Allerdings dürfte ein solches System auch nicht durch strikte Anwendung von KTR entstanden sein. 7 Für weitere Vertreter dieses Arguments s. a. Rescher (1982, 48ff).

VI Metarechtfertigung

Die bisherigen Kapitel der Arbeit waren allesamt auf eine Ausgestaltung einer Theorie der Rechtfertigung hin ausgerichtet. Dabei wurden die Einwände des Skeptikers zunächst beiseite geschoben, zumal eine meiner Thesen zur Entwicklung der Erkenntnistheorie besagte, daß die Fixierung auf die Debatte mit dem Skeptiker die Entfaltung von erkenntnistheoretischen Ansätzen nicht nur gefordert, sondern auch behindert hat. So haben Erkenntnistheoretiker zwar oft über die Bedeutung von Kohärenz für Rechtfertigungen gesprochen, aber dann vor allem darüber nachgedacht, wie man in dieser Konzeption auf die Einwände eines Skeptikers reagieren könnte. Die Klärung, was unter Kohärenz genau zu verstehen ist, kam dabei meist zu kurz. Das war ein Grund für mich, die Diskussion mit dem Skeptiker in dieser Arbeit eben nicht in den Vordergrund zu stellen. Trotzdem möchte ich sie natürlich keineswegs aufgeben. Wie man dem Skeptiker gegenübertreten kann, soll in diesem letzten Kapitel des zweiten Teils mein Thema sein. Den Skeptiker können wir als eine Art imaginären Gegenspieler verstehen, der unsere Erkenntnistheorien in Frage stellt. Eine Antwort auf den Skeptiker ist zugleich eine Rechtfertigung der eigenen Position. Weil es sich dabei um eine Rechtfertigung einer Rechtfertigungstheorie handelt, ist diese auf einer Metaebene angesiedelt und trägt daher den Namen ,Metarechtfertigung". Der Skeptizismus ist allerdings keine einheitliche Position und tritt in vielen Gewändern mit jeweils unterschiedlichen Spielregeln auf. Das ist einer der Gründe, warum er so schwer zu besiegen ist. Die skeptischen Positionen lassen sich etwa danach einteilen, auf welche Überzeugungen wir uns in einer Antwort stützen dürfen und welche Schlußverfahren uns der jeweilige Skeptikers zugesteht. Der Cartesianische Skeptiker ist besonders radikal und stellt letztlich sogar die mathematischen Wahrheiten und die Logik in Frage, aber z. B. nicht unsere Überzeugungen darüber, welche Überzeugungen wir haben. Der Humesche Skeptiker nimmt dagegen die Mathematik und deduktiven Schlüsse von seinem Zweifel aus und gestattet sogar eine Berufung auf Wahrnehmungserlebnisse. Für ihn sind es „nur" die sich darauf stützenden Überzeugungen über Gegenstände der Außenwelt, die problematisch erscheinen (s. Watkins 1984, 3ff). Es ist daher auch kein Zufall, daß sich die empiristisch gesinnten Erkenntnistheoretiker1 immer wieder mit dieser speziellen Form des Skeptizismus beschäftigen, geht sie doch besonders gnädig mit den Sinnesdaten oder sinnlichen Erfahrungen um, die der Empirist in der einen oder anderen Form dem Aufbau der Erkenntnis zugrunde legen möchte.

236

VI Metarechtfertigung

Aber eigentlich sind die Spielregeln für eine Auseinandersetzung mit dem Skeptiker nicht geklärt und außer gewissen empiristischen Vorlieben spricht nichts dafür, nicht auch die Erfahrungen und insbesondere unsere Erinnerungen an vergangene Erfahrungen (die Hume zuzulassen scheint) in Ungnade fallen zu lassen. Daß sie irrtumsgefahrdet sind, hatte ich bereits belegt (III.B.5.a). Da ich die empiristische Vorliebe für Sinneserfahrungen aus erkenntnistheoretischer Sicht nicht teilen kann, gibt es für mich auch keinen Grund, den Humeschen Skeptizismus besonders hervorzuheben. Neben den radikalen und moderateren Formen des umfassenden Skeptizismus gibt es auch noch bereichsspezifische Formen, die ihre skeptische Haltung etwa auf unser theoretisches Wissen über unbeobachtbare Objekte oder Aussagen über die Vergangenheit oder die Zukunft, moralische Annahmen, mathematische Behauptungen, die Existenz von „other minds" und andere Dinge beziehen. Da ich an dieser Stelle jedoch weder den Raum für eine ausführliche Diskussion aller noch eine Diskussion vieler skeptischer Positionen habe, möchte ich mich nur zwei Formen von Skeptizismus gegenüber Rechtfertigungen zuwenden, denen man auf ganz unterschiedliche Art gegenübertreten muß. Die zwei Formen des Skeptizismus, aus einem Kontinuum von möglichen Positionen mit graduellen Übergängen, nenne ich die interne und die externe Skepsis, oder man könnte auch von einer radikalen und einer moderaten Skepsis sprechen. Der interne Skeptiker stimmt mit mir wenigstens in einigen Teilen meines Hintergrundwissens überein, insbesondere in allgemeinen Ansichten über meine kausale Stellung in der Welt und in Teilen meiner epistemischen MetaÜberzeugungen. Er richtet z. B. die Frage an mich, wieso ich gerade Kohärenz und nicht eine phänomenalistische Reduktion für epistemische Rechtfertigungen für wesentlich halte; oder warum ich unter Kohärenz genau das verstehe, was in KTR niedergelegt ist, und nicht etwas anderes, wie z. B. Kohärenz im Sinne des Lehrerschen Vorschlags. In meiner Antwort auf den internen Skeptiker kann ich mich daher auf relativ viele Intuitionen zur Rechtfertigung und paradigmatische Beispiele von Begründungen berufen, die er genauso akzeptiert wie ich. Er muß natürlich nicht gleich alle meine erkenntnistheoretischen Ansichten teilen, sonst käme wohl auch keine fruchtbare Diskussion mit ihm zustande, aber doch zumindest einige von denen, die relativ allgemein akzeptiert werden. Der interne Skeptiker ist also eher ein recht kritischer Diskussionspartner, als ein umfassender Skeptiker im klassischen Sinn. Er ist deshalb in den meisten Fällen auch der fruchtbarere Diskussionsgegner, denn seine Einwände führen jeweils zu kritischen Untersuchungen der Kohärenz meiner MetaÜberzeugungen. Anders sieht es schon für die Diskussion mit dem externen oder radikalen Skeptiker aus, der meine Theorie von einem externen Standpunkt angreift und daneben eine Berufung auch auf solche Annahmen nicht mehr zuläßt, die uns normalerweise als selbstverständlich erscheinen. Die Auseinandersetzung mit externen skeptischen Einwänden muß notgedrungen vollkommen anders geführt werden als die gegen Einwände von einem internen Standpunkt aus. Sie ist erheblich schwieriger und wohl letztlich auch erfolgloser, was durch die vielen gescheiterten Versuche der Philosophiegeschichte, dem radikalen Skeptiker Paroli zu bieten, doku-

A. Interne Skepsis

237

mentiert wird. Viele Erwiderungen auf „den Skeptiker" treffen bestenfalls den internen und beziehen daraus ihre intuitive Kraft, sind gegen den externen aber als eine petitio principii zu betrachten. Wir kennen die Unterscheidung in die zwei Ausgangspunkte übrigens ebenso in anderen Bereichen unseres Wissens. Einen Evolutionstheoretiker können wir aus interner Sicht fragen, wieso er trotz der großen Ähnlichkeiten annimmt, daß der Beutelwolf (oder tasmanische Wolf) und die westeuropäischen Hunde schon seit ca. 100 Millionen Jahren getrennte Wege in der Evolution gehen. Ein externer Kritiker der Evolutionstheorie würde dagegen vielleicht fragen, wieso man nicht annimmt, Gott hätte die Tiere so geschaffen, wie sie heute sind. Was als intern und was als extern zu gelten hat, ist dabei relativ zu dem jeweiligen Fachgebiet zu bestimmen und außerdem natürlich gradueller Abstufungen und Vermischungen fähig. Der radikale Skeptiker nimmt die externsten Standpunkte ein, die überhaupt denkbar sind, und ist damit für alle Wissensbereiche ein externer Kritiker. Er würde den Evolutionstheoretiker vielleicht fragen, wieso er überhaupt an die Existenz einer Außenwelt glaubt oder daran, daß die Welt älter als drei Minuten ist. Auch der interne Skeptiker, den ich bekämpfen möchte, kann ein externer Skeptiker in bezug auf jedes beliebige Wissensgebiet sein, er darf nur nicht alle grundlegenden Annahmen über unsere kausale Stellung in der Welt auf einmal bezweifeln. Ein Indiz für eine externe Frage ist, daß ihre Beantwortung dem Fachwissenschaftler im allgemeinen keine akademischen Lorbeeren in seinem Fach einbringt. Einen Evolutionstheoretiker, der sich in seiner Forschung mit dem Problem der Existenz einer Außenwelt beschäftigt, würden wir nicht schon deshalb für einen besonders gründlichen Evolutionstheoretiker halten, sondern eher für einen Biologen, der in die Philosophie übergelaufen ist. Die Fachwissenschaftler haben das Glück, über den externen Skeptiker milde lächeln zu dürfen, von einem Philosophen wird dagegen erwartet, daß er auch auf die Einwände der radikalen Skeptiker eingeht und möglichst eine Antwort weiß. Beginnen möchte ich jedoch mit einer Erwiderung auf die interne Skepsis.

A. Interne Skepsis Die Entwicklung einer Kohärenztheorie der Rechtfertigung erfolgte bereits immer in Diskussion mit verschiedenen internen Skeptikern, die mal die eine mal eine andere meiner Überlegungen in Frage stellten. Daher bleibt an dieser Stelle eigentlich nichts Neues zu sagen. Ich möchte trotzdem die wichtigsten Stationen der Argumentation für KTR nun noch einmal Revue passieren lassen, um ihren Argumentationszusammenhang noch deutlicher zu machen. Ausgangspunkt der Untersuchung war eine intuitive Bestimmung des Ziels der Arbeit, das in einer Theorie der epistemischen Rechtfertigung von empirischen Uberzeugungen besteht. Ein erster Schritt legte eine Explikation von epistemischer Rechtfertigung und einer Abgrenzung von anderen Rechtfertigungen wie z. B. moralischen vor.

238

VI

Metarechtfertigung

Epistemische Rechtfertigungen wurden als Wahrheitsindikatoren für unsere Meinungen charakterisiert, die uns Hinweise darauf geben, daß eine Meinung wahr ist. Dieses Unternehmen ist sowohl deskriptiv wie auch normativ zu verstehen, was erklärt, wieso es sich dabei nicht um eine Aufgabe für eine Naturwissenschaft handeln kann, die sich eher auf deskriptive Behauptungen versteht und für die Begründung von Bewertungen nicht zuständig ist. Diese Aufgabenteilung wurde betont, um gegen eine weitgehende Naturalisierung der Erkenntnistheorie zu argumentieren. Gegen radikale Naturalisten wie Quine, die die Erkenntnistheorie ganz den Naturwissenschaften überlassen möchten, habe ich noch einmal die Unterscheidung zwischen Genese und Rechtfertigung von Meinungen hervorgehoben, und eine eigene Vorgehensweise unter dem Namen methodologischer Naturalismus skizziert. Sie strebt ein Überlegungsgleichgewichts zwischen vorgefundenen epistemischen Überzeugungen über Rechtfertigung und kritischer Theorienbildung (auf einer Metaebene) an. Nach dieser Einordnung des Vorhabens, wurde es im Hinblick auf seine relevanten Voraussetzungen ausgeführt. Der metaphysische Hintergrund, vor dem die Untersuchung stattfinden soll, ist eine Korrespondenztheorie der Wahrheit mit einer realistischen Vorstellung von der Welt. Das ist wohl für die meisten klassischen Erkenntnistheoretiker der Rahmen gewesen, in dem die Auseinandersetzung mit dem Skeptiker stattfand. Erst wenn wir diesen Rahmen akzeptieren, stellen wir uns der Herausforderung des Skeptikers in vollem Umfang, denn er betont immer wieder die Kluft zwischen dem Vorliegen subjektiver Indizien für bestimmte Tatsachen und ihrem objektiven, von unseren Ansichten unabhängigem Vorliegen. Um zu zeigen, daß dieser metaphysische Hintergrund nicht bereits in sich inkonsistent ist und damit das ganze Unternehmen von vornherein zum Scheitern verurteilt, wurde er gegen einige relativistische Einwände und Vorwürfe der Unverständlichkeit verteidigt. Der Abschnitt (II.C) wandte sich dann erstmals direkt den epistemischen Rechtfertigungen zu und versuchte einige grundsätzliche Bestimmungsstücke ihrer Struktur darzulegen. Der erste ist, daß das Gerechtfertigtsein einer Meinung oder Aussage keine intrinsische Eigenschaft einzelner Aussagen ist, sondern immer eine zweistellige Relation zwischen einer Meinung und dem entsprechenden Hintergrundwissen eines epistemischen Subjekts, um dessen epistemischen Zustand es geht. Von welchen unserer Meinungen wir sagen können, sie seien begründet, hängt also entscheidend davon ab, was wir sonst noch wissen. Jede Begründung einer Meinung muß sich wieder auf andere Meinungen stützen. Hier finden wir schon den Grund für unsere Schwierigkeiten, dem radikalen Skeptiker zu antworten, denn er stellt alle unsere Überzeugungen zugleich in Frage und läßt uns damit keinen epistemischen Hintergrund, auf den wir unsere Überlegungen stützen können. Trotz dieser Problematik ist die Zweistelligkeit der Rechtfertigungsbeziehung ein essentieller Faktor gewöhnlicher Rechtfertigungen, der im Verlauf der Arbeit immer wieder gegen unterschiedliche Angriffe verteidigt wird. Von den zu rechtfertigenden Entitäten wurde verlangt, daß sie die Struktur von Aussagen, also wahrheitswertfähigen Gebilden, aufweisen, denn nur für sie können wir sinnvoll nach epistemischen Rechtfertigungen fragen - man denke daran, daß ich

A. Interne Skepsis

239

epistemische Rechtfertigungen als Wahrheitsindikatoren definiert hatte. Aber es wurden dabei durchaus Meinungen zugelassen, die wir nur implizit vertreten und die uns nicht immer bewußt sein müssen. Ähnlich liberal möchte ich mit den Begründungen selbst verfahren. Nicht nur derjenige soll als gerechtfertigt in seinen Meinungen gelten, der die im Prinzip zur Verfügung stehenden Begründungen schon explizit durchlaufen hat, sondern auch der, der dazu in der Lage ist, sie innerhalb kurzer Zeit selbst zu entwickeln. Eine weitere Liberalisierung in Form der epistemischen Arbeitsteilung besteht darin, für Begründungen auch Wissen zuzulassen, das uns nur indirekt über entsprechende Experten oder andere Mitglieder unserer Gesellschaft zugänglich ist. Diese Liberalität kann manche intuitiven Probleme, die sich daraus ergeben, daß bestimmte übliche Anforderungen an Rechtfertigungen sonst kaum noch von realistischen epistemischen Subjekten erfüllt werden, vermeiden oder zumindest abmildern helfen. Erst nach diesen notwendigen Vorarbeiten und Begriffsklärungen begann der Hauptteil der Argumentation für eine bestimmte Theorie der Rechtfertigung. Dazu wurden zuerst unterschiedliche Begründungsstrategien auf ihre erkenntnistheoretische Überzeugungskraft hin untersucht. Eine heutzutage vielfach anzutreffende Herausforderung der Konzeption von Rechtfertigung als einer zweistelligen Relation zwischen Aussagenmengen findet sich in den externalistischen Erkenntnistheorien. Sie versuchen den Begriff der Rechtfertigung aus dem Bereich der kognitiv zugänglichen Meinungen herauszunehmen und auf externe Zusammenhänge - etwa kausale zwischen einer Meinung und einer sie verursachende Tatsache - zu reduzieren. Rechtfertigung würde damit eine Relation zwischen einer Meinung und externen Faktoren wie dem kausalen Prozeß der Entstehung der Meinung oder der Zuverlässigkeit dieses Prozesses. Wenn diese externen Faktoren eine zuverlässige Meinungsbildung garantieren, soll das ausreichen, um die Meinung als begründet anzusehen, auch wenn das epistemische Subjekt selbst nichts von der Existenz dieser externen Faktoren weiß. Der erste Teil von Kapitel (III) war der Argumentation gewidmet, daß dieser Weg, so wünschenswert er auch sein mag, um etwa den skeptischen Fragen auszuweichen, keine Antwort auf das ursprüngliche epistemische Problem oder den Skeptiker darstellt, sondern einen Themenwechsel. Der Erkenntnistheoretiker fragte genaugenommen nicht, welche Gründe es überhaupt gibt, anzunehmen, eine bestimmte Meinung sei wahr, sondern, welche Gründe es für das epistemische Subjekt S gibt, anzunehmen, die Meinung sei wahr. Die genannten externen Faktoren können aber nur als Gründe für S betrachtet werden, wenn S sie auch kennt. Nur in dieser Interpretation versucht der Erkenntnistheoretiker auch auf die klassische Frage zu antworten: Was soll ich glauben? Und gerade diese Frage liegt uns in bezug auf die Praxis von Rechtfertigungen als erstes auf der Zunge. Wenn ich eine Begründung einer Meinung als ein Hilfsmittel einsetzen möchte, um zu erkennen, ob die Meinung wahr ist, sind mir natürlich nur die Rechtfertigungen dabei tatsächlich behilflich, über die ich auch kognitiv verfüge. Entsprechendes gilt, wenn ich eine Rechtfertigung als Grundlage für eine Argumentation hernehmen möchte. Ohne Kenntnis der Rechtfertigung bin ich dann noch keinen Schritt weitergekommen.

240

VI Metarechtfertigung

Der nächste Argumentationsschritt widmete sich der Frage, wie denn die allgemeine Struktur von Rechtfertigungen auszusehen hat. Sind wir gezwungen, für bestimmte Aussagen auf eine weitere inferentielle Rechtfertigung, also das Zitieren anderer Aussagen zur Begründung, ganz zu verzichten? Das ist zumindest die Ansicht der Fundamentalisten, für die es basale Meinungen gibt, die einer inferentiellen Rechtfertigung nicht bedürfen. Diese basalen Überzeugungen sind selbstrechtfertigend oder sie werden durch eine nicht-inferentielle Bezugnahme auf nicht-begriffliche Wahrnehmungszustände gerechtfertigt. In Kapitel (III.B) wurde gezeigt, daß Aussagen im allgemeinen nicht selbstrechtfertigend sind, sondern einer anderen Begründung bedürfen. Nur wenn sie in einem gewissen Sinn inhaltsleer sind, also z. B. analytisch wahre Aussagen, kann man nicht mehr von einem Irrtumsrisiko sprechen, womit die Frage nach einer (empirischen) Begründung überflüssig erscheint. Beinhaltet die Aussage hingegen eine empirische Behauptung, gibt es die realistische Möglichkeit, daß die Aussage falsch sein kann, und wir sind selbstverständlich dann auch berechtigt, nach Gründen für sie zu fragen. BonJour hat dazu den Einwand des Kriteriums entwickelt, der zeigt, warum es eigentlich keine basalen empirischen Meinungen geben kann. Um diese theoretische Überlegung zur Struktur von Begründungen zu untermauern, wurden zusätzlich konkrete empiristische Positionen aus der Philosophiegeschichte und auch neueren Datums untersucht, für die sich noch weitere Schwächen aufzeigen ließen. Nachdem somit einige grundsätzlich andere Zugangsweisen zu epistemischen Rechtfertigungen als untauglich zurückgewiesen wurden, ging es im folgenden darum, den einzig verbliebenen Weg auszugestalten: Rechtfertigungen sind immer inferentieller Natur und haben sich jeweils auf andere Aussagen zu stützen. Allerdings ist zu diesem Zeitpunkt noch offen, wie diese inferentiellen Beziehungen beschaffen sein sollen. Natürlich sind zunächst die deduktiven Schlüsse geeignete Kandidaten, um Begründungen zu liefern. Ihre Reichweite ist aber bekanntlich sehr beschränkt und auch in Fällen, in denen wir umgangssprachlich häufig so reden, als ob es sich um logische Schlüsse handelt, stoßen wir bei genauerem Hinsehen auf eine Inferenz eines anderen Typs, nämlich auf Schlüsse auf die beste Erklärung. Anhand einer ganzen Reihe von Beispielen aus den unterschiedlichsten Bereichen unseres Wissens konnte ich demonstrieren, wie weit verbreitet die Abduktion ist und daß auch andere bekannte Schlußformen wie die konservative Induktion sich am besten als Unterarten der Abduktion verstehen lassen. Da der Schluß auf die beste Erklärung intuitiv eine große rechtfertigende Wirkung besitzt und Erklärungen auch in der anderen Richtung begründend wirken, übernehmen Erklärungsbeziehungen eine zentrale Rolle in meiner Rechtfertigungstheorie als Kohärenzstifter. Einige unangenehme Eigenschaften, die Erklärungen für gewöhnlich unterstellt werden, wie daß sie auf unsere jeweiligen Interessen zu relativieren seien und damit subjektiv in einem vitiösen Sinn des Wortes wären oder daß sie selbst wiederum nur anhand des Begriffs der Rechtfertigung zu definieren seien, konnten zurückgewiesen werden. Wie die logischen Beziehungen sind damit die Erklärungsbeziehungen objektive Beziehungen zwischen unseren Meinungen und fügen diese zu einem komplizierten Netz von Überzeugungen, einem System, zusammen.

A. Interne Skepsis

241

Sowohl für Rechtfertigungen wie auch für Erklärungsbeziehungen wissen wir, daß sie nicht nur lokal zu beurteilen sind, sondern daneben globale Bezüge aufweisen, die in einer Kohärenztheorie der Rechtfertigungen ebenfalls zu berücksichtigen sind. Mein eigenes Modell von Kohärenz versucht gerade die verschiedenen Aspekte von Kohärenz sauber auseinanderzuhalten, aber auch die wechselseitigen Abhängigkeiten darzustellen. Für diese Kohärenztheorie der Rechtfertigung läßt sich dann zeigen, daß sie eine Reihe grundlegender epistemischer Aufgaben besser erfüllen kann als ihre Konkurrenten. Zunächst kann sie in die Domäne der empiristischen Erkenntnistheoretiker einbrechen und sowohl die Rechtfertigung wie auch die Zurückweisung von Beobachtungsüberzeugungen in natürlicherer Weise beschreiben als empiristische Fundamentalisten. Die haben Schwierigkeiten, die zuverlässigen von den unzuverlässigen Wahrnehmungen zu trennen. Diese beiden Klassen von Wahrnehmungen lassen sich nämlich nicht in einfacher Weise nach inhaltlichen Aspekten unterscheiden, sondern, wohin eine Meinung gehört, variiert insbesondere in Abhängigkeit von äußeren Situationsbedingungen und unserem Hintergrundwissen darüber. Der Kohärenztheoretiker kann für die Beurteilung einer Beobachtungsüberzeugung all unser Wissen über Wahrnehmungen und die jeweilige Situation in Anschlag bringen, wodurch er viel flexibler auf die verschiedenen Fälle und Wissensentwicklungen eingehen kann, als das einem Empiristen möglich ist. Auch zum Regreßproblem hat der Kohärenztheoretiker eine zufriedenstellende Antwort anzubieten, die jedenfalls plausibler ausfällt, als die des Fundamentalisten. Während es für letzteren eine Gruppe von Meinungen gibt, die in dem anspruchsvollen Sinn, der hier zur Debatte steht, letztlich nicht zu rechtfertigen sind, sind in einem hochkohärenten Überzeugungssystem alle Elemente durch verschiedene inferentielle Verbindungen der Überzeugungen untereinander gerechtfertigt. Dabei sprechen wir nicht mehr von linearen Rechtfertigungen, die in unendliche Ketten von Aussagen münden oder sich zu einfachen Zirkeln zusammenschließen, sondern von einer holistischen Rechtfertigung in einem Netz von sich wechselseitig stützenden Meinungen. Das Zusammenpassen unserer Meinungen zu einem Gesamtbild bietet für uns einen guten Grund, davon überzeugt zu sein, daß es wesentliche Aspekte der Welt richtig beschreibt. Unsere Weltsicht ist vergleichbar mit der Vorlage für ein Puzzle. Ob wir dabei die richtige Vorlage ausgewählt haben, ergibt sich daraus, ob die Puzzlesteinchen, die wir schon haben und die, die wir noch finden, in dieser Vorlage unterzubringen sind. Je mehr Steinchen wir tatsächlich einfügen können, um so mehr spricht das für unsere Vorlage. Wenn diese Steine noch zu ganz unterschiedlichen Gebieten der Vorlage gehören, um so besser. Das deutet darauf hin, daß die Vorlage und unsere Puzzlesteinchen nicht nur in bestimmten Teilbereichen zusammenpassen, sondern auch im Großen einander entsprechen. Das Passen der Steinchen zur Vorlage an einer bestimmten Stelle ist dabei schon als indirekter Hinweis zu werten, daß unsere Vorlage wohl auch an anderer Stelle stimmen wird. Diese Analogie soll noch einmal den intuitiven Aspekt von holistischer Rechtfertigung und speziell der Rechtfertigung einzelner Meinungen anhand des guten Zusammenpassens der vielen kleineren Bestimmungsstücke anhand umfassender Theorien vorführen. 2 Den internen Skeptiker können wir also auf die hohe

242

VI Metarechtfertigung

Kohärenz und Stabilität des Netzes trotz zahlreichen Beobachtungsinputs über einen längeren Zeitraum verweisen, der dafür spricht, das ganze Netz als eine angemessene Repräsentation der Wirklichkeit zu betrachten. Nur der radikale Skeptiker, der alle unsere gewöhnlichen Überzeugungen zunächst beiseite schieben möchte, kann dann noch nach einer externen Rechtfertigung des Netzes als Ganzem fragen. Sobald uns ein Skeptiker zugesteht, daß die Beobachtungsüberzeugungen zum überwiegenden Teil wichtige Informationen über unsere Umwelt verkörpern, haben wir damit eine gewisse Handhabe, um seine Einwände zurückzuweisen. Wir verfugen über eine gute Erklärung für ihr Auftreten, die diese in ein komplexes Gesamtbild der Welt einbettet, zu dem er keine gleichwertige Alternative anzubieten weiß. Das Netz unserer Meinungen dient dabei als eine Art von globaler Theorie, die unsere Tatsachen, die alten und die neu hinzukommenden, sehr gut assimiliert, was intern eine weitere Bewährung der Theorie bedeutet. Auch den anderen naheliegenden und häufig gegen Kohärenztheorien ins Feld geführten Einwänden kann man begegnen. Die Befürchtung, daß das Netz sich kausal isoliert von der Welt entwickeln könnte, ließ sich mit dem Hinweis zerstreuen, daß die spontanen Meinungen genau den gesuchten kausalen Input verkörpern, der diese Isolation verhindert. Dem Einwand, es könne verschiedene gleichkohärente Netze geben, muß die Kohärenztheorie insoweit zustimmen, daß sie - wie andere Erkenntnistheorien auch - das Auftreten theoretischer Unterbestimmtheit nicht völlig ausschließen kann, ihm jedoch weit mehr entgegenzusetzen hat, als das z. B. für fundamentalistische Rechtfertigungstheorien der Fall ist. Das gilt besonders dann, wenn sie wie in der vorliegenden Theorie noch mit einer konservativen Metaregel kombiniert wird, die die Stabilität eines Überzeugungssystems unterstützt. Damit kann die KTR insgesamt als eine sinnvolle und begründete Fortentwicklung der Theorie der epistemischen Rechtfertigung betrachtet werden, in der ein vorläufiges reflektives Gleichgewicht zwischen theoretischen Anforderungen, typischen Beispielen von Rechtfertigungen und intuitiven Vorstellungen von Rechtfertigung erreicht wurde. Die größere Herausforderung findet sich dann wohl nur noch in den radikaleren Formen der Skepsis, denen ich den größeren Teil des Kapitels gewidmet habe.

B. Externe Skepsis Die antike Skepsis etwa eines Sextus Empiricus verfolgte noch durchaus praktische Absichten und hoffte mit ihren Argumenten eine bestimmte Geisteshaltung fördern zu können, die aus einem sich Enthalten von allen Urteilen besteht, von der sie annahm, daß sie zu innerer Ruhe und damit letztlich zum Glücklichsein führt. Die modernen Skeptiker finden dagegen ihren geistigen Urvater in Descartes und insbesondere in seiner ersten Meditation. Ihre Ziele sind eher theoretischer Natur. Sie wollen eine bestimmte Position in der Erkenntnistheorie beziehen, nach der z. B. Wissen unmöglich ist. Der Gesprächspartner in diesem Kapitel ist naheliegender Weise ein Skeptiker des

B. Externe Skepsis

243

zweiten Typs, da nur er als Kontrahent zur hier vertretenen Theorie der Rechtfertigung anzusehen ist. Trotzdem möchte ich vorab noch kurz auf eine vermeintlich praktische Konsequenz des Skeptizismus eingehen, die schon Russell für den Skeptiker einnahm und in neuerer Zeit von Popperianern wie Musgrave (1993, 25ff) wiederum aufgegriffen wird. Danach sind Skeptiker die besseren Menschen, denn sie verschreiben sich nicht mit Leib und Seele Institutionen wie z. B. der Inquisition. Das ist nur von einem Dogmatiker - so nennt Musgrave etwas irreführend den Gegner des Skeptikers - zu erwarten. Musgrave zitiert dazu Montaigne, der gegenüber den Praktiken der Inquisition anmerkt: „Es heißt unsere Vermutungen sehr hoch einzuschätzen, wenn man auf ihrer Grundlage Leute röstet." Doch sowenig sich ein wirklicher Skeptiker von Überlegungen der Kirche zum Seelenheil der Befragten beeindrucken und in seinem Handeln leiten ließe, sowenig würden ihn auch moralische Appelle vom Foltern seiner Mitmenschen abhalten können, wenn er dazu gerade einmal Lust hätte. Er würde auf Vorhaltungen entgegnen, wir hätten keinen Grund anzunehmen, unsere moralischen Überzeugungen wären richtiger als beliebige andere Verhaltensregeln. Außerdem wären sie schon dadurch unbegründet, daß unsere Annahme, es gäbe eine Person, die dabei Schmerzen empfindet, von ihm nicht mitgetragen würde. Musgrave (1993, 23ff) selbst weist auf Anekdoten aus der Antike hin, die praktische Konsequenzen aus einer skeptischen Haltung in dieser Richtung erkennen lassen. So erzählt Pyrrho, daß er an seinem alten Philosophielehrer vorbeigegangen sei, als der in einer äußerst mißlichen Lage im Graben feststeckte, ohne ihm zu helfen. Für ihn läge nämlich kein ausreichender Grund vor zu glauben, er täte etwas Gutes, wenn er ihm geholfen hätte. Natürlich lobte ihn sein Lehrer ob seiner konsequenten Haltung. Tatsächlich geht es in Fällen wie der Inquisition auf der einen Seite um eine gewisse Toleranz gegenüber Andersdenkenden, die vermutlich durch einen Fallibilismus gefördert wird. Er macht uns klar, daß unsere eigenen Meinungen fehlbar sind und wir daher nach Möglichkeit keine Konsequenzen aus ihnen ziehen sollten, die schreckliche Folgen für andere Menschen haben können. Auf der anderen Seite ist der umfassende Skeptizismus wiederum zu tolerant, wenn es um die Beurteilung sozial schädlichen menschlichen Verhaltens geht. Für ihn lassen sich nämlich keine Gründe auch gegen die schlimmsten Auswüchse menschlichen Verhaltens geltend machen. Ein konsequenter Skeptizismus würde also höchstens dazu führen, daß sich Menschen vollkommen nach ihren momentanen Neigungen verhalten und keine motivierenden Vernunftgründe für eine Änderung ihres Verhaltens akzeptieren. Er würde die Welt nur dann zu einem „glücklicheren Platz machen" (Musgrave 1993, 28), wenn sie bereits von besonders sanftmütigen Menschen bewohnt würde. Doch daran zu zweifeln haben wir gewiß gute Gründe. Doch nun zurück zu den theoretischen Konsequenzen des Skeptizismus. Im Unterschied zum internen Skeptiker geht der externe Skeptiker einen Schritt weiter und greift nicht nur bestimmte Teile oder Bereiche unserer Annahmen an, sondern stellt alle auf einmal in Frage. Er verlangt nach einer unvoreingenommenen Sicht von einem zu

244

VI Metarechtfertigung

unseren Meinungen externen Standpunkt auf unser gesamtes Überzeugungssystem. Der externe Skeptizismus scheint damit auf den ersten Blick nur eine konsequente und etwas weitergehende Fortführung der internen Skepsis darzustellen - aber dieser Schritt erweist sich letztlich doch als schwerwiegender. Ein erster Schritt in der Auseinandersetzung mit dem externen Skeptiker wird in der Klärung bestehen, wie folgenschwer dieser Schritt tatsächlich ist. Erst diese Präzisierung ermöglicht eine Untersuchung verschiedener Erwiderungen. So ist der radikale Skeptizismus zunächst von der Position des Fallibilismus zu unterscheiden, gegen die ich mich keineswegs wenden möchte, die aber in ungenauen Formulierungen dem Skeptizismus sehr ähnlich scheint. Verfällt man jedoch einer Konfusion von Fallibilismus und radikalem Skeptizismus gewinnt der letztere erheblich an Attraktivität, gehört doch eine fallibilistische Haltung geradezu zum modernen wissenschaftlichen Weltbild dazu.

1. Fallibilismus und Skeptizismus Das wohl klarste Plädoyer gegen jede Form von Dogmatismus und speziell gegen eine dogmatische Auffassung wissenschaftlicher Erkenntnisse stellt Poppers Logik der Forschung dar. Aber als Vorläufer Poppers sind aus Gründen der Gerechtigkeit zumindest Whewell und Peirce zu nennen. Sie haben demonstriert, daß wir für jede unserer Überzeugungen für Kritik offen bleiben müssen und sie immer nur als vorläufige Hypothese gelten darf, die im Prinzip falsch sein kann. Es gibt gemäß dieser fallibilistischen Ansicht von unserer Erkenntnis keinen Königsweg von sicheren Beobachtungssätzen - etwa mit Hilfe einer induktiven Logik - zu sicheren wissenschaftlichen Theorien. Nach Popper sollten wir unsere Theorien solange akzeptieren, wie sich keine widersprüchlichen Beobachtungen gefunden haben, die zu einer Falsifikation fuhren, dabei jedoch immer die metatheoretische Einschätzung unseres Wissens als hypothetisch im Hinterkopf behalten. Von der realen Möglichkeit falsch zu sein, sind dabei nicht nur unsere Theorien betroffen, sondern sie ist durchgängig und betrifft genauso unsere Wahrnehmungsüberzeugungen verschiedenster Herkunft. Dieser Fallibilismus auf der Metaebene kann mit einem festen Glauben an bestimmte Theorien auf der Objektebene einhergehen, der allerdings mit der Bereitschaft zu einer Revision für den Fall verknüpft sein muß, daß Falsifikationsinstanzen auftreten. Auch wenn Poppers Konzeption der Wissensdynamik inzwischen zu Recht kontrovers betrachtet wird (s. II.A.3.b), bleibt doch der Fallibilismus als wesentliche Einsicht Poppers erhalten. An dieser Stelle kann der Skeptiker einbringen, ein Fallibilist sei doch im Grunde seines Herzens auch ein radikaler Skeptiker, erwägt er doch für all unser Wissen die Möglichkeit, daß es falsch sein könnte. Das vorläufige Festhalten des Fallibilisten an unseren bisherigen Theorien läßt sich dabei als eine bloß pragmatische Einstellung interpretieren, um für praktische Entscheidungen gerüstet zu bleiben. Seine epistemische Überzeugung, daß im Prinzip alle unsere Meinungen unzutreffend sein könnten, deckt sich dagegen mit den erkenntnistheoretischen Ansichten des Skeptikers.

B. Externe Skepsis

245

Um Fallibilist bleiben zu können, ohne sich damit dem radikalen Skeptizismus verschreiben zu müssen, ist eine deutlichere Abgrenzung dieser Positionen notwendig geworden. Die ist nicht unproblematisch und wird in der Regel nicht explizit thematisiert. In hauptsächlich zwei Aspekten möchte ich diese Unterscheidung vornehmen.3 Da ist zunächst der epistemologische Konservatismus, den ich als Bestandteil meiner fallibilistischen Metatheorie verstehe. Die vorläufige Beibehaltung meiner bisherigen Überzeugungen wird damit nicht als bloß pragmatischer Natur eingestuft, sondern hat durchaus epistemischen Wert. Das bisherige Haben einer Überzeugung wird als ein, wenn auch schwacher, aber doch epistemischer Grund für diese Überzeugungen betrachtet. Das paßt zur wissenschaftlichen Praxis, in der Theorien nicht zunächst aus einer bloßen Laune heraus akzeptiert und dann erst Falsifikationsversuchen ausgesetzt werden, die als erste epistemische Tests gelten können. Sie entstehen bereits in einem bestimmten Umfeld, das diese Theorien mit (eventuell theoretischen) Gründen nahelegt, selbst wenn noch keine konkreten empirischen Tests angegeben werden können. Dafür sprechen unter anderem die vielen gleichzeitigen Entdeckungen der Wissenschaftsgeschichte und die Entwicklung von Theorien wie z. B. den Relativitätstheorien, für die es zu Beginn praktisch keine direkten Belege gab, die aber deshalb nicht von ihren Vertretern aus rein pragmatischen Erwägungen vorgeschlagen wurden. Die frisch akzeptierten Theorien sind trotz ihres Hypothesencharakters bereits durch einige im Anfang meist noch schwache Kohärenzüberlegungen zu begründen. Im Unterschied zur Position des radikalen Skeptikers sind also nicht alle denkbaren Theorien epistemisch gleichwertig, sondern einige sind besser begründet als andere. Der Fallibilist muß ihnen gegenüber keine radikal skeptische Haltung einnehmen. Ein anderer Aspekt für eine Unterscheidung ist der des Umfangs von Meinungen, die gleichzeitig falsch sein können. Auch wenn das im Fallibilismus nicht explizit angesprochen wird, denkt man doch eher an den Fall, in dem jeweils nur kleinere Teile unseres Wissens gleichzeitig betroffen sind - selbst wenn keine bestimmten Teile von der Möglichkeit, falsch zu sein, auszunehmen sind. Sonst wäre auch nicht verständlich, wie Popper erwarten könnte, daß sich bestimmte Theorien widerlegen lassen oder anhand ernsthafter Falsifikationsversuche bewähren können, denn in diesen Falsifikationsversuchen sind wir darauf angewiesen, uns anderer Überzeugungen und Theorien zu bedienen. Der Fallibilist gleicht hier eher dem internen Skeptiker als dem externen. Gegen diesen zweiten Aspekt kann der radikale Skeptiker allerdings geltend machen, daß in der ursprünglichen Einsicht des Fallibilisten, nach der wir uns in keiner Überzeugung völlig sicher sein können, eigentlich kein Platz für eine Beschränkung des Umfangs vorgesehen ist. Wenn wir zustimmen, daß im Prinzip alle unsere Meinungen auf der Objekt- und auch auf der Metaebene betroffen sein können, warum sollte der Irrtum dann etwa bei einem Anteil von 30% oder irgendeinem anderen Prozentsatz stehenbleiben? Der Fallibilismus allein gibt für eine Beschränkung noch keine Handhabe, aber er soll im folgenden hier immer so verstanden werden. Die Unterscheidung des radikalen Skeptikers von einem Fallibilisten sollte klären, wogegen ich nicht argumentieren möchte, nämlich die Idee des Fallibilismus, wonach

246

VI Metarechtfertigung

wir keine irrtumssichere Erkenntnis haben. Daraus muß natürlich noch keineswegs folgen, daß es kein Wissen oder keine Rechtfertigungen geben kann. Diese weitergehenden skeptischen Behauptungen sind erst noch zu untersuchen. Zur Debatte stehen dabei nur die Annahmen des Skeptikers, die über den Fallibilismus, dem ich zustimme, hinausgehen.

2. Wissensskeptizismus und Rechtfertigungsskeptizismus Um die Behauptung des radikalen Skeptikers in bezug auf mein Projekt einer Theorie der Rechtfertigung zu bestimmen, ist wiederum die Unterscheidung in verschiedene erkenntnistheoretische Unternehmungen sinnvoll. Vis-à-vis dem Wissensbegriff stehen ihm andere Schachzüge zur Verfügung als gegenüber epistemischen Rechtfertigungen. Der Wissensbegriff enthält z. B. einige spezielle inhaltliche Aspekte, die als Ansatzpunkte fur den Skeptiker geeignet erscheinen. Da findet sich zunächst für den Wissensbegriff - wenigstens in einigen Kontexten die Forderung nach Gewißheit. Wenn ich eines von einer Million Lose gekauft habe, von denen nur eines gewinnt, steht meine Chance zu gewinnen, außerordentlich schlecht. Trotzdem kann ich kaum mit Recht behaupten, ich wüßte schon, daß mein Los verliert. Es gibt immer noch eine klar erkennbare Möglichkeit, doch zu gewinnen. Würde ich diese Möglichkeit nicht zur Kenntnis nehmen, hätte ich mir auch kaum ein Los gekauft. Dieser Aspekt der für Wissen erforderlichen Gewißheit gibt dem radikalen Skeptiker die Möglichkeit seine Skepsis ins Spiel zu bringen, denn im allgemeinen verfügen wir nicht über diese Gewißheit, oder sie ist jedenfalls unbegründet.4 Das besagt gerade die metatheoretische Ansicht des Fallibilismus. Können wir dann also niemals Wissen erlangen? Für den Rechtfertigungsbegriff ist dieser Schachzug des Skeptikers glücklicherweise nicht in derselben Weise möglich. In unserem Beispiel kann ich durchaus behaupten, sehr gute Gründe für meine Annahme zu haben, daß ich nicht gewinnen werde. Dem steht auch die kleine Chance, daß mein Los doch gezogen wird, nicht im Wege. Diese Gründe sind auch nicht durch den Zusammenhang von epistemischen Rechtfertigungen und Rationalität gefährdet. Es kann rational sein, sich ein Los zu kaufen, obwohl wir gute Gründe haben anzunehmen, daß wir nicht gewinnen. Zwar ist es prima facie nicht rational, auf eine sehr kleine Chance, Erfolg zu haben, ein Los zu kaufen, aber ich muß neben den Wahrscheinlichkeiten für das Eintreten von Gewinn und Verlust für eine Kalkulation der rationalen Handlungsweise ebenso ihre jeweilige Höhe mit einberechnen. Hier steht bei Lotterien einem relativ kleinen Einsatz ein großer Gewinn gegenüber, der Defizite bei den Wahrscheinlichkeiten ausgleichen kann. Außerdem hat das Lottospielen Spielcharakter, wobei man den Gewinn nicht nur aus dem materiellen Gewinn, sondern auch aus dem Vergnügen am Spiel bezieht. Würde man davon absehen, wäre es vielleicht nüchtern betrachtet nicht rational, Lotto zu spielen. Daß wir gute Gründe haben, von einem Verlust auszugehen, zeigt sich dann eher fur unser Verhalten nach dem Loskauf. Wir würden denjenigen, der sich auf ein

B. Externe Skepsis

247

Los hin mit entsprechend teuren Gegenständen eindeckt, als irrational bezeichnen. Bis zum tatsächlichen Gewinn besteht eine rationale Strategie nur darin, von einem Verlust auszugehen und keine Investitionen auf einen zu erwartenden Lottogewinn zu tätigen. Der Ankauf des Loses selbst kann aber deswegen noch nicht als irrational bezeichnet werden. Das erklärt, wie wir darin gerechtfertigt sein können, einen Verlust zu erwarten, obwohl es vernünftig sein kann, sich ein Los zu kaufen. Wir können uns unseres Verlustes eben noch nicht sicher sein. Rechtfertigung ist eine Sache des Grades, und erst bei „vollkommener" Rechtfertigung oder Wissen bleibt dieser Spielraum für rationales Verhalten nicht mehr übrig. Ein weiterer Punkt für eine Unterscheidung ist die Notwendigkeit, radikale skeptische Hypothesen definitiv zurückzuweisen. Unter anderem Stroud (1984, 29) weist darauf hin, daß wir für Wissen auch alle die Hypothesen widerlegen können müssen, die dem Wissen im Wege stehen, ja sogar wissen müssen, daß sie falsch sind. Wir können das als Prinzip (Z) für Zurückweisung formulieren: Zurückweisung skeptischer Hypothesen (Z) Wenn S weiß, daß p, so weiß S, daß nicht-H, für alle skeptischen Hypothesen H, die mit dem Wissen, daß p für S inkompatibel sind. Das Prinzip (Z) scheint für Wissen recht plausibel, weil für Wissen das bereits (in III.A.l.c) genannte Prinzip der logischen Abgeschlossenheit naheliegt. Zusammen mit unserem Wissen um die skeptischen Hypothesen führt es nach Stroud (1984, 30) unausweichlich in den Wissensskeptizismus. Eine entsprechende Forderung ist jedoch für Rechtfertigungen kaum vertretbar. Um über eine Rechtfertigung für meine Annahme zu verfügen, daß die Erde um die Sonne kreist, muß ich noch keine Rechtfertigungen besitzen, daß ich kein Gehirn im Topf bin. Unser Rechtfertigungsbegriff ist in diesem Punkt schwächer und läßt es sogar zu, gute Gründe für inkompatible Meinungen haben. Um nicht inkonsistent zu sein, werden wir nicht zwei inkompatible Meinungen gleichzeitig akzeptieren, aber wir können Gründe für beide Meinungen besitzen, denn Gründe sind nur Wahrheitsindikatoren und implizieren nicht bereits Wahrheit, wie das für Wissen der Fall ist. Damit wir dann eine der beiden Meinungen begründet akzeptieren können, müssen unsere Gründe allerdings für eine Seite deutlich überwiegen. Der Skeptiker muß gegen Rechtfertigungen seine skeptischen Einwände also anders formulieren als gegen Wissensbehauptungen.5 Ein zusätzlicher Punkt, wo der Skeptiker gegen Wissensansprüche Ansatzpunkte für plausible Einwendungen finden kann, den er für Rechtfertigungen so nicht vorfindet, ist die Mischung von externen und internen Aspekten im Wissensbegriffs. Auf der externen Seite wird von Wissen unter anderem verlangt, daß es sich um wahre Überzeugungen handelt und auf der internen Seite, daß man über entsprechende Begründungen für die Überzeugungen verfügt. Damit diese Begründungen aber nicht nur Beiwerk bleiben, müssen sie an die externen Forderungen heranreichen und Begründungen sein, die tatsächlich die „richtigen" Gründe für die Annahme der jeweiligen Überzeugung darstellen und nicht bloß Gründe, die mit der Wahrheit der Überzeugung nur zufällig zusam-

248

VI Metarechtfertigung

mentreffen. Das können wir aus der Diskussion der Gettier-Beispiele lernen. Damit ist die interne Komponente des Wissensbegriffs aber überfordert, so daß man häufig versucht, auch sie durch externe Komponenten abzustützen, die Rechtfertigungen eigentlich fremd sind. Z. B. Moser (1991, 242ff) verlangte von den Rechtfertigungen, die zu Wissen führen, sie müßten wahrheitsresistent („truth resistant") sein; d.h. daß die Rechtfertigungen mit allen wahren Aussagen - auch solchen, von denen das epistemische Subjekt nichts weiß - verträglich sind. Dem Skeptiker gibt das Gelegenheit einzuwenden, Wissen sei nicht möglich, weil wir nie wirklich über Begründungen verfügen, die solch hohen Anforderungen genügen können, wie sie von der Wahrheitsresistenzforderung ins Spiel gebracht werden. Das Konzept der allgemeinen epistemischen Rechtfertigung ist dagegen rein intern. Was eine Rechtfertigung ist, läßt sich allein aus der Innenperspektive beurteilen. Da die selbst von Skeptikern wie dem Cartesischen meist als unproblematisch zugestanden wird, hat der Skeptiker dann keine Möglichkeit sich einzuschalten mit einer Bemerkung wie: Du glaubst nur, über eine Rechtfertigung zu verfugen, aber es ist in Wirklichkeit keine. Wir könnten ihm entgegenhalten: Wenn alle internen Merkmale einer Rechtfertigung vorliegen, können wir zu Recht behaupten - anders als beim Wissensbegriff, bei dem eine entsprechende Rechtfertigung externe Anforderungen zu erfüllen hat - , es sich auch um wirklich eine Rechtfertigung handelt. Den Skeptiker, der diese Erwiderung nicht zu akzeptieren gedenkt, möchte ich auf ein Beispiel verweisen, das in ähnlicher Form Stroud (1984, 41) diskutiert. Jemand stellt die ungewöhnliche Behauptung auf, es gäbe keine Ärzte in Berlin, die unserem Wissen massiv zu widersprechen scheint. Er begründet sie dann damit, daß er unter „Arzt" nur jemand mit einem „Dr. med." und der Fähigkeit, jede Krankheit in zwei Minuten zu heilen, versteht. Diese Definition von „Arzt" erlaubt es ihm nun tatsächlich, seine ursprüngliche Behauptung aufrecht zu erhalten, aber sie steht auch nicht mehr im Widerspruch zu unserer Überzeugung, daß es sehr viele Ärzte - im gewöhnlichen Sinn des Wortes - in Berlin gibt. Wenn der radikale Skeptiker in bezug auf Rechtfertigungen nur eine Art von ,^4rzte-Skeptiker" wie in unserem Beispiel sein möchte, kann er sich weigern, das, was wir üblicherweise als Rechtfertigungen anerkennen, ebenfalls anzuerkennen. Aber er äußert dann keine Behauptung, die unserer widerspricht, und wir können auf seinen Einwand mit einem Achselzucken reagieren. So leicht wird sich der Skeptiker natürlich nicht geschlagen geben. Er kann uns mit einem entsprechenden Problem auf einer anderen Ebene erneut konfrontieren. Epistemische Rechtfertigungen werden von uns intern als solche eingestuft - soweit so gut. Auf der Metaebene der epistemischen Überzeugungen erwarten wir jedoch auch von gewöhnlichen epistemischen Rechtfertigungen, daß sie eine externe Eigenschaft aufweisen. Rechtfertigungen müssen zwar keine Wahrheitsgaranten sein, denn das ist keineswegs schon im Rechtfertigungsbegriff angelegt, aber um ihre Funktion als epistemische Rechtfertigungen erfüllen zu können, müssen sie immerhin Wahrheitsindikatoren sein. Neben den internen Bedingungen für Rechtfertigungen, die etwa in entsprechenden Kohärenzforderungen bestehen können, bleibt also noch die Metaforderung, daß sie

B. Externe Skepsis

249

wahrheitsdienlich sein sollen. Das zeigt einen Ansatzpunkt auf, den der Skeptiker Rheinen Einwand von einem externen Standpunkt aus nutzen kann. Er fragt nun: Wie kannst du begründen, daß deine internen Rechtfertigungen auch tatsächlich wahrheitsdienlich sind? Darauf können wir ihm wieder nur interne Gründe entgegenhalten, wobei wir uns auf unsere gewöhnlichen epistemischen Überzeugungen zu berufen haben. Diese Antwort wird den radikalen Skeptiker natürlich nicht zufriedenstellen, denn für all diese internen Gründe stellt er ja gerade in Frage, daß sie wahrheitsdienlich sind. Damit stürzt der Skeptiker einen Internalisten in ein Dilemma, hat der Internalist doch darauf bestanden, für Begründungen nur das zu zählen, was uns kognitiv zugänglich ist. Das jedoch stellt der Skeptiker komplett in Frage. Er verlangt gerade nicht nach internen Gründen, sondern nach einem davon unabhängigen externen Standpunkt von dem aus sich die internen Rechtfertigungen als wahrheitsdienlich erweisen lassen. Stützen wir uns in unserer Argumentation gegen den Skeptiker z. B. auf den Schluß auf die beste Erklärung - indem wir etwa argumentieren, eine realistische Position in bezug auf die Außenwelt sei die beste Erklärung unserer Wahrnehmungen - , so kann der Skeptiker erwidern: Gerade für dieses Verfahren haben wir noch keinen unabhängigen Grund erhalten, warum wir es als Wegweiser zur Wahrheit einsetzen sollten. Über eine schnelle Antwort auf den Skeptiker der Metaebene verfügt natürlich wieder der Externalist, der auch an dieser Stelle erwidern könnte, die Frage nach der Wahrheitsdienlichkeit interner Begründungen sei nur eine Tatsachenfrage. Die könne man zwar nicht schlüssig entscheiden, aber wenn es eben der Fall ist, daß wir zuverlässige Informationsverarbeiter sind, deren Weltmodell einigermaßen zutreffend ist, so sind auch unsere gewöhnlichen Rechtfertigungsverfahren (insbesondere die Abduktion) wahrheitsdienlich und damit epistemische Rechtfertigungen - Schluß. Es ist dann nicht noch zusätzlich erforderlich, auch dafür wieder über Argumente zu verfügen. Der Skeptiker weist demnach nur noch auf eine Möglichkeit hin, die wir nicht ausschließen können, deren Möglichkeit allein aber Wissen und vor allem Rechtfertigungen noch nicht bedroht. Als Internalisten können wir uns nicht so einfach aus der Schlinge ziehen. Uns wird der Skeptiker in die Pflicht nehmen, doch bitte auch auf der Metaebene Internalist zu bleiben und mit Argumenten aufzuwarten, die gegen die skeptischen Hypothesen sprechen. Solange das nicht geschehen ist, hätten wir auch keine Rechtfertigungen von denen wir mit guten Gründen sagen könnten, daß es sich um Wahrheitsindikatoren handelt. Der skeptische Einwand gegen Rechtfertigungen kann kurz so zusammengefaßt werden: Rechtfertigungsskeptizismus Wir verfügen über keine (überzeugenden) Gründe für die erkenntnistheoretische Annahme, daß unsere (internen) Rechtfertigungen tatsächlich auf Wahrheit abzielen, solange wir keine Gründe dafür anfuhren können, daß die skeptischen Hypothesen falsch und unsere realistische Sicht der Welt richtig ist.

250

VI

Metarechtfertigung

Der radikale Skeptiker kann also zugestehen, intern seien unsere Rechtfertigungen als Rechtfertigungen anzuerkennen, wird aber unsere epistemische Überzeugung, daß solche Rechtfertigungen auch die Wahrscheinlichkeit des Gerechtfertigten erhöhen, bestreiten. Als radikaler Skeptiker wird er sogar für alle unsere Rechtfertigungen bezweifeln, daß sie der Wahrheitsfindung dienen. Um das zu erläutern und plausibel erscheinen zu lassen, kann er seine skeptischen Hypothesen ins Spiel bringen. Wenn wir nur Gehirne im Topf sind, ist aller Input, den wir erhalten, als Hinweis auf die Beschaffenheit der Außenwelt ungeeignet. Wir mögen auch als Gehirn in einer Nährlösung noch in bestimmten Annahmen im gewöhnlichen Sinn des Wortes gerechtfertigt sein, weil Rechtfertigung eine Angelegenheit interner Kohärenz ist, aber unsere MetaÜberzeugung, diese Rechtfertigungen könnten uns helfen, die Wahrheit über die Außenwelt zu entdekken, ist in diesen Fällen falsch. Welchen Grund haben wir dann noch, so fragt der Skeptiker, die realistische Sicht der Welt gegenüber der des Skeptikers zu bevorzugen? Von der Frage des Skeptikers, welche Argumente wir gegen seine kausalen skeptischen Modelle von unserer Stellung in der Welt anfuhren können, sind auch unsere anderen epistemischen Überzeugungen betroffen. Auch sie stützen sich im Rahmen einer naturalistisch begründeten Kohärenztheorie auf unsere Konzeption von spontanen Beobachtungsüberzeugungen als wenigstens in gewissen Grenzen zuverlässigem Input von der Außenwelt, mit dessen Hilfe wir die Wahrheitsdienlichkeit unserer Schlußverfahren überprüfen können. Daher dürfen wir uns gegen den Skeptiker seiner Ansicht nach auch nicht auf sie berufen, ohne eine petitio principii zu begehen.6 Das läßt uns nur wenig Spielraum für eine Antwort, denn die hätte sich ganz im Sinne von KTR wiederum auf andere Annahmen zu stützen. Insbesondere können wir uns daher gegen den Skeptiker nicht auf den epistemologischen Konservatismus berufen, da sich unsere Begründungen für diese Metaregel auf wesentliche Teile unseres Weltbildes stützen und nicht völlig apriorischen Charakter haben.7 Was läßt sich dann noch seinen Argumenten entgegenhalten? Jedes Argument gegen den Skeptiker muß sich auf andere Überzeugungen berufen und dabei etwa auf epistemische Überzeugungen oder Überzeugungen über unsere kausale Einbettung in die Außenwelt zurückgreifen. Die sind selbst zumindest zum Teil auch empirische Behauptungen oder auf solche angewiesen, auf die zu berufen uns der radikale Skeptiker untersagt hat, solange wir sie nicht vorher anderweitig gerechtfertigt haben. Der Skeptiker läßt somit unsere normalen Argumentationsverfahren nicht zu und gibt uns keine Chancen zur Verteidigung. Betrachten wir dazu kurz einige Vorschläge, auf ihn zu reagieren, um diese pessimistische Ansicht zu untermauern. Die Antwortmöglichkeiten lassen sich grob in einteilen in Zurückweisungen der skeptischen Frage, denen ich im nächsten Abschnitt exemplarisch nachgehe, und Versuchen, eine Antwort auf sie zu geben, die im übernächsten Abschnitt zu Wort kommen werden.

B. Externe Skepsis

251

3. Unnatürliche Zweifel? Ein erstaunliches Merkmal der skeptischen Positionen, das Hume schon thematisierte, ist ihre starke Kontextabhängigkeit. So natürlich die skeptischen Hypothesen, daß wir uns in unserem Weltbild komplett irren können, auch aus unserer fallibilistischen Ansicht erwachsen, wenn wir theoretisch darüber nachdenken, so wenig kann uns diese Erkenntnis in praktischen Zusammenhängen tatsächlich beunruhigen. Ohne über eine erkenntnistheoretische Antwort auf den Skeptiker zu verfugen, konnte sich Hume mit dieser Einsicht beruhigen und dafür plädieren, den Skeptizismus auf sich beruhen zu lassen, weil er sowieso praktisch unwirksam sei. Eine Reihe späterer Autoren hat versucht, mehr theoretisches Kapital aus dieser Einsicht zu schlagen, zeigt sie doch, daß die skeptischen Einwände und Fragen nach weiteren Rechtfertigungen in irgendeiner Weise unnatürlich sind. Relativ leichtes Spiel haben wir mit dem Skeptiker, der seine Position unachtsam formuliert, also z. B. behauptet: „Ich weiß, daß ich nichts weiß." Das sieht schon auf den ersten Blick widersprüchlich aus. Ein radikaler Rechtfertigungsskeptiker sollte seine Auffassung auch nicht mit einer direkten Begründung versehen, denn sonst müßte er seine eigene Begründung von dieser Skepsis ausnehmen, was keinen überzeugenden Eindruck hinterläßt. Am ehesten kann er seine Überlegungen in Form einer „reductio ad absurdum" vortragen. Er zeigt, daß seine skeptischen Hypothesen - wie die, ein Gehirn im Topf zu sein - kohärent in unser normales Hintergrundwissen einzupassen sind; jedenfalls wenn wir einmal von unserer üblichen (Meta-) Annahme absehen, daß Beobachtungsüberzeugungen uns zuverlässige Informationen über die Welt vermitteln. Wenn der Skeptiker darin Recht hat, daß wir gemäß unseren gewöhnlichen Standards ebensogut Skeptiker wie Realisten sein könnten, weil als (Meta-) Annahme eine skeptische Hypothese ein ebenso kohärentes Bild ergibt wie die realistische, dann hat er uns darauf hingewiesen, daß sich in unserem Hintergrundwissen keine guten Gründe für die realistische Metaannahme finden lassen. Wie sollen wir ihm dann noch begegnen? An dieser Stelle kann keine ausfuhrliche Erörterung einsetzen, wie die verschiedenen anti-skeptischen Strategien, die Unnatürlichkeit der Zweifel gegen den Skeptiker ins Feld zu führen, im Detail zu beschreiben sind und welche Antworten dem Skeptiker offenstehen; das ist auch schon an anderen Stellen geschehen (z. B. Stroud 1984 oder Williams 1991). Aber ich möchte noch einmal auf einige Punkte hinweisen, die mich pessimistisch stimmen. Meistens ist der radikale Skeptiker zunächst noch relativ großzügig zu uns. Er gesteht uns z. B. zu, wir wüßten, welche Überzeugungen und welche subjektiven Empfindungen wir haben, wobei er uns oft noch nicht einmal nur auf die momentan bewußten einschränkt, was de facto wohl eine Beschränkung auf eine einzige bedeuten würde. Weiterhin akzeptiert er, daß wir auf der Metaebene bestimmte plausible Begründungsformen benutzen, deren Anwendung wiederum Erinnerung und korrekte Ausführung und nicht zuletzt ihre Wahrheitsdienlichkeit voraussetzt. Diese Großzügigkeit kann er uns natürlich jederzeit wieder entziehen und etwa als Rechtfertigungsskeptiker einwenden: Warum sollte ich den Induktionsschluß auf der Metaebene als guten

252

VI Metarechtfertigung

Wahrheitsindikator akzeptieren, wenn ich ihn auf der Objektebene in seiner Anwendung in wissenschaftlichen Kontexten gerade in Frage stelle? Er kann sogar logische Schlußregeln in Frage stellen. Die Spielregeln für die Auseinandersetzung mit dem Skeptiker sind also - zu seinen Gunsten - nicht so weit geklärt, daß wir ihm irgendwann epistemische Unfairness vorwerfen könnten. Das können sie auch nicht sein, denn warum sollte der radikale Skeptiker überhaupt auf irgendwelche bestimmten MetaÜberzeugungen oder Schlußformen festgelegt sein? Das entspricht nicht seinem wahren Naturell. Kutschera (1982, 61) hat daher Recht mit seiner Ansicht zum Skeptizismus, daß man nicht gegen eine Position argumentieren kann, die keine Argumente zuläßt. Aber dieser Vorwurf an die Adresse des Skeptikers hat eher moralischen als erkenntnistheoretischen Charakter. Er entscheidet nicht die Frage von Wahrheit und Falschheit der skeptischen Hypothesen, sondern ist eher ein neuer Ausdruck der Humeschen Resignation gegenüber dem Skeptizismus. Wir können uns über seine Gnadenlosigkeit beklagen, doch unbeantwortet zurückweisen dürfen seine Fragen deshalb noch nicht. Neben dem Vorwurf der Unfairness läßt sich noch weitergehend gegen den Skeptiker einwenden, daß seine Worte irgendwann jeden Sinn verlieren, wenn er zu viele Überzeugungen in Frage stellt. In Kapitel (IV.A.2) hatte ich schon darauf hingewiesen, daß für das Verfügen über Begriffe bestimmte Stereotype oder Minitheorien notwendig sind, wonach der radikale Skeptiker, sollte er keine Meinungen mehr akzeptieren, auch keine Begriffe mehr verwenden kann. Damit, so könnte man denken, fällt es ihm schwer, sein Anliegen sinnvoll vorzutragen. Das ist vielleicht die weitgehendste Form, den Einwand der Unnatürlichkeit gegen die skeptischen Zweifel stark zu machen. Doch auch dagegen kann sich der Skeptiker wehren, indem er seinen Ausführungen die Form einer „reductio" gibt, die von unseren gewöhnlichen Meinungen ausgehend diese letztlich als unbegründet erweist. Außerdem ist gerade der oben beschriebene Rechtfertigungsskeptiker mit diesem Einwand nur schwer zu erwischen. Er kann in den meisten Überzeugungen erster Stufe und unseren Rechtfertigungen für sie sogar mit uns übereinstimmen. Anders als wir, ist er aber der epistemischen (Meta-) Überzeugung, daß wir für all die überzeugenden Rechtfertigungen, über die wir heute verfügen, keinen guten Grund anführen können, daß sie tatsächlich epistemische Rechtfertigungen also Wahrheitsindikatoren in einem anspruchsvollen Sinn des Wortes sind. Angesichts der vielen Überzeugungen erster Stufe über die Außenwelt, die wir in diesem Fall mit ihm teilen, können wir dann kaum noch behaupten, seine Worte wären sinnlos, weil er etwa über die notwendigen Putnamschen Stereotypen nicht verfüge. Es fällt mir ebenso schwer, einen ähnlichen Standpunkt zu vertreten, wonach ich den Skeptiker nicht verstehen könne, denn sein Skeptizismus verlange, daß ich einen zu meiner Perspektive externen Standpunkt einnehmen muß, eine Art von Gottesperspektive, die mir fremd ist, weil ich meine eigene Perspektive nicht wirklich verlassen könne. Doch reicht der Hinweis auf die Ungewöhnlichkeit der externen Sichtweise kaum, um bereits ein Verständnis auszuschließen; zumal ich mir die vom Skeptiker genannten skeptischen Hypothesen, nach denen ich etwa ein Gehirn im Topf sein könnte, wiederum zumindest in Analogie denken kann. Z. B. indem ich mir zunächst vorstelle, entspre-

B. Externe Skepsis

253

chende Experimente vielleicht eines (nicht allzu fernen) Tages mit Ratten durchzuführen, deren Gehirne ich an einen Computer anschließe. Warum sollte ich dann nicht auch umgekehrt in eine entsprechende Situation als Versuchsperson geraten können? Diese einfache Analogie, die nur einen Wechsel der Perspektive in meinem Rattenexperiment verlangt, ist mir leider nur allzu gut vorstellbar. Das skeptische Gedankenexperiment scheint mir auch verständlich, ohne großen theoretischen Aufwand betreiben zu müssen. Es ist noch nicht einmal so utopisch oder sogar physikalisch unmöglich, daß wir es deshalb in unserem realistischen Rahmen nicht mehr zur Kenntnis zu nehmen hätten. Trotzdem ist dieser Weg, dem Skeptiker Unverständlichkeit vorzuwerfen, von Antiskeptikern gern mit einigen Variationen beschritten worden. In dieser Richtung war schon Carnaps (1956) Kritik angesiedelt, daß bestimmte Fragen des Skeptikers nach der Existenz von Dingen der Außenwelt sinnlos seien, weil ontologische Fragen nach der Existenz von Gegenständen immer nur relativ zu einem bestimmten sprachlichen Rahmen bedeutungsvoll wären. Für Carnap sind nur die „internen Fragen", die in einem solchen Rahmen aufgeworfen werden, sinnvoll, weil wir nur für sie Verifikationsbedingungen kennen. ,ßxterne Fragen", wie die, in welcher Sprache wir reden wollen, ob z. B. in einer Dingsprache oder einer phänomenalistischen, sind dagegen keine theoretischen Fragen nach Wahrheit oder Falschheit mehr, sondern eine Angelegenheit der Konvention ohne kognitiven Gehalt. Für Carnap wird damit wie für Putnam Wahrheit ein interner Begriff, der an unsere Verifikationsbedingungen gekoppelt ist. Hier ist kaum der Ort, die Verifikationstheorie der Bedeutung zu diskutieren, aber sie ist sicher eine Schwachstelle in Carnaps Reaktion auf den Skeptiker. Die Kopplung des Wahrheitsbegriffs an den der Verifizierbarkeit ist außerdem eine Schachzug, der dem Skeptiker bereits viel zu weit entgegenkommt, gibt er doch unser ursprüngliches Projekt der Erkenntnis einer von uns unabhängigen Außenwelt preis. Wenn wir dazu gewillt sind, lassen sich allerdings Antworten auf den Skeptiker finden. Der Skeptiker weist gerade an solchen Stellen auf Lücken in unserer Erkenntnis hin, an denen externe Gesichtspunkte ins Spiel kommen, die durch das intern Zugängliche nicht voll erfaßt werden; also für Rechtfertigungen dort, wo wir verlangen, daß sie wahrheitsdienlich in einem anspruchsvollen korrespondenztheoretischen Sinn des Wortes sind. Gibt man daher die Unterscheidung von externen und internen Ebenen auf, verliert er seinen wichtigsten Angriffspunkt. Auch transzendental idealistische Ansätze kommen dem Skeptiker in ähnlicher Form entgegen, wenn sie Wahrheit auf der Ebene der Erscheinungen ansiedeln, die zumindest nicht völlig unabhängig von uns ist, sondern zu einem Teil von uns konstruiert wird. In der vorliegenden Arbeit habe ich mich für einen anspruchsvolleren Wahrheitsbegriff mit einer realistischen Konzeption der Außenwelt entschieden, der eher unserer Vorstellung von objektiver Erkenntnis entspricht, und kann daher keine Zurückweisung der skeptischen Einwände auf diesem Wege mittragen. Es gibt eine Reihe anderer Versuche, die skeptischen Einwände zurückzuweisen, weil sie zu unnatürlich sind. Man könnte hier Wittgenstein, Ayer, Stanley Cavell oder Crispin Wright nennen, aber für mich bleibt das Fazit all dieser Versuche: Die skeptischen Einwände mögen zwar praktisch irrelevant erscheinen, unnatürlich wirken und

254

VI Metarechtfertigung

nur in theoretischen philosophischen Kontexten auftreten oder sogar unfair abgefaßt sein, denn sie verletzen die üblichen Regeln für die Frage nach Begründungen, aber damit ist noch nicht erwiesen, daß sie erkenntnistheoretisch unzulässig oder sogar falsch sind. Deshalb gibt es auch eine Reihe von Autoren, die die Herausforderung des Skeptikers annehmen und versuchen, ihm eine direkte Erwiderung entgegenzubringen. Das reicht von Descartes, der Schlüsse aus ersten unbezweifelbaren Gewißheiten zieht, die keine Lücke zwischen unserer Erkenntnis der Welt und der Welt zulassen sollen, bis hin zu Moore, der in seinem bekannten „Beweis der Außenwelt" unsere Gewißheiten erster Ordnung gegen die eher theoretischen Einwände des Skeptikers auszuspielen versucht. Einen solchen Widerlegungsversuch möchte ich nun noch genauer unter die Lupe nehmen, weil gerade er die konsequente Anwendung der wichtigsten internen Schlußform auf die metatheoretischen externen Fragen verkörpert.

4. Realismus als beste Erklärung? Immer wieder versuchen Philosophen mit dem Schluß auf die beste Erklärung - nun eingesetzt auf der Metaebene - den Skeptiker zu bekämpfen. Ansätze hierfür sind schon bei Hume zu finden, der die Kohärenz bestimmter Wahrnehmungen als Indiz für die Existenz einer entsprechenden Außenwelt erwägt. Ihm reichte dieser Schluß nicht aus, aber einigen heutigen Autoren, u.a. Devitt (1991, 73 ff), Moser (1989, 158ff) und BonJour (1985, Kap. 8), scheint er stärker zu sein, als Hume noch annahm. Sie argumentieren, die beste Erklärung für unsere Beobachtungsüberzeugungen und ihre Konstanz sei in der Annahme zu finden, daß die Außenwelt in vielen Eigenschaften so ist, wie sie uns erscheint. Dieser Weg wirkt besonders auf dem Hintergrund von KTR zunächst plausibel, weil ich auf der Objektebene von KTR den Schluß auf die beste Erklärung als das zentrale Schlußverfahren für gehaltvermehrende Schlüsse bezeichnet habe; außerdem erwies er sich als ein wichtiges Instrument gegen den internen Skeptiker. Betrachten wir anhand der Argumentation von BonJour, die ebenfalls auf der Grundlage einer Kohärenztheorie abgegeben wird, ob er sich auch gegen den radikalen Skeptiker wirksam anwenden läßt. BonJour (1985, 169ff) versucht den Schluß auf die beste Erklärung sowohl gegen einen internen wie gegen einen externen Skeptiker einzusetzen. Er vertritt dazu zwei Thesen (1985, 171), die ich in abgekürzter Form wiedergebe: (Bl) Wenn ein Überzeugungssystem über einen längeren Zeitraum kohärent und stabil bleibt, obwohl es gleichzeitig BonJours „Observation requirement" erfüllt, so gibt es wahrscheinlich eine Erklärung dafür. (B2) Die beste Erklärung dafür ist, daß (a) die Beobachtungsüberzeugungen auf approximativ zuverlässige Weise von entsprechenden Situationen verursacht sind und (b) das ganze Überzeugungssystem eine unabhängige Realität approximativ zutreffend beschreibt.

B. Externe Skepsis

255

Die erste Forderung ist vorerst nicht besonders kontrovers, da beide Seiten, sowohl der Skeptiker wie auch sein Gegner, der erkenntnistheoretische Realist, Erklärungen für die stabile Kohärenz anbieten. Sie scheinen damit implizit zu akzeptieren, daß es sich um ein erklärungsbedürftiges Faktum handelt, für das wir nach Erklärungsmodellen suchen sollten. (Diese Zustimmung kann der Skeptiker natürlich, wie oben schon erwähnt, jederzeit auch wieder zurückziehen, wenn ihm die Suche nach Erklärungen zu brenzlig wird.) Wirklich spannend wird es demnach erst für die zweite These (B2), in der die realistische Erklärung als die beste ausgewiesen werden soll. Hier muß man unterscheiden, ob man sich gegen den internen oder den externen Skeptiker wenden möchte. Fangen wir wiederum mit dem internen an, um den Unterschied zwischen den beiden Formen von Skeptizismus noch einmal zu beleuchten. Auch für ihn lassen sich weitere Unterscheidungen treffen. Als interner Skeptiker wird er der Konzeption von Schlüssen auf die beste Erklärung als Wahrheitsindikatoren prinzipiell zustimmen, weil diese Intuition ein zentraler Aspekt unserer epistemischen Überzeugungen ist, aber er könnte Einwände bezüglich ihres Anwendungsbereich erheben. Als einen internen Skeptizismus dieser Art kann man z. B. van Fraassens konstruktiven Empirismus (s. z. B. van Fraassen 1980) beschreiben. Van Fraassen versucht eine Kluft zwischen beobachtbaren und unbeobachtbaren Dingen in der Erkenntnistheorie stark zu machen. Während seiner Meinung nach Schlüsse auf Beobachtbares, auch wenn es nicht beobachtet wird, epistemisch zulässig sind, sind entsprechende Schlüsse auf Unbeobachtbares für ihn erkenntnistheoretisch nicht statthaft. BonJour versucht die Argumente solcher wissenschaftlichen Antirealisten durch eine Reihe kleinerer Einwände gegen ihre Position zu entschärfen, aber er wird damit der umfangreicheren Debatte um den wissenschaftlichen Realismus kaum gerecht. Insbesondere müßte er sich noch einer anderen Diskussion stellen, die durch Wissenschaftshistoriker wie Kuhn und Feyerabend ausgelöst wurde. Die bestreiten, daß sich eine stabile Kohärenz, wie sie in (Bl) von BonJour behauptet wird, in den Wissenschaften tatsächlich feststellen läßt. Wenn die Vertreter einer Inkommensurabilitätsthese Recht behalten und aufeinanderfolgende Theorien in der Wissenschaft miteinander inkommensurabel sind, und sich weiterhin daraus ergibt, daß sie auch nicht in bezug auf einen epistemischen Fortschritt im Sinne einer Vermehrung von Wissen verglichen werden können, entfällt bereits ein Teil von BonJours Prämisse (Bl) eines entsprechenden erklärungsbedürftigen Faktums. Die diachronische Kohärenztheorie der Rechtfertigung erklärt an dieser Stelle sehr schön, wieso der Inkommensurabilitätsdebatte eine so große erkenntnistheoretische Bedeutung zukommt. Ihr Ausgang hat nämlich auch wichtige Auswirkungen auf die Beurteilung unserer nichtwissenschaftlichen Erkenntnis, denn diese ist - nicht zuletzt durch die epistemische Arbeitsteilung - für Rechtfertigungsfragen eng mit unserem wissenschaftlichen Wissen verknüpft. Außerdem stellen die Wissenschaften einen wesentlichen Teil unseres Wissens dar, dessen Stabilität und Kohärenz einen paradigmatischer Testfall für die Stabilitätsbehauptung ausmacht. Für eine rein synchronisch verfahrende Rechtfertigungskonzeption erschiene dagegen die Vorgeschichte unseres Meinungssystems bedeutungslos. Zur Inkommensurabilitätsfrage und auch zur Diskus-

256

VI Metarechtfertigung

sion um den wissenschaftlichen Realismus werde ich in einem wissenschaftstheoretischen Kontext Stellung beziehen. Dabei werde ich für eine realistische Deutung der Wissenschaften und gegen relativistische Deutungen der Wissenschaftsgeschichte plädieren. Das begründet dann (Bl) und liefert die Voraussetzungen, sich mit (B2) zumindest gegen den internen Skeptiker zu wehren. Vor dem Hintergrund, daß gehaltreichere Theorien die besseren Erklärungen anbieten können, 8 scheint die realistische Behauptung (B2) dann gegenüber den skeptischen Erklärungen zu favorisieren sein. Doch dieser Punkt bedarf umfangreicherer Analysen von Beispielen aus den Wissenschaften, die in dem jetzigen Kontext nicht zu leisten sind. Gegen den internen Skeptiker können wir also vermutlich mit Hilfe des Schlusses auf die beste Erklärung etwas erreichen, wenn wir uns auf die entsprechenden wissenschaftsphilosophischen Debatten einlassen. BonJour macht es sich dabei allerdings viel zu leicht. Dieser Erfolg ist für meine Theorie der Rechtfertigung auch nicht unbedingt erstaunlich, weil der Schluß auf die beste Erklärung von ihnen bereits als wahrheitsdienlich auf der Objektebene akzeptiert wird. Warum sollten sie ihn dann auf der Metaebene nicht als Wahrheitsindikator akzeptieren? Zusätzlich tragen die internen Skeptiker die Beweislast für Einschränkungen des Abduktionsschlusses auf bestimmte Bereiche. Weit schwieriger ist wiederum der Umgang mit dem radikalen Skeptiker. Noch einmal: Der könnte zunächst auf der Metaebene den Schluß auf die beste Erklärung als nicht wahrheitsdienlich zurückweisen. Dann bleibt uns auf der Metaebene nichts anderes übrig, als an die Plausibilität der Abduktion appellieren, haben aber keine wirkliche Handhabe gegen den Skeptiker, weil unsere zahlreichen intuitiven Beispiele für erfolgreiche Schlüsse auf die beste Erklärung allesamt seinem radikalen Skeptizismus zum Opfer fallen. Der Skeptiker erscheint damit wieder als unfairer Diskussionspartner, weil er uns auf der Metaebene keine reelle Chance für eine Erwiderung gibt, denn irgendeiner Argumentform müssen wir uns zur Begründung unserer anti-skeptischen Haltung ja schließlich bedienen. Doch leider läßt uns dieser moralische Einwand noch keine erkenntnistheoretischen Pluspunkte sammeln. Überraschenderweise wird der Skeptiker meist nicht ganz so skrupellos dargestellt, sondern er versucht selbst alternative Erklärungen für unsere Wahrnehmungen zu entwerfen, wie daß sie von einem Dämon stammen oder uns von einem Supercomputer eingeflüstert werden. Wenn er sich erst auf das Erklärungsgeschäft eingelassen hat, wird er allerdings prinzipiell anfällig für die BonJoursche Argumentation, und wir wollen nun untersuchen wie groß diese Anfälligkeit tatsächlich ist. Wir können fragen, wer die bessere Erklärung anzubieten hat. BonJour (1985, 179ff) hält die realistische Hypothese für den klaren Sieger, aber auch der Skeptiker hat für die stabile Kohärenz eine Erklärung vorzuschlagen, nämlich, daß uns der Dämon hinters Licht führen will, und das geschieht natürlich am besten anhand einer derartig stabilen illusionären Umgebung. Auf welcher Grundlage können wir dann noch skeptische oder idealistische Hypothesen als minderwertige Erklärungen gegenüber der realistischen zurückweisen? Akzeptiert der Skeptiker auch nur einige unserer gewöhnlichen Annahmen über die Welt dürfte

B. Externe Skepsis

257

seine Hypothese schnell unterliegen, aber gerade das dürfen wir vom radikalen Skeptiker unglücklicherweise nicht erwarten, weil er diese Annahmen allesamt ablehnt. In dieser skeptischen Situation verbleiben wir meines Erachtens ohne den erforderlichen epistemischen Hintergrund, vor dem wir die eine oder andere Erklärung als die bessere bevorzugen könnten. Gegen den Skeptiker sind wir womöglich in einer noch schlechteren Situation als es Moser war (s. III.B.5.b), der mit dem Schluß auf die beste Erklärung auf einer Art von Sinnesdatenbasis basale Überzeugungen begründen wollte. Er scheiterte daran, daß die Beurteilung von Erklärungen nur auf der Grundlage eines umfangreicheren Hintergrundwissens möglich ist. Die Sinnesdaten ohne semantischen Gehalt reichten als Basis für eine Entscheidung nicht aus. Gegen den radikalen Skeptiker haben wir noch weniger in der Hand, auf das wir uns stützen könnten. Wie sollen wir uns dann per Abduktion gegen den Skeptiker wenden? Die Erklärungstheorie, die ich in Kapitel 9 präsentieren werde, gibt zwar auch einige Anhaltspunkte, die realistische Erklärung wegen ihres weit größeren Gehalts zu bevorzugen, doch wiederum ist unklar, wie ich einen radikalen Skeptiker zu dieser speziellen Erklärungstheorie bekehren soll. Sie wird wesentlich durch eine Analyse von Beispielen mitbegründet und stützt sich auf andere epistemische Intuitionen, die der radikale Skeptiker als illusionär einstufen wird. BonJour (1985, 181 ff) bringt deshalb an dieser Stelle a priori Wahrscheinlichkeiten ins Spiel und meint grob gesagt, eine Ausarbeitung der Dämonenhypothese würde ihre apriorische Unwahrscheinlichkeit ans Licht bringen, denn warum sollte der Dämon gerade die vom Skeptiker genannten Ziele haben und nicht eines von den vielen anderen, die ihm als allmächtigen Dämon doch offenstehen? Diese Überlegung wirkt recht gewagt und scheint mir wenigstens aus zwei Gründen fehlerhaft zu sein. Erstens knüpfen diese Überlegungen stark an das an, was wir bereits über die normalen Interessen und Vielgestaltigkeit von intelligenten Lebewesen wissen und sind daher nicht auf der Grundlage einer tabula rasa zu haben. Hier gerät der Einwand in den Verdacht einer petitio principii. Außerdem ist der Einwand auch für sich nicht überzeugend, wissen wir doch, daß es manchen „Lebewesen" - und ganz besonders Dämonen - Spaß macht, Experimente mit anderen Lebewesen auszuführen. Das muß für ihn nicht zu einseitig werden, denn in der Regel wird dieses Experiment nicht sein ganzer Lebensinhalt sein, sondern nur ein kleiner Teil seiner Vergnügungen, von denen der Dämon noch viele andere hat. Zweitens, und hier wird es ernsthafter, zieht BonJour hier einen bekannten und populär erfolgreichen, aber nichtsdestoweniger fehlerhaften statistischen Schluß. Betrachten wir diesen Schluß an einem anderen bekannten Beispiel, in dem er für die Lösung einer anderen Fragestellung mißbraucht wird. Es wird manchmal mit der Unwahrscheinlichkeit, der „zufälligen" Entstehung von Leben für die Existenz eines Schöpfers argumentiert. Der Biologe Monod (1971) unterstützt solche Ansichten unfreiwillig, indem er die Entstehung des Lebens als ein Ereignis mit astronomischer Unwahrscheinlichkeit bezeichnet. Solche Unwahrscheinlichkeiten ergeben sich aber eigentlich immer, wenn wir im nachhinein Wahrscheinlichkeiten für das Vorliegen des gegenwärtigen Zustands berechnen. Wenn wir mit einem Würfel 10 000 mal würfeln,

258

VI Metarechtfertigung

wird irgendeine Ziffernfolge herauskommen. Dafür ist die Wahrscheinlichkeit 1. Wie groß war aber die Wahrscheinlichkeit für gerade diese Folge? Nun genau: (1/6)10 00°. Das ist eine extrem kleine Zahl. Wir waren also im Sinn des betrachteten Schlußverfahrens wieder Zeuge eines astronomisch unwahrscheinlichen Ereignisses, ohne daß es uns so bedeutsam vorkommt (s. dazu Stegmüller 1987 III, 206). Doch tatsächlich wäre es das nur gewesen, wenn wir gerade dieses Ereignis vorhergesagt hätten. Derartige nachträgliche Kalkulationen von Wahrscheinlichkeiten bleiben wertlos, solange man sich nicht auf bestimmte vorher festgelegte Referenzklassen bezieht. Daß irgendeine Folge von Würfelziffern dabei herauskommen würde, war von Anfang an alles andere als erstaunlich. Ähnlich wenig hilfreich sind die nachträglichen Unwahrscheinlichkeitsvermutungen von BonJour für die Interessen des Dämons. Gerade für unsere Kenntnis der Situation, die uns der Skeptiker läßt, sind wir nicht in der Lage, Referenzklassen zu bestimmen, die uns relevante Wahrscheinlichkeitseinschätzungen ermöglichen würden. Eine apriorische Beurteilung von Wahrscheinlichkeiten könnte in dieser Situation eigentlich nur alle aufgezählten Möglichkeiten aus Mangel an weiteren Informationen als gleichwahrscheinlich einschätzen, woraus kein Argument gegen den Skeptiker erwächst. Er kann sich mit zahlreichen skeptischen Möglichkeiten zufrieden zeigen, während wir auf der einen realistischen Deutung bestehen möchten. Der Schluß auf die beste Erklärung ist daher kaum als Waffe gegen den radikalen Skeptiker einzusetzen, weil er nur bei vorliegendem Hintergrundwissen anhand dessen sich eine Beurteilung von Erklärungen vornehmen läßt, eine vergleichende Bewertung erlaubt. Doch die läßt der radikale Skeptiker gerade nicht zu. Unsere Chancen, den Skeptiker tatsächlich zu widerlegen, beurteile ich deshalb trotz der zahlreichen interessanten Überlegungen, die bisher von Philosophen vorgetragen wurden, ähnlich pessimistisch wie Hume (1978, 218): This skeptical doubt, both with respect to reason and the senses, is a malady, which can never be radically cur'd, but must return upon us every moment, however we chace it away, and sometimes seem entirely free from it. 'Tis impossible upon any system to defend either our understanding or senses;

Allerdings ist es nicht in erster Linie mein Ziel, die Gegner des Skeptizismus zu kritisieren, sondern die Skeptiker selbst. Es war nur meine Absicht, die Ausgangslage für meine Haltung gegenüber dem Skeptiker zu erläutern und einzugestehen, daß der von mir so geschätzte Schluß auf die beste Erklärung hier versagen muß. Findet sich entgegen dieser Erwartung doch eine geeignete Widerlegung der skeptischen Bedrohung, bin ich natürlich nur zu gerne bereit, mich ihr anzuschließen.

5. Erkenntnistheoretische Ziele Ehe ich genauer bestimmen möchte, was sich nach dieser pessimistischen Beurteilung noch Sinnvolles vis-à-vis dem Skeptiker sagen läßt, möchte ich einen Schritt zurücktreten und die Ziele etwas genauer klären, die wir mit der Erkenntnistheorie verfolgen. Wir fahnden, so könnte man dieses Gebiet charakterisieren, nach einem Verfahren zur

B. Externe Skepsis

259

Wahrheitssuche. Dieses Verfahren besteht aus einem Abwägen von Begründungen für eine Meinung. Da wir keinen direkten Zugang zur Wahrheit unserer Meinungen besitzen, sind wir auf derartige Wahrheitsindikatoren angewiesen. Der erhoffte Erkenntnisgewinn beinhaltet dabei zwei Ziele: Zum ersten unser Meinungssystem so zu gestalten, daß es möglichst viele wahre und begründete Meinungen enthält, und zum zweiten falsche Meinungen möglichst zurückzuweisen. Wir versuchen, möglichst viele Erkenntnisse über die Welt zu erwerben und dabei Irrtümer, so gut es eben geht, zu vermeiden. Ideal wäre es natürlich, überhaupt keine falschen Meinungen zu akzeptieren, aber dieses Ideal ist offensichtlich kaum erreichbar, und wir können uns nicht sicher vor Irrtum schützen. Wir müssen uns daher auf die bescheidenere fallibilistische Position zurückziehen, daß es Irrtümer unter unseren Überzeugungen geben kann, und wir versuchen sollten, ihren Umfang so gering wie möglich zu halten. Als Fallibilisten müssen wir aber anerkennen, daß im Prinzip jede einzelne unserer Überzeugungen falsch sein könnte und schwören damit der Cartesischen Forderung nach Sicherheit für unsere Meinungen ab. Die beiden Ziele, die wir beim Erkenntnisgewinn verfolgen, die schon William James (1956, Kap. VII) explizit als zwei getrennte Ziele beschrieben hat, lassen sich daher darstellen als Suche nach möglichst vielen Informationen über die Welt und gleichzeitig nach möglichst großer Irrtumsfreiheit. Epistemische Ziele Information Möglichst viele, möglichst empirisch gehaltvolle und epistemisch wertvolle Meinungen über die Welt zu besitzen. Irrtumsfreiheit Möglichst wenige falsche Meinungen über die Welt zu akzeptieren. Das erste Ziel ist selbstverständlich nicht nur so zu lesen, daß man einfach möglichst viele wahre Meinungen zu sammeln braucht, denn wir wollen in der Regel nicht beliebige Erkenntnisse über die Welt, sondern solche, die uns wichtig und gehaltvoll erscheinen. Meinungssammlungen wie: -

Zwei Liter Wasser sind mehr als ein Liter Wasser. Drei Liter Wasser sind mehr als zwei Liter Wasser.

können zwar zu potentiell unendlich vielen wahren Überzeugungen fuhren, aber sie sind kaum besonders informativ. Wie sich der Informationsgehalt von Meinungen bestimmen läßt, ist sicher keine einfache Frage, aber es gibt etwa in der Informationstheorie und auch der Wissenschaftstheorie einige interessante Vorschläge dazu. Die Falsifikationisten z. B. haben das Ziel möglichst riskanter Theorien (möglichst viele potentielle Falsifikationsinstanzen) auf ihre Fahnen geschrieben, was eng damit zusammenhängt, daß diese Theorien informationsreich sind. An dieser Stelle genügt ein intuitives Ver-

260

VI Metarechtfertigung

ständnis von „Informationsgehalt", um einzusehen, daß die bloße Anzahl an Überzeugungen kein geeignetes Maß für unser erstes epistemisches Ziel ist. Für wissenschaftliche Theorien läßt sich der empirische Gehalt in präziser Weise bestimmen, womit ich mich im letzten Teil der Arbeit beschäftigen werde (s. VII.C.9). Mit „epistemisch wertvoll" sind natürlich insbesondere die Meinungen angesprochen, die wesentlich zur Kohärenz unseres Überzeugungssystems im Sinne von KTR beitragen. Diese Forderung überschneidet sich ein wenig mit der nach hohem Informationsgehalt, ist aber spezifischer für ein bestimmtes Überzeugungssystem als diese. Auf der anderen Seite streben wir nicht einfach nach vielen informativen Annahmen über die Welt, sondern möchten dabei möglichst nur wahre oder jedenfalls so wenig falsche Annahmen wie möglich unter unseren Meinungen wissen. Auch für dieses zweite Ziel ist eigentlich wiederum eine Gewichtung erforderlich. Einige Irrtümer sind für uns schwerwiegender als andere. Das ist nicht nur auf Personen relativiert zu verstehen, wonach für jeden bestimmte Überzeugungen wichtig sind, sondern hat auch eine stärker theoretische Komponente, wonach bestimmte Meinungen, etwa aufgrund ihres Allgemeinheitsgrads, eine zentralere Position in unserem Überzeugungssystem einnehmen und stärkere Auswirkungen auf andere Überzeugungen haben. So führt die Annahme eines radikalen Skeptikers, wir wären Gehirne in einer Nährflüssigkeit und würden unseren Input von einem Computer erhalten, zu einer Umdeutung nahezu aller unserer Ansichten über die Welt. Die praktischen Folgen sind vermutlich nur deshalb nicht so bedeutend, weil wir die skeptischen Annahmen nicht wirklich glauben, während ein Irrtum bezüglich der Vornamen von Cicero im allgemeinen nicht derartig weitreichende Schlußfolgerungen auf andere Teile unseres Meinungssystems zuläßt. Erst diese Qualifizierungen der epistemischen Ziele machen letztlich deutlich, worum es uns beim Erkenntniserwerb geht. Wie auch immer sie ausgestaltet werden, dürfte erkennbar sein, daß die beiden Ziele in einem Spannungsverhältnis zueinander stehen. Da es uns nicht gelingt, sicheres Wissen über die Welt zu erlangen, sind wir mit jeder Meinung, die wir zusätzlich akzeptieren, gezwungen, ein höheres Irrtumsrisiko einzugehen, das um so höher liegt, je informativer die jeweilige Meinung ist. Je konkretere Aussagen der Wetterbericht über das Wetter von morgen macht, desto größer ist ceteris paribus auch die Wahrscheinlichkeit, daß sie nicht zutreffen. Sobald man eines der beiden Ziele völlig vernachlässigt, wird die Erfüllung des anderen trivial. Um möglichst viele Überzeugungen zu akzeptieren, könnte ich, wenn ich vom Problem der falschen Meinungen absehe, einfach alle möglichen Aussagen akzeptieren. Das zweite Ziel läßt sich hingegen optimal erreichen, indem ich mich jeder Meinung enthalte. Genau für diesen zweiten Vorschlag macht sich der Skeptiker stark. Seiner Meinung nach verfügen wir für keine unserer Meinungen tatsächlich über epistemische Gründe und sollten uns daher aller Annahmen über die Realität enthalten. Der Skeptiker gewichtet dabei das zweite Ziel so hoch, daß er für die Erfüllung des ersten keinen Raum mehr läßt. Das muß jedenfalls unsere Konklusion sein, wenn wir die bekannten Erwiderungen auf den Skeptiker und Diagnosen des Skeptizismus nicht für erfolgreich halten.

B. Externe Skepsis

261

6. Eine Entscheidung gegen den Skeptiker Wenn wir über keine epistemischen Gründe für eine Zurückweisung des Skeptikers allerdings auch nicht des Realisten - verfugen, müssen wir uns mittels anderer Überlegungen zwischen Skeptizismus und Anti-skeptizismus entscheiden. Das beinhaltet eine Gewichtung zwischen den beiden genannten epistemischen Zielen. Eine solche Entscheidung soll keine bloß pragmatische Entscheidung sein, da sie nicht primär an praktischen Zielen oder Bedürfnissen orientiert ist, sondern auf einer theoretischen Ebene stattfinden, denn die beiden genannten Ziele sind die theoretischen Ziele der Erkenntnistheorie selbst; trotzdem handelt es sich nichtsdestoweniger um eine Wertentscheidung. Gegen den Skeptiker möchte ich die Bedeutung des ersten Ziels stärker betonen. Die Suche nach informativen Erkenntnissen über die Welt ist für die Erkenntnistheorie zu wichtig, als daß wir sie dem zweiten Ziel ganz opfern dürften. Nur eine Ablehnung der radikalen skeptischen Haltung kann zu einem fruchtbaren Forschungsprogramm führen, in dem wir ein gehaltvolles Bild unserer Welt erhalten, das nicht vollkommen willkürlich ist. Der Skeptiker kann seine Hypothesen dagegen nur auf willkürliche Weise ausbauen, weil er die einzigen Indizien, die wir für die Beschaffenheit der Welt zu besitzen scheinen, unsere sich spontan einstellenden Beobachtungsüberzeugungen, nicht ernst nimmt. Für jede Vermutung, wie sich seine skeptische Hypothese entfalten läßt, welche Eigenschaften wir etwa dem Dämon und seiner Umwelt zuschreiben, hat er in der skeptischen Situation keine überprüfbaren Anhaltspunkte mehr anzubieten, sondern nur noch seine Phantasie. Der hier beschriebene Kohärenztheoretiker läßt sich demgegenüber von gewissen spontanen Meinungen, die sich als Beobachtungsinput deuten lassen, inhaltlich leiten und versucht sein Bild der Welt aus seiner Innenperspektive zu entwickeln. Dabei knüpft er im Sinne des epistemologischen Konservatismus immer an das an, was er bisher schon glaubte. Doch er vertraut seinen Meinungen keineswegs blind. Es ist ihm klar, daß er nicht über sicheres Wissen und auch nicht über eine sichere Basis für Wissen verfügt. Jede eingehende Information wird anhand von Kohärenztests auf ihre Glaubwürdigkeit geprüft, und auch das dafür eingesetzte Hintergrundwissen wird ständigen Prüfungen unterworfen. Der Skeptiker wird ebenso mit spontan auftauchenden Meinungen konfrontiert werden. Er steht aber auf der Ebene seiner epistemischen Überzeugungen nicht dazu, sondern verwirft sie als Vorspiegelungen eines Dämons. Nur der Anti-Skeptiker steht auch auf der Ebene der MetaÜberzeugungen hinter seinen Überzeugungen erster Stufe und fällt sich dort nicht selbst immer wieder in den Rücken mit der epistemischen Vermutung, alle seine Meinungen erster Stufe seien falsch. Der radikale Skeptiker muß seine spontan auftauchenden Beobachtungsüberzeugungen tatsächlich jedesmal bekämpfen, ohne besondere Anhaltspunkte dafür zu haben. Schon das scheint mir eine recht paradoxe Situation für die Entwicklung unseres Meinungssystems zu sein.

262

VI Metarechtfertigung

Das zweite epistemische Ziel der möglichst wenigen Irrtümer soll im Rahmen der Kohärenztheorie dadurch berücksichtigt werden, daß man immer den internen Skeptiker zu Wort kommen läßt, der anhand interner Kohärenzüberlegungen jede unserer Meinungen in Frage stellen kann. Die interne Skepsis bietet daher eine wertvolle Hilfe für eine Abwägung zwischen den beiden erkenntnistheoretischen Zielen, die der externe Skeptiker nicht vornehmen kann. Er rät uns schlicht, alle unsere Meinungen aufzugeben, und das ohne uns irgendeinen Ersatz für die Aufgabe all unserer Meinungen im Hinblick auf das erste epistemische Ziel anzubieten. Wir sollten uns daher gegen radikale skeptische Hypothesen entscheiden zugunsten einer stärkeren Betonung des 1. Ziels der Erkenntnistheorie und damit das einzige interessante Forschungsprogramm ergreifen, das sich uns bietet. Da die skeptischen Hypothesen in der Regel kausale Hypothesen über den Ursprung unserer Meinungen sind, können wir die Entscheidung gegen den radikalen Skeptizismus auch in positiver Form vornehmen, als eine Entscheidung für die Überzeugung zweiter Stufe, daß unsere spontanen Meinungen im allgemeinen zuverlässige Informationen über unsere Umgebung liefern, oder anders ausgedrückt, daß wir in einem geeigneten kausalen Kontakt zur Welt stehen. Das läßt sich in erster Näherung so beschreiben: Kausaler Kontakt (KK) Mein kausaler Kontakt zur Außenwelt ist so beschaffen, daß meine spontanen Beobachtungsüberzeugungen in vielen Fällen in relativ zuverlässiger Weise über die Welt um mich herum Auskunft geben. Sollte die Annahme (KK) wesentlich falsch sein, wird es uns wohl mit keiner noch so phantasievoll ersonnenen Erkenntnistheorie gelingen, zuverlässige Erkenntnisse über die Welt zu gewinnen. Diese Behauptung ist meines Erachtens der wahre Kern der empiristischen Erkenntnistheorie, den wir beibehalten sollten. Nicht in Form apriorischen Wissens, sondern als metatheoretische Hypothese, die notwendig ist, um uns zu den Einwänden des radikalen Skeptikers zu verhalten. Dabei kommt dem Wort „kausal" eigentlich keine wichtige Rolle außer einer didaktischen zu, aber das wird erst in dem Kapitel über eine deflationäre Theorie der Kausalität deutlicher werden (s. VIII.C.2.e). Die Annahme (KK) kann natürlich intern auch begründet werden und ist eine empirische Annahme, gegen die intern tatsächlich empirische Gründe sprechen können, die letztlich sogar zu ihrer Aufgabe fuhren könnten. Im Fall von Träumen entscheiden wir uns dafür - wenn auch meist nicht zur gleichen Zeit wie wir träumen - unsere „Wahrnehmungen" nicht als geeignete Informationen über unsere Umwelt zu akzeptieren. Ulises Moulines (1993) beschreibt zu diesem Zweck nach der Geschichte von Pedro Calderön de la Barca „Das Leben ein Traum" den Fall des Königssohns Sigismund, der in Ketten in einem Turm aufwachsen muß, weil sein Vater ihn aufgrund einer astrologischen Prophezeiung fürchtet. Zu Probezwecken wird er aber gelegentlich in tiefem Schlaf in den Palast gebracht, in dem er als Prinz aufwacht. Weil sich die Prophezeiungen jedoch zu erfüllen scheinen, muß er dann doch immer wieder - jeweils im Schlaf-

B. Externe Skepsis

263

in seinen Turm zurückgebracht werden. Daher glaubt er auch später, nachdem er durch eine Revolution befreit wurde, immer noch zu träumen. Für ihn muß mindestens eine der beiden ftir ihn unverbundenen Welten als bloße Illusion erscheinen. Diese Fällen lassen sich natürlich beliebig ausbauen - dafür sind aber Science Fiction Autoren wohl findiger - , so daß es uns schließlich nicht mehr gelingt, ein kohärentes Bild unserer Außenwelt zu erstellen. Dann würde wir uns letztlich dazu genötigt sehen, die Annahme einer Außenwelt als Verursacher unserer Meinungen aufzugeben. Die Existenz der Außenwelt ist daher eine empirische Hypothese, die durch die Erfahrung zu Fall gebracht werden kann - und das sogar in Fällen wie dem von Sigismund, wo sie eigentlich zutreffend ist. Wir können entsprechende Überlegungen wie die, die meine Entscheidung gegen den Skeptiker tragen, auch als ein entscheidungstheoretisches Problem formulieren. Gehen wir der Einfachheit halber von zwei Möglichkeiten aus, obwohl sich natürlich auch Zwischenstufen formulieren ließen: (Hl) Eine der radikalen skeptischen Hypothesen ist wahr. (H2) Alle radikalen skeptischen Hypothesen sind falsch und bedeutende Teile unseres Überzeugungssystems wahr. Um den „erkenntnistheoretischen Erwartungswert" dieser konkurrierenden epistemischen Forschungsprogramme zu bestimmen, überlegen wir uns, welcher Gewinn oder Verlust (orientiert an den beiden Zielen der Erkenntnistheorie) in beiden Fällen zu verzeichnen ist. Beginnen wir mit (Hl). Im Fall von (Hl) haben sowohl der Skeptiker wie auch Vertreter von KTR kaum wahre Meinungen über die Welt aufzuweisen. Der Skeptiker kann die eine metatheoretische Überzeugung für sich verbuchen, daß er so etwas befurchtet hatte. Er wird aber kaum unter den vielen denkbaren skeptischen Hypothesen die zutreffende ermitteln können und sie schon gar nicht informativ ausgestalten können, indem er uns etwa Interessantes über den Dämon und dessen Leben zu berichten wüßte. Er hat also ebensowenig wie der Realist von dieser Möglichkeit größere erkenntnistheoretische Gewinne zu erwarten. Der Vertreter von KTR hat darüber hinaus allerdings noch einige Verluste zu verzeichnen, nämlich eine Reihe von falschen Überzeugungen, eben alle unsere gewöhnlichen Meinungen über die Welt. Das ist für den Skeptiker nicht so klar. Wenn er ehrlich ist, muß er eigentlich zugeben, daß er die meisten unserer Überzeugungen erster Stufe auch geteilt hat und er nur auf der Metaebene den bereits genannten Pluspunkt verbuchen kann. Anderenfalls, wenn er sich in völliger Enthaltsamkeit bezüglich aller Meinungen übt, kann, wie oben bereits vermerkt, eingewandt werden, daß er dadurch unverständlich wird; denn damit seine Meinungen überhaupt eine Bedeutung besitzen können, müssen seine Begriffe anhand einiger Meinungen, wenigstens den entsprechenden Stereotypen dieser Begriffe, gedeckt sein. Für (Hl) sieht die Bilanz dann wie folgt aus: Der Skeptiker hat praktisch keine Gewinne und fast genauso wie der Vertreter von KTR etliche Verluste aufzuweisen.

264

VI Metarechtfertigung

Anders ist es im Fall (H2). Der Skeptiker hat wieder weder große Verluste noch irgendwelche Gewinne aufzuweisen, während jetzt der KTR Proponent immense Gewinne bei nur kleinen Verlusten verbuchen kann. Der Anti-Skeptiker setzt also auf eine risikoreichere Strategie, bei der man viel gewinnen und auch einiges verlieren kann, während der Skeptiker fast jedem Risiko aus dem Wege geht, aber auch nichts zu gewinnen hat. Mir scheint es dabei fraglich, ob man den möglicherweise größeren „Verlusten" des Realisten im Falle von (Hl) große Bedeutung beilegen sollte. Wenn eine der radikalen skeptischen Hypothesen wahr ist, sind praktisch alle unsere Meinungen falsch, ob wir nun Skeptiker sind oder nicht, und keine Erkenntnistheorie kann für diesen Fall hilfreiche Anmerkungen abgeben. Wichtiger scheint mir der zweite Fall zu sein, und auf den müssen wir uns mit unserer Erkenntnistheorie vorbereiten, um uns die dort möglichen Gewinne nicht entgehen zu lassen. Da wir über keine Wahrscheinlichkeitsschätzungen für (Hl) und (H2) verfügen, können wir keine Entscheidung anhand eines Erwartungswerts treffen, sondern nur eine unter Unsicherheit. Dafür gibt es bekanntlich nicht nur eine rationale Strategie, sondern ein Kontinuum von möglichen Strategien. Es ist auch nicht klar, welches Ergebnis etwa die Regel Maximin, nach der man sich für die Option entscheiden sollte, bei der der kleinste mögliche Nutzen maximal ist, zeitigen würde. Das hängt davon ab, wie man die entgangenen Möglichkeiten für wahre Meinungen im Fall (H2) und die Möglichkeit von falschen Meinungen in (Hl) epistemisch gegeneinander abwägt. Die Entscheidung für oder gegen den radikalen Skeptiker kann aus erkenntnistheoretischer Perspektive also nicht anhand einfacher Regeln als rational oder irrational bezeichnet werden. Ich plädiere für die risikofreudigere Variante des Anti-Skeptikers (mit den Vorbehalten des Fallibilisten), da nur so Erkenntnisse über die Welt zu erhalten sind und die Verluste des Anti-Skeptikers für (Hl) mir relativ unbedeutend scheinen. Die Entscheidung für Erkenntnisse mit Risiko und gegen den Skeptiker ist aber auch in dieser Darstellung eine Wertentscheidung zugunsten einer optimistischeren Strategie gegenüber der pessimistischen. Daß man vor eine derartige Wahl gestellt wird, ist nicht untypisch für Entscheidungen unter Unsicherheit. Vor dieser Wahl stehen z. B. auch die Rawlsschen Entscheidungsträger im Urzustand ohne Lüftung ihres Schleiers des Nichtwissens. Sie würden sich nach Rawls mit Maximin für die vorsichtigere Strategie entscheiden, aber auch das ist nicht unkontrovers und natürlich nicht auf unseren Fall übertragbar, weil die im Urzustand auftretenden Risiken eine ganz andere Bedeutung für unser Leben besitzen, als die epistemischen Risiken unserer Entscheidung für eine erkenntnistheoretische Vorgehensweise. Wenn sich also auch aus rein epistemischer Perspektive keine zwingenden Gründe für oder gegen den radikalen Skeptiker angeben lassen, sondern eine Entscheidung unter Unsicherheit notwendig wird, so sind doch die Gründe pragmatischer Art gegen den Skeptiker sofort offensichtlich, und ich möchte sie noch einmal erwähnen. Für den Fall (Hl) kann es uns ziemlich gleichgültig sein, ob wir uns aller Meinungen enthalten oder lauter falsche haben, denn in diesem Fall ist für unser Leben auch durch falsche Überzeugungen nicht viel zu verlieren; wir werden als uns Anti-Skeptiker vermutlich sogar

B. Externe Skepsis

265

besser fühlen. Im Fall (H2) hingegen, fuhrt die Strategie des Skeptikers zu einem kognitiv armseligen wenn nicht sogar recht kurzen Leben, weil er nicht auf der Grundlage von Meinungen über die Welt entscheiden und handeln kann. In diesem für uns bedeutsamen Fall ermöglicht allein eine anti-skeptische Strategie ein interessanteres und besseres Leben, in dem wir uns bewußt und mit Gründen in unserer Umwelt entscheiden und danach handeln können. In modernerer Terminologie könnte man auch sagen: Der Skeptiker möchte uns auf ein Forschungsprogramm festlegen, von dem wir schon wissen, daß es zu keinen Erkenntnissen fuhren wird, während der Anti-Skeptiker ein Forschungsprogramm favorisiert, das uns ein reichhaltiges Bild der Welt verspricht, aber nicht ausschließen kann, daß wir dabei einer Chimäre nachjagen. Die Strategie des Skeptikers läßt sich mit einer Wettervorhersage vergleichen, die um keinen Preis falsche Vorhersagen machen möchte, und weil bei jeder nicht gehaltsleeren Aussage bekanntlich eine Irrtumsmöglichkeit besteht, sich einfach entschließt, gar keine Vorhersagen mehr zu geben, außer solchen wie: Morgen regnet es oder es regnet nicht. Das Ziel der Irrtumsvermeidung wird dabei überbewertet und das der Wettervorhersage kommt zu kurz. Unser Motto sollte also nicht das des Skeptikers sein, lieber keine Aussage zu glauben, als auch nur eine falsche, sondern im Vordergrund sollte das Ziel stehen, auch unter Risiken, Erkenntnisse über die Welt zu sammeln. Damit das nicht unmäßig oder willkürlich wird, bietet KTR dafür Beschränkungen an. Es tauchen spontane Meinungen auf, die in unser Überzeugungssystem in vielfältiger Weise kohärent integriert werden müssen. Das betrifft sowohl ihre Entstehung wie auch ihren Inhalt. Dazu kommen interne Kohärenzchecks, die etwa durch interne Kritiken, aber auch unsere Wissenschafts- und Erkenntnistheorie motiviert werden können. Die Kohärenzforderungen in KTR verhindern den allzu leichtfertigen Einbau neuer Annahmen in unser Überzeugungssystem. Z. B. Überzeugungen über Ufos und Dämonen haben einen schweren Stand, wenn sie in unsere Meinungssysteme gemäß KTR aufgenommen werden möchten, weil sie meist ein isoliertes Subsystem bilden, das die Gesamtkohärenz des Systems herabsetzt. Auf der anderen Seite bringen allein die Berichte über Ufos schon eine Inkohärenz in unser System, die nach einer Kohärenzerhöhung durch Erklärungen, wie es dazu kommen konnte, verlangt. Gelingt es nicht, diese Inkohärenz auf andere Weise zu beseitigen, so kann das letztlich auch zur Anerkennung der Existenz von Ufos führen. Das Überzeugungssystem schottet sich unter KTR also nicht dogmatisch ab, sondern weist höchstens eine gewisse generelle Trägheit auf, was die Aufnahme von Fremdkörpern betrifft, die nicht gut hineinpassen. Sollte z. B. geklärt werden, daß die bekannten magischen Kreise in Kornfeldern von Witzbolden angelegt wurden, um uns an der Nase herumzufuhren, ist damit die Kohärenz wiederhergestellt, ohne daß es großer Revisionen des bisherigen Systems bedurft hätte. Daher ist diese Option sicher eine zunächst naheliegende Vermutung, die ohne weitere Informationen von unserem Überzeugungssystem am ehesten gedeckt ist. Gelingt es dagegen nicht, entsprechende Erklärungen kohärent in unsere Meinungen einzupassen, oder können sie sogar ausgeschlossen werden, kommen in

266

VI Metarechtfertigung

KTR letztlich auch unbekannte Kräfte und schließlich sogar die Annahme der Existenz Außerirdischer in Frage. Zum Schluß möchte ich noch kurz auf einige bekannte Einwände gegen verwandte Vorgehensweisen eingehen. Schon William James tritt in The Will to Believe (1956) für Entscheidungen in epistemischen Fragen ein, für die wir keine hinreichenden erkenntnistheoretischen Entscheidungsgründe besitzen. Sein Vorgehen unterscheidet sich aber dennoch in wesentlichen Aspekten von meinem. James wendet die Möglichkeit, sich für bestimmte Meinungen zu entscheiden, viel freizügiger und vor allem in moralischen und religiösen Fragen an. Ihm geht es nicht nur um eine erste grundsätzliche Entscheidung zwischen totalem Skeptizismus und einer anti-skeptischen Haltung in einer Frage, in der wir der Natur der Sache nach für keine Seite über epistemische Entscheidungsgründe verfugen, sondern auch um Entscheidungen in vielen weiteren Fällen wie etwa religiösen Fragen. Russell (1978, 823f) versucht an einigen Beispielen zu erläutern, zu welch willkürlichen Annahmen und relativistischen Ansichten dieser freizügige Umgang mit Entscheidungen in der Erkenntnistheorie fuhren kann. Mit der Entscheidung für die Annahme (KK) ist ein solcher Relativismus natürlich nicht impliziert, denn für alle weitergehenden Annahmen sind in KTR keine Entscheidungen für Überzeugungen ohne epistemische Gründe mehr vorgesehen, sondern nur noch solche, auf der Grundlage von Kohärenz. Dabei wird selbstverständlich nicht ausgeschlossen, daß wir in manchen Fällen für Aussagen p keine epistemische Entscheidung zwischen p und non-p treffen können, und uns der Übernahme beider Möglichkeiten enthalten, weil gerade das angesichts der epistemisch gleichwertigen Alternative am ehesten zu Kohärenz in unserem Meinungssystem führt. Auch Russells (1980, 67f) Vorwurf gegen James, eine entsprechende Entscheidung könnte die Wissenschaft behindern, weil man nicht bereit sei, sie wie eine Arbeitshypothese in der Wissenschaft zu revidieren, paßt auf die hier getroffene Entscheidung nicht. Erstens ermöglicht sie erst die Wissenschaft und zweitens wird sie als Arbeitshypothese aufgefaßt, die dann aufgegeben wird, wenn unsere spontanen Meinungen kein kohärentes Weltbild mehr erlauben. Entsprechendes gilt für Vergleiche mit der berühmten Pascalschen Wette, wie sie Watkins (1984, 36ff) für eine verwandte pragmatische Vorgehensweise zieht. Im Fall der Pascalschen Wette, ist man darauf angewiesen, den jeweiligen praktischen Nutzen der unterschiedlichen Optionen (an Gott glauben oder nicht) zu ermitteln. Dazu benötigt man natürlich eine Menge an Hintergrundwissen etwa über Gottes Vorlieben, über die wir angesichts der Unbegreiflichkeit Gottes dort nicht verfügen. So könnte Gott z. B. die aufrechte Art des Atheisten der kleinkrämerischen und berechnenden Entscheidung Pascals vorziehen. Auf derartige inhaltliche Annahmen bin ich an dieser Stelle natürlich nicht angewiesen, weil ich keine praktischen Konsequenzen zu berechnen habe. Die Alternativen liegen bereits in Form der ausgearbeiteten Meinungssysteme auf dem Tisch, und der Maßstab der Beurteilung sind die genannten epistemischen Ziele.

C. Resümee

267

C. Resümee Der radikale Skeptiker, der unsere Meinungen als Ganzes in Frage stellt und ihre Rechtfertigung von einem externen Standpunkt aus verlangt, stellt damit Anforderungen an uns, denen wir nicht genügen können. In jedweder Begründung müssen wir uns immer wieder auf einige andere unserer Meinungen stützen. Von einem solch externen Standpunkt aus, verfugen wir daher über keine epistemischen Entscheidungsgründe mehr, die uns den Weg weisen können, sondern sind auf eine Wertentscheidung und Gewichtung zwischen den zwei epistemischen Zielen des möglichst umfassenden Informationsgewinns und der weitgehenden Vermeidung von Irrtümern angewiesen. Der Skeptiker betont ganz das letztere und nimmt dafür in Kauf, daß wir uns für den Fall, daß unsere realistische Sicht der Welt und unserer kausalen Kontakte zu ihr im wesentlichen richtig sind, aller Informationsmöglichkeiten begeben. Gerade für diesen Fall sind aber Erkenntnistheorien für uns interessant. Sind wir nur die Spielbälle eines bösen Dämons, können wir von keiner Vorgehensweise zur Pflege unseres Meinungssystems Erkenntnisse erwarten. Wir sollten uns daher gegen den Skeptizismus entscheiden, weil wir nur so hoffen können, ein gehaltvolles Bild der Welt zu gewinnen. Diese Form der Entscheidung gegen den Skeptiker, für die ich hier eintrete, ist auch der ehrlichere Weg gegenüber etwa dem der Externalisten, dem unangenehmen Skeptiker durch einen Themawechsel entkommen zu wollen. Der stellt natürlich auch eine Entscheidung dar, nämlich gegen die klassischen Fragestellungen. Ebenso unredlich erscheint es mir, sich den skeptischen Fragen als unsinnigen Fragen schlicht zu verschließen. Statt dessen werden die skeptischen Einwände als durchaus verständlich akzeptiert und erkannt, daß es in der radikalen skeptischen Situation eigentlich keine überzeugende Widerlegung des Skeptikers geben kann. Man ist gezwungen, sich für ein erkenntnistheoretisches Programm anhand der zwei obersten Ziele der Erkenntnistheorie zu entscheiden.

Anmerkungen zu Kapitel VI 1

Auch Watkins konzentriert sich in (1984) ganz darauf, dem Humeschen Skeptiker Paroli zu bieten. Haack (1993, 84ff) erläutert diesen holistischen Zusammenhang anhand der Lösung eines Kreuzworträtsels, bei der die Richtigkeit jeder Eintragung aufgrund ihres Zusammenpassens mit den anderen Eintragungen ermittelt wird. Lipton (1991, 159f) gibt uns das Beispiel einer Landkarte, von der wir zunächst nicht wissen, ob sie ein bestimmtes Gebiet korrekt wiedergibt. Aber je mehr Teilgebiete sich als zutreffend herausstellen, desto mehr Grund haben wir anzunehmen, daß die ganze Landkarte stimmt. 3 Die folgenden Bedingungen sollen mein Verständnis des Fallibilismus erläutern und nicht etwa Poppers Erkenntnistheorie darstellen. 4 Diese Komponente stellt auch ein tieferliegendes Problem für eine Explikation von „Wissen" dar, denn in anderen umgangssprachlichen Verwendungen des Begriffs sprechen wir auch von Wissen, ohne daß eine entsprechende Gewißheit vorliegt. Der Wissenstheoretiker möchte sich deshalb und aus theoretischen 2

268

VI

Metarechtfertigung

Gründen gern von der Gewißheitsforderung befreien. Es ist aber schwer zu sehen, wie er dann auf der anderen Seite mit den skizzierten Intuitionen, daß Wissen Gewißheit impliziert, umgehen soll. 5 Audi (1993, 356ff) belegt anhand von Beispielen, daß ein entsprechendes Prinzip der deduktiven Abgeschlossenheit für Rechtfertigungen nicht gilt. Eine derartiges Prinzip müßte sich übrigens auch wieder auf die schon abgelehnte lineare Vorstellung von Rechtfertigungen stützen. 6 Auch diesen Punkt kann man eventuell gegen den Skeptiker wenden. Williams „Unnatural Doubts" kann als ein längeres Argument gelesen werden, daß der Skeptiker an dieser Stelle einen Fundamentalismus voraussetzt und somit schon in seiner Frage eine falsche theoretische Annahme macht, die es uns gestattet, die Frage schließlich zurückzuweisen. Der Skeptiker kann sich aber unter anderem mit der Ansicht wehren, daß man ihn nicht zu Recht auf eine antifundamentalistische Erkenntnistheorie festlegen könne. 7 Lipton (1991, 158ff) gibt zu, daß wir uns mit Hilfe der Abduktion nicht gegen den Skeptiker wenden dürfen, da wir dann einen Zirkelschluß begehen, aber er versucht zu zeigen, daß sie aus interner Sicht trotzdem eine wichtige Bestätigung unserer realistischen Auffassung der Außenwelt darstellt. Das ist intuitiv für ihn ähnlich überzeugend, wie der Hinweis, daß sich ein Vorgehen nach konservativen Induktionsprinzipien bisher sehr bewährt hat. Den Induktionsskeptiker läßt das natürlich kalt, aber uns „gewöhnlichen Menschen" erscheint das dennoch als plausible Stützung unserer Ansicht. Es ist ein weiterer interner „Kohärenzcheck". 8 Diese Behauptung wird im 3. Teil erläutert und begründet.

VII Wissenschaftliche Theorien

Menschliche Erkenntnisse sind in dem bisher skizzierten epistemischen Bild zunächst in bezug auf ihre Allgemeinheit hierarchisch geordnet. Dazu kommt eine Einordnung in Metaebenen und darüber hinaus sind sie in einem komplexen Netz erkenntnistheoretischer Beziehungen vielfältig miteinander verknüpft. Für den Empiristen, der den Aufbau nach Allgemeinheitsgraden im wesentlichen mit einer erkenntnistheoretischen Einstufung identifiziert, bilden die Beobachtungsaussagen als Grundlage aller Erkenntnisse den natürlichen Ausgangspunkt für eine erkenntnistheoretische Analyse. Für die höheren Stufen stellt sich dann in bezug auf ihre Begründung „nur" noch die Frage, inwieweit sie durch die Beobachtungsaussagen gedeckt sind. Für den Kohärenztheoretiker gibt es dagegen nicht mehr einen Typ epistemisch primärer Aussagen, dem eine ähnliche Stellung zukäme und vor allem auch keine Entsprechung von Begründungsebenen und Allgemeinheitsgraden. Eine ausgezeichnete epistemische Stellung nehmen für ihn sogar eher die allgemeineren Aussagen oder Theorien ein, denn ihnen verdanken wir schließlich die Verknüpfung unserer Überzeugungen zu einem Netz von rechtfertigenden Zusammenhängen. Es ist deshalb nur naheliegend, daß ein Kohärenztheoretiker anders als ein Empirist eine Analyse von Theorien ins Zentrum seiner Erkenntnistheorie stellt. Die dafür erforderlichen Hilfsmittel möchte ich in diesem Kapitel bereitstellen, wobei ich mich auf ausgearbeitete wissenschaftliche Theorien konzentrieren werde, da sie im Unterschied zu Alltagstheorien explizit vorgegeben sind. Die vielleicht wichtigste Frage für den Kohärenztheoretiker ist dabei: Wie können unsere Theorien die ihnen auferlegte Systematisierungsleistung überhaupt erbringen? Sind sie einfach Klassen von Allsätzen, aus denen sich die spezielleren Aussagen deduzieren lassen, wie z. B. Popper und andere Wissenschaftstheoretiker es annehmen? Beginnen möchte ich die Untersuchung mit einer einfachen Beobachtung, die mir leider typisch für die philosophische Beschäftigung mit den Naturwissenschaften zu sein scheint. Schaut man in ein Physiklehrbuch (ein echtes, nicht ein populärwissenschaftliches) oder noch besser entsprechende Fachzeitschriften, wird man von einer großen Fülle von Fakten geradezu „erschlagen". Da sind zahllose Meßwerte, Gleichungen und Zusammenhänge zwischen Gleichungen, Ableitungen und viele andere Überlegungen in einem bunten Gemisch zu finden. Wie soll man zu zuverlässigen metatheoretischen Aussagen über eine solch scheinbar amorphe und unübersichtliche Menge von Aussagen kommen? Es verwundert angesichts dieses Problems nicht, daß Wissenschaftstheoreti-

270

VII Wissenschaftliche Theorien

ker und auch Wissenschaftshistoriker Theorien häufig stark vereinfacht darstellen. Oft begnügen sie sich mit nur wenigen Verweisen auf bestimmte Grundgleichungen, oder kaprizieren sich in ihrer Darstellung auf ein bestimmtes Phänomen, das die Theorie beschreibt und das sie für charakteristisch halten, wie z. B.: „Die Lichtgeschwindigkeit im Vakuum begrenzt in der Relativitätstheorie alle Geschwindigkeiten für Massen". Doch dabei gehen wichtige Aspekte dieser Theorien verloren. Um die Theorien nun in einer für wissenschaftstheoretische Analysen geeigneten Form überschaubar zu präsentieren, ist sicherlich eine Rekonstruktion notwendig, die eine logische Ordnung in die Formulierung der Theorien bringt. Andererseits benötigen wir jedoch auch eine Darstellung, die alle wesentlichen Aspekte der Theorie berücksichtigt, um ein einigermaßen realistisches Bild wissenschaftlicher Theorien zu zeichnen. Um nur eine Gefahr für wissenschaftstheoretische Untersuchungen beispielhaft zu nennen: In zu stark vereinfachenden Betrachtungen geht ein für Kohärenztheorien bedeutsames Merkmal der naturwissenschaftlichen Erkenntnis verloren, nämlich ihr hoher Vernetzungsgrad. Die vielen Fakten bilden ein sehr komplexes Netz von sich gegenseitig stützenden Aussagen, wobei sich Aussagen von unterschiedlichem Status, mit unterschiedlichen Funktionen und Gewicht identifizieren lassen. Wenn diese Zusammenhänge außer acht bleiben, erliegen wir z. B. leichter relativistischen Einwänden. Ohne die Komplexität des Netzes mit den vielen gegenseitigen Absicherungen sind schnell alternative Theorien zu finden, die uns epistemisch gleichwertig erscheinen. Für das tatsächliche hochkomplexe Netzwerk von wissenschaftlichen Hypothesen und Begründungen erscheint es dagegen weit utopischer, daß sich solche Alternativen konstruieren lassen.1 Eine Metatheorie der Wissenschaften steht daher im Spannungsfeld zwischen den beiden entgegengerichteten Anforderungen, Ordnung in der amorph erscheinenden Vielfalt wissenschaftlicher Äußerungen sichtbar werden zu lassen und zugleich die innere Komplexität nicht durch willkürliche Beschränkung auf wenige Aspekte einfach über Bord zu werfen.

A. Die Entscheidung für den Strukturalismus Aus den verschiedenen Ansätzen, um unser wissenschaftliches Wissen metatheoretisch zu repräsentieren, habe ich mich aus unterschiedlichen Gründen, von denen ich nur einige in diesem Abschnitt erläutern möchte, für die sogenannte strukturalistische Auffassung wissenschaftlicher Theorien entschieden. Sie geht auf den modelltheoretischen Ansatz von Suppes und Sneed zurück und wurde in den letzten Jahren von Stegmüller und anderen weiterentwickelt. Die Gründe für meine Entscheidung zerfallen in zwei Klassen: die pragmatischen und die inhaltlichen; zunächst zu einigen pragmatischen Gründen. Im Unterschied zu Auffassungen der logischen Empiristen beschränkt sich der Strukturalismus nicht auf die logisch unproblematische Sprache der Prädikatenlogik erster Stufe zur Darstellung von Theorien, sondern wählt die informelle Mengenlehre als

A. Die Entscheidung für den Strukturalismus

271

Instrumentarium, wie sie auch in der Mathematik eingesetzt wird. Die ist zwar „unsauberer", aber weit flexibler und ermöglicht eine Rekonstruktion von Theorien nahe an den Formulierungen der Naturwissenschaftler selbst; jedenfalls weit näher als Formulierungen im strengen Rahmen der Prädikatenlogik, die ausgesprochen unhandlich und kompliziert wirken, so daß auch bis heute noch keine komplexeren physikalischen Theorien in dieser Strenge umfassend axiomatisiert wurden. Das Motto des Strukturalismus ist in dieser Frage: Keine überzogenen Forderungen - etwa im Sinne der Metamathematik - an den formalen Apparat zur Darstellung von Theorien zu stellen, dessen eigene Komplexität von den eigentlichen wissenschaftsphilosophischen Fragestellungen ablenken würde. Vielmehr soll nur der formale Aufwand betrieben werden, der unbedingt erforderlich ist, wenn man die heutigen Theorien noch angemessen darstellen möchte. Da viele modernen Theorien im Rahmen einer aufwendigen Mathematik formuliert sind, kommt man allerdings um den Einsatz zumindest der Mengenlehre nicht umhin, wenn man diese Theorien noch adäquat rekonstruieren möchte. Doch ihr Einsatz sollte eigentlich kein ernsthaftes Hindernis für eine Kommunikation mit Philosophen und auch mit Fachwissenschaftlern darstellen, zumal sie nur in informeller Form eingesetzt wird. Ein weiterer praktischer Vorteil des Strukturalismus gegenüber anderen metatheoretischen Auffassungen ist, daß er schon für eine Reihe von logischen Rekonstruktionen für Theorien aus unterschiedlichen Bereichen eingesetzt wurde und seine Begrifflichkeit anhand dieser Beispielanalysen systematisch weiterentwickelt wird. Dabei bemüht man sich vor allem, die innere Struktur von Theorien besser zu verstehen. Daher muß ich nicht nahezu bei Null anfangen, wenn ich für bestimmte Komponenten in naturwissenschaftlichen Theorien eintrete, sondern kann mich auf wertvolle Vorarbeiten aus den unterschiedlichsten Bereichen der Wissenschaft stützen. Nun komme ich auch schon zu einigen stärker inhaltlichen Gründen, die für meine Wahl sprechen. An dieser Stelle werde ich nur einige allgemeine nennen, während die konkreteren Punkte sinnvollerweise im Rahmen der Entfaltung der Konzeption angesprochen werden. Der erste ist - und das ist für mich ein wesentlicher Aspekt des Wortes „Strukturalismus" - , daß Theorien nicht als amorphe Satzklassen betrachtet werden, sondern als Gegenstände mit einer reichhaltigen inneren Struktur, deren Zusammenspiel zu untersuchen für viele wissenschaftsphilosophische Fragestellungen lohnend ist. Für die logischen Empiristen sind Theorien Satzklassen, die gerade noch eine Unterscheidung in Beobachtungsaussagen, theoretische Aussagen und Brückenprinzipien erlauben, wobei selbst diese Unterscheidungen eher kritisch zu beurteilen sind; weitere innere Komponenten treten in Theorien dann jedoch nicht mehr auf. Das wird der hohen Komplexität moderner Theorien jedoch nicht gerecht. Wichtig ist in diesem Zusammenhang außerdem eine erste grundsätzliche Unterscheidung zwischen den sogenannten syntaktischen und den semantischen Auffassungen von Theorien. Die letzteren gerieten erst in den letzten zwei Jahrzehnten in den Blick der Wissenschaftsphilosophen und erfreuen sich seither einer zunehmenden Zahl von Proponenten. In der syntaktischen Sichtweise sind Theorien durch Mengen von Sätzen

272

VII Wissenschaftliche

Theorien

(ev. deduktiv abgeschlossen und effektiv entscheidbar) repräsentiert, während sie in der semantischen Auffassung - zu der auch der Strukturalismus zählt - als Mengen von Modellen verstanden werden. Es gibt natürlich viele Entsprechungen zwischen diesen beiden Vorgehensweisen, aber an einigen Stellen erweist die semantische Sichtweise sich doch als die geeignetere. Der Modellbegriff wird dabei wie folgt verstanden: Modelle sind Relationsstrukturen , die aus bestimmten Grundmengen D = und Relationen R = auf den Grundmengen bestehen. Intuitiv ist das so gemeint, daß die Grundmengen die Objekte enthalten, über die eine Theorie spricht - wobei es verschiedene Typen von Objekten geben kann - und die Relationen geben die Beziehungen wieder, die die Theorie zwischen diesen Objekten behauptet. 2 Eine wesentliche Absicht der Hervorhebung von Modellen gegenüber Aussagen war, die Abhängigkeit von der jeweiligen sprachlichen Darstellung einer Theorie zu verringern. Dadurch bleiben Umformulierungen einer Theorie als dieselbe Theorie erkennbar, solange sie noch immer dieselben Modelle auszeichnen. Van Fraassen (1991, 5) vergleicht den Übergang von syntaktischen zu semantischen Darstellungen von Theorien mit dem von Koordinatendarstellungen zu entsprechenden koordinatenfreien Formulierungen innerhalb der Physik selbst. Wörter sind dabei die Koordinaten, mit deren Hilfe wir die Theorien wiedergeben, aber sie stellen eine überflüssige Relativierung auf ein bestimmtes Bezugssystem dar, das eigentlich keinen bevorzugten Status für die Theorie besitzt. Ein anderer Aspekt, der der semantischen Auffassung eigentümlich ist und in dieser Arbeit noch an mehreren Stellen zum Tragen kommen wird, ist die Einbettung von Modellen. Ihr kommt eine wichtige intuitive Bedeutung zu (s. dazu van Fraassen 1980, 41 ff), aber sie läßt sich auf der syntaktischen Ebene der Sätze nicht angemessen darstellen. Spätestens um Approximationen und Unscharfen in Theorien in unsere Untersuchungen einzubeziehen sind wir gezwungen, auf die semantische Ebene zu wechseln. Für approximative Zusammenhänge - man denke z. B. an approximative Reduktionen, die den Großteil von Reduktionen ausmachen - stehen die einander entsprechenden Komponenten der Modelle und nicht die Formulierungen, mit denen wir die Theorien beschreiben, ganz im Vordergrund. Bei einem Vergleich zwischen vorrelativistischen Theorien und speziell relativistischen Theorien, der die enge Beziehung zwischen beiden Theorien aufzeigen soll, ist es nur wenig hilfreich, sich auf die Gestalt der Gesetze zu beziehen und etwa darauf zu verweisen, daß sie ineinander übergehen, wenn wir c gegen unendlich gehen lassen. Günther Ludwig (1974 II, 369) spricht in diesem Zusammenhang von unerlaubten „Limes-Tricks", die die Situation eher verschleiern als aufhellen können. Sie sind unerlaubt, weil es gerade eine zentrale Aussage der Relativitätstheorie ist, daß die Lichtgeschwindigkeit c eine endliche Konstante ist, und solange sie das bleibt, sind die Gesetze der beiden Theorien verschieden. Es ist daher fraglich, welchen erkenntnistheoretischen Wert eine derartige Limesbetrachtung für das Verhältnis von relativistischen und vorrelativistischen Theorien überhaupt haben soll. Allerdings sind die Lösungen der Differentialgleichungen beider Theorien für weite Bereiche

B. Mehrdeutigkeiten des Theoriekonzepts

273

eng benachbart, und das gibt uns auf der semantischen Ebene eine Möglichkeit, den engen Zusammenhang der Theorien angemessen zu analysieren.3 Zumindest an dieser Stelle der metatheoretischen Darstellung von Theorien scheint mir die Überlegenheit eines semantischen gegenüber einem syntaktischen Ansatz offensichtlich.

B. Mehrdeutigkeiten des Theoriekonzepts Im Zentrum unseres Wissens steht, wie schon bemerkt, das wissenschaftliche Wissen und dieses Wissen ist konzentriert in Theorien, wobei hier der Begriff „Theorie" zunächst in einem relativ weiten Sinn verstanden werden soll, so daß auch „kleine Theorien", für die man manchmal eher von Hypothesen oder Modellvorstellungen spricht, darunter mitgemeint sind. Doch was sind „Theorien"? Der Sprachgebrauch ist an dieser Stelle alles andere als einheitlich. Was als eine Theorie anzusehen ist, wechselt häufig mit dem Kontext. So spricht man z. B. von „der Newtonschen Mechanik" oder auch von der „Newtonschen Gravitationstheorie". Ist nun die zweite Theorie als eine Teiltheorie der ersten zu verstehen? Oder wie ist das Verhältnis von Elektrodynamik zu Elektrostatik oder zur Ohmschen Theorie etc.? Man spricht sogar von „der Relativitätstheorie" oder „der Quantenmechanik", obwohl wir unter diesem Begriff auf relativistisch formulierte Mechaniken, die Elektrodynamik und eine relativistische Thermodynamik stoßen, die man in vielen anderen Kontexten als mindestens drei Theorien betrachten würde. Der Theoriebegriff wird also auf recht unterschiedlich große Einheiten gleichermaßen angewandt. Ein erster Schritt, um für größere terminologische Klarheit zu sorgen, ist die begriffliche Unterscheidung dieser Einheiten. Der Strukturalismus unterscheidet Theorien zunächst in Theorien-Holons, Theorien-Netze und Theorie-Elemente, den kleinsten selbständigen Einheiten von Theorien. Die größten wissenschaftlichen Einheiten mit einheitlicher Begrifflichkeit wie die „Newtonsche Partikelmechanik" oder die „Maxwellsche Elektrodynamik" werden „Theorien-Netze" genannt. Diese Netze setzen sich in Form von Baumstrukturen aus den sogenannten Theorie-Elementen zusammen, die durch „Spezialisierungsbeziehungen" verknüpft sind. Holons sind darüber hinaus Gruppierungen größerer Teile einer wissenschaftlichen Disziplin, die in einem bestimmten Sinn zusammengehören und durch eine Reihe intertheoretischer Beziehungen verknüpft sind, aber mit unterschiedlichen Begriffen operieren können.4 All diese Konzepte möchte ich anhand eines etwas ausführlicher betrachteten Fallbeispiels erläutern, nämlich der Klassischen Partikelmechanik (KPM) oder manchmal sage ich auch der „Newtonschen Partikelmechanik". Daneben skizziere ich immer wieder Beispiele aus anderen Bereichen, erstens um die Konzepte weiter zu erläutern und zweitens um der Vermutung entgegenzutreten, der metatheoretische Apparat des Strukturalismus sei speziell auf die Mechanik zugeschnitten, was allerdings auch durch die zahlreichen strukturalistischen Rekonstruktionen aus anderen Bereichen widerlegt wird. Die klassische Partikelmechanik bietet sich für Illustrationszwecke an, weil sie auf der

274

VII Wissenschaftliche Theorien

einen Seite bereits eine hinreichend komplexe Theorie ist, um alle Komponenten, die Strukturalisten bisher in Theorien identifizieren konnten, zu beinhalten und weil sie auf der anderen Seite eine relativ einfache und noch gut zugängliche Theorie darstellt.

C. Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik Beginnen möchte ich meine Skizze der klassischen Partikelmechanik, mit einem kurzen Überblick über das grobe Gerüst dieser Theorie.5 Neben den grundlegenden Newtonschen Axiomen, die im Zentrum der Theorie stehen, finden sich eine Reihe von spezielleren Gesetzen, die für bestimmte Anwendungen zugeschnitten sind, wie das Gravitationsgesetz, das Hookesche Gesetz, Reibungsgesetze, etc. Jedes dieser „Spezialgesetze" beschreibt eine sogenannte Spezialisierung der Theorie, die eine Spezialisierung der Basisaxiome darstellt. Jede Spezialisierung wird im baumartigen Netz der Theorie durch ein eigenes Theorie-Element repräsentiert, wobei die Newtonschen Axiome gerade das Basis-Theorie-Element definieren. Die Theorie-Elemente weisen ihrerseits eine innere Struktur mit einer Reihe von Komponenten auf.

1. Die begriffliche Struktur und die Gesetze von Theorie-Elementen Jede Theorie T beschreibt die Systeme, über die sie Aussagen machen möchte, in einer bestimmten ihr eigentümlichen Begrifflichkeit. Die klassische Partikelmechanik spricht etwa von Massenpunkten und Kräften zwischen diesen. Die Elektrodynamik spricht von elektrischen Ladungen und elektromagnetischen Feldern, die Evolutionstheorie von Arten, Selektionsdruck, Migration, genetischer Drift etc. und die Psychoanalyse z. B. von Neurosen, Über-Ich, Ich und Es. Diese Begrifflichkeiten der jeweiligen Theorien geben den konzeptuellen Rahmen ab, innerhalb dessen die Gesetze der Theorie formuliert werden, wobei dieser Rahmen für alle Theorie-Elemente eines Netzes derselbe bleibt. Um ihn zu beschreiben, werden zunächst alle Relationsstrukturen unter dem Stichwort „potentielle Modelle" von T [Mp(T)] versammelt, die die gewünschte begriffliche Struktur aufweisen. Das geschieht durch die Angabe eines mengentheoretischen Prädikats, das die Menge der potentiellen Modelle definiert. In unserem konkreten Beispiel der klassischen Partikelmechanik (KPM) benötigen wir als Grundmenge: Eine Menge von Partikeln P, einen Zeitraum T, über den hinweg die Bahnen der Partikel beschrieben werden, und einen Ortsraum S, in dem die Partikel sich bewegen. Um die Rekonstruktion einfach zu halten, sehe ich von der Einfuhrung unterschiedlicher Koordinatisierungen ab und identifiziere T mit einem reellen Intervall und S mit dem IR3, wobei ich mir bewußt bin, daß die KPM damit nicht vollständig erfaßt werden kann.6 Außerdem sind wir in der KPM zur Bestimmung der Kraftfiinktion immer wieder gezwungen, auf bestimmte Materialkonstanten zurückzugreifen, wie

C.

Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik

275

Federkonstanten, Reibungswerte und andere mechanische Parameter, die in einer Menge Z zusammengefaßt werden. Neben den Grundmengen finden wir drei Grundgrößen der Theorie: Da ist als erstes die Weg-Zeit-Funktion s(p,t), die jedem Partikel p zu jeder Zeit t e T einen Ort s e S zuordnet. Außerdem die Massenfunktion m(p), die für jeden Partikel seine Masse angibt, und schließlich die Kraftfunktion f, der eine zentrale Rolle innerhalb von KPM zufällt, die daher aber auch mit f(p, i, t, z) die komplizierteste Struktur aufweist. Sie bestimmt Kräfte für die Partikel p, gibt aber möglicherweise nicht nur eine Kraftkomponente an, sondern gleich mehrere, die durch den zweiten Parameter i e f^i durchgezählt werden sollen. Das wird der Tatsache Rechnung tragen, daß mehrere Kräfte wie Gravitationskräfte von verschiedenen Planeten, dazu Reibungskräfte bei einer Bewegung durch die Atmosphäre usw. gleichzeitig auf einen Partikel wirken können. Die Kräfte können darüber hinaus im Laufe der Zeit t variieren und möglicherweise von bestimmten mechanischen Parametern z e Z abhängen.7 Mit diesen Bestimmungen ergibt sich folgendes Prädikat zur Definition der Menge der potentiellen Modelle: x ist ein potentielles Modell der KPM [x e Mp(KPM)] gdw: 1) x = 2) P ist eine nichtleere Partikelmenge. 3) T ist ein zusammenhängendes, offenes Intervall in R und S eine offene, einfach zusammenhängende Teilmenge des [R3. 4) Z ist eine Zusammenstellung mechanischer Parameter. 5) s: PxT —> S ist eine differenzierbare Funktion.8 6) m: P —» IR+. 7) f: P x ^ x T x Z R3. Unter den so definierten potentiellen Modellen bilden die aktualen Modelle jedes Theorie-Elements jeweils eine Teilmenge, nämlich die Menge der zugelassenen Relationsstrukturen, die die jeweiligen Gesetze und Spezialgesetze des Theorie-Elements erfüllen. Betrachten wir als Beispiel das Basis-Theorie-Element der KPM, das das erste und zweite Newtonschen Gesetz beinhalten soll. Diesen Gesetzen gibt man üblicherweise die bekannte Form „f=m-a", was unter Berücksichtigung der Kraftkomponenten allerdings noch etwas komplizierter zu formulieren ist, da über diese aufsummiert wird: x ist ein Modell der KPM [x e M(KPM)] gdw: 1) x = 2) x e Mp(KPM)

a2s

3) Für alle p e P und t e T gilt: m(p)—¿-(p,t) = ]>]f(p,i,t,z) 5 t In (3) werden nun die Teilkräfte zu einer Gesamtkraft vereinigt, die anhand des zweiten Newtonschen Axioms über die Beschleunigung von Partikeln Auskunft gibt. Vergißt man die Aufspaltung der Gesamtkraft in Teilkräfte, hat das mindestens zwei negative

276

VII Wissenschaftliche

Theorien

Folgen: Erstens erhält das zweite Newtonsche Axiom die Gestalt einer Definition für die Kraftfunktion, was zu etlichen wissenschaftsphilosophischen Diskussionen Anlaß gab. Zweitens ist die dabei entstehende Theorie nur noch auf die Spezialfälle anwendbar, in denen auf einen Partikel nicht mehrere Kräfte gleichzeitig wirken. Mit den aktualen Modellen haben wir die Modellmenge bestimmt, die die Gesetze und später in den Spezialisierungen auch die Spezialgesetze einer Theorie repräsentieren soll. Doch mit dem konzeptuellen Rahmen und den Gesetzen ist natürlich noch nicht die gesamte innere theoretische Struktur eines Theorie-Elements erfaßt.

2. Innertheoretische Querverbindungen: Constraints Ein Punkt, der bisher noch nicht explizit zur Sprache kam, sondern nur stillschweigend angenommen wurde, ist die lokale Konzeption von Modellen, die vom Strukturalismus vertreten wird; im Unterschied etwa zur semantischen Konzeption von van Fraassen (z. B. in 1980), die globale Modelle zum Gegenstand hat. Im Strukturalismus beabsichtigt man, jedes physikalische System - etwa ein bestimmtes Experiment das man mit einer Theorie behandeln möchte, durch ein eigenes Modell darzustellen. Die Beschreibung der Welt durch eine Theorie gibt damit nicht nur ein globales Modell für das ganze Universum an, sondern beinhaltet eine Vielzahl lokaler Modelle für viele lokale Anwendungen der Theorie. 9 Das entspricht zunächst der Vorgehensweise von Physikern, die auch in jedem Experiment immer nur ein bestimmtes System behandeln und die Größen der Theorie für dieses System bestimmen. Ein anderer Vorteil der lokalen Konzeption von Modellen einer Theorie besteht darin, daß sie eine differenziertere Behandlung intertheoretischer Approximationsbeziehungen ermöglichen, als das für globale Modelle gelingt. Wenn etwa vorrelativistische und relativistische Theorien miteinander verglichen werden sollen, nimmt man - im allgemeinen ohne das explizit zu machen - auf lokale Modelle bezug, denn nur für diese wird der enge Zusammenhang der Theorien sichtbar (vgl. dazu Bartelborth 1988, 143ff und Bartelborth 1993). Globale relativistische und vorrelativistische Modelle passen nicht zusammen, weil erstens für unbeschränkte Raum-Zeiten keine approximative Beziehung zwischen den Theorien besteht und zweitens Tensoren in der klassischen Theorie auch Werte für beliebig große Überlichtgeschwindigkeiten beinhalten, die in der relativistischen Theorie keine Entsprechung mehr besitzen. Dagegen weisen zumindest entsprechende Teilklassen lokaler Modelle beider Theorien enge approximative Beziehungen auf. So kommt gerade lokalen Modellen auch für die intertheoretischen Relationen eines Theorien-Holons große Bedeutung zu. In Bartelborth (1993) wird gezeigt, wie die lokale Auffassung von Modellen in der allgemeinen Relativitätstheorie eine Einschränkung eines sonst unmäßig erscheinenden Holismus gestattet. Die lokale Konzeption von Modellen macht allerdings die Angabe von Querverbindungen, sogenannten „Constraints", zwischen den lokalen Modellen erforderlich. Lokale Modelle können z. B. „überlappen" indem ein Partikel in verschiedenen Systemen auftritt. So kann ein Modell das System Erde-Mond und ein anderes Sonne-Erde

C.

Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik

277

darstellen, wobei die Erde in beiden Systemen vertreten ist. Dann muß unter anderem gewährleistet werden, daß ihr keine unterschiedlichen Massenwerte in den beiden Modellen zugeordnet werden. Oder eine Feder wird in mehreren Anwendungen eingesetzt, dann erwarten wir, daß sie dieselbe Federkonstante in allen Anwendungen aufweist. 10 Solche innertheoretischen Forderungen nach konsistenter Zuweisung von Werten zu unseren physikalischen Größen werden als „Constraints" umgesetzt. Constraints oder innertheoretische Querverbindungen, manchmal auch „Brückenstrukturen" genannt, werden dargestellt durch Mengensysteme von potentiellen Modellen, deren Mengen (die Elemente des Constraints) uns alle Kombinationen zusammenpassender potentieller Modelle angeben. Allgemein hat ein Constraint C(T) für eine Theorie T die folgenden formalen Anforderungen zu erfüllen:

C(T) ist ein Constraint für T gdw.: 1) C c ^ M / T ) ) 1 1 2) Vx e M p (T): {x} € C(T) 3) 0 e C ( T ) Derartige Brückenstrukturen werden in Lehrbuchdarstellungen von Theorien entweder nur implizit mitgedacht, oder sie werden auf derselben Ebene wie ihre Gesetze behandelt. Sie haben aber eine etwas andere Funktion als diese, nämlich einen Informationstransfer zwischen verschiedenen Anwendungen zu bewirken. Es gibt inzwischen einige rekonstruierte Fälle aus der Wissenschaftsgeschichte, in denen sie ihre Eigenständigkeit offenbaren und in denen ihre Bedeutung gerade für theoriendynamische Zusammenhänge deutlich wird. Ein besonders schönes Beispiel aus der astronomischen Theorie der Cepheiden untersuchte Ulrich Gähde (1989, 166ff). Darin konnten Anomalien der Cepheidentheorie durch eine Veränderung von Brückenstrukturen beseitigt werden. Die Cepheiden sind Sterne, die Helligkeitsveränderungen mit regelmäßiger Frequenz unterliegen, wobei die Veränderungen in systematischer Weise mit ihrer absoluten Helligkeit zusammenhängen. Das führte zu der Annahme einer Konstante für den Zusammenhang zwischen Perioden und Helligkeit, die man für alle Sterne des Cepheiden Typs annahm. Aus bestimmten Fällen, in denen man die Entfernung kannte, ließ sich die gesuchte Konstante bestimmen und dann diese Information für andere Cepheiden nutzbar machen, so daß für sie ihre Entfernung anhand der Konstante und ihrer Veränderungsfrequenz bestimmt werden konnte. Dieses Verfahren ließ sich auch auf weit entfernte Galaxien ausdehnen und war daher von großer Bedeutung für die Vermessung des Weltalls. Unter anderem konnte man dadurch erstmals die Kantische Vermutung beweisen, daß es andere Galaxien gibt. Eine Reihe von Anomalien führten fast 40 Jahre nach der Entdeckung eines konstanten Perioden-Leuchtkraft Zusammenhangs schließlich zur Aufgabe des skizzierten Constraints - der dieselbe Konstante für alle Cepheiden verlangt - durch den amerikanischen Astronomen Baade. Tatsächlich müssen wir zwischen zwei Populationen von Cepheiden unterscheiden, für die zwar beide ein entsprechender Zusammenhang gilt, aber mit jeweils einer anderen

278

VII Wissenschaftliche

Theorien

Konstante. 12 Diese Einsicht führte zu revolutionären Änderungen unserer Ansichten über extragalaktische Entfernungen. Das Gähdesche Beispiel illustriert recht eindrucksvoll, wie groß die Bedeutung von Constraints sein kann, die zunächst nicht einmal explizit formuliert wurden, sondern als nahezu selbstverständliche implizite Prämisse auftraten. Außerdem demonstriert es, wie Constraints den Informationstransfer zwischen einzelnen Anwendungen einer Theorie bewerkstelligen, so daß damit Größen bestimmt werden können - hier die Entfernung von Galaxien - , die wir bei isolierten Betrachtungen einzelner Systeme nicht bestimmen konnten. Dabei stellt es auch ein weiteres Beispiel gegen Poppers rigide Auffassung von wissenschaftlicher Rationalität dar. Ihm hätte es als eine ad hoc Hilfsannahme zur Rettung der Theorie erscheinen müssen, daß wir zwei Cepheiden Populationen einführen, um den Zusammenhang zwischen Helligkeitsperioden und absoluter Helligkeit zu retten. Das wirkt besonders dann ad hoc, wenn uns nicht klar ist, daß wir an dieser Stelle vorher eine recht starke Behauptung aufgestellt hatten, die wir nun abschwächen. Weiterhin ist das alte Problem, wie die Beschreibungen eines physikalischen Systems aus unterschiedlichen Bezugssystemen heraus untereinander zusammenhängen, eine Frage nach Querverbindungen zwischen lokalen Modellen. Jede derartige Beschreibung bietet - entsprechend der lokalen Auffassung von Modellen - ein anderes potentielles Modell und Konsistenzbetrachtungen gestatten natürlich nicht, beliebige solcher Modelle gleichzeitig zu akzeptieren. Welche Kombinationen in diesen Fällen zulässig sind, hängt wesentlich von den Invarianz- bzw. Kovarianzforderungen einer Theorie ab. Für galilei-invariante und lorentz-invariante Theorieformulierungen finden sich die entsprechenden Invarianzconstraints in Bartelborth (1988, 46ff und 103ff) und für den Bereich der allgemeinen Relativitätstheorie sind die entsprechenden Kovarianzconstraints in Bartelborth (1993) formuliert worden. Für die KPM in der hier angegeben Form benötigen wir keine Invarianzconstraints, da ich sie der Einfachheit halber auf ein feststehendes Koordinatensystem bezogen habe. Es bleibt aber noch, den Identitäts- und Extensivitätsconstraints für die Massenfunktion zu formulieren. 13 Der Identitätsconstraint verlangt, daß Partikel, die in verschiedenen potentiellen Modellen auftreten, dort dieselben Massenwerte annehmen, während der Extensivitätsconstraint die Fälle abdecken soll, in denen zwei Partikel, die wir aus anderen Systemen „kennen", nun zu einem neuen Partikel eines dritten potentiellen Modells zusammengefugt werden. Seine Masse muß dann (jedenfalls im Rahmen von KPM) natürlich genau der Summe der Einzelmassen entsprechen. Das Zusammenfügen wird dabei durch eine Konkatenationsfunktion © ausgedrückt, die eine Funktion von PxP nach P sein soll. Identitätsconstraint für KPM C id (KPM) := {X c Mp(KPM); X * 0 & Vx, y e X, p e Px n P y : m x (p) = m y (p)} 14

C.

Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik

279

Extensivitätsconstraint för KPM Cext(KPM) := {X c Mp(KPM); X * 0 & Vx e X, p, p' £ Px: m x ( p 0 p ' ) = mx(p) + mx(p')}15 Um die Anforderungen, die durch die einzelnen Constraints einer Theorie eingebracht werden, zu vereinen, bilden wir den allgemeinen Constraint C(T) einer Theorie als Durchschnitt aller Einzelconstraints: C(KPM) := Cid(KPM) n Cext(KPM) In C(KPM) werden nur noch die Kombinationen von Modellen erlaubt, die sowohl den Identitäts- wie auch den Extensitivitätsconstraint erfüllen, d.h. C(KPM) drückt nun alle innertheoretischen Konsistenzforderungen aus.

3. Intertheoretische Querverbindungen: Links Konsistenzforderungen gibt es natürlich nicht nur innerhalb von Theorien, sondern auch in vielfaltiger Weise zwischen Theorien. Solche intertheoretischen Brückenstrukturen haben im strukturalistischen Theorienkonzept den Namen „Links" bekommen. Sie können in verschiedenen Funktionen auftreten, aber als eine Gemeinsamkeit verbindet sie die Aufgabe, Informationen aus einer Theorie an eine andere zu übergeben. Am deutlichsten wird das für die sogenannten „presupposition links"'. Ihre Aufgabe ist es, für eine Theorie bestimmte Terme aus einer „ Vortheorie" bereitzustellen. Für die KPM sind das etwa räumliche und zeitliche Entfernungskonzepte, die aus einer physikalischen Geometrie und entsprechenden chronometrischen Theorien stammen. Die KPM stellt ihrerseits z. B. der Elektrodynamik den Kraftbegriff zur Verfügung. Sie gibt jedenfalls seine grundlegenden theoretischen Zusammenhänge und auch grundlegende Meßverfahren für ihn an. „Stellt zur Verfügung" ist hierbei allerdings nicht im Sinne einer expliziten Definition zu verstehen, sondern bestenfalls gibt die Vortheorie ein Bestimmungsverfahren für eine Größe an und auch das meist nur für bestimmte Anwendungen der Theorie und nicht gleich für alle Situationen. Das soeben skizzierte Bild von Vortheorien, auf die sich eine Theorie anhand von „presupposition links" stützt, ist natürlich im günstigsten Fall eine Idealisierung und soll nicht dazu verführen, von einer einfachen Hierarchie unter Theorien auszugehen. Allerspätestens in der allgemeinen Relativitätstheorie stößt die hierarchische Konzeption an offensichtliche Grenzen (vgl. Bartelborth 1995).

VII Wissenschaftliche Theorien

280

Die der hierarchischen Konzeption zugrundeliegende Vorstellung, nach der etwa Raum-Zeit Theorien in der Schichtung relativ weit unten angesiedelt sind und in den oberen Schichten als eine Art vorgegebener Behälter dienen können, in dem sich das Geschehen, das etwa von den Maxwellschen Gleichungen beschrieben wird, abspielt, ist spätestens für die Allgemeine Relativitätstheorie nicht mehr aufrechtzuerhalten. Die Struktur der allgemein-relativistischen Raum-Zeit ist nämlich abhängig vom EnergieImpuls-Tensor, der seinerseits von allen Größen aus Mechanik, Thermodynamik und Elektrodynamik abhängt, also von Größen, die laut der Schichtenkonzeption eigentlich weiter oben angesiedelt sein sollten.16 Als einfacher Ausweg, der allerdings methodologisch unbefriedigend erscheint, bleibt die Flucht in einen Holismus, der Raum-Zeit-Theorie, Raum-Zeit-Theorien Mechanik, Thermodynamik und Elektrodynamik als eine große . , Elektrodynamik Thermodynamik Einheit betrachtet, die in sich Mechanik keiner hierarchischen Struktur fähig ist. Gelingt es dagegen, eine wenn auch schwache 1 i I i i »..»»» ' A ' Schichtenstruktur dieses Theorie-Holons aufzuzeigen, die Theorienholon: Allgemeine Relativitätstheorie näher an der Praxis von Physikern liegt, ergibt sich ungefähr das nebenstehende Bild der allgemeinen Relativitätstheorie (s. Bartelborth 1993). Die dicken Pfeile stehen für approximative „presupposition links", während die dünnen die Spezialisierungszusammenhänge in den jeweiligen Netzen darstellen sollen, die nur angedeutet sind.17

1

A / X

A / .A\

X

/\ / ZK

Neben den intertheoretischen Beziehungen zwischen Vortheorien und Theorien, in denen die Vortheorien gewisse Begriffe bereitzustellen haben, gibt es natürlich zahlreiche andere intertheoretische Beziehungen, die durch Links auszudrücken sind. Auch intertheoretische Beziehungen werden nicht immer explizit in den Textbüchern der Fachwissenschaften erwähnt, obwohl sie von grundlegender Bedeutung sein können. Dazu ein prominentes Beispiel: Es ist üblich, die Theorien Mechanik, Thermodynamik und Elektrodynamik auseinanderzuhalten und ihre jeweiligen Beiträge zur Bewegungsgleichung, etwa einer Flüssigkeit in einem elektromagnetischen Feld, getrennt zu bestimmen. Das ist sicher auch sinnvoll, aber es sollte nicht darüber hinwegtäuschen, daß die Bewegungsgleichung einer Flüssigkeit letztlich nur anhand der Energie- und Impulsbilanzen aus allen drei Theorien zusammengenommen ermittelt werden kann. Nur für diese Gesamtsumme gilt eine Erhaltungsgleichung, die damit wesentlich intertheoretischen Charakter hat.18 In Bartelborth (1988) wird dieser Zusammenhang für vorrelativistische Theorien und speziell relativistische Theorien untersucht, in Bartelborth (1993) auch noch für den allgemeinrelativistischen Fall. In den genannten Beispielen läßt sich die Bewegungsgleichung so ausdrücken:

C.

Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik

(*)

div(Tmech+Ttherm+Telektro) = 0,

281

wobei die drei Terme, von deren Summe dann die Divergenz zu bilden ist, jeweils die Energie-Impuls-Tensoren der drei Theorien darstellen sollen. Der intertheoretische Charakter dieser Gleichung wird augenfällig, wenn man sie ausfuhrlich formuliert, und ebenso, daß es sich um eine intertheoretische Beziehung zwischen drei Theorien handelt, was eine kanonische Erweiterung des bisherigen Linkkonzepts des Strukturalismus erforderlich macht, das nur Links zwischen zwei Theorien kannte. Entsprechendes gilt um so mehr für die Einsteinsche Gravitationsgleichung, die einen Zusammenhang zwischen dem gesamten Energie-Impuls-Tensor und der Raum-Zeit darstellt. Hier werden sogar vier Theorien durch einen Link zusammengebunden. Im Fall der Gleichung (*) besagt der Link, daß nur solche Modelle der drei Theorien zusammenpassen, deren Energie-Impuls-Tensoren aufaddiert eine verschwindende Divergenz besitzen. Abstrakt läßt sich ein Link 2 als eine Relation zwischen den potentiellen Modellen von n-Theorien T l v ..,T n verstehen: S(T 1 ,...,T n )cM p (T 1 )x...xM p (T n ), aber für konkrete Beispiele lassen sich die Links auch als Beziehungen bestimmter Terme der jeweiligen Theorien betrachten.19 Dem möchte ich nicht weiter nachgehen, sondern nur noch den Effekt eines Links fi(T,,...,Tn) auf die einzelne Theorie, nehmen wir T,, bestimmen. ß(T b ...,T n ) sondert in T, eine Teilmenge von potentiellen Modellen aus, nämlich gerade die, die mit entsprechenden potentiellen Modellen aus T 2 ,...,T„ so „gelinkt" werden können, daß die Bestimmungen des Links - z. B. die Bewegungsgleichung (*) - erfüllt werden. Mengentheoretisch läßt sich der Link L(Tj) für T, damit, wie auch die Modellmenge von T b als eine Teilmenge von M p (T,) formulieren: L(T,) := {x € M p (Ti); 3x 2 e Mp(T2) ... xn e Mp(Tn) mit: e

fi(T„...,Tn)}

Mit den Links sind die Theoriekomponenten, die sich auf den potentiellen Modellen einer Theorie formulieren lassen, bis auf die Einbeziehung von Approximationen abgeschlossen. Nun wird die begriffliche Struktur der Theorie noch um eine Komponente erweitert, nämlich die Auszeichnung von Submodellen einer bestimmten Art.

4. Die „empirische" Ebene einer Theorie In der syntaktischen Sichtweise von Theorien wurden die Terme einer Theorie in zwei Klassen eingeteilt: die Beobachtungsterme und die theoretischen Terme. Damit vermengte man zwei unterschiedliche Kategorisierungen, nämlich die in theoretisch/nichttheoretische Terme und die in Ausdrücke für beobachtbare und nichtbeobachtbare Größen einer Theorie (s. dazu van Fraassen 1980, 14ff), von denen keineswegs klar ist, daß es sich um deckungsgleiche Taxonomien handeln muß. Van Fraassen (1980, 45ff) wendet sich der zweiten zu und führt in seinem semantischen Theorienkonzept eine Unterscheidung zwischen den empirischen Substrukturen, die nur Beobachtbares

282

VII Wissenschaftliche Theorien

repräsentieren sollen und den übrigen Anteilen des vollständigen Modells ein, die unbeobachtbar sind.20 Mit Hilfe dieser „empirischen Substrukturen" gedenkt van Fraassen (1980, 45), den empirischen Gehalt von Theorien wiederzugeben, wonach eine Theorie genau dann empirisch adäquat ist, wenn es ein Modell der Theorie gibt, so daß sich alle Phänomene, die die Theorie zu erklären beabsichtigt, isomorph in die empirische Substruktur dieses Modells einbetten lassen. Auch der Strukturalismus kennt derartige Substrukturen von potentiellen Modellen, die er in anschaulicher Weise „partielle Modelle" nennt. Doch dabei stützt er sich anders als van Fraassen auf die theoretisch/nichttheoretisch Unterscheidung. Statt von einer grundlegenden Beobachtungsebene auszugehen - was sich als recht problematisch erwiesen hat - und alle anderen Teile als „theoretisch" zu klassifizieren, werden bestimmte Theoriekomponenten einer Theorie T als theoretisch bezüglich T oder Ttheoretisch eingestuft. Für diese Einstufung ist wesentlich ihre Stellung in der Theorie T selbst verantwortlich, unabhängig von Fragen ihrer Beobachtbarkeit. Dahinter steht die Vorstellung, daß Theorien oft bestimmte neue Terme einführen, aber daneben auch auf Terme aus anderen Theorien zurückgreifen. Die ersteren Terme sollen dann die T-theoretischen sein, während die zweite Sorte als T-nichttheoretisch bezeichnet wird. Diese Unterscheidung hat verschiedene Präzisierungen erfahren, von denen ich nur zwei nennen möchte. Die meßtheoretische, die auf Balzer/Moulines (1980) zurückgeht, nennt einen Term t T-theoretisch, wenn alle Meßverfahren für t sich letztlich als Anwendungen der Theorie T erweisen oder anders gesagt, wenn es für t keine Meßverfahren gibt, die unabhängig von T die Werte von t bestimmen können. Meßverfahren sind aber (s. Forge 1984a) vielfach hochgradig intertheoretische Gebilde, die nur schwer zu beschreiben sind, und in der Praxis erweist es sich meist als problematisch, sich einen Überblick über die tatsächlichen Meßverfahren und ihren theoretischen Hintergrund zu verschaffen. Deshalb hat Ulrich Gähde (1980) einen rein innertheoretischen Abgrenzungsvorschlag entwickelt, der als Ausgangspunkt die möglichen Zerlegungen der Terme einer Theorie in zwei Klassen nimmt. Die theoretischen Terme gehören dabei zu einer Klasse von Termen, die in dem Basis-Theorie-Element einer Theorie noch nicht eindeutig durch die andere Klasse festgelegt wird, also insbesondere nicht im strengen Sinn definierbar ist, die aber trotzdem in einigen Anwendungen der Theorie anhand von Spezialgesetzen und den nichttheoretischen Termen eindeutig bestimmbar ist. Auch dieser Ansatz weist einige Probleme in der Anwendbarkeit auf. Zum einen sind die mathematischen Zusammenhänge für komplexere Theorien noch nicht weit genug aufgeklärt, um das Kriterium immer anwenden zu können (s. dazu Bartelborth 1988, 95ff), und zum anderen kann es mehrere Zerlegungen mit den genannten Eigenschaften geben, so daß das Kriterium allein keine eindeutige Einteilung zuläßt. Es scheint dann zwar als notwendige, aber nicht als hinreichende Bedingung geeignet zu sein (s. dazu Schurz 1990 und Gähde 1990). An dieser Stelle mag es genügen, den intuitiven Gehalt der T-theoretisch/Tnichttheoretisch Unterscheidung im Auge zu behalten. Bestimmte Terme werden von

C.

Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik

283

Vortheorien über „presupposition links" zur Verfügung gestellt, während andere „vor" der Theorie nicht vorkommen. Abstandsbegriffe und den Kraftbegriff bezieht die Elektrodynamik aus anderen Theorien, während sie selbst das Konzept der elektromagnetischen Felder einfuhrt. Um sie zu messen, sind wir auf Gleichungen aus der Elektrodynamik, wie dem Lorentzschen Kraftgesetz, angewiesen. Für viele Theorien und Terme lassen sich derartige Unterscheidungen in hinreichend präziser Form vornehmen, um damit die Menge der partiellen Modelle zu definieren. Für die klassische Partikelmechanik ergibt sich etwa, daß Masse und Kraft KPM-theoretisch sind (s. Gähde 1983 oder BMS 47ff). Damit erhalten wir in unserem Beispiel als Menge der partiellen Modelle: x ist ein partielles Modell der KPM [x e M p (KPM)] gdw: 1) x = 2) P ist eine nichtleere Partikelmenge. 3) T ist ein zusammenhängendes, offenes Intervall in IR. 4) Z ist eine Zusammenstellung mechanischer Parameter. 5) s: PxT —> S ist eine differenzierbare Funktion. 21 Um auf die Zusammenhänge zwischen Modellen und ihren partiellen Modellen leichter Bezug nehmen zu können, definieren wir die „Abschneidefunktion" r:M p —> M pp durch r() = , die uns zu jedem potentiellen Modell das entsprechende „gekürzte" partielle Modell liefert. Von früheren Konzeptionen theoretischer Terme in anderen metatheoretischen Ansätzen unterscheidet sich die strukturalistische Auffassung nicht nur durch die theorienbezogene oder sogar theorienimmanente Auszeichnung der theoretischen Ebene, sondern ebenfalls durch die Schichtung von immer neuen Ebenen von theoretischen Begriffen, die über das alte Zweistufenmodell der Wissenschaftssprache, aber auch über die semantische Zweistufenkonzeption van Fraassens hinausgeht und im Prinzip beliebig viele Theoretisierungsstufen zuläßt. Außerdem gibt es keine Verpflichtung auf eine klare Hierarchie solcher Stufen mehr, sondern man ist offen für eine vorurteilslose Untersuchung holistischer Phänomene.

5. Der Anwendungsbereich einer Theorie Eigentlich ist es eine Selbstverständlichkeit, aber trotzdem wird sie oft genug nicht zur Kenntnis genommen, daß jede Theorie nur auf ganz bestimmte natürliche Systeme, beschrieben in einer bestimmten Weise, angewendet wird und nicht etwa auf alle Phänomene in der Welt. Mit der Evolutionstheorie oder anderen biologischen Theorien erklären wir nicht das Verhalten mechanischer Systeme, etwa des Planetensystems, und mit mechanischen Theorien, wie der Newtonschen Partikelmechanik, versuchen wir nicht evolutionäre Vorgänge zu beschreiben. Die Menge von Systemen, die mit einer Theorie beschrieben werden sollen, soll Menge der „intendierten Anwendungen" (formal: I(T)) der Theorie heißen. Sie wird für empirische Theorien im Unterschied zu

284

VII Wissenschaftliche

Theorien

mathematischen nicht bereits durch die Gesetze einer Theorie bestimmt, sondern muß zusätzlich explizit angegeben werden, um die Theorie vollständig darzustellen. Mathematische Theorien wie z. B. Theorien aus dem Bereich der Zahlentheorie gelten für alle Systeme, die sich als Systeme natürlicher Zahlen auffassen lassen, also etwa alle Peanosysteme. Es ist allein die allgemeine Struktur eines Objekts, die darüber bestimmt, ob es zum Anwendungsbereich einer mathematischen Theorie gehört. Für empirische Theorien ist das ganz anders. Nicht jedes natürliche System, das sich mit den Ausdrücken der Partikelmechanik beschreiben läßt, wird dadurch schon zu ihrem Gegenstand. 22 Ihre intendierten Anwendungen sind eigens als solche zu kennzeichnen, und das kann auf unterschiedliche Weise geschehen; z. B. durch die Angabe einzelner konkreter Systeme wie {Sonne, Erde, Mond} aber häufig werden die Anwendungen durch typische Exemplare, also auf paradigmatischem Wege, beschrieben. Für die Newtonsche Partikelmechanik läßt sich die Menge der intendierten Anwendungen in erster Näherung vielleicht folgendermaßen charakterisieren: I(KPM) = {Planetensysteme, schiefe Würfe, zusammenstoßende Partikel (Billiardbälle), Pendel, ...}. Diese Menge steht nicht für alle Zeiten fest, sondern kann sich ändern, je nachdem, auf welche Bereiche man die Partikelmechanik anzuwenden gedenkt. Newton hoffte noch, optische und chemische Phänomene mit seiner Theorie behandeln zu können, doch diese Hoffnung wurde nie eingelöst, so daß spätere Physiker diese Phänomene wieder aus dem intendierten Anwendungsbereich herausgenommen haben. Diese erste Bestimmung der intendierten Anwendungen greift allerdings noch zu kurz, denn als intendierte Anwendungen der Mechanik kommen natürlich nicht einfach Partikel sondern Partikel und ihre Bahnen über einen gewissen Zeitraum hinweg in Frage. Die intendierten Anwendungen sollen daher als Modelle der KPM mit den entsprechenden Komponenten verstanden werden, wobei sie zunächst noch als K.PMnichttheoretisch also als partielle Modelle von KPM beschrieben werden. 23 Die Menge der partiellen Modelle charakterisiert größere Klassen derartiger Bahnstücke für die betreffenden Partikel. Weitgehend unerforscht ist im strukturalistischen Theorienkonzept allerdings der Aufstieg von einzelnen Meßwerten für Partikel zu ganzen Bahnen, der schon einen ersten wichtigen Schritt in der theoretischen Beschreibung des Systems darstellt. Hier sind Lücken der metatheoretischen Aufarbeitung empirischer Theorien zu konstatieren, die im Rahmen zukünftiger Fallstudien und entsprechender Erweiterungen der Metatheorie zu schließen sind. Aber schauen wir uns die intendierten Anwendungen nun im ganzen Netz einer Theorie am Beispiel der Newtonschen Partikelmechanik konkret an.

C.

Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik

285

6. Das Theorien-Netz der Newtonschen Partikelmechanik Wir haben schon längere Zeit von Theorien-Netzen und ihren Spezialisierungen gesprochen, uns aber bisher ausschließlich der Ausgestaltung einzelner Theorie-Elemente T gewidmet. Für die haben wir die folgende Struktur erhalten: T = , wobei die folgenden mengentheoretischen Beziehungen gelten: (a) M c M p (b) M pp ist eine Menge von Substrukturen zu M p (c)CcPot(Mp) (d) L c M p (e)l£Mpp Das Netz der KPM besteht nun aus solchen Theorie-Elementen, die als Spezialisierungen aus dem oben definierten Basis-Theorie-Element hervorgehen, wie das schon informell beschrieben wurde. Dabei werden für kleinere Bereiche von intendierten Anwendungen jeweils stärkere Behauptungen anhand von Spezialgesetzen aufgestellt, die zusätzlich zu den Basisaxiomen eingebracht werden. Für eine Spezialisierung T' eines Theorie-Elements T gilt daher: T' ist ein Spezialisierung von T (T' o T) gdw: 0 M p ' = Mp ")

M

iii) iv) v) vi)

M'cM C'cC L'cL I' c I,

PP'

=

M

P P

wobei die beiden ersten Bedingungen zum Ausdruck bringen, daß die begriffliche Struktur für alle Elemente eines Netzes gleich ist, während die weiteren Bedingungen die Verstärkung der inhaltlichen Anforderung durch die Theorie für ein eingeschränktes Anwendungsgebiet I' angeben. Für ein ganzes Theorien-Netz M = (Tj) j€j (J c N) mit einem Basis-Theorie-Element T 0 , dessen Elemente durch die Spezialisierungsbeziehung partiell geordnet sind, ergibt sich:24 M = (T|) j€j ist ein (baumartiges) Theorien-Netz gdw: (a) Für alle i e J: Tj ist ein Theorie-Element. (b) Für alle i e J: TjCTT 0 .

286

VII Wissenschaftliche Theorien

So erhält man für die Newtonsche Partikelmechanik in ihrer heutigen Gestalt z. B. ein Netz (s. Balzer/Moulines 1981, BMS 180ff), das ich nur in Ausschnitten und KPM in informeller Form wiedergeben möchte. Die einzelnen Theorie-Elemente des GKPM geschwindigkeitsNetzes entstehen alle durch Spezialisieabhängige Systeme ^ Mane rung, d.h. genauere Bestimmung des Kraftgesetzes, das im Ausgangselement LorentzHookesches Reibungsfreier Gravitations des Netzes noch relativ unbestimmt systeme Gesetz gesetz Fall gesetz gelassen worden war. Das BasisTheorie-Element wird einfach mit Das Netz der KPM „KPM" bezeichnet. Es enthält noch nicht das Impulserhaltungs- oder „actio-reactio"-Gesetz, weil es Theorie-Elemente der KPM gibt, die nicht-abgeschlossene Systeme behandeln. NKPM entsteht gerade durch Hinzunahme des Impulserhaltungssatzes und soll alle abgeschlossenen mechanischen Systeme beschreiben. Eine andere Spezialisierung ist die auf konservative Kräfte, also Kräfte, die sich als Gradienten einer Potentialfunktion beschreiben lassen. Dazu gibt es wiederum eine Reihe von weitergehenden Spezialisierungen, deren berühmteste das Newtonsche Gravitationsgesetz darstellt. Ein weiteres Beispiel finden wir in Galileos Gesetz vom freien Fall und ein anderes im Hookeschen Gesetz für harmonische Oszillatoren. Ein dritter Zweig des Netzes, der noch kurz angedeutet werden soll, nimmt Spezialisierungen des Kraftgesetzes vor, die hauptsächlich geschwindigkeitsabhängig sind. Prominente Beispiele dafür sind zunächst die Reibungsgesetze, aber auch Kräfte wie die Lorentzkraft.25 Ein wesentlicher Aspekt dieses Netzes soll noch kurz zur Sprache kommen. Natürlich kann ein und dasselbe mechanische System eine intendierte Anwendung mehrerer Theorie-Elemente sein, die noch dazu auf unterschiedlichen Ästen liegen können; etwa wenn wir es als abgeschlossenes System von gravitierenden Körpern beschreiben, so daß es sowohl das Impulserhaltungsgesetz erfüllen soll wie auch das Gravitationsgesetz. Bei der Formulierung der empirischen Behauptung der KPM wird deshalb eine Konsistenzforderung zu erheben sein, nach der die Kraftfunktionen und Massenfunktionen, die den Partikeln dieses Systems in den unterschiedlichen Theorie-Elementen zugeordnet werden, zusammenpassen. Das kann anhand einzelner explizit formulierter Links geschehen, die das für spezielle Partikel sichern, aber auch - wie hier - durch eine allgemeine Verträglichkeitsbedingung in der empirischen Behauptung für ein ganzes Netz. Eine Ausgestaltungsmöglichkeit von Theorien-Netzen ist bisher noch nicht erwähnt worden: Sie lassen sich im Prinzip an den Enden der Äste immer weiter ausdehnen bis in Bereiche des technischen Wissens hinein. Für das Hookesche Gesetz ließen sich z. B. weitere Spezialisierungen anführen, die angeben, welche Federkonstanten für welche Materialien und welche Federformen bei bestimmten Temperaturen vorliegen. Das wird

C.

Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik

287

man i.a. nicht mehr zum engeren Bereich der klassischen Partikelmechanik zählen, aber es zeigt, wie die hierarchische Anordnung von wissenschaftlichen Erkenntnissen in Baumstrukturen auch fiir außerwissenschaftliche Bereiche Ordnung schaffen hilft.

7. Theoriendynamik Das bisher angegebene Instrumentarium des Strukturalismus stammt zunächst aus der synchronischen Untersuchung von Theorien und ihrer inneren Struktur, doch das sollte nicht darüber hinwegtäuschen, daß alle genannten Komponenten von Theorien gerade auch zur Aufklärung theoriendynamischer Vorgänge eine wesentliche Rolle spielen. Ein Beispiel dafür bot bereits die Studie von Ulrich Gähde über die Cepheiden Anomalien, die ich im Abschnitt (C.2) skizziert hatte. Ein weiteres schönes Beispiel bietet ebenfalls Gähde (1989, 236ff), wo er beschreibt, wie die Anomalie des Merkurperihels zu einer Folge von Korrekturversuchen an der Newtonschen Gravitationstheorie geführt hat, die sich sukzessive von der Peripherie des Newtonschen Netzes auf sein Basis-TheorieElement hinbewegt, bis schließlich auch dieses aufgegeben wird. Eine solche diachronische Analyse der Wissenschaftsgeschichte war natürlich erst anhand der Kenntnis der reichhaltigen inneren Struktur von Theorien möglich, die zahlreiche Ansatzpunkte für Veränderungen sowie ihre gegenseitige Gewichtung aufzeigt. Mit diesem komplexeren Bild wissenschaftlicher Theorien lassen sich Metaphern wie die vom Netz unserer Erkenntnisse und daß wir versuchen, unsere Theorien mit möglichst geringfügigen Änderungen gegen widerspenstige Experimente beizubehalten, endlich mit Inhalt füllen. Grob gesagt sind die Theorieteile peripherer, die weiter unten im Netz und weiter hinten in den Tupeln der Theorie-Elemente auftreten. Um in unserer Fallstudie der klassischen Partikelmechanik (KPM) zu bleiben, möchte ich kurz auf eine grundlegende Arbeit von Moulines (1979) (s. a. BMS 205ff) eingehen, in der das metatheoretische Instrumentarium des Strukturalismus nebenbei auch noch um eine ganze Reihe von pragmatischen und systematischen Begriffen erweitert wurde, die ebenfalls aufzeigen können, wie der synchronische Apparat für diachronische Fallstudien eingesetzt werden kann. Im Zentrum dieser Arbeit steht die Konzeption von sogenannten Theorie-Entwicklungen, die die Entwicklung einer Theorie als Abfolge von Theorien-Netzen begreift, die untereinander in engen Zusammenhängen stehen. Sie repräsentieren jeweils den Zustand der Theorie für einen gewissen Zeitraum. Je nachdem, wie diese Theorie-Entwicklungen beschaffen sind, können wir dann von progressiven Entwicklungen im Sinne von Lakatos oder etwa von Kuhnschen TheorieEntwicklungen sprechen (s. BMS 221 ff). An dieser Stelle kann ich nicht den Details dieser Erweiterung des Begriffsapparats folgen, sondern werde mich auf einige Aspekte beschränken. Als erstes werden pragmatische Konzepte eingeführt, die helfen sollen, eine Struktur in den historischen Geschehnissen zu identifizieren. 26 Dazu gehört zunächst der Begriff einer historischen Periode h, innerhalb derer die Theorie einigermaßen unverändert geblieben ist. Außerdem ist dann die scientific Community" (SC) zu erwähnen, die dadurch gekennzeichnet

288

VII Wissenschaftliche

Theorien

ist, daß sie in dieser Zeit die Theorie - das jeweilige Theorien-Netz - akzeptiert hat oder ihr gegenüber eine ähnliche epistemische Einstellung eingenommen hat. Besondere Aufmerksamkeit ist in solchen Theorie-Entwicklungen auf die Frage zu richten, welche Spezialisierungen des Netzes neu hinzugekommen sind (oder auch aufgegeben wurden) und wie sich dabei die Menge der intendierten Anwendungen eines Netzes gegenüber dem Vorgängernetz geändert hat. Kontinuitäten in diesen beiden Bereichen während der Theorie-Entwicklung sind ein wesentlicher Aspekt der Identität einer Theorie. So sollten die neuen Spezialisierungen sich als Spezialisierungen der Theorie-Elemente des Vorgängernetzes zeigen und eine größere Überschneidung mit den intendierten Anwendungen des Vorgängernetzes gegeben sein, damit wir von unterschiedlichen Stadien einer Theorie sprechen können. Die größte Bedeutung für die Identität einer Theorie besitzt dabei sicherlich das Basis-Theorie-Element, das für eine Theorie unverändert bleiben sollte. Die Menge der intendierten Anwendungen können wir auch nach verschiedenen epistemischen Einstellungen der „scientific Community", die die Theorie akzeptiert, unterscheiden, z. B. in die Menge der als gesichert angenommenen Anwendungen und die der nur vermuteten Anwendungen der Theorie. Es dürfte gewiß sein, daß man gesichert geglaubte Anwendungen der Theorie nicht ohne größere Not aufzugeben bereit ist. Die nur vermuteten Anwendungen sind jedenfalls peripherer als die gesicherten. Wissenschaftler sind sehr wohl in der Lage, solche erkenntnistheoretischen Unterscheidungen für ihre eigenen Theorien zu treffen. Sie haben nicht unbedingt Kuhnsche Scheuklappen, die sie nicht nach alternativen Theorien und deren Qualitäten schielen lassen. Man muß allerdings bedenken, daß sie oft als Anwälte ihrer Theorien auftreten müssen und dann natürlich nicht gerne bereit sind, bestimmte Anwendungen als weniger sicher oder sogar noch recht spekulativ einzustufen. Auf der Grundlage solcher Unterscheidungen lassen sich schließlich auch Bewertungsmaßstäbe für ganze Theorien vorschlagen. Für progressive Theorie-Entwicklungen im Sinne von Lakatos erwarten wir etwa, daß sich der Anteil der als gesichert geltenden Anwendungen erhöht hat. Für Kuhnsche Theorie-Entwicklungen erwarten wir dagegen vor allem, daß es ein paradigmatisches Basis-Theorie-Element und eine Menge von paradigmatischen Anwendungen der Theorie gibt, die sich durch alle Theorien-Netze der Entwicklung ziehen. Um ein gewisses Gefühl dafür zu bekommen, wie derartige Theorie-Entwicklungen konkret aussehen, verweise ich auf die anfängliche Entwicklung der klassischen Partikelmechanik, wie sie von Moulines (1979) rekonstruiert wurde und auch in BMS (223ff) wiedergegeben ist.

8. Die empirische Behauptung einer Theorie Nun haben wir alle wesentlichen Komponenten von Theorien beisammen, die notwendig sind, um die empirische Behauptung, die man mit einer Theorie T aufstellt, präzisieren zu können. Beginnen wir dazu mit dem Fall eines einzelnen Theorie-Elements ehe wir zu den Behauptungen ganzer Theorien-Netze übergehen. Wir haben gesehen, daß

C.

Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik

289

die Daten, auf die wir eine Theorie T stützen möchten oder die wir mit ihr erklären möchten, in Form eines partiellen Modells als Instanzen eines Phänomens in der Tnicht-theoretischen Begrifflichkeit beschrieben werden. Von jedem derartigen System aus der Menge der intendierten Anwendungen können wir sagen, daß es die Gesetze der Theorie erfüllt, wenn es sich so um theoretische Komponenten erweitern läßt, daß die vollständige Beschreibung des Systems ein Modell der Theorie darstellt. Verschieben wir die möglicherweise noch einzubeziehenden Approximationen zunächst einmal auf den nächsten Abschnitt, sind trotzdem noch zwei andere Theoriekomponenten für die mit einer Theorie verknüpfte Behauptung zu berücksichtigen: Nämlich erstens die intertheoretischen Anforderungen, die aus Verbindungen zu anderen Theorien herrühren und durch Links wiedergegeben werden - unser Modell sollte also auch Element des globalen Links sein, d.h. in L(T) liegen. Zweitens ist die holistische Komponente, die uns die Constraints angeben, zu berücksichtigen, denn es geht nie nur darum, ein einzelnes partielles System zu einem Modell zu erweitern, sondern immer darum, mehrere Systeme gleichzeitig und in konsistenter Weise als Modelle der Theorie zu erweisen. Deshalb betrachten wir immer gleich Mengen von Modellen. Die Modellmenge, die auf der theoretischen Ebene damit anvisiert wird, ist der theoretische Gehalt TG von T: TG(T) := 9?(M) n C n 9?(L) r gibt uns alle theoretischen Anforderungen die die Theorie T an die Strukturen stellt, auf die sie angewandt werden soll. Durch die Projektionsfunktion r, die die theoretischen Größen „abschneidet", erhalten wir ein entsprechendes Mengensystem auf der nicht-theoretischen Ebene, das man auch den empirischen Gehalt EG von T nennt: EG(T) := r[2?(M)nCn{L)] = r[TG(T)] Die empirische Behauptung von T = läßt sich dann schreiben: Empirische Behauptung von T I e EG(T), d.h. die intendierten Anwendungen lassen sich gemeinsam in den empirischen Gehalt der Theorie einbetten, der wiederum nur solche Mengen enthält, die sich als Ganzes zu Modellen erweitern lassen, die im theoretischen Gehalt der Theorie liegen, also alle Anforderungen der Theorie (Grundgesetze, Spezialgesetze, innertheoretische Konsistenzforderungen und intertheoretische Beziehungen) erfüllen. Auf Theorien-Netze läßt sich diese Formulierung nicht in ähnlich einfacher Weise übertragen, denn die empirische Behauptung von ganzen Netzen ist auf verschiedenen Ebenen angesiedelt und läßt sich auch nicht als bloße Konjunktion der empirischen Behauptungen der Elemente des Netzes verstehen. Eine solche Konjunktion könnte nämlich nicht sicherstellen, daß dasselbe partielle Modell aus I0, wenn es in verschiedenen Spezialisierungen des Netzes auftritt, auch in gleicher oder zumindest konsistenter Weise zu einem vollständigen Modell erweitert wird (s. dazu Gähde 1989, 66ff).

290

VII Wissenschaftliche

Theorien

Um eine Formulierung zu gewinnen, die es gestattet, Theorien-Netze in ähnlicher Weise wie Theorie-Elemente zu behandeln und die formale Darstellung außerdem verständlicher zu gestalten, führe ich Einbettungsfunktionen % ein, die die Faserbündelstruktur von respektieren: "g(T) := {e:Mpp

M p ; mit r ° e = idMpp}

Eine Einbettungsfunktion ordnet also jedem partiellen Modell x ein potentielles y zu, das in dem Sinne „über" ihm liegt (in der Faser von x bzgl. r), daß das „Abschneiden" der theoretischen Funktionen wieder zu x zurückführt. Sie bettet, anders ausgedrückt, ein partielles Modell x in eine theoretische Erweiterung y zu x ein. Diese Einbettungsfiinktionen (oder Erweiterungsfunktionen) drücken so anschaulicher aus, worum es in der empirischen Behauptung von T geht, nämlich die Einbettung eines Phänomens in ein Modell der Theorie. Damit ergibt sich für die empirische Behauptung von T: Empirische Behauptung von T 3e € %(T) mit: e(I) e TG(T) D.h., es gibt eine gemeinsame Einbettung der intendierten Anwendungen, die die theoretischen Anforderungen von T erfüllt. Diese Einbettung läßt sich in dem nebenstehenden Diagramm, in dem die erlaubten Erweiterungen zu jedem Punkt x e M pp (oder anders ausgedrückt: die Fasern zu x bzgl. r) jeweils senkrecht über x angeordnet sind, auf einfache Weise geometrisch veranschaulichen. Die Modellmenge wird hier als ovales Gebiet in der Theoretische Einbettung von I Menge der begrifflichen Strukturen M p (dem Totalraum des Bündels) und die Constraints werden durch Linien repräsentiert. Die Linien sollen die Verträglichkeit potentieller Modelle untereinander etwa im Rahmen eines Identitätsconstraints repräsentieren. Sie fügen jeweils die erlaubten Kombinationen von Modellen zusammen. Die Einbettungsfunktion e hat dann die Aufgabe, „oberhalb" von I (in den potentiellen Modellen) einen Constraintabschnitt e(I) herauszugreifen, der dazu noch in der Modellmenge liegt (und natürlich auch noch L erfüllt, auf dessen Darstellung ich aber hier verzichte). Gibt es eine derartige Einbettungsfunktion, so liegt natürlich auch I im empirischen Gehalt von T und umgekehrt. 27 Nun sind wir auch gerüstet, die empirische Behauptung eines Theorien-Netzes X = (Ti)i e j mit einer endlichen Indexmenge J = {0,...,n}, das durch die Spezialisierungsbeziehung CT geordnet ist und als Basis-Theorie-Element T 0 enthält, zu bestimmen. Die Lösung zu diesem Problem stammt von Ulrich Gähde, der in seiner Arbeit (1989) den folgenden Vorschlag begründet hat.28 Betrachten wir als erstes ein kleines Netz mit nur

C.

Das Netz einer Theorie am Beispiel der klassischen

Partikelmechanik

291

zwei Theorie-Elementen T 0 und T,. Unzureichend ist zunächst die schlichte Konjunktion der empirischen Behauptungen der beiden Theorie-Elemente, denn dabei kann eine netzinterne Konsistenzforderung im Stile der Identitätsconstraints verletzt werden. Konkreter ausgedrückt: Dasselbe partielle Modell kann in T 0 anders eingebettet werden als in T]. Damit wird ein und dieselbe Situation in einer auf zwei womöglich inkonsistente Weisen beschrieben. Um das zu verhindern, bezieht sich Gähde (1989, 66ff) explizit auf die jeweiligen gesuchten Erweiterungsmengen XQ und X,: Empirische Behauptung des kleinen Netzes 3Xo 3X, [r(Xo) = I0 A XO e TG(T 0 ) A r(X,) = I,

A

X, s TG(T,)

A X , C X „ ]

29

Daß die beiden theoretischen Ergänzungen XQ und X, nicht unterschiedliche Zuschreibungen für die theoretischen Größen vornehmen wird durch die Inklusionsbeziehung am Ende ausgedrückt. Mit Hilfe der Einbettungsbeziehungen läßt sich das etwas einfacher angeben für %(K) := (Mp(T)) 2) Vx e Mp(T): {x} e C(T) 3) 0 « C ( T ) Außerdem gibt es auch Konsistenzforderungen zwischen verschiedenen TheorieElementen, die sogenannten Links, die zwischen n-Theorie-Elementen vermitteln sollen. ß(T 1 ,...,T n )cM p (T 1 )x...xM p (T n ), Dabei wird der Effekt auf die empirische Behauptung eines einzelnen Theorie-Elements wie z. B. Tj wird durch die folgende Teilmenge der potentiellen Modelle von T, ausgedrückt: L(T,) := {x e Mp(T,); 3x2 e Mp(T2) ... xn e Mp(Tn) mit: e (T,,..,T n )} Die beiden Ebenen und ihre wichtigsten Komponenten und Zusammenhänge für ein Theorie-Element sind noch einmal im nebenstehenden Mengendiagramm zusammengestellt. Den Zusammenhang dieser Theoriekomponenten kann man in einem Bild veranschaulichen, das darüber hinaus noch den theoretischen Gehalt TG und den entsprechenden empirischen Gehalt EG kennzeichnet. Theorien-Netze Aus den eben beschriebenen Theorie-Elementen setzen sich die Theorien-Netze zusammen, wobei alle Elemente sich als Spezialisierungen eines Basis-Theorie-Elements ergeben. Sie geben uns spezielle Gesetze für einen eingeschränkten Teilbereich der intendierten Anwendungen. Die Spezialisierungsbeziehung läßt sich daher mengentheoretisch folgendermaßen beschreiben: T' ist ein Spezialisierung von T (T' a T) gdw: i) M p ' = Mp ii) M pp ' = Mpp iii) M ' c M iv) C ' c C v) L ' c L vi) I ' c l , Für ein baumartiges Netz N mit dem Basis-Theorie-Element T0 partiell geordnet durch die Spezialisierungsbeziehung c und J = {0,...,n}ergibt sich:37

C.

Das Netz einer Theorie am Beispiel der klassischen Partikelmechanik

299

M = (T|)ieJ ist ein (baumartiges) Theorien-Netz gdw: (a) Für alle i e J: Tj ist ein Theorie-Element. (b) Für alle i € J: Tj c T0. Empirische Behauptung von Theorien Für die Bestimmung der empirischen Behauptung von Theorie-Elementen und Theorien-Netzen benötigen wir einige Hilfsbegriffe, wie den theoretischen Gehalt von T: TG(T) := 2P(M) n C n 3 > ( L ) Durch die Projektionsfunktion r erhalten wir ein entsprechendes Mengensystem auf der nicht-theoretischen Ebene, das man auch den empirischen Gehalt von T nennt: EG(T) := r[9»(M) n C n 9>(L)] Die empirische Behauptung von T = , die besagt, daß alle intendierten Anwendungen der Theorie (zusammengefaßt in I) sich in gleichzeitig und in konsistenter Weise um theoretische Komponenten zu aktualen Modellen erweitern lassen, läßt sich dann schreiben: I e EG(T), oder auch mit Hilfe der Einbettungsfunktionen % von T: % Mp; mit r ° e = idMpp} wird daraus schließlich: Empirische Behauptung von T: 3e e %(T) mit: e(I) € TG(T) Das läßt sich ausdehnen auf Einbettungsfunktionen für ganze Netze Jf = (Tj)ieJ von Theorie-Elementen, und es ergibt sich dann für die empirische Behauptung ganzer Netze Jf: Empirische Behauptung von M (EB) 3e e rZ(N) Vj e J [e(Ij) e TG(Tj)] Wenn man nun noch die Approximationen berücksichtigt, die jede empirische Behauptung begleiten, erhalten wir anhand der tolerierbaren Verschmierungen die: Approximative Empirische Behauptung von M (AEB) 3e e %(K) Vj e J [e(Ij) i TG(Tj)], die den Gehalt des gesamten Theorien-Netzes zum Ausdruck bringt und dabei alle Komponenten von Theorien berücksichtigt.

300

VII Wissenschaftliche

Theorien

Anmerkungen zu Kapitel VII 1

Das gilt zumindest, wenn wir an „lokale" Alternativen denken und nicht an vollständig andere Überzeugungssysteme wie etwa die skeptischen. 2 Beispiele werden im folgenden deutlicher machen, wie solche Modelle auszusehen haben. 3 Für das genannte Beispiel siehe etwa Bartelborth (1988, 143ff). 4 Für weitere Erläuterungen zu diesen Aspekten der strukturalistischen Auffassung möchte ich hauptsächlich auf Balzer/Moulines/Sneed (1987) im folgenden kurz (BMS) verweisen und auf die Beispiele, die noch folgen werden. 5 Dabei stütze ich mich auf strukturalistische Rekonstruktionen sowohl der historischen Entwicklung der Theorie (Moulines 1979; BMS 1987, 223ff) wie auch auf synchronische Axiomatisierungen (Balzer/Moulines 1981; BMS 1987, 180ff), weiche aber u.a. aus Gründen der verständlicheren Darstellung gelegentlich von ihnen ab. Die Komponenten der Theorien, die ich im folgenden vorstelle, sind ebenfalls in BMS (1987) zu finden und dort ausfuhrlicher erläutert. 6 In Bartelborth (1988) und (1993) wird im Rahmen der speziellen und der allgemeinen Relativitätstheorie ausgeführt, wie man Koordinatisierungen einzubringen hat und wie man der Lokalitätsbedingung an strukturalistische Modelle (s.u.) genügen kann. 7 z wird dabei als ein Vektor von solchen Parametern angesehen, auf dessen innere Struktur ich aber nicht weiter eingehen möchte. 8 Unter „differenzierbar" verstehe ich hier aus Gründen der Vereinfachung immer „unendlich oft differenzierbar". 9 Natürlich kann eine lokale Anwendung entsprechender Theorien auch eine kosmologische sein. 10 Für weitere Beispiele siehe BMS (1987, 41ff) und für einen Constraint, der raumzeitliche Invarianzen beschreibt, Bartelborth (1993). 11 Mit ^ ( A ) bezeichne ich die Potenzmenge von A. 12 Die Darstellung ist sehr vereinfacht und für die detaillierte Geschichte s. Gähde (1989, 166ff) oder auch Gähde (1989b) in etwas kürzerer Form. 13 Auf den in BMS (1987, 106) zusätzlich formulierten Identitätsconstraint für die Kraft verzichte ich an dieser Stelle, da es einen etwas höheren formalen Aufwand erfordert, einzelne Kraftkomponenten zu identifizieren. 14 Wobei mit Px und m x jeweils die Partikelmenge bzw. die Massenfunktion des potentiellen Modells x gemeint ist. 15 Siehe dazu BMS 105f. 16 In Bartelborth (1993) findet sich eine Rekonstruktion dieses Theorienkomplexes, die zeigt wie sich hierarchische versus holistische Ansichten in diesem Fall verhalten. Ein Vorschlag, wenigstens eine approximative Hierarchie aufrechtzuerhalten, stützt sich schließlich wesentlich auf die Konzeption lokaler Modelle. 17 Die Spezialisierungsbeziehung wird später noch präzisiert. 18 Eine innerphysikalische Diskussion, die diesen intertheoretischen Charakter der Bewegungsgleichung des öfteren aus den Augen verloren hat und dadurch einige unnötige Wellen schlug, war die um die korrekte Gestalt des elektromagnetischen Energie-Impuls-Tensors, die u.a. in Bartelborth (1988, Kap. II) analysiert wird. 19 Zur formalen Präzisierung von abstrakten und konkreten Links s. BMS (1987, 61). 20 Auch Friedman spricht in (1983) von Submodellen, wobei er manchmal ähnliche Unterscheidungen im Auge hat.

Anmerkungen 21

301

Unter „differenzierbar" verstehe ich immer unendlich oft differenzierbar. Nichts hindert uns daran, nichtmechanische Systeme mit der Begrifflichkeit der Mechanik zu beschreiben. Von Kräften spricht man z.B. in Kontexten wie „den Kräften des Marktes" usw. Die so beschriebenen Systeme werden aber natürlich damit noch nicht zu intendierten Anwendungen der klassischen Partikelmechanik. 23 Auch an dieser Stelle gibt es einen wichtigen Unterschied zur Anwendung mathematischer Theorien. Da es für rein mathematische Größen keine empirischen Meßverfahren und damit auch keine analoge theoretisch/nichttheoretisch Unterscheidung gibt, können wir ihre Anwendungen nicht auf einer vortheoretischen Ebene beschreiben. Derartige Differenzierungen entfallen dort. 24 Neben den strikten Spezialisierungen stoßen wir auch manchmal auf approximative Spezialisierungen, so etwa im Falle der Elektrodynamik (s. Bartelborth 1988). 25 In diesem Punkt beziehe ich mich einfach auf die Darstellung der KPM in (BMS, 189f), um auch die Flexibilität des strukturalistischen Instrumentariums zu zeigen, ohne sie inhaltlich weiter zu diskutieren. 26 Für eine ausführlicher Darstellung s. BMS (205ff). 27 Denn I = r[e(I)] und da e(I) e TG(T) gilt, ist I e r[TG(T)]. 28 Außerdem hat er (1989, 120ff) gezeigt, daß die Vorschläge von Balzer/Sneed (1977/78), Zandvoort (1982) und Stegmüller (1986) nicht ausreichend sind. 29 In der Notation sind schon einige Abkürzungen gegenüber Gähde (1989, 97) vorgenommen worden. 30 Dabei hat die Forderung nach einer bijektiven Abbildung von I 0 nach X 0 für unendliche Mengen auch nicht ganz den erwünschten Effekt. 31 Für eine Reihe von Beispielen einschließlich einer Klassifikation für approximative Zusammenhänge siehe BMS 323ff. 32 Eine perfekte Übereinstimmung zwischen Daten und Theorie würden wir nicht als Indiz für eine besonders gute Theorie, sondern für „gefilterte" oder „getürkte" Daten betrachten. 33 In Bartelborth (1994a) verweise ich auch noch auf Gründe, die gegen eine solche Interpretation kontinuierlicher Räume sprechen. 34 Dabei bezeichne ich die Weg-Zeit-Funktionen aus beiden Modellen der Einfachheit halber mit s, zumal sie sich auf dieselbe Koordinatisierung beziehen sollen. 35 In Bartelborth (1988, 125ff) wird erläutert, wie sich eine Quasimetrik für Kontinuumstheorien einfuhren läßt und wie fruchtbar sie für einen Vergleich zwischen vorrelativistischen und relativistischen Theorien ist. 36 Für zwei Mengen A und B gilt A i B gdw: Es gibt eine Menge C, so daß A ~ C und C e B gilt. 37 Neben den strikten Spezialisierungen stoßen wir auch manchmal auf approximative Spezialisierungen, so etwa im Falle der Elektrodynamik (s. Bartelborth 1988). 22

VIII Wissenschaftliche Erklärungen

A. Erkenntnistheoretische Funktionen von Erklärungen In früheren Kapiteln der Arbeit besonders in (IV) hatte ich argumentiert, daß wir für begründete Meinungen immer auf ein kohärentes Netz von Überzeugungen angewiesen sind, in dem Theorien oder zumindest allgemeine Überzeugungen eine verbindende Rolle zu übernehmen haben. Mit Hilfe der durch sie verfügbaren Erklärungen konnten Beobachtungen und andere Bestimmungsstücke unseres Wissens in einen indirekten Bestätigungszusammenhang gebracht werden, der gerade Kohärenz ausmacht. Theorien erwiesen sich dabei insbesondere in den Wissenschaften als Gebilde mit einer komplizierten inneren Struktur, die sich am leichtesten durch Tupel von Modellmengen darstellen läßt (s. VII). Was Erklärungen sind, wurde bisher allerdings noch nicht beantwortet. Doch immerhin verfugen wir über viele klare Beispiele für gute und schlechte Erklärungen und besitzen überdies allgemeine Vorstellungen von Erklärungen, die uns nun für eine Präzisierung des Erklärungsbegriffs anleiten werden. Dabei soll die kohärenzstiftende Funktion von Erklärungen zum Maßstab erhoben werden, um die geeigneten Explikationen des Erklärungsbegriffs von weniger angemessenen zu trennen. Die Erkenntnistheorie steckt somit den Rahmen ab, den Erklärungen mit Inhalt zu füllen haben. Natürlich verlangen wir von der gesuchten Explikation paradigmatische Beispiele von Erklärungen aus dem Alltag und den Wissenschaften zu erfassen. Zwar kann man sich in bestimmten Fällen dazu entschließen, einige Zusammenhänge, die wir bisher für erklärend hielten, nun als solche zurückzuweisen, aber man kann das nicht unbegrenzt tun, ohne den Anspruch aufzugeben, eine Explikation von „Erklärung" vorzulegen. Der Test einer Erklärungstheorie an Beispielen von Erklärungen wird also eine bedeutsame Rolle spielen. Aber er ist in der bisherigen Erklärungsdebatte zu stark in den Vordergrund getreten. Die Diskussionen um eine angemessene Erklärungstheorie haben sich fast ausschließlich an einzelnen meist noch nicht einmal realistischen Beispielen orientiert. Damit ließ man größere wissenschaftsphilosophische oder erkenntnistheoretische Zusammenhänge einfach außer Acht. Ein anderer Aspekt für eine moderne Erklärungstheorie, der in den letzten Jahren immer stärker in den Blick genommen wurde, ist der Zusammenhang von Erklärungen und Verstehen. Ein wesentliches Ziel wissenschaftlichen Erkenntnisstrebens ist es, Einblicke in die Welt und ihr Funktionieren zu geben, die es gestatten, unsere Umwelt zu verstehen. Das beinhaltet dann meist auch, daß wir sie beeinflussen oder sogar

304

VIII Wissenschaftliche

Erklärungen

beherrschen können, wofür die technische Entwicklung unseres Jahrhunderts ein beredtes - wenn auch nicht immer wünschenswertes - Zeugnis ablegt. Da die Explikation von Erklärung im wissenschaftlichen Bereich ihren Schwerpunkt haben soll - denn hier finden sich die typischen und expliziten Exemplare von Erklärungen - , geht es mir in erster Linie um ein wissenschaftliches Verstehen von Vorgängen oder Tatsachen. Wissenschaftliche Erklärungen sollten also in der Lage sein, wissenschaftliches Verstehen zu befördern. Eine typische Frage könnte in diesem Zusammenhang etwa lauten: Ich verstehe nicht, warum in Lebewesen nur die sogenannten L-Aminosäuren zu finden sind und nicht die chemisch gleichwertigen D-Formen. Kannst Du mir das erklären? Oder: Warum laufen die Planeten auf Ellipsenbahnen um die Sonne? Das verstehe ich nicht. In all diesen Fällen versprechen wir uns von Erklärungsepisoden, daß sie das Verstehen eines wissenschaftlichen Sachverhalts zur Folge haben. Die Erklärungen, um die es dabei geht, sind typischerweise - aber nicht ausschließlich, wie wir noch sehen werden - Antworten auf Warum-Fragen.

B. Wissenschaftliches Verstehen Was aber ist mit wissenschaftlichem Verstehen gemeint? Schon Hempel (1977, 148ff) untersuchte diese Frage und beschäftigte sich mit der oft dazu geäußerten Ansicht, daß eine Erklärung die Verwirrung des Fragestellers beseitigen soll, indem sie ein Phänomen, das er nicht versteht, auf uns Vertrautes zurückführtDiese Ansicht, die insbesondere von Bridgeman vertreten wurde, hat eine ganze Reihe von Beispielen auf ihrer Seite. Etwa die in der Physik häufig anzutreffenden Versuche, mechanische Modelle für physikalische Vorgänge zu finden. Das reicht von Analogien zwischen Licht und Wasserwellen über Maxwells mechanische Modelle des Äthers und Bohrs Atommodell als einem kleinen Planetensystem bis hin in die Thermodynamik, die man durch einen Vergleich mit sich elastisch stoßenden Billiardbällen zu verstehen hofft. Gerade für den Bereich der wissenschaftlichen Erklärungen besitzt die Zurückführung auf Vertrautes aber auch mindestens genauso viele Gegenbeispiele. Viele Phänomene unseres Alltags vom Sonnenaufgang und hellen Strahlen der Sonne, über den Regenbogen, dem Wachsen der Pflanzen und Tiere bis hin zu dem Funktionieren unserer elektrischen Geräte sind uns sehr vertraut. Wir können aber deshalb noch nicht sagen, wir hätten sie auf einem wissenschaftlichen Niveau verstanden. Außerdem werden gerade diese relativ vertrauten Phänomene häufig durch uns viel unvertrautere Theorien erklärt, wobei insbesondere die Quantenmechanik an prominenter Stelle zu nennen ist, die in der heutigen Physik einen ausgezeichneten Platz einnimmt. Statt Zurückfuhrung auf Vertrautes möchte ich daher eher kohärente Einbettung in unser Überzeugungssystem als charakteristisch für wissenschaftliches Verstehen vorschlagen. Die Zurückführung auf Vertrautes bestand in der Regel in dem Verbinden zweier Vorgänge, die vorher isoliert nebeneinander standen. Wir zeigen für Wellenvorgänge im Wasser und bei elektromagnetischen Phänomenen, daß sich viele Phänomene

B. Wissenschaftliches Verstehen

305

wie Interferenz oder Beugung in beiden Bereichen strukturell gleich verhalten. Das Entscheidende daran ist, daß wir sie unter eine gemeinsame Theorie der Wellenphänomene subsumieren. Hempel (1977, 162) nennt dazu das Beispiel von Gauß, der eine explizite Theorie der Potentialkräfte für Gravitations-, elektrische und magnetische Kräfte entwickelt hat. Diese Verknüpfung erhöht für die verschiedenen beteiligten Bereiche ihre Kohärenz in unserem Überzeugungssystem. Alle bekannten Eigenschaften solcher konservativen Kräfte, wie die Wegunabhängigkeit der Energiebilanz, können nun durch die abstraktere allgemeine Theorie konservativer Kräfte erklärt werden. Diese Erklärung auf recht abstraktem Niveau erhöht eindeutig die Anzahl der inferentiellen Zusammenhänge zwischen Überzeugungen, die zunächst unverbunden nebeneinander standen. Dabei kann eines der Phänomene vertrauter und damit bereits in unserem Meinungssystem besser verankert sein, so daß die epistemische Stützung stärker das andere betrifft, dessen kohärente Einbettung noch zu wünschen übrig läßt. Die Überlagerung von Wasserwellen ist uns wahrscheinlich so vertraut, daß wir für das Vorliegen und die Beschreibung dieses Phänomens durch ihren Zusammenhang zur Überlagerung elektromagnetischer Wellen keinen erkenntnistheoretischen Gewinn erwarten, während das für das Verständnis der elektromagnetischen Phänomene durchaus der Fall ist. Natürlich erfolgt eine Verstärkung der Einbindung in unsere Überzeugungssyteme aber auch in der anderen Richtung von den weniger vertrauten zu den vertrauteren Vorgängen. Insbesondere ist der Vertrautheitsgrad kein zuverlässiger Maßstab für die Kohärenz der Einbettung. Das Strahlen der Sonne ist uns zwar durch alltägliche Wahrnehmungen sehr vertraut, aber ein wissenschaftliches Verständnis erfordert daneben auch eine theoretische Einordnung, die in diesem Fall in einer kausalen Erklärung zu suchen ist. Die liefert uns erst die Quantenmechanik mit ihrer Beschreibung des „Wasserstoffbrennens" der Sonne. Die Quantenmechanik ist uns zwar im Alltag nicht vertraut, aber sie ist nichtsdestoweniger erkenntnistheoretisch hervorragend in unser wissenschaftliches Wissen eingebettet und besitzt daher die Kraft, auch die wissenschaftliche Einbettung der Sonnenvorgänge wesentlich zu befördern. Die Beschreibung vom Verstehen als kohärenter Einbettung in unser Überzeugungssystem kann damit beide Klassen von Beispielen abdecken und unterstreicht noch einmal die Bedeutung des allgegenwärtigen Kohärenzgedankens. Außerdem paßt die Konzeption von kohärenter Einbettung als Verstehen auch gut zur Ansicht von Lambert (1988, 304ff), für den wissenschaftliches Verstehen einer Tatsache E darin besteht, zu zeigen, wie E in eine Theorie T hineinpaßt. Das Einbetten einer Tatsache in eine Theorie ist ein wesentlicher Spezialfall wissenschaftlichen Verstehens im Sinne der kohärenten Einbettung in unser ganzes Überzeugungssystem. In einigen Fällen, so z. B. beim Verstehen historischer Daten, können wir allerdings auch von Verstehen sprechen, ohne daß wir eine bestimmte Theorie zitiert hätten oder auch nur zitieren könnten, in die sich diese Daten einpassen ließen. Dabei stehen zwar oft allgemeine Modelle menschlichen Verhaltens im Hintergrund, die lassen sich aber wohl nicht in geradliniger Weise zu einer bewährten wissenschaftlichen Theorie ausbauen.

306

VIII Wissenschaftliche Erklärungen

Ein Argument von Hempel (1977, 149) gegen die Vorstellung, daß Erklärungen eine Zurückführung auf Vertrautes anzubieten hätten, soll noch erwähnt werden, weil es sich vielleicht auch gegen die Konzeption der kohärenten Einbettung wenden ließe. Hempel weist darauf hin, daß nach dieser Konzeption Erklärungen auf Personen zu relativieren sind, während wissenschaftliche Erklärungen sich für ihn als objektive Beziehungen darstellen. Dieser Einwand trifft meines Erachtens die angegriffene Position nicht wirklich. Welche Erklärungen uns offenstehen, hängt natürlich immer davon ab, über welche Theorien wir bereits verfugen, und ist daher auch in diesem harmlosen Sinn personenrelativ, weil verschiedene Personen zu verschiedenen Zeiten unterschiedliche Theorien akzeptieren. Doch damit werden Erklärungen selbst noch nicht eine personenrelative und subjektive Angelegenheit. Entsprechendes läßt sich etwa von den sicher objektiven logischen Schlüssen sagen. Welche ich tatsächlich ziehen kann, hängt von meiner Prämissenmenge ab und wie einfallsreich ich im Durchführen logischer Beweise bin. Davon bleibt unberührt, daß deduktive Zusammenhänge eine objektive Beziehung zwischen Aussagenmengen sind. Entsprechendes gilt auch für den objektiven Teil in Erklärungen, wie wir später sehen werden. Nur über welche wir verfügen, ist von der jeweiligen Person abhängig. Für wissenschaftliche Erklärungen tritt dieses Phänomen der Personenrelativität schon deshalb nicht so stark in Erscheinung wie für Alltagserklärungen, weil es einen großen Bereich wissenschaftlich akzeptierten Standardwissens gibt, so daß beträchtlich abweichende Meinungen und Erklärungen oft nicht mehr als wissenschaftlich zu betrachten sind. Durch diese gemeinsame Basis für Ansichten der Wissenschaftlergemeinschaft (auch auf der Ebene der wissenschaftlichen Methodologie) herrscht eine relativ große Einigkeit, was als wissenschaftliche Erklärung zu gelten hat und was nicht. Dieses Phänomen mag Hempel über den Punkt der Abhängigkeit vom jeweiligen Wissenstand hinwegtäuschen, aber er liegt natürlich auch hier vor. Zumindest für meine Einbettungskonzeption von Verstehen haben wir jedenfalls keinen Grund anzunehmen, daß die Personenrelativität über dieses harmlose Maß hinausgeht.

C. Die klassische Erklärungskonzeption Ausgangspunkt nahezu aller heutigen Debatten um Erklärungen ist die klassische Konzeption wissenschaftlicher Erklärungen von Hempel und Oppenheim (1948): das deduktiv-nomologischen Modells (kurz: DN-Schema) von Erklärung.2 Auch wenn hier die Idee zum erstenmal mit der gebotenen Klarheit ausgedrückt wurde, findet sie sich schon vorher bei Carnap oder auch bei Popper. Der Grundgedanke Hempels ist recht elementar: Eine Erklärung ist demnach ein Argument, das uns angibt, warum ein zu erklärendes Ereignis zu erwarten war. Natürlich ist nicht jedes beliebige Argument schon eine wissenschaftliche Erklärung, weshalb dieser Gedanke weiter spezifiziert werden muß. Die erste zusätzliche Anforderung Hempels ist die nach einem Naturgesetz unter den Prämissen des Arguments, was geradezu dokumentieren soll, daß es sich um eine wissenschaftliche Erklärung handelt. Ein weiterer grundlegender Punkt ist die

C. Die klassische

Erklärungskonzeption

307

Forderung, der Schluß im Argument müsse ein deduktiver Schluß sein. Für alltägliche Argumentationen lassen sich nur schwer entsprechend präzise Standards flir eine Beziehung zwischen Prämissen und Konklusion finden, aber für wissenschaftliche Erklärungen verlangt das DN-Schema den strengstmöglichen, nämlich den des logisch gültigen Schlusses. Wissenschaftliche Erklärungen eines Ereignisses sind folglich logische Subsumptionen unter Naturgesetze. Im allgemeinen reichen Naturgesetze allein natürlich nicht aus, um ein konkretes Ereignis abzuleiten, weil sie nur angeben, welche Weltverläufe möglich sind und nicht, welche tatsächlich realisiert werden. Hempels erstes Beispiel (1977, 5ff), das ein uns vertrautes Phänomen zum Gegenstand hat, soll diesen Aspekt von Erklärungen deutlich machen. Wenn ich ein Wasserglas aus dem heißen Seifenwasser herausnehme und umgekehrt auf den Tisch stelle, kommen unterhalb des Glasrandes Seifenblasen hervor, die zunächst größer werden und sich später wieder zurückziehen. Schon John Dewey hatte eine Erklärung für dieses Phänomen anzubieten: Die anfangs noch kalte Luft wird von dem warmen Glas erwärmt, dehnt sich aus und quillt unter dem Glasrand hervor, wodurch der zwischen Glas und Tisch befindliche Seifenfilm Blasen bildet. Später kühlen Glas und Luft darin ab, die Luft zieht sich zusammen und die Blasen schrumpfen wieder. Implizit bezieht man sich in dieser Erklärung auf Naturgesetze etwa über die Ausdehnung von Gasen bei Erwärmung und den Wärmeaustausch von Körpern mit unterschiedlicher Temperatur. Daneben werden aber genauso Angaben über die Startbedingungen des Vorgangs benötigt, wie die Ausgangstemperatur des Glases und der in ihr befindlichen Luft, sowie das Vorhandensein von Seifenwasser. Diese werden als Antezedenzbedingungen neben den Gesetzen stehen, um das Explanandumphänomen abzuleiten. Das DN-Schema erhält damit nach Hempel (1977, 6) die folgende Gestalt: DN-Schema der wissenschaftlichen Erklärung A,,..., An Explanans Gl».... G^ E Explanandum-Satz Hierbei stehen die Aj für singulare Antezendenzsätze und die G; für die verwendeten Gesetze. Neben den eher formalen Anforderungen an die Struktur von Erklärungen gibt Hempel noch zwei inhaltliche Adäquatheitsbedingungen an. Die Sätze des Explanans sollen empirischen Gehalt besitzen, denn es geht Hempel um naturwissenschaftliche Erklärungen empirischer Phänomene. Außerdem sollen die Sätze wahr sein. Dann spricht Hempel (1977, 7) von einer wahren Erklärung und anderenfalls von einer bloß potentiellen DN-Erklärung. Mir geht es im Unterschied zu Hempel natürlich in erster Linie um eine Explikation der potentiellen Erklärung, denn die (potentiellen) Erklärungen sollen im Rahmen dieser Arbeit erst als Indikatoren dienen, mit denen wir der Wahrheit auf die Schliche kommen wollen. Darunter fallen dann auch Wie-möglich-Erklärungen, die neben den Antworten auf Warum-Fragen einen Großteil der Erklärungen stellen. Auch Salmon (s. 1989,

308

VIII Wissenschaftliche Erklärungen

137ff) und andere Wissenschaftstheoretiker glauben inzwischen nicht mehr, daß sich im Prinzip alle Erklärungen als Antworten auf Warum-Fragen darstellen lassen. Für eine große Zahl wissenschaftlicher Erklärungen konnten Hempel und seine Nachfolger zeigen, daß sie recht genau dem DN-Schema der Erklärung entsprechen. Trotzdem ergaben sich von Beginn an zahlreiche Schwierigkeiten für das Hempelsche Modell, von denen ich einige, die von Bedeutung für den Fortgang der Debatte um eine Explikation von „wissenschaftlicher Erklärung" sind, nun besprechen möchte.3

1. Erste Probleme des DN-Schemas a) Das Problem der Gesetzesartigkeit Ein erstes und offensichtliches wissenschaftstheoretisches Problem des DN-Schemas ist es, genauer zu bestimmen, was unter einem Naturgesetz zu verstehen ist. Bekanntlich ist nicht jede Allaussage wie (*)

Alle Münzen in der Tasche von Fritz sind aus Silber.

schon ein Naturgesetz. Auf das Problem, Bedingungen für Gesetzesartigkeit zu formulieren, hat sich schon Hempel (1977) eingelassen, aber seine Hinweise (1977, 10), daß sie eine wesentlich generelle Form haben sollen, nicht aus logischen Gründen auf eine endliche Menge beschränkt sein dürfen und ebensowenig auf spezielle Individuen (1977,12) bezug nehmen dürfen, reichen aus heutiger Kenntnis des Problemfeldes Gesetzesartigkeit für eine Lösung kaum aus. Da die Forderung nach einem Gesetz in den Explanansbedingungen jedoch eine der wenigen substantiellen Klauseln des DNSchemas darstellt, ist ihre Explikation ein unerläßliches Erfordernis für die DNKonzeption. Die akzidentelle Allausage (*) ist offensichtlich ungeeignet, zu erklären, warum bestimmte Münzen in der Tasche von Fritz aus Silber sind. Ein weiterer Hinweis auf ihre Unbrauchbarkeit findet sich in ihrer Unfähigkeit, Voraussagen oder irreale Konditionalsätze zu stützen, was gesetzesartigen Aussagen dagegen gelingt. So wird man auf der Grundlage von (*) kaum schließen dürfen, daß auch in Zukunft die Münzen in der Tasche von Fritz alle aus Silber sein werden oder sogar, daß eine bestimmte Münze, wäre sie in Fritz Tasche gewesen, auch aus Silber gewesen wäre. Entsprechende Schlüsse sind auf der Grundlage von Naturgesetzen dagegen typischerweise möglich. Das Newtonsche Gravitationsgesetz gestattet uns zu bestimmen, mit welcher Kraft ein Körper angezogen würde, würde man ihn im Schwerefeld der Erde deponieren. Leider erlaubt diese Eigenschaft von Gesetzen, irreale Konditionalaussagen zu bestätigen, ebenfalls keine einfache Charakterisierung von Gesetzesartigkeit, da irreale Konditionalsätze sich ihrerseits hartnäckig einer Analyse zumindest mit logisch unbedenklichen Mitteln widersetzen. Quine äußert sogar Zweifel, ob sie überhaupt wahrheitswertfahig sind, und weiß das mit einem simplen Beispiel zu untermauern. Welcher von den folgenden beiden Sätzen hätte denn eher Anspruch darauf, wahr zu sein?

C. Die klassische Erklärungskonzeption

309

1) Wenn Bizet und Verdi Landsleute gewesen wären, dann wären sie Franzosen gewesen. 2) Wenn Bizet und Verdi Landsleute gewesen wären, dann wären sie Italiener gewesen. Dabei scheint es sich nicht um eine Tatsachenfrage zu handeln, wodurch die irrealen Konditionalsätze weiter ins Zwielicht geraten. Auch andere Vorgehensweisen zur Bestimmung von Gesetzesartigkeit werden kontrovers diskutiert, zumal beispielsweise die schon erwähnten Goodmanschen Pseudogesetze alle syntaktischen Merkmale von echten Gesetzen haben und trotzdem intuitiv nicht als Naturgesetze gelten können. Ungeachtet aller Fortschritte in diesem Gebiet, denen ich an dieser Stelle nicht weiter nachgehen möchte, bleibt hier ein Bedenken gegen das DN-Schema zurück, denn es gibt immer noch keine zufriedenstellende Lösung für das Problem der Gesetzesartigkeit. b) Sind Gesetze für Erklärungen notwendig? Hempel kann auf das Problem der Gesetzesartigkeit zumindest mit dem Hinweis reagieren, daß, wenn wir auch nicht über ein Kriterium für Gesetzesartigkeit verfügen, wir doch in konkreten Fällen meist entscheiden können, ob es sich um ein Gesetz handelt oder nur eine akzidentelle Verallgemeinerung. Das mag uns zunächst für eine Explikation von wissenschaftlichen Erklärungen genügen. Doch wie essentiell sind Naturgesetze wirklich für wissenschaftliche Erklärungen? Tatsächlich stoßen wir im Alltag und in der Wissenschaft auf eine ganze Reihe von Erklärungen, die auf den ersten Blick ohne Gesetze auszukommen scheinen. Hempel (1977,170ff) geht selbst auf derartige Fälle ein. Er untersucht etwa die Erklärung des Historikers Gottlob, wie es zur Sitte des Ablaßverkaufs kam. Zusammengefaßt stellt Gottlob diese Institution als eine Maßnahme der Päpste im Kampf gegen den Islam und knappe Kassen dar: Während den mohammedanischen Kriegern zugesagt war, daß sie nach einem Tod in der Schlacht in den Himmel gelangen würden, mußten die Kreuzritter ewige Verdammnis befürchten, wenn sie nicht regelmäßig Buße für ihre Sünden taten. Um sie hier zu entlasten, versprach Johannes VIII im Jahr 877 den Kreuzrittern für den Fall ihres Ablebens in der Schlacht die Absolution ihrer Sünden. Dieser Kreuzablaß wurde dann auch auf die ausgedehnt, die zwar nicht an den Kreuzzügen teilnehmen konnten, aber sie mit Geld unterstützten. Auch nach einem Abflauen der Kreuzzüge wollte die Kirche diese zusätzliche Möglichkeit der Geldschöpfung nicht aufgeben und da die Gläubigen ebenfalls sehr an der Sitte des käuflichen Sündenerlasses interessiert waren - war dieser Weg für viele doch erfreulicher, als die unangenehmen kirchlichen Bußstrafen auf sich zu nehmen, ganz zu schweigen vom drohenden Fegefeuer nach dem Tode - , kam es letztlich zu einer weiteren Verbreitung des Ablasses. i. Unvollständige Erklärungen Hempel (1977, 172) gesteht sehr wohl zu - und das ist auch offensichtlich - , daß diese Schilderung das Verständnis eines geschichtlichen Phänomens durchaus erweitern kann und eine Form von Erklärung dafür bietet, obwohl sie nicht dem DN-Schema genügt. Zunächst sind solche genetischen Erklärungen Schilderungen, wie in einer Abfolge von

310

VIII Wissenschaftliche Erklärungen

Zuständen jeweils einer zum nächsten fuhrt (was man auch für physikalische Prozesse kennt), aber es werden für die Übergänge keine Gesetze bemüht, sondern nur dargestellt, daß der Ubergang verständlich und plausibel ist. Hempel gibt eine Reihe von Möglichkeiten an, wie derartige Beispiele mit seinem DN-Schema zu harmonisieren sein könnten. Die erste ist die der elliptischen Erklärung (Hempel 1977, 128). Man verzichtet in einigen Fällen darauf, explizit bestimmte Gesetze anzugeben, über die wir aber im Prinzip verfügen und die in der elliptischen Formulierung der Erklärung implizit mitgedacht werden. 4 Dieser Ausweg scheint uns jedoch in vielen Fällen, wie auch dem Hempelschen Beispiel, für eine genetische Erklärung nicht offen zu stehen, weil wir nicht über entsprechende historische Gesetze verfügen, um die wir die Einzelerklärungen der genetischen Erklärung so ergänzen könnten, daß jeweils deduktiv-nomologische Erklärungen entstünden. Die zweite Rückzugsmöglichkeit sucht Hempel (1977, 128ff) in der partiellen Erklärung. Zur Erläuterung dieses Konzepts gibt uns Hempel ein Beispiel für eine Erklärung Freuds aus seiner Psychopathologie des Alltagslebens, in der uns Freud schildert, wieso es seiner Theorie nach zu dem Fehler kam, daß er inmitten seiner geschäftlichen Aufzeichnungen mit Daten des Septembers eine mit dem Datum „Donnerstag, den 20. Oktober" notiert hat. Freud schreibt dazu: Es ist nicht schwierig, diese Antizipation aufzuklären und zwar als Ausdruck eines Wunsches. Ich bin wenige Tage vorher frisch von der Ferienreise zurückgekehrt und fühle mich bereit für ausgiebige ärztliche Beschäftigung, aber die Anzahl der Patienten ist noch gering. Bei meiner Ankunft fand ich einen Brief von einer Kranken vor, die sich für den 20. Oktober ankündigte. Als ich die gleiche Tageszahl im September niederschrieb, kann ich wohl gedacht haben: Die X. sollte doch schon da sein; wie schade um den vollen Monat! und in diesem Gedanken rückte ich das Datum vor.

Zunächst ist diese Erklärung elliptisch, weil kein Gesetz genannt wird, obwohl eine Art von Gesetz Freud dabei vorschwebt, das Hempel charakterisiert: Wenn jemand einen starken, vielleicht auch unterbewußten Wunsch hat und einen Schreib-, Sprech-, oder Erinnerungsfehler begeht, dann nimmt dieser Fehler eine Gestalt an, in der der Wunsch ausgedrückt und eventuell symbolisch erfüllt wird. (Hempel 1977, 129)

Doch darüber hinaus kann das Gesetz nach Hempel nicht erklären, warum der Fehler zu einer bestimmten Zeit auftrat oder warum er gerade diese Gestalt annimmt und nicht eine der vielen anderen Möglichkeiten. Damit ist die Freudsche Erklärung nur partiell, denn sie erklärt eigentlich weniger als das konkrete Ereignis, zu dessen Erklärung Freud sich aufgemacht hatte. Da jede Erklärung eines bestimmten Ereignisses wohl nicht alle Aspekte dieses Ereignisses abzuleiten vermag, vertritt Hempel (1977, 136ff) die Ansicht, daß wir nicht für ein konkretes Ereignis in allen seinen Aspekten und Einzelheiten eine Erklärung verlangen dürfen, sondern nur für die Aspekte eines Ereignisses, die im Explanandum Satz beschrieben sind. Damit ist aber nicht gemeint, wogegen sich Hempel (1977, 139) explizit wendet, daß ein bestimmter Typ von Ereignis erklärt wird,

C. Die klassische

Erklärungskonzeption

sondern nur daß bestimmte Aspekte eines konkreten Einzelereignisses schaftlichen Erklärung erklärt werden.

311 in einer wissen-

ii. Statistische Erklärungen Doch auch der Fall der partiellen Erklärung liegt für historische Erklärungen wie dem oben beschriebenen Beispiel nicht vor, denn es wurden keine impliziten wissenschaftlichen Gesetze mitgedacht, die zumindest bestimmte Aspekte der mittelalterlichen Ablaßpraxis deduktiv erklären, und auch im Fall der Freudschen Erklärung müßte man das Gesetz vermutlich vorsichtiger formulieren, was Hempel (1977, 173) schließlich zu seinem dritten und gewichtigsten Ausweg fuhrt. Hempel spricht davon, wir hätten in diesen Fällen implizite statistische Gesetze, die uns die Erklärungen liefern, und ergänzt das DN-Schema für Erklärungen um die induktiv-statistischen Erklärungen (Hempel 1977, 60ff), die von ihrer Gestalt her dem DN-Schema sehr nahe kommen. Freud würde vermutlich nicht behaupten wollen, daß die unterbewußten Wünsche immer zu Fehlleistungen fuhren müssen, sondern nur, daß sie es häufig oder mit einer gewissen Wahrscheinlichkeit tun. Das IS-Schema erhält dann die Gestalt: Induktiv-Statistische Erklärung (IS-Schema) W(G/H) > p

fia Ha

(mit Wahrscheinlichkeit > p)

Dabei soll W(G/H) > p bedeuten, daß die Wahrscheinlichkeit für das Vorliegen von G bei Vorliegen von H größer als p ist und p sollte nach Hempel nahe bei 1 liegen. Der Schluß auf Ha mit Hilfe der Antezendenzbedingung Ga ist dann natürlich auch nur noch mit der Wahrscheinlichkeit p zu ziehen. Jedoch auch dieses dritte Ausweichmanöver ist nicht unproblematisch. Zunächst ist es strenggenommen schon eine wesentliche Aufweichung des DN-Schemas, weil man die Forderung nach logischer Gültigkeit für den Schluß aufgegeben hat. Aber darüber hinaus ist das IS-Schema für Erklärungen mit einer Reihe von Problemen behaftet, die ich nur skizzieren kann, da die statistischen Erklärungen hier nur am Rande behandelt werden sollen. Ein Problem, das Hempel selbst sehr lange beschäftigt hat und das auch heute noch virulent ist, ist das der Erklärungsmehrdeutigkeit von IS-Erklärungen. Danach ist das, was in einer solchen Erklärung erklärt werden kann, stark abhängig davon, auf welche Informationen man sich jeweils stützt. Hempel (1977, 76ff) erläutert sie an folgendem Beispiel. Beziehe ich mich darauf, daß die Streptokokkeninfektion von Herrn Müller mit Penicillin behandelt wird, kann ich seine Genesung dadurch probabilistisch erklären, daß ein sehr hoher Prozentsatz der Streptokokkenerkrankten durch Penicillin geheilt werden kann. Hat Herr Müller aber das Pech von einem penicillinresistenten Streptokokkenstamm heimgesucht zu werden, wo die Heilungschancen durch Penicillin minimal sind, wirft diese zusätzliche Information den bisherigen inferentiellen Zusammenhang über den Haufen. Das Explanans von IS-Erklärungen ist nicht stabil unter

312

VIII Wissenschaftliche Erklärungen

zusätzlichen Informationen und spricht für verschiedene Explananda, je nachdem wieviele Informationen wir jeweils berücksichtigen. Der einzige Ausweg aus diesem Problem, der in nicht willkürlicher Weise einen bestimmten Informationsstand vorschreibt, scheint Hempels Forderung (1977, 76ff) nach maximaler Spezifizierung im Explanans zu sein, wonach alle zur Verfügung stehenden Informationen zu berücksichtigen sind. Damit sind IS-Erklärungen allerdings immer in einer Form auf den jeweiligen Informationsstand zu relativieren, wie das für DN-Erklärungen nicht der Fall ist. Noch problematischer ist für das IS-Modell jedoch ein Aspekt auf den Salmon schon Anfang der 70er Jahre aufmerksam gemacht hat. Es wird zwar gefordert, daß die statistischen Gesetze hohe Wahrscheinlichkeiten für das Explanandum aussagen, aber nicht, daß sie die Wahrscheinlichkeit des Explanandums überhaupt erhöhen. So sind statistische „Erklärungen" der folgenden Form durch das IS-Schema gedeckt: (G) Menschen, die erkältet sind, erholen sich mit hoher Wahrscheinlichkeit innerhalb von 14 Tagen, wenn sie Vitamin C nehmen. (A) Franz war erkältet und nahm Vitamin C. (E) Franz erholte sich von seiner Erkältung in 14 Tagen. (s. Salmon 1984, 30) Dieses Beispiel hat zwar die Form einer IS-Erklärung, aber ob es sich dabei tatsächlich um eine Erklärung handelt, ist von Gegebenheiten abhängig, die überhaupt nicht angesprochen wurden, nämlich davon, ob die Gabe von Vitamin C tatsächlich Einfluß auf die Dauer der Erkältung hat. Sollte das nicht der Fall sein und fast jeder erholt sich mit hoher Wahrscheinlichkeit nach 14 Tagen von einer Erkältung, können wir in diesem Beispiel nicht von einer Erklärung der Genesung von Franz sprechen. Wir müßten zusätzlich fordern, daß die eingesetzte gesetzesartige Aussage für das Explanandum relevant ist, d.h. die Wahrscheinlichkeit des Explanandum-Ereignisses erhöht. Für Salmons Erklärungsmodell der statistischen Relevanz (SR-Modell) ist daher gerade diese Forderung die entscheidende, während die Hempelsche der hohen Wahrscheinlichkeit, die das IS-Schema der deduktiv-nomologischen Erklärung angleichen sollte, nach Salmon überflüssig wird. Das trifft auch bestimmte Teile unserer Erklärungspraxis besser als der Hempelsche Ansatz, denn typischerweise erklären wir einen Lungenkrebs z. B. durch das vorgängige Rauchverhalten des Erkrankten, selbst wenn die Erkrankung nicht mit 95%-iger Wahrscheinlichkeit, sondern nur mit relativ geringen Werten auftritt. Auf Einzelheiten des SR-Ansatzes von Salmon möchte ich hier nicht eingehen (s. dazu etwa Salmon 1984, 36ff oder 1989, 62ff), aber bemerkenswert ist ein Vergleich Salmons (s. dazu 1984, 45) zwischen IS-Konzeption und SR-Konzeption, in dem er noch einmal die grundlegenden Ideen der beiden Erklärungsstrategien zusammenfaßt: IS-model: an explanation is an argument that renders the explanandum highly probable. SR-model: an explanation is an assembly of facts statistically relevant to the explanandum, regardless of the degree of probability that results.

C. Die klassische

Erklärungskonzeption

313

Für die momentane Diskussion ist vor allem bedeutsam, daß das Salmonsche SRErklärungskonzept eine Verbesserung gegenüber dem Hempelschen Vorschlag der ISErklärung darstellt und dabei gerade ohne Gesetze auskommt und sich außerdem noch weiter von der Vorstellung einer Erklärung als Deduktion des Explanandums entfernt hat, als es schon für das IS-Schema der Fall ist. Damit ist der dritte Ausweg Hempels aus dem Vorwurf, daß sein DN-Modell der Erklärung viele tatsächliche Erklärungen nicht angemessen beschreibt, der auf statistische Erklärungen hinauslief, letztlich in einen Vorschlag für statistische Erklärungen gemündet, der auf keine Gesetze im Hempelschen Sinn mehr angewiesen ist. Auf die Ausgangsfrage, ob Gesetze für Erklärungen immer notwendig sind, müssen wir an dieser Stelle daher mit einem „Nein" antworten. Außerdem ist ebenfalls fraglich, wie weit das IS-Schema trägt, denn in vielen Fällen, wie den beiden obigen Beispielen aus der Geschichtswissenschaft und der Psychologie, aber auch z. B. in der Evolutionstheorie oder den Sozialwissenschaften verfugen wir nicht über statistische Gesetze, in denen wir Wahrscheinlichkeiten nennen oder auch nur begründet abschätzen könnten. Wie hoch ist denn bitte schön die Wahrscheinlichkeit, daß eine Organisation vom Typus der Kirche in Situationen des entsprechenden Typs so etwas wie den Ablaß von den direkt betroffenen auf weitere Bevölkerungskreise ausdehnt? Schon wenn man versucht eine gesetzesartige Aussage entsprechenden Inhalts zu formulieren, die sich nicht nur auf konkrete Individuen bzw. Institutionen zu einem historischen Zeitpunkt bezieht, gerät man in ernste Schwierigkeiten, die aber nicht kleiner werden, wenn man auch noch Wahrscheinlichkeiten für derartige Vorgänge abschätzen möchte. Es gibt nur wenige Anhaltspunkte, in diesen Fällen guter Hoffnung zu sein, daß wir noch zu entsprechenden statistischen Gesetzen kommen werden. Aber selbst wenn Schurz (1983, 128) mit seinem Optimismus Recht haben sollte, daß die methodologischen Besonderheiten der Geschichtswissenschaft es zwar erschweren, historische Gesetze zu gewinnen, das aber keineswegs prinzipiell unmöglich ist, und wir daher auch in diesem Zweig der Wissenschaften hoffen dürfen, Gesetze zu finden, mit denen sich DN-Erklärungen erstellen lassen, bleibt die offene Frage doch: Sind die angegebenen Erklärungen in den Geschichtswissenschaften, solange wir keine Gesetze angeben können, überhaupt keine Erklärungen oder nur nicht so gute Erklärungen wie wir sie mit historischen Gesetzen hätten? Da das DN-Schema inzwischen umstritten ist, kann es aufgrund seiner eigenen epistemischen Stellung kaum als guter Grund dafür dienen, die zweite Vermutung zurückzuweisen. Diese entspricht auch besser unserer Vorstellung von Erklärungen als gradueller Abstufungen fähig, nach der nicht alle Erklärungen gleich gut sind. Die Allgemeine Relativitätstheorie liefert bessere Erklärungen der Planetenbewegungen als die Newtonsche Theorie und die wiederum bessere Erklärungen als die Keplersche Theorie usw. Jeder kann sicher eine Reihe von Beispielen auch aus dem Alltag für bessere und schlechtere Erklärungen geben. Trotzdem liefern alle diese Theorien zumindest potentielle Erklärungen und zumindest die Newtonsche Theorie auch heute noch aktuelle Erklärungen, die für die meisten mechanischen Phänomene Geltung haben. Für solche Einschätzungen und Abstufungen gibt das DN-Schema freilich keine Anhaltspunkte,

314

VIII Wissenschaftliche Erklärungen

denn es kennt nur das Vorliegen von Gesetzen und das Bestehen einer deduktiven Beziehung zwischen Explanans und Explanandum oder das NichtVorliegen. iii. Erklärungen in der Evolutionstheorie Auch Erklärungen im Bereich der Evolutionstheorie haben neben Erklärungen in der Geschichtswissenschaft oder der Psychologie häufig nicht die von Hempel verlangte DN-Struktur. Trotzdem scheinen sie brauchbare Erklärungen darzustellen, die z. B. erklären können, wie es zu der Entstehung von bestimmten Arten durch natürliche Auslese kam. Die Erklärungen, die die Theorie erbringen kann und die Erklärungszusammenhänge, in die sie eingebettet ist, sind dabei so vielfältig, daß ich nur auf einen sehr kleinen Teil davon hinweisen kann. Da sind die zahlreichen Erklärungen für die Entstehung bestimmter Organe als Anpassung an die speziellen Umweltgegebenheiten. Schon Darwins Werk Die Entstehung der Arten durch natürliche Zuchtwahl bietet eine Fülle von Beispielen dafür: Die Augen der Maulwürfe und einiger wühlender Nagetiere sind rudimentär, zuweilen ganz von Haut und Pelz bedeckt. Das rührt wahrscheinlich vom Nichtgebrauch her, der vielleicht von der natürlichen Zuchtwahl unterstützt worden ist. Ein südamerikanisches Nagetier, der Tukutuko oder Ctenomys, lebt noch ausschließlicher unter der Erde als der Maulwurf, und ein Spanier, der häufig solche Tiere fing, versicherte mir, daß sie häufig blind seien. Ein Tukutuko, den ich lebend erhielt, war es tatsächlich; wie sich bei der Sektion ergab, war eine Entzündung der Nickhaut die Ursache. Da häufige Augenentzündungen jedem Tier schädlich sein müssen und da ferner Tiere mit unterirdischer Lebensweise die Augen nicht brauchen, so wird deren verminderte Größe, das Verwachsen der Augenlider und das Überwachsen mit Pelz ihnen vorteilhaft sein; ist dies aber der Fall, so wird die natürliche Zuchtwahl die Wirkungen des Nichtgebrauchs unterstützen. (Darwin 1990, 159f)

Auch die Abhängigkeit der Ausbreitung bestimmter Arten von Bedingungen ihrer Umwelt wird zwanglos durch Darwins Ansichten vom Überlebenskampf erklärt. Darwin (1990, 83ff) gibt etwa an, wie sich die Vegetation eines Heidegebietes von mehreren hundert Hektar in Staffordshire geändert hat, das sich von seiner Umgebung nur dadurch unterschied, daß es vor 25 Jahren eingezäunt wurde. Die angepflanzten schottischen Kiefern, konnten sich ausbreiten, während sie in den nichteingezäunten Heidegebieten nicht Fuß fassen können, weil ihre Sämlinge und kleinen Bäumchen sofort vom Vieh abgeweidet werden. In diesem Beispiel sind die kausalen Mechanismen, die hier am Werk waren, nahezu direkt beobachtbar, und es kann somit der Darwinschen Vorstellung von dem Einfluß des Konkurrenzkampfs auf die Verbreitung von Arten epistemische Unterstützung verleihen. In ähnlicher Weise kann Darwin eine Reihe von Aspekten der geographischen Verbreitung von Arten erklären, das Auftreten bestimmter Verhaltensweisen von Tieren, das Vorkommen von rudimentären Organen früherer Arten, morphologische Ähnlichkeiten, die Zusammenhänge der zahlreichen Fossilienfunde, das Aussterben von Arten und vieles mehr. Dazu sind inzwischen die zahlreichen Zusammenhänge zur Genetik und viele weitere z.T. singuläre Fakten bekanntgeworden, wie z. B. das Razematproblem,

C. Die klassische

Erklärungskonzeption

315

daß in Lebewesen nur die L-Aminosäuren und nicht auch die chemisch gleichen DFormen vorkommen (s. Jeßberger 1990, 78ff). Eine präzise Darstellung der Erklärungskraft der heutigen Evolutionstheorie könnte nur anhand einer ausfuhrlicheren Rekonstruktion der Theorie vorgenommen werden, die ich in dieser Arbeit natürlich nicht leisten kann. Klar dürfte aber sein, daß wir trotz der offensichtlichen Erklärungsleistungen der Evolutionstheorie in keinem der genannten Beispiele über Gesetze verfügen, die eine wirkliche Deduktion (selbst keine statistische) der heute zu beobachtenden Arten und ihrer Eigenschaften gestatten. Das scheitert zunächst natürlich schon daran, daß wir die Ausgangssituationen nicht hinreichend genau kennen, was es in vielen Fällen nur erlaubt, wie-möglich-Erklärungen anzubieten. Sie sagen uns, wie es zu bestimmten Arten und Eigenschaften kommen konnte, wenn die und die vermuteten Bedingungen vorgelegen haben. Daneben haben die evolutionären Erklärungen aber auch nicht die Gestalt der Subsumption unter Gesetze und gehen auch bei exakter Kenntnis der Ausgangsbedingungen nicht in DN-Erklärungen oder IS-Erklärungen über.5 Welche der Erklärungen tatsächlich zutreffen, ist wegen der genannten epistemischen Schwierigkeiten nicht immer leicht zu ermitteln, aber Fazit der Diskussion bleibt doch, daß wir in vielen Bereichen Erklärungen akzeptieren, die keine Gesetze benutzen und damit nicht die Struktur des DN-Schemas besitzen, und es gibt keine metatheoretisch überzeugenden Gründe, diese von vornherein als nichterklärend zurückzuweisen. Von diesen Beispielerklärungen ohne Gesetzesprämisse sind vermutlich alle deduktivistischen Konzeptionen von Erklärung betroffen, denn ohne strikte Gesetze können wir nicht erwarten, die Explanandumereignisse logisch ableiten zu können. Auf diesen Punkt werde ich später wieder zurückgreifen, denn er ist ein Kritikpunkt auch an einigen moderneren Ansätzen in der Erklärungsdebatte.

2. Asymmetrie und Irrelevanz Im Zusammenhang mit der IS-Erklärung hatten wir schon das Problem irrelevanter Bestandteile in Erklärungen kennengelernt. Doch das bleibt nicht auf statistische Erklärungen beschränkt, sondern findet sich ebenfalls für deterministische Erklärungen. Ein für diese Diskussion klassisches Beispiel, das auf Kyburg zurückgeht, ist das des verzauberten Tafelsalzes. Auf die Frage, warum sich ein bestimmtes Stück Salz in Wasser auflöst, scheint die Antwort, es sei eine verzauberte Probe Salz und verzaubertes Salz löse sich in Wasser auf, keine brauchbare Erklärung zu bieten. Auch die Erklärung eines Mannes, daß er nicht schwanger werde, weil er die Antibabypille nehme und Männer, die die Antibabypille nehmen, nicht schwanger werden, erscheint uns mehr als ein Irrweg denn eine Erklärung. Beispiele dieser Art lassen sich zahlreiche konstruieren, die sogar die Bedingungen des DN-Schemas erfüllen können, die aber offensichtlich trotzdem keine Erklärungen darstellen.6 Das DN-Schema gibt uns für diese Fälle keine Anhaltspunkte, warum bestimmte Gesetze relevant erscheinen und andere nicht und

316

VIII Wissenschaftliche Erklärungen

kann die Pseudoerklärungen mit irrelevanter Gesetzesprämisse nicht abweisen. Es ist daher in diesem Punkt mindestens unvollständig. Salmón (z. B. 1984, 89ff) geht noch weiter in seiner Kritik des DN-Schemas und stellt die Frage, wieso solche Irrelevanzen sich zwar für Erklärungen als desaströs erweisen, nicht aber für Argumentationen. Das ist für ihn ein klarer Hinweis, daß die ganze Hempelsche Konzeption, die Erklärungen als eine Form von Argumenten rekonstruiert, verfehlt sein muß. Dem möchte ich nicht weiter folgen, belegt es doch nur, was inzwischen klar geworden sein sollte, nämlich daß das DN-Modell bei weitem nicht ausreicht, um den Erklärungsbegriff angemessen zu explizieren. Ein anderes Phänomen, das Erklärungen aufweisen, ist das der Asymmetrien. Das inzwischen klassische Beispiel ist das vom Fahnenmast, dessen Höhe die Länge seines Schattens anhand einiger geometrischer Überlegungen erklären hilft, während umgekehrt zwar die Höhe des Mastes sich anhand derselben geometrischen Überlegungen und der Länge das Schattens berechnen läßt, wir aber in diesem Fall nicht von einer Erklärung für die Höhe des Mastes reden möchten.7 Ähnliche Beispiele lassen sich natürlich auch im wissenschaftlichen Bereich finden, so läßt die von Hubble entdeckte Rotverschiebung der Spektrallinien zwar anhand der Theorie von Doppler einen Schluß auf eine Expansion des Weltalls zu, aber wir würden nicht behaupten, daß sie diese Expansion erklärt. Umgekehrt kann die Ausdehnung des Universums die zu beobachtende Rotverschiebung als Auswirkungen des optischen Dopplereffekts erklären. Kennzeichnend für alle Beispiele solcher Asymmetrien ist, daß - um es in der Terminologie des DN-Schemas auszudrücken - bestimmte Gesetze G zusammen mit einer Antezendensbedingung A ein Explanandum E erklären, während umgekehrt A zwar aus G und E herleitbar ist, aber wir diese Herleitung nicht als Erklärung betrachten würden. Doch Hempels DN-Schema gibt uns wiederum keine Anhaltspunkte, weshalb diese beiden Ableitungen in bezug auf ihre Erklärungskraft überhaupt zu unterscheiden sind, und kann daher dieses Phänomen nicht erklären. Die beiden genannten metatheoretischen Beobachtungen - das der Erklärungsirrelevanz bestimmter DN-Herleitungen wie auch das der Erklärungsasymmetrien - stellen Anomalien für Hempels Erklärungskonzeption dar, denen mit den Mitteln seines Ansatzes nicht wirklich zu begegnen ist. Spätere Erklärungskonzeptionen können auch daran gemessen werden, ob sie zu diesen Problemen Lösungen anzubieten haben.

3. Grade von Erklärungen In Hempels DN-Schema, aber auch in vielen späteren Ansätzen, gibt es eigentlich keinen Platz für eine graduelle Bewertung von Erklärungen. Einige Fälle geben uns aber eindeutig bessere Erklärungen als andere, die wir ihrerseits durchaus noch als Erklärungen akzeptieren würden. Das Spektrum reicht von naiven Alltagserklärungen über fortgeschrittene Alltagserklärungen bis hin zu hochentwickelten wissenschaftlichen Erklärungen. Im DN-Schema gibt es jedoch nur Platz für alles-oder-nichts Forderungen, so daß demnach etwas eine Erklärung ist oder nicht.

C. Die klassische

Erklärungskonzeption

317

Eine Mißachtung dieses Punkts der Abstufungen von Erklärungen hat auch wissenschaftstheoretische Konsequenzen. So nutzt van Fraassen (1980, 98ff) sie in einem Argument für seine (instrumentalistische) Position des konstruktiven Empirismus. Er verweist darauf, daß auch die Newtonsche Theorie uns die Bewegung einiger Planeten erklärt, obwohl wir inzwischen wissen, daß sie genaugenommen falsch ist. Die Redeweise von einer Erklärung durch die Newtonsche Theorie scheint mir zunächst tatsächlich unseren Vorstellungen von wissenschaftlichen Erklärung zu entsprechen. Nur die Konsequenz, die van Fraassen daraus zieht, ist fehlerhaft, denn für ihn zeigt dieses Beispiel allgemein, daß auch falsche Theorien erklären können. Eine angemessenere Beschreibung ist dagegen, daß die Newtonsche Theorie den Großteil der Planetenbewegungen erklärt, weil sie für diese Fälle approximativ zutreffende Modelle bereithält.8 Ob man auch von einer Theorie über Klabautermänner, die man für gänzlich falsch hält, sagen kann, daß sie für uns heute das Auftreten bestimmter Erscheinungen auf Schiffen erklären kann, ist dagegen mehr als zweifelhaft. Die Newtonsche Theorie erklärt somit zwar eine Reihe von Planetenbewegungen, aber die Allgemeine Relativitätstheorie erklärt einige dieser Bewegungen nach heutiger Ansicht noch besser, schon weil sie kleinere Unschärfemengen benötigt als die Newtonsche Theorie. Die Abstufung von Erklärungsgüte entkräftet so van Fraassens Beispiel, denn etwas unvorsichtig ausgedrückt, ist die Newtonsche Theorie nicht falsch, sondern approximativ wahr und produziert daher auch entsprechend approximativ wahre Erklärungen mit etwas größeren Unschärfemengen als die Allgemeine Relativitätstheorie. Die Klabautermann Theorie bietet dagegen immer nur falsche Erklärungen, weil sie nicht einmal ein approximativ zutreffendes Bild der Welt zeichnet. Ein anderes Beispiel sind zweifellos die statistischen Erklärungen, bei denen es naheliegt, von unterschiedlich guten Erklärungen zu sprechen. Im IS-Modell kann das Explanandum verschieden stark durch das Explanans gestützt werden, und es scheint natürlich, entsprechend von unterschiedlichen Graden der Erklärung zu sprechen. Noch deutlicher wird das im SR-Konzept, wo die Bandbreite von Wahrscheinlichkeiten größer ist und auch sehr kleine Wahrscheinlichkeiten als erklärend zugelassen sind. Die Erklärungen, die uns für ein Ereignis weit höhere Wahrscheinlichkeitszuwächse anbieten können, sind dann auch als besser zu bezeichnen, als andere, die uns nur 10%-ige zusätzliche Wahrscheinlichkeiten geben. Vermutlich hat Sober (1987, 245) Recht, daß deterministische Erklärungen dabei weiterhin als das Ideal für Erklärungen gelten können und Erklärungen um so besser sind, je mehr sie sich diesem Ideal nähern. Eine adäquate Erklärungstheorie muß neben der Beschreibung des Ideals aber zumindest Raum für eine metatheoretische Beschreibung der graduellen Abstufungen von Erklärung lassen, was für das DN-Schema zunächst nicht der Fall ist.

318

VIII Wissenschaftliche

Erklärungen

D. Neue Ansätze in der Erklärungstheorie Trotz der über 500 Aufsätze, die Salmon (1989) in seiner Bibliographie der Erklärungsdebatte zu nennen weiß, gibt es nur wenige systematisch neue Ansätze mit ausformulierten Erklärungstheorien. Einige der interessanteren und prominenteren Ansätze möchte ich nun besprechen. Eine wichtige Ergänzung des DN-Schemas sah schon Hempel in der Berücksichtigung von pragmatischen Aspekten.

1. Zur Pragmatik von Erklärungen Mit Erklärungen verfolgt man im allgemeinen nicht nur theoretische Ziele des Erkenntnisgewinns, sondern auch praktische. Wir suchen z. B. nach Erklärungen iur Unfälle oder Krankheiten, um diese in Zukunft vermeiden zu können. Spätestens an dieser Stelle sind pragmatische Aspekte, etwa Fragen danach, wofür ich mich jeweils interessiere, oder andere Aspekte des Kontexts der nach einer Erklärung verlangenden Warum-Frage bedeutsam für die Einschätzung, was für uns eine gute Erklärung darstellt und was nicht. Einige Wissenschaftsphilosophen sind sogar der Meinung, daß die pragmatischen Aspekte von Erklärungen immer von grundlegender Bedeutung für die Erklärungsgüte sind und sogar alle wesentlichen Probleme der Erklärungstheorie durch eine geeignet gewählte Pragmatik von Erklärungen erledigt werden können. Um einen Einstieg in diese Ansätze zur Erklärungsdebatte zu bekommen, möchte ich exemplarisch die recht einflußreiche Theorie von Bas van Fraassen diskutieren, die er unter anderem in The Scientific Image (1980, Kap. 5) präsentiert hat. Van Fraassen richtet sein Augenmerk zunächst auf die Warum-Fragen, mit denen wir um eine Erklärung nachsuchen. Sein Beispiel dazu ist: (1) Warum aß Adam den Apfel? So unschuldig dieser Warum-Fragesatz auch erscheint, so weist er doch eine wesentliche Mehrdeutigkeit auf, die durch unterschiedliche Betonungen zum Ausdruck gebracht werden kann. (la) (lb) (lc) (ld)

Warum aß Adam den Apfel? Warum aß Adam den Apfell Warum aß Adam den Apfel? Warum aß Adam den Apfel?

In (la) fragt man etwa, warum gerade Adam und nicht jemand anderes den Apfel aß. In (lb) fragt man dagegen, warum Adam einen Apfel aß und nicht eine Birne oder etwas anderes, in (lc), warum er den Apfel gegessen hat und ihn nicht statt dessen weggeworfen oder zu Apfelmus verarbeitet hat und schließlich in (ld), warum er diesen Apfel und nicht einen anderen gegessen hat. Mit dem Fragesatz (1) können somit mindestens vier unterschiedliche Fragen gemeint sein, die zunächst auseinandergehalten werden müssen, denn auf jede der vier Fragen sind natürlich andere Antworten erforderlich. Um diese

D. Neue Ansätze in der Erklärungstheorie

319

unterschiedlichen Betonungen und damit unterschiedliche Lesarten der Frage in einer Rekonstruktion deutlich machen zu können, führt van Fraassen die Kontrastklasse X von Antwortalternativen ein, unter denen jeweils nach einer Antwort gesucht wird. Erst sie charakterisieren die Frage hinreichend. In unserem Beispiel kann sich in Abhängigkeit vom jeweiligen Kontext der Frage z. B. folgendes ergeben: (la) (lb) (lc) (ld)

X= X= X= X=

{Adam, Eva} {Apfel, Birne, Kiwi, Butterbrot} {Essen, Wegwerfen, Einkochen, am Baum hängenlassen} {dieser Apfel, jener Apfel}

Jede dieser verkürzt angegebenen Kontrastklassen9 kann zusammen mit dem Thema der Frage (hier: Adam aß den Apfel) klären, welche Frage genau gemeint ist. Die Angabe einer Kontrastklasse spezifiziert die Frage dabei mehr als die Angabe der Betonung, denn z. B. der genaue Umfang von X wird durch die Betonung allein noch nicht festgelegt. Bei der Bestimmung der Frage können noch andere Aspekte des Kontextes eingehen, wie die Situation, in der die Frage gestellt wird. Eine Antwort auf die Frage (la) könnte angesichts der angegebenen Kontrastklasse die folgende Gestalt annehmen: (A) Adam aß den Apfel und nicht Eva, weil Adam neugieriger war als Eva. Wenn wir das Thema (wie van Fraassen) mit T bezeichnen und die Kontrastklasse mit X = {P lv ..,T,..}, so läßt sich eine Antwort allgemein charakterisieren durch: (*) T im Unterschied zu den Alternativen aus X, weil A. Man fragt nicht mehr direkt „Warum trat T ein?", sondern stellt vielmehr eine kontrastierende Warum-Frage „Warum T und nicht...?" Lipton (1991, 35ff) argumentiert sogar dafür, daß eigentlich alle Warum-Fragen von dieser Art sind. In unserer Antwort (*) gibt A den Grund an, warum gerade T und nicht eine der Alternativen aus der Kontrastklasse verwirklicht wurde. Was als Grund zu akzeptieren ist, ob z. B. in unserem Fall Adams Neugier überhaupt als Grund betrachtet werden kann oder nicht, ist für van Fraassen in einem weiteren kontextabhängigen Bestandteil der Frage zu sehen, der Relevanzbeziehung R. Sie besagt, wann das „weil" in (*) zu Recht steht. Damit erhält man insgesamt (s. van Fraassen 1980, 143 ff), daß die Frage Q = drei Komponenten aufweist, die zusammengenommen festlegen, um welche Frage es sich handelt. Dann gilt: A ist der Kern einer Antwort auf Q, wenn A in der Beziehung R zu steht. Mit dieser Analyse von Warum-Fragen, die van Fraassen schlicht mit einer Analyse von Erklärungen identifiziert, versucht er im wesentlichen zwei Probleme der Erklärungsproblematik zu behandeln. Das ist zum einen das Asymmetrieproblem und zum anderen das der Zurückweisungen von Fragen nach Erklärungen. Für das zweite weiß er eine relativ naheliegende Analyse anzubieten. Aus der Fragelogik wissen wir bereits, daß Fragen im allgemeinen neben ihrer fragenden Funktion auch bestimmte Behauptungen aufstellen. Das klassische Beispiel „Schlagen Sie immer noch ihre Frau?" macht

320

VIII Wissenschaftliche

Erklärungen

etwa die Präsupposition, daß dieses schändliche Verhalten zumindest früher schon des öfteren beim Gefragten vorgekommen sein muß. Warum-Fragen haben eine Reihe spezieller Präsuppositionen, die van Fraassen (1980, 144f) auflistet: (a) Das Thema ist wahr. (b) In der Kontrastklasse ist nur das Thema war. (c) Es gibt zumindest eine wahre Aussage A, die in der Beziehung R zu steht. Haben wir im Lichte unseres Hintergrundwissens Grund zu der Annahme, daß eine dieser Präsuppositionen nicht erfüllt ist, so stellt das auch einen guten Grund dar, die Forderung nach einer entsprechenden Erklärung zurückzuweisen. Hat Adam keinen Apfel gegessen, kann ich natürlich die Frage nicht beantworten, warum er es tat; haben sich sowohl Adam wie auch Eva als Obstfreunde erwiesen und einen Apfel verspeist, ist die Frage (lb), warum gerade Adam und nicht Eva den Apfel gegessen hat, unsinnig; und schließlich, wenn es schon aufgrund der Frage kein relevantes Faktum geben kann, daß unser Thema erklärt, ist der Anspruch, nun doch eine Antwort zu finden, nicht zumutbar. Die fragelogische Theorie der Präsuppositionen von Warum-Fragen kann also genauer klären, unter welchen Bedingungen wir eine Erklärungsforderung sinnvollerweise zurückweisen dürfen. Nicht so günstig steht es um van Fraassens Vorschlag zur Lösung des Asymmetrieproblems, das er mit Hilfe seiner Fabel „The Tower and the Shadow" (van Fraassen 1980, 132ff) zu behandeln gedenkt. In dieser Ausschmückung des Flaggenmastbeispiels wollte er zeigen, daß, wenn die Höhe des Stabes zur Erklärung der Länge seines Schattens herangezogen werden kann, es ebenso Kontexte gibt, in denen dazu symmetrisch die Länge des Schattens die Höhe des Stabes erklärt. In seiner phantasievollen Fabel wird die Höhe eines Turmes dadurch erklärt, daß ihn jemand mit der Absicht gebaut hat, zu einer bestimmten Zeit einen Schatten an einen bestimmten Ort zu werfen, an dem ein Mord geschah. Doch damit wird die Symmetrie verletzt. Es ist nicht mehr dieselbe Geschichte von Lichtstrahlen und dem Satz von Euklid, die zur Erklärung der Schattenlänge herangezogen wurde, die nun umgekehrt zur Erklärung der Turmhöhe erzählt wird, sondern in van Fraassens Fabel ist es wesentlich die Intention des Erbauers, den Turm so zu erbauen, daß er an den Mord erinnert, die zum Explanans gehört, die in der ursprünglichen Erklärung nicht erforderlich war. Damit haben wir in diesem Beispiel keinen echten Fall von symmetrischen Erklärungen, sondern die Asymmetrie der Erklärung bleibt auch bei Änderung der pragmatischen Faktoren bestehen. Das faszinierende an van Fraassens Analyse ist die Reduktion der zahllosen Aspekte eines Kontextes, die darüber mitbestimmen können, welche Frage man mit der Äußerung eines Fragesatzes meint, auf nur drei Komponenten (Thema, Kontrastklasse, Relevanzrelation) für das Ergebnis der Interpretation. Mit diesem Instrumentarium möchte ich noch einmal die schon in (IV.E.2) gestellte Frage aufwerfen, ob Erklärungen wesentlich interessenrelativ sind. Williams (1991, 279ff) hatte das gerade unter Berufung auf die Fragetheorie der Erklärung behauptet und damit Konzeptionen von Kohä-

D. Neue Ansätze in der Erklärungstheorie

321

renz als Erklärungskohärenz zurückgewiesen, weil sie keine objektive Beziehung zwischen unseren einzelnen Meinungen und unserem Hintergrundwissen etablieren könnten. Betrachten wir noch einmal die beiden in (IV.E.2) diskutierten Beispiele von Williams. Zunächst den Pfarrer, der den Bankräuber fragt: „Warum raubst Du Banken aus?" Auch diese Frage ist mehrdeutig. Der Pfarrer wird sie vermutlich mit einer Kontrastklasse gemeint haben, die ehrliche Formen des Gelderwerbs im Auge hat, wie z. B. Xt = {Banken ausrauben, ehrlicher Beruf, Sozialhilfe kassieren}. Der Bankräuber antwortet ihm: „Weil dort das meiste Geld zu holen ist." Diese Antwort ist gar keine Antwort auf die Frage des Pfarrers, sondern eine Antwort auf eine Frage etwa eines Kollegen mit der Kontrastklasse X2 = {Banken ausrauben, Supermärkte ausrauben, alte Damen überfallen}. Entsprechendes zeigt auch die Analyse der anderen Frage aus (IV.E.2), warum Williams um zwei Uhr in seinem Büro war. Auch diese Frage ist mehrdeutig, und wir müssen zunächst verstehen, wie sie gemeint ist, also ihre Kontrastklasse kennenlernen, wenn wir seine Frage beantworten wollen. Wird ihm diese Frage in den Ferien gestellt, könnte die lauten X] = {Büro, zu Hause, Palm Beach}. Als Besonderheit nennt Williams für dieses Beispiel eine Antwort, die zwar dem DN-Schema genügt, aber trotzdem nach Williams auf keine Frage antworten können soll, nämlich: Er war einen kurzen Moment vor zwei Uhr in seinem Büro und niemand kann sich schneller als mit Lichtgeschwindigkeit bewegen, woraus folgt, daß er auch noch um zwei Uhr in seinem Büro sein mußte. Daß Williams keine Warum-Frage findet, auf die diese Deduktion antwortet, ist übrigens eher ein bedauerlicher Mangel an Phantasie, als ein zwingender Einwand gegen Hempels Erklärungstheorie. Denken wir z. B. an einen kleinen Fan der Serie Raumschiff Enterprise, der glaubt, Williams könne sich jederzeit aus seinem Büro „wegbeamen" und kurz vor zwei wäre in seinem Büro eine Gefahr aufgetreten, die es jedem hätte ratsam erscheinen lassen, von dieser Fähigkeit Gebrauch zu machen. Das Kind fragt Williams also, warum er sich nicht kurz vor zwei Uhr schnellstens aus dem Büro „gebeamt" hat, wenn es ihn fragt, warum er um zwei Uhr noch in seinem Büro war (X'={Büro,weggebeamt}). Der Hinweis, daß sich aber tatsächlich niemand schneller als mit Lichtgeschwindigkeit bewegen kann, so etwas wie „beamen" also nur in schlechten Science Fiction Serien möglich ist, bietet dann eine geeignete Erklärung.10 Doch zurück zur Frage der Interessenrelativität von Erklärungen. Zeigen die Beispiele, daß es von unseren Interessen abhängt, was eine gute Erklärung ist? Betrachten wir dazu noch ein krasseres Beispiel. Auf meine Frage, warum wir eine Rotverschiebung beobachten können, erklärt mir jemand, warum es zur Februarrevolution von 1917 in der Sowjetunion gekommen ist. Selbst wenn seine Erläuterungen nun deduktivnomologische Struktur hätten, würde ich diese als Erklärung auf meine Frage zurückweisen. Danach hatte ich nun einmal nicht gefragt. Wieso sollte das aber zeigen, daß Erklärungen interessenrelativ sind? Seine Erklärung kann für andere Fragen eine brauchbare Erklärung bieten. Sie verweist eventuell auf andere objektive und an anderer Stelle unseres Meinungssystems bedeutsame Zusammenhänge, die nur im Moment nicht zur Debatte stehen. Das macht Erklärungen nicht mehr interessenrelativ als mathemati-

322

VIII Wissenschaftliche Erklärungen

sehe Beweise. Wenn ich nach einem Beweis des Feimatschen Satzes frage und man präsentiert mir einen Beweis für den Satz von Stokes, weise ich diese Antwort auch zurück," aber niemand käme deshalb auf die Idee, was ein guter mathematischer Beweis sei, sei pragmatisch zu relativieren. Genauso sieht meine jetzige Analyse der Beispiele von Williams aus. Hier werden bestimmte Erklärungen nicht deshalb zurückgewiesen, weil unsere Interessen gerade so sind, daß diese Erklärungen in diesem Fall uns schlecht erscheinen, sie aber in anderen Kontexten gut wären, sondern weil sie auf eine ganz andere Frage, mit einer völlig anderen Kontrastklasse, antworten. Auf die tatsächlich gestellte Frage sind die genannten Antworten jedoch immer schlecht. Nur wenn durch den Kontext geklärt wird, daß es sich um eine ganz andere Frage handelt, kommen sie als gute Antworten in Frage. Was überhaupt auf meine Warum-Frage eine Erklärung ist, hängt also ganz sicher davon ab, wonach ich frage, und das kann sehr wohl von meinen Interessen abhängen, aber welche Antwort auf eine ganz bestimmte Frage gut ist, wird dadurch noch nicht interessenrelativ. Es erschien uns nur auf den ersten Blick so, daß die Antwort des Bankräubers auf die Frage des Pfarrers zwar eine Antwort auf seine Frage, aber deshalb keine gute Erklärung sei, weil der Pfarrer andere Interessen verfolgte. Die Analyse der Frage mit fragelogischen Mitteln, die die Kontrastklasse als identifizierenden Bestandteil von Warum-Fragen ausweist, offenbart jedoch, daß der Bankräuber mit seiner Antwort überhaupt nicht auf die gestellte Frage antwortet, sondern im Gegenteil so tut, als ob er sie nicht richtig verstanden hätte. Er unterstellt dem Pfarrer die unlauteren Interessen eines Berufskollegen. So war es nur die mögliche Mehrdeutigkeit des Fragesatzes „Warum hast du eine Bank ausgeraubt?", die uns dazu verführte, an eine Interessenabhängigkeit der Güte von Erklärungen zu glauben.12 Mit dieser Erörterung der Interessenrelativität von Erklärungen können wir auch auf die Frage antworten, ob „Erklärung" ein wesentlich pragmatischer Begriff ist. Die Antwort lautet, das hängt davon ab, was wir unter „pragmatisch" verstehen wollen. Friedman (1988, 174ff) unterscheidet zwei Bedeutungen von „pragmatisch". Erstens kann damit gemeint sein, daß der Begriff etwas mit den jeweiligen Meinungen einer Person zu tun hat und davon abhängt. Das trifft für Erklärungen weitgehend in dem Sinn zu, daß jede Erklärung und auch jede logische Ableitung von dem jeweiligen Wissensstand eines epistemischen Subjekts abhängig sind, denn der bestimmt, über welche Prämissen für logische Schlüsse bzw. erklärende Theorien wir verfügen. In diesem Sinn verstanden ist „pragmatisch zu sein" relativ unproblematisch für Erklärungen. Es offenbart sich damit nur eine Abhängigkeit von unseren Meinungen, wie wir sie auch für logische Schlüsse kennen. Wann eine Erklärung vorliegt, unterliegt aber weiterhin einer objektiven Beurteilung, weil die Beziehung der logischen Ableitung oder Erklärungsbeziehung davon nicht betroffen ist, sondern nur die Frage, über welche Erklärung oder Ableitung ein epistemisches Subjekt verfügt. Die Konzepte der logischen Ableitung und der Erklärung sind in diesem Fall für verschiedene Personen dieselben. Zweitens ist mit „Interessenrelativität" aber wohl häufig gemeint, daß der Erklärungsbegriff selbst „launenhaft" von Person zu Person variiert, je nach dessen Geschmack oder momentanen Interessen. In diesem zweiten Sinn würde „Erklärung" ein subjektiver

D. Neue Ansätze in der Erklärungstheorie

323

Begriff, für den es keine objektive Bewertung mehr gibt, sondern nur noch die subjektiven Einschätzungen verschiedener Personen. Wie Friedman richtet sich meine Kritik nur gegen den zweiten Sinn von „pragmatisch" und ich versuche eine objektive Erklärungstheorie zu konzipieren, die gleichwohl im ersten Sinn pragmatisch genannt werden kann. Die Frage nach einer Bewertung von Erklärungen ist wohl die größte Schwachstelle der van Fraassenschen Erklärungstheorie. Sie wurde in der bisher ausgeführten Theorie noch nicht erhellt. Es wurde einfach nur verlangt, daß es eine Relevanzbeziehung R gibt, die den Antwortkern A als relevant für ausweist. Der objektive Aspekt einer Erklärungstheorie ist aber genau in den Bedingungen zu suchen, die R zu erfüllen hat. Doch was hat van Fraassen dafür anzubieten? Van Fraassen (1980, 146ff) nennt einige Bedingungen, wie daß: 1. 2.

A wahrscheinlich wahr sein sollte A gerade das Thema T gegenüber seinen Konkurrenten in der Kontrastklasse favorisieren muß 3. A anderen Weil-Antworten überlegen sein muß. 13 Van Fraassens Bedingungen lassen sich auf sehr unterschiedliche Weise präzisieren, aber ich möchte wenigstens einen ersten wahrscheinlichkeitstheoretischen Vorschlag unterbreiten, dessen subjektive Lesart van Fraassen im Sinn haben könnte. Die erste Bedingung besagt schlicht, daß die Wahrscheinlichkeit von A groß sein sollte: 1') p(A) > 1 - 5 mit 8 sehr klein Die zweite Bedingung ist etwas schwieriger zu explizieren, weil „favorisieren" unterschiedlich gedeutet werden kann. Eine möglichst einfache Variante erhalten wir durch: 2') Für van Fraassen steht die Umverteilung von Wahrscheinlichkeiten im Vordergrund. Dazu müssen wir die Wahrscheinlichkeitsdifferenzen vorher und hinterher betrachten und die von T muß gegenüber den Konkurrenten in der Kontrastklasse X = {T,B,,..,B n } angehoben worden sein, d.h. für alle i sollte die Ungleichung gelten: p(T)-p(BJ) > p(T,A)-p(BI,A) und für mindestens ein i sollte eine echte Ungleichung gelten. Um die dritte Bedingung zu präzisieren, könnten wir den Unterschied der Differenzen als Maß M a für die Erhöhung der Erklärung durch A bezeichnen: M a := (p(P k |A) - ^IP(PILA)] - (p(P k ) - ^ L P ( P i ) ) Damit läßt sich dann der Vergleich zu alternativen Erklärungen präzisieren: 3') M a ist größer als MA. für alle alternativen Erklärungen A', die ebenfalls die Bedingungen (1') und (2') erfüllen. 14 Damit van Fraassens Theorie plausibel bleibt, müssen wir uns ganz auf die kontrastierenden Erklärungen beschränken, denn die Konzeption erlaubt auch, daß A ein Thema T erklärt, indem A die Wahrscheinlichkeit von T senkt. Haben wir etwa einen Patienten

324

VIII Wissenschaftliche

Erklärungen

mit Röteln und fragen, warum er die bekommen hat, so ist es bestimmt keine gute Antwort zu sagen: „Er bekam Kranckofit und das verringert zwar die Wahrscheinlichkeit für Röteln, aber macht etwa Masern noch viel unwahrscheinlicher." Erst wenn jemand fragt: „Warum bekam er Röteln (was doch recht unwahrscheinlich ist) und nicht Masern (wie alle anderen in seiner Klasse)?", wird die Antwort wieder plausibel. Relativ zur Ausgangswahrscheinlichkeit (bei der er wahrscheinlich auch Masern bekommen hätte) wurde die Wahrscheinlichkeit für Röteln gegenüber der von Masern durch Kranckofit sehr erhöht.15 Das scheint als Antwort auf die kontrastierende Warum-Frage und entsprechende Erklärung zunächst brauchbar. Diese Vorgehensweise - eine Explikation mit Hilfe subjektiver bedingter Wahrscheinlichkeiten zu geben, erinnert an Erklärungskonzeptionen aus der epistemischen Logik wie z. B. die von Gärdenfors (1988). Sie hat aber auch in der subjektivistischen Lesart der Wahrscheinlichkeiten mit denselben Schwierigkeiten zu kämpfen wie diese Ansätze. Wenn wir - und das ist ein Normalfall für Erklärungen - bereits wissen, daß T und A vorliegen, d.h. alle unsere Wahrscheinlichkeitseinschätzungen bereits unter der Annahme T und A erfolgen, wie groß ist dann p(T) oder p(B|) vor der Annahme von T und A? Hier werden gewagte kontrafaktische Konstruktionen nötig, bei denen wir unser Wissen etwa um A kontrahieren sollen, also die „kleinste Änderung" unseres Meinungssystems suchen, bei der wir A nicht annehmen, oder Ähnliches. Außerdem bleibt natürlich die spannende Frage offen, welche Bedingungen wir an die Wahrscheinlichkeiten richten können, um sicherzustellen, daß sie nicht willkürlich und unwissenschaftlich sind. Von einer tatsächlichen und nicht nur vermuteten Erklärung würden wir etwa verlangen, daß Kranckofit die Umverteilung der Wahrscheinlichkeiten in einem objektiven Sinn bewirkt, wir uns also auf objektive Wahrscheinlichkeiten in unseren Bedingungen beziehen. Wie wenig diese Bedingungen leisten, wenn wir keine objektiven Anforderungen an R richten, zeigen die folgenden Beispiele von Kitcher und Salmon (1987). Sie betrachten die Frage, warum John F. Kennedy am 22.11.1963 starb, und verstehen die Frage Q = wie folgt: T = JFK starb am 22.11.63 X = {am 1.1.63, am 2.1.63, ...,31.12.63, er überlebte 1963} R = astrale Einflüsse Jemand, der an eine astrologische Theorie glaubt, nach der die Konfiguration der Planeten und Sterne zum 22.11.63 zur Ermordung Kennedys an diesem Datum fuhrt, erfüllt dann mit seiner Antwort die van Fraassenschen Bedingungen: JFK starb am 22.11.63, weil die Konfiguration der Sterne und Planeten so und so ist. Nehmen wir an, wir wüßten den Kern A der Antwort, nämlich die Konfiguration der Sterne und Planeten mit beliebiger Genauigkeit und Gewißheit, so ist A beliebig wahrscheinlich vor unserem Hintergrundwissen.16 Damit ist van Fraassens erste Anforderung vollends erfüllt. Für die zweite Bedingung für gute Erklärungen muß der Erklärende über eine astrologische Theorie verfügen, die den entsprechenden Zusammenhang

D. Neue Ansätze in der Erklärungstheorie

325

behauptet. Nehmen wir an, daß JFKs Todestag sogar deduktiv aus dieser Theorie folgt und auch die dritte Bedingung erfüllt ist. Damit ist die angegebene Antwort für van Fraassen unwiderruflich eine Erklärung. Andererseits denken wir, in solchen Fällen eine falsche Erklärung, ja sogar eine Pseudoerklärung vor uns zu haben, und eine Erklärungstheorie, die wir zur Wahrheitsfindung einsetzen möchten, sollte in der Lage sein, objektive Anhaltspunkte zur Überprüfung der Erklärung und der erklärenden Theorie anzubieten. In der rein pragmatischen Erklärungstheorie kommen dagegen keine Ansatzpunkte mehr vor, die zwischen tatsächlichen Erklärungen und Pseudoerklärungen zu differenzieren helfen. Wir dürften in diesem Fall nicht sagen, der Astrologiegläubige glaubte nur, eine Erklärung für die Ermordung von JFK zu besitzen, hat aber in Wirklichkeit keine, sondern wir müßten sagen: Er hat tatsächlich eine (sogar ziemlich ideale) Erklärung von JFKs Ermordung gegeben, auch wenn wir sie nicht akzeptieren können. Kitcher und Salmon konnten sogar zeigen, daß jede wahre Aussage A in der rein pragmatischen Erklärungskonzeption von van Fraassen wesentlicher Bestandteil jedes Themas T mit beliebiger Kontrastklasse sein kann. Um plausibel zu bleiben, müßte van Fraassen nach ihrer Meinung ergänzend eigentlich eine Bedingung der Art: (*)

R ist eine objektive Relevanzbeziehung

aufnehmen. Um diese Forderung explizieren zu können, stoßen wir aber (s. Salmon 1989, 143ff) auf all die aus der Erklärungsdebatte altbekannten Probleme, so daß wir in diesem Punkt eigentlich noch keinen wesentlichen Fortschritt erzielt haben. Das intuitive Problem des Ansatzes von van Fraassen ist, daß es sich auch in den metatheoretischen Beurteilungen ausschließlich auf die Überzeugungen des betrachteten epistemischen Subjekts stützt. Was eine gute Antwort auf die Warum-Frage darstellt wird nur nach dessen Ansichten beurteilt, und van Fraassen läßt keinen Raum für metatheoretische Hinweise darauf, was eine Erklärung objektiv als solche auszeichnen kann. Im DN-Schema gibt Hempel dem Erklärenden zumindest einige Hinweise, mit deren Überprüfung er feststellen soll, ob es sich um eine echte Erklärung handelt, nämlich die Forderung nach dem wesentlichen Einsatz eines Naturgesetzes und die Forderung nach einem deduktiven Zusammenhang zwischen Explanans und Explanandum. Es ist daher auch kein Wunder, daß van Fraassen seine Erklärungstheorie als einen wichtigen Bestandteil seiner instrumentalistischen Sichtweise der Wissenschaften entwickelt hat, denn nur vor einem antirealistischen Hintergrund kann sie als die ganze Geschichte, die es zu Erklärungen zu erzählen gibt, Plausibilität beanspruchen. Eine ähnliche Kritik wie gegen van Fraassens Erklärungstheorie läßt sich auch gegen andere erotetische Ansätze wie den von Achinstein (1983) richten, denn auch bei ihm bleibt die Beziehung zwischen Explanans und Explanandum unterbestimmt, was etwa Salmon (1989, 146ff) ausfuhrt. Viele Aspekte des Kontextes einer Warum-Frage bestimmen, wonach wir genau fragen und welcher Typ von Antwort uns gerade interessiert. Das gilt insbesondere, wenn ich aus praktischen Motiven um eine Erklärung bitte. Der Pfarrer fragt deshalb den Bankräuber nach seinen Motiven, weil er seelsorgerisch auf ihn einwirken möchte. Das

326

VIII Wissenschaftliche Erklärungen

ist sicher eine richtige Beobachtung und sollte auch weiter in die Erklärungsdebatte eingebracht werden, aber damit ist noch nicht belegt, daß die Güte von Erklärungen nicht darüber hinaus einen harten Kern besitzt, der einer objektiven Beurteilung zugänglich ist - insbesondere im Falle der wissenschaftlichen Erklärungen und dessen Erforschung möchte ich mich widmen. Das dabei bestimmende Interesse ist ein theoretisches Interesse daran, einen bestimmten Vorgang oder Zusammenhang besser zu verstehen. Gegen die Annahme von van Fraassen, daß über die Pragmatik hinaus nichts zu entdecken ist, was Erklärungen zu solchen macht, versuche ich eine Konzeption von objektiver Erklärungskraft zu setzen. Pragmatische Theorien der Erklärung bieten sicher eine sinnvolle Ergänzung dazu, aber sie können sie nicht völlig ersetzen.

2. Kausale Erklärungen Ein wichtiges Desiderat, das ich aus der Debatte um pragmatische Erklärungstheorien mitgenommen habe, ist also die Suche nach einer Explikation einer objektiven Relevanzbeziehung zwischen Explanandum und Explanans. Zwei prominente Ansätze der Erklärungsdebatte, die sich demselben Ziel verschrieben haben, sollen in diesem und dem nächsten Kapitel weiterverfolgt werden. Der eine besagt, daß Erklärungen die Ursachen eines Ereignisses aufzudecken haben und aufzeigen sollten, wie dieses in die kausale Struktur unserer Welt einzubetten ist. Der andere stellt mehr die vereinheitlichende und systematisierende Funktion von wissenschaftlichen Erklärungen in den Vordergrund. Wissenschaftliche Erklärungen zeigen uns demnach, wie sich eine Vielzahl von Tatsachen auf wenige allgemeine Zusammenhänge zurückfuhren läßt. Diese beiden Ansätze möchte ich in ihren neueren Versionen eine Weile verfolgen, um abzuschätzen, welche Perspektiven und Probleme sie meines Erachtens bieten, und werde innerhalb des zweiten eine eigene Konzeption von Erklärung anbieten und präzisieren. Beginnen möchte ich mit der Vorstellung, jede Erklärung sei eine kausale Erklärung. a) Kausale Prozesse Insbesondere das obengenannte (B.2) Asymmetrieproblem verweist auf die zugrundeliegende kausale Struktur zu seiner Lösung. Das Zurückweichen der Sterne verursacht die Rotverschiebung ihres Spektrums und kann sie deshalb erklären, während das Umgekehrte nicht gilt. Ähnliche Auflösungen von Erklärungsasymmetrien anhand der Asymmetrie von Kausalbeziehungen lassen sich auch in den anderen Fällen finden, wenn sie auch nicht immer so glatt erscheinen wie die der Rotverschiebung. Theorien oder Konzeptionen von Kausalität gibt es allerdings zahlreiche und nicht alle eignen sich gleichermaßen für eine Erklärungstheorie. Außerdem hat sich jede heutige Kausalitätstheorie zum einen der Humeschen Kritik an der Kausalitätsvorstellung zu stellen und sollte andererseits mit unseren gegenwärtigen naturwissenschaftlichen Ansichten kompatibel sein, was die Auswahl schon erheblich einschränkt. Trotzdem bleiben verschiedene Theorien übrig, die alle zu diskutieren, den Rahmen des Buches sprengen würde. Daher möchte ich mich einem besonders namhaften Ansatz in der kausalen

D. Neue Ansätze in der

Erklärungstheorie

327

Erklärungstheorie zuwenden und diesen ausfuhrlicher besprechen, was in den kritischen Aspekten aber sicher auch für andere Kausalitätskonzeptionen Ansatzpunkte für kritische Einwendungen liefert. Darüber hinaus werde ich anhand allgemeinerer Überlegungen nahelegen, daß unsere Kausalitätsvorstellungen keinen sehr informativen Beitrag zu unserem Verständnis der Welt leisten können, der zugleich ein wichtiger Beitrag zum Verständnis von Erklärungen sein könnte. Es war insbesondere Wesley Salmon, der in neuerer Zeit mit seinem Werk Scientific Explanation and the Causal Structure of the World (1984) und einer Reihe anderer Arbeiten die kausale Erklärungstheorie belebt und vor allem detailliert ausgearbeitet hat. Etwas unklar bleibt in Salmons kausaler Konzeption, inwiefern sie eine Ergänzung seiner älteren bereits kurz vorgestellten SR-Konzeption (s. B.l.b.2) darstellt oder mit dieser zusammenhängt, doch es gibt zumindest auch eine probabilistische Version für die kausale Theorie. Zunächst stellt sich Salmon allerdings der Aufgabe, zu erklären, was denn unter einer Kausalbeziehung zu verstehen sei. Dabei versucht er der Kritik Humes und Russells Warnungen vor der Kausalität zu begegnen. So hält er die Ansätze, die Kausalität mit Hilfe von Begriffen wie „notwendiger" und „hinreichender Bedingung" explizieren wollen, für grundsätzlich falsch (Salmon 1984, 138), wobei ihm auch die INUS-Bedingung von Mackie (1974, 62) (nach der eine Ursache ein nichthinreichender, aber notwendiger Teil einer nicht notwendigen, aber hinreichenden Bedingung ist), die wohl den prominentesten Vertreter dieser Auffassung verkörpert, als nicht akzeptabel erscheint. Grundlegend in Salmons Erörterung von Kausalität sind Prozesse (processes) und nicht wie sonst häufig üblich Ereignisse. Prozesse sind raumzeitlich weiter ausgedehnt als Ereignisse. Wenn man Ereignisse im Raum-Zeit-Diagramm als Punkte darstellt, so können Prozesse als Linien repräsentiert werden. Ein Gegenstand wird etwa in seiner Bewegung eine Zeit lang verfolgt. Das intuitive Problem, das Salmon mit dem Übergang zu Prozessen zu lösen versucht, beschreibt Kitcher (1989, 461 ff): Ein Ereignis U ist dann eine Ursache eines anderen Ereignisses W (Wirkung), wenn von E ein kausaler Prozeß abläuft, der zu W führt, die Ereignisse also in geeigneter Weise kausal verbunden sind. Die abgefeuerte Kugel ist z. B. die Ursache für die durch die auftreffende Kugel entstehenden Schäden, wenn der „kausale Weg" von der Kugel zu den Schäden nachzuzeichnen ist. Zwischen zwei Ereignissen (die nicht räum- oder lichtartig zueinander liegen) gibt es aber eine Vielzahl von Weltlinien, die sie miteinander verbinden und das größte Problem einer Analyse von Kausalität ist es, genau die wesentlichen und geeigneten von den irrelevanten oder PseudoVerbindungen zu trennen. Genau dazu soll Salmons Explikation von „kausaler Prozeß" dienen, die er auf dem naturwissenschaftlichen Hintergrund der speziellen Relativitätstheorie entwirft, die für Salmon immer wieder leitende Funktion für seine Theoriebildung besitzt. Auch die Relativitätstheorie macht eine Unterscheidung der Prozesse in kausale Prozesse und Pseudoprozesse erforderlich. In wirklichen kausalen Prozessen im Sinne der speziellen Relativitätstheorie können z. B. keine höheren Geschwindigkeiten als die Vakuumlichtgeschwindigkeit c auftreten, während das für Pseudoprozesse nicht der Fall

328

VIII Wissenschaftliche Erklärungen

ist; in ihnen können sogar beliebig hohe Geschwindigkeiten vorkommen. Salmons Beispiele für Pseudoprozesse mögen diesen Unterschied verdeutlichen. Stellen wir uns einen dunklen, runden Raum vor, der in der Mitte einen rotierenden Lichtstrahl enthält. Der von dem Lichtstrahl erzeugte, sich über die Wand bewegende Lichtfleck ist ein solcher Pseudoprozess, der beliebige Geschwindigkeiten erreichen kann, je nachdem, wie schnell sich die Lichtquelle dreht und wie groß der Raum ist. Ebenso ist auch der Schatten eines fahrenden Autos ein Pseudoprozeß. Es handelt sich bei diesen Pseudoprozessen um Vorgänge, bei denen vorhergehende Zustände die späteren nicht verursachen und daher auch nicht direkt beeinflussen können. Der Schatten des Autos zu einer früheren Zeit kommt nicht als Ursache für den Schatten des Autos zu einer späteren Zeit in Betracht. Sober (1987, 252) hat das Verhältnis von kausalen Prozessen und Pseudoprozessen in einem Diagramm veranschaulicht: kausale Prozesse PseudoDie schwarzen ausgefüllten Pfeile stellen kausale Zusammenhänge dar und die schmalen nicht-kausale. Damit gibt uns die obere Reihe die Ereignisse an, die kausal auseinander hervorgehen, also etwa die verschiedenen Phasen der Fahrt eines Autos, während uns die untere Reihe einen Pseudoprozeß darstellt, wie den sich bewegende Schatten des Autos. Nur zwischen den Zuständen des kausalen Prozesses gibt es kausale Beziehungen, während die Zustände des Pseudoprozesses kausal untereinander unverbunden sind. Dieser Zusammenhang hat Salmon dazu angeregt, für eine Präzisierung der Abgrenzung das folgende ursprünglich von Reichenbach stammende Kriterium einzusetzen: Kausale Prozesse können Informationen übertragen und Pseudoprozesse nicht. Diese Idee hat Salmon anhand der Übertragung von Zeichen (transmitting of a mark) in seinem „principle of mark transmission" (Salmon 1984, 148) zu präzisieren versucht. Dieses Prinzip besagt informell ausgedrückt: A genuine causal process is one that can transmit a mark: if the process is modified at one stage the modification persists beyond that point -without any additional intervention. (Salmon 1989, 108) A „process" that can be marked at one place, but without having any such modification persist beyond the point at which the mark is made, cannot transmit marks. Such „processes" are pseudoprocesses. (Salmon 1989, 109)

Ein Pferd, das über eine Wiese läuft, ist ein genuin kausaler Vorgang, aber nicht so der sich bewegende Schatten oder das laufende Pferd im Film auf einer Leinwand. Natürlich ist der Projektions Vorgang im Kino ein kausaler Prozeß, aber die Bewegung des Pferdes im Bild ist ein Pseudoprozeß. Wenn man dem Bild des Pferdes einen roten Punkt verpaßt, indem man mit einem roten Licht auf die Leinwand strahlt, verschwindet dieser

D. Neue Ansätze in der Erklärungstheorie

329

rote Punkt sofort wieder, wenn wir das Licht ausschalten und das Bild des Pferdes gibt dieses Zeichen nicht weiter. Dieses Beispiel von Salmon (1989, 109) zeigt aber auch schon erste Probleme dieses Ansatzes, denn auch das Pferd selbst behält einen roten Punkt, den man ihm mit einem roten Lichtstrahl zufügt, nicht bei. Allerdings behält es, wenn man es genau nimmt, eine kleine Erwärmung an dieser Stelle, die es weiter transportiert. Deutlicher wird Salmons Unterscheidung im Beispiel eines Autos, dem wir eine Beule zufügen. Die bleibt dauerhafter, während das Einbeulen der Leinwand an einer Stelle keine dauerhaften Zeichen auf dem Bild des Pferdes hinterläßt - höchstens auf der Leinwand. Trotz dieser recht einleuchtenden Zusammenhänge läßt einen die Definition von kausalen Prozessen mit intuitiven Problemen zurück, von denen ich nur einige von allgemeinerer Bedeutung aufgreifen möchte.17 Ein notorisches Problem vieler Explikationsvorschläge von Kausalität ist der Einsatz modaler Begriffe}1 Kausale Prozesse sind für Salmon die Mittel, durch die kausale Einflüsse weitergeleitet werden (s. Salmon 1984, 170). Diese Mittel sind dadurch ausgezeichnet, daß sie Zeichen weitergeben können. Das müssen sie natürlich nicht in jedem Fall tatsächlich tun, was Salmon auch deutlich macht (z. B. Salmon 1989, 110). Dazu erläutert Sober (1987, 254f) an einem leichtverständlichen Beispiel ein Problem dieser Definition: Wenn eine elektrische Lampe durch verschiedene elektrische Leitungen mit Schaltern an das Stromnetz angeschlossen ist, sind sie alle im Sinne Salmons „kausale Prozesse", da sie Zeichen weitergeben können. Ein Schalter wird aber schließlich nur eingeschaltet und transportiert tatsächlich ein „Zeichen" und nur diese Leitung gibt uns die tatsächliche Ursache des aufleuchtenden Lichts. Wie kann Salmon in seiner Theorie der Kausalität jedoch von den bloß möglichen Ursachen zu den tatsächlichen übergehen? Salmon (1984, 171) gibt uns dazu ein Prinzip für die kausale Wechselwirkung (causal interaction) von Prozessen an, wonach eine tatsächliche Wechselwirkung dann vorliegt, wenn die Zustände der Prozesse nach der Wechselwirkung andere sind als vorher. Doch auch diese Vorgehensweise bleibt unbefriedigend, wie weitere Überlegungen und Beispiele Sobers (1987, 255f) zeigen können. Ursachen müssen nämlich nicht immer zu Veränderungen führen. Sie können etwa durch entsprechende Gegenkräfte aufgehoben werden. So kann ein Partikel in der Newtonschen Mechanik einer Vielzahl von Kräften unterliegen, die seine geradlinig gleichförmige Bewegung trotzdem nicht stören, weil sie sich gegenseitig aufheben. Obwohl hier also Ursachen am Werk sind, kann es vielleicht an entsprechenden Wirkungen im Sinne einer Veränderung des Vorgangs fehlen. Die Salmonsche Charakterisierung macht darüber hinaus einige Annahmen über die Beschaffenheit der Welt, die Sober (1987, 255f) aufdeckt, die aber auch nicht verwundern können, wenn man bedenkt, daß Salmons Explikationsvorschlag auf dem Hintergrund der speziellen Relativitätstheorie entwickelt wurde. Doch ich möchte nicht weiter die fast schon technischen Details und Probleme dieses Ansatzes besprechen, sondern mich nun stärker der Frage zuwenden, was wir vom kausalen Ansatz zur Charakterisierung von Erklärungen generell erwarten können. Die dabei anzutreffenden Probleme

330

VIII Wissenschaftliche

Erklärungen

sind nicht spezifisch für die Salmonsche Explikation von Kausalität, sondern treffen in ähnlicher Weise auf andere Kausalitätskonzeptionen zu.

b) Sind alle Erklärungen kausale Erklärungen? Es war mir nicht möglich, verschiedene Vorschläge zur Explikation von Kausalität im Detail zu besprechen. Ich hatte mich deshalb auf den Salmonschen konzentriert, weil dieser explizit zu einer prominenten Erklärungstheorie ausgearbeitet wurde, aber einige allgemeinere Überlegungen mögen meine Skepsis begründen, daß sich mit Hilfe des Kausalitätskonzepts überhaupt eine gehaltvolle Konzeption von Erklärung finden läßt. Die kausale Erklärungstheorie wurde primär entwickelt, um singulare Tatsachen oder Ereignisse zu erklären. Aber sind in all diesen Fällen kausale Erklärungen möglich und auch die naheliegendsten Erklärungen? Tatsächlich scheint mir das nicht der Fall zu sein, und um diese Vermutung zu belegen, werde ich einige Beispiele und Überlegungen anfuhren. Ein erster Punkt, auf den uns Kitcher (1989, 423ff) hinweist, sind Erklärungen in der Mathematik. So können uns Sätze wie der Zwischenwertsatz erklären, wieso eine stetige reellwertige Funktion f auf einem Intervall [a, b] eine Nullstelle haben muß, wenn f(a) < 0 und f(b) > 0 ist. Kitcher weiß dazu Beispiele anzugeben, die insbesondere auf der Grundlage seiner Anschauungen von Mathematik nicht aus der Erklärungsdebatte ausgeschlossen werden sollten. Auch mir geht es darum, einen möglichst breiten Erklärungsbegriff vor Augen zu haben, der viele Beispiele von Erklärungen abzudecken gestattet, und ich bin darum mit Kitcher bereit, geeignete Beispiele aus der Mathematik zu akzeptieren. Außerdem ist es zumindest ein methodologischer Vorteil einer Erklärungskonzeption, wenn sie einen großen Anwendungsbereich besitzt.19 Da aber die Einbeziehung mathematischer Erklärungen in die Erklärungsdebatte vielen Philosophen wahrscheinlich intuitive Schwierigkeiten bereiten wird, möchte ich diese Beispiele hier nicht zu sehr strapazieren, sondern mich gleich anderen Typen von Fällen zuwenden. Ein schönes Beispiel in dieser Richtung ist Kitchers (1989, 426) „Party Trick" mit wissenschaftlich ernstzunehmendem Hintergrund. In diesem Trick (man kann auch an einen Entfesselungskünstler denken) wird ein Knoten so um eine Schere geschlungen, daß er sofort aufgeht, wenn man zu Beginn die richtigen Entschlingungen vornimmt, aber man kann sich stundenlang damit abquälen, wenn man sie nicht findet. Was erklärt dann den Mißerfolg? Natürlich kann man in so einem Fall mit den kausalen Zusammenhängen der einzelnen Verschlingungen argumentieren, doch dabei verkennt man den wesentlichen Punkt, um den es geht, nämlich die topologischen Zusammenhänge, die zwischen den unterschiedlichen Fehlversuchen bestehen. Bestimmte Entwirrungsversuche müssen aus topologischen Gründen fehlschlagen, während andere gelingen werden. Die kausalen Details der Versuche wie die Kräfte und Materialeigenschaften etc. sind dabei eigentlich ganz unerheblich. Auf das dabei erkennbare Phänomen stoßen wir in vielen Erklärungen. Es sind nicht die individuellen kausalen Beziehungen, die etwas erklären, sondern abstraktere Zusammenhänge, die auf einer anderen Ebene angesiedelt sind. Will ich etwa erklären,

D. Neue Ansätze in der Erklärungstheorie

331

warum ein Holzpflock mit quadratischer Grundfläche und einer Kantenlänge von 1 m nicht durch ein rundes Loch mit einem Durchmesser von 1,2 m paßt, so ist eine einfache geometrische Erklärung angemessen: Bei einer Kantenlänge von 1 m weist die Diagonale eine Länge von 21/2 auf, und das ist größer als 1,2 m. Also kann der Pflock nicht durch das Loch gehen. Natürlich ließe sich dazu im Prinzip auch eine „tolle" kausale Erklärung geben, die statt dessen die möglichen Trajektorien der einzelnen Moleküle des Pflocks unter gewissen Randbedingungen verfolgt. Doch käme uns jemand mit dieser „Erklärung", würden wir sie als ziemlich uninformativ zurückweisen. Es wäre eine furchtbar lange Geschichte, die uns schließlich nicht mehr die wesentliche Information bieten würde. Die geometrische Erklärung ist eindeutig die viel bessere und informativere. Und Entsprechendes gilt auch für andere typisch wissenschaftliche Erklärungen. Etwa die Erklärung des Zwillingsparadoxon ist keine kausale Erklärung, sondern eine geometrische anhand der Raum-Zeit-Geometrie der speziellen Relativitätstheorie (s. Ray 1991, 36ff). Ein weiteres solches Beispiel von nicht-kausaler Erklärung stammt von Sober (1983) und wird von Kitcher (1989, 426) wieder aufgegriffen. Sober beschreibt die Evolutionstheorie in Analogie zum Aufbau der Newtonschen Mechanik. Das Hardy-Weinberg Gesetz gibt uns demnach einen „kräftefreien" Gleichgewichtszustand für die Häufigkeiten verschiedener Genkombinationen an. Abweichungen davon können durch das Wirken von „Evolutionskräften" wie Migration, Selektion, Mutation und Zufallsdrift erklärt werden. Fragen wir uns dann, wie sich ein Geschlechterverhältnis aller Geburten einer Stadt von 1,04 zu 1 (Männer-Frauen) erklären läßt, könnte man eine sehr komplizierte kausale Geschichte über Spermien und Eier etc. erzählen,20 aber die meisten dieser kausalen Details sind eigentlich für unser Erklärungsvorhaben nicht interessant oder sogar hinderlich. Eine bessere wenn auch recht abstrakte Antwort zitiert den Selektionsdruck, der zunächst zu einem annähernden 1 zu 1 Verhältnis geführt hat, weil sich dabei die höchsten Reproduktionsraten erzielen lassen, gibt aber zusätzlich die etwas höhere Sterblichkeit der Männer in der Zeitspanne von der Geburt bis zur Vermehrung zu berücksichtigen, so daß sich bei dem erwähnten Verhältnis von 1,04 zu 1 ein Gleichgewicht der Evolutionskräfte einstellt.21 Sowohl Sober wie auch Kitcher halten diese Erklärung nicht für eine kausale Erklärung im üblichen Sinn des Worts, denn es geht in der Erklärung wiederum primär um einen strukturellen Zusammenhang, ein Gleichgewicht bestimmter Größen, aber nicht um eine Beschreibung der kausalen Prozesse, die zu diesem Gleichgewicht gefuhrt haben. Daß viele Erklärungen singulärer Tatsachen nicht nach kausalen Erklärungen mit Angabe der speziellen kausalen Vorgeschichte verlangen, liegt unter anderem daran, daß man in diesen Beispielen nicht an der Erklärung eines speziellen Ereignisses interessiert ist, sondern an der Erklärung allgemeinerer Reguläritäten. Friedman (1988) geht sogar noch weiter und behauptet, daß eigentlich immer Regelmäßigkeiten oder Gesetze erklärt werden sollen. Wenn man fragt, warum Wasser zu verdampfen beginnt, wenn es erhitzt wird, und man darauf erklärt: „Die Erhitzung besteht in einer Zunahme der Molekülbewegung, und wenn diese heftig genug sind, zwischenmolekulare Kräfte zu überwinden,

332

VIII Wissenschaftliche Erklärungen

fliegen die Wassermoleküle davon.", so hat man ein ganzes Phänomen erklärt und nicht nur ein einzelnes Datum. Friedman (1988, 172) schreibt dazu: Was erklärt wird, ist eine allgemeine Regelmäßigkeit bzw. ein Verhaltensmuster - ein Gesetz, wenn man will - nämlich, daß Wasser zu verdampfen beginnt, wenn es erhitzt wird. Obwohl sich der überwiegende Teil der philosophischen Erklärungsliteratur mit der Erklärung von Einzelereignissen beschäftigt, so scheint doch der in den obigen Beispielen illustrierte Erklärungstyp für die Naturwissenschaften viel charakteristischer zu sein. Erklärungen von Einzelereignissen sind dagegen vergleichsweise selten - sie kommen höchstens vielleicht in der Geologie oder Astronomie vor. Selbst wenn Friedman hier die Bedeutung von Gesetzeserklärungen etwas überbetont, bleibt doch der Punkt, daß zumindest ein großer Teil der wissenschaftlichen Erklärungen diesen allgemeineren Charakter besitzt. Erklärend sind dabei abstraktere strukturelle Zusammenhänge, die einer größeren Klasse von Fällen gemeinsam sind. Wie kann der Proponent einer kausalen Erklärungstheorie auf die Tatsache reagieren, daß Erklärungen oft diese abstraktere Beschreibungsebene verlangen? Diese Perspektive auf Erklärungen ermöglicht auch Einsichten in anderen Bereichen der Philosophie. Auch wenn wir mit Davidson der Meinung sind, daß intentionale Zustände keine geeigneten Kandidaten für echte physikalistische Erklärungen darstellen, so können sie trotzdem wesentliche Aspekte brauchbarer Erklärungen sein. Dennett hat gezeigt, wie wir selbst gegenüber Schachcomputern eine intentionale Einstellung mit Gewinn einnehmen können und ihnen einfache Wünsche und Überzeugungen zuschreiben, um ihr Vorgehen zu verstehen. Das heißt noch nicht, daß sie diese Zustände im Sinne identifizierbarer konkreter kausaler Zustände besitzen. Das glauben wir nur von Menschen und eventuell noch manchen Tieren. Trotzdem finden wir auch bei Schachcomputern entsprechende Verhaltensmuster mit Erklärungswert. Das läßt sich als ein Hinweis deuten, daß intentionale Erklärungen auch im allgemeinen nicht als kausale Erklärungen gemeint sind. Überhaupt haben wir in vielen Fällen vermeintlich kausaler Erklärungen noch genauer hinzuschauen, ob es tatsächlich die Angabe von Ursachen ist, die erklärt, oder nicht vielmehr der Hinweis auf abstraktere Regelmäßigkeiten.

c) Koexistenzgesetze Verschärft wird das Problem für die kausalen Erklärungskonzeptionen noch durch einen speziellen Typ von Beispielen, den man als Erklärungen anhand von Koexistenzgesetzen bezeichnen kann. Unter einer kausalen Beziehung stellt man sich normalerweise mindestens eine zeitliche Beziehung vor, bei der die Wirkungen den Ursachen vorhergehen. Für die Koexistenzgesetze oder auch strukturelle Gesetze scheint diese Bedingung aber nicht erfüllt zu sein, obwohl wir sie intuitiv trotzdem als erklärend einstufen. Ein klassisches Beispiel ist das Pendelgesetz, nach dem die Schwingungsdauer umgekehrt proportional zur Pendellänge für ideale Pendel ist. Mit seiner Hilfe können wir erklären, warum ein bestimmtes Pendel eine bestimmte Schwingungsdauer aufweist, indem wir sie auf die Länge des Pendels zurückführen. Andere Beispiele sind Strahlungsgesetze wie das Plancksche oder die Balmersche Serienformel oder auch Gleichgewichtsgesetze

D. Neue Ansätze in der Erklärungstheorie

333

wie das Gasgesetz etc. Schurz (1983, 213ff) nennt noch andere Beispiele und meint, daß sogar die fundamentalen Grundgleichungen der Physik als Koexistenzgesetze aufgefaßt werden können, geben diese Differentialgleichungen doch immer einen momentanen Gleichgewichtszustand an. Das geht aber wohl etwas zu weit, denn immerhin tritt die Zeit in ihnen als ein wichtiger Parameter auf, der deutlich macht, wieso sie einen Ablauf beschreiben. Neben den Koexistenzgesetzen finden wir Gesetze, die man eher als Strukturgesetze bezeichnen kann, die ebenfalls keinen Zeitfaktor enthalten. Etwa Paulis Ausschlußprinzip, das im Rahmen der Quantenmechanik den Aufbau des Periodensystems erklärt und speziell auch erklärt, wieso gerade Edelgase chemisch besonders stabil und träge sind (s. Kitcher 1989, 428f). Bemerkenswert ist dabei, daß auch für diese Gesetze das Phänomen der Asymmetrie zu finden ist (s. dazu Schurz 1983), obwohl es in diesen Beispielgesetzen keine klar erkennbare kausale Struktur gibt. Sie deshalb alle als nichterklärend auszuschließen, ist ebenfalls keine wirkliche Option, denn damit würde man große Teile der Naturwissenschaften als nichterklärend bezeichnen. Vielmehr zeigen sie, daß es dem kausalen Erklärungsansatz nicht um wissenschaftliche Erklärungen per se geht, sondern nur um einen bestimmten Typ von Erklärungen, nämlich kausale Erklärungen, was einem „Nein" auf die Ausgangsfrage des Kapitels gleichkommt. Natürlich können wir, um die kausale Erklärungstheorie an diesem Punkt zu retten, mit (Schurz 1983, 453ff) den Kausalitätsbegriff entsprechend erweitern und auch diese Gesetze darunter fassen, wobei die Asymmetrie in einem versteckten Sinn doch auf eine zeitliche Beziehung zurückzufuhren ist. Aber das bedeutet erstens eine weitere Aufweichung und inhaltliche Entleerung des Kausalitätsbegriffs und außerdem eine Interpretation der Gesetze, die man nicht unbedingt in allen Fällen unterschreiben sollte. Zwei weitere spezielle Typen von Erklärungen, die sich ebenfalls nicht ohne eine weitere Aushöhlung des Kausalitätskonzepts in den Rahmen der kausalen Erklärung einbetten lassen, nennt Achinstein (1983, 233ff). Da sind zum einen die klassifikatorischen Erklärungen, die eine Antwort auf Fragen wie: „Warum hat Eisen die Nummer 26 im Periodenssystem der Elemente?" geben. Eine derartige Erklärung würde etwa darauf verweisen, daß die Nummern im Periodensystem anhand der Protonenzahlen im Atomkern vergeben werden und Eisen gerade 26 Protonen aufweist. Einen anderen Typ von Erklärungen sieht Achinstein noch in ,Jdentitätserklärungen". Auf die Frage, warum auch Eis Wasser ist, könnte man z. B. antworten, daß Wasser zu sein gerade durch die Eigenschaft, aus H 2 0 Molekülen zu bestehen, definiert ist und Eis ebenfalls aus H 2 0 Molekülen besteht. Auch auf die Frage, warum schwerere Massen höhere Kräfte benötigen, um beschleunigt zu werden, können wir eine Erklärung anhand der Identität von schwerer und träger Masse geben, die sich ebenfalls nicht als kausale Erklärung anbietet. Angesichts der Vielzahl und Vielfältigkeit der Beispiele drängt sich der Eindruck auf, daß die kausalen Erklärungen nur eine echte Teilklasse der (wissenschaftlichen) Erklärungen ausmachen. Dieser Eindruck wird noch in zwei weiteren Bereichen bestätigt.

334

VIII Wissenschaftliche

Erklärungen

d) Theoretische Erklärungen In Abschnitt (C.3.a) hatte ich bereits darauf hingewiesen, daß viele wissenschaftliche Erklärungen nicht Erklärungen einzelner konkreter Ereignisse sind, sondern eher Erklärungen von Phänomenen also Ereignistypen oder sogar Gesetzen. Für den Fall von Gesetzeserklärungen oder Erklärungen ganzer Theorien hat sich auch der Begriff der Reduktion eingebürgert, was uns aber nicht darüber hinwegtäuschen sollte, daß es einen kontinuierlichen Übergang zwischen Erklärungen und Reduktionen gibt, den eine Erklärungstheorie zumindest verständlich machen sollte. Man denke unter dem Stichwort der Reduktion oder „theoretischen Erklärung" etwa an Beispiele wie die Erklärung der Keplerschen Gesetze durch die Newtonschen, der Mendelschen durch die Molekulargenetik, der phänomenologischen Thermodynamik durch die statistische Mechanik, der Balmer Formel durch das Bohrsche Atommodell usf. Für die Hempelsche Erklärungstheorie ist es der Fall, daß sie für den Zusammenhang zwischen Erklärungen und Reduktionen eine hilfreiche Erläuterung zur Hand hat. Im Prinzip können wir das DN-Modell nämlich auch auf die Erklärung von Gesetzen ausdehnen. Die Keplerschen Gesetze werden dabei z. B. abgleitet aus den Gleichungen der Newtonschen Gravitationstheorie zusammen mit einigen Tatsachen über unser Sonnensystem (s. etwa Scheibe 1973). Hempel und Oppenheim (1948) sahen bei dieser Art von Ableitungen allerdings ein Problem, daß sie davor zurückschrecken ließ, nämlich die Gefahr der irrelevanten Herleitung, die allerdings, wie wir heute wissen, ebenso andere DN-Ableitungen bedroht. Man könnte das Keplersche Gesetz auch aus einer Konjunktion von Keplerschem Gesetz und einem chemischen Gesetz wie dem Kirchhoffschen Satz deduzieren. In solchen Fällen würden wir natürlich nicht von einer Erklärung sprechen, denn die setzt eine „tiefere" Theorie voraus, die sich nicht einfach als Konjunktion zweier beliebiger Gesetze erweist. Die erklärende Theorie sollte statt dessen eine „organische Einheit" bilden, die das zu erklärende Gesetz nicht konjunktiv enthält (s. dazu IX.E.8). Anhand einer derartigen Erweiterung um eine Forderung nach organischer Einheit wäre das Hempelsche Erklärungsmodell zumindest im Prinzip in der Lage, die Erklärung von Gesetzen analog zu der Erklärung von Einzelereignissen zu beschreiben. Es bleibt allerdings noch ein Problem, auf das man dabei in der Praxis solcher Erklärungen stößt, nämlich daß alle interessanten Reduktionen aus der Physik aber auch anderen Gebieten immer approximative Reduktionen sind, die keine strengen Deduktionen gestatten. Auf den ersten Blick könnte man darin sogar eine Unterscheidung zwischen Erklärungen und Reduktionen erblicken, aber eine genauere Untersuchung ergibt, daß auch alle Einzelfallerklärungen jedenfalls für quantitative Theorien letztlich approximativen Charakter haben. Mit solchen Approximationen nicht auf überzeugende Weise fertigzuwerden, ist kein spezielles Manko des Hempelschen Ansatzes, sondern eher ein allgemeines Problem syntaktischer Darstellungen von Theorien (s. VII.C.9).22 Lassen wir das Problem der Approximationen zunächst außer Acht, kann Hempel im Prinzip erklären, wie der Übergang von Erklärungen zu Reduktionen aussieht, wenn das

D. Neue Ansätze in der Erklärungstheorie

335

DN-Schema auch in der Ausgestaltung versagt. Doch was hat der Proponent kausaler Erklärungstheorien demgegenüber anzubieten? Kitcher (1989, 429ff) erörtert dazu einige Möglichkeiten, die aber alle nicht wirklich zufriedenstellen können. Der Kausalitätstheoretiker muß immer weggehen von konkreten kausalen Beziehungen, wo er sich zu Hause fühlt, zu allgemeineren Beziehungen, für die keineswegs wesentlich ist, daß ihre Instanzen kausale Relationen darstellen.

e) Erklärungen in der Quantenmechanik Ein Gebiet, das ich aus Gründen der Einfachheit weitgehend ausklammern möchte, muß an dieser Stelle nun doch noch kurz zur Sprache kommen, die statistischen Erklärungen. Unser Alltagsverständnis von Kausalität ist überwiegend das eines determinierten Ablaufs, wobei Indeterminiertheiten und statistische Gesetze eher auf Unkenntnis also auf epistemische Inderterminiertheit zurückzuführen sind als auf ontologische Unbestimmtheiten. Das entspricht zunächst auch dem Salmonschen Ansatz, der sich als Hintergrund auf die Spezielle Relativitätstheorie stützt, die eine deterministische Struktur besitzt. Doch in vielen Bereichen stoßen wir auf statistische Erklärungen, die man zumindest im Prinzip in einem Erklärungsansatz berücksichtigen können muß. Seit der probabilistischen Revolution dringen statistische Hypothesen in immer größere Bereiche unseres Lebens vor. Man denke nur an die Gesellschaftswissenschaften, in denen wohl die meisten Gesetze probabilistischen Charakter haben, aber auch an einige Bereiche der Naturwissenschaften, für die schon Hempel höchstens statistische Gesetze erwartet hat. Um das in der kausalen Erklärungstheorie umsetzen zu können, müssen wir von einer deterministischen Kausalitätsvorstellung zu einer probabilistischen übergehen. Damit wird jede Kausalitätskonzeption auf eine schwere Probe gestellt, der sie sich stellen muß, will sie nicht nur längst überholte Vorstellungen von Kausalität rekonstruieren, sondern auch in den heutigen Wissenschaften eine Rolle spielen können. Dabei kann man die Bedeutung der Wahrscheinlichkeiten für die klassische Physik noch herunterspielen, denn für sie läßt sich die epistemische Interpretation von Wahrscheinlichkeitsgesetzen vertreten. Danach könnten wir z. B. in der statistischen Mechanik im Prinzip die Bahnen aller einzelner Moleküle im Rahmen der klassischen Partikelmechanik vorausberechnen, wenn wir ihre Anfangszustände nur genau bestimmen könnten und genügend Rechenkapazitäten besäßen - so lautet zumindest die klassische Vorstellung. Das zeigt, daß diese Bahnen im Sinne der klassischen Mechanik determiniert sind. Der Zustand der Welt zu einer bestimmten Zeit legt die Zustände für alle weiteren Zeiten fest. Nur da wir die „Mühe scheuen", dieses Unterfangen der einzelnen Vorausberechnung und der Ermittlung aller Anfangswerte tatsächlich durchzuführen, arbeiten wir mit statistischen Beschreibungen, die einfach unseren unvollständigen Kenntnisstand wiedergeben. 23 Auf diese Art ließen sich schließlich kausale Erklärungstheorie und klassische statistische Gesetze und Erklärungen miteinander versöhnen. Salmon (1984, Kap. 6) entwickelt zu diesem Zweck seine Theorie der kausalen Gabelungen (causal forks), mit den drei Typen „conjunctive fork", „interactive" und „perfect fork", wobei die konjunktive Gabelung die wichtigste ist. Sie entspricht weitgehend dem

336

VIII Wissenschaftliche Erklärungen

sogenannten „Common Cause" Modell (CC Modell) der statistischen Erklärung aus Reichenbachs The Direction ofTime (1956). Dieses CC-Modell verfolgt einen elementaren Gedanken, den ich an einem Beispiel erläutern möchte. Für zwei Ereignisse A und B liegt genau dann eine positive Korrelation zwischen A und B vor, wenn gilt: P(A&B) > P(A) P(B)24 In Salmons Beispiel (1984, 161f) sind die beiden Ereignisse jeweils durch das Würfeln einer 6 mit einem von zwei Würfeln charakterisiert. Handelt es sich um faire Würfel, treten die Ereignisse A (Würfel 1 zeigt eine 6) und B (Würfel 2 zeigt eine 6) jeweils mit Wahrscheinlichkeit 1/6 auf und A&B, wenn es sich beim Sechsenwerfen um voneinander unabhängige Ereignisse handelt, mit Wahrscheinlichkeit 1/36. Findet sich aber eine Korrelation zwischen den beiden Würfelergebnissen, nach der ein Pasch 6 signifikant häufiger auftritt als 1/36, stellt sich die Frage nach einer Ursache dieses Zusammenhangs. Beide Würfel enthalten vielleicht einen kleinen Magneten und der Würfeltisch einen Elektromagneten, der die Wahrscheinlichkeit für gemeinsame Sechsen stark erhöht, wenn er eingeschaltet wird (Ereignis C). Von C sagen wir dann, daß es die beobachtete Korrelation erklärt, wenn A und B bei gegebenem C wieder statistisch unabhängig werden, d.h.: (CC)

P(A&B|C) = P(A|C) P(B|C)

Man sagt dann auch, daß C die gemeinsame Ursache (common cause) von A und B ist. Wissen wir schon, daß der Elektromagnet an ist, können wir die Wahrscheinlichkeit für A&B wieder aus den Einzelwahrscheinlichkeiten durch Multiplikation bestimmen; es gibt also keine erklärungsbedürftige Korrelation mehr. Ein Beispiel aus der Praxis der Common-Cause-Vorstellung diskutiert van Fraassen (1980, 25ff). Zwischen starkem Rauchen und Lungenkrebs tritt eine signifikante Korrelation auf, d.h. das Auftreten von Lungenkrebs ist unter Rauchern deutlich höher als in der Gesamtbevölkerung. Eine Erklärung, die dafür naheliegt, ist das vorgängige Rauchverhalten, das sowohl zu dem heutigen Rauchverhalten wie auch dem Lungenkrebs geführt hat. Ob sie bereits die ganze Erklärung (im Sinne der vollständigen Ursache) liefert oder vielleicht andere Aspekte wie ein Gen, das für beide Neigungen verantwortlich ist - diese Alternative wurde in amerikanischen Diskussionen über die Gefahren des Rauchens von bestimmten Gruppen vertreten - , ebenfalls noch ins Spiel kommen, kann dann anhand der Gleichung (CC) im Prinzip ermittelt werden. Das ist in diesem Fall natürlich von großer praktischer Bedeutung. Wäre ein Gen der Common Cause und sowohl für die Neigung zum Lungenkrebs wie auch die zum Nikotingenuß verantwortlich, hätten wir keinen Grund mehr, mit dem Rauchen aufzuhören oder es gesetzlich einzuschränken. Das Risiko, Krebs zu bekommen, hinge in dem Fall nur von dem Gen und nicht vom Rauchverhalten ab. Das CC-Modell gestattet es, eine Reihe von statistischen Zusammenhängen zu erklären, und für Salmón sind es vor allem diese Zusammenhänge zwischen Prozessen,

D. Neue Ansätze in der Erklärungstheorie

337

die die kausale Struktur unserer Welt bestimmen. In der Diskussion von Salmons Ansatz haben sich aber inzwischen eine ganze Reihe von Schwachstellen des Modells gezeigt, die seine anfängliche Plausibilität in Frage stellen. Von verschiedenen Seiten wurde etwa ein Zirkularitätsvorwurf gegen Salmons Explikationen geäußert. Kitcher erwähnt in (1985, 638), wie eng die Begriffe „Prozeß", „kausaler Prozeß", „Wechselwirkung" und „Zeichen" zusammenhängen und Dowe (1992, 200f) zeigt, daß hier eine Zirkularität der Explikation schlummert. Auch ist der Zusammenhang zwischen Ursachen und den konjunktiven Gabelungen unklar. Dowe (1992, 204ff) greift einige Beispiele von Salmon für Verursachung auf: Die Wucht des Hammers treibt ihn in das Holz; der Blitz entzündet den Wald etc. In keinem dieser Fälle ist überhaupt die Rede von einer Korrelation. Andererseits finden wir bemerkenswerte Korrelationen, die nichts mit Verursachung zu tun haben. Unsere Theorien über Moleküle erklären, daß wir denselben Wert für die Avogadrosche Zahl erhalten, ob wir sie mit Hilfe der Brownschen Bewegung ermitteln oder anhand von Röntgenbeugungsexperimenten. Die konjunktive Gabelung gestattet es, derartige Fälle zu analysieren, aber es liegen deshalb noch keine Kausalbeziehungen vor. Viele weitere Einwände in dieser Richtung zeigen deutlich, wie schwer es ist, eine zweckmäßige Explikation von probabilistischer Kausalität zu geben, die vor unserem heutigen Weltbild bestehen kann und auch auf unsere typischen Fälle von kausalen Zusammenhängen anwendbar ist. Endgültig problematisch wird diese Analyse probabilistischer Kausalität allerdings, wenn wir sie in der Quantenmechanik einsetzen wollen, die ja einen der Gründe für die große Bedeutung statistischer Analysen darstellt. Salmon ist sich der Bedeutung und Einzigartigkeit dieser Theorie voll bewußt, wenn er sagt (1989, 173): „Quantum mechanics (including quantum electrodynamics and quantum chronodynamics) has had more explanatory succcess than any other theory in the history of science." Insbesondere wischt er auch die Konsequenzen aus der Theorie wie die Korrelationen vom „EPRTyp"25 nicht leichtfertig vom Tisch, sondern unterschreibt David Mermins Einschätzung, daß „anyone who isn't worried about this problem has rocks in their head" (Salmon 1989, 186). In den von der Quantenmechanik beschriebenen Situationen vom EPR-Typ ist die Common-Cause Konzeption aber nicht anwendbar, was auch Salmon zugibt. Eine sehr sorgfältige Analyse, der hier auftretenden Probleme findet sich bei van Fraassen (1991, 81 ff) 26 . Die formale Rekonstruktion der EPR-Situationen durch van Fraassen kann ich hier nicht aufgreifen, sondern nur die inhaltlichen Ergebnisse informell erörtern. Auf Situationen dieses Typs ist man zwar erstmalig innerhalb der Quantenmechanik in dem berühmten Aufsatz von Einstein, Podolsky und Rosen aufmerksam geworden, sie lassen sich aber unabhängig von der Quantenmechanik beschreiben und inzwischen sogar experimentell realisieren. Das zeigt, daß sie nicht nur exotische Konsequenzen einer vielleicht doch nicht in allen Aspekten korrekten Theorie sind, sondern Merkmale unserer Welt, mit denen eine Kausalitätstheorie umzugehen hat. Um diese Situationen zu veranschaulichen, möchte ich nicht nur abstrakt über diese Situationen sprechen, sondern anhand einer stark vereinfachten Skizze realistischer Beispiele.

338

VIII Wissenschaftliche

Erklärungen

Man denke dazu an Elektronen oder Photonen, die aus einer gemeinsamen Quelle in zwei entgegengesetzte Richtungen ausgesandt werden. An zwei entfernten Stellen werden dann ihre jeweiligen Spins bestimmt. Dabei ergibt sich - entsprechend dem Gesetz der Erhaltung des Drehimpulses - eine perfekte Korrelation, nach der die beiden Teilchen immer entgegengesetzten Spin aufweisen. Nehmen wir als zusätzliche genauere Beschreibung des Phänomens zur perfekten Korrelation noch die Lokalitätsbedingung hinzu, die man auch experimentell überprüfen kann, daß der Ausgang des Experiments auf der einen Seite unabhängig davon ist, ob ich auf der anderen Seite auch eine Messung vornehme. Dann erhalten wir eine Situation, die sich nach van Fraassen nur in ein „kausales Modell" einbetten läßt, wenn gewisse empirische Annahmen zutreffen, die durch die Bellschen Ungleichungen 27 beschrieben werden. Um diesen Gedanken besprechen zu können, stellt sich zunächst die Frage, was dabei unter einem „kausalen Modell" zu verstehen ist. Zu diesem Zweck nennt van Fraassen (1991, 89) drei Bedingungen, die kausale Modelle charakterisieren sollen28. Die wesentlichste ist die Forderung nach einer gemeinsamen Ursache für unsere Korrelation, die die beiden Meßergebnisse gegeneinander abschirmt, die auch van Fraassen für eine Art von Minimalbedingung für Kausalität hält. Dazu kommen zwei weitere Lokalitätsbedingungen, die besagen, daß die gemeinsame Ursache (als zeitlich vorgängiges Ereignis) nicht von den Messungen beeinflußt wird und auch bei gegebenem „Common-Cause" die oben genannte Lokalität erhalten bleibt (sonst würde eine Trivialisierung möglich, indem man als gemeinsame Ursache einfach die Konjunktion der Meßergebnisse wählt). Sind diese fünf Bedingungen erfüllt (die zwei, die das Phänomen beschreiben und die drei, die uns sagen, was ein kausales Modell für das Phänomen sein soll), lassen sich, ohne die Quantenmechanik bemühen zu müssen, die auf Bell (1964 und 1966) zurückgehenden Ungleichungen für bestimmte konditionale Wahrscheinlichkeiten ableiten. Die Ungleichungen der Wahrscheinlichkeiten sind aber einer experimentellen Überprüfung zugänglich, und wir können also testen, ob die Welt tatsächlich so ist, wie es aus unserer Forderung nach einem kausalen Modell folgen würde. Das EPR-Paradox sagt uns, daß die Quantenmechanik diese Behauptung verneint, aber es ist erst in den letzten Jahrzehnten insbesondere in den Experimenten von Aspect und anderen (z. B. 1982 und 1985) gelungen zu demonstrieren, daß das nicht nur eine exzentrische Konsequenz der Quantenmechanik ist, sondern daß die Verletzung der Bellschen Ungleichungen auch experimentell bestätigt werden kann. Intuitiv widerlegen die experimentellen Resultate unsere Anfangsvermutung, der jeweilige Spin der Teilchen wäre schon in der Abstrahlungsquelle festgelegt worden. Ein solcher Common Cause für die perfekte Korrelation ist mit der Quantenmechanik und den Aspect Ergebnissen nicht vereinbar. Das belegt, daß sich unsere präzisierten Vorstellungen von Kausalität auf diese Systeme nicht anwenden lassen, obwohl wir auch nicht sagen möchten, es handele sich um nichtkausale Zusammenhänge. Dabei ist „experimentelle Überprüfung" natürlich immer mit den Problemen und Risiken behaftet, die Duhem schon genannt hat, wonach wir uns jeweils auf andere Theorien unseres Hintergrundwissens zu stützen haben; sie ist daher natürlich mit der entsprechenden Vorsicht zu bewerten. Gleichwohl haben wir alle Gründe für die

D. Neue Ansätze in der Erklärungstheorie

339

angegebenen Beschreibungen auf unserer Seite und der bloße Hinweis, daß wir zur Interpretation der Messungen immer auf andere Annahmen angewiesen sind, die vielleicht falsch sein könnten, trägt kaum zur Rettung der kausalen Modelle bei. Also haben wir wiederum einen grundlegenden Phänomenbereich gefunden, für den wir zwar über exzellente wissenschaftliche Darstellungen in Form der Quantenmechanik verfügen, der sich aber nicht in ein kausales Modell, noch nicht einmal ein statistisches vom Typ CC, einbetten läßt. Die Forderung nach einem „Common Cause" stößt spätestens hier an eine Grenze. Salmon erwägt noch zwei Hypothesen, um seine Kausalitätsvorstellung mit den EPR-Situationen zu versöhnen. Die erste ist die Aufgabe der Lokalitätsvorstellung und die Annahme einer Fernwirkung (Salmon 1984, 250ff). Allerdings ist die Annahme einer derartigen Fernwirkung relativ ad hoc, und es gibt keine empirischen Hinweise auf Fernwirkungen. Gerade für Salmon würde dieser Weg auch eine weitere Aufweichung seiner Vorstellung von Kausalität bedeuten, weil damit eine wesentliche Eigenschaft der kausalen Übertragung in der Relativitätstheorie aufgegeben würde und man für Fernwirkungen nicht mehr in einem anspruchsvollen Sinn des Wortes von einem kausalen Prozeß der Übertragung sprechen könnte. Die zweite Brückenhypothese, die Salmon (1984, 256ff) in Betracht zieht, ist eine holistische Sicht physikalischer Systeme mit „remote conservation", aber sie wird auch nicht weiter ausformuliert, so daß Salmon das Gebiet der Erklärungen in der Quantenmechanik weitgehend unverrichteter Dinge verlassen muß. Wie ausgesprochen schwierig es ist, eine statistische Theorie der Kausalität zu entwerfen, dokumentiert auch ein Beispiel von Michael Tooley. Eine geradezu minimale Anforderung an die Ursache U einer Wirkung E scheint zu sein, daß U die konditionale Wahrscheinlichkeit von E erhöht: P(W,U) > P(W) Doch selbst diese harmlose Bedingung (Suppes spricht davon, daß U in diesem Fall prima facie Ursache von W sei) hat antiintuitive Konsequenzen. Tooley (1987, 234f; Sosa/Tooley 1993, 20f) erläutern das an folgendem Fall: Nehmen wir an, es gäbe zwei Krankheiten A und B, wobei A mit Wahrscheinlichkeit 0,1 zum Tode führt und B mit 0,8. Jede der Krankheiten würde einen aber auf Dauer gegen die andere immunisieren. Außerdem sei die Wahrscheinlichkeit, die unangenehme Erkrankung B zu bekommen gerade Vi. Wenn wir einmal von anderen Risikofaktoren absehen, wäre die unkonditionale Wahrscheinlichkeit zu sterben mindestens 0,4 — allein durch die Möglichkeit an B zu erkranken und daran zu sterben. Wenn jetzt aber jemand A bekommt, sinkt seine Sterbewahrscheinlichkeit auf 0,1, da ihm nun jedenfalls B erspart bleibt. Sollte diese Person dann an A sterben, war die Infizierung mit A die Ursache seines Todes, obwohl es seine Sterbewahrscheinlichkeit nur herabgesetzt hat. Mit rein statistischen Mitteln scheinen wir dem Ursachenkonzept nicht so einfach beizukommen. Das grundsätzliche Problem kausaler Theorien und speziell von Salmons Ansatz, die zwei folgenden Anforderungen unter einen Hut zu bringen, ist daher nicht gelöst worden. Erstens eine gehaltvolle Analyse von Kausalität anzugeben, die auf der einen Seite

340

VIII Wissenschaftliche Erklärungen

möglichst alle Fälle beinhaltet, in denen wir üblichererweise von Kausalität sprechen, die aber auf der anderen Seite noch Informationen liefert, die über eine Humesche Analyse hinausgehen und eine gewisse Substanz besitzen. Zweitens eine Explikation zu erbringen, die sich nicht kurzerhand auf geheimnisvolle Notwendigkeiten in der Natur stützt, sondern auf Zusammenhänge, die kohärent in unser heutiges Weltbild einzubetten sind und auf die wir daher auch in Erklärungen tatsächlich bezug nehmen können. Dazu beruft sich Salmon auf die Kausalitätsvorstellung der speziellen Relativitätstheorie, zumal diese unseren intuitiven Konzeptionen von Kausalität wohl am nächsten kommt. Damit kann er zwar gehaltvolle Aussagen über Kausalität aufstellen - wenn auch keinesfalls unkontroverse, wie wir gesehen haben - , aber er ist dann auch auf eine bestimmte Vorstellung von Kausalität festgelegt, die sich für viele Bereiche als unangemessen erweist. Sie beinhaltet die Konzeption raumzeitlich kontinuierlicher Vorgänge und ist weitgehend deterministisch. Daran ändert letztlich auch Salmons Theorie der Gabelungen nichts Wesentliches, denn auch diese ist nur anwendbar, wenn die Vorgänge eigentlich deterministisch sind (s. van Fraassen 1991, 85). Versuche, dennoch eine Versöhnung von Kausalität mit tatsächlich probabilistischen Vorgängen zu erreichen, wie die genannten von Salmon oder andere von Cartwright (1988), haben zunächst einen gewissen ad hoc Charakter und entfernen sich immer stärker von unserem gewöhnlichen Kausalitätsbegriff, wodurch Kausalität als eine zunehmend uninteressantere Beziehung erscheinen muß. Im nächsten Abschnitt möchte ich der Vermutung, daß dieses Problem unlösbar sein könnte, weitere Gründe hinzufügen. f) Eine deflationäre Theorie der Kausalität Was berechtigt uns dazu, in bestimmten Fällen das Vorliegen einer Kausalbeziehung zu vermuten, und warum geht diese Vermutung über die beobachteten Regularitäten oder gesetzesartigen Verknüpfungen hinaus? Van Fraassen argumentiert in (1980) und einer Reihe anderer Arbeiten für seine empiristische Wissenschaftskonzeption, die er als konstruktiven Empirismus bezeichnet. Dessen hervorstechendstes Merkmal ist sein wissenschaftlicher Antirealismus und, man muß wohl sagen, eine letztlich instrumentalistische Interpretation der Wissenschaft.29 Der möchte ich mich nicht anschließen, aber doch einem anderen Aspekt der van Fraassenschen Wissenschaftsauffassung, nämlich seiner skeptischen Einschätzung von Kausalität, die man eine Art von deflationärem Verständnis der Kausalität nennen könnte. Es drückt sich aus in einem „Definitionsvorschlag" (van Fraassen 1980, 124): the causal net = whatever structure of relations science describes Van Fraassens Begründung für eine so stark verwässerte Konzeption der von Philosophen geliebten Kausalität, stützt sich auf seine Untersuchungen zur Quantenmechanik. Dazu möchte ich noch einige allgemeinere Überlegungen hinzufügen. Seit Humes Kritik am Kausalitätskonzept gibt es eine philosophische Diskussion um den Kausalitätsbegriff mit zahlreichen Explikationsvorschlägen. Insbesondere Regularitätskonzeptionen von Kausalität, wie man sie schon bei Hume findet, und hierhin rechne ich auch Vorschläge

D. Neue Ansätze in der Erklärungstheorie

341

(Hempel, Stegmüller), die Kausalität über bestimmte Ablaufgesetze definieren wollen, passen eigentlich zu der von van Fraassen geäußerten Vorstellung. Für bestimmte Regularitäten, die von den Wissenschaften als zeitliche Prozesse beschrieben werden, spricht man dann von kausalen Beziehungen. Diese minimale Forderung an kausale Vorgänge kann man kaum tadeln und einem entsprechenden Verständnis von Kausalität möchte auch ich mich anschließen. Problematisch wird der Kausalitätsbegriff erst dort, wo zusätzlich eine Form von Notwendigkeit in der Natur und nicht nur in unseren Beschreibungen behauptet wird.30 Der deflationäre Kausalitätsbegriff faßt dagegen einfach Ablaufgesetze unter dem Stichwort der Kausalität zusammen, ohne damit die Behauptung zu verbinden, hiermit werde eine besondere Relation zwischen Ereignissen beschrieben, die sich durch gemeinsame relationale Eigenschaften von anderen Beziehungen zwischen Ereignissen abgrenzen lassen. Oder anders ausgedrückt, es wird mit Kausalität" nicht eine substantielle Eigenschaft in der Natur bezeichnet, sondern nur gewisse Ähnlichkeiten von Ablaufgesetzen, die die Wissenschaft aufstellt. In unseren Common Sense Theorien der Welt finden wir Konzeptionen von Kausalität, die auch von Philosophen aufgegriffen wurden, wonach Ereignisse oder Gegenstände andere Ereignisse in ihrer näheren Umgebung mit Hilfe ihrer kausalen Eigenschaften notwendig hervorbringen können. Diese Konzeption ist häufig deterministisch zu verstehen. Kant nahm sogar an, daß wir eine Vorstellung eines deterministischen kausalen Zusammenhangs in der Welt annehmen müssen, um die vielfältigen Erscheinungen unserer Erfahrung überhaupt in eine verständliche Ordnung bringen zu können. Die Entwicklung unseres Bildes der Welt hat unter dem Eindruck der Naturwissenschaften aber eine Weiterentwicklung in einer anderen Richtung erfahren, und ich möchte kurz resümieren, welche inhaltlichen Vorstellungen wir eigentlich mit der Kausalbeziehung noch verbinden können. Einen ersten Einblick bieten dazu die kausalen Rahmentheorien, die in der Physik verwendet werden, innerhalb derer spezielle physikalische Theorien angesiedelt sind. Da ist zunächst die klassische Physik, die stark durch mechanistische Vorstellungen geprägt ist und geradezu das wissenschaftliche Gegenstück unserer Common Sense Theorien der Kausalität zu sein scheint. Doch die Newtonsche Mechanik entpuppt sich bei genauerem Hinsehen überraschenderweise als nicht so intuitiv und leichtverständlich wie zunächst angenommen. Zunächst beinhaltet Newtons Gravitationstheorie die ihm auch selbst suspekten unmittelbaren Fernwirkungen. Danach übt ein Körper eine Wirkung auf einen sehr entfernten Körper ohne Zeitverzögerung und ohne Vermittlung eines dazwischenliegenden Mediums aus. Hierfür finden wir kaum ein plausibles Modell in unserem Alltagsverständnis einer kausal strukturierten Welt. Das paßt auch genaugenommen nicht recht in eine konsequente mechanistische Vorstellung der Welt, wie sie etwa noch von Descartes intendiert war. Wenn man von den Gravitationskräften einmal absieht, verhält sich die klassische Mechanik jedoch überwiegend gutartig. Sie wurde lange Zeit auch für eine deterministische Theorie gehalten, was sich allerdings als falsch erwies, wie Earman (1986, 32ff; 1989,177f) anhand der sogenannten „invaders from infinity" zeigen konnte. Allerdings hat sie eine deterministische Gestalt, solange

342

VIII Wissenschaftliche

Erklärungen

man nur kausal isolierte und beschränkte Raum-Zeit-Gebiete betrachtet, was ich als lokale Determiniertheit bezeichne. Besser steht es da schon um die Spezielle Relativitätstheorie, die weder Fernwirkungen gestattet, noch entsprechende Verletzungen des Determinismus aufweist. Diese Gutartigkeit der speziellen Relativitätstheorie und ihre Nähe zu unseren intuitiven Konzeptionen von Kausalität mag das Motiv sein, das Salmon (1984) bewog, diese Theorie als Hintergrund für seine Vorstellung von Kausalität und Erklärung zu wählen, wobei er allerdings, bestimmte statistische Formen von Kausalität mit einzubeziehen versuchte. In der allgemeinen Relativitätstheorie sind zwar keine Fernwirkungen zugelassen, aber durch sogenannte Singularitäten in der RaumZeit-Mannigfaltigkeit entsteht auch hier eine Indeterminiertheit des Weltgeschehens durch die vorherigen Weltzustände. In den Singularitäten nimmt die Raum-Zeit-Metrik unendliche Werte an, aber eine genauere Bestimmung, worum es sich dabei handelt, ist an dieser Stelle nicht möglich. 31 Die Existenzsätze für Singularitäten von Hawking und Penrose zeigen jedenfalls, daß man dieses Phänomen zumindest im großen Maßstab ernst zu nehmen hat, obwohl es lokale Bereiche gibt, in denen sich die allgemeinrelativistischen Theorien deterministisch verhalten. Endgültig scheitern müssen unsere intuitiven Kausalitätsvorstellungen im Fall der Quantenmechanik. Sie ist die erste genuin statistische Theorie unter den angeführten Theorien. Hier ist kaum der geeignete Ort für eine ausfuhrlichere Diskussion der Quantenmechanik, aber einige Anmerkungen sollen dennoch folgen. Viele Interpretationsprobleme der Quantenmechanik ranken sich um ihre bekannten Paradoxien insbesondere das Einstein-Podolsky-Rosen Paradox. Sein Widerstand gegen eine verständliche Interpretation der Theorie hat sogar dazu geführt, daß es auch Vorschläge gibt, die Quantenmechanik wieder als eine Fernwirkungstheorie zu denken (s. o.). Eindeutig ist jedenfalls, daß es sich bei ihr um eine nicht deterministische Theorie handelt (s. z. B. Earman 1986, 226ff). Ein geradezu paradigmatisches Beispiel für einen indeterministischen Prozeß ist der radioaktive Zerfall. Für ein einzelnes Radium Atom ist nicht festgelegt, wann es tatsächlich zerfällt. Man kann bestenfalls Wahrscheinlichkeiten für bestimmte Zeiträume angeben. Die Schrödingersche ^-Funktion beschreibt die zeitliche Entwicklung eines quantenmechanischen Zustands zwar in deterministischer Weise, aber jeder derartige Zustand bietet selbst wiederum nur eine Wahrscheinlichkeitsverteilung für alle meßbaren Größen eines quantenmechanischen Systems an. Dazu kommt noch, daß die Schrödingergleichung den Meßprozeß selbst nicht beschreiben kann, so daß dieser der deterministischen Entwicklung der Wahrscheinlichkeiten noch zusätzlich einen Strich durch die Rechnung macht. Eine Tabelle soll noch einmal im Überblick zeigen, wie heterogen die gerade betrachteten Kausalitätsvorstellungen sind.

D. Neue Ansätze in der Erklärungstheorie Einige Kausalitätsvorstellungen Fernwirkungen klassische Mechanik Spezielle Relativitätstheorie Allgemeine Relativitätstheorie Quantenmechanik

343 in der Physik

ja nein

deterministisch lokal/global ja/nein ja/ja

nein

(ja)/nein

nein

unbestimmt

nein/nein

ja

probabilistische Gesetze nein nein

Das Dilemma des Kausalitätstheoretikers läßt sich damit noch einmal so formulieren: Jede Kausalitätstheorie muß sich entweder einer dieser Konzeptionen anschließen und damit viele Beispiele aus anderen Bereichen ausschließen, oder sie ist so allgemein abzufassen, daß sie diese heterogenen Bereiche gleichermaßen beinhaltet, was nur durch entsprechende Inhaltslosigkeit des Kausalitätskonzepts zu erreichen ist. Folgt man van Fraassen, hat eine nicht-deflationäre Kausalitätstheorie sogar mit noch größeren Problemen zu kämpfen als dem, welche Kausalitätsvorstellung sie wählen sollte. Die Quantenmechanik erlaubt, wie ich im vorigen Abschnitt erläutert habe, keine Vorstellung von Kausalität, die diesen Namen noch verdienen würde, auch keine statistische. Die Bedeutung der Quantenmechanik für die Brauchbarkeit einer Kausalitätskonzeption dürfen wir auch nicht unterschätzen. Die Quantenmechanik ist in dem heutigen physikalischen Weltbild nicht eine Theorie unter vielen, sondern die Theorie mit dem umfangreichsten Anwendungsbereich aller bisherigen Theorien und dem kleinsten Unschärfebereich. Allein die Quantenmechanik gibt daher schon Anlaß zu der Behauptung, daß wir keine umfassende adäquate Kausalitätstheorie entwickeln können und daß eine kausale Erklärungstheorie immer nur einen Teilbereich unserer Erklärungskonzeption darstellen kann. Der Vorschlag, die objektive Relevanzbeziehung zwischen Explanans und Explanandum als die von Ursache und Wirkung zu kennzeichnen, stößt also auf eine ganze Reihe von Problemen. Zunächst finden wir eine Vielzahl von Erklärungstypen, die zumindest keine typischen Kausalerklärungen darstellen. Hier sind es eher strukturelle Merkmale einer Situation, die dadurch erklärt werden, daß sie Instanzen eines Modells sind. Wollten wir diese Beispiele mit unter den Kausalbegriff subsumieren, wären wir gezwungen ihn sehr zu liberalisieren, was mit einem weiteren Substanzverlust verbunden wäre, gleichgültig, wie wir die Kausalbeziehung zu explizieren gedenken. Außerdem erweist sich das Kausalitätskonzept als nicht sehr inhaltsreich, wenn wir es nicht im Rahmen überholter mechanistischer Konzeptionen kombiniert mit metaphysischen Annahmen wie der eines notwendigen Zusammenhangs explizieren wollen, sondern in Einklang mit heutigen naturwissenschaftlichen Vorstellungen von Kausalität. Je allgemeiner wir Kausalität aber fassen, um damit möglichst viele Fälle von UrsacheWirkungs Beziehungen zu erreichen, um so weniger ist sie noch geeignet, wesentliche von unwesentlichen Zusammenhängen zu unterscheiden. So stoßen wir auf viele statisti-

344

VIII Wissenschaftliche Erklärungen

sehe Korrelationen, für die keine Kausalbeziehungen vermuten und umgekehrt auf viele Kausalbeziehungen, die sich nicht als Korrelationen beschreiben lassen. Ein weiterer Punkt, der bisher nicht zur Sprache kam, weil bereits die Explikation von „Kausalität" für eine Erklärungstheorie auf schier unüberwindliche Hindernisse stößt, ist das umgekehrte Phänomen, daß die Kausalbeziehung nicht nur üblicherweise zu eng gefaßt ist, um alle Beispiele von Erklärungen zu erfassen, sondern auch nicht hinreichend spezifisch ist, um immer Erklärungen zu liefern. Dazu ein Beispiel von Lipton (1991, 34ff), der sich selbst allerdings trotz der zahlreichen Schwächen dem kausalen Erklärungsmodell verschreibt, weil er keine bessere Alternative sieht.32 Die kausale Vorgeschichte der meisten Ereignisse ist sehr lang und zahllose Aspekte und Teile dieser Geschichte können kaum zu Erklärungszwecken herangezogen werden. Insbesondere gehört der ,ßig Bang" zur Vorgeschichte jedes anderen Ereignisses, aber natürlich würden wir uns in den meisten Fällen kaum mit der Auskunft: „Das kommt alles vom Big Bang", zufriedengeben und annehmen, man hätte uns damit eine Erklärung für ein bestimmtes Ereignis präsentiert. Um die erklärungsrelevanten von den nicht relevanten Ursachen eines Ereignisses zu unterscheiden, formuliert Lipton (1991, 43ff) seine „Difference Condition" in Anlehnung an Mill. Die stellt sicherlich eine wichtige Ergänzung jeder kausalen Erklärungskonzeption dar, bleibt aber an einigen Stellen selbst noch explikationsbedürftig.

E. Resümee Neben den erkenntnistheoretischen Funktionen, die ich für Erklärungen in den ersten Kapiteln reserviert habe, dienen sie vor allem dazu, unser Verständnis der zu erklärenden Phänomene zu befördern. Das akzeptierte schon Hempel, der mit seinem DNSchema die erste ausgearbeitete Erklärungstheorie vorgelegt hat, die für die Diskussion um wissenschaftliche Erklärungen seitdem das Paradigma darstellte, gegen das sich andere Vorschläge zu bewähren haben. Im Laufe der Jahre stellten sich allerdings so zahlreiche Anomalien ein, daß es aussichtslos erscheint, das DN-Schema mit kleineren Korrekturen wiederbeleben zu wollen. Die erste Gruppe solcher Schwierigkeiten betraf eine seiner wenigen wirklich substantiellen Forderungen, nämlich der nach einem Naturgesetz im Explanans. Trotz wiederholter Versuche gelang es nicht, eine befriedigende Auszeichnung von Naturgesetzen vor anderen Aussagen vorzunehmen und daneben trat noch das Problem auf, daß viele Erklärungen auch ohne Gesetzesprämisse auszukommen scheinen. Außerdem konnten andere metatheoretische Phänomene wie die der Erklärungsasymmetrie im Rahmen der DN-Konzeption nicht behandelt werden, so daß Erklärungstheorien in anderen Richtungen gesucht wurden. Eine hilfreiche Ergänzung aller anderen Konzeptionen stellen die pragmatischen Ansätze dar, die zeigen, wie bestimmte pragmatische Faktoren der Erklärungssituation darauf Einfluß nehmen können, wonach genau gefragt wird. Doch der harte Kern einer Erklärungstheorie sollte weiterhin in objektiven Beziehungen zwischen Explanans und

E. Resümee

345

Explanandum zu suchen sein. Dazu kam die prominenteste kausale Erklärungstheorie zu Wort, für die der gesuchte objektive Zusammenhang gerade in dem von Ursache und Wirkung besteht. Doch auch sie weist zu viele Anomalien auf, um wirklich überzeugen zu können. Jede heute noch akzeptable Konzeption von Kausalität sieht sich vor dem unüberwindlichen Dilemma, daß sie auf der einen Seite so liberal gehalten sein muß, die meisten gewöhnlichen Fälle von Erklärungen miteinzubeziehen, aber auf der anderen Seite so substantielle Forderungen enthalten sollte, daß sie nicht als deflationäre Kausalitätstheorie ä la van Fraassen endet.

Anmerkungen zu Kapitel VIII 1

Siehe auch die entsprechende Diskussion bei Friedman (1988,177ff). Der klassische Aufsatz von 1948 wurde in den Band „Aspekte wissenschaftlicher Erklärungen" (1977) integriert, auf den ich mich im folgenden stützen werde. 3 Eine ausführliche systematische Darstellung der verschiedenen Debatten zu diesem Thema findet sich in Stegmüller (1969) und eine Darstellung der verschiedenen historisch-systematischen Phasen der Erklärungsdebatte in Salmon (1989) mit einigen Ergänzungen durch Fetzer (1990). 4 Ein typisches Beispiel dafür stellt Hempels erster Fall der quellenden Seifenblasen dar. 5 Einen interessanten Vorschlag, wie evolutionäre Erklärungen besser zu beschreiben sind, finden wir in Sober (1983), den ich in Abschnitt (C.2.a.l) schildere. 6 Schurz (1983, 254ff) bietet eine Typisiserung derartiger Fälle mit Beispielen an. 7 Auch van Fraassens Versuch (1980, 132ff) dieses Phänomen anhand einer netten Geschichte als ein Problem des Kontextes auszuweisen, war nicht erfolgreich, weil die beiden Erklärungen, die er einander gegenüberstellte, nicht wirklich symmetrisch gebildet wurden. 8 Siehe dazu auch (VII.C.9), wo ich schon auf die wissenschaftsphilosophische Bedeutung der Berücksichtigung von Approximationen hingewiesen habe. 9 Die Elemente von Kontrastklassen sind eigentlich vollständige Aussagen, aber diese werden hier immer durch Stichworte abgekürzt, die sich leicht zu ganzen Sätzen ergänzen lassen. 10 Das Beispiel belegt wiederum, daß die meisten Warum-Fragen kontrastierende Fragen sind. 11 Wenn man mir einen Beweis präsentiert, der keinen interessanten Satz beweist, sondern nur eine beliebige mathematische Aussage, rüttelt das natürlich auch nicht an der Ansicht, daß Deduktionen gute Beweise sind. 12 Für van Fraassen ist auch die Relevanzbeziehung R, die darüber entscheidet, was gute Antworten auf meine Frage sind, eine kontextabhängige Größe. Doch das geben die bisherigen Beispiele nicht her. Daß wir van Fraassen hierin nicht mehr folgen sollten, zeigen entsprechende Beispiele weiter unten. 13 Van Fraassen spezifiziert insbesondere die dritte Bedingung weiter, aber auch diese Klärungen der Bedingungen können die Schwächen seiner Erklärungstheorie nicht beheben. 14 Eine weitergehende Analyse anhand von Beispielen zeigt leider schnell, daß wir die Bedingungen noch koplexer gestalten müssen, wenn wir eine vertretbare Konzeption erhalten wollen. 15 Das Beispiel stammt von Gerrit Imsieke. 16 Zur Erläuterung von „wahrscheinlich vor unserem Hintergrundwissen" muß van Fraassen allerdings schon auf andere Induktionsschlüsse als die Abduktion setzen, denn sonst gerät er in einen Zirkel. 2

346

VIII Wissenschaftliche

Erklärungen

17 Zu den Schwierigkeiten, echte Zeichen etwa von Pseudozeichen zu unterscheiden, bei denen sich auf einer anderen Ebene das Problem der Abgrenzung von Prozessen und Pseudoprozessen erneut stellt, siehe Kitcher (1989, 463). 18 Er findet sich schon in Humes Untersuchung über den menschlichen Verstand und wurde von Lewis (1981) innerhalb seiner Analyse im Rahmen einer mögliche-Welten Semantik wieder aufgegriffen. Der Aspekt von Kausalität, der hier verfolgt wird, ist folgender: Wäre das ursächliche Ereignis U nicht gewesen, so hätte auch die Wirkung W nicht stattgefunden. 19 Die jeweilige Einschränkung des Erklärungsbegriff auf gerade die Fälle, die zu einem bestimmten Erklärungskonzept passen, ist natürlich außerdem eine Immunisierungsstrategie, die einem immer offensteht und damit die Gefahr der Trivialisierung in sich trägt. 20 In Wahrheit wäre eine derartige Geschichte viel zu kompliziert, als daß wir sie tatsächlich ohne große Lücken erzählen könnten. 21 Einen kurzen Einblick in die Geschichte des Geschlechterzahlenverhältnisses im Rahmen der Evolutionstheorie bieten Uyenoyama/Feldman (1992, 39f). 22 Die notwendigen Approximationen sind auch wiederum ein Hinweis, daß das zu erklärende Gesetz nicht einfach konjunktiv in der erklärenden Theorie enthalten ist. 23 Die Überlegungen über prinzipielle Unscharfen (s. VII.C.9) geben schon Hinweise, daß diese Vorstellung auch im klassischen Rahmen nicht überzeugend wirkt. Für chaotische Systeme müßten wir die Anfangsbedingungen „unendlich genau" kennen, um eine Vorhersage abgeben zu können. Das setzt aber eine ganz unrealistische Interpretation der Theorien voraus, die Unschärfen außer Acht läßt. 24 Zur Schreibweise: P(A) bezeichne die Wahrscheinlichkeit von A, P(A&B) die Wahrscheinlichkeit, daß A und B zusammen auftreten und P(A|B) die Wahrscheinlichkeit dafür, daß A auftritt, gegeben, daß B auftritt. Hier zeigt sich auch ein Zusammenhang zur statistischen Relevanzbeziehung, nach der B statistisch relevant für A ist, wenn P(A|b) * P(A). Das ist äquivalent mit der Bedingung, daß eine Korrelation zwischen A und B vorliegt und im Falle P(A|B) > P(A) ist diese positiv. 25 „EPR" bezieht sich auf Situationen des Typs, die in dem berühmten Aufsatz von Einstein-PodolskyRosen (1935) beschrieben werden und unter dem Namen EPR-Paradoxon bekannt geworden sind. 26 Und schon in van Fraassen (1982). 27 Die Ungleichungen finden sich an verschiedenen Stellen bei van Fraassen (1991), z. B. auf S. 93. 28 Das sind die Bedingungen, die aus der Diskussion von EPR-Situationen bekannt sind. 29 Van Fraassen ist ein wenig vorsichtiger als die klassischen Instrumentalisten, weil er nicht behauptet, es gäbe keine theoretischen Entitäten, sondern „nur" eine agnostische Haltung ihnen gegenüber empfiehlt, aber das macht ihn aus der Sicht eines Realisten auch nicht schöner. 30 Wogegen van Fraassen auch explizit in (1977) argumentiert. 31 Siehe Earman (1989, 185ff) und z. B. Hawking/Ellis (1973) über Singularitäten. 32 Achinstein (1992) weiß einige überzeugende Kritiken zu Lipton vorzutragen.

IX Erklärung als Vereinheitlichung

Da sich der Vorschlag, Erklärungen als Angabe von Ursachen zu betrachten, als nicht besonders erfolgversprechend erwiesen hat, möchte ich noch einmal an die wesentliche Aufgabe von Erklärungen in der Kohärenztheorie der epistemischen Rechtfertigung (KTR) erinnern, um einen anderen Ansatz zu konzipieren. Für die Kohärenztheorie haben Theorien vor allem die Aufgabe, mit Hilfe von Erklärungen wichtige inferentielle Zusammenhänge zwischen unseren Überzeugungen herzustellen. Genau diesen Aspekt betonen die Vereinheitlichungsansätze in der Erklärungsdebatte. Ihnen geht es in erster Linie um die systematisierende und vereinheitlichende Wirkung von Erklärungen, die für sie mit ihrer Erklärungskraft korreliert ist. Auch in diesem Ansatz versucht man, eine personen- und kontextunabhängige Relevanzbeziehung zu etablieren, die den harten Kern von Erklärungsbeziehungen ausmachen soll. Während Theorien und ihre kohärenzstiftende Funktion für pragmatische und kausale Ansätze nur eine untergeordnete Rolle spielten und von den jeweiligen Vertretern kaum thematisiert wurde, stehen sie für die Vereinheitlichungskonzeptionen im Vordergrund. Doch dabei besteht keineswegs Einmütigkeit darüber, was unter „Vereinheitlichung" zu verstehen ist. Zwei vieldiskutierte Vorschläge, die in unterschiedliche Richtungen zielen, sollen den Ausgangspunkt eines Verständnisses von Vereinheitlichung bilden.

A. Friedmans Vereinheitlichung der Phänomene Ein erster konkreter Ansatz zur Analyse von Vereinheitlichung ist der Michael Friedmans aus dem Jahre 1974.1 Es finden sich zwar auch bei Hempel bereits vereinzelt Bemerkungen zur großen Bedeutung der Systematisierungsleistung von Theorien, aber als einzigen wirklichen Vorläufer für seine Konzeption weiß Friedman (1988, 185) nur William Kneale zu nennen.2 Wie schon erwähnt, verweist Friedman (1988, 172ff) zunächst darauf, daß wir in den Wissenschaften im Normalfall nicht Einzelereignisse, sondern vornehmlich Phänomene also allgemeinere Regularitäten oder sogar Gesetze erklären. Für Friedman besteht dabei eine Vereinheitlichung unseres Wissens vor allem in einer Reduzierung einer Vielzahl von Phänomenen auf wenige Gesetze. Sein Beispiel dafür ist die kinetische Gastheorie, die etwa erklären kann, daß Gase approximativ dem Boyle-Charlesschen Gesetz gehorchen. Wäre das die einzige Leistung der kinetischen Gastheorie, könnte man zu Recht fragen, warum wir sie überhaupt

348

XI Erklärung als

Vereinheitlichung

einführen und es nicht schlicht beim Boyle-Charlesschen Gesetz belassen. Forderungen nach theoretischer oder ontologischer Sparsamkeit würden das jedenfalls implizieren. Friedmans Antwort (1988, 184) ist eindeutig: Die kinetische Gastheorie erklärt neben dem Boyle-Charlesschen Gesetz eine ganze Reihe von anderen Phänomenen wie das Grahamsche Diffusionsgesetz und eine Reihe von Phänomenen spezifischer Wärmekapazitäten. Außerdem stiftet sie neue Verbindungen, die ohne die kinetische Gastheorie nicht sichtbar waren, zwischen dem Verhalten von Gasen und vielen mechanischen Erscheinungen, die wir schon kennen. Sie wirkt daher eindeutig kohärenzstiftend, 3 indem sie inferentielle Zusammenhänge dieser Art herstellt. Für Friedman ist das auch der entscheidende Schritt zu einem wissenschaftlichen Verständnis: Wieder haben wir eine Vielzahl von unerklärten und unabhängigen Phänomenen auf eines reduziert. Ich behaupte, daß dies jene entscheidende Eigenschaft von wissenschaftlichen Theorien ist, nach der wir suchen; dies ist das Wesen von wissenschaftlicher Erklärung Wissenschaft erhöht unser Verständnis der Welt durch Reduktion der Gesamtzahl von unabhängigen Phänomenen, die wir als grundlegend bzw. gegeben akzeptieren müssen. (Friedman 1988, 185) Werfen wir nun einen Blick darauf, wie Friedman versucht, das bisher skizzenhaft vorgestellte Programm in eine konkretere Konzeption von Vereinheitlichung umzusetzen. Friedman nennt die Menge der akzeptierten gesetzesartigen Sätze „K". Die soll deduktiv abgeschlossen (in bezug auf gesetzesartige Aussagen) sein. Das Problem, um das es ihm geht, ist die Frage, wann ein Gesetz die Menge K reduziert, so daß eine gewisse Zahl von unabhängigen Gesetzen durch ein neues Gesetz ersetzt werden kann. Natürlich taucht sofort die Frage auf, wie wir Gesetze zählen können und wie wir dabei trivialen Vereinheitlichungen entgehen können. So können wir zu je zwei Gesetzen z. B. zu ihrer Konjunktion als einem neuen Gesetz übergehen, das die zwei anderen überflüssig macht. Friedman weiß zur Analyse des Begriffs „unterschiedliche Gesetze" keine wirklich erhellenden Antworten anzubieten und spricht zunächst informell von „unabhängig akzeptierbaren" Gesetzen. Die werde ich im folgenden kurz als „unabhängige Gesetze" bezeichnen. Mit „s ist unabhängig von q" soll ungefähr gemeint sein, daß die Gründe, die uns genügen, s zu akzeptieren, nicht genügen, um auch q anzuerkennen. Nehmen wir dieses Konzept einfach als Grundbegriff und schauen, ob sich darauf eine angemessene Explikation von Vereinheitlichung stützen läßt. Da Friedman nur wenige intuitive Erläuterungen gibt, wieso er gerade die folgenden Definitionen wählt und seine Notation auch stellenweise unübersichtlich ist, gebe ich eine etwas vereinfachte Darstellung seiner Begrifflichkeit an, die ich anschließend mit eigenen Hilfsbegriffen erläutern möchte. Doch zunächst zu den formalen Definitionen: s, p, und q seien Sätze aus K während M, Z(s) etc. Teilmengen von K sind, wobei ich die weitere Bezugnahme auf K, die Friedman immer mitschleppt, weglassen werde.

A. Friedmans Vereinheitlichung der Phänomene

349

1) Z(s) ist eine Zerlegung von s gdw. a) Z(s) ist logisch äquivalent zu s b) Alle Elemente von Z(s) sind unabhängig von s. (Mit Z(s) sind ab jetzt immer Zerlegungen von s gemeint und außerdem läßt sich die Definition für Zerlegungen auch auf Mengen von Sätzen in analoger Weise ausdehnen.) 2) s ist atomar, wenn es keine Zerlegung von s gibt.4 3) Z(s) ist atomare Zerlegung von s gdw. alle Elemente von Z(s) atomar sind. 4) Kardinalität von M: Kard(M) := inf{ Z(M); mit Z(M) ist atomare Zerlegung von M} 5) s reduziert M gdw. Kard(M u {s}) < Kard(M) 6) Unabhängige Konsequenzen von s: Kons(s) := { q; q folgt aus s und q ist unabhängig von s} Damit läßt sich nun Friedmans erste Explikation von Erklärung angeben: Dl) s erklärt q gdw. q e Kons(s) und s reduziert Kons(s) Eine Zerlegung von s gibt eine Menge von Phänomenen oder Untergesetzen von s an, die aus s abzuleiten sind, aber unabhängig von s sind. Die Gründe, die ausreichen, ein Untergesetz q e Z(s) zu akzeptieren, genügen also noch nicht, um s zu akzeptieren (lb). Allerdings folgt aus allen Untergesetzen der Zerlegung zusammengenommen wiederum s (la). Anders ausgedrückt: s geht (was seine deduktiven Konsequenzen angeht) auch nicht wirklich über die Menge seiner Untergesetze hinaus. Eine atomare Zerlegung gibt eine Menge von Phänomenen an, die echte Phänomene in dem Sinne sind, daß sie nicht etwa künstlich (als Konjunktion) zusammengesetzt sind. Man könnte sie auch als atomare Untergesetze von s bezeichnen. Die Anzahl der kleinsten solcher Mengen von echten Untergesetzen, die sich aus s herleiten lassen, soll die Kardinalität von s darstellen. Von s sagt man außerdem, daß es die Menge seiner unabhängigen Konsequenzen reduziert, wenn seine Einbringung eine neue atomare Zerlegung gestattet, die kleiner ist, als alle vorherigen atomaren Zerlegungen. D.h. intuitiv gesprochen: Bestimmte Phänomene, die vorher als wesentlich verschiedene Phänomene interpretiert wurden, lassen sich nun mit Hilfe von s als Instanzen eines Phänomens verstehen. Nur dann wirkt s nach Friedman als Erklärung. Das erscheint auf den ersten Blick als eine interessante Umsetzung der intuitiven Überlegungen Friedmans, aber eine weitere Betrachtung der Konsequenzen dieser Definition - die Friedman selbst leider verabsäumt - , belegt, weshalb die Vereinheitlichung, die unsere wissenschaftlichen Theorien unzweifelhaft leisten, mit diesem Instrumentarium nicht einzufangen ist. Eine erste wichtige Erläuterung dieser formalen Explikation bietet Kitcher (1976, 209), der zeigen kann, daß für nicht atomare Sätze s gilt:

350

XI Erklärung als Vereinheitlichung

Kard(Kons(s) u {s}) = Kard(Kons(s)), d.h. s kann in diesem Fall Kons(s) nicht reduzieren und hat daher keine Erklärungsleistung im Sinne von (Dl). Demnach können überhaupt nur atomare Sätze erklären. Ein Blick auf einige Beispiele aus der Wissenschaft zeigt, warum das kein wünschenswertes Resultat sein kann. Kitcher (1976, 209f) gibt selbst einige solcher Beispiele an. Etwa die übliche Ableitung des Gesetzes der adiabatischen Ausdehnung eines idealen Gases, für die die Konjunktion zweier unabhängiger Gesetze, nämlich dem Boyle-Charlesschen und dem ersten Gesetz der Thermodynamik benötigt wird. Überhaupt kommt es des öfteren vor, daß wir Phänomene wie Blitz und darauffolgenden Donner anhand von Theorien aus verschiedenen Gebieten - hier Elektrizitätslehre, Thermodynamik und Akustik - erklären, die nur zusammengenommen die Erklärungsleistung vollbringen.5 Friedman gibt noch eine zweite Definition von „Erklärung", da er aus anderen als den gerade genannten Gründen mit der ersten nicht zufrieden ist, aber auch diese vermag die Einwände gegen seine Explikation von „Erklärung" letztlich nicht zu entkräften (s. Kitcher 1976, 211 f), so daß er sich selbst in seinen späteren Arbeiten (etwa 1981 & 1983) zu den Themen Vereinheitlichung und Erklärung nicht wieder auf sie stützt. Die Problemstellung, wann wir von einem Gesetz sagen können, es sei atomar, hat Salmon (1989, 94ff) anhand von weiteren Beispielen verfolgt. Insbesondere wirft er die Frage auf, ob es überhaupt atomare Gesetze gibt. Betrachten wir zu dieser Frage einmal einfache Gesetze der logischen Form: Vx (Fx—>Gx). Salmon weist darauf hin, daß sie schon dann nicht atomar sind, wenn sich eine Zerlegung des Anwendungsbereichs F in Mengen H b . . ,,Hk finden läßt, mit der sich das Gesetz zerlegen läßt in Gesetze der Form: Vx (H lX ->Gx), ..., Vx (Hkx—>Gx), wobei alle Gesetze unabhängig voneinander zu akzeptieren sind. Das erscheint aber durchaus nicht unrealistisch, wie Salmon am Beispiel des Newtonschen Gravitationsgesetzes belegen kann. Die Anwendungsmenge zerfällt nach Salmon etwa in die Menge der Anziehung zweier schwerer Körper, der Anziehung von leichtem und schwerem Körper, sowie der von zwei leichten Körpern. Die ersten beiden erfuhren schon bald unabhängige Unterstützung, die sie als unabhängig voneinander akzeptierbar auswies. Solange die Behauptung der Gravitation für den dritten Bereich allerdings nur aus dem allgemeinen Gravitationsgesetz selbst folgte, blieb das Newtonsche Gesetz atomar. Doch mit der Drehwaage von Cavendish ließ sich auch der dritte Anwendungsbereich unabhängig von den anderen akzeptieren. Damit müßte nach Friedman das Newtonsche Gravitationsgesetz seine Erklärungskraft verloren haben, was ausgesprochen unplausibel erscheint. Intuitiv sollte es durch seine direkte Anwendung in diesem weiteren Bereich viel eher gestärkt worden sein. Dieses nun unschwer erkennbare Defizit innerhalb der Friedmanschen Metatheorie, aber auch der Salmonschen Analyse des Falles, resultiert im wesentlichen aus einer Nichtbeachtung von Brückenstrukturen wie Constraints (s. VII.C.2), die einen Informationstransfer unter den intendierten Anwendungen der Gravitationstheorie bewirken. Unter Unabhängigkeit sollte man nicht nur unabhängig voneinander akzeptierbar verstehen, sondern eine weitergehende Unabhängigkeit, die sich auch auf andere we-

A. Friedmans Vereinheitlichung der Phänomene

351

sentliche Zusammenhänge erstreckt und sich insbesondere in ihren Konsequenzen für die empirische Behauptung von Theorien beschreiben läßt. Wenn die Einfuhrung des allgemeinen Gravitationsgesetzes tatsächlich nichts anderes bedeuten würde als eine Konjunktion der drei Teilbehauptungen: 1. Alle schweren Körper erfüllen es untereinander. 2. Alle gravitativen Wechselwirkungen von schweren und leichten Körpern erfüllen das Gesetz. 3. Alle leichten Körper erfüllen es untereinander. so wäre es allerdings unklar - und insoweit teile ich Friedmans Anschauung wieso das allgemeine Gravitationsgesetz darüber hinaus noch einen Erklärungswert besitzen sollte. Den erhält es erst im Rahmen einer umfangreicheren Theorie, die auch Constraints berücksichtigt. Damit werden Verbindungen zwischen den drei Teil-„Gesetzen" hergestellt, die eine bloße Konjunktion noch nicht enthält, denn die einzelnen Teilgesetze stellten keine übergreifenden Behauptungen für alle Anwendungsklassen zugleich auf. Der Identitätsconstraint für die Masse besagt etwa, daß einem schweren Körper, z. B. der Erde, dieselbe Masse zugeordnet werden muß, wenn er in Anwendungen des Typs (1) und wenn er in solchen des Typs (2) auftritt. Eine entsprechende Verknüpfung bewirkt der Constraint anhand von leichten Körpern für die „Gesetze" (2) und (3). Außerdem tritt in allen drei Gesetzen die Gravitationskonstante y auf, die per gemeinsamer Existenzquantifikation einzubringen ist - zumal ihr Zahlenwert im Anfang unbekannt war und die Teilgesetze drücken für sich nicht aus, daß es sich in allen drei Fällen um dieselbe Größe handeln muß. Das wird erst in einer Formulierung durch ein Gesetz oder einen entsprechenden Constraint deutlich (s. dazu IX.E.8). Von welch entscheidender Bedeutung diese Vernetzung der verschiedenen Anwendungen einer Theorie ist, ergibt sich schon aus Salmons eigenem Beispiel. Erst Cavendish gelang es 1798 anhand seiner Experimente, die Newtonsche Gravitationskonstante zu bestimmen, wobei er die Gravitationskräfte kleiner Körper untereinander gemessen hat. Da man von einem universellen Gesetz mit universeller Gravitationskonstante ausging, 6 gilt diese Konstante ebenso für andere gravitierende Massen. Genau dieser Zusammenhang ermöglichte es, die Masse der Erde anhand ihrer Anziehungskraft auf kleine Körper zu bestimmen - Cavendish kam auf 6,6 • 1021 Tonnen und lag damit schon sehr nah an dem heutigen Wert von 5,98 • 1021 Tonnen. Die Konstante geht ihrerseits wiederum ein in die Bestimmung der Massen anderer Planeten usf. Eine empirisch wirklich gehaltvolle und erklärende Theorie ergibt sich nur dann, wenn wir diese Verknüpfungen in Rechnung stellen. Von Friedman waren solche Zusammenhänge sicherlich implizit mit angenommen worden, aber solange sie nicht eigens in der Konzeption von Theorien aufgeführt werden, kann man wie Salmón der Vermutung unterliegen, das Newtonsche Gravitationsgesetz sei nichts anderes, als eine Konjunktion der drei genannten Teilgesetze. Der Überschußgehalt, den das allgemeine Gravitationsgesetz (eingebettet in eine ganze Theorie, die natürlich nicht allein durch ein Gesetz dargestellt werden kann) gegenüber einer bloßen Konjunktion der drei Teilgesetze

352

XI Erklärung als

Vereinheitlichung

aufweist, ergibt sich erst aus der Vernetzung der Anwendungen. 7 In (E.8) werde ich auf diesen Punkt anhand neuerer Explikationsversuche für die Einheitlichkeit einer Theorie zurückkommen. Es ist hier wiederum ein zu einfaches Bild von Theorien dafür verantwortlich, die vereinheitlichende Funktion von Theorien zu verkennen. Im differenzierteren metatheoretischen Rahmen des Strukturalismus läßt sich dagegen ein angemessenerer Explikationsvorschlag angeben. Interessant ist vor allem die Frage: Woran genau ist Friedman mit seinem Typ von Explikationsversuch gescheitert? Kitcher (1976, 212), der Friedmans Vorstellung von einem engen Zusammenhang zwischen Erklärung und Vereinheitlichung gutheißt, wendet sich gegen Friedmans Zählweise von Phänomenen anhand von unabhängigen Gesetzen. Statt Gesetze zu zählen, sollten wir auf ein anderes Phänomen achten: What is much more striking than the relation between these numbers is the fact that Newton's laws of motion are used again and again and that they are always supplemented by laws of the same types, to wit, laws specifying force distributions, mass distributions, initial velocity distributions, etc. Hence the unification achieved by Newtonian theory seems to consist not in the replacement of a large number of independent laws by a smaller number, but in the repeated use of a small number of types of law which relate a large class of apparently diverse phenomena to a few fundamental magnitudes and properties. Each explanation embodies a similar pattern: from the laws governing the fundamental magnitudes and properties together with laws that specify those magnitudes and properties for a class of systems, we derive the laws that apply to systems ofthat class. (Kitcher 1976, 212) Diese Analyse von Kitcher paßt in einigen Punkten schon recht gut mit den strukturalistischen Vorstellungen der inneren Struktur von Theorien zusammen. Zum einen haben wir die Grundgesetze, wie etwa die Newtonschen Axiome, die in allen Anwendungen der Mechanik zum Einsatz kommen und damit eine Vereinheitlichung bewirken; zum anderen die jeweiligen Ergänzungen durch Spezialgesetze, deren Typ sich für bestimmte Klassen von intendierten Anwendungen durch ein gemeinsames Schema darstellen läßt. Das entspricht ziemlich genau der strukturalistischen Auffassung von einem BasisTheorie-Element und seinen Spezialisierungen. Dagegen ist Friedmans Bild von Theorien 1974 noch zu stark von einem Theorienverständnis im Sinne der Metamathematik geprägt, wonach es grundlegende Axiome gibt, die allein schon eine Reihe von deduktiven Schlußfolgerungen erlauben. Sogar die von ihm selbst erwähnten Phänomene wie, daß die Herleitung von Gesetzen oft nur approximativ möglich ist (s. z. B. Friedman 1988, 184), finden in seinem Explikationsversuch keinerlei Beachtung. So überzeugend seine Ausgangsposition uns somit auch erschien, seine Ausgestaltung war zu unrealistisch und läßt ein zu einfaches Bild wissenschaftlicher Theorien dahinter vermuten. Angeregt durch diese Diskussion und den Mißerfolg Friedmans versuchte Kitcher seine in dem obigen Zitat geäußerten Vorstellungen von Vereinheitlichung in einer eigenen Theorie von Erklärung umzusetzen.

B. Kitchers Vereinheitlichung der Argumentationsformen

353

B. Kitchers Vereinheitlichung der Argumentationsformen Ähnlich wie schon Friedman betont auch Kitcher in seinen theoretischen Arbeiten zur Vereinheitlichungstheorie der Erklärung (z.B. Kitcher 1988 und 1989) den globalen Charakter der Bewertung von Erklärungen. Für Friedman hatte ein Gesetz nur dann Erklärungskraft, wenn es sich in einer größeren Menge von Aussagen als vereinheitlichend erwies. Ebenso ist auch für Kitcher im Unterschied zu den in Kapitel (VIII) genannten Erklärungstheorien die Bewertung einer potentiellen Erklärung nur in einem größeren Kontext möglich. On both the Hempelian and the causal approaches to explanation, the explanatory worth of candidates - whether derivations, narratives, or whatever - can be assessed individually. By contrast, the heart ofthe view that I shall develop [...] is that successfiil explanations earn that title because they belong to a set of explanations, the explanatory store, and that the fundamental task of a theory of explanation is to specify the conditions on the explanatory store. (Kitcher 1989,430)

Dieser Zugriff auf globalere Zusammenhänge zur Einschätzung von Erklärungen scheint mir aus mehreren Perspektiven sinnvoll. Da ist zuerst eine intuitive Auswertung von Beispielen, die dafür spricht. Einer für sich betrachteten Ableitung eines Ereignisses läßt sich nicht ansehen, ob es sich um eine gute Erklärung oder nicht handelt. So kann sich die Struktur einer astrologischen Erklärung mutigen Verhaltens (weil er Sternzeichen Löwe ist, und Löwen sind mutig) durchaus mit der Struktur guter Erklärungen decken. Doch selbst wenn es zufällig so wäre, daß fast alle „Löwen" mutig wären, würden wir hier keinen brauchbaren Ansatz für eine Erklärung sehen, solange eine Theorie astrologischer Zusammenhänge nicht kohärent in unsere gegenwärtigen Überzeugungssysteme paßt. Außerdem spricht für die globalere Sichtweise von Erklärungen unser inzwischen holistischeres Wissenschaftsverständnis, das sich auch in der Darstellung der inneren Struktur von Theorien gezeigt hat. Einzelne Gesetze wie die Newtonschen Axiome haben demnach isoliert betrachtet keinen empirischen Gehalt, sondern nur im Zusammenspiel mit Spezialgesetzen, innertheoretischen Querverbindungen und „Links" ergibt sich dieser. Erst dann gelangen wir zu Aussagen, die genügend Substanz für eine Beurteilung bieten. Diese Vorstellungen von der Notwendigkeit globalerer Beurteilungen für epistemische Zwecke manifestierte sich daher an verschiedenen Stellen in der Explikation unserer Kohärenztheorie KTR, so daß auch in diesem Punkt der Vereinheitlichungsansatz der Erklärung geeignet erscheint, um die verbliebene Lücke in KTR auszufüllen. Dazu hat Kitcher den am weitesten ausformulierten Ansatz einer Erklärungstheorie vorgelegt, den er noch dazu in einer Reihe von Beispielen erprobt hat. Wie für Hempel sind für ihn Erklärungen Argumente, d.h. Folgen von Aussagen, die entsprechenden logischen Regeln gehorchen. Entscheidend ist für ihn dabei die Vereinheitlichung, die dadurch zustande kommt, daß sich all unsere wissenschaftlichen Argumente auf möglichst wenige Argumentschemata oder Argumentmuster zurückführen lassen. So ist für

354

XI Erklärung als Vereinheitlichung

Kitcher (1988, 204f) die Vereinheitlichungskraft von Newtons Werk gerade darin zu sehen, daß Newton versuchte eine Vielzahl akzeptierter Sätze anhand eines Argumentmusters, das seine Basisgesetze enthält, herzuleiten. Auch Darwin skizzierte mit der natürlichen Auslese ein allgemeines Muster für Erklärungen, mit dem sich viele bekannte Tatsachen aus der Biologie erklären ließen. Den Wissenshintergrund, um dessen Vereinheitlichung es gehen soll, nennt Kitcher die zu einem Zeitpunkt von der wissenschaftlichen Gemeinschaft akzeptierten Sätze K. In bezug auf Vereinheitlichung soll dazu der Erklärungsvorrat E(K) (explanatory store) über K untersucht werden, aus dem sich die Sätze von K ableiten lassen. Diese Konzeption paßt gut zur KTR, bis auf die Vorstellung, daß die vereinheitlichenden Beziehungen alle deduktiver Natur sind. Wesentlich zur Beurteilung von E(K) ist nach Kitcher aber nun nicht, wieviele solche Erklärungen es enthält, sondern wieviele Typen von Erklärungen vorkommen. Um diese Typen identifizieren zu können, wird von Kitcher die Konzeption der Argumentmuster („argument pattern") ins Spiel gebracht. Genau die Argumente gelten als ähnlich und zu einem Typ gehörig, die als Instanzen eines Argumentmusters gelten können. Ein Argumentmuster besteht aus drei Komponenten, nämlich einer Folge von schematischen Sätzen, einer Menge von Ausfüllungsanweisungen und einer Klassifikation für die Sätze der Folge. Die schematischen Sätze sind Sätze, in denen einige nichtlogische Terme durch Schemabuchstaben ersetzt sind, so daß hier ein Spielraum zum Einsetzen verschiedener Ausdrücke gegeben ist, der es gestattet, aus einer Folge von schematischen Sätzen unterschiedliche konkrete Argumente zu gewinnen. Die Ausfüllungsanweisungen sagen uns, welche Terme jeweils an den verschiedenen Stellen eingesetzt werden dürfen. Schließlich geben uns die Klassifikationen der schematischen Sätze Informationen darüber, ob es sich um Prämissen unseres Argumentmusters oder Konklusionen handelt. Die Idee Kitchers dürfte an einem einfachen Beispiel (s. Kitcher 1988, 208ff) am ehesten deutlich werden, in dem Kitcher die Newtonische Vorgehensweise für die Behandlung von Einkörpersystemen anhand von Argumentmustern beschreibt. Zunächst finden wir für das Basismuster eine Folge von schematischen Sätzen: (1) (2) (3) (4) (5)

Die auf a ausgeübte Kraft ist ß. Die Beschleunigung von a ist y. Kraft = Masse x Beschleunigung Masse(a) • y = ß 5=0

Dazu kommen Ausfüllungsanweisungen, die etwa besagen: • „ a " ist durch einen Ausdruck für den zu untersuchenden Körper zu ersetzen. • „ß" ist jeweils durch denselben Ausdruck für eine Funktion von Raum und ZeitKoordinaten zu ersetzen. • „y" ist durch einen Funktionsausdruck für die Beschleunigung zu ersetzen (also etwa d2x/dt2). • „8" bezeichnet die Funktion, die uns die Ortskoordinaten des Körpers gibt.

B. Kitchers Vereinheitlichung der Argumentationsformen

355

• „0" ist durch eine explizite Funktion der Zeit zu ersetzen. Die Klassifikation besagt dann, daß (1) - (3) die Prämissen sind, während (4) daraus durch Substitution entsprechender Terme und (5) aus (4) durch mathematische Umformungen folgt. Wesentlich für eine Beurteilung der Ähnlichkeit von Argumenten anhand von Argumentmustern ist, was Kitcher die „Stringenz" der Muster nennt. Sind die Ausfüllungsbedingungen und die Klassifikationen sehr liberal gehalten, läßt sich mit einem bißchen guten Willen unter ein entsprechendes Muster jedes Argument als eine Instanz subsumieren. Wie groß die Ähnlichkeiten der Argumente eines Musters sind (wie stringent das Muster ist), wie groß damit seine Vereinheitlichungskraft ist, bemißt sich nach Kitcher hauptsächlich an den auftretenden nichtlogischen Termen, den Ausfüllungsanweisungen und dem Gehalt der Klassifikationen. Kitcher gibt hier schon selbst Hinweise auf ein Problem der Vagheit wenn nicht sogar drohenden Trivialisierung der Ähnlichkeitsbehauptungen anhand von Argumentmustern, das ich später noch aufgreifen werde. Zu unseren akzeptierten Überzeugungen K betrachten wir nun (das ist nach Kitcher eine Idealisierung) nur solche Mengen von Argumenten, die ebenfalls als akzeptabel bezüglich K gelten dürfen, d.h. die nur Prämissen aus K verwenden und sich nur gültiger Schlußregeln (deduktiver oder induktiver Art) bedienen.8 Gesucht wird nun die Argumentmenge, die die beste Vereinheitlichung von K darstellt, wobei der Grad der Vereinheitlichung anhand von Argumentmustern bestimmt werden soll. Jede beliebige Argumentmenge, die aus bestimmten Aussagen aus K auf andere schließt, die also eine Menge von bezüglich K akzeptablen Argumenten darstellt, heiße Systematisierung von K und wird mit D(K) (für „derivations") bezeichnet.9 Zu D(K) sei GD(K) eine Generierungsmenge für D(K), d.h. eine Menge von Argumentmustern, so daß sich jedes Argument aus D(K) als eine Instanz eines Musters aus GD(K) darstellen läßt. D(K) ist vollständig bezüglich GD(K), wenn alle (bezüglich K akzeptablen) Argumente, die durch die Muster in GD(K) generiert werden, auch zu D(K) gehören.10 Zu einer Argumentmenge D(K) sollen nun nur noch die Generierungsmengen in Betracht gezogen werden, für die D(K) vollständig ist. Damit möchte Kitcher ausschließen, daß man bestimmte Erklärungsmuster manchmal anwendet und in anderen Fällen Instanzen dieses Musters als Erklärungen willkürlich zurückweist, denn das ist seiner Meinung nach eine inkohärente Verwendungsweise von Erklärungen. Unter diesen Generierungsmengen, für die D(K) vollständig ist, suchen wir in einem letzten Schritt die mit der größten vereinheitlichenden Kraft heraus und nennen sie die Basis der Systematisierung D(K). Die vereinheitlichende Kraft einer Generierungsmenge ist dabei um so größer, je weniger Muster sie benötigt und je mehr Argumente sie zu generieren gestattet. Zusätzlich zur Anzahl der Muster sollte natürlich noch die Stringenz der Muster Berücksichtigung finden. Stringentere Muster besitzen eine größere Vereinheitlichungskraft als weniger stringente. Als Erklärungsvorrat E(K) über K wählen wir nun die Argumentmenge D(K), die K in dem eben genannten Sinn am besten vereinheitlicht, d.h. deren

356

XI Erklärung als Vereinheitlichung

Basis die größte vereinheitlichende Kraft aufweist. E(K) bestimmt dann, was eine Erklärung vor unserem Hintergrundwissen ist und was nicht. Allerdings weiß Kitcher keine allgemeinen Regeln anzugeben, wie sich die verschiedenen Dimensionen der Beurteilung von Vereinheitlichung gegeneinander aufrechnen lassen, wenn sie in Widerstreit geraten, wenn etwa eine Basis zwar mehr Muster benötigt als eine andere, diese aber stringenter sind. Doch zumindest einige Fälle lassen sich anhand von Kitchers Theorie miteinander vergleichen und Kitcher denkt, daß das insbesondere für die praktisch bedeutsamen Beispiele aus der Wissenschaftsgeschichte gilt. Ehe ich Kitchers Konzeption in einigen Punkten kritisiere, möchte ich kurz darauf zu sprechen kommen, wie er das Irrelevanz- und das Asymmetrieproblem innerhalb seiner Erklärungstheorie behandeln möchte. Zunächst zum Irrelevanzproblem, für das Kitchers Konzeption am überzeugendsten wirkt. Betrachten wir noch einmal das Beispiel des verzauberten Kochsalzes und der darauf aufbauenden Erklärung für seine Auflösung. Kitcher (1988, 216ff; 1989, 482ff) stellt hier zwei Überzeugungssysteme mit unterschiedlichen Systematisierungen einander gegenüber. Das erste besteht aus unserem normalen System, in dem wir die Überzeugung finden, daß es gerade die molekularen Eigenschaften des speziellen Salzes sind, die erklären, warum es sich in Wasser auflöst. Das zweite enthält neben kleineren Änderungen zusätzlich die Auffassung, daß sich die Auflösung von Salz in Wasser manchmal aufgrund ihrer Verzauberung erklären läßt. Gegen das zweite Überzeugungssystem wendet Kitcher ein, daß in ihm ein zusätzliches Argumentmuster Anwendung findet, nämlich eines, in dem Verzauberung vorkommt, ohne daß dadurch ein Gewinn an ableitbaren Sätzen erzielt würde; schließlich wird die Auflösung des Salzes ja schon durch die molekulare Erklärung herleitbar. Damit ist die erste Systematisierung eindeutig zu bevorzugen, denn sie kommt mit einem Argumentmuster weniger bei gleicher Systematisierungsleistung aus. Auch wenn sich für dieses Beispiel noch weitere Einwendungen finden lassen, indem man etwa verrücktere Überzeugungssysteme als Alternativen ins Spiel bringt, wirkt Kitchers Vorschlag zur Lösung der Irrelevanzproblematik recht ansprechend. Das gilt nicht in demselben Maße für seine Antwort auf das Asymmetrieproblem, obwohl er hier ganz analog vorgehen möchte. Die Beispiele für eine solche Asymmetrie, die Kitcher betrachtet, sind das von Pendelfrequenz und Pendellänge (1988, 220ff) und das berühmte Beispiel vom „Tower and Shadow" (1989, 484fff), das schon van Fraassen ausführlicher besprochen hat. Davon möchte ich mich dem ersten zuwenden, weil es eher unter die Rubrik „wissenschaftliche Erklärungen" fällt. Mit Hilfe der Pendellänge erklären wir normalerweise die Pendelfrequenz eines Pendels, aber nicht umgekehrt seine Pendellänge unter Berufung auf seine Pendelfrequenz, obwohl sich anhand des Pendelgesetzes auch in dieser Richtung eine Ableitung ergibt. Wiederum vergleicht Kitcher zwei alternative Überzeugungssysteme, nämlich erstens das normale, in dem eine Erklärung von der Pendelfrequenz zur Pendellänge nicht vorkommt, wir aber über andere Erklärungen für Pendellängen verfügen, und zweitens das alternative System, in dem zusätzlich eine Ableitung der Pendellänge aus der Pendelfrequenz unter die Syste-

B. Kitchers Vereinheitlichung der Argumentationsformen

357

matisierungen gezählt wird. Doch zunächst: Welche anderen Erklärungen für die Pendellänge können wir denn überhaupt anbieten? Wir können beschreiben, wie es zur Herstellung des fraglichen Pendels mit seiner speziellen Länge kam. In einer sehr großen Zahl von Fällen haben wir derartige „Ursprungs- und Entwicklungsherleitungen", auf die wir zur Erklärung der Pendellänge zurückgreifen können. Demgegenüber führt die alternative Systematisierung ein zweites und eigentlich überflüssiges Erklärungsschema für einen Teilbereich ein (auf alle Fälle, in denen wir üblicherweise Ursprungs- und Entwicklungsherleitungen geben, läßt sich die Erklärung aus der Pendelfrequenz sicherlich nicht anwenden), das keine zusätzlichen Systematisierungsleistungen erbringt, aber die Vereinheitlichung vermindert. Laut Kitchers Theorie ist daher das normale Uberzeugungssystem zu bevorzugen. Ob in diesem Beispiel unsere kausalen Vorstellungen von Asymmetrie aber tatsächlich außer Acht bleiben können, möchte ich hier nur zur Diskussion stellen. Gegen diese Lösung des Asymmetrieproblems argumentiert etwa Barnes (1992), indem er Kitchers Behauptung, das alternative Überzeugungssystem sei weniger einheitlich, in Frage stellt - allerdings am Beispiel von „Tower and Shadow".11 Auch wenn diese Diskussion noch nicht abgeschlossen ist, läßt sich dagen, daß Kitcher für die Fragen von Irrelevanz und Asymmetrie zumindest einen sehr interessanten Lösungsansatz anzubietenhat. Mit dem steht er insgesamt bestimmt nicht schlechter da als seine Konkurrenten etwa aus dem Bereich der Kausalerklärung. Die Konzeption der Vereinheitlichung durch Argumentmuster möchte ich nun nicht weiter in seinen technischen Details ausfuhren, sondern auf einige intuitive Schwierigkeiten und die Schachzüge, zu denen Kitcher dadurch gezwungen wird, zu sprechen kommen. So naheliegend die Argumentationsmuster auch in den von Kitcher untersuchten Beispielen aus der Evolutionstheorie und in seiner allgemeinen Beschreibung erscheinen, stoßen wir doch sofort auf Probleme, wenn wir sie auf hochentwickelte Theorien in ihrer Gänze anwenden wollen. Das von Kitcher angegebene Muster zur Mechanik ist auf ein-Partikel-Systeme und dort auch noch auf bestimmte Spezialfälle beschränkt. Natürlich wird die Ableitung für mehr-Teilchen-Systeme komplizierter und insbesondere läßt sich für viele Systeme keine Lösung der Differentialgleichungen durch mathematische Umformungen mehr finden, denn sie sind keiner analytischen Lösung zugänglich. Dazu gibt es eine Reihe von Spezialgesetzen, die Kitcher in Betracht ziehen müßte, wollte er der Komplexität der Newtonschen Theorie (als einem Netz) wirklich Rechnung tragen. Erst mit Hilfe der Spezialgesetze bekommt die Newtonsche Mechanik jedoch empirischen Gehalt, und es lassen sich die Bahnen der Partikel vorhersagen. Kitcher (1988, 214f) spricht deshalb von einem Kernmuster, das in vielen Argumentmustern, die in der Newtonschen Theorie vorkommen auftritt, und von problem-reduzierenden Mustern, die das Kernmuster ergänzen können. D.h., daß auch die Muster untereinander wieder ähnlicher oder weniger ähnlich sein können, wobei Ähnlichkeit (gemeinsame Submuster) die vereinheitlichende Wirkung der Muster einer Basis noch einmal erhöht. Damit bewegt sich Kitcher in Richtung auf eine Art TheorienNetz mit Spezialisierungen und einer Basis oder gemeinsamen Verzweigungspunkten,

358

XI Erklärung als

Vereinheitlichung

die die Gemeinsamkeiten von Modellmengen in Spezialisierungen darstellen. Allerdings hat er für die Konzeption der Kern- und Submuster und ihres Zusammenhangs keine Modellierung anzubieten und auch keine entsprechenden Anwendungen vorgelegt, weil er keine hochentwickelten Theorien vollständig zu erfassen sucht. Neben den Spezialgesetzen, die zu neuen Argumentmustern fuhren können, ohne damit die Einheitlichkeit einer Theorie gänzlich über Bord zu werfen, ist es die Flexibilität von Theorien, die Kitcher zu schaffen macht. Auch sie erhöht die Zahl der Argumentmuster, ist aber trotzdem erkenntnistheoretisch wünschenswert. Die Newtonsche Theorie läßt sich für andere Ableitungen als die der Weg-Zeit-Funktionen einsetzen. A u s der Pendellänge und der Pendelfrequenz kann man z. B. auf die Pendelmasse schließen, aus den Weg-Zeit-Funktionen von Doppelsternen auf ihre Massen etc. Da sich diese Ableitungen - auch wenn sie unterschiedliche Argumentmuster instantiieren auf dieselben Grundgesetze stützen, bietet die Theorie auch hier eine Vereinheitlichung, die jedoch so in den unterschiedlichen Argumentmustern, die in den Ableitungen verwandt wurden, nicht wiederzufinden ist. Der Friedmansche Gesichtspunkt, daß eine Theorie verschiedene Phänomene in einen Zusammenhang stellt und dadurch im Sinne einer Kohärenztheorie zur Vernetzung unserer Erkenntnis beiträgt, kommt bei Kitchers Vereinheitlichung über Argumentmuster zu kurz. Um Vereinheitlichung im Sinne Kitchers zu gewährleisten, könnte man sich darauf beschränken, E(K) relativ einfach zu halten und mit wenigen Ableitungen zu versehen, so daß man auch mit wenigen Argumentmustern auskommt. Diesen trivialen W e g sollte Kitcher mit bestimmten Mindestanforderungen an die betrachteten Systematisierungen unterbinden, was aber auch nicht einfach sein dürfte, weil es eine globale Verrechnung von Stringenz und Systematisierungsleistung erfordert. Solange das nicht möglich ist, zeigt diese Alternative zu unserem Überzeugungssystem, daß Kitchers Konzeption noch nicht zur Vorstellung von epistemischem Fortschritt als höherer Kohärenz paßt, denn Kitcher kommt es nicht auf eine hohe Vernetzung von K an, sondern darauf, die Verbindungslinien im Netz K von möglichst einfach zu gestalten; als Deduktionen, die einander strukturell sehr ähnlich sind. Wenn wir ein neues Erklärungsschema aufnehmen müssen, um etwa die Entwicklung des Universums vom Urknall angefangen zu erklären und dieses Schema nur für diese Anwendung einsetzen können, so gibt es nach Kitcher keinen guten Grund, darauf nicht einfach zu verzichten. Wir könnten statt dessen die Entwicklung des Universums als einzelnes Faktum ohne Erklärung zur Kenntnis zu nehmen, da für Kitcher systematische Kohärenz kein erklärtes erkenntnistheoretisches Ziel darstellt. Hauptsache wir vermehren nicht die Typen von Argumentationen in unserem Überzeugungssystem. Ähnliches mag für Erklärungen in den Geschichtswissenschaften gelten, wenn sie bestimmte einzigartige Ereignisse erklären. So kann Kitcher aber das Streben der Wissenschaften nach möglichst vielen Erklärungen in derartigen Fällen kaum angemessen nachzeichnen oder verständlich machen. Meine kritische Frage an Kitcher ist daher, ob seine Konzeption, die sich so stark daran orientiert, ob die Vernetzung von K von einer Metaebene aus betrachtet einfach ist, wirklich richtig beschreibt, was unter Vereinheitlichung in den

B. Kitchers Vereinheitlichung der Argumentationsformen

359

Wissenschaften zu verstehen ist. Mir scheint Friedmans Ansatz in diesem Punkt intuitiv leichter nachvollziehbar zu sein und eine Vereinheitlichung der Phänomene durch Gesetze sollte in irgendeiner Form in allen Konzeptionen von Vereinheitlichung vorkommen. Abgesehen von der Möglichkeit einer Trivialisierung der Kitcherschen Konzeption durch willkürliche Vereinfachung von E(K) weist der Ansatz noch eine andere Trivialisierungsgefahr auf, die Kitcher (1988, 222ff) unter dem Stichwort unechte Verallgemeinerung („spurious unification") diskutiert. Schon Hempel hatte mit dem Problem von Selbsterklärungen zu kämpfen. Aus der Konjunktion von Keplers Gesetz mit dem Boyleschen Gesetz läßt sich das Keplersche Gesetz ableiten, doch das ist intuitiv keine Erklärung, obwohl die Ableitung dem DN-Schema entspricht. Mit diesem Problem hatte schließlich auch Friedman seine Schwierigkeiten, wenn er anzugeben versucht, wie sich Gesetze zählen lassen. Noch deutlicher ist das bei einer Ableitung eines Gesetzes aus sich selbst, das niemand mehr als Erklärung bezeichnen wird. Solche Beispiele weisen den Weg zu ideal einfachen Argumentmustern, die als Basis beliebiger Mengen D(K) dienen können. Im ersten Fall ergibt sich etwa: A und B A zusammen mit der Ausfüllungsanweisung: „A" ist durch einen beliebigen Satz aus K zu ersetzen. Im zweiten noch einfacher: _A A mit derselben Ausfüllungsanweisung. Zu diesen trivialen Fällen sind natürlich auch kompliziertere Fälle von beinahe trivialer Vereinheitlichung denkbar, die durch bloße Betrachtung der Schemata nicht so leicht zu entdecken sind. Kitchers sehr abstrakte Sichtweise von Vereinheitlichung lädt geradezu dazu ein, sich entsprechenden Mustern zuzuwenden. Gegen solche Beispiele wehrt sich Kitcher (1988, 223ff) unter Hinweis auf die fehlende Stringenz der Muster und erklärt jedes Muster als unbrauchbar zu Vereinheitlichungszwecken, das im Prinzip - von der Art seiner Ausfüllungsanweisungen her - die Herleitung jedes Satzes erlaubt. Wenn die mit Muster P assoziierten Ausfullungsinstruktionen durch andere Ausfüllungsinstruktionen, welche die Substitution einer Klasse von Ausdrücken derselben syntaktischen Kategorie zulassen, derart ersetzt werden könnten, daß dies zu einem Muster P' führen würde, welches die Herleitung jedes Satzes erlaubt, dann ist die durch P bewirkte Vereinheitlichung unecht. (Kitcher 1988, 224)

Mit dieser etwas umständlichen Formulierung möchte Kitcher auch noch solche Fälle ausschließen, in denen jemand sich bemüht, die Trivialität der Vereinheitlichung oberflächlich zu verschleiern, indem er etwa davon spricht, Gott wolle, daß p, und dann doch im Prinzip in dem Schema keine wirklich einschränkenden Bedingungen darüber zu finden sind, was Gott denn wollen könne. Diese Schemata sind dann trivialen Schemata äquivalent und deshalb zurückzuweisen. Doch diese Nichttrivialitätsforderung läßt sich

360

XI Erklärung als Vereinheitlichung

schon dadurch erfüllen, daß man in den Ausfüllungsanweisungen einen bestimmten Satz ausschließt. Zu der spannenden Frage der Einheitlichkeit der vereinheitlichenden Theorie wird man auf Kitchers Weg wohl kaum eine befriedigende Antwort finden. Später formuliert Kitcher (1989, 479ff) entsprechende komparative Bedingungen, die uns für bestimmte Fälle sagen, welches von zwei Mustern stringenter ist, nämlich das, dessen Ausfüllungsbedingungen und dessen Klassifikationen einschränkender sind. Auch mit diesen umständlichen Formulierungen gelingt es Kitcher jedoch nicht, eine auch nur einigermaßen anspruchsvolle untere Grenze für Stringenz, zu formulieren und ebensowenig die Querverbindungen zu anderen Argumentmustern einzubeziehen. Doch gerade diese beiden Forderungen hätte Kitcher zu erfüllen, wollten wir seine Vereinheitlichungskonzeption ernsthaften Tests unterziehen. Er müßte in der Lage sein, Schemata der oben genannten Art, aber auch viele weitere ohne echten Gehalt, auch wenn sie sich nicht auf alle Aussagen beziehen, als unechte Vereinheitlichungen zurückzuweisen. Die von ihm genannte Bedingung für unechte Vereinheitlichung spricht schon dann von echter Vereinheitlichung, wenn wir einen Typ von Aussagen als nicht ableitbar erweisen können. Hier fehlt eine stärkere inhaltliche Charakterisierung von Vereinheitlichung, wie ich sie in Abschnitt E vorschlagen werde. Das kann nur anhand eines vollständigeren Bilds von wissenschaftlichen Theorien gelingen, in dem auch die Spezialgesetze und Querverbindungen innerhalb und zwischen Theorien mit in Betracht gezogen werden, weil die Grundgesetze von Theorien im allgemeinen viel zu schwach sind, um substantielle Vereinheitlichungen bewirken zu können. Für Kitchers Bedingungen kann man sich außerdem des Verdachts nicht erwehren, daß diese Bedingungen zu stark sprachabhängig sind, weil die Frage, was jeweils eingesetzt werden kann, wesentlich von den zur Verfügung stehenden Termen abhängt. Dabei bleiben unsere Intuitionen zur Vereinheitlichung auf der Strecke, denn Kitchers Bedingungen (besonders in ihren Präzisierungen 1989, 479f) sind kaum geeignet umzusetzen, inwieweit bestimmte Theorien unser Wissen vereinheitlichen, denn Vereinheitlichung wird nur anhand von abstrakten und nur syntaktisch ausgestalteten Ähnlichkeitsmaßen für Argumentationen auf einer Metaebene beurteilt. Für sie müssen wir einschätzen, welche gemeinsamen Submuster sie aufweisen und wie stringent diese jeweils sind, wobei gerade der Stringenzbegriff keine Präzisierung erfährt und seine Verbindungen zu unseren Vorstellungen von Vereinheitlichung nicht völlig aufgeklärt werden. Doch neben diesem intuitiven Unbehagen, das sich an einer rein syntaktischen Beschreibung von Vereinheitlichung festmachen läßt, bleiben auch weitere handfeste Probleme, die das Unbehagen vergrößern. Kitcher stellt sich ganz auf die Seite von Hempel, für den Erklärungen Argumente sind. Dazu verteidigt er, was Alberto Coffa den ,JDeduktions-Chauvinismusli genannt hat. Aber damit hatte schon Hempel seine Schwierigkeiten (s.a. VIII.B.l), auf die Kitcher (1989, 448ff) Erwiderungen zu formulieren sucht. Da sind zunächst die statistischen Erklärungen, auf die wir in verschiedenen Bereichen der Wissenschaften stoßen. Ihnen gegenüber stützt sich Kitcher auf die naheliegende und bereits genannte Strategie, die Wahrscheinlichkeiten in diesen Erklärungen als Grad von Unkenntnis der eigentlich zugrundeliegenden deduktiven Erklärung

B. Kitchers Vereinheitlichung der

Argumentationsformen

361

anzusehen. Dabei gesteht er zu, daß diese Vorgehensweise zumindest auf den ersten Blick für die Quantenmechanik versagt, aber auch für andere Fälle ist die Hoffnung auf eine deduktive Erklärung vermutlich eher Wunschdenken als durch handfeste Daten zu begründen. Doch Kitcher (1989, 450) bemüht sich trotzdem, den Deduktions-Chauvinismus sogar für den Fall der Quantenmechanik zu verteidigen. Er bespricht dazu den Fall zweier Teilchen, die auf eine Potentialschwelle treffen, wie er von der Quantenmechanik beschrieben wird. Nehmen wir an, eines tunnelt trotz einer geringen Wahrscheinlichkeit von 0,1 durch und das andere wird reflektiert. Nach Kitcher erklärt die Quantenmechanik nicht, wieso das eine Teilchen die Schwelle durchtunnelte, sondern bietet höchstens eine wie-möglich-Erklärung dafür an. Warum das eine Teilchen durchtunnelte, das andere jedoch nicht, bleibt dagegen grundsätzlich unerklärlich, wenn die Quantenmechanik alles sagt, was es in diesem Fall zu sagen gibt. Die deduktive Erklärungstheorie verpaßt nach Kitcher in diesen Punkten eigentlich keine Erklärungschancen. Allerdings erklärt die Quantenmechanik wenigstens noch bestimmte relative Häufigkeiten, die wir in diesen Experimenten beobachten können. Oder sie erklärt für bestimmte Kontrastklassen die Reflektion von Teilchen. Dabei handelt es sich jeweils um genuin statistische Erklärungen, die wir nicht dem Deduktions-Chauvinismus opfern sollten. Auch wenn Kitcher mit seiner Analyse quantenmechanischer Erklärungen richtig liegt, so bleiben doch die Fälle von historischen und evolutionären Erklärungen, in denen nicht unbedingt statistische Gesetze vorliegen, wir aber ebenfalls weit davon entfernt sind, die zu erklärenden Ereignisse deduzieren zu können. Die vielen derartigen Beispiele, in denen wir manchmal auch von „wie-möglich-Erklärungen" sprechen, belegen zumindest, daß es sich nicht um eine unbedeutende Teilklasse von Erklärungen handelt, die wir für Untersuchungen der Struktur von wissenschaftlichen Erklärungen nicht ernstzunehmen haben. Daneben trifft Kitchers Analyse nicht den Fall statistischer Erklärungen mit hohen Wahrscheinlichkeiten. Hätte das Teilchen bei einer Wahrscheinlichkeit von 0,99 die Potentialschwelle überwunden, wäre diese Wahrscheinlichkeit nicht mehr nur eine Erklärung für die Möglichkeit des Durchtunnelns, sondern auch als eine Erklärung für das tatsächliche Ereignis zu betrachten; aber ebenfalls keine Deduktion. Das Resümee der bisherigen Diskussion des Deduktions-Chauvinismus kann daher nur lauten, daß es zumindest höchst fraglich ist, ob sie sich in allen Beispielen von wissenschaftlichen Erklärungen durchhalten läßt, und wir sollten unsere Erklärungstheorie nicht von der recht zweifelhaften Hoffnung abhängig machen, alle statistischen Erklärungen letztlich zu deduktiven verstärken zu können. Neben den statistischen Erklärungen finden wir einen anderen wichtigen metatheoretischen Phänomenbereich, den Kitcher manchmal mit unter die Probleme statistischer Theorien einzuordnen scheint, nämlich den der Approximationen und Unscharfen. Schon Popper (1972, 202) verweist darauf, daß bei fortschrittlichen Entwicklungen in der Wissenschaft, in denen die alte Theorie nicht völlig aufgegeben wird, regelmäßig die neue Theorie die alte nicht einfach übernimmt, sondern auch korrigiert. Dementspre-

362

XI Erklärung als

Vereinheitlichung

chend sind praktisch alle interessanten Reduktionen quantitativer Theorien in der Wissenschaftsgeschichte approximative Reduktionen. Popper nennt z. B. Newtons Theorie, die die Theorien von Galileo und Kepler vereinheitlicht und erklärt, aber sie gleichzeitig auch an einigen Stellen korrigiert. Ebenso sieht es für die anderen großen „wissenschaftlichen Revolutionen" aus, wie die Übergänge von der Newtonschen zu speziell und dann allgemein relativistischen Mechaniken und den zu den quantenmechanischen Theorien. Entsprechende Approximationen sind ein integraler Bestandteil von wissenschaftlichen Erklärungen. Das hat etwa Nancy Cartwright (1983) dazu geführt, ihren „Simulacrum account" zu entwickeln. Wir erklären demnach nicht, wie sich die Dinge in der tatsächlichen Welt verhalten, sondern wie sie sich in einer vereinfachten und idealisierten Welt verhalten. Kitcher (1989, 453f) gibt sogar selbst einmal ein Beispiel in Form einer Anekdote aus der Wissenschaftsgeschichte zu dieser Problematik an. So fragte ein Füsilier der Venezianischen Artillerie Galileo, warum seine Kanonen die größte Reichweite hätten, wenn sie in einem Winkel von 45° abgefeuert würden. Das Wesentliche von Galileos Erklärung sieht wie folgt aus: Man betrachte die Kanonenkugel als Punktpartikel, die umgebende Atmosphäre als Vakuum und die Ebene als ideale euklidische Fläche. Wenn wir nun noch annehmen, daß auf die Kanonenkugel nur die Schwerkraft wirkt, können wir den idealen Abschußwinkel zu 45° ausrechnen. In tatsächlichen Situationen sind natürlich all die idealen Bedingungen nicht erfüllt. Daß wir trotzdem von einer Erklärung Galileos für die größte Weite bei 45° auch für tatsächliche Kanonen sprechen können, liegt daran, daß im Rahmen der hier verlangten Genauigkeiten die meisten auftretenden Abweichungen von den idealen Bedingungen das Ergebnis nur mit so kleinen Unscharfen belasten, wie sie vom Füsilier - das heißt in dieser intendierten Anwendung von Galileos Theorie - ohne weiteres akzeptiert werden. Kitcher (1989, 454) bezieht sich auf die Quantenmechanik zur Erklärung bestimmter Abweichungen und spricht von geringen Wahrscheinlichkeiten, daß größere Abweichungen auftreten. Doch für das genannte Phänomen können wir quantenmechanische Einflüsse höchstens zu einem sehr kleinen Teil verantwortlich machen - nicht z. B. für Bodenunebenheiten etc. - und wie es zu den Unschärfen kommt, mag zunächst auch offen bleiben. Wesentlich ist es dagegen, bestimmte Idealisierungen zu akzeptieren, aber natürlich nicht alle beliebigen, sondern nur solche, für die wir in den betrachteten Anwendungen tolerierbar kleine Abweichungen zwischen unseren Meßwerten und den theoretisch vorhersagbaren Werten erhalten. Diesen Phänomenen von Unscharfen in Erklärungen und in Reduktionen und den damit verbundenen Fragen des Fortschritts von Theorien, kann Kitcher in seinem rein syntaktischen und deduktivistischen Vereinheitlichungsansatz überhaupt nicht gerecht werden. Zunächst ist in seiner deduktivistischen Konzeption kein Platz für Approximationen vorgesehen, und es bedarf auch einiger grundlegender Änderungen, um dieses Phänomen einzubringen. Wir haben jedenfalls keine wirkliche Deduktion mehr vor uns, wenn wir Unschärfen in Anschlag bringen. Was an Stelle einer Deduktion in Kitchers Konzeption treten könnte, hätte zunächst er selbst zu beantworten. Außerdem kommen an dieser Stelle die schon in (VII.C.8) geäußerten Bedenken gegenüber jeder syntakti-

C. Einbettung in ein Modell

363

sehen Behandlung von Unscharfen zum Tragen, so daß es sogar prinzipiell fraglich ist, ob sie sich in Kitchers Ansatz unterbringen lassen. Sollte das nicht gelingen, kann er wesentliche Aspekte des Theorienfortschritts, der auch einen Übergang zu Theorien mit kleineren Unschärfemengen darstellt, nicht erfassen. Darin liegt einer der Hauptnachteile von Kitchers Vereinheitlichungskonzeption, zusammen mit ihrer Unfähigkeit die Flexibilität von Theorien und ihre inneren Zusammenhänge nachzuzeichnen. Für Fälle nicht deduktiver Erklärungen, echter statistischer Erklärungen, dem Zusammenhang vieler Theorie-Elemente und Spezialisierungen in einem ganzen Theorien-Netz etc. kann Kitcher kaum eine Analyse anbieten. Darunter muß auch sein Versuch leiden, unechte von echter Vereinheitlichung zu trennen. Wie die zahlreichen Muster, Kern- und Submuster, die mit einer Theorie assoziiert sind, zusammenspielen und wann sie zu gehaltvollen Aussagen fuhren, wird nicht weiter ausgearbeitet. Ob es tatsächlich gelingen würde, diese Phänomene auf der Metaebene allein mit Hilfe von Argumentmustern auch nur approximativ nachzuzeichnen, scheint mir eher fraglich. Deshalb möchte ich einen anderen Ansatz vorschlagen, der sowohl Friedmans wie auch Kitchers Einsichten reproduzieren kann, aber auf der anderen Seite von einer tiefergehenden Analyse der inneren Struktur von Theorien ausgeht, um so den genannten metatheoretischen Phänomenen gerecht zu werden.

C. Einbettung in ein Modell In diesem Kapitel stelle ich eine eigene Konzeption von Vereinheitlichung vor, die gerade für den Bereich wissenschaftlicher Erklärungen wieder stärker auf das zurückgreift, was ich im Kapitel VII über die innere Struktur von Theorien gesagt habe. Das allgemeine Schlagwort, mit dem sich meine Erklärungskonzeption umreißen läßt, ist das der Einbettung in ein Modell. Demnach sind Erklärungen von Ereignissen oder Tatsachen Einbettungen dieser Tatsachen in ein Modell oder in eine Modellmenge von Modellen eines Typs und die Vereinheitlichung besteht darin, daß man mit wenigen möglichst gehaltvollen Modellen bzw. Modelltypen die zu erklärenden Phänomene zu beschreiben sucht. Im folgenden werde ich manchmal auch kurz von der Einbettungstheorie der Erklärung oder auch der Modelltheorie der Erklärung sprechen. Zunächst möchte ich diese Konzeption eher abstrakt erläutern und im folgenden anhand von Beispielen und der Problemlösefähigkeit für die Einbettungstheorie argumentieren. Dabei gehe ich von einer überwiegend informellen Darstellung schrittweise zu einer formal explizierten Erklärungstheorie über.

1. Ein allgemeiner Modellbegriff Ein wichtiger Punkt einer Explikation dieser Erklärungstheorie ist sicherlich der Modellbegriff selbst, der in dem Schlagwort „Einbettung in ein Modell" verwendet wird. Für den allgemeinen Teil meiner Erklärungskonzeption möchte ich mit einem recht

364

XI Erklärung als Vereinheitlichung

allgemeinen Modellbegriff arbeiten, nach dem ein Modell einfach eine Darstellung von etwas anderem ist, die speziell dazu entwickelt wurde, als Darstellung zu dienen. Um schon hier eine stärkere Abgrenzung zu eher künstlerischen Darstellungen zu gewinnen, könnte man hinzufugen, daß diese Darstellung für erkenntnistheoretische Zwecke entworfen wurde. Dabei sollen zunächst auch mechanische Modelle oder Analogiemodelle etwa im Sinn von Mary Hesse (1963) unter dem recht weitgefaßten Modellbegriff zu verstehen sein. Ebenso sind theoretische Modelle im Sinne von Achinstein und Redhead (1980)12 hierunter zu subsumieren oder die „Simulacra" von Cartwright (1983). Für den wissenschaftlichen Bereich möchte ich natürlich weitgehend an den schon im vorigen Kapitel vorgestellten formalen Modellbegriff der Logik anknüpfen, für den Modelle Relationsstrukturen sind, deren Grundmengen auch materielle Objekte enthalten dürfen. Die formalen Modelle in den Wissenschaften müssen nicht unbedingt durch Gesetze zu beschreiben sein, obwohl diese im Regelfall für Modellmengen wissenschaftlicher Theorien eine zentrale Rolle spielen werden. Aber gerade in den weniger stark formalisierten Disziplinen stoßen wir ebenso auf Modelle, die z. B. als Ablaufgeschichten eher narrativen Charakter haben und weitgehend ohne Gesetze zu ihrer Beschreibung auskommen. Außerdem können wissenschaftliche Modelle wie die Weltmodelle oder Klimamodelle, neben gesetzesartigen Charakterisierungen auch Einzeldaten enthalten, die über eine spezifische Situation Auskunft geben. In Klimamodellen sind das z. B. Daten über die Oberfläche der Erde und Strömungen von Luft und Wasser auf unserem Planeten. Als Modelle im allgemeineren Sinn zählen sogar Miniaturmodelle von Schiffen, Flugzeugen oder Autos, die bestimmte Eigenschaften ihrer repräsentierten Objekte im Strömungs- oder Windkanal ermitteln sollen. Offensichtlich sollte bei dieser Charakterisierung von Modellen sein, daß ein Modell keine isomorphe Abbildung von irgendwelchen Objekten und ihren Eigenschaften und Relationen sein muß. Isomorphe Zuordnungen finden sich bestenfalls zwischen bestimmten Aspekten der Wirklichkeit und bestimmten Teilen der Modelle (s. dazu Bartelborth 1993a). Spätere Beispiele können die Reichhaltigkeit unseres Modellbegriffs sicher besser illustrieren als eine abstrakte Erörterung. Einige Vorläufer zu einer Art von Vereinheitlichungstheorie der Erklärung wurden schon erwähnt. Speziellen Wert auf Modelle legten auch einige Wissenschaftstheoretiker und Naturwissenschaftler - man denke unter anderen an James Clerk Maxwell, Norman Cambell oder Piere Duhem - , für die meist anschauliche oder mechanische Modelle eine erstrangige Rolle spielten. Das paßt auch zu der wissenschaftstheoretischen Forderung, die von Braithwaite und anderen erhoben wurde, wonach uns das Modell vertrauter sein sollte als das Dargestellte. In einer moderneren Auffassung von Modellen sind solche Implikationen des Arbeitens mit Modellen natürlich nicht mehr zwingend. Als Vorbild für eine strukturalistische Sicht der Einbettungstheorie sind die Arbeiten von John Forge (1980 und 1985) zu nennen; mit seinem „instance view" der Erklärung, den er auch in einem semantischen Rahmen ansiedelt. Statt von der Einbettung in ein Modell spricht er davon, daß sich ein Modell als eine Instanz eines Gesetzes erweist.

C. Einbettung in ein Modell

365

Einbettungen sind dabei nicht nur eine einfache einstufige Angelegenheit, sondern können in mehreren Stufen in immer neue Obermodelle erfolgen, was sogar für wissenschaftliche Erklärungen den Regelfall darstellt. Diese Stufenfolgen können von ganz unterschiedlicher Art sein. Optische Phänomene lassen sich zunächst in eine Wellentheorie des Lichts einbetten und diese wiederum in eine allgemeine Wellentheorie, in der allgemeine Phänomene wie Interferenz beschrieben werden. Insbesondere geht bereits die übliche Einbettung von Daten, die man etwa aus Messungen gewinnt, in zwei Stufen vonstatten. Zunächst müssen die endlich vielen erhobenen Daten (man könnte auch von einem Datenmodell sprechen) in ein partielles Modell einer Theorie eingebettet werden, das die „Instanziierung" eines Phänomens darstellt und damit häufig schon unendlich viele Bahnwerte beinhaltet. Dieses partielle Modell muß nun seinerseits in ein theoretisches Modell eingebettet werden Die erste Einbettung läßt sich auch als Konzeptualisierung beschreiben, in der die Daten in der nichttheoretischen Begrifflichkeit einer Theorie formuliert werden. Als der englische Astronom Edmond Halley ab 1678 auf der Insel St. Helena Daten über Kometen sammelt und dabei große Ähnlichkeiten zwischen den Bahnen und regelmäßige zeitliche Abstände von ca. 75 Jahren feststellte, vermutete er elliptische Bahnen, die sich anhand der Daten genauer angeben ließen. Damit hatte er die wenigen Meßwerte in ein partielles Modell der Newtonschen Mechanik eingebettet, das eine Instanz eines allgemeineren Phänomens von elliptischen Bewegungen von Himmelskörpern darstellt. Bereits durch diese Formulierung wurde die Kometenbewegung in einen bis dahin unbekannten theoretischen Zusammenhang zu den Planetenbewegungen gebracht, der eine erste Form von Vereinheitlichung bedeutet. Mit der Wiederkehr des Halleyschen Kometen im Jahr 1758 stieg daher das Interesse an Kometen stark an, jedoch erst im Jahre 1818 gelang es dem deutschen Astronomen Encke, die Bahn eines weiteren Kometen zu bestimmen und damit den systematischen Zusammenhang untereinander und zu den Planetenbahnen tatsächlich zu belegen. Im zweiten Schritt wird dann eine theoretische Einbettung gesucht, die nun ein ganzes Phänomen theoretisch erklärt, wobei alle Instanzen des Phänomens unter Respektierung der Querverbindungen der Theorie zu geeigneten Modellen ergänzt werden. D.h. sie werden in der Newtonschen Gravitationstheorie durch die Anziehungskräfte der Sonne und der Planeten erklärt, wobei außerdem der Identitäts- und der Extensivitätsconstraint zu berücksichtigen sind. Für theoretische Erklärungen, die Friedman für die wesentlichen Erklärungen in den Naturwissenschaften hält, spricht Friedman spätestens seit 1981 (s. Friedman 1981 und 1983) ebenfalls von Erklärungen als Einbettungen: A typical, and striking, feature of advanced sciences is the procedure of theoretical explanation: the derivation of the properties of a relatively concrete and observable phenomenon by means of an embedding of that phenomenon into some larger, relatively abstract and unobservable theoretical structure. (Friedman 1981, 1)

Im informellen Sinn spricht er dabei z. B. von Einbettungen der Eigenschaften von Gasen in die „Welt" der Molekulartheorie oder der Planetenbewegung in die „Welt" der universellen Gravitation Newtons. In seinen formaleren Darstellungen bezieht er sich

366

XI Erklärung als

Vereinheitlichung

aber eindeutig auf semantische Modelle wie sie auch der Strukturalismus verwendet (s. z. B. Friedman 1981, 4, Anm. 2 oder 1983, 251ff). Dabei trifft er noch eine Unterscheidung zwischen Einbettungen und echten Submodellen, um den Unterschied zwischen antirealistischen und realistischen Interpretationen von Theorien damit auszudrücken. Der Einfachheit halber spreche ich jedoch nur von „Einbettungen", möchte damit aber keineswegs antirealistische Interpretationen implizieren, denn natürlich soll die Darstellung von Theorien zunächst neutral gegenüber diesen Interpretationsmöglichkeiten sein. Das gilt um so mehr, als wir sicher Teile von Theorien realistisch interpretieren sollten, während andere Teile eher als mathematische Repräsentationen zu betrachten sind (s. Friedman 1981, 4ff und Bartelborth 1993a). Neben den theoretischen Erklärungen möchte ich aber wie angekündigt auch die „Common Sense" Erklärungen einbeziehen, die sich überwiegend auf dem Niveau der begrifflichen Einbettung zu bewegen scheinen. Z. B. Abelson und Lalljee (1988), die Ideen von Schank (1986) weiterverfolgen, untersuchen in empirischen Studien „Common Sense" Erklärungen menschlichen Verhaltens und bedienen sich ähnlicher Schemaerklärungen wie Kitcher. 13 So geht es ihnen in Erklärungen um „connecting the thing to be explained with some available conceptual pattern, appropriately modified to fit the circumstances" (Abelson/Lalljee 1988, 175). Für sie ist etwa HERZANFALL ein solcher „Erklärungsprototyp", der eine Minitheorie beinhaltet, die die typische Geschichte dazu erzählt und überwiegend auf einer begrifflichen Ebene angesiedelt ist, also einer Art von Erläuterung des Begriffs darstellt. Dazu gehört für sie, daß es sich typischerweise um einen Mann (hier eine Anpassung an die Umstände eines Falles, zu dessen Erklärung sich die Autoren anschicken) über 50 handelt, der raucht und/oder übergewichtig ist und/oder hohen Blutdruck hat ... und eventuell an den Folgen einer solchen Herzattacke stirbt. Mit diesem Prototyp HERZANFALL können sie dann den Tod eines bestimmten Menschen auf Common-Sense Niveau erklären, wenn er sich in eine derartige Geschichte einbetten läßt. Auch im wissenschaftlichen Bereich lassen sich viele Einbettungen finden, die sicher noch nicht den Status hochtheoretischer Einbettungen verdienen, sondern eher Einbettungen in Alltagsgeschichten auf einer nichttheoretischen Ebene darstellen. Hierhin gehören etwa kommentierte Ablaufschilderungen wie die bereits genannte Erklärung der Entstehung des Ablasses (s. VIII.B.l.b). Dabei werden einige historische Daten, die uns bekannt sind, in eine umfangreichere Geschichte eingebettet, die wir als Modell einer Common-Sense Psychologie bezeichnen können, wobei diese Einbettung durchaus einen Erklärungswert für uns besitzen kann, auch wenn keine Naturgesetze zitiert wurden und auch keine Deduktion dieser Praxis stattfand.

2. Einbettungen und Erklärungen Jede Erklärung ist eine Form von Einbettung, so lautet die These der letzten Abschnitte, doch natürlich muß nicht jede Einbettung schon eine Erklärung darstellen. Zunächst sei daran erinnert, daß es eine Sache des Grades ist, ob etwas eine Erklärung ist. Unter den

C. Einbettung in ein Modell

367

Erklärungen finden sich Fälle von tiefergehenden und gehaltvolleren Erklärungen und solche, für das (noch) nicht der Fall ist. Einen Beispieltyp von Erklärungen auf einem niedrigeren Erklärungsniveau hatten wir in den eher begrifflichen Einbettungen gefunden. Wenn etwa Kepler auf die Frage, warum ein bestimmter Planet sich zu verschiedenen Zeiten an bestimmten Orten befunden hat, antwortet, daß sich die Planeten auf ellipsenförmigen Bahnen mit der Sonne in einem Brennpunkt bewegen, wobei sie mit einer berechenbaren Geschwindigkeit um die Sonne fliegen, und die in Rede stehenden Orte und Zeiten nachweisbar genau auf der Elipsenbahn dieses Planeten liegen, so bietet das schon eine erste Erklärung. Wir erhalten von Kepler wichtige Informationen, die sich sogar für Voraussagezwecke eignen und in diesem Sinne erklären, warum der Planet gerade durch diese Raum-Zeit-Punkte und nicht durch beliebige andere lief. Allerdings können wir hier nicht von einer Ursachenerklärung sprechen, wie sie uns die Newtonsche Theorie zu bieten hat, die auch noch den Bahnverlauf selbst erklären kann und nicht einfach Ellipsenbahnen als unhintergehbares Faktum akzeptieren muß. Daß die Newtonsche Erklärung besser ist, wird natürlich nicht nur in der intuitiven Redeweise von Ursachen deutlich, sondern läßt sich in einem Vereinheitlichungsansatz verständlich machen. Die Newtonsche Theorie vereinheitlicht schließlich eine Vielzahl von Partikelsystemen unter einem Dach, während die Keplersche Planetenbahnentheorie nur einen sehr engen Ausschnitt davon beschreibt. Ähnlich ist das für Einbettungen in das Periodensystem. Sie geben uns erste Hinweise, warum ein Gas besonders stabil ist, aber diese Erklärungen sind als bloße Klassifikationen natürlich recht schwach, obwohl sie Prognosen erlauben. In anderen Disziplinen und in Stereotypenerklärungen wie HERZANFALL (s.o.) stoßen wir sicher auf noch schwächere Erklärungen und schließlich sind wir nicht mehr bereit, überhaupt noch von Erklärung zu sprechen, weil den Einbettungen jede Stringenz, jeder Gehalt, abgeht. Es wird deshalb notwendig sein, einen Schwellenwert anzugeben, ab dem eine Einbettung als eine Erklärung anzusehen ist und wann sie bestenfalls als eine Vorstufe zu einer Erklärung betrachtet werden kann. Für einen Vorschlag, wo wir die untere Grenze ziehen sollten, möchte ich den empirischen Gehalt der einbettenden Theorie einsetzen. Hat eine Einbettung keinen empirischen Gehalt mehr, d.h. kann die einbettende Theorie keine Situation als nicht einbettbar zurückweisen, sollten wir von einer rein begrifflichen Einbettung ohne Erklärungswert sprechen. Besitzt die Theorie dagegen empirischen Gehalt, gibt sie uns wenigstens erste Informationen, warum gerade diese Situation vorliegt und nicht eine beliebige andere. Für die Einbettung in wissenschaftliche Theorien, also die von partiellen Modellen in aktuelle, ist der empirische Gehalt präzise definiert worden und kann nun für die verlangte Abgrenzung herangezogen werden. Für informelle Einbettungen ist das natürlich nicht in derselben Strenge möglich, doch es läßt sich wenigstens intuitiv bestimmen, ob die Einbettung bestimmte Situationen ausschließt oder nur eine Klassifikation von an sich beliebigen Situationen darstellt. Darüber hinaus erlaubt der empirische Gehalt auch eine Präzisierung für Vergleiche von Theorien auf ihre Erklärungskraft hin, doch dazu später mehr.

368

XI Erklärung als Vereinheitlichung

Im Rahmen der strukturalistischen Auffassung von Theorien haben übrigens sogar Common-Sense Theorien eine Chance, gehaltvolle Erklärungen zu produzieren, denn für den empirischen Gehalt werden auch einige holistische Phänomene berücksichtigt. Zunächst müssen die Einbettungen nicht nur einzelne Phänomene einbetten, sondern gleichzeitig für ganze Klassen von intendierten Anwendungen Gültigkeit besitzen. Dazu müssen die Einbettungen nicht nur die gesetzesartigen Bestimmungen der Theorie erfüllen, sondern ebenso eine Reihe von intertheoretischen Anforderungen, die für Common-Sense Theorien z. B. in den diversen Bedeutungsbeziehungen in unserer Sprache (und etwa den Putnamschen Stereotypen) zu sehen sind. Außerdem erlaubt es die Einbettungstheorie, die wichtigsten Dimensionen der Vereinheitlichung in einen formal präzisen Rahmen zu integrieren. Was Kitcher als die Stringenz der Vereinheitlichung bezeichnete, läßt sich in erster Näherung durch den theoretischen Gehalt einer Theorie beschreiben, denn dieser gibt Auskunft darüber, wie anspruchsvoll die Einbettung ist. Neben der Stringenz einer Theorie entscheidet ihre Systematisierungsleistung über den Erklärungswert einer Theorie. Sie soll nicht nur gehaltvolle Aussagen über einzelne intendierte Anwendungen machen, sondern eine möglichst große Zahl von Anwendungen in einem systematischen Rahmen unterbringen, wodurch auch Verbindungen zwischen möglichst vielen Anwendungen entstehen. Diese Vernetzung ist dabei um so hilfreicher, je verschiedenartigere Typen von intendierten Anwendungen verknüpft werden, denn gerade für sie ist sonst am ehesten zu erwarten, daß sie zu getrennten Subsystemen gehören könnten. Dadurch wird Friedmans Konzeption der Vereinheitlichung möglichst vieler Phänomene in der semantischen Theorienkonzeption umgesetzt, und schließlich werde ich auch seine Überlegung, erklärende Theorien hätten möglichst atomar zu sein, in einer etwas anderen Form unter dem Stichwort der organischen Einheitlichkeit von Theorien mitberücksichtigen. Diese Dimensionen der Vereinheitlichung entsprechen den intuitiven Vorgaben aus der Erklärungsdebatte. Zugleich decken sie sich mit unseren erkenntnistheoretischen Anforderungen an Erklärungen. Eine hohe Systematisierungsleistung einer erklärenden Theorie stellt sicher, daß ihre Erklärungen viele inferentielle Verbindungen der erklärten Phänomene zu anderen Phänomenen etablieren. Das trägt bereits lokal wie global zur Kohärenz bei. Daß diese Verbindungen möglichst stark sind, wird durch die Forderung nach Stringenz der Vereinheitlichung erfaßt. Schließlich sorgt die organische Einheitlichkeit einer Theorie dafür, daß die Verbindungen anhand von Knoten in unserem Netz nicht bloß künstlich, etwa durch Konjunktion des Verbundenen, herbeigeführt wird, sondern eine genuine Vernetzung darstellt. Daß die Einbettungstheorie sich auch mit der vertretenen Auffassung von wissenschaftlichem Verstehen verträgt oder sogar deckt, ist ebenfalls offensichtlich. Die Einbettung in ein Modell ist ein wichtiger Spezialfall der kohärenten Einbettung in unsere Überzeugungssysteme. Sie zeigt, wie sich einzelne Instanzen bestimmter Phänomene in akzeptierte Theorien einbetten lassen, wodurch sie indirekt in unsere Meinungssysteme integriert werden.

D. Ein Beispiel für Vereinheitlichung

369

D. Ein Beispiel für Vereinheitlichung In dieser Arbeit ist nicht der Raum für detaillierte Fallstudien, aber zu Zwecken der Illustration möchte ich für eine entwickelte Theorie, nämlich die Elektrodynamik, einige intendierte Anwendungen aus unterschiedlichen Bereichen nennen. Das soll die Bandbreite der Vereinheitlichung unserer wissenschaftlichen Erkenntnisse durch diese Theorie vor Augen zu führen. Zwangsläufig ist es dabei nicht möglich, die wissenschaftlichen Erklärungen, die die Elektrodynamik für die angeführten Phänomene gibt, hier zu präsentieren. Auch das ist eine Aufgabe für eigene ausführlichere Fallstudien. Außerdem sollte für die Phänomene immer klar sein, daß nicht die Maxwellsche Theorie allein in der Lage ist, die Erklärungsleistung zu erbringen, sondern meist mehrere Theorien dazu notwendig sind. Um die Leistungsfähigkeit der Elektrodynamik wenigstens anzudeuten, werde ich eine Auswahl von Phänomenen und technischen Entwicklungen ungefähr chronologisch anführen. Das betont den dynamischen Aspekt der langen Geschichte von Entdeckungen, die heutzutage bereits in dieser Theorie vereinheitlicht werden oder erst anhand der Theorie entdeckt wurden.14 Darunter fallen Phänomene aus den Bereichen Magnetismus, Elektrizität, aber auch der Optik und anderer Gebiete der elektromagnetischen Strahlung. Zur Elektrodynamik: • Magneten sollen bereits im 6. Jh. v. Chr. entdeckt worden sein. Erste Beschreibungen des Magnetismus mit einer animistischen Theorie, die ihn erklären sollte, finden sich schon bei Thaies von Milet. Der Magnetismus bestimmter Materialien kann heute mit Hilfe von Atomtheorien und Elektrodynamik erklärt werden. • Weitere magnetische Phänomene fand man im Erdmagnetismus. In Europa bestimmt man seit 1180 mit seiner Hilfe die Himmelsrichtung. Kolumbus vermerkte aber schon 1492 die Abweichungen der Kompaßnadel von der Nordrichtung, die magnetische Deklination. William Gilbert deutete die Erde um 1600 als einen Magneten und erklärte damit als erster das Verhalten der Kompaßnadel. • 1269 entdeckte Pelerin de Maricourt gelegentlich einer längeren Belagerung, daß Magneten magnetische Pole besitzen. • Bereits Thaies soll sich mit Bernstein beschäftigt haben, der sich beim Reiben elektrostatisch auflädt. Gilbert nannte ähnliche Stoffe (Felskristall z. B.) elektrische Stoffe (nach „elektron" griechisch für Bernstein). Guericke baute um 1660 mit Hilfe einer rotierenden Schwefelkugel das erste Gerät zur Erzeugung von Reibungselektrizität, das sogar Funken abgab. Mit einer Glaskugel konnte Hauksbee das Gerät 1706 wesentlich verbessern. • Grimaldis Entdeckung der Diffraktion von Licht wurde 1665 posthum veröffentlicht. Newton bemerkte 1666, daß sich das weiße Licht in verschiedene Farben aufspalten läßt.

370

XI Erklärung als Vereinheitlichung

• Romer schätzte 1675 die Lichtgeschwindigkeit auf 225 000 km/s. Bradley, der sie 1728 anhand der von ihm verstandenen Abberation des Lichts bei der Sternenbeobachtung schätzte, kam auf 283 000 km/s. • Newton behauptete, das Licht bestehe aus Teilchen, während Huygens es für eine Wellenbewegung im Äther hielt. • Gray fand 1729, daß Elektrizität durch manche Stoffe, die er Leiter nannte floß, und hielt sie für eine Flüssigkeit. Du Fay vermutete 1733 anhand von Anziehungs- und Abstoßungsphänomenen, daß es sich um zwei Flüssigkeiten handeln müsse. • Im Jahre 1945 bauten Musschenbroek und unabhängig von ihm Kleist Geräte zur Speicherung von Elektrizität, die nach der Universität Leiden, wo ersterer arbeitete, Leidener Flasche genannt wurde. • Cronstedt entdeckte, daß neben Eisen auch Nickel und Kobalt von Magneten angezogen werden. • Franklin, der nur an eine einzige elektrische Flüssigkeit glaubte, entdeckte, daß auch Blitze elektrische Entladungen darstellen und entwickelte den Blitzableiter. • Galvani bemerkte, daß auch die Muskeln toter Frösche bei Elektrizität zucken, kam in diesem Zusammenhang aber noch auf die Vermutung tierischer Elektrizität. • Im Jahre 1800 baute Volta die erste elektrische Batterie, mit Kupfer und Zinkplatten sowie in Salzlösung getränkten Scheiben aus Pappe. • Der Chemiker William Nicholson nutzte sie kurz darauf, um Wasser zu elektrolysieren. • Ebenfalls im Jahr 1800 entdeckte Herschel die Infrarotstrahlung, als er einen besonderen Temperaturanstieg am roten Ende des Lichtspektrums feststellte. • Ein Jahr später konnte Ritter die besonders schnelle Färbung von Silbernitratstreifen am anderen Ende des Spektrums beobachten, die auf eine ebenfalls unsichtbare Strahlung - die Ultraviolettstrahlung - zurückgeht. • Im selben Jahr führte Young seine Lichtexperimente zur Interferenz und Beugung von Lichtwellen durch und ermittelte dabei u.a. auch die Länge von Lichtwellen. • Davy (1807) isolierte mittels elektrochemischer Verfahren die Elemente Barium, Strontium, Calcium und Magnesium. • In den folgenden Jahren wurden eine Reihe von Phänomenen des polarisierten Lichts von Physikern wie Malus und dem Chemiker Berzelius untersucht, die Fresnel (1818) z.T. anhand einer mathematisierten Fassung einer Theorie von Transversalwellen erklären konnte. • Das Jahr 1820 war besonders folgenreich. 0rsted bemerkte den Einfluß eines Stroms auf die Kompaßnadel, was Ampère zu systematischen Versuchen der Wirkungen zweier stromdurchflossener Drähte veranlaßte und Schweigger auf den Gedanken brachte, das erste Meßgerät für Stromstärken zu bauen. Arago konnte die Ähnlichkeit der Anziehung durch einen Kupferdraht, der einen Strom führt, mit der eines Magneten demonstrieren. • Faraday (1821) konnte zeigen, wie sich Elektrizität in Bewegung umsetzen ließ und Seebeck, wie sich Wärme in Elektrizität verwandeln ließ (Seebeck-Effekt).

E. Komponenten der Vereinheitlichung

371

• Ohm (1827) ermittelte den Zusammenhang von Stromstärke und Dicke sowie Länge des Leitungsdrahtes. • Faraday (1831) entwickelte den ersten elektrischen Generator, der sinnvoll durch einen Elektromotor (von Henry) ergänzt wurde. • Um 1844 baute Morse seinen Telegraphen, der die Erkenntnisse über elektrische Magneten und Batterien umsetzte. • Fluoreszenz in luftleeren Glasgefäßen, durch die man einen Strom schickt, hatte schon Faraday bemerkt, aber systematisch untersuchte sie zuerst der Physiker Plücker 1858 in einer Geißlerschen Röhre. • In der zweiten Hälfte des 19. Jahrhunderts gelang es Physikern wie Maxwell und Hertz eine erste einheitliche Theorie der Elektrodynamik zu entwerfen - die in ihren Grundgleichungen noch heute gültig ist - die den genauen Zusammenhang von elektrischen und magnetischen Feldern und oszillierenden Ladungen angab und erstmals die Ausbreitung elektromagnetischer Wellen mathematisch präzise beschrieb. Damit war die Entfaltung der Elektrodynamik und das Entdecken von Phänomenen, die hauptsächlich sie beschreibt, natürlich noch lange nicht zu Ende. Die elektrischen Geräte und insbesondere die Resultate der Elektrotechnik und Elektronik geben heutzutage eine beredtes Zeugnis dafür, wie rasant die Entwicklung weiterging. Aber dieser kleine Ausschnitt der Entwicklung mag genügen, um zu erkennen, welch ungeheuer große Vereinheitlichungsleistung eine Theorie wie die Elektrodynamik erbringt. Das erklärt zugleich, warum wir sie gegenüber ihren „Konkurrenten" für überlegen halten. Die vielen kleinen Theorien, die man im Laufe der Zeit entwickelte, um die einzelnen beschriebenen Phänomene zu erklären, können gegenüber dieser Vereinheitlichungskraft nicht bestehen. Niemand würde diese „kleinen" Theorien wie etwa die Flüssigkeitstheorien der Elektrizität ernsthaft als Konkurrenten der Maxwellschen Elektrodynamik ansehen, auch wenn es keine direkten experimentellen Resultate gegen sie gäbe. Schon durch ihre umfassende Vereinheitlichungsleistung überzeugt uns die Maxwellsche Theorie.15 Auf welche Weise die Vereinheitlichung vor sich geht und welche Rolle den Komponenten einer Theorie dabei zufällt, soll der nächste Abschnitt aufklären helfen.

E. Komponenten der Vereinheitlichung Die strukturalistische Sichtweise von Theorien gestattet eine Präzisierung zumindest wesentlicher Teile der erklärenden Einbettung. Das geschieht anhand der in (VII.C) angegebenen inneren Struktur von Theorien und der darauf fußenden Explikation ihres empirischen Gehalts. Jede Einbettungsfunktion e, die ein partielles Modell x zu einem theoretischem Modell ergänzt und dabei die dort angeführten Anforderungen an Einbettungsfunktionen erfüllt, ist eine Erklärung des in x beschriebenen Ereignisses, wenn sie stringent und vereinheitlichend ist. Die Bedingungen, die die Komponenten einer Theorie T ihr dazu auferlegen, bestimmen, in welchem Ausmaß die Theorie vereinheit-

372

XI Erklärung als Vereinheitlichung

lichend wirkt und wie stringent sie dabei ist. Ehe ich zu einer formalen Explikation der Vereinheitlichungskraft von Theorien und speziellen Einbettungen übergehen, möchte ich die Beiträge der verschiedenen Theoriekomponenten informell beschreiben.

1. Begriffliche Vereinheitlichung in Strukturarten Die gesuchten Beiträge zur stringenten Vereinheitlichung durch die Theorie sind von recht unterschiedlichem Gehalt. Da ist als erstes der begriffliche Rahmen zu nennen, den die potentiellen Modelle bereitstellen. Jede Einbettungsfunktion hat jedes Phänomen zunächst einer einheitlichen begrifflichen Einordnung zu unterziehen, die z. B. bestimmte Idealisierungen beinhaltet. Man spricht etwa in der KPM (klassischen Partikelmechanik) von Punktpartikeln, wohlwissend, daß tatsächliche Partikel immer eine Ausdehnung besitzen, und impliziert damit, daß diese Idealisierung vernachlässigbare Auswirkungen auf das Verhältnis von Theorie und Erfahrung besitzt, die zumindest innerhalb der erlaubten Unschärfen angesiedelt sind. Daneben wird jedes physikalische System auf die wenigen Eigenschaften reduziert, die in der KPM eine Rolle spielen, wie Kräfte, Massen, Weg-Zeit-Funktionen und bestimmte mechanische Parameter, während zahllose andere Eigenschaften wie die Gestalten und Farben der Partikel weggelassen werden. Auch wenn diese begrifflichen Vereinheitlichungen nicht die Stringenz von Vereinheitlichungen durch Gesetze erreichen, so stellen sie doch eine wichtige Ebene der theoretischen Vereinheitlichung dar, die bereits erste inhaltliche Konsequenzen hat. Daß diese begriffliche Einordnung zu keiner PseudoVereinheitlichung verkommt, bei der einfach nur ein Name für vollkommen Unterschiedliches vergeben wird, dafür sorgt die Forderung an die potentiellen Modelle einer Theorie, daß sie einer Strukturart angehören sollen, d.h. daß sie alle von demselben Strukturtyp sein sollen. Diese Forderung läßt sich anhand des Begriffs der Strukturart von Bourbaki präzisieren. Sie dient dazu, strukturelle Ähnlichkeiten zwischen Relationsstrukturen

= mit Mengen Dj und Relationen R, darauf sichtbar zu machen. Zu diesem Begriff zunächst einige Hilfsbegriffe (s.a. Ludwig 1978, 58ff oder BMS 6ff): Eine Menge L, die nur aufgrund der wiederholten Anwendung des Cartesischen Produkts „x" und der Potenzmengenoperation „SP" auf D,,...,D n (den Basismengen) entstanden ist, heiße Leitermenge L über . Bei entsprechendem n könnte eine solche Menge etwa folgendermaßen aussehen: L = 9>(D3 x 3>(D5xD,)) Diese Menge hat einen bestimmten mengentheoretischen Typ K, der diese Konstruktion aus den Basismengen typisiert, den wir etwa durch: K(D) = 9>(3 x2P(5xl)) charakterisieren können, K gibt uns also ein mengentheoretisches (Leiter-) Verfahren an, wie wir von den Basismengen D zu der Leitermenge L = K(D) gelangen können. Für

E. Komponenten der Vereinheitlichung

373

eine Strukturart mit k Relationen zu den Basismengen benötigt man Typisierungen des (komplexen) Typs = k und erhält: Eine Strukturart vom Typ k zur Basis D ist die Menge: {; Vi gilt: Rj € Kj(D)} D.h., eine Strukturart vom Typ K zur Basis D ist die Menge aller Relationsstrukturen mit Basismengen und Relationen , für die die Relationen an der i-ten Stelle alle von demselben Typ K; sind. Strukturarten sind damit Mengen von Relationsstrukturen mit denselben Grundmengen und strukturähnlich aufgebauten Relationen. Diese Einheitlichkeit verlangen wir nun auch noch zusätzlich von den potentiellen Modellen einer Theorie:16 Die Menge Mp der potentiellen Modelle einer Theorie muß eine Strukturart bilden. Die potentiellen Modelle einer Theorie lassen sich im allgemeinen nicht allein durch Typisierungen definieren, sondern sind weiter einzuschränken durch Bedingungen, wie daß eine Relation eine Funktion und außerdem differenzierbar sein soll. Diese zusätzlichen Forderungen, die zu den rein mengentheoretischen Typisierungen hinzukommen und mathematische Bedingungen an die Relationen formulieren, die noch keine Gesetze sind, sollen „Charakterisierungen" heißen (s. BMS 14ff). Eine Abweichung von der ursprünglichen Bourbaki Definition verdient noch Erwähnung. Für einschränkende Zusatzbedingungen - in unserem Fall die Charakterisierungen - forderte Bourbaki, daß sie „transportabel" sein sollten, d.h. daß sie beim Transport von einer Menge zu einer isomorphen Menge stabil sein sollten (s. Scheibe 1981, 314). Bourbaki ließ als Bedingungen also nur strukturelle Bedingungen zu, die nicht von den speziellen Elementen der Grundmengen abhängen dürfen. Scheibe (1981) versucht durch solche Transportabilitätsbedingung wesentliche Invarianzeigenschaften von Theorien auszudrücken. Doch diese Forderung Bourbakis paßt besser zu mathematischen Theorien als zu empirischen, die ja auch Theorien über ganz bestimmte Objekte sein können (die Sonne nimmt in Keplers Theorie z. B. eine Sonderstellung ein und ist nicht gegen die Planeten austauschbar). Diesen Elementen mit Sonderstellung können wir natürlich immer eine eigenständige Grundmenge einräumen, um die Transportabilität zu erhalten, aber damit umgehen wir die Bedingung nur und gestehen zu, daß sie eigentlich nicht für empirische Theorien geeignet ist. Deshalb verzichtet der Strukturalismus auf diese Forderung. Ich verzichte weiterhin darauf - im Unterschied zur Darstellung in BMS auch von den Modellen einer Theorie zu verlangen, daß sie eine Strukturart bilden, denn ohne Transportabilitätsforderung kommt dadurch nichts Neues zu der bisherigen Forderung an die potentiellen Modelle hinzu. Mit der Bedingung, daß die potentiellen Modellmengen zu einer Strukturart gehören sollen, erreichen wir eine entsprechend einheitliche Beschreibung aller Systeme, die von einem Theorien-Netz behandelt werden. Insbesondere sind damit die Teil-GanzesBeziehungen und Art-Gattungs-Beziehungen für ein ganzes Theorie-Element und sogar ein ganzes Theorien-Netz einheitlich festgelegt. Das scheint ein wesentliches Merkmal der normalwissenschaftlichen Forschung zu sein. Wenn wir etwa Kuhns Netzmetapher

374

XI Erklärung als Vereinheitlichung

für begriffliche Zusammenhänge folgen, daß jede theoretische Änderung eine leichte Bedeutungsverschiebung unseres Begriffsnetzes bedeutet, so werden wir trotzdem nicht gleich jede Bedeutungsänderung als wissenschaftliche Revolution ansehen. Wie groß müssen die Änderungen aber sein, um von einer „Revolution" sprechen zu können? Dazu hat Thagard (1992, 30ff) einen Vorschlag gemacht und in einer großen Zahl von Fallstudien seine Brauchbarkeit belegt. Er geht davon aus, daß gerade Teil-Ganzes Beziehungen und Einteilungen in Arten entscheidende Auskünfte über die Ontologien unserer Theorien bieten. Schließlich sagen sie uns, aus welchen Konstituenten die Welt besteht. Für echte Revolutionen finden wir daher Verschiebungen vor allem in diesem Bereich. Die Evolutionstheorie veränderte z. B. den Artbegriff von einer morphologischen Konzeption mit synchronischen Kriterien der Zugehörigkeit zu einer genealogischen Konzeption. Besonders schockierend war für Darwins Zeitgenossen die dabei erfolgte Neueinteilung des Menschen von einer herausgehobenen selbständigen Kategorie zu einer unter anderen Tieren (s. Thagard 1992, 136ff). Es finden sich in den Wissenschaften zahlreiche weitere Beispiele für derartige Reklassifizierungen, die ihre Bedeutung für revolutionäre versus normalwissenschaftliche Entwicklungen nahelegen. Die Typisierungen und Charakterisierungen, die einen Typ von potentiellen Modellen für eine Theorie festlegen, sind zwar im allgemeinen keine besonders stringenten Vereinheitlichungen, aber sie sind immerhin geeignet, die ontologischen Hierarchien einer Theorie festzulegen.

2. Sukzessive Vereinheitlichung durch Gesetze Stärkere inhaltliche Anforderungen, die besonders die Stringenz der Vereinheitlichung erhöhen, finden sich erst in der Beschränkung auf die Modellmenge. Damit werden nun, ganz im Sinne Friedmans, bestimmte Phänomene unter einige wenige Gesetze gebracht. Allerdings ist dabei zu beachten, daß hier sukzessive eine Reihe von Einbettungen in einem Theorien-Netz erfolgt. Zunächst werden alle intendierten Anwendungen einer Theorie unter ihre Grundgesetze im Basis-Theorie-Element subsumiert. Das erweist sich in den meisten Fällen jedoch kaum als stringente Einbettung, wie Fallstudien zu verschiedenen Theorien gezeigt haben, nach denen das Basis-Theorie-Element allein gehaltsleer war. Erst mit der Subsumption unter die Spezialisierungen des Netzes und die sie charakterisierenden Spezialgesetze ist eine substantielle empirische Behauptung verbunden. Die kann sukzessive durch weitere Spezialisierungen bis in Bereiche technischer Anwendungen der Theorie hinein verstärkt werden. An dieser Stelle zeigt sich auch der Vorteil eines hierarchischen Aufbaus einer Theorie in Form eines Netzes. Eine Theorie soll nämlich auf der einen Seite eine Vereinheitlichung und Systematisierung vieler Phänomene bieten, dabei aber zugleich möglichst informationsreich sein. Diese beiden Forderungen stehen in einem Spannungsverhältnis, das immer eine Abwägung gegeneinander erfordert. Doch diese hat nicht in einem Schritt ein für allemal zu erfolgen, sondern kann in mehreren Schritten auf unterschiedlichen Ebenen vorgenommen werden. Die Konzeption des Theorien-

E. Komponenten der Vereinheitlichung

375

Netzes erlaubt es, beide Forderungen in unterschiedlichen Kombinationen zu verwirklichen, so daß sich insgesamt eine gehaltvolle Aussage ergibt. Man könnte sagen, ein Netz von Theorie-Elementen verwirkliche die zwei Aspekte Vereinheitlichung und Stringenz in entgegengesetzten Richtungen. Während die Vereinheitlichung nach oben (in Richtung auf das Basis-Theorie-Element) hin wächst, weil immer mehr Phänomene unter immer weniger Gesetze subsumiert werden, wächst die Stringenz zusammen mit der Spezifizität nach unten hin an, wo jeweils speziellere Gesetze für immer weniger Typen von intendierten Anwendungen formuliert werden. In die empirische Behauptung des ganzen Netzes fließen dann beide Effekte ein und ergeben eine Art Zusammenschau aller Bedingungen, die das Netz an die intendierten Anwendungen stellt. Die empirische Behauptung ist daher auch der geeignete Ort, um eine untere Grenze, wann wir überhaupt noch von einer Erklärung sprechen können, zu markieren. Daß nicht jede Einbettung schon eine Erklärung darstellt, hatte ich in (C.2) zugestanden und als Schwellenwert gerade die empirische Behauptung einer Theorie genannt, die nicht leer sein sollte. Diese Bedingung sorgt dafür, daß die erklärende Einbettung nicht nur eine begriffliche Klassifizierung darstellt, sondern empirische Informationen beinhaltet, die darüber hinausgehen. Die rein begrifflichen Einbettungen, die natürlich keineswegs wissenschaftlich unbedeutend sind - man denke nur an die biologischen Klassifizierungen - , möchte ich in Anlehnung an eine Stegmüllersche Formulierung bloß als „wissenschaftliche Systematisierungen" bezeichnen.

3. Vereinheitlichung durch Konsistenzforderungen Neben den Gesetzen einer Theorie, die wesentlich zur Stringenz der theoretischen Vereinheitlichung beitragen, sind in erster Linie die innertheoretischen Querverbindungen (Constraints) als wichtige Faktoren der Vereinheitlichung zu nennen. Sie wirken wie eine verbindende Klammer zwischen den lokalen Modellen eines Theorie-Elements und sollen die Konsistenz für die Zuweisung von physikalischen Größen innerhalb eines Theorie-Elements sicherstellen. Während die Bestimmungen für die potentiellen Modelle für eine einheitliche begriffliche Struktur sorgten, bewirken die Constraints grob gesagt eine Einheitlichkeit der Funktionswerte in unterschiedlichen Bereichen der Theorie. So handelt es sich häufig um Identitätsconstraints oder Invarianzconstraints, die deutlich machen, daß es sich um ein und dieselbe Funktion mit denselben Werten etwa für die Masse eines Partikels handelt, auch wenn dieser Partikel in verschiedenen physikalischen Systemen auftritt. Untersuchungen zur empirischen Behauptung von Theorien (etwa Gähde 1989) offenbaren, welch große Bedeutung den Constraints für die Stringenz der Vereinheitlichung zukommt, und es ist daher auch nicht überraschend, daß sie ebenfalls eine wichtige Rolle für theoriendynamische Prozesse spielen. Darüber hinaus bestimmen sie wesentlich mit über den inneren Zusammenhalt eines TheorieElementes. Ihre verbindende Funktion als Brückenstruktur innerhalb einer Theorie sorgt dafür, daß die Theorie nicht in eine schlichte Konjunktion von Einzelbehauptungen und

376

XI Erklärung als Vereinheitlichung

damit gewissermaßen in Subsysteme zerfällt, sondern ein organisches Ganzes bildet, was ich in (IX.E.8) ausführen werde. Die Wirkung der Constraints, etwa des Identitätsconstraints für Partikelsysteme in der Mechanik, läßt sich auch wie folgt beschreiben: Die lokalen potentiellen Modelle, die einen Constraint erfüllen, lassen sich zusammen in ein globales potentielles Modell der Theorie einbetten. Dieser Gedanke wird für den Fall der Allgemeinen Relativitätstheorie in Bartelborth (1993) präziser gefaßt. Das bringt noch einmal zum Ausdruck, wie sich auch die Vereinheitlichung durch innertheoretische Querverbindungen in die Redeweise von Vereinheitlichung als Einbettung in ein Obermodell einfügt.

4. Vortheoretische Vereinheitlichung und theoretische Größen Die partiellen Modelle zeichnen eine Substruktur der potentiellen Modelle als nicht-Ttheoretisch aus. D.h. in erster Näherung: Wir haben die Werte für diese Größen (also die Submodelle) anhand anderer Theorien zu ermitteln. Die partiellen Modelle geben uns daher eine wichtige Schnittstelle zu anderen Theorien über die ein intertheoretischer Informationstransfer laufen kann und Theorien zu einem Holon zusammengefaßt werden können.17 Für die Frage der Vereinheitlichung ist allerdings spannender, welche Funktion die T-theoretischen Größen übernehmen und warum wir sie überhaupt benötigen. Tatsächlich gelingt erst durch ihre Mithilfe die Vereinheitlichung so scheinbar heterogener Phänomene (vom elastischen Stoß bis zur Planetenbewegung) in einer Theorie. Die Bedeutung theoretischer Terme für eine Vereinheitlichung läßt sich kaum überschätzen, und es ist ein typischer Fehler streng empiristischer Wissenschaftskonzeptionen, sie als eher suspekte Bestandteile zugunsten von Beobachtungsbegriffen aus Theorien eliminieren zu wollen. Wenn Newton tatsächlich auf den fallenden Apfel in seinem Obstgarten und den Mond geschaut hat, wobei ihm der Gedanke kam, daß es dieselbe Art von Kraft sein muß, die beide Bahnen regiert, so zeigt das, wie das Konzept der Gravitationskraft wesentlich zur Vereinheitlichung beiträgt. Um so mehr gilt das für Newtons allgemeinen Kraftbegriff, der hilft noch viel verschiedenartigere Phänomene unter wenige Gesetze zu bringen. Diese Bestimmung scheinen theoretische Größen in hochentwickelten Theorien allgemein zu erfüllen. Um dabei Anpassungsprozesse und Gehaltsverstärkungen in dynamischen Forschungsprogrammen mitmachen zu können, wäre es geradezu hinderlich, wenn die theoretischen Größen dabei den von Lewis (1970) angestellten Vermutungen über eine eindeutige Charakterisierbarkeit der theoretischen Größen (und Deftnierbarkeit) auf der zweiten Stufe gehorchen würden. Damit wären sie ein für allemal festgelegt, und neu hinzukommende Spezialgesetze könnten zu ihrer Bestimmung nichts Neues hinzufügen. Sie wären eigentlich überflüssig. Doch tatsächliche Theorien zeigen das gegenteilige Verhalten. Ihre theoretischen Terme werden durch die Grundgesetze nicht definiert und weisen zunächst sogar eine sehr große Flexibilität auf, die erst in weiteren Spezialisierungen für Teile ihres Anwendungsbereichs langsam eingeschränkt wird. Daß dabei immer weitere sinnvolle Zusatzforderungen berücksichtigt werden

E. Komponenten der Vereinheitlichung

377

können, bis schließlich hin zu technischen Anwendungen, demonstriert nur diesen Spielraum theoretischer Größen. So erstrebenswert sich die Forderung nach Definierbarkeit also auch in den Ohren des Logikers anhören mag, für den Wissenschaftstheoretiker, der wissenschaftsdynamische Phänomene beschreiben will, wäre ihre Erfüllung eine Katastrophe. Für tatsächlich rekonstruierte Theorien ist sie auch nicht gegeben. Im Basis-TheorieElement werden die theoretischen Größen sicherlich nicht eindeutig bestimmt, denn dessen Axiome sind meist nur Schemagesetze, die kaum die nötige Spezifizierung für eine Definition bereitstellen. Den Fall der Newtonschen Mechanik hat z. B. Ulrich Gähde (1983) unter diesem Gesichtspunkt untersucht. Jede Spezialisierung bietet dann zwar eine weitere Charakterisierung der theoretischen Größen, aber nur um den Preis der Einschränkung auf bestimmte Anwendungstypen. Bietet also die strukturalistische Auffassung von Theorien ein einigermaßen realistisches Bild der Wissenschaften - und dafür sprechen immerhin zahlreiche Fallstudien und konkrete Rekonstruktionen - , ist es gerade die inhaltliche Flexibilität theoretischer Terme, die für sie wesentlich ist. Sie gestattet es, unterschiedliche Phänomene unter eine Begrifflichkeit und in eine Modellhierarchie zu bringen. Das Ideal eindeutig definierbarer Begriffe stammt dagegen eher aus der Mathematik und bietet ein zu schlichtes Bild empirischer Disziplinen. Die Ausgestaltung der Spielräume für theoretische Begriffe im Hinblick auf Vereinheitlichung und Stringenz ist dann eine Aufgabe für die dynamische Entfaltung einer Theorie.

5. Vereinheitlichung der Phänomene Letztlich hat sich alle Rede von Vereinheitlichung immer auf die intendierten Anwendungen und insbesondere Typen von intendierten Anwendungen zu beziehen. Das hat schon Whewell (1967, 65) deutlich ausgesprochen. Zwar wird eine Theorie nach Whewell ebenfalls durch einzelne Tatsachen derselben Art gestützt, aber erst, wenn sie Fälle unterschiedlicher Typen von Tatsachen zu erklären vermag, denken wir, sie sei gewiß, weil sich nur so dieses außergewöhnliche Zusammentreffen erklären läßt. Um diese Überlegung in eine Präzisierung von Erklärung einzubringen, erweist sich die explizite Einführung des Anwendungsbereichs einer Theorie wiederum als ausgesprochen hilfreich. Die vereinheitlichende Kraft einer Theorie bemißt sich geradezu an der Anzahl der Typen von intendierten Anwendungen, die zu den erfolgreichen intendierten Anwendungen einer Theorie gehören. Wenn es auch sicherlich nicht immer unproblematisch ist, I in eine Klasse von Typen intendierter Anwendungen zu zerlegen (s.u.), so sind viele Vagheiten der Zerlegung von I für einen Theorienvergleich in bezug auf Vereinheitlichung nicht bedeutsam, da diese Vergleiche sich für wettstreitende Theorien oft auf dieselben Phänomenbereiche richten. Vergleiche ich z. B. zwei mechanische Theorien, von denen die eine nur einfache Pendel, die andere zusätzlich Doppelpendel erklären kann, spielt es keine große Rolle, ob ich Pendel und Doppelpendel als einen oder zwei Typen von Anwendungen verstehe. Im ersten Fall hat die erste Theorie den Nachteil, einen Typ von Pendelbewegung nicht ganz zu erklären, im zweiten Fall den

378

XI Erklärung als

Vereinheitlichung

Nachteil, einen Typ weniger als die zweite Theorie behandeln zu können. Klar ist in jedem Fall die Überlegenheit der zweiten Theorie. Kann dagegen eine Theorie einen Phänomenbereich x und eine andere einen Phänomenbereich y neben einem gemeinsamen Bereich behandeln, ist eine Abwägung der Theorien gegeneinander wohl kaum anhand einer simplen Zählung der Phänomene möglich, sondern erfordert einen komplexeren Vergleich, der z. B. auch zulässige Unschärfemengen und intertheoretische Überlegungen mit einbezieht. Doch nun zur Frage, wie sich der Anwendungsbereich einer Theorie überhaupt in Typen aufteilen läßt. Für die intendierten Anwendungen der Newtonschen Mechanik haben wir diese Aufteilung in ihrer Beschreibung bereits immer schon berücksichtigt. Sie lassen sich etwa als eine Menge von Typen von Anwendungen begreifen, die jeweils durch ein Stichwort oder paradigmatisches Exemplar in erster Näherung charakterisiert werden können und sind damit als eine Klasse I der folgenden Form darstellbar: I = {Planetensysteme, Pendel, zusammenstoßende Partikel (Billiardbälle), schiefe Würfe, ...}.' 8 Bei einer Rekonstruktion dieser Theorien finden wir die Typen bereits in den Wissenschaften vor, aber natürlich verbinden wir auch gewisse theoretische Vorstellungen mit diesen Einteilungen. Wir sagen etwa, sie repräsentierten Phänomene oder natürliche Arten von intendierten Anwendungen und sind keine willkürlichen Zusammenstellungen, sondern eben natürliche Klassifikationen physikalischer Systeme. So einleuchtend das in unserem Beispiel erscheint, bleibt doch die Frage zu beantworten, wie sich natürliche Arten charakterisieren lassen, d.h. welche Kriterien über die Mitgliedschaft in ihnen entscheiden dürfen. Zunächst gibt es sicher eine Reihe vortheoretischer Ähnlichkeitseinstufungen, die zusammen mit bestimmten paradigmatischen Beispielen diese Klassifizierungen nahelegen (s. dazu Moulines 1979). D.h., man muß nicht unbedingt die Newtonsche Mechanik kennen oder selbst akzeptieren, um den genannten Eingruppierungen zustimmen zu können. Trotzdem sind es oftmals auch die theoretischen Beschreibungen durch die Theorien selbst, die wesentlich für unsere Taxonomie von Phänomenen sind und die insbesondere zu entsprechenden Verfeinerungen oder Unterarten führen können. Friedman (1988) hatte versucht, Phänomene anhand von Gesetzen zu zählen. Diese Idee, die Wiggins (1980) ganz allgemein zur Charakterisierung von natürlichen Arten vertritt, hat schließlich Platts (1983) in seiner Konzeption einer Hierarchie von theoretisch ausgezeichneten natürlichen Arten weiterentwickelt, die gut zu den strukturalistischen Vorstellungen eines Theorien-Netzes paßt. Seinen intuitiven Ausgangspunkt formuliert er wie folgt: Hence the rough initial idea is that what is involved in a class being a natural kind class is that there be explanations, of law-based kind, which serve to account for the nature of each member of that class but which do not so serve for any other object. (Platts 1983, 134)

Ein Beispiel mag diese Ansicht erläutern. In unserem Sonnensystem gibt es auf den ersten Blick eine Reihe unterschiedlicher Typen von Himmelskörpern. Neben der Sonne, die selbst auch eine Sonderstellung einnimmt, finden sich etwa Planeten, Monde dieser Planeten, Asteroiden und Kometen. Welche Klassen wir aus diesen Gruppen als

E. Komponenten der Vereinheitlichung

379

natürliche und eigenständige Arten für eine Theorie betrachten, ist wesentlich von unserem Wissensstand abhängig. In Keplers Theorie kommt der Sonne gegenüber den Planeten eine Ausnahmestellung zu, die sie in Newtons Gravitationstheorie nicht in demselben Sinn behielt. Ähnliches gilt für die Kometen. Bereits die Griechen der Antike kannten Kometen und ihre auffälligen Schweife. Da ihre Bahnen sehr unregelmäßig und willkürlich im Unterschied zu denen der Sterne und Planeten erscheinen, mußte man sie als eigenständige Art von Himmelsobjekten betrachten. Erst Halley, einem Freund Newtons, gelang es anhand der Vermutung, daß auch sie auf elliptischen Bahnen um die Sonne laufen, sie in einen theoretischen Rahmen mit den Planeten zu stellen. Ähnliche Beispiele finden sich in allen Bereichen der Naturwissenschaften und belegen, wie abhängig die Einteilung in natürliche Arten von unseren theoretischen Kenntnissen sein kann. Solche natürlichen Arten, die mit Erklärungen anhand von Gesetzen eng zusammenhängen können, treten aber nicht nur auf einer Ebene auf, sondern in einer Hierarchie von Allgemeinheitsstufen, und wir könnten in Analogie zur biologischen Taxonomie auch hier von Stämmen, Klassen, Familien, Gattungen etc. sprechen, die jeweils auf anderen Ebenen der theoretischen Erklärung zur Anwendung kommen. So finden wir oberhalb von Zitronen Zitrusfrüchte und darüber wiederum Früchte usf., die jeweils natürliche Arten bilden können, die für bestimmte Erklärungszwecke zu unterscheiden sind. Platts (1983, 137ff) beschreibt, wie die Einschränkung von Erklärungen auf kleinere Anwendungsbereiche jeweils mit einem Gewinn an Erklärungsstärke verbunden sein kann. Das paßt recht gut zu der strukturalistischen Konzeption von Spezialisierungen auf Teilbereiche der intendierten Anwendungen mit stärkeren Spezialgesetzen für diese Anwendungen. Jede Menge I läßt sich so auf unterschiedlichen Ebenen in Typen von Anwendungen aufteilen. Die „Pendel" lassen sich wieder in einfache und Doppelpendel aufteilen, die Stoßsysteme in solche mit elastischen und solche mit unelastischen Stößen usf. So homogen uns ein Phänomenbereich auch im Rahmen einer Theorie erscheinen mag, aus einer anderen theoretischen Perspektive können sich wieder andere Einteilungen ergeben. Während in den moderneren Himmelsmechaniken die Sonne ein Körper wie die Planeten, Kometen, Monde und Asteroiden ist, nur mit besonders großer Masse, kommt ihr in der Astropysik eine andere Bedeutung zu. Dort wird sie anhand des Hertzsprung-Russell Diagramms als ein Stern der Hauptreihe mit vielen Sternen gegen rote Riesen und weiße Zwerge abgegrenzt, die sich in einem anderen Entwicklungsstadium befinden. Khalidi (1993) weiß eine Reihe von Beispielen aus unterschiedlichen Bereichen beizubringen, die darlegen, daß Einteilungen in natürliche Arten nicht nur zu einer Hierarchie gehören müssen, sondern außerdem - und das scheint ein Problem für essentialistische Ansichten natürlicher Arten zu sein - , vollkommen quer zueinander liegen können, je nachdem, welche theoretischen Ziele wir im Auge haben. Es gibt demnach auch nicht die eine basale Taxonomie für alle Bereiche der Wissenschaften, sondern wir sind wohl zu einem Pluralismus von Taxonomien gezwungen.

380

XI Erklärung als Vereinheitlichung

Dieses Phänomen findet sich sogar bereits in der Disziplin mit den ausgefeiltesten Klassifikationsschemata: der Biologie. Neben biologischen Kategorien wie „Parasiten", die etwa quer durch die stammesgeschichtlichen Zusammenhänge verlaufen (s. Khalidi 1993, 105), stoßen wir auf entsprechende Phänomene auch schon im grundlegenden Speziesbegriff. Mit Darwin fand z. B. eine begriffliche Revolution von der morphologischen Klassifikation Linnes zu einer stärker phylogenetisch orientierten Einteilung statt.19 Aber auch die Stammesgeschichte gibt keine endgültige Auskunft, wann man von einer neuen Art sprechen sollte und wann nur von einer Variation innerhalb derselben Art. So kommt Dupre (1992) für biologische Spezies schließlich zu dem Schluß, daß nur ein taxonomischer Pluralismus übrigbleibt, der mit unterschiedlichen Klassifikationskriterien und dementsprechend manchmal auch mit unterschiedlichen Einteilungen zu arbeiten hat. Eine Warnung möchte ich der Konzeption von einem Pluralismus von Taxonomien noch hinzufügen. Damit wird keineswegs schon eine antirealistische Einstellung ihnen gegenüber impliziert, nach der die Einteilungen der Welt nur von uns „gemacht" werden und eigentlich nur völlig willkürliche Zusammenfassungen darstellen oder schlimmer noch, damit verschiedene Welten von uns erzeugt werden. Tatsächlich ist eine realistische Position nicht darauf festgelegt, es könne nur eine wahre Beschreibung der Welt geben, wie es Putnam dem Realisten unterschiebt (s. dazu Bartelborth 1993a). Verschiedene Beschreibungen der Welt eventuell mit unterschiedlichen Einteilungen in natürliche Arten dürfen nur nicht unverträglich sein, was in den genannten Beispielen jedoch nicht der Fall ist. Im Gegenteil kann der Realist in diesen Fällen jeweils erklären, welcher Zusammenhang zwischen den unterschiedlichen Beschreibungen besteht. Das ist meines Erachtens die wichtigste Forderung an einen Realisten, der unterschiedliche Beschreibungen zulassen möchte (s. Bartelborth 1993a). Der Realist (z. B. Devitt 1991, Kap. 13) erklärt das so, daß es auch tatsächlich unterschiedliche Zusammenhänge in der Welt gibt, die zu unterschiedlichen Klasseneinteilungen Anlaß geben können. Dabei kann es sich um diverse kausale Beziehungen handeln, aber auch um topologische, kombinatorische, statistische usf., die jeweils andere Taxonomien verlangen mögen. Trotz eines Pluralismus von Taxonomien finden wir für einen bestimmten Bereich bei gleicher Fragestellung im allgemeinen eine relativ einheitliche Aufteilungen in natürliche Arten, die wie in den Beispielen aus der Mechanik in einer hierarchischen Gliederung bestehen können. Außerdem können wir nun zumindest eine hinreichende Bedingung für die Zugehörigkeit zu unterschiedlichen natürlichen Arten in einem Netz M = (Tj) kJ formulieren. Zwei intendierte Anwendungen x und y des Netzes gehören zu unterschiedlichen Arten, wenn gilt: (*)

Es gibt ein Theorie-Element T; mit: x e I(T|) und y