Einführung in die Analytische Philosophie 3534209281, 9783534209286


115 32 1006KB

German Pages [142] Year 2009

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Cover
Titel
Impressum
Inhaltsverzeichnis
Vorwort
1. Was ist Analytische Philosophie?
2. Einführung in die logischen Grundlagen
2.1 Erste Schritte in die Aussagenlogik
2.2 Der Aussagenkalkül
2.3 Prädikatenlogik
2.4 Axiomatisierung
2.5 Ausblick, Lektürehinweise, Fragen und Übungen
3. Philosophie der Idealen Sprache
3.1 Was heißt ‚Bedeutung'? Frege und Carnap
3.1.1 Frege
3.1.2 Carnap
3.2 Russell und Wittgenstein
3.3 Beispiel: Kennzeichnungen
3.4 Ausblick, Lektürehinweise, Fragen und Übungen
4. Philosophie der Normalen Sprache
4.1 Was ist Pragmatik?
4.2 Wittgensteins Philosophische Untersuchungen: Bedeutung ist Gebrauch
4.3 Strawson: Sätze und Präsuppositionen
4.4 J.L. Austin: Die Theorie der Sprechakte
4.5 H.P. Grice: Konversationsimplikaturen
4.6 Warum Philosophie der Normalen Sprache oder „Was ist Dein Ziel in der Philosophie?"
4.7 Ausblick, Lektürehinweise, Fragen und Übungen
5. Ontologie
5.1 Methode: Sprache und Welt
5.2 Kategorien
5.3 Ideale Sprachen und Korrespondenz
5.4 Beispiel: Eine Sachverhalts-Ontologie
5.5 Tropen und Bündel
5.6 Alles beliebig?
5.7 Modaler Realismus
5.8 Ontologiekritik und Sprachrelativität
5.9 Quine: Ontologische Verpflichtungen
5.10 Ausblick, Lektürehinweise, Fragen und Übungen
6. Analytische Erkenntnistheorie
6.1 Was ist Wissen?
6.2 Was ist Wahrheit?
6.3 Was ist eine Rechtfertigung?
6.4 Empirismus
6.4.1 Britischer Empirismus
6.4.2 Der Weg zum logischen Empirismus
6.5 Rationalismus
6.6 Analytisch/synthetisch und a priori/a posteriori
6.7 Kritik an der Definition des Wissens
6.8 Ausblick, Lektürehinweise, Fragen und Übungen
7. Wissenschaftstheorie
7.1 Logischer Positivismus – der Wiener Kreis
7.2 Das Standardmodell der Wissenschaftstheorie
7.2.1 Die Zweistufenkonzeption
7.2.2 Wissenschaftliche Erklärung
7.2.3 Induktion und Bestätigung
7.3 Poppers Falsifikationismus
7.4 Wandel und Dynamik wissenschaftlicher Theorien
7.4.1 Kuhn: Wissenschaftliche Revolutionen
7.4.2 Lakatos und Feyerabend
7.5 Ausblick, Lektürehinweise, Fragen und Übungen
8. Philosophie des Geistes
8.1 Die Sprache als Schlüssel: Semantischer Physikalismus
8.2 Identitätstheorie
8.3 Funktionalismus
8.4 Anomaler Monismus und Eliminativer Materialismus
8.5 Qualia
8.6 Ausblick, Lektürehinweise, Fragen und Übungen
9. Analytische Ethik
9.1 Die logische Analyse der Sprache der Ethik
9.1.1 Die Rechtfertigung ethischer Theorien
9.1.2 Was ist eine gültige ethische Theorie?
9.2 Metaphysikfreiheit und ethische Neutralität
9.3 Ausblick, Lektürehinweise, Fragen und Übungen
Literatur
Personenregister
Sachregister
Recommend Papers

Einführung in die Analytische Philosophie
 3534209281, 9783534209286

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Holger Leerhoff / Klaus Rehkämper / Thomas Wachtendorf

Einführung in die Analytische Philosophie

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://www.dnb.d-nb.de abrufbar.

Das Werk ist in allen seinen Teilen urheberrechtlich geschützt. Jede Verwertung ist ohne Zustimmung des Verlags unzulässig. Das gilt insbesondere für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung in und Verarbeitung durch elektronische Systeme. i 2009 by WBG (Wissenschaftliche Buchgesellschaft), Darmstadt Die Herausgabe dieses Werkes wurde durch die Vereinsmitglieder der WBG ermöglicht Satz: Lichtsatz Michael Glaese GmbH, Hemsbach Einbandgestaltung: schreiberVIS, Seeheim Gedruckt auf säurefreiem und alterungsbeständigem Papier Printed in Germany Besuchen Sie uns im Internet: www.wbg-wissenverbindet.de

ISBN 978-3-534-20928-6

Inhaltsverzeichnis Vorwort

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

7

1. Was ist Analytische Philosophie? . . . . . . . . . . . . . . . . . .

9

2. Einführung in die logischen Grundlagen . . . . . . . . 2.1 Erste Schritte in die Aussagenlogik . . . . . . . . 2.2 Der Aussagenkalkül . . . . . . . . . . . . . . . . 2.3 Prädikatenlogik . . . . . . . . . . . . . . . . . . 2.4 Axiomatisierung . . . . . . . . . . . . . . . . . . 2.5 Ausblick, Lektürehinweise, Fragen und Übungen

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

17 18 24 27 29 30

3. Philosophie der Idealen Sprache . . . . . . . . . . . . 3.1 Was heißt ‚Bedeutung‘? Frege und Carnap . . . . 3.1.1 Frege . . . . . . . . . . . . . . . . . . . 3.1.2 Carnap . . . . . . . . . . . . . . . . . . 3.2 Russell und Wittgenstein . . . . . . . . . . . . . 3.3 Beispiel: Kennzeichnungen . . . . . . . . . . . . 3.4 Ausblick, Lektürehinweise, Fragen und Übungen

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

32 33 35 38 40 42 45

4. Philosophie der Normalen Sprache . . . . . . . . . . . 4.1 Was ist Pragmatik? . . . . . . . . . . . . . . . . 4.2 Wittgensteins Philosophische Untersuchungen: Bedeutung ist Gebrauch . . . . . . . . . . . . . 4.3 Strawson: Sätze und Präsuppositionen . . . . . . 4.4 J. L. Austin: Die Theorie der Sprechakte . . . . . . 4.5 H. P. Grice: Konversationsimplikaturen . . . . . . 4.6 Warum Philosophie der Normalen Sprache oder „Was ist Dein Ziel in der Philosophie?“ . . . . . . 4.7 Ausblick, Lektürehinweise, Fragen und Übungen

. . . . . . . . . . . .

47 49

. . . .

. . . .

50 53 55 57

. . . . . . . . . . . .

59 62

5. Ontologie . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Methode: Sprache und Welt . . . . . . . . . . . 5.2 Kategorien . . . . . . . . . . . . . . . . . . . . . 5.3 Ideale Sprachen und Korrespondenz . . . . . . . 5.4 Beispiel: Eine Sachverhalts-Ontologie . . . . . . 5.5 Tropen und Bündel . . . . . . . . . . . . . . . . 5.6 Alles beliebig? . . . . . . . . . . . . . . . . . . . 5.7 Modaler Realismus . . . . . . . . . . . . . . . . 5.8 Ontologiekritik und Sprachrelativität . . . . . . . 5.9 Quine: Ontologische Verpflichtungen . . . . . . 5.10 Ausblick, Lektürehinweise, Fragen und Übungen

. . . . . . . . . . .

64 64 65 67 68 68 70 72 74 76 77

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . .

. . . . . . . . . . .

. . . . . . . . . . .

6

Inhaltsverzeichnis

6. Analytische Erkenntnistheorie . . . . . . . . . . . . . 6.1 Was ist Wissen? . . . . . . . . . . . . . . . . . . 6.2 Was ist Wahrheit? . . . . . . . . . . . . . . . . . 6.3 Was ist eine Rechtfertigung? . . . . . . . . . . . 6.4 Empirismus . . . . . . . . . . . . . . . . . . . . 6.4.1 Britischer Empirismus . . . . . . . . . . 6.4.2 Der Weg zum logischen Empirismus . . . 6.5 Rationalismus . . . . . . . . . . . . . . . . . . . 6.6 Analytisch/synthetisch und a priori/a posteriori . 6.7 Kritik an der Definition des Wissens . . . . . . . 6.8 Ausblick, Lektürehinweise, Fragen und Übungen

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

79 79 80 82 83 84 85 87 87 89 90

7. Wissenschaftstheorie . . . . . . . . . . . . . . . . . . . 7.1 Logischer Positivismus – der Wiener Kreis . . . . . 7.2 Das Standardmodell der Wissenschaftstheorie . . . 7.2.1 Die Zweistufenkonzeption . . . . . . . . . 7.2.2 Wissenschaftliche Erklärung . . . . . . . . 7.2.3 Induktion und Bestätigung . . . . . . . . . 7.3 Poppers Falsifikationismus . . . . . . . . . . . . . 7.4 Wandel und Dynamik wissenschaftlicher Theorien 7.4.1 Kuhn: Wissenschaftliche Revolutionen . . 7.4.2 Lakatos und Feyerabend . . . . . . . . . . 7.5 Ausblick, Lektürehinweise, Fragen und Übungen .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

92 93 97 98 99 100 101 102 103 104 106

8. Philosophie des Geistes . . . . . . . . . . . . . . . . . . . . 8.1 Die Sprache als Schlüssel: Semantischer Physikalismus 8.2 Identitätstheorie . . . . . . . . . . . . . . . . . . . . . 8.3 Funktionalismus . . . . . . . . . . . . . . . . . . . . . 8.4 Anomaler Monismus und Eliminativer Materialismus . 8.5 Qualia . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6 Ausblick, Lektürehinweise, Fragen und Übungen . . .

. . . . . . .

. . . . . . .

. . . . . . .

108 110 114 116 118 119 121

9. Analytische Ethik . . . . . . . . . . . . . . . . . . . . 9.1 Die logische Analyse der Sprache der Ethik . . . 9.1.1 Die Rechtfertigung ethischer Theorien . . 9.1.2 Was ist eine gültige ethische Theorie? . . 9.2 Metaphysikfreiheit und ethische Neutralität . . . 9.3 Ausblick, Lektürehinweise, Fragen und Übungen

. . . . . .

. . . . . .

. . . . . .

123 125 126 131 133 134

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

136

Personenregister . . . . . . . . . . . . . . . . . . . . . . . . . . . .

140

Sachregister

142

Literatur

. . . . . .

. . . . . .

. . . . . .

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

Vorwort Diese Einführung in die Analytische Philosophie wurde als Studienbuch für den Einsatz in Seminaren im Bachelor-Studiengang konzipiert, eignet sich aber auch für ein Selbststudium. Die systematische Unterteilung in verschiedene Arbeitsgebiete der Analytischen Philosophie ermöglicht es, die Kapitel auch in anderer Reihenfolge durchzuarbeiten oder einzelne Kapitel herausgelöst zu lesen. Wo nötig und hilfreich, wurden Querverweise auf andere Kapitel eingefügt. Letztendlich kann ein Buch dieses Umfangs den angesprochenen Bereich unmöglich vollständig und erschöpfend abdecken. Dies war aber auch nicht unser Ziel. Die einzelnen Kapitel sollen einen Einstieg in die jeweilige Thematik eröffnen und so die Grundlage für eine angeleitete und/oder selbständige weitere Beschäftigung mit dem Gegenstand bilden. Sie enden mit einem Ausblick, Literaturempfehlungen sowie Fragen und Übungen. Einige Musterlösungen und laufend aktualisierte Literaturempfehlungen finden sich auf der Web-Seite zum Buch; die Adresse ist im Literaturverzeichnis angegeben. Wenn diese Einführung auch als Gemeinschaftswerk der Autoren entstanden ist, können doch Hauptverfasser für einzelne Kapitel angegeben werden. Für das Kapitel 1 ist dies Klaus Rehkämper, für die Kapitel 2, 3, 5, 7 und 8 Holger Leerhoff, für das Kapitel 9 Thomas Wachtendorf. Die Kapitel 4 und 6 sind in enger Zusammenarbeit von Klaus Rehkämper und Thomas Wachtendorf entstanden. Bei unserer Arbeit sind wir von einigen Personen in unterschiedlicher Weise unterstützt worden. Hannah Heide, Nele Marie Röttger, Michael Schippers und Nils Springhorn halfen bei der Erstellung des Manuskripts und der Register. Eine kritische Durchsicht einzelner Kapitel des Manuskripts erfolgte durch Mark Siebel, Michael Sukale, Stefanie Ehring, Nele Marie Röttger und Michael Schippers sowie insbesondere durch den unermüdlichen Nils Springhorn, der neben wertvollen Anregungen auch viele der Übungsaufgaben beigesteuert hat. Wir bedanken uns herzlich für die Hilfe; die Verantwortung für gegebenenfalls verbliebene Mängel bleibt selbstverständlich bei uns. Holger Leerhoff, Oldenburg Klaus Rehkämper, Berlin Thomas Wachtendorf, Berlin

1. Was ist Analytische Philosophie? Begriffsklärung Eine systematische Einführung in die Analytische Philosophie sollte zunächst einmal das leisten, was sie von anderen Disziplinen erwartet: Sie sollte die Begriffe klären, die sie verwendet. In erster Linie also die Frage „Was ist Analytische Philosophie?“ beantworten. Erstaunlicherweise ist dies in unserem Fall gar nicht so einfach. Auf die Leitfrage dieses Kapitels gibt es in den Zirkeln der analytischen Philosophen augenscheinlich keine Antwort, die von allen unterschrieben würde. Drei Antworten bieten sich zunächst einmal an:

Drei Antworten

1. Bei der Analytischen Philosophie handelt sich um eine Schule oder Tradition, die sich auf einen (oder mehrere) Lehrer zurückverfolgen lässt; 2. es handelt sich um eine besondere Methode, die die Analytische Philosophie von anderen philosophischen Hauptströmungen abgrenzt; 3. es gibt einen besonderen (Problem-)Bereich, der der Analytischen Philosophie zugeordnet ist. Für alle Alternativen gibt es vorderhand gute Argumente. Als Begründer der Analytischen Philosophie lassen sich beispielsweise Gottlob Frege, Bertrand Russell und G. E. Moore ausmachen. Die Methode der Analytischen Philosophie macht sehr stark von Logik und Sprachanalyse Gebrauch. Und der Bereich ihrer Zuständigkeit lässt sich, einer verbreiteten Ansicht zufolge, zumindest negativ bestimmen: Jegliche Metaphysik ist verboten.

Die Analytische Philosophie ist eine Schule Beginnen wir mit der ersten Alternative. Mit der Entwicklung der modernen Logik durch Gottlob Frege (1848–1925), Bertrand Russell (1872–1970) und Alfred North Whitehead (1861–1947) sowie die damit verbundenen sprachanalytischen Arbeiten Freges und Russells begann in der Philosophie der so genannte linguistic turn, die Hinwendung der Philosophie zur Sprachanalyse. Frege hatte in seiner Begriffsschrift die Prädikatenlogik (Kapitel 2) entwickelt und dabei deutlich gemacht, dass sich die logische Form von singulären Aussagen der Form „Sokrates hat eine Stupsnase“ von generellen Sätzen der Form „Alle Griechen haben eine Stupsnase“ bzw. „Es gibt einen Griechen, der eine Stupsnase hat“ unterscheidet. In der Tradition der aristotelischen Syllogistik hatten alle diese Sätze eine einfache Subjekt-PrädikatForm. (Siehe dazu auch Kapitel 5.) Bertrand Russell und Alfred North Whitehead haben das Programm des Logizismus – die Rückführung der Mathematik auf die Logik –, das Frege

Frege, Russell, Moore

10

1. Was ist Analytische Philosophie?

Philosophie der Idealen Sprache

Ist Existenz eine Eigenschaft?

Philosophie der Normalen Sprache

begonnen hatte, in ihrem Werk Principia Mathematica fortgeführt. Mit Hilfe dieser neuen Logik konnte Russell 1905 in seinem berühmten Aufsatz ‚On Denoting‘ eine Theorie der logischen Analyse von Kennzeichnungen, also Ausdrücken der Form ‚der, die, das so-und-so‘ vorschlagen, die deutlich machte, wie sehr sich die logische Form eines Satzes, der eine Kennzeichnung beinhaltet, von dessen grammatischer Oberflächenstruktur unterscheidet. Die Aufgabe der Philosophie, wie sie von den frühen Analytikern verstanden wurde, besteht vorrangig in der Transformation der normalen Sprache in eine logisch korrekte. Oder, wie es Frege formulierte: „So besteht denn ein großer Teil der Arbeit des Philosophen […] in einem Kampfe mit der Sprache.“ (Frege (1983, S. 289)) Dieser Kampf des Verstandes gegen die „Verhexung durch die Sprache“ (Wittgenstein (1953, § 109)) war allerdings z. B. für Russell kein Selbstzweck, sondern diente dazu, die sprachlich induzierten Schwierigkeiten herauszuarbeiten und auszuräumen, damit die eigentlichen philosophischen Probleme bearbeitet werden konnten. Dazu ein Beispiel: Der berühmte ontologische Gottesbeweis, zuerst formuliert von Anselm von Canterbury (1033–1109), beruht auf der Annahme, dass Existenz eine Eigenschaft ist und sinnvoll Gegenständen zugesprochen werden kann. Gott ist das ‚ens perfectissimum‘ (René Descartes), das perfekte Wesen, und daher besitzt es alle (positiven) Eigenschaften, also auch die Eigenschaft der Existenz. Frege und Russell gelang es, den Status des Begriffs ‚Existenz‘ bzw. des Prädikats ‚existieren‘ logisch zu klären: Existenz ist keine Eigenschaft erster, sondern eine Eigenschaft zweiter (oder höherer) Ordnung, ebenso wie beispielsweise die Begriffe ‚Farbe‘ oder ‚Form‘. Das heißt, dass der Begriff ‚Existenz‘ auf Mengen von Objekten, nicht aber auf einzelne Objekte zutrifft. Entsprechend ist die Aussage „Mein Lieblingsbuch ist rot“ sinnvoll, die Aussage „Mein Lieblingsbuch ist Farbe“ aber sinnlos, denn ‚Farbe‘ ist ein Begriff zweiter Stufe, der nicht einzelnen Objekten zugesprochen werden kann. Sinnvoll ist der Satz „Elefanten existieren“, da hier von einer Menge (der Menge der Elefanten) behauptet wird, dass sie nicht leer ist. Sinnlos hingegen ist der Satz „Sokrates existiert“, da hier einem Gegenstand eine Eigenschaft zweiter Stufe zugesprochen werden soll. Konsequenterweise haben Frege, Russell und Whitehead daher in der von ihnen entwickelten Prädikatenlogik Existenz auch als Quantor ausgedrückt. Ein Satz wie „Sokrates existiert“ lässt sich somit überhaupt nicht formalisieren. Auf diese Weise lässt sich das Problem lösen, ob ein Objekt wie der König von Nevawaza nicht zumindest subsistieren muss (siehe Kapitel 3), damit in einem Satz wie „Der König von Nevawaza existiert nicht“ zutreffend seine Existenz bestritten werden kann. (Vgl. Rehkämper (2003).) In letzter Konsequenz diente die Sprachanalyse Russell und dem frühen Ludwig Wittgenstein (1889–1951) auch der Offenlegung der Struktur der Welt, denn beide waren fest davon überzeugt, dass zwischen der Welt und einer logisch korrekten Sprache eine Abbildbeziehung besteht. (Kapitel 3) Während sich diese Arbeiten um eine ‚Sprachbereinigung‘ bemühten und dabei eine fehlerfreie Idealsprache anstrebten, legte G. E. Moore (1873–

1. Was ist Analytische Philosophie?

1958) die Grundlagen für eine ‚Philosophie der Normalen Sprache‘. Dabei wird davon ausgegangen, dass die Alltagssprache im Grunde nicht fehlerhaft und unvollständig ist. Eine genaue Analyse führt auch hier zu Erkenntnissen insbesondere darüber, ob es sich bei dem jeweils zur Diskussion stehenden Problem tatsächlich um ein (philosophisches) Problem handelt, oder nur um eine Sprachverwirrung. Diese philosophische Richtung wurde dann – neben anderen – von Wittgenstein in seiner späten Schaffensphase entscheidend vorangetrieben. Philosophie in dieser Tradition versteht sich in erster Linie als Sprachkritik. Viele Vertreter dieser Richtung nehmen (wie der späte Wittgenstein) an, dass es genuin philosophische Probleme gar nicht gibt: Die Aufgabe der Sprachkritik besteht darin, philosophische Scheinprobleme aufzulösen und zum Verschwinden zu bringen. So verweisen in der aktuellen Diskussion in der Philosophie des Geistes Bennett (*1939) und Hacker (*1939) (2003) darauf – wie schon Gilbert Ryle (1900–1976) (1949) in ähnlicher Form vor ihnen –, dass viele Ausdrücke entgegen ihrer eigentlichen Grammatik verwendet werden. Insbesondere Eigenschaften, die auf eine Person zutreffen, werden auf einen Teil übertragen (mereologischer Fehler). So ist es korrekt zu sagen, dass eine Person etwas sieht, fühlt oder entscheidet; es ist aber sinnlos, dies von einem Auge oder dem Gehirn zu behaupten. Hier liegt ein gravierender Kategorienfehler (Kapitel 4; Kapitel 8) vor, der durch eine – im Wittgensteinschen Sinne – ‚ungrammatische‘ Verwendung der Verben ‚sehen‘, ‚fühlen‘ oder ‚entscheiden‘ hervorgerufen wird. Die Philosophie der Normalen Sprache lenkte aber auch das Augenmerk darauf, dass wir Sprache nicht ausschließlich zur objektiven Beschreibung von Fakten verwenden, dass dies noch nicht einmal die Hauptaufgabe von Sprache sei. Sprache ist eine Aktivität, die verschiedene Facetten umfasst. So können wir etwa im Falle einer Trauung mit der Sprache Fakten schaffen. Zudem geht das sprachlich Gemeinte meist weit über den semantischen Gehalt des Gesagten/Geschriebenen hinaus. So ist die Äußerung „Es zieht“ im Allgemeinen nicht als Beschreibung einer Tatsache gemeint, sondern als Aufforderung, die Türe oder das Fenster zu schließen. Sicherlich stehen viele analytische Philosophen in diesem sprachphilosophischen Erbe und viele ihrer Gedanken lassen sich auf diese Urväter der Analytischen Philosophie zurückführen. Aber es sind eben doch nicht alle. So argumentiert Dagfinn Føllesdal (*1932) (1997) überzeugend, dass Bernard Bolzano (1781–1848) ein analytischer Philosoph ist. Seine Schaffenszeit liegt jedoch deutlich vor der des oben genannten Quartetts und seine Arbeiten wurden von ihnen auch nicht rezipiert. Obendrein gibt es in der Gegenwart genügend Philosophen, die Analytische Philosophie betreiben (und natürlich die Werke von Frege, Russell, Moore und Wittgenstein kennen), ohne dass sie Frege-, Russell-, Moore- oder Wittgensteinianer wären. Hier ist es zumeist die Art und Weise des Philosophierens, die sie als analytische Philosophen kennzeichnet. Die Tradition in Form einer durchgehenden Lehrer-Schüler-Beziehung lässt sich daher nicht in allen Fällen als definierendes Kriterium für die Auszeichnung eines Philosophen als analytischen Philosophen verwenden.

Sprache ist eine Aktivität

Analytische Philosophie ohne Logik

11

12

1. Was ist Analytische Philosophie?

Analytische Philosophie ist eine Methode Logik als Methode

Sprachanalyse ohne Logik

Verwenden nun alle analytischen Philosophen dieselbe Methode? Es ist sicherlich zutreffend, dass sich alle analytisch arbeitenden Philosophen um begriffliche Klärung und eine rationale Argumentation bemühen. Hierbei ist die Verwendung der modernen Logik zwar von unschätzbarem Wert, aber dennoch nicht zwingend notwendig. Manchmal, wie im Falle Bolzanos, war dies gar nicht möglich, da sie noch gar nicht entwickelt war. Im Bereich der Philosophie der Normalen Sprache findet man sogar die Ansicht, dass Logik bei der Analyse geradezu fehl am Platze sei, da die Umgangssprache – so etwa Peter Strawson – nicht den Regeln der klassischen Logik folgt. Ansgar Beckermann (*1945) konstatierte in seiner Einleitung zu Peter Prechtls Grundbegriffe der analytischen Philosophie den lautlosen Untergang der traditionellen Analytischen Philosophie: Rückblickend kann man also sagen, dass die Analytische Philosophie ursprünglich durch zumindest eine der folgenden Thesen gekennzeichnet war: 1. Ziel der Philosophie ist die Überwindung der Philosophie durch Sprachanalyse. 2. Die einzige (legitime) Aufgabe der Philosophie ist die Analyse der (Alltags- oder Wissenschafts-)Sprache. 3. Die einzige Methode, die der Philosophie zur Verfügung steht, ist die Methode der Sprachanalyse. Aber spätestens seit 1975 gab es kaum noch jemanden, der auch nur eine dieser Thesen unterschrieben hätte. (Beckermann (2004, S. 6)) Selbst die Sprachanalyse, in welchem Verständnis auch immer, ist – wenn sie es denn jemals war – heute kein entscheidendes Kriterium mehr, ob es sich um Analytische Philosophie handelt oder nicht. Zu viele Philosophen, die das Prädikat ‚analytisch‘ verdienen, wie zum Beispiel John Rawls (1921–2002), der in seinem Buch A Theory of Justice (1971) Analytische Philosophie par excellence präsentiert, würden heute keinen der drei von Beckermann angegebenen Sätze mehr unterschreiben.

Analytische Philosophie ist ein besonderer Bereich in der Philosophie Keine Metaphysik?

Auch die dritte Alternative – die Analytische Philosophie wird durch einen bestimmten Problem- oder Themenbereich definiert – trifft nicht zu. Selbst die Ablehnung jeglicher Metaphysik, die sicherlich mit dem Logischen Positivismus und dem Wiener Kreis eine vorherrschende Auffassung in der Analytischen Philosophie war (siehe Kapitel 5), kann heute nicht mehr als definierendes Kriterium dienen; dies zeigt sich auch anschaulich daran, dass sich zum Beispiel auf den Kongressen der Gesellschaft für Analytische Philosophie eine Sektion ‚Metaphysik‘ findet. Aber schon Poppers Unterschei-

1. Was ist Analytische Philosophie?

dung von Entdeckungs- und Begründungszusammenhang gibt den Bereichen, denen man in der Analytischen Philosophie skeptisch gegenüber stand, wieder einen gewissen Raum in der Philosophie; zudem waren ontologische Überlegungen auch zur Zeit des Wiener Kreises niemals vollständig von der Bildfläche der Analytischen Philosophie verschwunden. Es gibt heute keinen Bereich der Philosophie mehr, in dem nicht analytisch philosophiert wird. Das reicht von der analytischen Ontologie (Kapitel 5) über die analytische Sprachphilosophie (Kapitel 3 und 4), die analytische Philosophie des Geistes (Kapitel 8), die Erkenntnis- und Wissenschaftstheorie (Kapitel 6 und 7) bis hin zur analytischen Ethik (Kapitel 9); und selbst die Wendung ‚analytische Phänomenologie‘ kann heute sinnvoll gebraucht werden.

Analytische Philosophie ohne feste Grenzen Der Versuch, die Analytische Philosophie mittels eindeutiger Kriterien exakt zu definieren, muss daher als gescheitert angesehen werden. Es handelt sich weder um eine Schule, noch um eine genau umrissene und immer anzuwendende Methode, noch um einen (oder mehrere) festgelegte Problembereiche. Dennoch gibt es sie und jeder meint zu verstehen, was der Ausdruck ‚Analytische Philosophie‘ bedeutet. Was charakterisiert sie also? Es ist sicherlich richtig, dass sich die Analytische Philosophie ohne die Entwicklung der modernen Logik niemals in der Form entwickelt hätte, wie dies tatsächlich geschehen ist. Und es ist sicherlich ebenfalls richtig, dass die Sprachanalyse am Anfang einen prominenten Platz eingenommen hat und auch heute noch aus der Analytischen Philosophie nicht wegzudenken ist. Dennoch gilt, dass selbst die Verwendung von Logik und Sprachanalyse weder notwendig noch hinreichend für analytisches Philosophieren ist. Genau in dieser Formulierung – ‚notwendig und hinreichend‘ – liegt aber auch das Problem. Obwohl schon Wittgenstein in seinen Philosophischen Untersuchungen (1953, S. 66 f.) darauf aufmerksam gemacht hat, können sich die modernen Philosophen von ihrem platonischen Erbe nicht trennen. Sie versuchen jeden Begriff dadurch zu erfassen, dass sie ihn klar von anderen abgrenzen. Haben alle Objekte, die unter einen Begriff fallen, etwas (nicht triviales) gemeinsam? Sind die Grenzen unserer Begriffe immer scharf? Letzteres gilt nach Russell höchstens in himmlischen Sphären wie möglicherweise der Mathematik, aber nicht in unserem normalen erdverbundenen Leben. In diesem Sinne ist selbst die Analytische Philosophie erdverbunden. Wittgenstein gebrauchte in den Philosophischen Untersuchungen den Begriff ‚(Sprach-)Spiel‘, um seine Vorstellung von Familienähnlichkeiten zu illustrieren. Eben diese Vorstellung kann uns hier weiterhelfen. Viele Begriffe kreisen Wittgenstein zufolge um ein oder mehrere Zentren. Die Kognitionspsychologie spricht hier von ‚Prototypen‘. So gibt es sehr häufig typische und weniger typische Vertreter einer Kategorie. Klavier, Geige oder Flöte sind typische Musikinstrumente, ein Theremin ein eher untypisches, eine Ukulele liegt irgendwo dazwischen. Die Forde-

Eine neue Definition

Familienähnlichkeiten

13

14

1. Was ist Analytische Philosophie?

Typisch

rung, alle diese Objekte sollten etwas gemeinsam haben, das sie zu Musikinstrumenten macht (außer der Trivialität, dass man mit ihnen Musik machen kann), erscheint schon bei flüchtigem Hinsehen absurd. Selbst so typische Instrumente wie Klavier – ein Tasteninstrument –, Geige – ein Streichinstrument – oder eine Flöte – ein Blasinstrument – sind höchst unterschiedlich. Hier nicht-triviale Eigenschaften zu erwarten, die allen gemeinsam sind, erscheint von vornherein aussichtslos. Es wäre auch der falsche Weg! Føllesdal hat das Grundproblem in seiner Arbeit „Was ist analytische Philosophie?“ schon zutreffend beschrieben: „Wir haben hier ein Mischmasch diverser Kriterien“ (1997, S. 20). Viele verschiedene Eigenschaften machen einen Philosophen zu einem mehr oder weniger analytischen. Der Begriff ‚analytisch‘ ist graduell und unterscheidet sich daher deutlich von solchen, die sich mittels notwendiger und zusammen hinreichender Eigenschaften definieren lassen. Er ähnelt damit mehr dem Begriff ‚Musikinstrument‘ als dem Begriff ‚Quadrat‘. Möglicherweise erscheinen daher zwei Philosophen als typisch analytisch, ohne dass sie dieselben Eigenschaften aufweisen, die zu dieser Einschätzung führen. Die Anwendung der Logik beispielsweise ist eine Eigenschaft, die man typischerweise bei einem analytischen Philosophen findet, die Anwendung der Sprachanalyse eine andere, Verbundenheit mit einem typisch analytischen Philosophen eine dritte. Keine solche Eigenschaft ist notwendig, keine hinreichend. Logiker können auch Logiker sein, ohne gleich als ‚richtige‘ analytische Philosophen zu gelten. Aber sie können dennoch analytischer sein als andere. Es gibt Bereiche, die eher typisch sind für die Analytische Philosophie: Logik, Sprachanalyse, Philosophie des Geistes. Aber dies bedeutet eben nicht, dass jeder, der in diesen Bereichen arbeitet, automatisch ein analytischer Philosoph ist.

Ein Charakteristikum von Analytischer Philosophie Argumentieren und Begründen als Charakteristikum

Licht und nicht Nebel

Føllesdal (1997) identifiziert dennoch etwas, das er als charakteristisch für Analytische Philosophie ansieht: Die Analytische Philosophie ist durch ihre Zugriffsweise auf philosophische Probleme gekennzeichnet. Hiermit ist gemeint, dass Argumentation und Begründung eine zentrale Rolle im analytischen Philosophieren einnehmen. Hier schließt sich Beckermann (2004, S. 7) an, wenn er schreibt: „Begriffliche Implikationen und argumentative Zusammenhänge so klar wie möglich herauszuarbeiten, ist also ein wesentliches Merkmal des Analytischen Philosophierens.“ Analytische Philosophen sehen philosophische Probleme hierbei wie naturwissenschaftliche und behandeln sie ebenso: Philosophische Probleme sind Sachprobleme, die einen sachlichen Umgang mit ihnen erfordern. Klarheit ist hierbei, wie von Beckermann gefordert, unumgänglich. Die Schweizer Philosophin Jeanne Hersch (1910–2000) erläuterte ihre Vorstellung von guter Philosophie im Anschluss an einen sehr blumigen Vorredner

1. Was ist Analytische Philosophie?

einmal so: „Will man in einen tiefen Brunnen schauen, braucht man Licht und keinen Nebel.“ Eben dieses Licht ins Dunkle zu bringen, ist das erklärte Ziel der Analytischen Philosophie. So erklärt sich auch die Vorrangstellung der Sprachanalyse: Nur wenn klar herausgearbeitet wurde, was sprachlich gemeint ist, also wenn Unklarheiten und Vieldeutigkeiten vermieden bzw. beseitigt wurden, kann man sich den eigentlichen Problemen nähern. Sprachanalyse ist daher nicht Selbstzweck, sondern wesentlich Voraussetzung für Analytisches Philosophieren. Ebenso ist Argumentieren und Begründen nicht ohne Logik möglich. Hierbei zeigt aber die Praxis, dass nicht nur die klassische, monotone, zweiwertige Logik gemeint sein kann, die üblicherweise in den Logikkursen des Philosophiestudiums gelehrt wird. Es gibt Kontexte, in denen ein Modell angemessener ist, das auf einer mehrwertigen oder einer nicht-monotonen Logik beruht, denn manchmal führen wir während der Diskussion neue Prämissen ein, die zuvor gemachte Konklusionen möglicherweise zu Fall bringen, oder unsere Sätze sind eben nicht einfach nur entweder wahr oder falsch. Logik und Sprachanalyse sind mit der Analytischen Philosophie so eng verbunden, weil sie die Grundvoraussetzungen für Argumentation und Begründung darstellen.

Analytische Philosophie = gute Philosophie? Gelingt mit dieser Beschreibung, was die Analytische Philosophie ausmacht, denn nun überhaupt eine Grenzziehung? Zum Negativen sicherlich. Philosophen, die sich nicht um Argumentation und Begründung bemühen, sind bestimmt keine Analytiker. Sie sind aber unseres Erachtens auch keine guten Philosophen. In solchen Fällen kann nur eine Rekonstruktion des Fehlenden zeigen, ob dennoch philosophische Einsichten vorliegen. Es sind aber auf der anderen Seite nicht nur analytische Philosophen, die sich um Klarheit und Rationalität in der Argumentation bemühen. Hier wären als (Gegen-)Beispiele unter anderen Platon, Aristoteles, Descartes, Kant oder Husserl zu nennen. Schon der platonische Sokrates zwingt sich und seine Gesprächspartner zur begrifflichen Analyse und Klarheit. Seine Definition von Wissen als wahrer, gerechtfertigter Meinung ist ein Musterbeispiel logischer Begriffsklärung. Erst mit Hilfe der modernen Sprachanalyse gelang es Edmund Gettier (*1927) in den 60er Jahren des letzten Jahrhunderts – also über 2300 Jahre später –, diese Definition zu kritisieren. Muss man daher nicht zugeben, dass die hier angebotene Beschreibung, was Analytische Philosophie ausmacht, zu weit ist? Ja und nein. Es wurde oben schon betont, dass das Bemühen um Argumentation und Begründung als Zugriffsweise charakteristisch für Analytische Philosophie ist, aber es ist eben nicht hinreichend. Diese Zugriffsweise findet sich in jeder guten Philosophie. Analytische Philosophie ist gewiss gute Philosophie, aber es kommt eben das eine oder andere noch hinzu, um gute Philosophie zu Analytischer Phi-

Begriffliche Analyse und Klarheit gab es auch schon früher

15

16

1. Was ist Analytische Philosophie?

Analytisch/nichtanalytisch liegt quer

losophie in vollem Sinne zu machen. Aber dieses eine oder andere ist nicht strikt festgelegt. (Wir hoffen, dass es dem geneigten Leser nach der Lektüre dieses Buches wie dem amerikanischen Richter Potter Stewart – in einem anderen Zusammenhang – gehen wird. Er kennt zwar keine exakte Definition, was Analytische Philosophie ist, aber er erkennt sie, wenn er sie sieht.) So betrachtet sieht man aber auch, dass die herkömmlichen Unterscheidungen ‚analytisch/kontinental‘, ‚analytisch/hermeneutisch‘, ‚analytisch/phänomenologisch‘ etc. unzutreffend sind und wir schließen uns Føllesdal gerne an, wenn er schreibt: Man sollte lieber sagen, daß die analytisch/nicht-analytisch Einteilung quer zu den anderen Einteilungen steht. Man kann analytischer Philosoph sein, und zugleich Phänomenologe, Existentialist, Hermeneutiker, Thomist usw. (Føllesdal (1997, S. 27)) Beckermanns Ansicht, dass die traditionelle Analytische Philosophie untergegangen ist, können wir uns aber nicht so ohne Weiteres anschließen. Sie ist erwachsen geworden. In ihrer Kindheit und Jugend hat sie ihr Terrain sondiert und ihr Instrumentarium – Logik und Sprachanalyse – entwickelt. Hierbei hat sie sich immer wieder, und das unterscheidet sie von den Fachwissenschaften, reflektierend mit sich selbst beschäftigt und sich Rechenschaft über das eigene Tun gegeben. Sicherlich ist sie im jugendlichen Überschwang auch manchmal über das Ziel hinaus geschossen, wenn sie beispielsweise die Sprachanalyse verabsolutierte und zur alleinigen philosophischen Tätigkeit erhob. Aber sie hat auch wertvolle, beinahe verloren gegangene Standards wieder in die Philosophie zurückgebracht. Heute haben wir einen Punkt erreicht, an dem die Voraussetzungen für gutes Philosophieren (beinahe) selbstverständlich geworden sind und die Philosophen sich mit den eigentlichen Sachproblemen auseinandersetzen können. Natürlich gibt es immer wieder Ausnahmen und eine der Hauptaufgaben der Analytischen Philosophie besteht darin, Philosophiestudenten in die Lage zu versetzen, durch eigenes Nachdenken (nicht nur!) philosophische Positionen zu prüfen, zu akzeptieren oder zu verwerfen.

2. Einführung in die logischen Grundlagen Dieses Kapitel kann und soll keinen Ersatz für eine Logik-Einführung darstellen, wie sie in der einen oder anderen Form in den Curricula praktisch aller Philosophie-Studiengänge zu finden sein dürfte; schon der Umfang dieses Kapitels lässt dies nicht zu. Auch sollen hier nicht die mit der Logik verbundenen philosophischen Probleme thematisiert werden, da diese zumeist recht speziell sind und wiederum in einer Einführung in die Analytische Philosophie nicht recht am Platz zu sein scheinen. Analytischen Philosophen wird oftmals eine übertriebene Affinität zu Formeln und zur Logik nachgesagt. Die Logik (wobei der Plural hier vielleicht angebrachter wäre) ist tatsächlich ein, wenn nicht das entscheidende Handwerkszeug des analytisch arbeitenden Philosophen, und die folgenden Kapitel dieser Einführung in die Analytische Philosophie setzen gewisse logische Grundlagen voraus. Diese in dem Umfang zu vermitteln, wie sie für die Lektüre des Buches notwendig sind, ist der Anspruch dieses Kapitels. In der Logik geht es um die systematische Untersuchung der Form von Argumenten im Gegensatz zu deren spezifischen Inhalten. Eines der Ziele einer solchen Untersuchung ist, schlüssige Argumente von nicht schlüssigen zu unterscheiden. Ein Argument ist genau dann schlüssig, wenn durch die logische Form des Arguments sichergestellt ist, dass die Voraussetzungen (Prämissen) zur Konklusion des Arguments führen: Gesetzt den Fall, die Voraussetzungen treffen zu, kann die Konklusion bei einem schlüssigen Argument unmöglich falsch sein; das Argument ist wahrheitsbewahrend. In einem solchen Fall sagt man, dass die Konklusion aus den Prämissen logisch folgt – und dies ist unabhängig von den eigentlichen Inhalten der Argumente und hängt nur von deren Form ab. Wie aber sieht ein Argument nun aus? Formal betrachtet kann man ein Argument als eine Folge von Aussagen, den Prämissen, auffassen, auf die eine weitere Aussage, die Konklusion des Arguments, folgt. Die Konklusion wird dabei gemeinhin mittels ‚also‘, ‚folglich‘, ‚daher‘ oder eines Wortes ähnlicher Bedeutung eingeleitet. Dazu ein konkretes Beispiel: P1: Wenn es Bayerisch Creme in der Mensa gibt, dann tanzen die Dozenten auf den Tischen. P2: Es gibt Bayerisch Creme in der Mensa. K: Also: Die Dozenten tanzen auf den Tischen. Dies ist ein Beispiel für ein schlüssiges Argument: Es ist unmöglich, dass die beiden Prämissen P1 und P2 wahr sind und gleichzeitig die Konklusion K falsch ist. In der obigen Schreibweise trennt der Schlussstrich des Arguments die Prämissen auch optisch von der Konklusion. Meist liegen die Argumente in der Praxis jedoch nicht in so klarer Form vor. Nicht immer werden alle Prämissen erwähnt, oft wird nicht deutlich ge-

Argument Form und Inhalt Schlüssigkeit

Aufbau von Argumenten

18

2. Einführung in die logischen Grundlagen

macht, was die Konklusion des Argumentes eigentlich ist. Es ist daher in solchen Fällen unerlässlich, gegebene Argumente in eine saubere Form zu ‚übersetzen‘, bevor sie logisch untersucht werden können. Für die Zwecke der Logik ist es sinnvoll, nach einer solchen Bereinigung des Arguments einen weiteren Schritt zu gehen und das Argument zu formalisieren: Dazu werden für die konkreten Inhalte des Arguments Abkürzungen in Form von Satzbuchstaben eingeführt, mit denen dann gearbeitet wird.

2.1 Erste Schritte in die Aussagenlogik In der Aussagenlogik werden Folgerungsbeziehungen zwischen ganzen Aussagen (oder Aussagesätzen, wenn man eine eher sprachliche Auffassung vertreten will) untersucht, wobei in der Regel die Elementaraussagen (atomare Aussagen) als Einheiten herangezogen werden. Im obigen Beispiel tauchen nur zwei solche Elementaraussagen auf, denen jetzt die Satzbuchstaben B und D zugeordnet werden: B: Es gibt Bayerisch Creme in der Mensa. D: Die Dozenten tanzen auf den Tischen. Elementaraussagen

Junktoren

Während die Prämisse P1 eine zusammengesetzte Aussage ist, sind B und D Elementaraussagen: Sie sind nicht mehr in weitere Aussagen zu zerlegen. Die erste Prämisse ist demgegenüber komplex: Sie ist eine zusammengesetzte Aussage, in der die beiden elementaren Aussagen B und D zwar vorkommen, aber in eine Beziehung zueinander gestellt werden: „Wenn B, dann D.“ Ebenso hätte die Prämisse noch komplexer sein können: „Wenn es Bayerisch Creme in der Mensa gibt, dann tanzen die Dozenten auf den Tischen und die Köche schlagen Alarm.“ Formalisiert man die Aussage „Die Köche schlagen Alarm“ mit dem Satzbuchstaben A, dann hätte diese Aussage die Form: „Wenn B, dann D und A.“ Solche Beziehungen zwischen Aussagen heißen Junktoren. Üblicherweise werden in der Logik vor allem die Junktoren betrachtet, die auch in Argumenten der Alltags- und Wissenschaftssprache eine wichtige Rolle spielen: Die Konjunktion (P und Q; P b Q); die Disjunktion oder Adjunktion (P oder Q; P B Q); das Konditional oder die (materiale) Implikation (wenn P, dann Q; P fi Q); die Biimplikation (P genau dann, wenn Q; P « Q). Diesen Junktoren ist gemein, dass sie immer zwei Aussagen verbinden. Ein weiterer oft gebrauchter Junktor bezieht sich hingegen auf nur eine Aussage: Die Negation (nicht P; ~P). Neben den hier verwendeten Symbolen finden sich oft alternative Symbole für die Junktoren, deren Bedeutung sich aber meist schnell erschließt. Formalisiert man das Beispielargument vollständig, ergibt sich folgende Argumentstruktur:

2.1 Erste Schritte in die Aussagenlogik

BfiD B D Die konkreten Inhalte der Aussagen kommen hier nicht mehr vor. Ebenso gut hätte obiges Argument statt von Vorgängen in der Mensa von Bahnstreiks oder von Mitochondrien handeln können – für die logische Bewertung des Arguments ist das unerheblich, die Formalisierung wäre dieselbe. Die oben vorgestellten Junktoren sind wahrheitsfunktional (extensional), es gilt das Extensionalitätsprinzip: Das heißt, dass sich der Wahrheitswert einer komplexen Aussage, die eine Verknüpfung von Elementaraussagen mittels dieser Junktoren ist, ausschließlich aus den Wahrheitswerten der in ihr enthaltenen Elementaraussagen, der Art ihrer Zusammensetzung und der Definition der Junktoren ergibt. Dazu wieder ein Beispiel: Die Aussage „Die Dozenten tanzen auf den Tischen oder in der Küche ist der Teufel los“ ist genau dann wahr, wenn (a) die Dozenten auf den Tischen tanzen, (b) in der Küche der Teufel los ist oder auch (c) beides der Fall ist. An diesem Beispiel wird deutlich, dass die Definition der Junktoren in der Logik nicht immer mit unseren Alltagsintuitionen übereinstimmt. Der Fall (c) scheint nicht ganz dem Alltagsgebrauch des Oder zu entsprechen; noch deutlicher wird dies bei dem Beispielsatz „Ich fahre am Wochenende in die Berge oder ans Meer“. Das Oder in der Logik ist ein einschließendes Oder, das eine Aussage auch dann als wahr ausweist, wenn beide Elementaraussagen wahr sind. Unser alltägliches Oder wird demgegenüber häufig als ausschließendes Oder (Kontravalenz) verstanden, das eine Aussage nur dann als wahr ausweist, wenn eine der Elementaraussagen wahr und die andere falsch ist, also als ‚Entweder-Oder‘. Natürlich kann man in der Logik auch mit dem ausschließenden Oder arbeiten, aber üblicherweise formalisiert man entsprechende Aussagen mit dem einschließenden Oder und gegebenenfalls der Zusatzbedingung, dass nicht beide Teilaussagen wahr sind: (A B B) b ~ (A b B). Die Wahl der auf formaler Ebene benutzten Junktoren ist also nicht durch irgendwelche höheren Gesetzmäßigkeiten vorgegeben, sondern richtet sich (auch) nach pragmatischen Gesichtspunkten. Geht es eher um die Bequemlichkeit und Nähe zur normalen Sprache, arbeitet man gerne mit allen fünf (oder noch mehr) Junktoren. Tatsächlich benötigt man aber nicht alle diese fünf Junktoren, um alle möglichen Aussagenverknüpfungen darstellen zu können, sondern kann sie definitorisch wechselseitig ineinander überführen: So lassen sich beispielsweise aus kleineren Junktorenbasen (zum Beispiel den zweielementigen Basen {~, b} oder {~, fi}) alle anderen Junktoren herleiten. Streng genommen reicht sogar ein einziger Junktor aus, um damit alle anderen zu definieren; dieser muss allerdings spezielle Anforderungen erfüllen. Es gibt zwei derartige ‚funktional vollständige‘ einelementige Junktorenbasen, die nur den Sheffer-Strich ‚|‘, die Exklusion bzw. ‚Nicht-Und‘, oder aber die Peirce-Funktion ‚z‘, die Rejektion bzw. das ‚Nicht-Oder‘, als Element enthalten. Um nun alle Mehrdeutigkeiten auszuschließen, wird die Bedeutung der Junktoren über eine Definition genau festgelegt. Ist eine solche Festlegung

Extensionalität

Wahl der Junktoren

Wahrheitstabellen

19

20

2. Einführung in die logischen Grundlagen

einmal getroffen, können mögliche Streitfälle durch Verweis auf die Definitionen der Junktoren beigelegt werden. Die Definition erfolgt üblicherweise über Wahrheitstabellen. Es wird wieder von den konkreten Inhalten der Aussagen abgesehen und – im Falle der zweistelligen Junktoren – angenommen, dass zwei beliebige Aussagen P und Q vorliegen. Dann werden in den ersten beiden Spalten alle möglichen Kombinationen der Wahrheitswerte von P und Q durchgespielt; jede Zeile der Wahrheitstabelle entspricht einer solchen möglichen Kombination. In der ersten Zeile sind sowohl P wie auch Q wahr (‚w‘), in der zweiten Zeile ist P wahr, Q aber falsch (‚f‘) usw. In den folgenden Spalten der Tabelle wird festgelegt, welchen Wahrheitswert durch die Junktoren verknüpfte Aussagen annehmen – jeder Spalte entspricht dabei eine einfachste, mit dem Junktor gebildete Aussage. Die einzelnen Zeilen einer Spalte geben dann wieder, welchen Wahrheitswert die Aussage unter den entsprechenden Wahrheitswertzuweisungen für die Teilaussagen P und Q hat. Die Spalte legt so den Wahrheitswertverlauf des Junktors fest. Es ergeben sich 16 unterschiedliche Verteilungen, denen man jeweils einen Junktor zuweisen könnte; davon sind aber nur einige von Interesse: P

Q

PbQ

PvQ

PfiQ

P«Q

w

w

w

w

w

w

w

f

f

w

f

f

f

w

f

w

w

f

f

f

f

f

w

w

Die Negation bezieht sich immer nur auf eine Aussage; entsprechend sieht auch die Wahrheitstabelle zur Definition der Negation anders aus:

Das Konditional

P

~P

w

f

f

w

Beim Konditional ist es im Gegensatz zu den anderen hier aufgeführten Junktoren relevant, in welcher Weise die Wahrheitswerte auf die beiden verknüpften Aussagen verteilt sind. Während es also beispielsweise für den Wahrheitswert der Aussage A b B keinen Unterschied macht, ob A wahr und B falsch oder umgekehrt A falsch und B wahr ist, ist das für die Aussage A fi B durchaus entscheidend, wie man den Zeilen zwei und drei der ersten Tabelle entnehmen kann. Um entsprechend besser auf die Teilaussagen referieren zu können, ist es üblich, den vorderen Teil eines Konditionals als dessen Antezedens oder Vordersatz, den hinteren Teil als dessen Konsequenz oder Nachsatz zu bezeichnen. A ist also das Antezedens des Konditionals A fi B, B dessen Konsequenz. Oben wurde schon kurz der Umstand angesprochen, dass unsere alltagssprachlichen Intuitionen gelegentlich mit den Definitionen der Junktoren

2.1 Erste Schritte in die Aussagenlogik

kollidieren. Dies wurde am Beispiel des einschließenden/ausschließenden Oder illustriert. Noch deutlicher wird dieser Umstand beim Konditional. Da das Konditional in der Logik – wie alle Junktoren – lediglich durch seinen Wahrheitswertverlauf definiert ist, spielt der eigentliche Inhalt von Antezedens und Konsequenz keine Rolle. „Wenn der Mond aus kariertem Käse besteht, dann gibt es Bayerisch Creme in der Mensa“ ist entsprechend ein völlig korrektes – und überdies wahres! – Konditional. Dies entspricht wieder nicht unserem Alltagsverständnis, denn es besteht hier (a) kein inhaltlicher Zusammenhang zwischen Antezedens und Konsequenz und (b) scheint es zunächst absurd, diese Aussage als wahr zu klassifizieren. Da das Antezedens aber falsch ist, ist das ganze Konditional wahr, wovon man sich leicht mittels der Definition des Junktors überzeugen kann. Eine Übereinstimmung des Konditionals mit unseren Intuitionen und dem Alltagsgebrauch von ‚wenn … dann‘ ist aber nicht gefordert: Das Konditional ist in der Logik schlicht so definiert, dass es nur dann falsch ist, wenn sein Antezedens wahr und sein Konsequenz falsch ist. Kontraintuitiv ist dabei vor allen Dingen der Fall, in dem das Antezedens falsch ist; hier gilt die Regel „ex falso sequitur quodlibet“ – „aus etwas Falschem folgt Beliebiges“. Andererseits ist ein Konditional auch immer dann wahr, wenn der Nachsatz wahr ist: „verum sequitur ex quodlibet“. Je nach dem zu bearbeitenden Bereich ist es gelegentlich nötig, auch in der Logik andere Arten von Konditionalen zu berücksichtigen. Tatsächlich waren viele Entwicklungen in der modernen Logik durch den Versuch motiviert, eine angemessenere Formalisierung des alltagssprachlichen ‚wenn … dann‘ zu finden. Bei der Formalisierung ist darauf zu achten, dass die Junktoren unterschiedliche Bindungsstärken haben – das Prinzip ist aus der Mathematik bekannt, wo die schöne Regel ‚Punkt- vor Strichrechnung‘ gilt. In der Logik bindet die Negation (~) am stärksten, dann folgen in absteigender Reihenfolge ihrer Bindungsstärke die Konjunktion (b), die Disjunktion (B), das Konditional (fi) und schließlich die Biimplikation («). Wie in der Mathematik kann durch die Verwendung von Klammern eine andere interne Verbindung von Aussageteilen erreicht werden. Im weiteren Verlauf dieses Buches wird noch verschiedentlich von notwendigen und hinreichenden Bedingungen die Rede sein. Das Gemeinte lässt sich folgendermaßen illustrieren: Eine Frau zu sein ist eine notwendige Bedingung dafür, eine Mutter zu sein; man kann unmöglich Mutter sein, ohne Frau zu sein. Eine weitere notwendige Bedingung ist es, ein Kind zu haben. Frau zu sein oder ein Kind zu haben ist aber nicht hinreichend dafür, eine Mutter zu sein, denn man kann sehr wohl eine Frau sein oder ein Kind haben, ohne auch eine Mutter zu sein. Diese beiden notwendigen Bedingungen zusammengenommen sind aber hinreichend dafür, eine Mutter zu sein: Alles, was eine Frau ist und ein Kind hat, ist eine Mutter. Allgemein dargestellt: A ist eine notwendige Bedingung für B, wenn es unmöglich der Fall sein kann, dass B der Fall ist, wenn nicht auch A der Fall ist. A ist eine hinreichende Bedingung für B, wenn es unmöglich der Fall sein kann, dass A vorliegt, ohne dass auch B vorliegt. Im Konditional treffen nun notwendige und hinreichende Bedingung aufeinander: Wenn A fi B wahr ist, dann ist A immer eine hinreichende Bedingung für B: Aus dem Wahrsein von A kann

Bindungsstärke der Junktoren

notwendig/ hinreichend

21

22

2. Einführung in die logischen Grundlagen

ich auf das Wahrsein von B schließen. Des Weiteren ist aber B auch immer eine notwendige Bedingung für A, denn A kann nicht wahr sein, ohne dass auch B wahr ist. Eingangs wurde erwähnt, dass die Logik sich primär mit der Untersuchung von Argumenten beschäftigt. Eine vergleichsweise einfache Methode, ein gegebenes Argument auf seine Schlüssigkeit (man sagt auch: ‚Gültigkeit‘) hin zu untersuchen, ist die semantische Methode. Bei dieser wird das zu untersuchende Argument, der Schluss, ‚von seinem Inhalt befreit‘ (formalisiert) und anschließend anhand einer Wahrheitstabelle analysiert. Die Wahrheitstabellen wurden bereits im Zuge der Definition der Junktoren eingeführt; nun soll geschildert werden, wie sie sich zur Überprüfung von Schlüssen einsetzen lassen. Die Argumentstruktur des Beispielarguments sah folgendermaßen aus: BfiD B D Um die Gültigkeit dieses Schlusses zu überprüfen, muss er zunächst in eine andere Form übertragen werden. Dabei macht man sich zu Nutze, dass ein Schluss wie ein Konditional funktioniert bzw., logisch betrachtet, die Form eines Konditionals hat: Wenn ein Schluss gültig ist, dann muss die Konklusion wahr sein, wenn die Prämissen wahr sind. Die einzelnen Prämissen werden für die Überprüfung entsprechend konjunktiv verbunden und bilden das Antezedens, die Konklusion bildet das Konsequenz des neuen Konditionals: ((B fi D) b B) fi D Oder, allgemein: (P1b P2b …) fi K Schlüssigkeit überprüfen: Wahrheitstabelle

Der Wahrheitswert dieser komplexen Aussage ergibt sich nun gemäß dem Extensionalitätsprinzip nur aus den Wahrheitswerten der Elementaraussagen B und D, der Art der Zusammensetzung der Aussage und der Definition der vorkommenden Junktoren – wobei Bindungsstärke und Klammerung zu berücksichtigen sind. Zur Auswertung erstellt man eine Wahrheitstabelle, die alle möglichen Verteilungen der Wahrheitswerte über die Elementaraussagen berücksichtigt. Bei zwei Elementaraussagen ergeben sich wie in diesem Beispiel vier Zeilen, bei drei acht Zeilen, bei vier sechzehn Zeilen – die Anzahl der benötigten Zeilen steigt also mit wachsender Anzahl der Elementaraussagen exponentiell an, woraus sich bereits erkennen lässt, dass diese Methode aus pragmatischen Gründen nur für die Untersuchung von Argumenten mit vergleichsweise geringer Anzahl an Elementaraussagen geeignet ist. Die auszuwertende Aussage überträgt man dann in die Titelzeile der Tabelle und wertet sie der Klammerung bzw. Bindungsstärke der Junktoren nach abschnittsweise aus: Zunächst berechnet man in diesem Beispiel die Wahr-

2.1 Erste Schritte in die Aussagenlogik

heitswertverläufe der inneren Klammern mit den Teilaussagen B fi D, dann (B fi D) b B. Im letzten Schritt wird dann der Wahrheitswertverlauf der gesamten Aussage berechnet, der sich durch den Hauptjunktor, das zweite (äußere) Konditional, ergibt: B

D

BfiD

(B fi D) b B

((B fi D) b B) fi D

w

w

w

w

w

w

f

f

f

w

f

w

w

f

w

f

f

w

f

w

In der letzten Spalte ist nun der Wahrheitswertverlauf des äußeren Konditionals und damit des Hauptjunktors des Schlusses abzulesen; dessen Verlauf ist entscheidend für die Bewertung der Gültigkeit des ganzen Schlusses. Finden sich in dieser Spalte ausschließlich ‚w‘-Einträge, ist die Formel bei beliebigen Verteilungen der Wahrheitswerte auf die Elementaraussagen wahr, sie – und damit auch der Schluss – ist (semantisch) gültig. Das heißt wohlgemerkt nicht, dass die Konklusion wahr sein muss, sondern nur, dass die Konklusion wahr ist, wenn die Prämissen wahr sind: Ist ein Schluss gültig, kann also von der Wahrheit der Prämissen direkt auf die Wahrheit der Konklusion geschlossen werden. Formeln (oder Aussagen), die bei beliebigen Wahrheitswertbelegungen der in ihr vorkommenden Elementaraussagen wahr sind, sind semantisch gültig; man nennt sie auch Tautologien. Der gewissermaßen gegenteilige Fall, wenn sich in einer Spalte nur ‚f‘-Einträge finden, die Aussage also unter allen Wahrheitswertbelegungen der Elementaraussagen falsch ist, wird als Kontradiktion bezeichnet. Finden sich sowohl ‚w‘ als auch ‚f‘ im Wahrheitswertverlauf einer Formel, wird diese kontingent genannt. Einige Autoren unterscheiden noch zwischen Erfüllbarkeit und Widerlegbarkeit: Eine Formel ist erfüllbar, wenn es mindestens eine Wahrheitswertverteilung gibt, unter der die Formel wahr wird, und widerlegbar, wenn es mindestens eine Wahrheitswertverteilung gibt, unter der die Formel falsch wird. Oft steht die Frage nach der Konsistenz (Widerspruchsfreiheit) im Raum: Kann ein gegebene Menge von Aussagen, zum Beispiel die Prämissen eines Arguments, überhaupt gleichzeitig wahr sein? Gerade bei Prämissen ist diese Frage von großer Wichtigkeit, denn aus inkonsistenten, also sich widersprechenden Prämissen kann tatsächlich Beliebiges, auch Falsches, gefolgert werden. Auch für den Nachweis der Konsistenz kann die Wahrheitstafel herangezogen werden. Dazu werden alle betreffenden Aussagen nebeneinander gestellt, jede für sich in eine Spalte, und ausgewertet, so dass sich ein Wahrheitswertverlauf für jede einzelne Aussage ergibt. Gibt es dann mindestens eine Zeile der Tabelle, in der sich im Wahrheitswertverlauf aller Aussagen ausschließlich ‚w‘-Einträge finden, ist die Aussagenmenge konsistent – es gibt eine Wahrheitswertbelegung der in ihr vorkommenden Elementaraussagen, bei der alle Aussagen wahr sind. Ist dies nicht der Fall, ist die Aussagenmenge inkonsistent.

spezielle Eigenschaften von Formeln

Konsistenz

23

24

2. Einführung in die logischen Grundlagen

Schlüssigkeit überprüfen: Ableitungen

Die bisher besprochene Wahrheitstabellen-Methode ist relativ aufwändig, aber vergleichsweise einfach. Zu ihrer Anwendung muss man nur einige einfache Regeln beherrschen, mehr oder weniger mechanisch eine Tabelle ausfüllen und diese schließlich auswerten. Wenn die Methode auch für kleinere Probleme recht nützlich ist, stößt man doch sehr schnell an ihre Grenzen: Eine Wahrheitstabelle mit 16 Zeilen ist schon unpraktisch, eine mit 128 Zeilen kaum noch sinnvoll zu bearbeiten. Diese große Zeilenzahl ist aber schon bei sieben Elementaraussagen nötig, denn es gibt immer 2n unterschiedliche Wahrheitswertverteilungen auf n Elementaraussagen – und damit entsprechend viele Zeilen einer vollständigen Wahrheitstabelle. Nichtsdestotrotz lässt sich prinzipiell die Gültigkeit aller solcher aussagenlogischer Schlüsse mittels dieser Methode bestimmen, so dass die ganze Aussagenlogik sich mit ihr – wenn auch eher theoretisch – betreiben ließe. Es gibt jedoch eine Alternative zu den Wahrheitstabellen: die Ableitungen, auch als syntaktische Methode bezeichnet. Bei den Ableitungen gilt es, von den Prämissen über gegebene Ableitungs- und Umformungsregeln zu der gewünschten Konklusion zu gelangen. Der große Vorteil der Ableitungen ist, dass sie auch für eine große Anzahl an Prämissen und Elementaraussagen effizient eingesetzt werden können; im Gegensatz zu den Wahrheitstabellen führt hier aber kein rein mechanisches Vorgehen zum Ziel, vielmehr muss man ein gewisses Gespür für die jeweils geeigneten Regeln und Lösungswege entwickeln. Ist ein Schluss gültig, folgt also dessen Konklusion aus seinen Prämissen, so sagt man auch, dass die Konklusion aus den Prämissen ableitbar ist.

2.2 Der Aussagenkalkül Spezifikation eines Kalküls

Ein Kalkül ist ein formales Regelsystem, mit welchem sich aus gegebenen Grundzeichen mittels gegebener Regeln komplexe Formeln erstellen und umformen lassen. Ein Kalkül muss wie folgt spezifiziert werden: 1. Die Grundzeichen des Kalküls müssen beschrieben werden. Dies kann in gewisser Weise als das ‚Alphabet‘ oder ‚Wörterbuch‘ des Kalküls betrachtet werden. 2. Die Formationsregeln des Kalküls legen fest, welche Kombinationen der Grundzeichen wohlgeformt und damit Formeln im Sinne des Kalküls sind. Die Anwendung der Formationsregeln auf wohlgeformte Formeln führt immer zu neuen wohlgeformten Formeln. Sie stellen in gewisser Weise die Grammatik des Kalküls dar: Was nicht auf Grundlage der Formationsregeln generiert werden kann, ist keine Formel. Intuitiv verstanden können die Formationsregeln alle Aussagen des Systems generieren, wahre und falsche. 3. Die Transformationsregeln (oder Ableitungsregeln) des Kalküls legen fest, wie aus gegebenen Formeln neue Formeln erzeugt bzw. abgeleitet werden können. Die hiermit erzeugbaren Formeln sind, intuitiv verstanden, die wahren Aussagen – die Transformationsregeln legen fest, wie ich aus gegebenen, wahren Aussagen weitere wahre Aussagen produzieren kann.

2.2 Der Aussagenkalkül

4. Die Axiome eines Kalküls schließlich sind optional; im Allgemeinen werden Kalküle mit Axiomen axiomatische Kalküle, solche ohne Axiome Regelkalküle genannt. Axiome sind wohlgeformte Formeln, die direkt verwendet werden dürfen, also ohne erst über die Transformationsregeln hergeleitet werden zu müssen. Intuitiv verstanden handelt es sich bei den Axiomen um einen Grundbestand an allgemeingültigen Aussagen. Dies wird weiter unten noch durch ein Beispiel verdeutlicht. Ein solcher Kalkül ist zunächst uninterpretiert und wie eine mehr oder weniger komplexe Anleitung zu verstehen, die vorgibt, welche Zeichen wie kombiniert werden dürfen. Gibt man bestimmten Zeichen des Kalküls dann eine Bedeutung, spricht man von einer Interpretation oder einem Modell des Kalküls. Auch die oben beschriebene Aussagenlogik kann kalkülisiert, das heißt in die strenge Form eines Kalküls übertragen werden: 1. Die Grundzeichen der Aussagenlogik sind die Zeichen für Elementaraussagen (hier: lateinische Kleinbuchstaben), die Zeichen für die Junktoren (siehe oben) und die Gliederungszeichen (Klammern). 2. Die Formationsregeln werden wie folgt rekursiv definiert: a) Jedes Zeichen für eine Elementaraussage ist eine Formel. b) Wenn F eine Formel ist, dann ist auch ~F eine Formel. c) Wenn F und G Formeln sind, dann sind auch F b G, F B G, F fi G und F « G Formeln. d) Wenn F eine Formel ist, dann ist auch (F) eine Formel. e) Keine anderen Zeichenketten sind Formeln 3. Die Transformationsregeln sind Regeln, nach denen aus bestimmten Formeln neue Formeln gebildet werden können. Die Transformationsregeln des Aussagenkalküls müssen so beschaffen sein, dass sie nur die Bildung solcher Formeln zulassen, die aus den vorhandenen Formeln tatsächlich aussagenlogisch folgen (intuitiv verstanden: die wahr sind). Hier seien einige Beispiele für Transformationsregeln der Aussagenlogik angegeben: a) Modus Ponendo Ponens: Aus dem Vorliegen einer Formel F fi G und einer Formel F darf man auf eine Formel G schließen (diese ableiten). b) Modus Tollendo Tollens: Aus dem Vorliegen einer Formel F fi G und einer Formel ~G darf man auf eine Formel ~F schließen (diese ableiten). c) Substitutionsregel: In einer Formel F darf ein Satzbuchstabe durch eine Formel ersetzt (substituiert) werden. Die Begründung hierfür ist, dass Satzbuchstaben lediglich Platzhalter für Aussagen sind. Bei der Substituierung ist auf zwei Dinge zu achten: Wenn ein Satzbuchstabe durch eine Formel ersetzt wird, muss er an jeder Stelle, an der er in F vorkommt, durch die gleiche Formel ersetzt werden. Außerdem dürfen nur Satzbuchstaben eingesetzt werden, die nicht schon in der ursprünglichen Formel (also der Formel F vor der Substitution) vorhanden waren. 4. Die Axiome in der Aussagenlogik sind Tautologien, die jederzeit in den Schlüssen verwendet werden dürfen. Die Wahl der Transformationsregeln und Axiome geht insofern Hand in Hand, als man die Axiome im-

Der Aussagenkalkül

25

26

2. Einführung in die logischen Grundlagen

mer auch in Transformationsregeln umwandeln könnte; insofern sind diese Bereiche nicht unabhängig voneinander. Als Beispiel seien hier die Axiome des Aussagenkalküls der Principia Mathematica (Whitehead/ Russell (1910–13)) von Bertrand Russell und Alfred North Whitehead (1861–1947) angegeben, die dort nur durch den Modus Ponendo Ponens und die Substitutionsregel als Transformationsregeln ergänzt werden: a) P B P fi P b) Q fi P B Q c) P B Q fi Q B P (Wie sich später herausgestellt hat, kann dieses Axiom aus den anderen abgeleitet werden; es ist damit redundant.) d) P B (Q B R) fi Q B (P B R) e) (Q fi R) fi (P B Q fi P B R) konkrete Ausgestaltung

Ableitbarkeit

Konsistenz und Vollständigkeit

Es gibt einen extrem großen Spielraum, was die eigentliche Wahl der Transformationsregeln und Axiome angeht: Im Kalkül legt man fest, was überhaupt sinnvolle Aussagen im Rahmen des Kalküls sind und mit welchen Methoden und auf welcher Grundlage mit diesen Aussagen verfahren werden kann, um Beweise zu führen usw. Einerseits möchte man sich dabei möglichst wenig Einschränkungen unterwerfen, andererseits aber auch nicht in einer unüberschaubaren Masse von Möglichkeiten die Übersicht verlieren. Man kann das Aufstellen eines Kalküls mit dem Zusammenstellen eines guten Werkzeugkoffers vergleichen: Auch wenn man mit dem Schweizer Taschenmesser theoretisch alle anfallenden Arbeiten erledigen kann (vielleicht auch, indem man sich damit zunächst weiteres Werkzeug baut), möchte man doch lieber gleich mit etwas mehr Werkzeug loslegen. Andererseits will man auch nicht achtundzwanzig Varianten eines bestimmten Maulschlüssels in seinem Gepäck haben, weil man so schnell die Übersicht verliert. Gilt es nun, einen Schluss auf seine Gültigkeit hin zu untersuchen, formalisiert man die gegebenen umgangssprachlichen Aussagen (überträgt sie also unter Berücksichtigung von (1) und (2) in die Sprache des Kalküls) und versucht, mittels der Transformationsregeln (3) und gegebenenfalls der Axiome (4) die formalisierten Prämissen nach und nach so umzuformen, dass das Ergebnis der formalisierten Konklusion des Schlusses entspricht; man sagt auch: die Konklusion aus den Prämissen abzuleiten. Gelingt dies, ist der Nachweis erbracht, dass es sich um einen gültigen Schluss handelt. Kalküle können verschiedene Eigenschaften aufweisen, von denen die folgenden zwei die wichtigsten sind: 1. Ein Kalkül kann konsistent (widerspruchsfrei) sein. Dies ist der Fall, wenn sich im Rahmen des Kalküls nicht sowohl eine Formel F und ihre Negation ~F ableiten lassen. 2. Ein Kalkül kann vollständig sein. Dies ist der Fall, wenn sich im Rahmen des Kalküls alle wahren Formeln ableiten lassen. Es lässt sich zeigen, dass der Aussagenkalkül sowohl vollständig als auch konsistent ist.

2.3 Prädikatenlogik

2.3 Prädikatenlogik Was ist aber mit einem Argument wie diesem: P1: Alle Dozenten lieben Bayerisch Creme. P2: Johann ist ein Dozent. K: Johann liebt Bayerisch Creme. Das Argument scheint völlig plausibel zu sein, aber mit den Methoden der Aussagenlogik lässt sich die Konklusion nicht aus den Prämissen ableiten, die Gültigkeit des Schlusses nicht zeigen. (Eine aussagenlogische Formalisierung sähe so aus: A, B; also C.) In vielen Fällen ist das Raster der Aussagenlogik für eine angemessene Formalisierung zu grob. Es sind Zusammenhänge zwischen Aussagen deutlich zu erkennen und zu beschreiben, für welche die Ausdrucksmöglichkeiten der Aussagenlogik aber nicht ausreichen. Hier kommt dann die Prädikatenlogik ins Spiel, die auch die innere Struktur von Aussagen einer Analyse zugänglich macht. Die Prädikatenlogik baut auf die Aussagenlogik auf, viele der im letzten Abschnitt diskutierten Begriffe und Methoden haben entsprechend auch in der Prädikatenlogik ihren Platz. In der Aussagenlogik wurden (Elementar-)Aussagen als Einheiten betrachtet. In der Prädikatenlogik geht man einen Schritt weiter, indem man die Elementaraussagen als kleinste Einheiten der Aussagenlogik auch noch weiter zergliedert. Dabei ist es möglich, den Inhalt dieser Elementaraussagen so aufzufassen, dass – in einem weiten Sinne verstanden – bestimmten Gegenständen Eigenschaften zu- oder abgesprochen werden. Das kann man an dem Beispielargument oben verdeutlichen. Die zweite Prämisse, „Johann ist ein Dozent“, sagt über einen Gegenstand – Johann – aus, dass diesem die Eigenschaft zukommt, ein Dozent zu sein. In der Prädikatenlogik stehen kleine lateinische Buchstaben für Gegenstände (Terme). Eigenschaften, die Gegenständen zukommen können (z. B. „… ist rot“, „… ist eine Primzahl“) und Relationen, die zwischen zwei oder mehr Gegenständen bestehen können (z. B. „… ist größer als …“, „… ist der Bruder von …“, „… liegt zwischen … und …“), werden durch große lateinische Buchstaben symbolisiert. Dies sind die Prädikate, daher auch der Ausdruck Prädikatenlogik. Den Beispielsatz kann man entsprechend formalisieren als Dj – die Eigenschaft, Dozent zu sein (D), kommt Johann (j) zu. j ist hier ein Term, in diesem Fall eine Individuenkonstante, denn j steht konstant für das Individuum Johann, D ist ein Prädikat. Ähnlich sieht es mit der Konklusion aus. Dort kommt ebenfalls Johann als Gegenstand vor, der entsprechend wieder mit j formalisiert wird. Die ihm zugesprochene Eigenschaft ist jedoch eine andere: Bayerisch Creme zu lieben ist ebenfalls eine Eigenschaft, die hier mit B formalisiert werden soll. Entsprechend ergibt sich für die Konklusion die Formalisierung Bj. In der ersten Prämisse ist nun von keinem bestimmten Gegenstand die Rede, es kommt weder Johann noch ein anderes Individuum vor, dafür aber die beiden schon angesprochenen Eigenschaften, die augenscheinlich in eine bestimmte Verbindung gesetzt werden. „Alle Dozenten lieben Bayerisch Creme“ besagt aber nicht, dass das Lieben von Bayerisch Creme den

Terme, Prädikate

Quantoren

27

28

2. Einführung in die logischen Grundlagen

Dozenten zukommt, sondern dass jeder einzelne Gegenstand, der die Eigenschaft D hat, auch die Eigenschaft B hat. Entsprechend wird in diesem Satz keine Aussage über einen bestimmten oder unbestimmten Gegenstand gemacht, sondern über alle Gegenstände. Auf formaler Ebene setzt man dafür den Allquantor ein: (x)(Dx fi Bx) „Für alle x gilt: Wenn x ein Dozent ist, dann liebt x Bayerisch Creme.“ Das ‚x‘ ist eine (Individuen-)Variable. Wie in der Mathematik steht es für einen unbestimmten Gegenstand. Analog dazu gibt es einen zweiten Quantor, den Existenzquantor. Dieser wird gelesen als „Es gibt mindestens ein x, so dass …“: (Ax)(Dx b Bx) Diese Aussage besagt, dass es mindestens einen Dozenten gibt, der Bayerisch Creme liebt: „Es gibt mindestens ein x, für das gilt: x ist Dozent und x liebt Bayerisch Creme.“ All- und Existenzaussagen dieser Art lassen sich, ähnlich wie die Junktoren, ineinander überführen. Wenn etwas für alle gilt, dann gibt es keines, für das es nicht gilt: (x)(…) genau dann, wenn ~(Ax)~(…) oder, als Beispiel, (x)(Dx fi Bx) genau dann, wenn ~(Ax)~(Dx fi Bx). Analog gilt: Wenn etwas für einige gilt, dann gilt es nicht für nicht alle: (Ax)(…) genau dann, wenn ~(x)~(…) Aussagen können auch mehrere Quantoren enthalten. So könnte man den Satz „Jeder kennt jemanden (symbolisiert als zweistellige Relation K), der Bayerisch Creme liebt“ beispielsweise so formalisieren: (x)(Ey)(Kxy b By) Die Reihenfolge der Quantoren spielt hier eine wichtige Rolle. Eine völlig andere Aussage würde sich ergeben, wenn die Reihenfolge der Quantoren vertauscht wäre: (Ey)(x)(Kxy b By)

Skopus

Dies müsste man entsprechend als die Aussage auffassen, dass es eine Person gibt, die alle Leute kennen, und dass diese Person Bayerisch Creme liebt. In diesen Beispielen erstreckte sich der durch die Klammerung festgelegte Gültigkeitsbereich (Skopus) der Quantoren immer auf den ganzen Rest der Formel; das muss aber nicht immer so sein: (x)(Px fi Wx) b Py b Zx Hier bindet der Allquantor die ersten beiden Vorkommen von ‚x‘ in dem auf den Quantor folgenden Formelteil; dies ist der Gültigkeitsbereich des Quan-

2.4 Axiomatisierung

tors. Diese Vorkommen von Variablen nennt man auch (durch den Quantor) gebundene Vorkommen; die Variablen liegen im Skopus des Allquantors. Das ‚y‘ hingegen wird durch keinen Quantor gebunden, auch das letzte ‚x‘ nicht; dies sind freie Vorkommen der Variablen. Formeln, in denen freie Variablen vorkommen, nennt man Aussageformen, solche ohne freie Variablen Aussagen. Aussagen haben einen Wahrheitswert, sind wahr oder falsch, Aussageformen hingegen nicht. Die in ihnen vorkommenden freien Variablen müssen erst durch Konstanten ersetzt oder aber durch Quantoren gebunden werden, um sie zu Aussagen zu machen. Auch die Prädikatenlogik kann – wie die Aussagenlogik oben – kalkülisiert werden, wobei lediglich gewisse Ergänzungen zum Kalkül der Aussagenlogik vorgenommen werden müssen. So müssen die Grundzeichen um die Symbole für die Quantoren, Terme und Prädikate erweitert und die Formationsregeln so modifiziert werden, dass sie die Quantoren berücksichtigen. Im Bereich der Transformationsregeln sind die Anpassungen umfangreicher, da hier die Einführung und die Beseitigung der Quantoren mit den damit einhergehenden Restriktionen ergänzt werden müssen. Die Möglichkeit der wechselseitigen Überführung der Quantoren ineinander kann entweder auf der Ebene der Transformationsregeln oder auf der Ebene der Axiome erfolgen. Oben wurde angemerkt, dass der Aussagenkalkül konsistent und vollständig ist. Dies ist auch bei der hier angerissenen Prädikatenlogik erster Stufe der Fall. Kurt Gödel (1906–1978) hat in seinem Aufsatz „Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I“ (Gödel (1931)) gezeigt, dass Kalküle ab einer gewissen Komplexitätsstufe nicht mehr sowohl konsistent als auch vollständig sein können; dies ist sein so genannter Unvollständigkeitssatz. Praktisch heißt das, dass es in hinreichend komplexen Kalkülen, die konsistent sind, immer auch wahre Sätze gibt, die sich im Kalkül nicht ableiten lassen. Davon sind auch leistungsfähigere Prädikatenlogiken betroffen.

2.4 Axiomatisierung Durch die Kalkülisierung sind die Sprachen der Aussagen- und der Prädikatenlogik bereits auf einer formalen Ebene definiert. Oft ist es sinnvoll, derartige formale Sprachen auf den minimalen Grundstock zu reduzieren, aus dem sie noch hergeleitet werden können. Um die Metapher des Werkzeugkoffers wieder aufzugreifen: Bei der Axiomatisierung geht es darum, die kleinste Menge an Werkzeug zusammenzustellen, mit der die entsprechenden Aufgaben noch erledigt werden können. Kein Werkzeug sollte dabei doppelt vorhanden oder anderweitig verzichtbar sein. Wie bei der Kalkülisierung allgemein führt auch dies nicht zu einem eindeutigen Ergebnis: Auch wenn sicher ist, dass man einen Hammer braucht, kann man sich durchaus für unterschiedliche Varianten dieses Werkzeugs entscheiden. Entsprechend ist es auch beliebig, ob man beispielsweise das Gesetz vom ausgeschlossenen Dritten (A B ~A) oder das dazu äquivalente Gesetz vom zu vermeidenden Widerspruch (~(A b ~A)) als Axiom in das System aufnimmt

29

30

2. Einführung in die logischen Grundlagen

oder für welche (minimale) Junktorenbasis man sich entscheidet – die resultierenden Systeme würden sich weder in ihrer Leistungsfähigkeit noch in ihrem Umfang unterscheiden. Wozu kann eine solche Axiomatisierung überhaupt dienen? Ein Vorteil ist, dass man die Voraussetzungen der Sprache klärt – man sieht beispielsweise, dass man nicht fünf Junktoren benötigt, sondern dass man (wie oben angesprochen) mittels eines einzigen Junktors alle anderen Verknüpfungen ‚herstellen‘ kann. Auch wird deutlich, dass man nicht eine Vielzahl von Transformationsregeln benötigt, sondern dass eine bzw. zwei davon ausreichen; ähnlich sieht man, dass viele der zunächst vorausgesetzten Axiome logisch abhängig sind, es also Redundanzen gibt, die sich vermeiden lassen. Hat man seinen Kalkül so überarbeitet und reduziert, können auch bestimmte, den Kalkül betreffende Beweise deutlich einfacher geführt werden.

2.5 Ausblick, Lektürehinweise, Fragen und Übungen Ausblick

weitere Logiken

Der oben beschriebenen ‚klassischen Logik‘ liegen zwei Prinzipien zu Grunde: Das Bivalenzprinzip (Zweiwertigkeitsprinzip), das besagt, dass jede Aussage genau einen von zwei Wahrheitswerten (wahr oder falsch) hat, und das Extensionalitätsprinzip, das in diesem Zusammenhang besagt, dass der Wahrheitswert einer komplexen Aussage sich eindeutig aus ihren Elementaraussagen sowie der Struktur und Art der Verknüpfung durch die Junktoren ergibt. Es gibt alternative Logiken, die diese Prinzipien aufgeben. Einige sinnvolle Sätze scheinen weder wahr noch falsch zu sein: Hier kommen mehrwertige Logiken ins Spiel, die auf das Bivalenzprinzip verzichten und mit einem dritten Wahrheitswert (‚unbestimmt‘) oder auch vielen oder gar unendlich vielen Abstufungen zwischen wahr und falsch arbeiten (zum Beispiel Fuzzy-Logic). Gerade in Zusammenhang mit vagen Prädikaten und einigen Paradoxien kann ein Verzicht auf das Bivalenzprinzip hilfreich sein. Andererseits kann auch das Extensionalitätsprinzip aufgegeben werden, wie es beispielsweise für die Modallogik nötig ist. Die Modallogik arbeitet mit zwei zusätzlichen Operatoren, ‚es ist notwendig, dass …‘ (N, !) und ‚es ist möglich, dass …‘ (M, 7). Der Wahrheitswert von Aussagen, die mittels solcher Operatoren gebildet werden, zum Beispiel „Es ist möglich, dass p“ (7p) ergibt sich aber nicht aus dem Wahrheitswert von p und der Bedeutung des Operators – hier ist also offensichtlich das Extensionalitätsprinzip verletzt. Es gibt eine Vielzahl unterschiedlicher modallogischer Systeme, die sich durch ihre Axiome unterscheiden und in denen entsprechend unterschiedliche Aussagen, Theoreme, ableitbar sind. In der Philosophie werden auch unterschiedlichste Paradoxien behandelt, die zu Widersprüchen führen. Es gibt nun viele Möglichkeiten, mit derartigen Paradoxien umzugehen; oft sind recht komplexe Anpassungen der Logik nötig, um die Paradoxien bzw. die aus ihnen resultierenden Widersprüche zu vermeiden. Lässt man Widersprüche in der Logik zu, kann man aus ihnen – wie sich oben bei der Definition des Konditionals gezeigt hat – Beliebiges folgern. Parakonsistente Logiken heben diesen Grundsatz auf: Sie lassen Widersprüche in ganz bestimmten Bereichen zu, vermeiden aber auf unterschiedliche Weise, dass aus diesen Widersprüchen beliebige Schlussfolgerungen gezogen werden können. Die Dialetheisten vertreten sogar die Auffassung, dass es wahre Widersprüche gibt – eine Position, die längst nicht von allen Verfechtern parakonsistenter Logiken geteilt wird.

2.5 Ausblick, Lektürehinweise, Fragen und Übungen Logik ist auch für Bereiche der Philosophie interessant, die man zunächst nicht unbedingt mit ihr in Verbindung bringen würde. So gibt es beispielsweise die Deontische Logik (Normenlogik), mit der ethische Fragestellungen bearbeitet werden können. Abschließend muss noch gesagt werden, dass die verschiedenen hier angerissenen Logiken – wie auch die vielen hier nicht angesprochenen Logiken – in keinem direkten Konkurrenzverhältnis zueinander stehen: Die Wahl der einen oder anderen Logik erfolgt eher nach pragmatischen Prinzipien und richtet sich nach dem Anwendungsbereich, den es entsprechend zu bearbeiten gilt. Man kann sehr wohl darüber diskutieren, ob zur Lösung eines bestimmten Problems die eine oder andere Logik geeigneter ist: Ob ein bestimmtes Problem beispielsweise einer Lösung im Rahmen der Prädikatenlogik bedarf oder auch mit aussagenlogischen Mitteln angegangen werden kann oder auch welche Modallogik man wählt; es ist aber keine Frage, ob das eine oder andere System nun ‚wahr‘ ist oder nicht.

Lektürehinweise Eine sehr knappe Logik-Einführung, die sich auch gut für das Selbststudium eignet, ist Zoglauer (2005). Deutlich ausführlicher ist die Einführung von Beckermann (2003). Eine hervorragende Einführung in nicht-klassische Logiken ist Priest (2001). Einen sehr interessanten Blick auf die vielfältigen Anwendungsbereiche der Logik in der Philosophie bieten Spohn u. a. (2005).

Fragen und Übungen 1. Ist folgende Formel tautologisch, kontradiktorisch oder kontingent? Begründen Sie! (((A b B) B C) b ~C ) fi A 2. Weshalb kann aus inkonsistenten Prämissen Beliebiges geschlossen werden? 3. In welchem Verhältnis stehen das Gesetz vom zu vermeidenden Widerspruch und das Gesetz vom ausgeschlossenen Dritten zueinander? 4. Geben Sie zwei Interpretation für die Formel Rab b Rbc fi Rac an: eine, bei der die Implikation wahr ist, und eine, bei der sie falsch ist. 5. Ist es logisch gerechtfertigt zu behaupten: „Der Mörder war am Tatort. Sie waren am Tatort. Also sind Sie der Mörder.“?

31

3. Philosophie der Idealen Sprache Die Alltagssprache hat unbestreitbar ihre Vorteile. Sie ermöglicht es uns, sehr effizient verbal und auch schriftlich mit unseren Mitmenschen zu kommunizieren. Sie ist überaus anpassungsfähig – werden für neue Konzepte neue Begriffe benötigt, bilden sie sich heraus (‚simsen‘). Nicht länger benötigte oder unpraktische Begriffe sterben langsam aus (‚blümerant‘, ‚Phlogiston‘). Sprache in diesem Sinne ist ein höchst komplexes Phänomen und in ihrem Wandel weitgehend durch unsere menschliche Praxis bestimmt – dieser Gedanke wird im nächsten Kapitel, in dem die Philosophie der Normalen Sprache im Vordergrund stehen wird, noch weiter vertieft werden. Einige der Aspekte, die die normale Sprache im Alltag so überaus nützlich machen, können sich in anderen Kontexten aber auch als problematisch erweisen. Dazu ein Beispiel: K: Ich treffe Klaus bei der Bank und gebe ihm eine große Menge Bargeld. Dieser Satz ist in mindestens zweierlei Hinsicht problematisch. Einmal ist das Wort ‚Bank‘ ambig (mehrdeutig). Es könnte sowohl die Bank im Park gemeint sein (bei der man sich gemeinhin trifft, um dunkle Geldgeschäfte abzuwickeln) wie auch das Geldinstitut (bei dem ich das Geld abgehoben habe, das ich Klaus noch schulde). Weiterhin ist der Ausdruck ‚große Menge‘ vage, er hat keine scharfen Grenzen: Ob mit ‚große Menge‘ nun 50 e gemeint sind oder 50.000 e, ist zunächst völlig unklar. Ambiguitäten und Vagheiten sind nur zwei von vielen Faktoren, die für unsere Alltagssprache relativ unproblematisch oder gar nützlich sind, die aber beispielsweise in wissenschaftlichen Kontexten Schwierigkeiten bereiten können. So eliminieren beispielsweise die zahlreichen Termini technici der medizinischen Sprache jede Vagheit oder Ambiguität – man möchte ja auch wirklich nicht, dass sich Operateur und Assistent im OP nicht einig sind, um welches Organ es gerade geht. Der Gedanke, sich für bestimmte Aufgaben künstlicher idealer Sprachen zu bedienen, die diese Defizite nicht aufweisen, ist alles andere als neu. Jeder von uns hat schon in der Schule eine solche Sprache kennengelernt: im Mathematikunterricht. Die ‚Sprache der Mathematik‘ nutzt man nicht in der gewöhnlichen Kommunikation, sondern man bedient sich ihrer, weil sie gegenüber der normalen Sprache für einen bestimmten Bereich besondere Vorteile bietet. Sie ist knapp, präzise und in ihrem Einsatzgebiet sehr leistungsfähig. Ähnliche Sprachen findet man auch in anderen wissenschaftlichen Disziplinen, gerade wenn der betreffende Arbeitsbereich eher technischer Natur ist und es auf Präzision ankommt. Entsprechend ist es auch wenig verwunderlich, dass die wichtigsten Vertreter der idealsprachlichen Philosophie ausnahmslos einen mathematischen oder naturwissenschaftlichen Hintergrund haben. Schon bei Gottfried Wilhelm Leibniz (1646–1716) findet sich die Idee, diesen idealsprachlichen Ansatz auf größere Gebiete auszudehnen und so eine

3.1 Was heißt ‚Bedeutung‘? Frege und Carnap

Universalsprache zu kreieren, eine characteristica universalis, die die enormen Vorteile der präzisen Sprache für die Mathematik, die Wissenschaft und auch die Metaphysik fruchtbar machen sollte. Theoretisch könnte man, so seine Hoffnung, auf diesem Weg verlässliche Beweise für Aussagen aus all diesen Bereichen finden. Eine konkrete Ausarbeitung einer solchen Sprache legte Leibniz indes nicht vor. Diese characteristica universalis sollte mit einem calculus ratiocinator verbunden sein, der es gestattet, den Wahrheitswert von Aussagen der characteristica universalis mechanisch ‚auszurechnen‘. Dieser generelle Ansatz, wenn auch mit einem deutlich geringeren Anspruch, findet sich dann in der Frühphase der Analytischen Philosophie bei Frege wieder; der Untertitel seiner Begriffsschrift (1879) lautet: „Eine der arithmetischen nachgebildete Formelsprache des reinen Denkens“. Frege, von Haus aus Mathematiker, beschäftigte sich mit Grundlagenfragen der Mathematik. Er war der Überzeugung, dass die Mathematik vollständig auf die Logik zurückgeführt werden kann, sie also nicht mehr ist als ein sehr umfangreiches und komplexes logisches System analytischer Aussagen. Diese Auffassung, ‚Logizismus‘ genannt, war in der Philosophie der Mathematik sehr einflussreich und war Ausgangspunkt vieler philosophischer Entwicklungen. So können die meisten der von Frege und von Russell (der ihm in dieser Überzeugung folgte) ausgehenden Impulse der Frühphase der Analytischen Philosophie als Seiteneffekte ihrer Forschung über den Logizismus betrachtet werden. In gewisser Hinsicht kann die Logik seit ihrer Reform durch Frege und Russell als eine solche Universalsprache verstanden werden – eine formale Sprache, mit der aus gegebenen Aussagen mittels fester Regeln weitere Aussagen abgeleitet werden können. Eine weitere Blüte erfuhr diese Idee der Universalsprache dann im Wiener Kreis; darauf wird im Kapitel 7 noch genauer eingegangen werden. Die größte Schwierigkeit bei den idealen Sprachen besteht darin, die Sachverhalte der zu untersuchenden Bereiche in angemessener Weise in das Sprachsystem zu übertragen, den Zusammenhang von Sprache und Welt zu etablieren. Auch innerhalb der Philosophie der Idealen Sprache gibt es dazu sehr unterschiedliche Auffassungen. Zunächst werden die sprachphilosophischen Überlegungen von Gottlob Frege und, darauf aufbauend, von Rudolf Carnap vorgestellt. Diese sind auch für die aktuelle Diskussion in der Sprachphilosophie und der Semantik noch von großer Relevanz. Die Theorien zweier weiterer wichtiger Vertreter der Philosophie der Idealen Sprache, Bertrand Russell und des frühen Ludwig Wittgenstein, werden danach in etwas kürzerer Form präsentiert. Als ein wichtiges Beispiel für eine typische Diskussion in der Sprachphilosophie wird schließlich die Debatte um den sprachphilosophischen Status von Kennzeichnungen genauer betrachtet.

3.1 Was heißt ‚Bedeutung‘? Frege und Carnap In der Sprachphilosophie geht es in erster Linie um die Bedeutung sprachlicher Ausdrücke. Dies ist der eigentliche Dreh- und Angelpunkt der vielfälti-

33

34

3. Philosophie der Idealen Sprache

Bedeutungsträger

gen Richtungen und Theorien, die unter dem Begriff ‚Sprachphilosophie‘ zusammengefasst werden. Was aber ist ‚Bedeutung‘? Zunächst kann man sich dem Problem nähern, indem man untersucht, welche sprachlichen Einheiten eigentlich Bedeutung haben, Bedeutungsträger sind. Auf diese Frage wurden in der Philosophiegeschichte unterschiedliche Antworten gegeben: Je nach Periode und Autor sind die prominenten Antworten hier Wörter, Sätze oder die Sprache als Ganzes. Diese unterschiedlichen sprachlichen Einheiten sollen nun in einem bestimmten Verhältnis zur Welt stehen, wobei die Welt als etwas Objektives, vom Verstand Unabhängiges betrachtet wird. – Dies ist alles andere als selbstverständlich: In der Philosophiegeschichte war lange Zeit die Ansicht vorherrschend, das die Tatsachen erst durch unser Denken hervorgebracht werden. Die meisten Philosophen der Idealen Sprache zeichnet aus, dass sie diese Auffassung, also dass die Welt vom Erkennen abhängig ist, ablehnen und von der Existenz einer objektiven, realen Außenwelt ausgehen. Was spricht nun für und gegen die unterschiedlichen Auffassungen hinsichtlich der Bedeutungsträger? 1. Wörter als Bedeutungsträger. Einige Wörter scheinen eine klare Bedeutung zu haben; in der Geschichte wurden oft Eigennamen als in dieser Hinsicht vergleichsweise unproblematische Ausdrücke betrachtet. Der Name ‚Barack Obama‘ steht für die Person Barack Obama, da scheint es nicht viel Diskussionsbedarf zu geben. Man könnte nun zunächst annehmen, dass eigentlich alle Wörter auf diese Weise funktionieren, und so ein einheitliches und erfreuliches einfaches Bedeutungskonzept vertreten. Der frühe Russell hat in seinen Principles of Mathematics (1903) eine ähnliche Auffassung verteidigt, sich aber wegen verschiedener Probleme schnell zugunsten der folgenden Auffassung – Sätze als (primäre) Bedeutungsträger – von ihr distanziert. 2. Sätze als Bedeutungsträger. Diese Auffassung ist in der idealsprachlichen Philosophie die wohl verbreitetste: Wörter haben zwar oft eine Bedeutung, aber welche Bedeutung sie im Einzelfall haben, hängt von ihrem Kontext ab. Dieser Kontext wird gebildet durch den Zusammenhang ihrer Verwendung im Satz. Die Wortbedeutung kann also nur durch die Satzbedeutung erschlossen werden, der Satz ist damit der primäre Bedeutungsträger. Die Hintergründe dafür werden im weiteren Verlauf dieses Kapitels noch deutlich werden. 3. Die Sprache als Ganzes als Bedeutungsträger. Einige der Philosophie der Idealen Sprache zuzurechnende Autoren – zu nennen sind hier Otto Neurath und Willard Van Orman Quine – waren der Auffassung, dass auch dieser Sprung auf die Satzebene noch nicht ausreicht, um das Phänomen Bedeutung angemessen beschreiben zu können. Sie sagen, dass die Sprache als Ganzes mit allen ihren internen Verflechtungen den Kontext bildet, den man betrachten muss; nur diese vollständige Struktur kann auf ihre Übereinstimmung mit der Welt hin untersucht werden. Dem liegt jedoch zumindest partiell eine eher normalsprachliche Auffassung von Sprache als gesprochenes, kulturelles Phänomen zugrunde. Diese Idee wird im nächsten Kapitel zur Philosophie der Normalen Spra-

3.1 Was heißt ‚Bedeutung‘? Frege und Carnap

che aufgegriffen und soll für die weitere Diskussion in diesem Kapitel keine Rolle mehr spielen. Will man nun untersuchen, was Bedeutung eigentlich ist, muss man wieder nach den Bedeutungsträgern unterscheiden: Unabhängig davon, was Bedeutung nun genau ist, scheint die Bedeutung des Namens ‚Barack Obama‘ eine ganz andere zu sein als die des Prädikats ‚… ist rot‘ und die des Aussagesatzes „Heute gibt es Bayerisch Creme in der Mensa“. Frege hat sich dieses Problems intensiv und systematisch angenommen. Da seine Theorien wegweisend für die spätere Diskussion waren, werden sie hier etwas ausführlicher vorgestellt.

3.1.1 Frege Ein Name hat – sollte man zunächst glauben – eine genau angebbare Bedeutung, nämlich das durch ihn herausgegriffene oder denotierte Objekt, seine Referenz. Die Bedeutung von ‚Barack Obama‘ ist Barack Obama, die von ‚Fidel Castro‘ ist Fidel Castro, die von ‚London‘ ist London und so weiter. So weit, so gut. Vor diesem Hintergrund ist es wenig überraschend, dass ein Satz wie der folgende keinen Erkenntnisgewinn bringen kann: S1: Mark Twain ist Mark Twain. Niemand wird durch S1 etwas lernen. Demgegenüber gibt es aber auch informative Identitätsaussagen wie: S2: Samuel Clemens ist Mark Twain. Die Struktur von S2 entspricht genau der Struktur von S1, nur haben wir es hier mit zwei unterschiedlichen Namen zu tun, die aber für denselben Referenten stehen. Wer nicht weiß, dass ‚Samuel Clemens‘ der bürgerliche Name des Schriftstellers Mark Twain ist, kann hieraus etwas lernen; offenbar ist dieser Satz informativ in einer Weise, wie sie der erste Satz nicht ist; S1 und S2 unterscheiden sich in ihrem Erkenntniswert. Wenn die Bedeutung der Ausdrücke auf beiden Seiten von ‚ist‘ aber in beiden Sätzen identisch ist, wie kann es dann sein, dass der eine Satz informativ ist, der andere aber nicht? Freges Lösung war, eine zweite Bedeutungsebene einzuführen und zwischen SinnF und BedeutungF sprachlicher Ausdrücke zu unterscheiden (Freges Verwendung dieser Ausdrücke ist idiosynkratisch; um Missverständnissen vorzubeugen, werden die Ausdrücke, wenn sie im Sinne Freges verwendet werden, in diesem Kapitel mit einem ‚F‘ als Index versehen): Es liegt nun nahe, mit einem Zeichen (Namen, Wortverbindung, Schriftzeichen) außer dem Bezeichneten, was die Bedeutung des Zeichens heißen möge, noch das verbunden zu denken, was ich den Sinn des Zeichens nennen möchte, worin die Art des Gegebenseins enthalten ist. (Frege (1892, S. 26)) Im Falle der hier diskutierten Namen ist die BedeutungF der Referent – genau so, wie es im vorigen Absatz dargestellt wurde. Für den Unterschied

Frege: Sinn und Bedeutung

35

36

3. Philosophie der Idealen Sprache

hinsichtlich der Informativität zeichnet Freges zweite Bedeutungsebene verantwortlich, der SinnF. Der SinnF eines sprachlichen Ausdrucks ist, wie Frege es nennt, seine ‚Art des Gegebenseins‘. Im letzten Beispielsatz könnte man davon sprechen, dass die beiden Namen ‚Mark Twain‘ und ‚Samuel Clemens‘ auf unterschiedliche Art für ihren gemeinsamen Referenten, für ihre BedeutungF stehen; im ersten Fall für die Person als Schriftsteller, im zweiten Fall für die Person ohne spezielle Attribute. Noch deutlicher wird der Unterschied bei Freges klassischem Beispielsatz: S3: Der Morgenstern ist der Abendstern.

Kompositionalitätsprinzip

Die beiden Namen ‚Morgenstern‘ und ‚Abendstern‘ stehen auch hier für denselben Referenten, den Planeten Venus; ihre BedeutungF ist also identisch. Die Informativität dieses Satzes kommt wieder durch die SinnFverschiedenheit der beiden Namen zu Stande, denn ‚der Morgenstern‘ greift die Venus als den Planeten, der als letzter am Morgenhimmel zu sehen ist, heraus; ‚der Abendstern‘ hingegen als den Planeten, der als erster am Abendhimmel zu sehen ist. Dass diese beiden unterschiedlichen Arten des Gegebenseins nun auf einen einzigen Referenten zutreffen, ist alles andere als selbstverständlich. Bei informativen Identitätssätzen haben wir es dementsprechend mit einer SinnFverschiedenheit bei BedeutungsFgleichheit zu tun. Schon in den letzten Beispielen wurden die Namen immer in einem Kontext betrachtet, als Bestandteile von Sätzen. Bevor nun auf die Sätze näher eingegangen wird, muss eine weitere Art von Satzbestandteilen untersucht werden: die Begriffswörter. SinnF und BedeutungF müssen nach Frege auch bei Begriffswörtern – oder Prädikaten, wie man heute sagen würde – unterschieden werden. Die BedeutungF eines Begriffswortes ist der durch es bezeichnete Begriff, also die Eigenschaft. (Dies ist eine etwas vereinfachte Darstellung. Frege entwickelt seine Gedanken hier von der Mathematik ausgehend und identifiziert Begriffswörter mit Funktionen, was zu einem rein extensional verstandenen Eigenschaftsbegriff führt.) Dazu hat ein Begriff einen Begriffsumfang: die Menge der Gegenstände, denen die Eigenschaft zukommt. Der Begriffsumfang ist aber weder SinnF noch BedeutungF des Begriffswortes. Der SinnF des Begriffswortes ist wieder die ‚Art des Gegebenseins‘, in diesem Fall der Eigenschaft, wobei Frege sich leider wenig dazu äußert, was man sich im Falle der Begriffswörter darunter vorzustellen hat. Sätze scheinen für unsere Kommunikation grundlegendere Bedeutungsträger als Eigennamen oder Begriffsausdrücke zu sein. Was ist aber die Bedeutung eines Satzes? (Frege unterscheidet noch zwischen gewöhnlicher, gerader und ungerader Rede, wobei hier nur der ‚Standardfall‘, die gewöhnliche Rede, besprochen werden soll.) Laut Frege drückt ein Aussagesatz den mit ihm ausgedrückten Gedanken aus. Nun ist es naheliegend, auch bei Aussagesätzen SinnF und BedeutungF zu unterscheiden. Ist der Gedanke nun aber der SinnF oder die BedeutungF eines Aussagesatzes? Das Kompositionalitätsprinzip (auch Frege-Prinzip genannt) besagt, dass sich SinnF und BedeutungF eines komplexen Ausdrucks – zum Beispiel eines

3.1 Was heißt ‚Bedeutung‘? Frege und Carnap

Satzes – ausschließlich aus den SinnenF und BedeutungenF der Teilausdrücke sowie der Art ihrer Zusammensetzung ergeben. Entsprechend darf sich die BedeutungF eines komplexen Ausdrucks auch nicht ändern, wenn ein Teil des Ausdrucks durch einen bedeutungsFgleichen Teil ersetzt wird – insofern ähnelt Freges Kompositionalitätsprinzip dem in Kapitel 2 angesprochenen Extensionalitätsprinzip: S4: Mark Twain wurde 1835 geboren. S5: Samuel Clemens wurde 1835 geboren. Die Sätze S4 und S5 müssten also dem Kompositionalitätsprinzip nach bedeutungsFgleich sein, da die beiden Teilausdrücke ‚Mark Twain‘ und ‚Samuel Clemens‘ denselben Referenten und damit dieselbe BedeutungF haben. Die beiden Sätze unterscheiden sich aber, was den durch sie ausgedrückten Gedanken angeht: Wenn jemand nicht weiß, dass Mark Twain und Samuel Clemens ein und dieselbe Person sind, könnte er durchaus den einen Gedanken für wahr und den anderen für falsch halten. Der Gedanke kann also nicht die BedeutungF eines Aussagesatzes sein, sondern ist sein SinnF. Was ist aber die BedeutungF eines Aussagesatzes? Dem Kompositionalitätsprinzip nach muss die BedeutungF konstant bleiben, wenn bedeutungsFgleiche (aber möglicherweise sinnFverschiedene) Teile des Ausdrucks gegeneinander ausgetauscht werden. Dies ist beim Wahrheitswert der Fall: Die Sätze S4 und S5 sind äquivalent; es ist unmöglich, dass einer von beiden wahr ist und der andere falsch. Das ist einer der Gründe, weshalb für Frege die BedeutungF eines Aussagesatzes das Wahre oder das Falsche ist – je nachdem, ob der entsprechende Aussagesatz wahr oder aber falsch ist.

Sinn

Name

Begriffswort (Prädikat) Satz

die ‚Art des Gegebenseins‘ des Gegenstandes

die ‚Art des Gegebenseins‘ des Begriffs

der ausgedrückte Gedanke

der bezeichnete Begriff

der Wahrheitswert des Satzes: das Wahre oder das Falsche

Bedeutung der bezeichnete Gegenstand

Wie die BedeutungenF sind auch die SinneF von Ausdrücken für Frege objektive Entitäten – das überrascht im ersten Moment. Die BedeutungenF von Ausdrücken sind ‚in der Welt‘ – das sind die Referenten der Ausdrücke, also zum Beispiel die Gegenstände und das Wahre (was auch immer das sein mag). Weiterhin gibt es noch die Sphäre unseres Denkens – in unserem Geist haben wir laut Frege subjektive Vorstellungen – das, was wir im Alltag häufig auch mit dem Ausdruck ‚Ideen‘ oder ‚Gedanken‘ bezeichnen würden. Diese können aber für Frege unmöglich die SinneF sein, denn letztere sind objektiv – sie können durchaus von mehreren Personen erfasst werden und es gäbe sie auch, ohne dass jemand von ihnen wüsste. Mehrere Perso-

Objektivität der SinnF-Ebene

37

38

3. Philosophie der Idealen Sprache

nen können den objektiven Gedanken erfassen, dass Mark Twain und Samuel Clemens ein und dieselbe Person sind; und selbst wenn es niemand wüsste, gäbe es den entsprechenden Gedanken. Damit gehören die SinneF für Frege weder in die subjektive Welt unserer Vorstellungen noch in die objektive Welt der Gegenstände, sondern in ein (wie Frege es nannte) ‚drittes Reich‘, das vielleicht am ehesten mit der platonischen Ideenwelt vergleichbar ist.

3.1.2 Carnap Intension und Extension

In seinem Klassiker Meaning and Necessity (1947/56) wird von Rudolf Carnap (1891–1970) Freges fruchtbare Unterscheidung von SinnF und BedeutungF sprachlicher Ausdrücke wieder aufgegriffen. Wenn der Nutzen der beiden Bedeutungsebenen auch schon vor Carnap durchaus gewürdigt wurde, konnte Freges Ansatz sich doch nicht durchsetzen. Das ausschlaggebende Problem dabei dürften nicht zuletzt seine Ausführungen zum ontologischen Status der SinneF gewesen sein, die, beispielsweise bei Russell und dem frühen Wittgenstein, zur Ausarbeitung ontologisch ‚sparsamerer‘ Alternativen geführt haben. Für Carnap stellt sich die Frage, ob man nicht eine vergleichbare Unterscheidung treffen kann, ohne dafür einen so hohen Preis zahlen zu müssen. Seine Antwort darauf ist die Semantik möglicher Welten: Freges BedeutungF eines Ausdrucks wird bei Carnap ersetzt durch seine Extension, Freges SinnF durch seine Intension. Die Extension eines Ausdrucks ist sein Umfang; das, was unter ihn fällt. Die Intension ist demgegenüber dessen Inhalt. Carnap greift für die Definition dieser Begriffe zurück auf einen Apparat möglicher Welten. Wie auch Frege unterscheidet Carnap die beiden Bedeutungsebenen für singuläre Termini (die Frege schlicht unter der Bezeichnung ‚Namen‘ abgehandelt hat), Prädikate (bei Frege: Begriffsausdrücke) und Sätze. Carnaps Konzept wird am deutlichsten bei den Sätzen. Die Extension eines Satzes ist – wie bei Freges BedeutungF – dessen Wahrheitswert. Besteht der durch den Satz ausgedrückte Sachverhalt in unserer Welt, ist die Extension des Satzes das Wahre; besteht der Sachverhalt nicht, ist die Extension das Falsche. Die Intension eines Satzes ist bei Carnap die durch den Satz ausgedrückte Proposition, die Freges Gedanken entspricht. Die Proposition ist, wie bei Frege, intersubjektiv – sie ist unabhängig vom Denken und kann von mehreren Personen erfasst werden. Bei Prädikaten ist die Extension die Menge der unter das Prädikat fallenden Gegenstände – zum Beispiel ist die Menge aller blauen Gegenstände die Extension des Prädikats ‚… ist blau‘; dies entspricht Freges Begriffsumfang. Die Intension ist bei Carnap, anders als bei Frege, die mit dem Prädikat ausgedrückte Eigenschaft, also das Blausein. Im Sonderfalle von mehrstelligen Prädikaten, also Relationsausdrücken, ist die Extension eine Menge von Tupeln (geordneten Mengen), die Intension die ausgedrückte Relation. Freges Namen schließlich diskutiert Carnap als Individualausdrücke. Auch hier ist die Extension mit Freges Ansatz identisch und besteht in dem

3.1 Was heißt ‚Bedeutung‘? Frege und Carnap

bezeichneten Gegenstand. Die Intension ist der Individualbegriff – eine so fein gefasste Eigenschaft, dass sie nur einem einzigen Gegenstand, dem mit dem Individualausdruck bezeichneten Gegenstand, zukommt.

Individualausdruck

Prädikat

Satz

Intension

der dem Individualaus- die mit dem Prädikat druck korrespondieren- bezeichnete Eigende Individualbegriff schaft bzw. Relation

die mit dem Satz ausgedrückte Proposition

Extension

der mit dem Individual- die (geordnete) ausdruck bezeichnete Menge(n) der unter Gegenstand das Prädikat fallenden Gegenstände

der Wahrheitswert des Satzes: das Wahre oder das Falsche

Heute ist es üblich, diesen Ansatz Carnaps unter Zuhilfenahme der Konzeption von möglichen Welten (siehe Abschnitt 5.7) etwas technischer zu präsentieren. Für die Extensionen in den drei Bereichen ist dies nicht nötig, da sich diese immer auf ‚unsere‘ Welt beziehen: Ein Satz hat beispielsweise das Wahre als Extension, wenn der ausgedrückte Sachverhalt in unserer Welt Bestand hat. Die jeweiligen Intensionen der drei Bereiche lassen sich aber unter Rückgriff auf die Mögliche-Welten-Sprechweise klar darstellen: Die Intension des sprachlichen Ausdrucks ist eine Funktion von der Menge der möglichen Welten auf die mögliche Extension des jeweiligen Ausdrucks. Am einfachsten ist die Sache bei den Sätzen – hier ist die Intension, also die Proposition, eine Funktion von der Menge der möglichen Welten auf Wahrheitswerte; intuitiv verstanden eine Auflistung aller möglichen Welten mit der Angabe, ob der entsprechende Satz in der jeweiligen Welt wahr ist. Ähnlich ist das Vorgehen für die Prädikate. Unter ein Prädikat fallen bestimmte Gegenstände; in vielen Welten unterscheiden sich die unter einen Prädikatbegriff fallenden Gegenstände. Die Intension des Prädikats ‚… ist blau‘, um wieder ein Beispiel herauszugreifen, ist eine Funktion von der Menge der möglichen Welten auf Mengen von Gegenständen; intuitiv verstanden eine Auflistung aller möglichen Welten mit Angabe aller Gegenstände, die in der jeweiligen Welt unter das Prädikat fallen, in diesem Fall also blau sind. Zu den Individualausdrücken zählen neben den Namen auch Kennzeichnungen wie ‚der Autor von Huckleberry Finn‘. In unserer Welt verweist diese Kennzeichnung auf Mark Twain, aber es gibt mögliche Welten, in denen andere Autoren das Buch geschrieben haben – beispielsweise Edgar Allan Poe. Die Intension des Individualausdrucks, der Individualbegriff, ist eine Funktion von der Menge der möglichen Welten auf Gegenstände; intuitiv verstanden eine Auflistung aller möglicher Welten mit Angabe des Gegenstandes, der in der jeweiligen Welt die Extension des Individualausdrucks ist, in diesem Fall also in der jeweiligen Welt Autor von Huckleberry Finn ist. Weitere Aspekte der Sprachphilosophie Carnaps kommen im Kontext der Diskussion seiner Metaphysikkritik im Kapitel zur Ontologie zur Sprache.

39

40

3. Philosophie der Idealen Sprache

3.2 Russell und Wittgenstein Ideale Sprache und Ontologie

Sprachliche Form und logische Form

Frege und Carnap zeichnet aus, dass ihr Interesse eher von allgemein sprachphilosophischen Überlegungen geleitet war und damit weniger an spezielle ontologische Systeme gebunden ist; auf Carnap trifft dies noch mehr zu als für Frege. Zwei weitere prominente Vertreter der Philosophie der Idealen Sprache sind Bertrand Russell und der frühe Ludwig Wittgenstein (je nach Autor und Interessengebiet muss man neben dem frühen und dem späten noch diverse andere Wittgensteins unterscheiden, was selbst schon eine sprachphilosophisch spannende Geschichte ist), deren Theorien im Gegensatz dazu massiv von ihren ontologischen Überzeugungen geprägt waren. Beide waren in der zweiten Dekade des 20. Jahrhunderts Vertreter des Logischen Atomismus. Bei allen Differenzen war ihnen die Überzeugung gemein, dass die Welt aus kleinsten, nicht weiter analysierbaren Elementen besteht, den logischen Atomen. Ihr jeweiliger Ansatz sollte in letzter Konsequenz gewährleisten, dass die Sprache mit dieser feinsten Struktur der Welt übereinstimmt: Dass die Verknüpfungsregeln der Sprache, also die Grammatik, die Verknüpfungsmöglichkeiten der Welt, die Kombinationsmöglichkeiten der logischen Atome, widerspiegeln. Dieser Grundgedanke soll zunächst erläutert werden. In unserer Alltagssprache spielt die Grammatik eine wichtige Rolle. Wenn auch nur Fachleute die genauen Regeln der Grammatik angeben können, so beherrschen wir als geübte Sprecher einer Sprache doch fast alle grammatischen Regeln recht intuitiv. Man denkt nicht mehr über die einzelnen Regeln nach und kann sie auch meist gar nicht angeben. Dennoch kann man problemlos den Regeln entsprechende Sätze bilden und äußern; es fällt einem auch schnell auf, wenn ein Satz den Regeln widerspricht. Die Regeln sind dabei nicht nur schmückendes Beiwerk, sie legen fest, welche Ausdrücke überhaupt Sätze sind. Ausdrücke wie „Dieser Tisch Flasche“ oder „Größer als Peter grün“ sind keine Sätze, keine wohlgeformten Ausdrücke; sie entsprechen nicht den Regeln der Grammatik. Kleinere Fehler können wir tolerieren, bemerken sie oft gar nicht; „Wegen dem Regen komme ich heute zu spät“ wird einen vielleicht an der Sprachkompetenz des Gegenübers zweifeln lassen, aber wir erfassen problemlos die Bedeutung. Andererseits gibt es in der Alltagssprache aber auch grammatikalisch korrekte Sätze wie „Die Flasche ist eine Farbe“, die sinnlos sind: Sie haben keine Bedeutung und sind damit auch weder wahr noch falsch. Hier ist nicht die Grammatik, sondern die Semantik das Problem. Während die Grammatik aus Regeln für die Kombination von Zeichen besteht, legt die Semantik die Bedeutung der Zeichen und Zeichenkombinationen fest. Was die Vertreter der Philosophie der Idealen Sprache erreichen wollen, ist – etwas vereinfacht dargestellt – die Grammatik ihrer Idealen Sprachen so fein zu gestalten, die Regeln so präzise zu machen, dass jeder Satz, der ihnen entspricht, garantiert sinnvoll ist und damit auch einen Wahrheitswert hat. Man kann sich die Grammatik wie einen Syntax-Filter vorstellen, der – in der Alltagssprache – alle syntaxwidrigen Ausdrücke aussortiert und nur die grammatikalisch korrekten Sätze durchlässt, die man dann wieder auf Grundlage semantischer Kriterien, eines nachgeschalteten Semantik-Filters, unterteilen kann in sinnvolle und

3.2 Russell und Wittgenstein

sinnlose Sätze. Der entsprechende Syntax-Filter der Idealsprache ist feiner – er sortiert die sinnlosen Sätze gleich mit aus, so dass nur sinnvolle Sätze übrig bleiben. Die Funktion des Semantik-Filters übernimmt er also gleich mit. Damit ist es aber noch nicht getan. Wie zu Beginn des Kapitels erwähnt, leidet unsere Alltagssprache unter einigen Defiziten. Um nur ein Beispiel zu nennen: Die Aussage „Ich überfalle die Bank“ ist sinnvoll, wenn mit ‚Bank‘ das Geldinstitut gemeint ist; wenn aber eine Parkbank gemeint ist, ist die Aussage sinnlos, weder wahr noch falsch – die Ambiguität des Wortes ‚Bank‘ verhindert hier eine eindeutige Klassifizierung. Entsprechend lässt sich das Ideal einer so feinkörnigen Grammatik nur für geeignete Sprachen realisieren, die neben einer ‚feineren‘ Grammatik auch ‚feinere‘ Ausdrücke für Gegenstände und Eigenschaften haben – nur mit der Grammatik ist es also nicht getan. Russell war der Auffassung, dass es auf der fundamentalen Ebene der Welt neben den Einzeldingen – wie auch immer diese genau aussehen mögen – auch Universalien gibt, ein- oder mehrstellige Eigenschaften bzw. Relationen. Er unterschied dementsprechend zwischen Ausdrücken für Einzeldinge und Ausdrücken für Eigenschaften und Relationen. Diese Unterteilung war aber noch nicht fein genug, wie er später feststellte. So gibt es Eigenschaften, die nicht Einzeldingen, sondern anderen Eigenschaften zukommen. ‚… ist blau‘, ‚… ist grün‘, ‚… ist dreieckig‘ bezeichnen Eigenschaften von Einzeldingen; ‚… ist eine Farbe‘ hingegen bezeichnet keine Eigenschaft eines Einzeldings, sondern die Eigenschaft einer Eigenschaft eines Einzeldings. Diese ‚Stufung‘ in der Welt hat Russell in Form der Typentheorie in die Grammatik seiner Idealsprache übertragen. Entsprechend gibt es bei Russell eine Hierarchie von Ausdrücken, an deren Basis (Typ 0) die Individualausdrücke für Einzeldinge stehen, auf der nächsthöheren Stufe (Typ 1) Ausdrücke für deren Eigenschaften, auf der nächsthöheren Stufe (Typ 2) Ausdrücke für die Eigenschaften dieser Eigenschaften und so weiter. Entsprechend formulierte syntaktische bzw. grammatische Regeln gewährleisten dann, dass „Dieses Ding ist blau“ und „Blau ist eine Farbe“ sinnvolle Sätze sind, „Dieses Ding ist eine Farbe“, „Eine Farbe ist blau“ oder auch „Blau ist grün“ hingegen sinnlose Sätze, weil sie den Regeln der Grammatik widersprechen. (Die klarste Darlegung dieser Überlegungen Russells findet sich in Russell (1918–19).) Wittgenstein ist ein besonderer Fall. Er spielt eine herausragende Rolle sowohl für die Philosophie der Idealen Sprache (als ‚früher‘ Wittgenstein) als auch für die Philosophie der Normalen Sprache (als ‚später‘ Wittgenstein). Für die ideale Sprache ist vornehmlich sein Tractatus logico-philosophicus (1921) von Interesse, ein ebenso einflussreiches wie schwer zugängliches Buch. Die Grundidee unterscheidet sich nicht wesentlich von der Russells, ist aber deutlich weiter auf die Spitze getrieben. So unterscheidet Wittgenstein im Tractatus nicht mehr explizit zwischen Einzeldingen und Eigenschaften/Relationen, sondern spricht nur allgemein von ‚Gegenständen‘, die, bedingt durch ihre ‚logische Form‘, unterschiedliche Kombinationen eingehen können. Es bleibt bei Wittgenstein unklar, was die Gegenstände genau sind; nehmen wir nur zur Illustration an, dass ‚blau sein‘, ‚auf etwas stehen‘, ‚diese Flasche‘ und ‚dieser Tisch‘ Gegenstände im Sinne Wittgensteins sind. Dann lassen sich die beiden Gegenstände ‚diese Flasche‘ und ‚blau sein‘

Russell

Typentheorie

Wittgenstein

41

42

3. Philosophie der Idealen Sprache

sinnvoll kombinieren – sie bilden einen ‚Sachverhalt‘, wie Wittgenstein sagen würde, nämlich den, dass die Flasche blau ist. Dabei ist es unerheblich, ob die Flasche tatsächlich blau ist – der entscheidende Punkt ist, dass sie blau sein könnte. ‚Blau sein‘ und ‚auf etwas stehen‘ hingegen können nicht in dieser Form kombiniert werden – die logische Form der Gegenstände lässt das nicht zu. Um nun die logische Form der Gegenstände zu ermitteln, müsste man zu jedem Gegenstand alle diejenigen anderen Gegenstände heranziehen, mit denen er sinnvoll kombiniert werden könnte. Um beispielsweise die logische Form des Gegenstandes ‚diese Flasche‘ zu ermitteln, müsste man also sämtliche möglichen Sachverhalte kennen, in denen er vorkommen könnte. Diese ontologischen Vorstellungen werden nun auf die Sprache übertragen. In Wittgensteins idealer Sprache hat jeder Gegenstand der Welt genau einen Namen. Der Gegenstand ‚blau sein‘ könnte den Namen A tragen, ‚auf etwas stehen‘ B, ‚diese Flasche‘ C und ‚dieser Tisch‘ D. Entsprechend wären beispielsweise „AC“, „AD“ oder auch „CBD“ sinnvolle sprachliche Aussagen, „AB“ hingegen nicht. Die logische Form der Gegenstände wird in die ideale Sprache durchgereicht, spiegelt sich in ihr wider und bildet dort die Grammatik der Sprache. Sie legt fest, wie die sprachlichen Zeichen, die Namen, kombiniert werden können – nämlich in genau der Weise, in der die den Namen entsprechenden Gegenstände in der Welt kombiniert werden können. Um die Metapher aufzugreifen: Wittgensteins Grammatik-Filter ist damit perfekt, in optimaler Weise an die Verknüpfungsmöglichkeiten der Welt angepasst. Dieser augenscheinliche Vorteil der Wittgensteinschen Sprache hat aber auch einen gravierenden Nachteil: Durch die Gleichheit der Strukturen von Welt, Denken und Sprache ist es nicht mehr möglich, ‚von außen‘, also metasprachlich, darauf Bezug zu nehmen. Die Regeln der Sprache können nicht formuliert werden, sie zeigen sich, wie Wittgenstein es nennt.

3.3 Beispiel: Kennzeichnungen

Meinong

Eine der wohl interessantesten Diskussionen in der Sprachphilosophie zieht sich wie ein roter Faden durch die ganze Geschichte dieses Bereiches: die um den Status von Kennzeichnungen oder bestimmten Beschreibungen (definite descriptions). Kennzeichnungen werden in diesem Kontext als solche Ausdrücke verstanden, die mit einem bestimmten Artikel beginnen und der sprachlichen Form nach auf einen Gegenstand referieren: ‚der/die/das sound-so‘. Ein typisches Problem von Kennzeichnungen ist nun, dass einige von ihnen – beispielsweise ‚der gegenwärtige König von Frankreich‘ – auf nichts zu verweisen scheinen. Worüber aber spricht man in einem solchen Fall? Der zunächst von Russell beschrittene Weg zur Lösung dieses Problems entspricht im Wesentlichen dem von Alexius Meinong (1853–1920) und besteht darin, mehrere Abstufungen von ‚Existenz‘ anzunehmen. Entsprechend unterschied Russell noch (1903) zwischen Sein (being) und Existenz (existence):

3.3 Beispiel: Kennzeichnungen

Sein ist das, was zu jedem vorstellbaren Begriff gehört, zu jedem möglichen Gegenstand des Denkens – kurz: zu allem, das in irgendeiner Aussage, ob wahr oder falsch, vorkommen kann und auch zu all diesen Aussagen selbst […] Wenn A ein Term ist, […] dann ist es klar, dass A etwas ist – und damit auch, dass es A gibt. „A gibt es nicht“ muss immer falsch oder sinnlos sein. […] Sein ist also ein generelles Attribut von allem; und das Erwähnen von etwas ist Zeigen, dass es ist. Existenz ist demgegenüber das Vorrecht nur einiges Seienden. Existieren heißt, eine spezifische Relation zur Existenz zu haben […] Dieser Unterschied [zwischen Existenz und Sein] ist essentiell, wenn wir jemals die Existenz von etwas zu leugnen haben. Denn was nicht existiert, ist doch etwas, denn sonst wäre es sinnlos, dessen Existenz zu leugnen. (Russell (1903, § 427)) Dieser Theorie nach bezöge sich die Kennzeichnung ‚der gegenwärtige König von Frankreich‘ in der Tat auf ein Objekt (den gegenwärtigen König von Frankreich), das jedoch nicht existiert, sondern eine Art Zwischenzustand hat, nämlich subsistiert. Diese Theorie ist allerdings, gerade was ihre Konsequenzen für die formal-logische Behandlung ihres Gegenstandsbereichs angeht, wenig befriedigend und wurde später von Russell verworfen. Bevor Russell mit der Kennzeichnungstheorie eine völlig neue Lösung dieser Problematik vorlegen konnte, wandte er sich auch Freges Lösungsansatz zu. Frege nannte die Kennzeichnungen ‚komplexe Eigennamen‘ und behandelte sie ansonsten wie ‚normale‘ Namen: Der Name ‚Mark Twain‘ und die Kennzeichnung ‚der Autor von Huckleberry Finn‘ waren für ihn bedeutungsFgleich, wenn auch sinnFverschieden. Nun ist man auch hier mit Kennzeichnungen konfrontiert, die Probleme bereiten. Was soll beispielsweise die Bedeutung von ‚Der König von Frankreich im Jahre 2009‘ sein? In Freges Terminologie könnte man sicherlich noch annehmen, dass dieser Ausdruck einen SinnF hat, eine BedeutungF kann man ihm aber kaum zusprechen. Frege war sich dieser Tatsache bewusst und setzte daher voraus, dass jede in sinnvollen Sätzen vorkommende Kennzeichnung eine BedeutungF haben müsse – er machte also die Präsupposition, dass jede in der Sprache vorkommende Kennzeichnung auch eine BedeutungF hat. Elegant ist eine solche Lösung jedoch nicht, denn um bewerten zu können, ob ein gegebener Satz mit einer Kennzeichnung nun sinnvoll ist (und damit einen Wahrheitswert hat), muss man zunächst ‚in die Welt schauen‘ und prüfen, ob es dort einen Gegenstand gibt, auf den die Kennzeichnung zutrifft. Russell konnte sich damit nicht anfreunden, wollte er doch erreichen, dass allein grammatische Regeln als Kriterium dafür dienen können, ob ein gegebener Satz sinnvoll ist. In seinem Aufsatz ‚On Denoting‘ (1905) – der von vielen als der wichtigste Aufsatz in der Geschichte der Analytischen Philosophie angesehen wird – machte er entsprechend einen weitreichenden Vorschlag: Nach Russell sind Kennzeichnungen unvollständige Symbole (incomplete symbols) und als solche für sich genommen bedeutungslos – ‚der König von Frankreich im Jahre 2009‘ ist damit nur mehr eine Wortfolge, die sich auf nichts bezieht. Auch die Kennzeichnung in der Aussage „Der höchste Berg der Erde befindet sich nördlich des Äquators“ ist synkategorema-

Frege

unvollständige Symbole

43

44

3. Philosophie der Idealen Sprache

tisch, hat für sich genommen keinerlei Bedeutung, obgleich es hier im Gegensatz zum vorigen Beispiel tatsächlich ein entsprechendes Referenzobjekt gäbe. Kennzeichnungen sind nur scheinbar für sich bedeutungsvolle Komponenten von Aussagen; in der korrekten logischen Analyse eines Satzes werden sie aufgebrochen und verschmelzen mit dem Rest der Aussage, verlieren ihre oberflächliche, durch die Sprache suggerierte Eigenständigkeit. Kennzeichnungen werden damit strikt von den kategorematischen Namen getrennt. Doch wie wirkt sich eine Kennzeichnung und ihr Zutreffen auf Gegenstände auf die Bedeutung eines Satzes aus, der sie enthält? Als Beispiel kann folgender Satz dienen: H: Mark Twain ist der Autor von Huckleberry Finn.

Russells Analyse

drei Bedingungen

Der Satz H scheint oberflächlich eine Identität zwischen zwei Gegenständen auszudrücken – und so müsste man ihn auch nach Frege verstehen: Der Gegenstand Mark Twain ist identisch mit dem Gegenstand, der Huckleberry Finn verfasst hat. Laut Russell ist diese Analyse des Satzes jedoch nicht zutreffend. Vielmehr muss der Satz so verstanden werden, dass er folgenden komplexen Sachverhalt ausdrückt: (1) Es gibt mindestens einen Autor von Huckleberry Finn; (2) es gibt höchstens einen Autor von Huckleberry Finn; (3) und dieser ist (identisch mit) Mark Twain. Hier taucht die Kennzeichnung nicht mehr auf, sie ist in der Analyse im Satz ‚aufgegangen‘. Ihre Rolle wird nun von einem Prädikat (‚… ist Autor von Huckleberry Finn‘) und einer Kombination aus Quantoren und Junktoren übernommen. Eine formale Gegenüberstellung macht diesen Sachverhalt deutlicher. Freges Formalisierung des Beispielsatzes H sähe so aus: m=h m steht für ‚Mark Twain‘, h für ‚der Autor von Huckleberry Finn‘. Beides sind für Frege Namen, und im Satz wird die Behauptung ausgedrückt, dass es sich um zwei Namen für ein und dieselbe Person handelt. Darüber hinaus wird bei Frege präsupponiert, dass die beiden Namen auch tatsächlich einen Referenten haben, also eine BedeutungF. Russells Formalisierung sähe demgegenüber deutlich komplexer aus: (Ax)(y)((Hy « x=y) b m=x) Auf Details soll hier nicht eingegangen werden, aber einige Worte zur Erklärung des wichtigsten Punktes: Freges Name h taucht hier nicht auf, dafür ein Prädikat H. Dieses Prädikat steht für die Eigenschaft, Autor von Huckleberry Finn zu sein – man beachte das Fehlen des bestimmten Artikels. Was die Quantoren und Junktoren in Verbindung mit dem Prädikat leisten (links von der Konjunktion), ist, die oben angegebenen Bedingungen 1 und 2 umzusetzen, mithin die dem bestimmten Artikel innewohnenden Faktoren explizit zu machen. Treffen die beiden Bedingungen zu, gibt es also den einen Autor von Huckleberry Finn, ist (vereinfacht dargestellt) das erste Konjunktionsglied wahr, und das x in der Formel verweist genau auf den betreffenden Ge-

3.4 Ausblick, Lektürehinweise, Fragen und Übungen

genstand. Die Bedingung 3 steht dann rechts von der Konjunktion: Dieser so ermittelte Gegenstand ist Mark Twain. Einer der Vorteile der Kennzeichnungstheorie ist nun, dass durch Russells Analyse auch die problematischen Fälle abgedeckt werden: Eine Kennzeichnung, die auf keinen Gegenstand zutrifft (‚der König von Frankreich im Jahre 2009‘), verletzt die erste Bedingung, eine solche, die auf mehr als einen Gegenstand zutrifft (‚der Autor von Einführung in die Analytische Philosophie‘), die zweite Bedingung. Diese Fälle führen bei der Kennzeichnungstheorie dazu, dass Sätze, in denen entsprechende Kennzeichnungen vorkommen, falsch sind – und nicht etwa sinnlos. (Streng genommen müsste man hier mit Russell zwischen primären und sekundären Vorkommen von Kennzeichnungen unterscheiden. Ich beschränke mich hier jedoch auf den Standardfall, das primäre Vorkommen.) Wie Frege präsupponiert auch Russell, dass Namen denotieren. Allerdings gibt es in Russells philosophischem System kaum noch Namen, da Kennzeichnungen keine Namen sind und unsere alltagssprachlichen Namen praktisch ausnahmslos als ‚versteckte Kennzeichnungen‘ verstanden werden müssen. Überdies wird sichergestellt, dass der kleine ‚Rest‘ an echten Namen tatsächlich denotiert, wie in Kapitel 6 noch verdeutlicht wird – so ist Russells Präsupposition im Gegensatz zu der Freges unproblematisch. Ein weiterer Vorteil der Kennzeichnungstheorie ist, dass Russell mit ihr eine gangbare Alternative zu Freges zwei Bedeutungsebenen vorlegt, die ein vergleichbares Erklärungspotential hat. So kommt Russell ohne Freges in ontologischer Hinsicht problematische SinnF-Ebene aus, ohne dass seine Theorie dabei gegenüber Freges an Erklärungskraft einbüßen würde. Das Wesen der logischen Analyse wird an der Kennzeichnungstheorie besonders deutlich. Die Sprachanalyse dient als Werkzeug und führt von der Oberflächenstruktur der Sprache, nach der in diesem Beispiel eine Identität von zwei Gegenständen behauptet wird, zur logischen Tiefenstruktur der Sprache, nach der das Zutreffen einer Eigenschaft auf genau einen Gegenstand behauptet wird: Die grammatische Form ist nicht die logische Form. Russell zieht daraus die Lehre, dass man sich nicht von der Struktur unserer Alltagssprache in die Irre führen lassen darf – sie hat viele Tücken und ein kritischer Umgang mit ihr ist in der Philosophie unerlässlich. Viele der klassischen Probleme der Philosophie haben ihren Ursprung in einem unkritischen Vertrauen in die Alltagssprache. Entsprechend ist es auch nicht sinnvoll, die Welt mit der Alltagssprache erklären und erfassen zu wollen: Will man zu einer angemessenen Darstellung der realen Welt kommen, muss man sich einer idealen Sprache bedienen.

3.4 Ausblick, Lektürehinweise, Fragen und Übungen Ausblick Auf ihrem Weg zur einer größeren Wissenschaftlichkeit musste sich die Analytische Philosophie auch mit der Frage auseinandersetzen, ob sie nicht – wie es beispielsweise für die Mathematik, die Naturwissenschaften und die Medizin selbstverständ-

Oberflächen- und Tiefenstruktur

45

46

3. Philosophie der Idealen Sprache lich ist – eine eigene wissenschaftliche Sprache zu entwickeln hätte. Diese Sprache sollte die Grundlage bilden, philosophische Probleme in angemessener Klarheit zu beschreiben. Vor allen Dingen Bertrand Russell verstand das Unternehmen ‚Idealsprache‘ in diesem Sinne. Daher stand er auch den Entwicklungen im Bereich der Philosophie der Normalen Sprache, die im nächsten Kapitel thematisiert wird, Zeit seines Lebens skeptisch gegenüber. Anliegen der Philosophie der Normalen Sprache ist es, die pragmatischen Aspekte von Sprache angemessen zu erfassen; gerade diese spielen aber in einer Wissenschaftssprache keine Rolle. Man würde heute nicht mehr so weit gehen, ideale Sprachen respektive ihre Analyse als den alleinigen Weg zur Erkenntnis oder zur Beschreibung der Welt anzusehen; die Möglichkeiten und Grenzen dazu mussten doch zunächst ausgelotet werden. So waren die im 2. Abschnitt dieses Kapitels vorgestellten Systeme Russells und Wittgensteins wie auch das Programm des im 7. Kapitel noch zu behandelnden Logischen Positivismus wegen ihres in dieser Hinsicht zu radikalen Ansatzes schon bald eher von philosophiehistorischem Interesse. Das macht sie aber keineswegs wertlos, bilden sie doch einen Grundstock, bei dem man sich großzügig bedient hat und auf dem sich die spätere Analytische Philosophie erst richtig entfalten konnte. Ähnlich sieht es mit Freges Unterscheidung von SinnF und BedeutungF aus, dessen Theorie in ihrer ‚Reinkarnation‘ durch Carnap immer noch den Rahmen für einen Teil der aktuellen Sprachphilosophie und Linguistik bildet. So sind etwa die Überlegungen Richard Montagues (1930–1971) zur semantischen Universalgrammatik nicht ohne den hier vorgestellten Hintergrund zu verstehen.

Lektürehinweise Eine sehr empfehlenswerte Einführung in die Sprachphilosophie, die sich auch zum Selbststudium eignet, ist Newen/Schrenk (2008). Eine gute Einführung zu Frege ist Stepanians (2001). Als verständliche Einführung in die Philosophie Carnaps eignet sich Mormann (2000); man sollte allerdings auch einmal selbst in Carnap (1928) und Carnap (1947/56) hineingesehen haben. Eine deutlich ausführlichere Darstellung der in 3.2 und 3.3 behandelten Themen gibt Leerhoff (2008).

Fragen und Übungen 1. Geben Sie jeweils fünf Beispiele für vage und ambige Ausdrücke. 2. Inwiefern können vage und ambige Ausdrücke für die Alltagssprache nützlich sein, wenn sie doch in wissenschaftlichen Kontexten eher unerwünscht sind? 3. Es wurden Beispiele für bedeutungsFgleiche, aber sinnFverschiedene Ausdrücke angeführt. Denken Sie, dass es auch bedeutungsFverschiedene, aber sinnFgleiche Ausdrücke geben könnte? 4. Sie haben im 2. Kapitel unterschiedliche Logiken kennengelernt. Können Sie sich vorstellen, dass die Aussagen- oder die Prädikatenlogik als Idealsprachen im Sinne dieses Kapitels betrachtet werden können? 5. Was zeichnet Carnaps Intension und Extension gegenüber Freges SinnF und BedeutungF aus?

4. Philosophie der Normalen Sprache Die Bezeichnung Philosophie der Normalen Sprache, die sich im deutschsprachigen Raum etabliert hat, wird als Abgrenzung von der Philosophie der Idealen Sprache verwendet. Der im angelsächsischen Raum gebräuchliche Name ordinary language philosophy stellt etwas treffender dar, was der Gegenstand dieser philosophischen Richtung ist: die gewöhnliche Sprache des Alltags. Einhergehend mit der Hinwendung zur Sprache als zentralem Untersuchungsgegenstand der Philosophie kam bei vielen Autoren die Überzeugung auf, dass man sich den philosophischen Problemen nur sinnvoll nähern könnte, wenn die normale Sprache zunächst in eine standardisierte und von typischen sprachinternen Problemen bereinigte Sprachform übertragen wird: eine Idealsprache. Ansätze dazu wurden im vorigen Kapitel dargestellt. Ab etwa 1930 entwickelte sich dann die normalsprachliche Philosophie. Während die idealsprachliche Philosophie darauf zielte, eine Wissenschaftssprache zu erzeugen und sich damit auf einen nur kleinen Teil des menschlichen Sprachgebrauchs beschränkt, wendet sich die normalsprachliche Philosophie den alltäglichen Situationen des menschlichen Lebens zu und untersucht entsprechend gewöhnliche Sprechsituationen. Zu den Begründern dieser philosophischen Richtung zählen aus Cambridge Ludwig Wittgenstein sowie die Oxforder Philosophen Peter Strawson, John Langshaw Austin, John Ross Searle (der in Oxford studierte), Gilbert Ryle sowie Herbert Paul Grice. Im Gegensatz zur idealsprachlichen Richtung, die ihr Hauptaugenmerk auf die Syntax und die Semantik der (Ideal-)Sprache legt, kommt nun immer mehr die Pragmatik, also die Sprache in ihrer Verwendung – und damit auch die Abhängigkeit der Bedeutung von Wörtern von ihrer Verwendung –, in den Fokus der philosophischen Untersuchung. Die berühmteste Theorie, die den Gebrauch eines Wortes und seine Bedeutung in Zusammenhang bringt, ist sicherlich die Humpty-Dumpty-Theorie der Sprache aus Lewis Carrolls Durch den Spiegel und was Alice dort fand: „Ich verstehe nicht, was Sie mit ‚Glocke‘ meinen“, sagte Alice. Goggelmoggel lächelte verächtlich. „Wie solltest Du auch – ich muss es dir doch zuerst sagen. Ich meinte: ‚Wenn das kein einmalig schlagender Beweis ist!‘“ „Aber ‚Glocke‘ heißt doch gar nicht ein ‚einmalig schlagender Beweis‘“, wandte Alice ein. „Wenn ich ein Wort gebrauche“, sagte Goggelmoggel in recht hochmütigem Ton, „dann heißt es genau, was ich für richtig halte – nicht mehr und nicht weniger.“ „Es fragt sich nur“, sagte Alice, „ob man Wörter einfach etwas anderes heißen lassen kann.“ „Es fragt sich nur“, sagte Goggelmoggel, „wer der Stärkere ist, weiter nichts.“ (Caroll (1872/1974, S. 88))

Die Alltagssprache als Untersuchungsgegenstand

Die Pragmatik wird betont

48

4. Philosophie der Normalen Sprache

Ist die Bedeutung eines Wortes durch Definition festgelegt?

Diese Ansicht von Humpty Dumpty, der in der deutschen Übersetzung ‚Goggelmoggel‘ heißt, dass Wörter all das bedeuten, was ein Sprecher will, klingt sicherlich beim ersten Lesen verrückt, aber erstens gilt in der Philosophie, dass keine Theorie verrückt genug ist, als dass sich nicht jemand finden ließe, der sie vertritt, zum zweiten wird sich später zeigen, dass einiges an ihr gar nicht so verrückt ist. Beginnen wir einmal mit einem ganz einfach aussehenden Problem: Was bedeuten Wörter wie beispielsweise ‚Quadrat‘ oder ‚Hund‘, Wörter, die wir täglich verwenden, und die wir problemlos verstehen? Ansätze zu einer idealsprachlichen Antwort wurden ja bereits im vorhergehenden Kapitel vorgestellt. Wie sieht es aber in der alltagssprachlichen Verwendung aus? Im Falle des Quadrats scheint es so zu sein, dass wir die Bedeutung dieses Wortes dadurch erfassen können, dass wir es definieren. Ein Quadrat ist eine gleichseitige, gleichwinklige geometrische Figur mit vier Seiten. Die Bedeutung dieses Wortes wird durch die Bedeutung anderer Wörter festgelegt und erklärt. In so einem Fall müssten dann natürlich die im Definiens – in dem Teil der Definition, der das zu definierende erklärt – vorkommenden Wörter wieder erklärt werden. Wollen wir uns nicht ewig im Kreis herumdrehen, müssen wir Wörter finden, deren Bedeutung nicht auf die Bedeutung anderer Wörter reduziert wird, sondern die ihre Bedeutung anders erhalten. Nehmen wir einmal an, das Wort ‚Hund‘ sei ein solches Wort. Wie erlernen wir die Bedeutung von ‚Hund‘? Nun, jeder hat schon mal einen oder mehrere Hunde gesehen, und eine Frage wie etwa „Gibt es in England mehr Hunde als in Deutschland?“, versteht jeder Sprecher des Deutschen ohne Schwierigkeiten. (Auch ohne die Antwort zu kennen.) Aber worüber wird in diesem Satz gesprochen? Sicherlich nicht ausschließlich über die Hunde, deren Bekanntschaft man im Laufe seines Lebens gemacht hat. Diese realen Vorkommnisse von Hunden helfen zwar sicherlich zu lernen, was das Wort ‚Hund‘ bedeutet, aber sie sind nicht die Bedeutung von ‚Hund‘. Die Bedeutung ist weitreichender, sie umfasst zumindest alle Hunde, die in der Vergangenheit gelebt haben, alle, die noch leben, und auch alle, die noch leben werden, denn der Satz: „In 200 Jahren wird es auch auf dem Mars Hunde geben“ ist sinnvoll. Daher muss auch in ihm das Wort ‚Hund‘ etwas bedeuten. Aber was bedeutet es? Wenn man das Wort hört, denkt man vielleicht an einen bestimmten Hund, man hat eine Vorstellung davon, wie ein Hund aussieht, wie er riecht etc. Aber dies ist eine ganz persönliche Vorstellung, die sich wahrscheinlich von der Vorstellung eines jeden anderen unterscheidet. Die Bedeutung eines Wortes hingegen scheint etwas Universelles zu sein, auf das jeder zurückgreifen kann. Und zwar jeder, unabhängig davon, welche Sprache er spricht. Hätte die Frage vorhin gelautet „Are there more dogs in England than in Germany?“, dann hätte das englische Wort ‚dog‘ dieselbe Bedeutung gehabt wie das deutsche Wort ‚Hund‘. Die Bedeutung eines Wortes kann also weder das Wort sein, das man beim Sprechen bewusst im Kopf wahrnehmen kann, noch kann es die Vorstellung sein, die man mit diesem Wort verbindet, denn beide sind nicht universell genug, um von allen Sprechern gleichermaßen erfasst werden zu können. Aber die Bedeutung ist wohl auch kein konkretes Ding, das sich irgendwo auf der Welt lokalisieren lässt.

4.1 Was ist Pragmatik?

Haben Wörter und ganz allgemein sprachliche Ausdrücke vielleicht gar keine eigenständige Bedeutung, sondern sind es nur Reize, die bei uns die entsprechenden Reaktionen hervorrufen? Reaktionen, die wiederum im Aussprechen von Wörtern oder in anderen Handlungen bestehen? Wenn jemand sagt „Würdest Du bitte einmal das Salz herüberreichen?“, muss ich vielleicht gar nichts verstehen, sondern nur eine entsprechende Handlung ausführen. Wäre die Bedeutung dann einfach die richtige Reaktion? Dies würde erklären, warum der entsprechende englische Satz „Would you pass the salt, please?“ dieselbe Bedeutung hat wie der entsprechende deutsche Satz; sie führen zur selben Reaktion. Dieser behavioristische Ansatz birgt jedoch einige Schwierigkeiten, von denen nur zwei erwähnt werden sollen. Würde ein Sprecher vor einem Auditorium „Rabadabadumm argl argl yahoo“ äußern, wäre die Reaktion wahrscheinlich, dass ihn seine Zuhörer ein wenig entgeistert anstarrten, auch wenn sie von ihm schon einiges gewöhnt sind. Aber selbst wenn er dies intendiert hätte, wäre dieses Anstarren nicht die Bedeutung seiner Äußerung. Diese Äußerung hat keine Bedeutung, sie ist kein sinnvoller Satz. (Sie ist nicht entsprechend der syntaktischen und semantischen Regeln aufgebaut.) Zum anderen hat der Sprachwissenschaftler Noam Chomsky (*1928) sehr überzeugend argumentiert (1959), dass ein solches Reiz-Reaktions-Schema nicht erklären kann, warum Menschen in so kurzer Zeit so komplizierte Sprachen wie etwa das Deutsche erlernen können. Es reicht nicht aus, dass wir die Reiz-Reaktions-Paare, die wir in unserer Kindheit beobachtet haben, einfach nachahmen. Wir sind sehr schnell in der Lage, nie gehörte Wortkombinationen zu verwenden, um unsere Gedanken, Wünsche usw. auszudrücken. Zu einem sprachlichen Ausdruck gehört mehr als eine entsprechende Reaktion. Aber was? In der Philosophie der Normalen Sprache wird die Verwendung sprachlicher Ausdrücke thematisiert. Ihr Motto lautet verkürzt: Bedeutung ist Gebrauch. Das heißt auch, dass es nicht sinnvoll erscheint, nur einzelne Wörter oder Sätze zu betrachten und zu fragen, was sie wohl bedeuten und ob sie – im Falle von Sätzen – wohl wahr sind.

Ist die Bedeutung eines Wortes die Reaktion darauf?

Die Bedeutung eines Wortes ist sein Gebrauch

4.1 Was ist Pragmatik? Charles S. Peirce (1839–1914) gilt als einer der Begründer der Semiotik, der allgemeinen Theorie der Zeichen. Seine Zeichen-Theorie umfasst aber auch „einen Vorgang oder einen Einfluss, der das Zusammenwirken von drei Gegenständen, nämlich dem Zeichen, seinem Objekt und seinem Interpretanten, ist bzw. beinhaltet; ein dreifacher Einfluss, der in keinem Fall in paarweise Vorgänge aufgelöst werden kann.“ (1907, S. 411) Peirce nimmt also explizit die Wirkung des Zeichens im Interpretanten mit in den Blick und gilt deshalb zugleich als einer der Begründer der Pragmatik. Ihr zufolge hängt die Bedeutung eines Zeichens nicht nur allein daran, wofür es steht, sondern auch an demjenigen, der dieses Zeichen wahrnimmt. Folglich haben Wörter oder Begriffe, für die die Wörter stehen (etwa ‚blau‘), keine vom Interpretanten unabhängige Bedeutung. Dies führt jedoch nicht zu einer Art von Relativismus, demgemäß sämtliche Bedeutungen nur von den Subjek-

Die Bedeutung eines Wortes hängt auch an demjenigen, der es hört

49

50

4. Philosophie der Normalen Sprache

ten abhingen. Deswegen hat Peirce seine Philosophie später Pragmatizismus genannt, um sich von denjenigen abzugrenzen, die bald darauf den Begriff Pragmatik in einer Weise verwendeten, von der er sich distanzieren wollte. Dies ist im Besonderen die Pragmatische Theorie der Wahrheit (wie sie etwa von seinem Freund und Kollegen William James (1842–1910) ausgearbeitet worden ist), die ein relativistisches Nützlichkeitsmoment enthält, demzufolge das wahr ist, was lohnt, für wahr gehalten zu werden. Peirce ging es aber nicht darum, das, was oft mit dem Schlagwort des gesunden Menschenverstandes (also etwa das Primat der Praktikabilität) bezeichnet wird, in die Philosophie einzuführen, sondern er wollte vielmehr darauf hinweisen, dass die Sprache nicht unabhängig von den Sprechenden ist. Peirce hat die Aufmerksamkeit darauf gerichtet, dass Sprache ein Mittel zur Kommunikation ist und man daher Sprecher und Hörer im Prozess des Verstehens betrachten muss: Man muss die Pragmatik berücksichtigen. Im vorliegenden Zusammenhang wird unter ‚Pragmatik‘ alles gefasst, was über die wörtliche Bedeutung sprachlicher Ausdrücke, die Semantik, hinaus geht. Dies betrifft zum größten Teil den Gebrauch von Sprache, Sprache im Kontext. Insbesondere Fragen wie: Was meinen wir wirklich, wenn wir etwas sagen? Welche Intention verfolgen wir, wenn wir etwas sagen? Welche Handlungen werden durch sprachliche Äußerungen vollzogen? Welche Bedingungen müssen erfüllt sein, damit eine Äußerung überhaupt sinnvoll ist? stecken den Rahmen dessen ab, was in der Pragmatik untersucht wird. Ansätze, die in der philosophischen Beschäftigung mit Fragen der Pragmatik entwickelt wurden, haben dann in der Sprachwissenschaft ihre Fortführung gefunden. Das in diesem Buch verwendete Verständnis von Pragmatik geht hierbei auf die Unterscheidung von Charles Morris zurück und lässt sich am besten mit den Worten Rudolf Carnaps beschreiben: Wir werden Pragmatik das Gebiet all jener Untersuchungen nennen, welche sich mit der ersten Komponente [d. h. der Handlung, dem Zustand und der Umgebung des Sprechers] […] befassen. Andere Untersuchungen sehen vom Sprecher ab und behandeln nur die Ausdrücke der Sprache und deren Beziehung zu ihren Designata. Das Gebiet dieser Untersuchungen nennt man Semantik. Schließlich kann man auch von den Designata abstrahieren und die Untersuchung auf die formalen Eigenschaften beschränken, nämlich auf die Ausdrücke und ihre Beziehungen untereinander […] Diese Gebiet nennt man die logische Syntax. (Carnap (1938/1973, S. 11))

4.2 Wittgensteins Philosophische Untersuchungen: Bedeutung ist Gebrauch Ludwig Wittgenstein ist einer der Begründer der ordinary language philosophy, die Mitte der 30er Jahre in England entstand. Ihr Anliegen ist die Ana-

4.2 Wittgensteins Philosophische Untersuchungen: Bedeutung ist Gebrauch

lyse und Beschreibung der Alltagssprache, ohne sie in ein logisches Korsett zu zwingen. Wittgenstein nimmt hierbei in der Philosophiegeschichte eine Sonderstellung ein, da es ihm gelungen ist, zwei unterschiedliche philosophische Richtungen zu begründen. Zusammen mit Bertrand Russell hat er in den Jahren 1912–1921 die Abbildtheorie der Sprache entwickelt. Wittgenstein postulierte in seinem ersten Buch (1921) eine Isomorphie zwischen Sprache und Welt; die Struktur der Welt zeigt sich in der Struktur der Sätze. (Siehe dazu Abschnitt 3.2 dieser Einführung.) Namen vertreten einfache Gegenstände, Prädikate und Verben stehen für Eigenschaften und Relationen zwischen diesen Gegenständen. Die Bedeutungen der einzelnen Wörter sind hierbei die Gegenstände, die sie bezeichnen. Die Hauptaufgabe der Sprache ist es, wahre Aussagen über die Welt zu formulieren. Gegen diesen Ansatz argumentiert Wittgenstein in seiner späten Schrift, den Philosophischen Untersuchungen (1953), die er ab Mitte der dreißiger Jahre des 20. Jahrhunderts geschrieben hat, aber nicht mehr selbst veröffentlichen konnte. Wie sein erstes Buch sind auch die Philosophischen Untersuchungen schwer zu lesen, denn wieder bietet Wittgenstein seinen Lesern keinen durchgehenden Text an, sondern formuliert kurze Abschnitte, in denen er eine Frage stellt oder einen Gedanken entwickelt. Schwierig ist diese neue Philosophie auch, weil Wittgenstein keine direkt erkennbare Alternative zur Abbildtheorie der Sprache präsentiert. Zentral ist jedoch die Behauptung (1953, § 43), dass man für eine große Zahl von Fällen konstatieren kann: „Die Bedeutung eines Wortes ist sein Gebrauch in der Sprache.“ Hierin äußert sich ein fundamentaler Unterschied zum idealsprachlichen Ansatz. Dort hatten Ausdrücke eine Bedeutung, ohne dass ihre alltagssprachliche Verwendung thematisiert worden wäre. Die Aufgabe der Sprache war es, auf die Welt, auf ihre Gegenstände und die bestehenden Zusammenhänge zwischen diesen Gegenständen zu verweisen. Ein Ausdruck hatte nur Bedeutung, wenn er etwas bezeichnete. Dies erschien Wittgenstein nun als eine unerlaubte Verkürzung der vielfältigen Aufgaben der Sprache. Die Bedeutung eines Ausdrucks kann nur in einem Kontext und der Einbettung dieses Ausdrucks in die gesamte Sprache betrachtet werden. Es müssen nicht einzelne, sprachliche Ausdrücke betrachtet werden, sondern ihre Verwendung in Sprachspielen. In Wittgensteins Bestimmung des Sprachspiels kommt explizit die pragmatische Komponente der Philosophie der Normalen Sprache zum Ausdruck: er betont, dass „das Sprechen einer Sprache ein Teil ist einer Tätigkeit“ (1953, § 23). Es sind dann diese Tätigkeiten, über die die Menschen miteinander verbunden sind und durch die und in deren Kontext die Wörter der Sprache ihre Bedeutung erhalten. Gemeinsame Tätigkeiten, so könnte man vereinfacht sagen, führen dann zu gleichen – den Tätigen gemeinsamen – Bedeutungen. Dies wirft die Frage auf, ob sich Sprechende, die keine gemeinsame Handlungspraxis teilen, verstehen können. Die Bedeutung eines Ausdrucks wird letztlich durch eine Übereinkunft bestimmt, und diese Bedeutung ist nicht unveränderlich und fest umgrenzt. Wittgenstein demonstriert dies am Beispiel des Wortes ‚Spiel‘. Es gibt nichts, was allen Dingen, die wir als Spiel bezeichnen, gemeinsam ist. Gleichwohl weisen die verschiedenen Bedeutungen dieses Wortes untereinander Fami-

Ein Wort hat nur Bedeutung innerhalb einer Sprache

Das Sprechen der Sprache ist eine Tätigkeit

51

52

4. Philosophie der Normalen Sprache

Familienähnlichkeit vs. Platonischer Bedeutungskörper

Wörter für private Zustände haben keine Gegenstände als Bedeutung

Die Sprache ist nicht rein instrumentalistisch

lienähnlichkeiten (1953, § 66 ff.) auf. Wittgenstein widerspricht also den Ansichten Freges und Carnaps, dass die Bedeutung eines Begriffswortes so etwas wie ein platonischer Begriff ist, der das Wesen aller bezeichneten Gegenstände erfasst (siehe 3.1). Zudem gibt es keine von Menschen unabhängigen Regeln, die beim Sprechen befolgt werden müssen. Regeln werden erst durch gemeinsames Handeln konstituiert. Die Annahme übergeordneter Regeln führt in einen unendlichen Regress von Regeln und Deutungen dieser Regeln. Auch die Suche nach einfachen Gegenständen, die die Bedeutungen von Namen sind – eine Position, die Russell und er selbst vertreten hatten –, hält er nun für völlig verfehlt. Wittgenstein verwirft zugleich die Ansicht, dass es geistige Akte wie etwa des Meinens oder Verstehens geben muss, die festlegen, wann jemand etwas meint oder wann ein Ausdruck verstanden wird. Wenn es nur von meinem geistigen Akt abhinge, dann könnte ich mit jedem Ausdruck alles meinen. Ein weiterer Untersuchungsgegenstand sind Sätze, die persönliche Empfindungen ausdrücken wie beispielsweise „Ich habe Kopfschmerzen“. Hier sieht es so aus, als ob dies ein Bericht über einen privaten, inneren Zustand sei. Die Sprache verleitet dazu, einen solchen sprachunabhängigen Zustand anzunehmen. Da diese Inhalte aber nicht intersubjektiv zugänglich sind, sind sie irrelevant. (Siehe dazu auch Kapitel 8.) Private Empfindungen sind nicht Teil eines Sprachspiels. Solche Äußerungen ersetzen ursprüngliches Verhalten wie Stöhnen oder Schreien. Ihr Inhalt wird durch sprachliches und nicht-sprachliches Verhalten sowie die Reaktionen der Umwelt festgelegt. Diese Argumente sind Teil des sogenannten Privatsprachenarguments, in dem Wittgenstein dagegen argumentiert, dass es eine nicht-öffentliche, private Sprache gibt, die prinzipiell nur dem Sprecher zugänglich ist. Wittgenstein beschreitet einen völlig neuen Weg in der analytischen Sprachphilosophie. Er akzeptiert die Einschränkungen und Verkürzungen der idealsprachlichen Richtung nicht und betrachtet die Sprache als ein Werkzeug, mit dem man handelt und Handlungen hervorbringt. Dies ist der eigentliche Zweck des Sprechens. Die Aufgabe des Philosophierens besteht darin, die Sprache zu beschreiben und zu zeigen, wann sie uns auf Irrwege schickt. Obwohl Wittgenstein eine instrumentalistische Deutung seiner Position nahelegt (1953, § 569): „Die Sprache ist ein Instrument“, kann seine Position nicht als rein instrumentalistisch angesehen werden (vgl. von Savigny (1980, S. 73 f.)), denn das Verhalten bestimmt nicht immer die Bedeutung eines Ausdrucks. Es ist zum Beispiel möglich, eine scheinbar unsinnige Wortverbindung auszusprechen, und damit eine bestimmte Reaktion zu erzielen. Wittgenstein gibt das Beispiel: „Milch mir Zucker“. „Und wenn sie [die Äußerung] nun die Wirkung hat, daß der andere mich anstarrt und den Mund aufsperrt, so nenne ich sie deswegen nicht den Befehl, mich anzustarren etc., auch wenn ich gerade diese Wirkung hätte hervorbringen wollen.“ (Wittgenstein (1953, § 498)) Der Zweck, der erreicht wird, legt in diesem Fall nicht die Bedeutung der Wörter fest, sondern ebenfalls ihre übliche Verwendung.

4.3 Strawson: Sätze und Präsuppositionen

4.3 Strawson: Sätze und Präsuppositionen Im letzten Kapitel ist Russells Analyse von Sätzen, die Namen oder Kennzeichnungen enthalten, als Konjunktion verschiedener genereller Aussagen vorgestellt worden. Diese Analyse bleibt 45 Jahre unwidersprochen. Dann bringt der englische Philosoph Peter Strawson (1919–2006) einen neuen Gesichtspunkt in die Diskussion – die Unterscheidung von Satz, Gebrauch und Äußerung (Strawson (1950)). Schon Frege hat festgestellt, dass die Existenz des bezeichneten Objekts eine Voraussetzung für die Verwendung eines Satzes darstellt, der einen Namen oder eine Kennzeichnung enthält. Strawson entwickelt diese Ansicht weiter und unterscheidet zwischen einem Ausdruck (beispielsweise einer Kennzeichnung oder einem Satz), seinem Gebrauch und der Äußerung dieses Ausdrucks. Wird mit dem Ausdruck ‚der gegenwärtige König von Frankreich‘ bei verschiedenen Äußerungen immer derselbe Referent gemeint, etwa Ludwig XIV., dann handelt es sich um denselben Gebrauch des Ausdrucks. Sind verschiedene Referenten gemeint, etwa Ludwig XIV. und Ludwig XV., dann liegt ein unterschiedlicher Gebrauch vor. Die Kennzeichnung selbst hat keinen Referenten, sondern dieser wird durch den Gebrauch bestimmt. Ähnliches gilt für einen Satz:

Ausdruck, Gebrauch und Äußerung des Ausdrucks

K1: Der gegenwärtige König von Frankreich ist weise. Dieser Satz hat eine Bedeutung, aber ohne zu wissen, wann er gebraucht wird, um eine Behauptung zu äußern, ist es nicht möglich, ihm einen Wahrheitswert zuzuordnen. Daher ist es nach Strawson nicht sinnvoll, bei einem Satz nach seinem Wahrheitswert zu fragen, denn er kann einmal zu einer wahren Äußerung verwendet werden, ein anderes Mal zu einer falschen. Äußert man diesen Satz, gibt man jedoch zu verstehen, dass man annimmt, dass genau ein so bezeichneter Gegenstand existiert. Dieses Mitmeinen hat allerdings nicht den Status einer logischen Implikation wie in Russells Analyse. Dass ein Ausdruck sinnvoll ist, heißt, dass man ihn unter gewissen Umständen gebrauchen könnte, um etwas Wahres oder Falsches zu äußern beziehungsweise um auf einen bestimmten Gegenstand verweisen zu können. Den Sinn respektive die Bedeutung zu kennen, heißt, diese Umstände zu kennen. Existiert im Falle einer Kennzeichnung das beschriebene Objekt nicht, ist die Äußerung zwar sinnvoll, aber ‚wert‘-los, denn sie ist weder wahr noch falsch. Diese Voraussetzungen – Präsuppositionen – eines Satzes lassen sich daran erkennen, dass sie auch für den Fall der negierten Äußerung gelten. So wie die Äußerung von K1 die Existenz eines Referenten der Kennzeichnung voraussetzt, so gilt dies auch für die Negation: K2: Der gegenwärtige König von Frankreich ist nicht weise. In beiden Fällen wird präsupponiert, dass Frankreich zum Äußerungszeitpunkt eine Monarchie ist. Strawson beschreibt auf diese Weise das komplizierte Zusammenspiel von Ausdrücken, ihrem Gebrauch und ihrer Äußerung in der Alltagssprache.

Der Wahrheitswert eines Satzes hängt von dessen Gebrauch ab

Die Umstände einer Äußerung bestimmen deren Sinn und Bedeutung

53

54

4. Philosophie der Normalen Sprache

Dabei geht er zurück zur Fregeschen Ansicht, dass Namen und Kennzeichnungen singuläre Termini sind und dass die logische Form eines Satzes (der Art K1) ein singulärer Satz ist, der eine Subjekt-Prädikat-Struktur aufweist. Gleichzeitig akzeptiert er – im Gegensatz beispielsweise zu Russell –, dass es Wahrheitswertlücken gibt. Ungeklärt bleibt allerdings die zweifache Möglichkeit der Verneinung, die Russell durch die verschiedenen Lesarten – interne und externe Verneinung – erklären konnte, die im letzten Kapitel angerissen wurde. Da Strawson eine einfache Subjekt-Prädikat-Struktur zugrunde legt, kann der Satz K2 nur eine Lesart aufweisen – nämlich, dass ein bestimmtes Objekt nicht die Eigenschaft besitzt, weise zu sein. Auf der anderen Seite kann man K2 aber auch im Sinne von K3 verstehen: K3: Der gegenwärtige König von Frankreich ist nicht weise, weil es zur Zeit keinen König in Frankreich gibt.

Schwierigkeiten mit der zweifachen Bedeutung der Negation

Namen und Kennzeichnungen haben unterschiedliche Funktionen in der Sprache

Attributive und referentielle Verwendung von Kennzeichnungen

Semantischer Referent und Sprecher-Referent

Hierbei wird die Präsupposition verneint, die nicht expliziter Teil des Satzes ist. ‚Nicht‘ negiert daher manchmal die Anwendbarkeit des Prädikats, manchmal die Präsupposition eines Satzes. Strawson weist zwar darauf hin, dass die Umgangssprache keine exakte Logik aufweist, dennoch ist die Annahme – die Strawson nicht ausdrücklich macht –, dass die Negation mehrdeutig ist, ein kleiner Fleck auf der weißen Weste dieser Theorie, da sie innerhalb dieser Theorie nicht erklärt werden kann. Auch durch die sprachliche Intuition wird sie nicht gestützt. Weiterhin lässt sich zeigen, dass Namen und Kennzeichnungen, entgegen der Annahme Strawsons, in der Sprache unterschiedliche Aufgaben übernehmen. Namen lassen sich nicht immer durch Kennzeichnungen ersetzen und umgekehrt (vgl. Geach (1972, S. 94 f.)). Dies spricht dafür, sie auch unterschiedlich zu behandeln. Keith Donnellan (*1931) (1966) zeigt diese verschiedenen Aufgaben an einigen Beispielen. Er unterscheidet hierbei zwei Arten der Verwendung von Kennzeichnungen, die attributive und die referentielle. Eine Kennzeichnung wird attributiv verwendet, wenn der Sprecher einen Gegenstand in das Gespräch einführt, ohne dass der Referent der Kennzeichnung bekannt ist. Hierbei ist die Erfüllung des Prädikats der Kennzeichnung durch diesen Gegenstand eine notwendige Bedingung. Bei der referentiellen Verwendung wird durch die Kennzeichnung wie bei einem Eigennamen direkt auf einen Gegenstand verwiesen. Entspricht dieser nicht der Beschreibung, ist dies nicht von Belang, solange die Bezugnahme geglückt ist. Namen können daher höchstens referentiell verwendete Kennzeichnungen ersetzen. Die Unterscheidung referentiell/attributiv ist allerdings keine rein semantische Unterscheidung und Saul A. Kripke (*1941) konnte zeigen, dass sie nicht nur auf Kennzeichnungen beschränkt ist (Kripke (1977)). Er schlägt vor, zwischen dem semantischen Referenten einer Kennzeichnung, also dem Objekt, das durch die in der Kennzeichnung verwendeten Begriffe eindeutig spezifiziert wird, und dem Sprecher-Referenten, also dem Objekt, auf das der Sprecher mit der Kennzeichnung Bezug nehmen wollte, zu unterscheiden. Im Falle der referentiellen Verwendung einer Kennzeichnung muss der semantische Referent nicht gleich dem Sprecher-Referenten sein.

4.4 J. L. Austin: Die Theorie der Sprechakte

4.4 J.L. Austin: Die Theorie der Sprechakte Auch John Langshaw Austin (1911–1960) analysiert den alltäglichen Gebrauch sprachlicher Ausdrücke und systematisiert ihre verschiedenen Gebrauchsweisen, um so die Funktionsweise der Sprache besser verstehen zu können. Untersuchungsgegenstand ist nicht nur die Bedeutung einzelner Ausdrücke, sondern ihre Rolle im Sprachgebrauch. Sprache wird nicht als rein deskriptiv, sondern auch als performativ verstanden. Das heißt: Sie dient nicht nur dazu, Tatsachen zu beschreiben, sie schafft auch Tatsachen. Im Zuge dieser Analyse entwickelte Austin die Theorie der Sprechakte (1961), in der er die verschiedenen Aspekte einer Sprechhandlung erfasst. Diese Theorie – von John R. Searle (*1932) u. a. in Searle (1969) weiter ausgearbeitet – hatte großen Einfluss auch in der Linguistik. Was bedeutet beispielsweise dieser einfache Satz?

Was ist die Rolle von Ausdrücken im Sprachgebrauch?

BB: Heute Abend spielen die Bogus Brothers. Eine einfache Aussage, die sagt, dass heute Abend die bekannte Oldenburger Band, bestehend aus Martin, Tim und Rolf, Musik machen wird. Aber dieser Satz kann viel mehr bedeuten als nur das. Sehen wir uns verschiedene Möglichkeiten seiner Verwendung an. Meine beste Freundin kann mich mit diesem Satz darauf aufmerksam machen, dass das Konzert, auf das ich die ganze Zeit gewartet habe, heute endlich stattfindet. Oder sie kann mich darauf aufmerksam machen, dass ich nun endlich mein Versprechen einlösen kann, sie mit ins Konzert zu nehmen, beziehungsweise dass sie jetzt ihr Versprechen einlöst, mit mir ins Konzert zu gehen. Oder sie kann mir damit sagen, dass ich heute Abend auf ihren Sohn Paul aufpassen soll, damit sie zum Konzert gehen kann. Es kann selbstverständlich auch das Gegenteil der Fall sein, sie teilt mir durch diesen Satz mit, dass sie nicht mit mir ins Kino gehen kann, weil Rolf, der sonst immer auf Paul aufpasst, heute Abend spielen muss. Damit aber noch nicht genug. Dieser Satz kann eine Warnung sein, heute Abend nicht in meine Stammkneipe zu gehen, da dort sicherlich (zu) viele Menschen sein werden, und sie weiß, dass ich Menschenansammlungen und laute Musik hasse. Dies alles kann dieser harmlose Satz bedeuten. Woher kann man nun wissen, was er in der konkreten Situation bedeutet, da aus seiner sprachlichen Form und seinem semantischen Gehalt allein dies nicht zu ersehen ist? Wie sollten also solche sprachlichen Äußerungen analysiert werden? Austin unterscheidet hierbei im Wesentlichen drei verschiedene Beschreibungsmöglichkeiten. Nehmen wir an, Paul habe Sabine gegenüber geäußert:

Derselbe Satz kann verschiedene Bedeutungen haben

S: Der Stuhl ist kaputt. Zuerst betrachtet Austin allein die Äußerung beziehungsweise ihren Inhalt, dann den Zweck, der mit dieser Äußerung verbunden ist, und zuletzt die Wirkung, die diese Äußerung erzielt. Der erste Aspekt ist der lokutionäre Akt. Der zweite ist der illokutionäre; er ist verbunden mit der Frage „Was für eine Art Äußerung liegt hier vor?“ Im Fall von S ist es wahrscheinlich eine Warnung. Es könnte aber auch die Mitteilung sein, dass Sören diesen Stuhl

Lokutionäre, illokutionäre und perlokutionäre Rolle von Sätzen

55

56

4. Philosophie der Normalen Sprache

Sätze verursachen Handlungen in der Welt

Explizit und primär performative Sätze

immer noch nicht repariert hat, obwohl er es schon vor Tagen versprochen hatte. Es kann aber einfach auch Pauls Antwort auf die Frage sein, warum er sich nicht hinsetzt. Es hängt also von den Umständen ab, um welche Art von Äußerung es sich handelt. Nehmen wir an, Paul wollte Sabine warnen. Dann besteht der dritte Aspekt – der perlokutionäre Akt – darin, dass er es geschafft hat, Sabine mit dieser Äußerung zu warnen. Der lokutionäre Akt umfasst die Geräusche, die ein Sprecher macht, und das, was er sagt. Der illokutionäre Akt, der Zweck der Äußerung, wird durch die Umstände bestimmt, in der die Äußerung getätigt wird. Hierbei sind es – möglicherweise ungeschriebene (siehe den folgenden Abschnitt zu konversationalen Implikaturen) – Konventionen, die festlegen, ob eine Äußerung wirklich zu diesem Zweck gebraucht werden kann. Im Fall von S kann sich Paul auf diese Konventionen berufen, wenn sich Sabine dennoch auf den Stuhl setzt und dieser zusammenbricht, denn er hat wirklich eine Warnung ausgesprochen. Der perlokutionäre Akt wird dadurch bestimmt, dass auf die Äußerung kausal eine Wirkung folgt; der Adressat vollzieht oder unterlässt also eine Handlung, oder er hat bestimmte Gefühle oder Gedanken. Der Hörer muss die Äußerung und die damit verbundene illokutionäre Rolle verstehen. Die Besonderheit von Sprechakten besteht allgemein gesprochen darin, dass es mit ihnen gelingt, Handlungen in der Welt – also außerhalb der Sphäre der Sprache – zu vollziehen oder zu veranlassen. Sätze mit diesen Eigenschaften heißen performative Sätze. Die offensichtlichste Performanz ist sicherlich, ein Versprechen zu geben. Der, der das Versprechen gibt, ist im Folgenden auf eine bestimmte Handlungsweise festgelegt. Aber auch, wenn Thomas Nele sagt, dass er sie liebe, gibt er ihr damit nicht nur eine interessante Information. Darüber hinaus sagt er ihr, dass er sich ihr – und nur ihr – gegenüber in einer bestimmten Weise verhalten werde. Austin unterscheidet zwischen explizit performativen und primär performativen Akten. In beiden wird eine (Sprech-)Handlung vollzogen. Eine primär performative Äußerung ist jedoch eine wahrheitswertfähige Äußerung, die verschiedene illokutionäre Rollen haben kann, wie beispielsweise S: Der Stuhl ist kaputt. oder G: Ich bin gerade in Berlin. Sagt Paul hingegen W: Ich warne dich, der Stuhl ist defekt. ist dies keine wahrheitswertfähige Aussage, sondern eine explizite Warnung. In ihr macht der Sprecher deutlich, welcher illoktionäre Akt mit seiner Äußerung verbunden ist. Sie berichtet nicht – wie S oder G – über eine Tatsache, sondern schafft sie. Daher nennt Austin W eine explizit performative Äußerung. Solche Äußerungen können natürlich fehlschlagen, zum Beispiel dann, wenn der Sprecher sich auf eine nichtvorhandene Konvention beruft.

4.5 H. P. Grice: Konversationsimplikaturen

Wenn Sabine zu Paul sagt L: Ich lobe dich. weil er sein Zimmer ordentlich aufgeräumt hat, dann ist dies eine korrekte, explizit performative Äußerung. Sagt Lukas jedoch zu Paul B: Ich beleidige dich. ist dies keine Beleidigung, denn es gibt keine Konvention, auf die sich Lukas hierbei berufen kann. Es gibt weitere Möglichkeiten für Fehlschläge explizit performativer Äußerungen. Man kann zwar jemandem etwas versprechen, aber nur wenn er zum Zeitpunkt der Äußerung gegenwärtig ist. Hier gibt es zwar eine Konvention, aber die ist in der Situation nicht angemessen. Man kann auch den Fehler der Unredlichkeit begehen, indem man etwas verspricht, wohl wissend, dass man dieses Versprechen nicht halten wird. Es spielt auch eine Rolle, ob der Sprechakt vollständig und korrekt ausgeführt wurde. Es genügt zum Beispiel nicht zu sagen: „Ich wette, dass die Beatles die beste Rockgruppe aller Zeiten sind.“ – Es muss auch jemand dagegen wetten. Natürlich können auch implizit performative Äußerung fehlschlagen (vgl. von Savigny (1969)). Wichtig ist, dass bei allen Äußerungen der Kontext und die jeweilig herrschenden Konventionen die entscheidende Rolle spielen. Um Konventionen, die für eine gelingende Kommunikation erforderlich sind, geht es auch Herbert Paul Grice.

Sprechakte können scheitern

4.5 H.P. Grice: Konversationsimplikaturen Austin hat die verschiedenen Aspekte untersucht, die bei sprachlichen Äußerungen beobachtet werden können, und betont, dass Konventionen eine zentrale Rolle beim Gebrauch von Sprache spielen. Diese der Kommunikation zugrunde liegenden, meist unbewussten Regeln hat Herbert Paul Grice (1913–1988) (zum Beispiel (1975)) genauer untersucht. Sie helfen zu erklären, auf welche Weise manchmal mehr gemeint und verstanden – konversational implikiert – wird, als tatsächlich, das heißt wörtlich gesagt wurde. Grice formuliert vier Konversationsmaximen und ein darüber stehendes allgemeines Kooperationsprinzip: (P) Das Kooperationsprinzip Gestalte deinen Beitrag zur Konversation so, wie es die gegenwärtig akzeptierte Zweckbestimmung und Ausrichtung des Gesprächs, an dem du teilnimmst, erfordert. (I)

Die Quantitätsmaxime (i) Gestalte Deinen Beitrag so informativ wie für das Gespräch nötig. (ii) Gestalte Deinen Beitrag nicht informativer als nötig. (II) Die Qualitätsmaxime Versuche, deinen Beitrag wahr zu gestalten: (i) Sage nichts, was du für falsch hältst. (ii) Sage nichts, wofür du keinen Beweis hast.

Der sprachlichen Verständigung liegen auch unbewusste Regeln zu Grunde

57

58

4. Philosophie der Normalen Sprache

(III) Die Relevanzmaxime Mache deine Beiträge relevant. (IV) Die Maxime der Art und Weise Sei klar: (i) Vermeide Unklarheit. (ii) Vermeide Mehrdeutigkeiten. (iii) Fasse dich kurz. (iv) Sei methodisch. Kurz gesagt bedeutet dies alles, dass man klar, relevant und aufrichtig sprechen soll, während man in einem Gespräch Informationen vermittelt. Würden wir zum Beispiel im täglichen Leben die Frage „Können Sie mir sagen, wie viel Uhr es ist?“ ausschließlich mit „Ja“ beantworten, verstießen wir gegen das Kooperationsprinzip, denn wir wären unkooperativ, da der Fragende im Regelfall sicherlich nicht wissen will, ob man die Uhr lesen kann. Maxime (I) macht es unmöglich zu sagen: „Michael Sukale hat einen Ph. D., aber ich glaube es nicht“, denn wir dürfen nur Dinge äußern, die wir auch selbst glauben. Natürlich lassen sich viele Beispiele finden, in denen auf den ersten Blick diese Maximen nicht berücksichtigt werden, aber dies wirkt nur auf der Oberfläche so. In einem kurzen Gespräch der Art U: F: „Ist Lukas schon da?“ A: „Die blaue Ente steht vor der Tür.“

Ironie funktioniert durch konversationale Implikaturen

wechselt der Antwortende nicht das Thema (und ist dadurch unkooperativ), sondern gibt im Gegenteil die Information, die ihm zur Zeit zur Verfügung steht und die er für relevant hält, nämlich dass Lukas‘ Auto vor der Tür steht. Er ist auf einer tiefer liegenden Ebene kooperativ. Diese Annahme, dass unser Gesprächspartner normalerweise kooperativ ist, hilft uns auch, Ironie oder Metaphorik zu verstehen. Wird Englands Ex-Premierministerin als ‚Eiserne Lady‘ bezeichnet, wissen wir, dass damit wohl nicht im wortwörtlichen Sinne gemeint ist, dass sie aus Eisen besteht, sondern eher, dass sie einige der zufälligen Eigenschaften von Eisen aufweist, wie etwa Härte, Unbeugsamkeit, Kälte etc. Ähnliches gilt für das Verstehen von Ironie. Behauptet ein Student: A1: Aristoteles war der Autor des Theaitetos. und erhält als Antwort A2: Ja, und Kant hat den Faust geschrieben. dann darf man von der absurden Falschheit von A2 auf die Falschheit von A1 schließen, denn es ist klar, dass niemand bewusst die Maxime der Qualität (also dass man nur Wahres äußern soll) verletzt. Die Kooperativität besteht also darin, etwas Falsches dadurch zu entlarven, indem ebenfalls etwas klar ersichtlich Falsches geäußert wird. Grice konnte auf diesem Weg zeigen, dass die Konventionen, von denen Austin, aber auch Wittgenstein gesprochen haben, in einer Sprechergemeinschaft nicht willkürlich sind, auch wenn sie nirgends schriftlich fixiert wur-

4.6 „Was ist Dein Ziel in der Philosophie?“

den. Sprecher und Hörer benutzen sie im Verstehensprozess und können sich auf sie berufen. Es ist sogar möglich, allgemein anzugeben, wie Konversationsimplikaturen aus den Maximen ableitbar sind. Dazu folgendes Beispiel: Auf einer Party sagt Ulrich: „Der Gastgeber ist ein alter Sack!“ (G1) Darauf erwidert Thomas: „Gestern habe ich bei der Pferdewette gewonnen, denn mein Favorit war gut in Form. Haben Sie das Rennen gesehen?“ (G2) Diese Kommunikation sieht auf den ersten Blick gescheitert aus, weil scheinbar keine Beziehung zwischen den Redebeiträgen besteht und die Maxime III verletzt ist, weil G2 nicht relevant ist für G1. Da es aber keinen Grund gibt, anzunehmen, dass Thomas das Kooperationsprinzip (P) verletzen will, ergibt sich folgende Ableitung: Damit G2 sinnvoll ist, muss B die Implikatur G3 gedacht haben. Thomas weiß, dass die anderen merken (und wissen, dass Thomas das weiß), dass G3 für G2 nötig ist. Thomas hat nichts gegen diese Vermutung unternommen, dass er G3 unterstellt. Also möchte er, dass die anderen ebenfalls G3 annehmen. Dadurch hat er G3 implikiert. Die Implikatur G3 könnte etwa lauten: „G1 ist eine unpassende Beleidigung, über die man stillschweigend hinweggehen sollte.“

Konversationale Implikaturen sind nicht willkürlich

4.6 Warum Philosophie der Normalen Sprache oder „Was ist Dein Ziel in der Philosophie?“ Worin besteht nun die Zielrichtung der Philosophie der Normalen Sprache? Dies lässt sich nicht einheitlich für alle ihre Vertreter beantworten. Am ehesten lässt sich diese Gemeinsamkeit feststellen: Paradoxa und sprachliche Ungenauigkeiten sollen durch genaue Untersuchung der Umgangssprache, auch unter Zuhilfenahme der Sprachgeschichte, vermieden werden, indem aufgezeigt wird, dass die Umgangssprache schlussendlich gar keine Missverständnisse erzeugen kann, also alle Schwierigkeiten in ihrer Anwendung nur auf falscher Verwendung der Wörter beruhen. In diesem Sinne hat Austin (1961a, S. 130) die Philosophie der Normalen Sprache linguistic phenomenology genannt, weil sie nichts anderes tut, als die gegebene Sprache genau zu betrachten. Die Aufgabe der Philosophie ist es demnach nicht, Probleme durch Konstruktion neuer Sprachen zu umgehen oder aufzuheben, sondern sie durch genaue Analyse des Gegebenen zu beschreiben und – je nach Standpunkt – (auf-)zu lösen. Von Savigny (*1941) bestimmt die Aufgaben der Philosophie der Normalen Sprachen im Anschluss daran klassifizierend so (1969, S. 327 ff.): Kritische Funktion:

Die Aufgaben der Philosophie der Normalen Sprache

1. klärend oder 2. therapeutisch Demnach werden Probleme in kritischer Absicht so lange reformuliert, bis sie gelöst werden können (1). Ist das nicht möglich, handelt es sich um ein

Die klärende Funktion

59

60

4. Philosophie der Normalen Sprache

Die therapeutische Funktion

Scheinproblem (2). Ein Beispiel für (1) ist etwa Strawsons oben erwähnte Darstellung des Kennzeichnungsproblems: Aus der umgangssprachlichen Formulierung von Kennzeichnungen ergeben sich bestimmte Probleme, deren idealsprachliche Lösung (durch Russell) ebenfalls Schwächen aufweist. Strawson konnte zeigen, dass eine genaue normalsprachliche Reformulierung dessen, was eine Kennzeichnung ist und was sie leisten soll, helfen kann, diese Schwierigkeiten zu umgehen. Ein klassisches Scheinproblem im Sinne von (2) entstammt dem Bereich der Ethik und wird ausführlich im Kapitel 9, Analytische Ethik, behandelt: G. E. Moore konnte zeigen, dass die sprachliche Form der Rede von dem Guten jahrhundertelang die Ethiker dazu verführt hat, den Gegenstand das Gute zu hypostasieren – also für tatsächlich existent zu halten – und danach zu suchen. Eine genaue Analyse des Wortes ‚gut‘ aber zeigt, dass es tatsächlich ganz anders verwendet wird und nicht nur kein Gegenstand als seine Bedeutung angegeben werden kann, sondern darüber hinaus dazu auch gar nicht erforderlich ist. Nachdem dieses Scheinproblem auf diese Weise gelöst war, konnten in der Ethik neue Wege beschritten werden. Konstruktive Funktion: 3. heuristisch oder 4. beweisend

Die heuristische Funktion

Die beweisende Funktion

Konstruktiv wird die Philosophie der Normalen Sprache, wenn sie vom Bestehen sprachlicher Unterschiede auf sachliche Unterschiede schließt. Dieser Fall ist sehr problematisch, wenn er den Bereich der Sprache verlässt. Das Argument: „Man kann nur dann sinnvoll einen Begriff von Gott haben, wenn diesem Begriff auch etwas entspricht“ (sonst könnte man den Begriff nicht erlernen) führt noch lange nicht zum Existenzbeweis Gottes, denn es ist klar, dass man auch sinnvoll auf eine konsistente Klasse von Sätzen, etwa Mythen und Sagen, Bezug nehmen kann, denen aber nichts in der Welt entspricht. Hierbei handelt es sich um ein so genanntes paradigm case argument, das folglich mit entsprechender Vorsicht betrachtet werden muss. Meistens ist dieses Argument also lediglich heuristisch (3) zu verstehen. Das heißt: Es zeigt, dass es bestimmte sprachliche Unterschiede gibt, die aus gewissen Gründen bestehen. Der Erkenntnisgewinn bezieht sich also rein auf die Sprache. Eine beweisende (4) Funktion liegt dagegen vor, wenn sprachliche Unterschiede auch Konsequenzen für die Bezugnahme auf die Welt haben und diese Unterschiede somit begründen. So lässt sich aus der normalen Verwendung des Wortes ‚wissen‘ darauf schließen, dass es unmöglich ist, etwa von inneren Zuständen wie Schmerzen tatsächlich ein Wissen – im Unterschied einfach zur Empfindung dieses Zustands – zu haben. Was soll das nämlich für ein Wissen sein, das – wie im Falle der Schmerzen – prinzipiell nur ein Mensch haben kann? Zum Wissen gehört die Nachprüfbarkeit und Widerlegbarkeit. Beides kann einer allein prinzipiell nicht leisten (vgl. Wittgenstein (1953, §§ 243–315)). Infolgedessen kann man allein von dieser sprachlichen Analyse ausgehend darauf schließen, wovon man kein Wissen

4.6 „Was ist Dein Ziel in der Philosophie?“

haben kann: Empfindungen hat man einfach, weiß aber nicht, dass man etwas empfindet. Etwas deutlicher wird die beweisende Funktion der Philosophie der Normalen Sprache in der Argumentation Gilbert Ryles (1900–1976), die er in seinem Hauptwerk Der Begriff des Geistes von 1949 entfaltet. Darin greift er das seit Descartes vorherrschende Dogma an, dass der Geist als vom Körper verschieden gedacht werden müsse. Ryle argumentiert nun in zweifacher Hinsicht: Einerseits betrachtet er rein begrifflich die Konsequenzen der klassischen Auffassung. Demnach bleibt es unklar, wie man sich sicher sein könne, dass auch in anderen Personen ein Geist sei (das so genannte Problem anderer Geister) und wie der Brückenschlag zwischen immateriellem Geist und materiellem Körper zu verstehen sei, der gemeinhin durch die Annahme von Willensakten erklärt wird. Aus dieser Ansicht folgen also Thesen, die mit der Welt nicht oder nur schwer in Einklang zu bringen sind, weshalb Ryle diese Auffassung allein aus sprachlichen Gründen angreift. Andererseits argumentiert er – ebenfalls rein begrifflich – von der Sache ausgehend, dass die klassische Theorie eben Willensakte unterstellen müsse, was falsche Annahmen voraussetzt. Von Savigny (1969, S. 363 f.) rekonstruiert Ryles Argumentation folgendermaßen: I) x vollzieht den Willensakt, y zu tun, genau dann, wenn x y tun will; II) dass x y tun will, ist (von anderen Ursachen abgesehen) Ursache dafür, dass x y tut. das folgende Gesetz muss empirisch sein, damit II gelten kann: III) Wenn x y tun will, so tut x (in Abwesenheit störender Faktoren) y. Die Pointe dieses Arguments ist nach von Savigny nun folgende: Daß dies nicht der Fall ist, weist Ryle nach, indem er zeigt, daß x will y tun ein Dispositionsausdruck ist, der unter anderem durch den Ausdruck x tut y erklärt ist und ohne diesen letzten Ausdruck gar keine Bedeutung hätte. (von Savigny (1969, S. 363)) Ryles Angriff auf die klassische Auffassung, dass der Geist vom Körper verschieden ist, mündet in die Behauptung eines so genannten Kategorienfehlers. Er konnte ja zeigen, dass für den Geist ganz andere Bedingungen gelten als für den Körper. Daher dürfen diese Begriffe nicht als von derselben Kategorie aufgefasst werden. Um das zu veranschaulichen, verwendet er das Beispiel einer Fußballmannschaft. Wenn diese Mannschaft auf das Spielfeld aufläuft, laufen tatsächlich die einzelnen Spieler auf das Spielfeld auf, nicht aber zusätzlich noch eine eigene Entität Mannschaft. Die Rede „Die gegnerische Mannschaft läuft auf das Feld“ legt jedoch einen solchen Kategorienfehler nahe, weil sie sprachlich nicht unterschieden ist von der Rede über tatsächliche Gegenstände. Eine Aufgabe der normalsprachlichen Philosophie ist demnach die Untersuchung, zu welcher Art von Kategorien die Begriffe gehören. (Siehe auch Abschnitt 8.1.) Damit gelingt es Ryle, ohne Rückgriff auf empirische Befunde einen Beweis (im Sinne von von Savigny) zu führen. Dadurch wird sehr anschaulich, dass es sehr wohl möglich ist, aus rein sprachlichen Gründen auf Zustände

Ryle: Kategorienfehler

61

62

4. Philosophie der Normalen Sprache Der Schluss von sprachlichen Gründen auf Strukturen der Welt ist möglich

oder Strukturen in der Welt schließen zu können. Die Sprache verleitet die Vernunft. Ist diese widersprüchlich oder unklar, resultieren daraus Fehler, die man nicht durch eine Untersuchung der Welt beheben kann, weil man die Welt ja nur unter Verwendung dieser Sprache beschreiben und untersuchen kann. In diesem Sinne entfaltet die Philosophie der Normalen Sprache eine sehr große Wirkmächtigkeit – auch in Hinsicht auf die Frage nach der Ordnung der Welt.

4.7 Ausblick, Lektürehinweise, Fragen und Übungen Ausblick Das Aufkommen der Philosophie der Normalen Sprache erscheint geradezu als eine natürliche Entwicklung. Mit dem Beginn der Neuzeit und den modernen Naturwissenschaften entstand die Vorstellung, die Welt naturwissenschaftlich erklären zu können. Dies bedeutete das Ende des spekulativen Zeitalters. Es ist klar, dass sich auch die Philosophie und die aufkommenden Geisteswissenschaften von dieser Vorstellung begeistern ließen, ihre Theorien objektiv und allgemein gültig beweisen zu können. So entstand zunächst die Philosophie der Idealen Sprache, die das Ziel verfolgte, eine saubere Wissenschaftssprache zu entwickeln, mit der auch die Philosophie mit naturwissenschaftlicher Genauigkeit arbeiten können sollte. Wittgenstein ging sogar so weit, die Aufgabe der Philosophie darauf zu reduzieren, nur Sätze der Naturwissenschaft sagen zu dürfen und damit genau genommen keine Philosophie mehr zu betreiben (1921, Nr. 6.53). Nun zeigt sich, dass damit auch ein bestimmtes Verständnis von Philosophie verbunden ist. Es lassen sich nicht alle Facetten der Sprache – und schon gar nicht des menschlichen Lebens – idealsprachlich erfassen. Als Reaktion darauf begannen einige Philosophen den ihrer Ansicht nach vernachlässigten Aspekt zu untersuchen: die Umgangssprache. In der Frühzeit der Philosophie der Normalen Sprache kann es so scheinen, als wäre auf diese Weise eine Frontstellung zwischen den beiden sprachphilosophischen Richtungen entstanden. Das mag für bestimmte Autoren, wie etwa Wittgenstein (der ja zu verschiedenen Zeiten beide Positionen vertrat), auch der Fall sein. Zwischenzeitlich hat sich jedoch bei der Idealsprache die Erkenntnis durchgesetzt, dass sie nur für einen begrenzten Anwendungsbereich Gültigkeit hat, und die Normalsprache hat eingesehen, dass eine reine Beschreibung der Alltagssprache nicht immer zu einer Lösung der philosophischen Probleme beiträgt. Man kann daher sagen, dass beide sprachphilosophischen Richtungen nun nebeneinander existieren und gegenseitig voneinander profitieren. In der gegenwärtigen Diskussion sind einflussreiche normalsprachliche Argumentationen vor allen Dingen im Bereich der Philosophie des Geistes zu finden. Zu erwähnen ist hier beispielsweise die Arbeit zur Klärung der begrifflichen Grundlagen der Neurowissenschaften von Hacker/Bennett (2003). Sie zeigen darin, dass bestimmte Thesen der Neurowissenschaft nicht tragen können, weil dort andere Dinge gezeigt werden, als mit dem verwendeten Begriffsapparat überhaupt gezeigt werden können. So untersucht die Neurowissenschaft beispielsweise nur das Gehirn und zieht aus diesen Untersuchungsergebnissen dann Schlüsse, die den Menschen als Ganzen betreffen sollen. Ein solcher Schluss ist aber nicht möglich, weil es dazu der Angabe genauer Kausalketten bedürfte, wie von Eigenschaften eines Teiles eines Gegenstandes auf Eigenschaften des ganzen Gegenstandes geschlossen werden kann. Dies ist der mereologische Fehlschluss (siehe Kapitel 1). Darüber hinaus haben die Untersuchungen und Einsichten in diesem Bereich dazu geführt, dass sich neben der Semiotik eine eigenständige allgemeine Sprachwissenschaft etablieren konnte, in der viele der in der Philosophie entwickelten Gedanken konkretisiert und weiterverfolgt wurden.

4.7 Ausblick, Lektürehinweise, Fragen und Übungen

Lektürehinweise Der Bereich der Philosophie der Normalen Sprache wird ausgezeichnet in von Savigny (1969) dargestellt. Eine sehr gute Einführung in die linguistische Pragmatik, die auch die philosophischen Wurzeln berücksichtigt, bietet Levinson (1983). Eine Anwendung der Methoden der Philosophie der Normalen Sprache findet sich in Bennett/Hacker (2003). Leider sehr teuer, dafür aber sehr empfehlenswert ist die Einführung in die Philosophie normalsprachlich arbeitender Philosophen mit ihren Hauptbetätigungsfeldern und Methoden von Hanfling (2000).

Fragen und Übungen 1. Ist die Sprache in den Handlungspraktiken der Menschen verwurzelt und sind die Handlungspraktiken verschieden, wie sieht es dann mit dem Verstehen aus? Gibt es derart verschiedene Lebensweisen, dass Menschen sich prinzipiell nicht mehr verstehen können? 2. Welche Konsequenzen ergeben sich für die Bedeutung von Wörtern in Abhängigkeit von den Standpunkten der Idealen und der Normalen Sprache? 3. Geben Sie fünf weitere Beispiele für Sprechakte an. 4. Benennen Sie fünf andere konversationale Implikaturen. 5. Geben die Überlegungen zum Kategorienfehler Hilfestellung zur Lösung aktueller Fragen der Neurowissenschaften?

63

5. Ontologie Die Metaphysik als philosophische Disziplin beschäftigt sich mit der grundlegenden Frage nach dem Sein, die sich erfreulich einfach formulieren lässt: Was gibt es? Was existiert? Eine solche Auseinandersetzung kann einmal zu ganz konkreten Fragen führen: Gibt es einen Gott? Gibt es die Seele? Gibt es einen Grund für das Sein? – Fragen dieser Art werden der speziellen Metaphysik zugerechnet. Analytisch arbeitende Philosophen sind in der Regel weit mehr an Fragen interessiert, die allgemeinerer Natur sind: Welche Arten (oder Kategorien) von Objekten gibt es? Wodurch sind diese charakterisiert, in welchen Verhältnissen stehen sie zueinander? Dabei geht es nicht nur um das, was es tatsächlich gibt – das Wirkliche –, sondern auch um das, was es nicht gibt, aber geben könnte – das Mögliche. Dies sind typische Fragen der allgemeinen Metaphysik, der Ontologie, um die es in diesem Kapitel gehen wird. In der Ontologie werden dementsprechend Theorien über die Grundstrukturen der Realität aufgestellt – Theorien darüber, welche Arten von Objekten es gibt und in welchen Verhältnissen diese zueinander stehen – und anhand verschiedenster Kriterien verglichen und optimiert. Eine Besonderheit der analytischen Herangehensweise an die Ontologie ist, dass sehr stark unter Rückgriff auf Logik und formale Sprachen gearbeitet wird. Zu Beginn dieses Kapitels soll die Methode der Ontologie thematisiert werden: Die Sprache als Ausgangspunkt ontologischer Überlegungen wird betrachtet. Auf dieser Grundlage werden dann einige ontologische Kategorien vorgestellt und Möglichkeiten betrachtet, wie mit ihnen unterschiedliche ontologische Systeme konstruiert werden können. Ein Abschnitt wird sich mit der Realität von Relationen, ein anderer mit der in der Philosophie verbreiteten Diskussion von modalen Sachverhalten beschäftigen und der Frage nachgehen, was ‚mögliche Welten‘ eigentlich sind. Schließlich wird die Metaphysikkritik des Logischen Positivismus angesprochen sowie Quines Konzept der ‚ontologischen Verpflichtung‘.

5.1 Methode: Sprache und Welt Traditionell wird die Ontologie meist unter Rückgriff auf die Sprache als vermittelnde Instanz betrieben. Der Grundgedanke ist dabei der, dass unsere Alltagssprachen sich im Verlauf der Menschheitsgeschichte zum Zwecke der Beschreibung der Welt herausgebildet haben: Wir benutzen Sprache, um uns mit ihr auf die Welt zu beziehen. Man kann nun die Auffassung vertreten, dass die Strukturen der Realität in der einen oder anderen Form analoge Strukturen der Sprache ‚hervorgebracht‘ haben, dass die Sprache nur dann als Werkzeug zur Weltbeschreibung funktionieren kann, wenn ihre Strukturen in wesentlichen Aspekten mit denen der Welt übereinstimmen.

5.2 Kategorien

Trifft diese Auffassung zu, hat man über den Umweg der Sprachanalyse Zugriff auf die Realität. Dieser Weg ist insofern tatsächlich nur ein Umweg, als die über die Sprachanalyse aufgedeckten Strukturen als Strukturen der Welt aufgefasst werden und nicht etwa als Strukturen der Sprache – auch in einer Welt ohne Sprache würden diese Strukturen eine angemessene Beschreibung der Realität darstellen. In der Praxis zeigt sich jedoch schnell, dass die Sprachanalyse zwar zu Ergebnissen führt, diese jedoch alles andere als eindeutig sind. Nicht nur in Detailfragen, auch hinsichtlich ganz wesentlicher Grundannahmen gibt es alternative Auffassungen über die Strukturen der Realität, die zunächst gleichberechtigt nebeneinander stehen und die die aufgedeckten Strukturen der Sprache in gleicher Weise hervorgebracht haben könnten. Man stelle sich zur Illustration des Problems den runden Wachsabdruck einer Münze vor: dieser sei die Sprache. Darin sind klar unterschiedliche Strukturen, unterschiedlich tief eingedrückte Bereiche, zu erkennen. Ob dieser Abdruck nun aber von einer Gold-, Kupfer oder Plastikmünze stammt, bleibt unklar. Es wäre auch möglich, dass die Münze elliptisch und nicht rund war, das Wachs aber nach dem Abdruck gedehnt oder gestaucht wurde, was die runde Form hervorgerufen haben könnte. Wir sind auf die Untersuchung des Wachsabdruckes beschränkt und können über die Münze selbst nur Theorien aufstellen. Ontologische Theorien, also Theorien über die Grundstrukturen der Realität, sind nun massiv unterbestimmt: Auf Grundlage der vorhandenen Daten ist es nicht möglich, zu sicheren Ergebnissen zu kommen, die eine oder andere Theorie schließlich als die korrekte, als die wahre Theorie zu erkennen. Auch fehlt es oft an guten Kriterien, die konkurrierenden Theorien miteinander zu vergleichen; der Ontologie haftet damit ein wenig der Nimbus der Beliebigkeit an. Was die Ontologie aber leisten kann, ist, verschiedene alternative Systeme aufzustellen und diese hinsichtlich ihrer Leistungsfähigkeit und ihrer Voraussetzungen zu bewerten: Was ‚können‘ die Systeme – eignen sie sich als Hintergrund für andere philosophische und wissenschaftliche Theorien? Und was setzen die ontologischen Theorien ihrerseits voraus, sind ihre Aussagen über die Strukturen der Realität noch mit unseren diesbezüglichen Intuitionen vereinbar?

5.2 Kategorien Will man sich mit der Frage auseinandersetzen, was es gibt, welches die kleinsten Bausteine der Realität sind, sollte man zunächst einmal die möglichen Kandidaten kennenlernen. Was für Arten oder Kategorien von Bausteinen könnte es überhaupt geben? Einige Kategorien haben sich aus verschiedenen Gründen als erfolgversprechende Kandidaten erwiesen. Während es sich bei vielen davon um alte Bekannte handelt, die schon seit den Anfängen der westlichen Philosophie diskutiert werden, sind andere davon kaum 100 Jahre alt. Hier sollen zunächst zwei der in der Philosophiegeschichte am weitesten verbreiteten und intuitiv zugänglichsten Kategorien von Entitäten – der ontologische Sammelbegriff für Objekte, unabhängig von einer be-

Unterbestimmtheit ontologischer Theorien

65

66

5. Ontologie

Dinge

Eigenschaften/ Relationen

stimmten Kategorie – vorgestellt werden, die auch in der Alltagssprache eine herausragende Rolle spielen: Dinge und Eigenschaften. Fast alle sprachlichen Aussagen können als die Zuschreibung irgendwelcher Eigenschaften auf irgendwelche Dinge verstanden werden. Was für Entitäten im Einzelfall unter die Kategorie der Dinge fallen sollen, hängt vom jeweiligen ontologischen System ab; überhaupt sind die meisten ontologischen Detailfragen nur vor dem Hintergrund eines vollständigen ontologischen Systems sinnvoll zu klären, also sehr stark kontextabhängig. An dieser Stelle geht es zunächst nur um eine erste, grobe Eingrenzung. Ein entscheidendes Merkmal der Entitäten dieser Kategorie ist, dass sie unabhängig sind, ‚gesättigt‘, und für sich bestehen können: Eine konkrete Flasche beispielsweise ist ein Ding, eine Portion Bayerisch Creme ist ein Ding, Sokrates ist ein Ding, die Sonne ist ein Ding. Aber auch Moleküle, Atome, Elektronen sind Dinge. Ereignisse sind Dinge – das Fallenlassen meines Bleistiftes ist in gewisser Hinsicht ein Ding. Mein Hungergefühl ist ebenfalls ein Ding, Pegasus auch. Man sieht schnell, dass sich in der Ding-Kategorie sehr unterschiedliche Objekte befinden können, was Probleme bereiten kann: Die Flasche ist ein Ding, auch die Moleküle, Atome, Elektronen, Elementarteilchen aus denen sie besteht. Inwiefern kann man da noch sinnvoll von einer Unabhängigkeit der Dinge sprechen? Ähnlich sieht es mit Gefühlen aus – wie können Gefühle von einem Träger unabhängig sein? Und inwiefern soll es Pegasus, das geflügelte Pferd, geben? – Solche Fragen können je nach ontologischem System sehr verschieden beantwortet werden und daher spielt der Kontext, der durch das verhandelte ontologische System gegeben ist, eine entscheidende Rolle. Um nur ein Beispiel zu geben: Man könnte ein System konstruieren, in dem nur subatomare Elementarteilchen als ‚echte‘ Dinge, als Elemente der Ding-Kategorie vorkommen; Atome, Moleküle und Alltagsgegenstände wären dann aus diesen zusammengesetzte Komplexe und würden als eigenständig existierende, unabhängige Dinge nicht in dem System vorkommen. Ebenso kann man ontologische Systeme konstruieren, die ausschließlich Ereignisse als Elemente der Ding-Kategorie zulassen. Die Möglichkeiten sind extrem vielfältig. Die in einem ontologischen System vorkommenden Dinge – was auch immer das in einem konkreten Fall für Objekte sein mögen – haben Eigenschaften und stehen in Relationen zueinander. Eigenschaften/Relationen bilden eine weitere ontologische Kategorie. Diese Flasche beispielsweise ist blau, hat die Eigenschaft des Blauseins. Auch das Großsein, das Gerechtsein und das Schnellsein sind Eigenschaften. Diese Flasche ist zudem größer als dieser Becher: Das ‚Größersein als‘ ist eine Relation. Eigenschaften und Relationen kommen immer Dingen zu oder werden von ihnen exemplifiziert/ instantiiert. Im Gegensatz zu den Dingen sind Eigenschaften und Relationen daher nicht unabhängig: Einem Ding kann eine Eigenschaft zukommen, diese Flasche kann blau sein, aber das Blausein selbst ist ‚ungesättigt‘ und kommt ohne einen ‚Träger‘ – also ein Ding, welches die entsprechende Eigenschaft hat – nicht vor. Welche Eigenschaften und Relationen es in einem gegebenen ontologischen System gibt, hängt immer auch von den jeweils in dem System vor-

5.3 Ideale Sprachen und Korrespondenz

handenen Dingen ab – und umgekehrt. In einem System, in dem Elementarteilchen die einzigen Dinge sind, wird es die Flasche als ‚echtes‘ Ding nicht geben und analog dazu auch die ontologische Eigenschaft der Röte nicht, da Röte keine Eigenschaft ist, die sinnvoll Elementarteilchen zugeschrieben werden kann. Das heißt wohlgemerkt nicht zwangsläufig, dass aus diesen Elementarteilchen bestehende Komplexe wie diese Tomate nicht rot sein können – in einem solchen System wären die Röte und auch die Eigenschaft, eine Tomate zu sein, aber komplexe Eigenschaften, denen auf der fundamentalen Ebene der Grundbausteine der Welt keine ‚echte‘ ontologische Eigenschaft entspricht.

5.3 Ideale Sprachen und Korrespondenz Frege verglich Eigenschaften mit mathematischen Funktionen und veranschaulichte deren Ungesättigtheit metaphorisch: Eigenschaften haben eine ‚Leerstelle‘. Entsprechend kann man das Blausein sprachlich durch ein Prädikat mit einer Leerstelle ausdrücken: ‚… ist blau‘. So wird der Umstand, dass die Eigenschaft ungesättigt ist, schon am dafür stehenden sprachlichen Symbol deutlich. Erst wenn die Leerstelle des Prädikats durch einen Ausdruck für ein Ding ‚gesättigt‘ wird, erhält man einen vollständigen Satz: „Diese Flasche ist blau.“ Relationen sind den Eigenschaften sehr ähnlich, haben aber zwei oder mehr Leerstellen: ‚… ist größer als …‘, ‚… liegt zwischen … und …‘. Entsprechend werden zur Sättigung einer Relation auch mehr Dinge benötigt. In der Analytischen Philosophie wird Ontologie zumeist unter Rückgriff auf Ideale Sprachen betrieben; im 3. Kapitel wurde dies bereits verschiedentlich angesprochen. Den Dingen korrespondieren auf Seite der Sprache Individualausdrücke, Namen; den Eigenschaften und Relationen korrespondieren Prädikate. Im 2. Kapitel wurde die Prädikatenlogik als allgemeines Gerüst einer Idealsprache vorgestellt, in die sich normalsprachliche Aussagen übertragen lassen. Man kann nun von einer Korrespondenz zwischen Idealsprache und Realität in folgender Weise ausgehen: Den Prädikaten der Idealsprache entsprechen auf Seite der Realität Eigenschaften und Relationen, den Individualausdrücken bzw. Namen Dinge. Die Formalisierung – die ‚Übersetzung‘ der alltagssprachlichen Aussagen in die Formelsprache der Logik – dient hier einer Präzisierung der alltagssprachlichen Aussagen. In der analytischen Ontologie wird oft auf formale Sprachen zurückgegriffen. Die Idee der Korrespondenz idealer Sprachen mit der Wirklichkeit ist dabei nicht auf die Prädikatenlogik beschränkt, sondern kann auch auf andere Logiken und Sprachen ausgedehnt werden, deren nicht-logischen Ausdrücken (Termen, Prädikaten, …) andere Entitäten entsprechender ontologischer Systeme korrespondieren – dies eröffnet einen enormen Spielraum. So lässt sich zu jedem ontologischen System theoretisch auch eine passende Idealsprache konstruieren. Auf dieser Grundlage lässt sich über die Untersuchung von Übersetzungsmöglichkeiten zwischen Sprachen auch ein Vergleich ontologischer Systeme anstellen. Dieser Gedanke wird im weiteren Verlauf dieses Kapitel wieder aufgegriffen werden.

67

68

5. Ontologie

5.4 Beispiel: Eine Sachverhalts-Ontologie

Wahrmacher

Struktur

Wie könnte nun ein ontologisches System aussehen? Als Beispiel sei hier eine Sachverhalts-Ontologie vorgestellt, an der typische Methoden und Probleme der Ontologie verdeutlicht werden können. Es stellt sich zunächst die Frage, was überhaupt für eine ontologische Theorie spricht, die mit Sachverhalten als ontologische Kategorie operiert. Die Grundidee ist, dass Sachverhalte als Wahrmacher (truthmakers) für Aussagen fungieren: Die Aussage, dass ein Weinglas auf dem Tisch vor mir steht, ist wahr. Was aber macht sie wahr? Gemäß der Korrespondenztheorie der Wahrheit ist ihre Übereinstimmung mit der Welt dafür verantwortlich. Was aber an der Welt ist es, das die Aussage wahr macht? Nun – eben die Tatsache, der Sachverhalt, dass dort ein Weinglas auf dem Tisch steht. Nicht das Weinglas als Ding, nicht der Tisch als Ding, nicht die Relation ‚steht auf‘: Es ist die spezifische Kombination aus diesen Dingen und Relationen, die die Aussage wahr macht. Zunächst einmal benötigen wir die Kategorie der Dinge – der Tisch und das Weinglas sind Entitäten, die dieser Kategorie angehören. Dann benötigen wir die Kategorie der Eigenschaften/Relationen für das ‚steht auf‘. Wenn die Sachverhalte aber aus den Dingen und Eigenschaften/Relationen bestehen, benötigt man dann überhaupt noch die dritte Kategorie der Sachverhalte? Wäre es nicht besser, von der Voraussetzung der Existenz der Sachverhalte als eigenständiger Kategorie abzusehen und sie nur als Komplexe aufzufassen, die nicht mehr sind als eine Kombination ihrer Konstituenten? Dies ist jedoch nicht ohne Weiteres möglich. Die reine, unspezifische Kombination der Komponenten lässt in unserem Beispiel offen, ob das Glas auf dem Tisch steht oder aber der Tisch auf dem Glas – beide möglichen Sachverhalte bestehen aus denselben Komponenten, aber es kann nur einen von ihnen geben. Der Sachverhalt bringt die Komponenten, aus denen er besteht, erst in eine spezifische Struktur – und dass die Welt eine solche Struktur hat, ist eine praktisch unverzichtbare Annahme, wie durch das Beispiel deutlich wird.

5.5 Tropen und Bündel

Tropen

Für die Annahme von Sachverhalten als eigene Kategorie sprechen, wie sich gezeigt hat, gute Gründe. Man ist jedoch nicht darauf festgelegt, seine Sachverhalte aus Dingen und Eigenschaften/Relationen aufzubauen, ist also nicht auf Dinge und Eigenschaften/Relationen als Kategorien angewiesen, wenn man Sachverhalte als Bestandteile seiner Ontologie haben möchte. Eine verbreitete und elegante Alternative stellen solche ontologischen Systeme dar, die auf Tropen zurückgreifen. Die Kategorie der Tropen wird durch individualisierte Abstrakta gebildet. Der Sachverhalt, dass diese Flasche blau ist, wird in der im vorigen Unterabschnitt besprochenen Sachverhaltsontologie dadurch gebildet, dass einem konkreten Ding, dieser Flasche, eine bestimmte Eigenschaft, das Blausein, zukommt. Dieses Blausein ist nun aber auch genau das Blausein, das dem

5.5 Tropen und Bündel

blauen Auto unten auf dem Parkplatz zukommt und auch der Tulpe draußen im Garten. Das eine Blausein tritt also an mehreren Objekten und an mehren Stellen auf. Individualisierte Abstrakta, Tropen, werden demgegenüber so verstanden, dass sie immer nur an einem einzigen Objekt, an einer einzigen Stelle vorkommen. Das Blausein dieser Flasche besteht einer solchen Auffassung nach nicht darin, dass dem Ding Flasche die Eigenschaft Blausein zukommt, sondern darin, dass der Flasche eine spezielle Blau-Trope zukommt, die in ihr instantiiert oder exemplifiziert ist. Dem Auto und der Tulpe kommen ebenfalls entsprechende Blau-Tropen zu, aber jede BlauTrope ist von den anderen unabhängig. An die Stelle der einen Eigenschaft, die an n Objekten vorkam, treten hier also n numerisch verschiedene, aber ansonsten gleiche Tropen. Ihren besonderen Charme entwickelt die Tropentheorie aber erst in Verbindung mit der Bündeltheorie. Während die Tropentheorie sich auf die kleinsten Grundbausteine der Realität bezieht, hat die Bündeltheorie nur indirekt damit zu tun. In ihr wird vielmehr die Art der Verknüpfung der Grundbausteine der Realität untersucht, der Aufbau der Sachverhalte. Durch das im vorigen Absatz beschriebene Ersetzen der Eigenschaften durch Tropen ist zunächst nicht viel gewonnen. Man kann auf die Kategorie der Eigenschaften/Relationen (wie sich Relationen hier einfügen, ist noch ein spezielles Problem, auf das an dieser Stelle aber nicht eingegangen werden soll) verzichten, muss dafür aber den Preis zahlen, eine neue Kategorie, die der Tropen, aufzunehmen. Mit den Tropen ist es aber relativ problemlos möglich, neben den Eigenschaften/Relationen auch auf die Annahme der Dinge als eigenständige Kategorie zu verzichten. Nehmen wir als Beispiel wieder die blaue Flasche. Die blaue Flasche kann einmal als ein Ding aufgefasst werden, dem viele Tropen zukommen: Eine Blau-Trope, eine Flaschen-Trope, … Nimmt man nun aber das Bündel aller Tropen, die dem Ding, der Flasche zukommen, ist die Flasche bereits vollständig gegeben. Dass es über diese Ansammlung, dieses Tropen-Bündel hinaus noch ein Ding gibt, das Träger aller dieser Eigenschaften ist, ist dieser Auffassung nach nur noch als Metapher aufzufassen. Was es wirklich gibt, sind kompräsente Tropen: Tropen, die sich eine Raumzeitstelle teilen und so ein Bündel bilden. Natürlich kann ich noch von dem Ding sprechen, aber das Ding ist dann keine eigenständige Entität mehr, sondern eine Konstruktion aus seinen Tropen. Eine Aussage wie „Diese Flasche ist blau“ wird nach wie vor durch den Sachverhalt wahr gemacht, dass die Flasche blau ist – nur besteht dieser Sachverhalt in dieser Theorie nicht mehr aus der konkreten Flasche, der die Eigenschaft des Blauseins oder eine Blau-Trope zukommt, sondern darin, dass eine Blau-Trope Teil des kompräsenten Tropenbündels ist, das die Flasche ist. Eingangs wurde die massive Unterbestimmtheit ontologischer Theorien angesprochen; anhand der drei kurz vorgestellten Systeme kann dies nun erläutert werden. Dass die Flasche blau ist, scheint auf den ersten Blick klarerweise die Zuschreibung einer Eigenschaft, des Blauseins, auf ein Ding, die Flasche, zu sein. Die normalsprachliche Form legt eine solche Interpretation nahe. Es hat sich aber gezeigt, dass die Tropentheorie in Verbindung mit Dingen oder auch die ontologisch sparsamere Kombination von Tropen-

Bündeltheorie

ein Beispiel für die Unterbestimmtheit

69

70

5. Ontologie

und Bündeltheorie angemessene und plausible Alternativen zu dieser Auffassung sind. Ob aber überhaupt eine dieser Auffassungen die Wahrheit über die Struktur der Welt ist, ist völlig unklar: Diese drei und unzählige Alternativen stehen gleichberechtigt nebeneinander, sie sind gleich leistungsfähig. Dies lässt sich auch formal zeigen: Ein gegebener Sachverhalt wird, wie eben angesprochen, im Rahmen verschiedener ontologischer Systeme unterschiedlich aufgefasst, er besteht aus jeweils andersartigen Komponenten, die auf individuelle Weise miteinander zum Sachverhalt verknüpft werden. Jedem dieser Systeme entspricht nun eine ideale Sprache mit analogen sprachlichen Ausdrücken und Verknüpfungsregeln, die zu unterschiedlichen Formalisierungen des Sachverhalts führen. Sind ontologische Systeme gleich leistungsfähig, müssen sich generelle Übersetzungsregeln angeben lassen, die es erlauben, diese unterschiedlichen Formalisierungen ineinander zu überführen. Das ist hier der Fall.

5.6 Alles beliebig? In einigen Fällen gibt es dennoch konkrete und plausible Gründe, spezielle ontologische Systeme zu verwerfen oder zu akzeptieren. Ein Beispiel für eine echte Kontroverse ist der zu Beginn des letzten Jahrhunderts zwischen F. H. Bradley (1846–1926) und Bertrand Russell ausgefochtene Disput um die Realität der Relationen, dessen Kerngedanken hier in einfachen Zügen nachgezeichnet werden sollen. In Kapitel 3 wurde bereits darauf hingewiesen, dass die normalen Sprachen in mancherlei Hinsicht defizitär sind. Dort wurden als Beispiele die Ambiguität und die Vagheit einiger sprachlicher Ausdrücke genannt. Ein für die Ontologie gewichtiges Charakteristikum ist, dass sich (zumindest in den indoeuropäischen Sprachen) beinahe alle Aussagen so umformulieren lassen, dass einem Subjekt ein (einstelliges) Prädikat zugeschrieben wird: Praktisch jeder Satz kann so umgeformt werden, dass er aus Subjekt und Prädikat besteht, die mittels einer Kopula miteinander verbunden sind. Es ist nur natürlich anzunehmen, dass jede Tatsache [jeder Sachverhalt] eine dieser Struktur korrespondierende Form aufweist, nämlich dass einer Substanz eine Qualität zukommt. (Russell (1924, S. 331)) zur Realität der Relationen

Eine prädikatenlogische Formalisierung der normalsprachlichen Aussagen macht dies deutlich: Es scheint so, als ließen sich alle normalsprachlichen Aussagen unter Rückgriff auf Individualterme, also Namen, und geeignet gewählte einstellige Prädikate angemessen formalisieren. Dieser Umstand hat dazu geführt, dass viele Autoren die Auffassung vertreten haben, dass es auf der Ebene der Welt auch nur diesen Individualtermen und Prädikaten korrespondierende Entitäten gibt, also Dinge und Eigenschaften, nicht aber (mehrstellige) Relationen. Gegen diese Auffassung wandte sich Russell. In Russells Argumentation spielt die enge Verzahnung der Ontologie mit der Sprache eine herausragende Rolle. Eine oberflächliche Analyse der normalen Sprache führt zu der Auffassung, dass es keine Relationen gibt, dass also Eigenschaften als Korrespondenten der normalsprachlichen Prädikate

5.6 Alles beliebig?

ausreichen. Wenn dem so ist, müssten sich alle normalsprachlichen Aussagen, auch alle Relationsaussagen, in eine dieser Ontologie entsprechende Idealsprache übertragen lassen, also in eine Sprache, die ohne Relationsausdrücke auskommt. Russells Strategie besteht nun darin, verschiedene Möglichkeiten einer solchen Formalisierung zu untersuchen und deren Defizite aufzuzeigen. Um der Kürze und Deutlichkeit willen beschränke ich mich hier in der Darstellung auf die besonders problematischen asymmetrischen Relationen: wenn Rab gilt, dann gilt entsprechend ~Rba. Beispiele dafür sind Relationen wie ‚… ist größer als…‘, ‚… ist früher als…‘. Der Auffassung der Relationen-Gegner nach müssen sich alle Relationsaussagen so analysieren lassen, dass sie in eine Subjekt-Prädikat-Form überführbar sind. Diese Idee ist nicht neu, und zwei interessante Strategien zu einer solchen Analyse wurden in der Philosophiegeschichte verfolgt: Eine Relation Rab sei gegeben. Diese lässt sich analysieren als 1. a und b haben jeweils eine unterschiedliche Eigenschaft, die das jeweils andere Objekt ‚enthält‘: Rb(a) b Ra(b); 2. a und b bilden ein neues Objekt, das eine Eigenschaft Q hat: Q[ab]. Tatsächlich scheinen beides effektive und bequeme Strategien zu sein, Relationsaussagen in eine Subjekt-Prädikat-Form zu transferieren. Beide Ansätze sollen nun vorgestellt werden. Entsprechend Option (1) haben a und b jeweils eine unterschiedliche Eigenschaft, die das andere Objekt ‚enthält‘: Rb(a) b Ra(b). Ein solcher Ansatz findet sich bei Leibniz: „a (ist größer als) b“ wird analysiert als „a (ist größer als b) und b (ist nicht größer als a)“. In einer solchen Analyse werden die augenscheinlichen Relata der ursprünglichen Aussage zu nicht analysierbaren Bestandteilen der ‚neuen‘ Eigenschaften. Die Art und Weise der eigenschaftsinternen Referenz auf die Relata bleibt obskur und es wäre kompliziert (um es vorsichtig auszudrücken), allgemeinere Aussagen über strukturelle Eigenschaften der Relationen zu machen, beispielsweise das Kriterium für die Transitivität zu formulieren. Hinzu kommt noch der intuitiv wenig plausible Umstand, dass, wenn ein Objekt mit all seinen Eigenschaften gegeben ist, Referenzen auf sämtliche weitere Objekte in seinen Eigenschaften zu finden sein müssen. Dieser Ansatz ist sicherlich interessant und darüber hinaus auch in der Lage, die mit der Ursprungsaussage ausgedrückte Information beizubehalten; dennoch ist er wegen der Unanalysierbarkeit der komplexen Eigenschaften nicht hilfreich. Wie steht es aber um Option (2), um Bradleys Ansatz? Die beiden Relata a und b werden ersetzt durch ihre ‚Summe‘, [ab], und die augenscheinliche Relation R wird ersetzt durch eine ihr korrespondierende Eigenschaft Q, die auf das neue Objekt zutrifft. Nach Bradley muss man den mit einer solchen Relationsaussage ausgedrückten Sachverhalt als aus Ding und Eigenschaft bestehend auffassen: Ein größeres Objekt, nämlich die Summe von a und b, [ab], hat die Eigenschaft Q, die der scheinbaren Relation R entspricht: Q[ab]. Dies funktioniert in einigen Fällen hervorragend. Nimmt man an, dass a und b zwei unterschiedlich große blaue Flaschen sind, und die Relation G die Gleichfarbigkeit ist, würde aus „a und b haben die gleich Farbe“, Gab, Bradleys Vorschlag nach „Das Objekt [ab] ist einfarbig“, E[ab], wer-

Leibniz‘ Lösung

Bradleys Lösung

71

72

5. Ontologie

den. Wie steht es aber um die andere angesprochene Relation zwischen den beiden Flaschen, das Größersein-als? a steht in der Relation R, Größerseinals, zu b, also gilt Rab. Wenn aber Rab tatsächlich, Bradley folgend, zu Q[ab] äquivalent wäre, dann (da [ab] = [ba] – das neue Objekt hat keine interne Ordnung oder Struktur) wäre Rab auch äquivalent zu Q[ba] und damit zu Rba – die Richtung der Relation ginge verloren. Man könnte also unmöglich sagen, ob die so analysierte Form von „a (ist größer als) b“, also Q[ab], bedeutet, dass a größer als b ist oder aber b größer als a. Im Gegensatz zu Option (1) geht durch die Analyse also sogar die Information der ursprünglichen Relationsaussage verloren. Mit Bradleys Ansatz ist es also offenbar nicht einmal möglich, die strukturellen Eigenschaften der Relationen beizubehalten – was bei asymmetrischen Relationen ein ernstes Problem darstellt. Russell schließt daraus, dass es Relationen als ontologische Entitäten geben muss, dass sie also, wie auch die Eigenschaften, zu den ‚Grundbausteinen der Welt‘ zählen – die Untersuchung der Sprache zeigt, dass ohne Relationen keine angemessene Formalisierung einiger wichtiger normalsprachlicher Aussagen möglich ist. Diese Argumentation Russells ist überaus einleuchtend – aber nicht zwingend. Bradley selbst war ein Vertreter des Britischen Idealismus und der Überzeugung, dass die Sphäre unseres Denkens (und damit auch unsere normalsprachlichen Aussagen) von Inkonsistenzen geprägt sind. Seine ontologischen Überzeugungen waren tief verwurzelt und auch Russells Argumentation war für ihn kein Grund, seine Theorie zu revidieren. Dennoch sollte an diesem Beispiel deutlich geworden sein, dass es in bestimmten Fällen gute Kriterien gibt, die zur Bewertung ontologischer Theorien und Systeme herangezogen werden können, und inwiefern eine Argumentation dabei auf der sprachlichen Ebene erfolgen kann.

5.7 Modaler Realismus

mögliche Welten

Im Zuge des schon angesprochenen Zusammenhangs von formalen Sprachen und Ontologie stellt sich auch die Frage, wie mit einer besonderen formalen Sprache, der Sprache der in Abschnitt 2 bereits angesprochenen Modallogik, umzugehen ist. Die Modallogik ermöglicht es, mit Modalaussagen – Aussagen, in denen von ‚notwendig‘ und ‚möglich‘ die Rede ist – umzugehen; Zusammenhänge zwischen solchen Aussagen lassen sich auf formaler Ebene darstellen und fassen. Dennoch gibt uns die Modallogik keine Antwort auf die Frage, wie solche Modalaussagen eigentlich zu verstehen sind: Was heißt es – ontologisch betrachtet – dass etwas notwendig oder möglich der Fall ist? Heute hat sich dafür die Redeweise von möglichen Welten (possible worlds) durchgesetzt. Der Ausdruck geht auf Leibniz zurück, wurde aber vor allen Dingen durch die Theorien von Carnap und Saul A. Kripke in die moderne Diskussion eingeführt. Mittels dieser Terminologie von möglichen Welten lassen sich die Wahrheitsbedingungen der unterschiedlichen Typen von Modalaussagen sehr anschaulich fassen:

5.7 Modaler Realismus

Wahre Aussagen sind solche, die in der aktualen Welt (also ‚unserer‘ Welt) wahr sind. Falsche Aussagen sind solche, die in der aktualen Welt falsch sind. Mögliche Aussagen sind solche, die in mindestens einer Welt wahr sind. Notwendige Aussagen sind solche, die in allen Welten wahr sind. Kontingente Aussagen sind solche, die in einigen Welten wahr und in einigen Welten falsch sind. In der aktualen Welt sind bestimmte Aussagen wahr, könnten aber auch falsch sein, sie sind kontingent wahr. So ist der Tisch vor mir blau, er könnte aber auch rot sein. Der Theorie nach gibt es eine mögliche Welt, die sich von der aktualen Welt nur dadurch unterscheidet, dass eben dieser Tisch in jener Welt rot ist. Der Tisch könnte aber auch jede andere Farbe haben. Es wäre ebenfalls möglich, dass ich vor einem ganz anderen Tisch oder auf einem anderen Stuhl sitzen würde, sogar dass es mich oder den Stuhl gar nicht gäbe. Zu jeder möglichen Beschaffenheit der aktualen Welt – unsere Welt könnte auch so-und-so sein – gibt es entsprechend eine mögliche Welt, in der gerade diese Beschaffenheit realisiert ist. Wie diese Rede von möglichen Welten aber aufzufassen ist, wie man sich diese möglichen Welten vorstellen soll, bleibt zunächst völlig unklar. Unter den verschiedenen, in ontologischer Hinsicht spannenden Interpretationen der möglichen Welten zeichnet sich der von David Lewis (1941–2001) vertretene modale Realismus besonders aus. Nach Lewis sind die möglichen Welten nicht nur mögliche Welten im Sinne von möglichen Beschaffenheiten unserer Welt, sondern es gibt sie tatsächlich. Es gibt also tatsächlich eine Welt, die sich von der unseren nur dadurch unterscheidet, dass der Tisch vor mir dort rot und nicht, wie in unserer Welt, blau ist. Wie man sich diese real existierenden Welten nun vorzustellen hat, ist keine so einfache Frage. Es handelt sich dabei nicht etwa um andere Welten (im Sinne von z. B. Planeten) in unserem Universum, denn dann wäre sie immer noch Teil unserer Welt, sondern, wenn man so will, um raumzeitlich und kausal von uns abgeschottete ‚Paralleluniversen‘. Diese Theorie zeichnet sich dadurch aus, dass sie, wenn man sich erst einmal an sie gewöhnt hat, hervorragend dazu geeignet ist, auch sehr komplexe modale Sachverhalte vergleichsweise einfach auszudrücken. Man kann beispielsweise von Abständen zwischen möglichen Welten sprechen und damit Abweichungen und Unterschiede zwischen den Welten recht anschaulich darlegen. So kann man von der unserer Welt nächstmöglichen Welt sprechen, in der alle Philosophen Bärte tragen – diese Welt würde sich von unserer Welt ausschließlich durch die barttragenden Philosophen unterscheiden, der Tisch vor mir wäre in jener Welt immer noch blau. Ich kann von der der aktualen Welt nächstmöglichen Welt sprechen, in der es philosophische Zombies gibt (darauf wird im 8. Kapitel näher eingegangen werden), und Überlegungen darüber anstellen, ob und inwiefern sie sich noch von der aktualen Welt unterscheidet. Andererseits hat die Theorie auch einen entscheidenden Nachteil: Auch wenn man sich ihrer gerne bedient, um komplexe Sachverhalte anschaulich zu machen, sehen fast alle Philosophen in ihr doch eher ein leistungsfähiges und anschauliches System von Metaphern. Sie verspü-

modaler Realismus

73

74

5. Ontologie

ren eine intuitive Abneigung gegen die Annahme, dass es diese unendliche Vielzahl möglicher Welten tatsächlich geben soll und dass sie nicht weniger konkret sein sollen als unsere eigene Welt. Aussagen über Notwendigkeit und Möglichkeit sind nun keine unwesentlichen Randerscheinungen, sondern haben in Philosophie und Fachwissenschaften durchaus ihre Berechtigung. Entsprechend sollte ein ontologisches System so leistungsfähig sein, die mit diesen Aussagen ausgedrückten Sachverhalte in irgendeiner Form repräsentieren zu können. Die in diesem Kapitel angerissenen ontologischen Systeme sind ausnahmslos dazu in der Lage – so könnte ich auf Grundlage einer einfachen Sachverhaltsontologie mit Dingen und Eigenschaften/Relationen behaupten, dass diese Flasche als Ding mit der Eigenschaft, rot zu sein, verknüpft sein könnte: Der entsprechende Sachverhalt könnte bestehen. Damit hätte ich eine Beschreibung einer möglichen Welt gegeben. Der modale Realismus hat demgegenüber den Vorteil, eine exakte Korrespondenz zur einfachen und bestechenden mögliche Welten-Redeweise darzustellen: Dort rede ich, wenn ich über die rote Flasche spreche, über eine tatsächlich existierende ‚Parallelwelt‘. Die ontologische Deutung ist hier wesentlich direkter.

5.8 Ontologiekritik und Sprachrelativität Wiener Kreis

Scheinsätze

Wie eingangs angerissen, ist das Verhältnis der Analytischen Philosophie zur Ontologie nicht ganz einfach. Die frühen Analytiker, so zum Beispiel Russell und Wittgenstein, haben sich ganz selbstverständlich mit ontologischen Fragestellungen auseinandergesetzt; ihre diesbezüglichen Überlegungen wurden im Kontext der Diskussion der Idealen Sprachen in Abschnitt 3.2 kurz vorgestellt. Eine der einflussreichsten Strömungen in der Analytischen Philosophie, der Logische Positivismus des Wiener Kreises, wandte sich in den späten 20er Jahren des letzten Jahrhunderts ganz entschieden gegen alle Metaphysik und damit auch gegen die Ontologie: Alle metaphysischen Aussagen waren in ihren Augen sinnlos und konnten bestenfalls als ,Ausdruck eines Lebensgefühls‘ dienen – die Auseinandersetzung mit ontologischen Fragestellungen wurde entsprechend äußerst kritisch betrachtet. Diese Metaphysikfeindlichkeit wird übrigens auch heute noch von vielen nicht analytisch arbeitenden Philosophen fälschlicherweise als ein entscheidendes Merkmal der Analytischen Philosophie angesehen. Tatsache ist, dass es immer Analytiker gab, die auf dem Gebiet der Ontologie gearbeitet haben, und dass die Ontologie heutzutage wieder ihren festen Platz im Betätigungsfeld der analytischen Philosophen eingenommen hat. Was aber als Erbe des Wiener Kreises unbestreitbar geblieben ist, ist eine Abneigung gegen bestimmte Typen metaphysischer Aussagen, auch wenn ein scharfes Kriterium zur Unterscheidung von ‚guter‘ und ‚schlechter‘ Metaphysik fehlt. Die wohl prägnanteste Kritik an der Metaphysik findet sich bei Carnap, insbesondere in seinem Aufsatz „Überwindung der Metaphysik durch logische Analyse der Sprache“ (1931). Dort führt Carnap zwei Kriterien an, die alle sinnvollen Sätze zu erfüllen haben: (1) Ein Satz darf keine metaphysi-

5.8 Ontologiekritik und Sprachrelativität

schen Ausdrücke enthalten. Kommen in einem Satz Ausdrücke wie ‚Gott‘, ‚Prinzip‘ und ähnliche metaphysische, also bedeutungslose Begriffe vor, so entzieht sich der Satz einer empirischen Beurteilung und hat ebenfalls keine Bedeutung mehr: Es handelt sich um einen Scheinsatz. (2) Die in dem Satz vorkommenden Ausdrücke dürfen nicht in syntaxwidriger Weise zusammengesetzt sein. Der Satz „Caesar ist eine Primzahl“ ist ebenfalls ein solcher Scheinsatz, da die Eigenschaft eine Primzahl zu sein nicht sinnvoll einem Menschen zu- oder abgesprochen werden kann. Die Grundprinzipien des Logischen Positivismus, vor denen diese radikale Metaphysikkritik verständlich wird, werden in Kapitel 7 detaillierter besprochen. Trotz dieser Kritik hatte Carnap einen konstruktiven Einfluss auf die Ontologie; dies hängt wieder mit der besonderen Rolle der Sprache für die Ontologie zusammen. Carnap war ein Verfechter des von ihm formulierten Toleranzprinzips, das besagt, dass es nicht die eine Logik oder Universalsprache für die Wissenschaft gibt, sondern der Wissenschaftler je nach seinem aktuellem Arbeitsgebiet aus pragmatischen Gründen eine für seine Zwecke geeignete Sprache wählen kann; ein entsprechender Gedanke wurde im Ausblick des 2. Kapitels für die Logik formuliert. Dies hat auch Konsequenzen für ontologische Fragestellungen: Da es nicht die richtige Sprache für die Beschreibung der Realität gibt, sondern die Wahl der Sprache durch pragmatische Gründe beeinflusst ist, kann die Sprache folglich nicht als Grundlage für die Erkenntnis der Struktur der Realität dienen. In seinem Aufsatz „Empiricism, Semantics, and Ontology“ (1950) hat Carnap diesen Gedanken noch präzisiert. Carnap untersucht dort sprachliche Bezugssysteme (‚linguistic frameworks‘) – eine feinere Form als die im letzten Absatz beschriebene Unterscheidung zwischen ganzen Sprachen, aber durchaus analog zu verstehen. Wenn ich in meiner Sprache über bestimmte Entitäten sprechen will, formuliere ich entsprechende sprachliche Regeln – beispielsweise für die konkreten Dinge unseres Alltagslebens (die in unserer Alltagssprache fest verwurzelt sind) oder auch für Zahlen (die in der ‚Sprache der Mathematik‘ fest verwurzelt sind). Diese Regeln legen fest, wie sich die sprachlichen Korrelate der Entitäten zum Rest der Sprache verhalten, wie sie sich dort einfügen, und bilden das sprachliche Bezugssystem für die Entitäten. Ontologische Fragen nach der Existenz bestimmter Entitäten können nun auf zweierlei Weise verstanden werden: (1) Als dem sprachlichen Bezugssystem interne Fragen. Fragen dieser Art beziehen sich auf die Existenz bestimmter Entitäten innerhalb des Bezugssystems; Beispiele für solche internen Fragen sind „Gibt es gegenwärtig einen König von Frankreich?“ und „Gibt es eine größte Primzahl?“ – Die Bezugssysteme geben hier einen Weg zur Beantwortung der Fragen vor. Derartige Existenzfragen sind in Carnaps Sinne berechtigte wissenschaftliche Fragen, die sich auf empirischer oder logischer Grundlage beantworten lassen. (2) Ontologisch interessanter scheinen nun die dem Bezugssystem externen Fragen zu sein, die sich nicht auf bestimmte Entitäten, sondern auf das dem ganzen sprachlichen Bezugssystem zugrunde liegende System an Entitäten beziehen. Analog zu den oben benutzen Beispielen könnte man für die beiden Bezugssysteme fragen: „Gibt es Dinge?“ und „Gibt es Zahlen?“ Hier ist der Sachverhalt ein anderer. Eine positive Antwort auf diese Fragen könnte wieder nur im Rahmen des

Toleranzprinzip

interne und externe Fragen

75

76

5. Ontologie

jeweiligen sprachlichen Bezugssystems gegeben werden, aber dann müsste das Bezugssystem Regeln für den Umgang mit sich selbst haben, was unmöglich ist. Externe Fragen sind nach Carnap metaphysische Fragen, unentscheidbare Fragen, auf die unmöglich fundierte Antworten gegeben werden können. Ich kann bestimmte sprachliche Bezugssysteme in meine Sprache integrieren oder auch nicht, Regelsysteme für den Umgang mit Alltagsgegenständen oder Zahlen in meine Sprache aufnehmen oder es lassen. Dies sind praktische Entscheidungen, die auf Grundlage pragmatischer Überlegungen getroffen werden müssen; ontologische Konsequenzen lassen sich daraus nicht ziehen.

5.9 Quine: Ontologische Verpflichtungen ontologische Verpflichtungen

namenlose geflügelte Pferde

Willard Van Orman Quines (1908–2000) einflussreiche Überlegungen zur Ontologie bauen in wesentlichen Teilen auf den Überlegungen Carnaps auf. Quine schließt sich Carnaps eben skizzierter Auffassung, dass ontologische Fragestellungen immer nur relativ zu einem sprachlichen Bezugssystem verstanden werden können, an. Quine geht dabei insofern deutlich über Carnap hinaus, als er aus dieser Sprachrelativität nicht den Schluss zieht, dass ontologische Fragestellungen sinnlos sind, sondern dass man sich durch Verwendung der Sprache auf eine Ontologie festlegt, eine ‚ontologische Verpflichtung‘ (‚ontological commitment‘) eingeht. Ein Sprecher ist auf die Annahme der Existenz derjenigen Entitäten, von denen er spricht, verpflichtet. Wenn eine Behauptung wahr sein soll, muss es das, was sie ‚wahr macht‘, geben. Zunächst klingt das nach einer Binsenweisheit, nach der es die vielen Objekte geben müsste, von denen im Alltag die Rede ist, etwa Flaschen, Menschen, Götter, Pegasus und die Liebe. Hier kommt wieder die oben bereits angesprochene enge Verknüpfung von ontologischen Fragestellungen mit formalen Sprachen ins Spiel, deren Nutzen auch Quine hervorhebt: Zunächst sollen die alltagssprachlichen Aussagen formalisiert, in die Sprache der Prädikatenlogik überführt werden. Ist dies erfolgt, kann eine Untersuchung hinsichtlich der ontologischen Verpflichtungen erfolgen. Dabei lehnt Quine die schon angesprochene Auffassung ab, dass Namen als Individualausdrücke in einer Weise für ihr Referenzobjekt stehen, dass das Vorkommen des Namens im sprachlichen Bezugssystem auf die Existenz des benannten Gegenstandes verpflichtet. Namen wie ‚Pegasus‘, die in der Alltagssprache durchaus vorkommen können, machen deutlich, dass eine universelle Verpflichtung dieser Art zu Problemen führen könnte. Quine greift für dieses Problem auf die in Kapitel 3 vorgestellte Kennzeichnungstheorie von Russell zurück und behandelt alle Namen wie Kennzeichnungen; der Name ‚Pegasus‘ wird so in den komplexeren Ausdruck ‚es gibt genau ein Ding, das die Eigenschaft hat, Pegasus zu sein‘ umgewandelt, an die Stelle des Namens tritt eine Verbindung von Prädikaten, Quantoren und Junktoren. Diese Modifikation führt damit wieder zu einer alternativen Idealsprache. Die ontologische Verpflichtung auf die Existenz des einen, augenscheinlich benannten Gegenstandes fällt damit weg und wird zu einer

5.10 Ausblick, Lektürehinweise, Fragen und Übungen

allgemeinen Aussage über den Objektbereich der Quantoren. Gibt es den betreffenden Gegenstand tatsächlich, wird er durch den Quantor erfasst und erfüllt die durch den Ausdruck formulierten Eigenschaften; gibt es ihn aber nicht, führt dies nicht zu Problemen. Quine prägte den Ausdruck: „Zu sein heißt, Wert einer (gebundenen) Variable zu sein.“ Diese sehr abstrakte Aussage trifft den Kern seiner Ontologie genau. Quines Idealsprache benennt keine spezifischen Entitäten, sie macht allgemeine Aussagen über das Zutreffen von Prädikaten auf Entitäten. Welche Entitäten es tatsächlich geben muss, hängt von den konkreten Aussagen der Sprache ab: Bestimmte Aussagen können nur wahr sein, wenn es bestimmte Entitäten gibt; die Aussagen können nur wahr sein, wenn die in ihnen vorkommenden Quantoren diese Entitäten aus dem ‚ontologischen Objektbereich‘, dem, was es gibt, herausgreifen. Die Existenz dieser Entitäten ist dann die ontologische Verpflichtung, die mit den entsprechenden Aussagen einhergeht.

5.10 Ausblick, Lektürehinweise, Fragen und Übungen Ausblick Die Ontologie ist ein weites Feld mit einer nahezu unüberschaubaren Vielfalt an Positionen, von denen auch erstaunlich viele in der aktuellen Diskussion vertreten werden; im Rahmen dieser Einführung konnte nicht mehr als ein ganz kleiner Ausschnitt vorgestellt werden. Selbst unter Ontologen, die hinsichtlich der Grundbausteine der Wirklichkeit grundsätzlich einer Meinung sind, entbrennen hitzige Diskussionen über Detailfragen. Mehr noch als in anderen philosophischen Disziplinen ist man in der Ontologie auf pragmatische Entscheidungen und Spekulation angewiesen. In den Naturwissenschaften hat man als klares Forschungsziel vor Augen, am Ende zu eindeutigen Ergebnissen zu kommen – beispielsweise in der Physik hinsichtlich der Elementarteilchen. Theorien lassen sich dort durch Experimente stützen oder auch falsifizieren. In der Ontologie ist dies nicht möglich. Kein Experiment könnte zeigen, ob es die Kategorie der Sachverhalte wirklich gibt. Wenn in der Ontologie auch kein Weg zur sicheren Erkenntnis gegeben ist, so können einige grundlegende Festlegungen doch dabei helfen, unter den unendlich vielen möglichen Systemen bessere und schlechtere zu unterscheiden: Soll das ‚beste‘ ontologische System möglichst nah an unserer Lebenswirklichkeit und unseren normalen Sprachen sein? Oder soll sich die Ontologie nicht vielmehr an den Naturwissenschaften orientieren, die auf der Suche nach den kleinsten Bestandteilen des Universums sind und dabei greifbare Fortschritte machen? Sind solche ontologischen Systeme zu bevorzugen, die sich durch eine geringe Anzahl an Kategorien auszeichnen, auch wenn dies auf Kosten der Handhabbarkeit geht und unseren Intuitionen über den Aufbau der Welt widerspricht? Es gibt hier eine Vielzahl unterschiedlicher, gut motivierter Präferenzen.

Lektürehinweise Eine gut verständliche Einführung in die Ontologie ist Runggaldier/Kanzian (1998), eine weitere exzellente, aber sehr formale Einführung Meixner (2004). Als Einführung in die Philosophie Carnaps eignet sich Mormann (2000), eine sehr gute Einführung in die Philosophie Quines ist Lauener (1982). Einen schönen Einstieg in die Philosophie von David Lewis gibt Meixner (2006). Eine detailliertere Besprechung des in Abschnitt 5.6 angerissenen Problems findet sich in Leerhoff (2008a).

77

78

5. Ontologie

Fragen und Übungen 1. Geben Sie je fünf Beispiele für Dinge, Eigenschaften, Relationen, Sachverhalte, Tropen. 2. Wenn festgestellt wird, dass zwei Flaschen die gleiche Form haben, ist dies eine Feststellung über eine Eigenschaft, eine Trope oder über einen Sachverhalt? Oder über ganz etwas anderes? Ist dies eindeutig zu entscheiden? 3. Wenn zwei Flaschen die gleiche Gestalt haben und eine Flasche geschmolzen wird, ändert sich damit die Gesamtzahl der Dinge, der Eigenschaften, der Tropen? 4. Kann man Ontologie ohne Rückgriff auf die Sprache betreiben? 5. Gibt es einen Unterschied zwischen den Sachverhalten, die durch folgende Aussagen bezeichnet werden? „Diese Flasche ist halbvoll.“ „Diese Flasche ist halbleer.“

6. Analytische Erkenntnistheorie ‚Wissen‘ beziehungsweise ‚Erkenntnis‘ sind die deutschen Übersetzungen des griechischen Wortes ‚episteme‘. Daher wird die Erkenntnistheorie auch häufig als Epistemologie bezeichnet. In der deutschen Sprache gehören noch weitere Begriffe wie etwa ‚Kennen‘ oder ‚Können‘ in dieses Umfeld, sowie die schwächeren Begriffe des Glaubens oder Überzeugtseins. Natürlich auch das aus der englischen Sprache entlehnte ‚Know-how‘. Die Grundfragen der Erkenntnistheorie Was ist Wissen? und Wie erlange ich Wissen? sind selbst nach philosophischen Maßstäben schon sehr alt. Erkenntnistheorie ist also kein genuin analytischer Bereich. Dennoch hat sie mit dem Aufkommen der Analytischen Philosophie noch einmal deutlich an Klarheit und Präzision gewonnen. So wird heute deutlicher gesehen, dass Aussagen, die Verben des Glaubens oder Wissens beinhalten, verschiedene grammatische Formen haben können. „Susanne kennt Peter“, „Rahel kann Klavierspielen“, „Rahel weiß, wie man Klavier spielt“, „Rahel weiß Klavier zu spielen“ sind Konstruktionen, die ein Akkusativobjekt oder einen Akkusativ mit Infinitiv nach sich ziehen. Dann gibt es Formen der Art „Andreas weiß, dass Hertha BSC Meister werden will“ oder „Andreas glaubt, dass Hertha BSC gestern gewonnen hat“, in denen ein dass-Satz folgt.

Grundfrage: Was ist Wissen?

6.1 Was ist Wissen? Die Frage Was ist Wissen? hat als locus classicus Platons (ca. 428–ca. 348) Dialog Theaitetos. Dort konfrontiert Sokrates den jungen Mathematiker Theaitetos mit der Frage nach dem Wesen des Wissens. Er antwortet aber, indem er eine Vielzahl von Wissensarten aufzählt und sich damit sogleich Sokrates‘ Spott einhandelt – „Großzügig und freigiebig, mein Freund, bietest Du vieles an, obwohl nur um eines gebeten, und Verschiedenartiges statt Einfachem.“ (Theätet 146d) Es dauert einen Augenblick, bis Theaitetos versteht, dass Sokrates keine Aufzählung, sondern eine umfassende, allgemeingültige Definition des Begriffs ‚Wissen‘ von ihm erwartet. Ausgehend von dem Versuch, Wissen und Wahrnehmung gleichzusetzen, werden dann verschiedene Alternativen diskutiert, aber schlussendlich immer verworfen. An anderer Stelle, im Dialog Menon, bietet Platon eine Definition an, die sich bis in die heutige Zeit bewährt hat. Wissen wird als propositionales, sprachliches Wissen verstanden und entspricht wahrem, gerechtfertigtem Glauben. Eine Person S weiß, dass p, genau dann, wenn (1) p wahr ist, (2) S p glaubt und (3) S eine Rechtfertigung für p hat.

Wissen: Wahrer, gerechtfertigter Glaube

80

6. Analytische Erkenntnistheorie

Hier ergeben sich selbstverständlich sofort zwei neue Fragen: Was ist Wahrheit? (6.2) und Was ist eine Rechtfertigung für p? (6.3).

6.2 Was ist Wahrheit?

Korrespondenztheorie der Wahrheit

Beginnen wir mit der ersten Frage. Auch die Frage nach der Wahrheit ist klassisch und findet ihre bekannteste Ausprägung im Ausspruch des Pilatus im Johannesevangelium. Bei der Diskussion des Begriffs ‚Wahrheit‘ muss man deutlich zwischen der eben genannten Frage und der Frage „Wie erkenne ich Wahrheit?“ respektive „Wie erkenne ich, dass ein Satz wahr ist?“ unterscheiden. In Bezug auf die erste Frage gibt es zwei prominente miteinander konkurrierende Theorien: die Korrespondenztheorie der Wahrheit und die Kohärenztheorie der Wahrheit. Die Korrespondenztheorie gibt mehr oder weniger die Ansicht des gesunden Menschenverstandes wieder. Ein Satz ist dann wahr, wenn die Welt so ist, wie er behauptet. Oder, wie Aristoteles (384–322) es ausdrückt: „Zu sagen nämlich, das Seiende sei nicht oder das Nicht-Seiende sei, ist falsch, dagegen zu sagen, das Seiende sei und das Nicht-Seiende sei nicht, ist wahr.“ (Metaphysik 1011b) Thomas von Aquin (ca. 1225–1274) spricht von der Übereinstimmung der Sache mit dem Verstand (adaequatio rei et intellectu, vgl. (1256–1259, q.1.a.1)). Alfred Tarski (1901–1983) hat diese intuitive Ansicht 1935 in seinem berühmten Schema T eingefangen: (T) Die Aussage S ist genau dann wahr, wenn P. Wobei S ein Name für P ist. Tarski konnte auf diese Weise eine Definition des Begriffs ‚wahr‘ beziehungsweise ‚wahre Aussage‘ geben, ohne hierbei notwendige oder hinreichende Bedingungen formulieren zu müssen. ‚Wahr‘ bedeutet in jedem Fall soviel wie ‚stimmt mit den Tatsachen überein‘. Genau genommen ist es keine Definition im klassischen Sinne, sondern ein Ersetzungsschema, das angibt, wie im einzelnen Fall verfahren werden muss. W1: Die Aussage „Schnee ist weiß“ ist genau dann wahr, wenn Schnee weiß ist. Hierbei müssen der Satz in Anführungszeichen und die gesamte Aussage nicht in derselben Sprache formuliert sein. Es wäre auch möglich zu sagen: W2: Die Aussage „Snow is white“ ist genau dann wahr, wenn Schnee weiß ist.

Objekt- und Metasprache

Tarski unterscheidet zwischen einer Objekt- und einer Metasprache. Die Aussage S, in diesem Fall „Schnee ist weiß“, ist in der Objektsprache formuliert, während die gesamte Aussage (W1) inklusive des Prädikats ‚wahr‘ zur Metasprache gehört. Hierbei ist die Objektsprache die Sprache, mit der über die Welt gesprochen wird, die Metasprache hingegen ist die Sprache, mit der über Elemente der Objektsprache gesprochen wird. Beide Sprachen sind

6.2 Was ist Wahrheit?

nicht identisch, da die Metasprache auf jeden Fall reicher ist. Eine ähnliche Unterscheidung gibt es bei der Unterscheidung von Gebrauch (use) und Erwähnung (mention) eines sprachlichen Ausdrucks. Im Satz „Bertie ist ein großer Philosoph“ wird der Name ‚Bertie‘ gebraucht, um auf Lord Russell zu verweisen. Im Satz „‚Bertie‘ hat sechs Buchstaben“ wird der Ausdruck ‚Bertie‘ als sprachlicher Ausdruck erwähnt und zur Verdeutlichung in Anführungszeichen gesetzt. Während in der Korrespondenztheorie jeder Satz mit der Wirklichkeit abgeglichen wird, spielt in der Kohärenztheorie das Zusammenspiel aller Sätze die entscheidende Rolle. Otto Neurath (1882–1945) formuliert dies so:

Die Kohärenztheorie der Wahrheit

Die Wissenschaft als ein System von Aussagen steht jeweils zur Diskussion. […] Jede neue Aussage wird mit der Gesamtheit der vorhandenen, bereits miteinander in Einklang gebrachten Aussagen konfrontiert. Richtig heißt eine Aussage dann, wenn man sie eingliedern kann. Was man nicht eingliedern kann, wird als unrichtig abgelehnt. Statt die neue Aussage abzulehnen, kann man auch, wozu man sich im allgemeinen schwer entschließt, das ganze bisherige Aussagensystem abändern, bis sich die neue Aussage eingliedern lässt. (Neurath (1931, S. 403)) Entscheidend ist in der Korrespondenztheorie nicht das Verhältnis einer Aussage zur Welt, sondern wie sie sich zu den anderen Sätzen des Systems verhält. Während bei der Korrespondenztheorie als Wahrmacher (truthmakers) die Sachverhalte in der Welt fungieren, sind dies bei der Kohärenztheorie die anderen Sätze. Diese kohärenztheoretische Position ist von zahlreichen Philosophen insbesondere in neuerer Zeit, etwa von Richard Rorty (1931–2007), Willard Van Orman Quine oder dem späten Wittgenstein, vertreten worden. Quine geht von der Annahme aus, dass die Sätze der Sprache eine Art Netz bilden, das nur an einigen Punkten mit der Welt verbunden ist. Wie und wo diese Verbindungen stattfinden, hängt dabei von der Beschaffenheit des Netzes ab. Ob ein Satz wahr ist, zeigt sich dann daran, wie gut er in dieses Netz passt. Diese in gewissem Sinne ganzheitliche Auffassung trägt den Namen Holismus. Die Frage, ob nun die Kohärenz- oder die Korrespondenztheorie die richtige ist, ist sehr schwer – wenn überhaupt – zu beantworten. Eines scheint jedoch klar: Keine der beiden Theorien kann sinnvoll in Reinform vertreten werden. Selbstverständlich kommt die Korrespondenztheorie nicht ohne Kohärenz ihrer Sätze aus, die aber dadurch garantiert sein soll, dass die Welt kohärent ist. Allerdings scheint diese Theorie bei logischen und analytischen Wahrheiten der Art „p fi p“ oder „2+2=4“ eine Schwäche zu zeigen. Womit sollen solche Sätze korrespondieren? Sie haben keinen empirischen Gehalt. Ihre Wahrheit wird als Grenzfall akzeptiert. (Dieser Punkt wird im Kapitel 7 wieder aufgegriffen.) Und selbstverständlich brauchen auch Kohärenztheoretiker eine Welt, aus der sie ihre Daten beziehen, und einen Grundstock an wahren Sätzen, zu denen die neuen Sätze dann kohärent sind. Wichtig ist zu bemerken, dass keine der beiden Theorien postuliert, dass die Wahrheit eines Satzes auch festgestellt werden kann. Die Definition der

Erkenntnistheoretischer Holismus

81

82

6. Analytische Erkenntnistheorie Wahrheits- und Verifikationsbedingen

Wahrheit ist unabhängig von einem Kriterium zur Feststellung der Wahrheit. Die Aussage „Am 1. August des Jahres 20 v. Chr. hat es an der Stelle, an der heute der Berliner Alexanderplatz liegt, um 15:00 Uhr geregnet“ ist mit Sicherheit wahr oder falsch. Wir besitzen jedoch keine Möglichkeit, ihren tatsächlichen Wahrheitswert festzustellen. Die Wahrheitsbedingungen einer Aussage – also die Frage, ob es eine Tatsache gibt, die diese Aussage wahr macht – und die Verifikationsbedingungen einer Aussage – also die Frage, ob es die Möglichkeit gibt herauszufinden, ob es eine Tatsache gibt, die diese Aussage wahr macht – müssen klar unterschieden werden.

6.3 Was ist eine Rechtfertigung?

Münchhausentrilemma

Die Frage nach der Wahrheit einer Aussage ist nur ein Teil der Definition von Wissen. Die anderen Teile betreffen den Glauben und die Rechtfertigung für den Glauben, dass eine Aussage wahr ist. Wie kann eine solche Rechtfertigung aussehen? An dieser Stelle muss vorausgeschickt werden, dass es hier nicht um die Frage geht, ob eine Letztbegründung möglich ist. Jede erkenntnistheoretische Position sieht sich mit dem Münchhausentrilemma (Albert (1968)) konfrontiert und muss eine Lösung dafür anbieten. Das Trilemma besteht aus den folgenden Alternativen: 1. Die Begründung führt in einen infiniten Regress (p ist die Rechtfertigung für q, q ist die Rechtfertigung für r, r ist die Rechtfertigung für s usw.) oder 2. die Begründung führt in einen Zirkel (p ist die Rechtfertigung für q, q ist die Rechtfertigung für r, r ist die Rechtfertigung für p) oder 3. die Rechtfertigungskette der Begründung wird an einer Stelle willkürlich abgebrochen. Doch kehren wir zunächst zurück zur Frage, wie die Wahrheit eines Satzes erkannt werden kann. Für einen Korrespondenztheoretiker liegt es nahe, auf die Wahrnehmung zu verweisen. Will man wissen, ob der Satz „Draußen regnet es gerade“ wahr ist, schaut man am besten aus dem Fenster. Allerdings ist das nicht immer das Mittel der Wahl und nicht jeder Satz lässt sich mittels der unmittelbaren Wahrnehmung beurteilen. Welche Alternativen stehen zur Wahl?

Erkenntnistheorie und Ontologie

Ontologie und Erkenntnistheorie sind eng verbunden

Erkenntnistheorie ist eng mit Ontologie verbunden. Die erkenntnistheoretische Frage „Wie erkenne ich etwas?“ steht in einem nahezu direkten Zusammenhang mit der ontologischen Frage „Was gibt es?“. Während die erste Frage auf Eigenschaften der erkennbaren Objekte und auf die Natur der Erkenntnis selbst abzielt, legt die Antwort auf die zweite Frage fest, wovon überhaupt Erkenntnis erlangt werden kann. Auf beide Fragen gibt es zwei klassische Antworten. Als ontologische Positionen stehen sich die realistische Ansicht, die davon ausgeht, dass es ma-

6.4 Empirismus

terielle Gegenstände unabhängig von einem erkennenden Subjekt gibt, und die idealistische Ansicht gegenüber, die als grundlegende Bausteine Ideen annimmt. Diese Position darf nicht mit der Position eines Ideenrealismus, wie er zum Beispiel in der Scholastik vertreten wird, verwechselt werden. Auf erkenntnistheoretischer Seite gibt es die empiristische und die rationalistische Auffassung. Der Empirismus betont das Primat der Sinneserfahrung im Erkenntnisprozess, während der Rationalismus den Verstand beziehungsweise die Vernunft als primäre Erkenntnisquelle annimmt. Obwohl Erkenntnistheorie und Ontologie natürlich unabhängig voneinander sind, gibt es – je nach dem, welche Frage zuerst beantwortet wird – eine bevorzugte Antwort auf die andere Frage. Beantwortet man die ontologische Frage realistisch, liegt eine Verbindung mit einer empiristischen Erkenntnistheorie nahe. Vereinen sich Realismus und Empirismus auf diese Weise, spricht man häufig auch von einem naiven Realismus, da seine Vertreter davon ausgehen, dass es materielle Gegenstände gibt und wir sie so wahrnehmen, wie sie sind. Differenzierter ist eine kritisch-realistische Einstellung, wie sie beispielsweise von den kritischen Rationalisten Alan Musgrave (*1940) oder Hans Albert (*1921) vertreten wird. Auch sie geht davon aus, dass es eine von uns unabhängige Welt gibt. Es ist aber nicht unmittelbar erkennbar, inwieweit diese Welt mit den im Wahrnehmungsprozess entstehenden Erscheinungen übereinstimmt. Auch der wissenschaftliche und der hypothetische Realismus (Gerhard Vollmer (*1943)) modifizieren die realistische Grundannahme einer unabhängig existierenden, erkennbaren Welt. Die Gegenposition zu Realismus/Empirismus bildet die Allianz aus Idealismus und Rationalismus. Hier wird vermutlich im Rahmen der Argumentation die erkenntnistheoretische Frage zunächst zugunsten eines Rationalismus beantwortet. Dann ergibt sich auf der ontologischen Seite sehr schnell die Überzeugung, dass die Gegenstände, von denen wir etwas wissen können, nicht materielle Objekte, sondern immaterielle Ideen sind. Neben diesen klassischen Kombinationen sind selbstverständlich die anderen Mischformen auch möglich.

Realismus und Idealismus

Empirismus und Rationalismus

6.4 Empirismus Der Empirismus vertritt im Kern die Ansicht, dass jedes Wissen von der Welt über die Sinne vermittelt gewonnen wird. Zu Beginn ist der menschliche Verstand eine leeres Blatt (tabula rasa). Der entsprechende Wahlspruch lautet: Nil est in intellectu quod non prior fuerit in sensu. (Nichts ist im Verstand, was nicht vorher in den Sinnen war.) Es sind die Sinne, mit denen Daten von der wie auch immer gearteten Welt aufgenommen werden. Die Methoden zur Erkenntnisgewinnung sind Beobachtungen und Experimente. Unter diesen Voraussetzungen vertritt der Empirismus die These, dass man nur lange genug forschen und die Methode entsprechend verbessern müsse, um am Ende dieses Prozesses Erkenntnisse über die tatsächliche Beschaffenheit der Welt zu haben. Die Voraussetzung, die der Empirismus macht, ist dabei, dass es eine vom Menschen unabhän-

Erkenntnis durch die Sinne

83

84

6. Analytische Erkenntnistheorie

gige, physikalische Welt gibt, die auch prinzipiell erkannt werden kann. Die Rechtfertigung des Wissens ergibt sich schließlich daraus, dass man die Sätze, die es als Wissen zu erweisen gilt, am Ende der Untersuchung mit Zuständen der Welt als übereinstimmend erkennt.

6.4.1 Britischer Empirismus

Primäre und sekundäre Qualitäten

Es gibt nur sekundäre Qualitäten

Empiristische Positionen finden sich in der Geschichte der Philosophie seit deren Anfang. Eine Blütezeit stellt jedoch unbestritten der britische Empirismus des 17. und 18. Jahrhunderts mit seinen Hauptvertretern John Locke, (1632–1704), George Berkeley (1685–1753) und David Hume (1711–1776) dar. Eine weitere populäre Form des Empirismus ist der Logische Empirismus des 20. Jahrhunderts, der sich als Erneuerung und Fortführung des britischen Empirismus versteht. Der erste in der Trias der britischen Empiristen war der Engländer John Locke. Er schlug in seinem Versuch über den menschlichen Verstand die Unterteilung von Eigenschaften in primäre und sekundäre Qualitäten vor (1690, 2. Buch, VIII 9 f.) – eine Unterscheidung, die sich auch schon bei Demokrit und Galileo Galilei findet, die durch ihn aber erst wirklich bekannt wurde. Primäre Qualitäten sind zum Beispiel Form, Größe, Gewicht, sich in Bewegung oder Ruhe zu befinden, der Anzahl nach eins oder mehreres zu sein. Sekundäre Qualitäten sind zum Beispiel Farbe, Geschmack, Geruch, Klang. Hierbei kommt eine primäre Qualität den Objekten direkt zu oder, wie Locke sagt, „ist in diesen Gegenständen wirklich vorhanden“ (1690, 2. Buch, VIII, 17) und wir können sie durch unsere Wahrnehmung auch erfassen. Sie erzeugt im Wahrnehmenden eine Idee, die ihr selbst ähnlich ist. Die sekundären Qualitäten hingegen werden zwar von den Gegenständen hervorgebracht. Sie sind jedoch abhängig von einem wahrnehmenden Subjekt und daher nicht in dem Sinne real, in dem die primären Qualitäten real sind. Sekundäre Qualitäten sind Wahrnehmungen in uns, die diesen Qualitäten nicht ähnlich sind (vgl. Locke (1690, 2. Buch, VIII, 7). Manche Interpreten haben daraus geschlossen, dass sie daher auch nur im wahrnehmenden Subjekt existieren. Dies ist aber nicht zwingend, wie Musgrave (1993) diskutiert. Locke vertritt an dieser Stelle – zumindest in Bezug auf die primären Qualitäten – eine Position, die eine Mischung aus Realismus und Empirismus darstellt. Die ontologische Frage wird zunächst realistisch zugunsten der Existenz materieller Objekte beantwortet, während die epistemologische Frage nachfolgend empiristisch beantwortet wird. Lockes Ansatz wurde bald kritisiert. Der Ire George Berkeley (ausgesprochen [Barkli]), Bischof von Cloyne, wirft Locke vor, dass die Unterscheidung von primären und sekundären Qualitäten nicht haltbar sei. Alle Argumente für die Beschaffenheit der sekundären Qualitäten gelten auch für die primären. Es sei inkonsistent anzunehmen, dass die Hitze eines glühenden Stückes Kohle, die wir spüren, in diesem Stück Kohle sei, der Schmerz, den wir gleichzeitig spüren können, aber in uns sein soll. Berkeley schließt daraus, dass es nur so etwas wie sekundäre Qualitäten, in seinem Verständnis also

6.4 Empirismus

Ideen im Verstand des wahrnehmenden Subjekts, gibt. Somit ist die Annahme von subjektunabhängigen Gegenständen nicht mehr notwendig. Es existiert nur, was wahrgenommen wird – esse est percipi. Berkeley entwirft so eine Theorie, die Empirismus und Idealismus miteinander verbindet und beweist, dass es möglich ist, die Existenz einer materiellen Außenwelt sinnvoll zu leugnen. Allerdings ist es fraglich, ob Berkeleys Kritik an Locke wirklich berechtigt ist, denn sie setzt voraus, dass sekundäre Qualitäten ausschließlich Ideen im Verstand des wahrnehmenden Subjekts sind. Dies muss Locke aber nicht akzeptieren. Er beschreibt die sekundären Qualitäten als Dispositionen, Kräfte, die auf den primären Qualitäten beruhen und in einem wahrnehmenden Subjekt die Idee einer sekundären Qualität hervorrufen. Diese sind dann den sekundären Qualitäten nicht ähnlich, aber sie sind auch nicht subjektiv im Berkeleyschen Sinne. Der Schotte David Hume hat die Gedanken Lockes und Berkeleys konsequent weitergedacht und gezeigt, dass sie in einen Irrationalismus führen. Der Empirismus glaubt, dass sich alles, was sich in unserem Verstand befindet, auf einfache Sinneseindrücke zurückführen lässt, die wir jetzt haben oder einmal gehabt haben. Das heißt alles, was wir wissen, besteht aus Sinneseindrücken (impressions) oder Erinnerungen an diese Sinneseindrücke (ideas) in unserem Verstand (und dem, was per Abstraktion oder Assoziation aus ihnen gewonnen werden kann). Da wir aber weder die Existenz der Außenwelt, die Locke annahm, noch die Existenz anderer Bewusstseine, die Berkeley annahm, beweisen können, wäre es folgerichtig und vernünftig, die Position eines Skeptikers und Solipsisten einzunehmen. Wir sind aber nicht vernünftig, sondern irrational. Dieser Skeptizismus wird noch durch ein weiteres Argument getragen. Im Empirismus wird die Ansicht vertreten, dass wir aus Erfahrung lernen. Dies bedeutet aber nichts anderes, als dass wir induktiv anhand einer Reihe von Einzelereignissen eine Regelmäßigkeit ableiten, die wir dann benutzen, um auf ein zukünftiges Ereignis zu schließen. Diese Vorgehensweise lässt sich in keiner Weise rechtfertigen. Erstens ist natürlich sofort klar, dass normalerweise nicht alle Fälle zur Formulierung der Regel betrachtet werden und daher Gegenbeispiele möglicherweise unberücksichtigt bleiben. Zweitens gibt es keine logische Rechtfertigung für dieses Vorgehen. Als Begründung, weshalb wir so handeln, ließe sich nur darauf verweisen, dass diese Vorgehensweise in der Vergangenheit erfolgreich war. Genau dies ist aber das induktive Argument, dessen Gültigkeit gerade bewiesen werden sollte. Wir sind in einen circulus vitiosus geraten. Das Prinzip der Induktion ist selbst nicht begründbar. Dass wir dennoch induktiv schließen, ist ein weiteres Zeichen des herrschenden Irrationalismus.

6.4.2 Der Weg zum logischen Empirismus Direkt an den britischen Empirismus knüpfen die empiristischen Strömungen im 20. Jahrhundert und die damit verbundene Theorie der Sinnesdaten an, wie sie zum Beispiel von G. E. Moore, Bertrand Russell und Alfred J. Ayer (1910–1989) vertreten wird. Ihre Befürworter gehen davon aus, dass es

Der Empirismus ist irrational

Das Problem der Induktion

85

86

6. Analytische Erkenntnistheorie

Sinnesdaten als Quelle der Erkenntnis

Konstruktiver Phänomenalismus Wissen durch Bekanntschaft und Wissen durch Beschreibung

sich bei den in der Wahrnehmung direkt gegebenen Objekten um Sinnesdaten handelt. Denn es ist unbezweifelbar, dass man auch im Falle einer Sinnestäuschung etwas wahrnimmt. Daraus wird gefolgert, dass uns als sichere Quelle der Erkenntnis immer nur Sinnesdaten zur Verfügung stehen. Nur ist im Falle der Illusion oder der Täuschung diese Wahrnehmung nicht veridikal; sie entspricht nicht den Tatsachen. Um jedoch überhaupt sinnvoll von zutreffenden Sinneseindrücken sprechen zu können – nicht zufällig steckt im deutschen Wort ‚Wahrnehmung‘ der Ausdruck ‚wahr‘ –, muss man die Existenz der Außenwelt annehmen. Wir haben allerdings keinen direkten Zugang zu diesen Objekten, denn Sinnesdaten (zum Beispiel Farben und Formen im Gesichtsfeld) sind private Empfindungen, die dem erkennenden Subjekt im Augenblick der Wahrnehmung zweifellos gegeben sind, allerdings auch nur in diesem Augenblick existieren. Sie stellen die Schnittstelle zwischen der realen und der mentalen Welt dar. Aus diesen Sinnesdaten konstruieren wir Russell zufolge logisch die konkreten Objekte der Außenwelt. Um dem Problem der Privatheit der Sinnesdaten zu entgehen, erweitert er diese Theorie zur Theorie der Sensibilia (beispielsweise Russell (1914)). Diese unterscheiden sich von Sinnesdaten dadurch, dass sie ein objektives, dauerhaftes Dasein besitzen, also nicht mehr nur in dem Augenblick existent sind, in dem sie wahrgenommen werden. Denn daraus, dass etwas existiert, wenn es wahrgenommen wird, darf nicht geschlossen werden, so Russell, dass es nicht existiert, wenn es nicht wahrgenommen wird. Dies wird aber zum Beispiel von Berkeley, wie auch von Moore im Falle der visuellen Sinnesdaten (allerdings auch bei anderen Empfindungen wie beispielsweise Bauchschmerzen) unterstellt. Man könnte diese Ansicht, die in Carnaps Der logische Aufbau der Welt (1928) sowie Nelson Goodmans The Structure of Appearance (1951) aufgegriffen und verallgemeinert wird, auch Konstruktiven Phänomenalismus nennen. Russell unterscheidet weiterhin zwei Arten von Wissen – Wissen durch Bekanntschaft und Wissen durch Beschreibung (beispielsweise in Russell (1912)). Nach Russell hat Wissen durch Bekanntschaft (knowledge by acquaintance) den erkenntnistheoretisch sichersten Status – solches Wissen haben wir von den direkten Daten unserer äußeren und inneren Sinne, unseren noch jungen und lebhaften Erinnerungen sowie einigen Universalien. Hier zeigt sich deutlich das Erbe der Ansichten des britischen Empirismus. Das Wissen durch Bekanntschaft ist eine sehr direkte Form des Wissens, das sich vor allem dadurch auszeichnet, dass wir einen unmittelbaren Zugang zu den betreffenden Dingen haben. Die uns so zugänglichen Daten stellen das Fundament unseres gesamten Wissens dar, denn in unserer Analyse sprachlicher Ausdrücke kommen wir unweigerlich zu einem Punkt, an dem wir die verwendeten Begriffe verstehen, weil wir von dem jeweils Bezeichneten ein direktes Wissen durch Bekanntschaft haben. Wäre dies nicht der Fall, könnten wir letztendlich niemals etwas wirklich verstehen. Die zweite Form des Wissens von Dingen ist das komplexere Wissen durch Beschreibung (knowledge by description). Dieses Wissen basiert auf einem Wissen von Wahrheiten und läuft – vereinfacht dargestellt – darauf hinaus, dass wir um die Existenz bestimmter Individuen wissen und auch eine Be-

6.6 Analytisch/synthetisch und a priori/a posteriori

schreibung dieser Individuen geben können, obgleich wir, zumindest im Normalfall, mit diesen nicht auch in einer Bekanntschaftsrelation stehen. Der Empirismus entgeht dem Münchhausentrilemma dadurch, dass er die Rechtfertigungskette abbricht und Sinneseindrücke oder Sinnesdaten als untrügliche Gegenstände der Wahrnehmung einführt. Hierdurch wird aber die direkte Verbindung zu den materiellen Gegenständen unterbrochen. Russell entgeht diesem Problem, indem er nicht die materiellen Gegenstände als grundlegend annimmt, sondern sie aus den Sinnesdaten konstruiert. Hier zeigt sich der Einfluss der erkenntnistheoretischen Überlegungen auf die ontologischen Überzeugungen.

Antwort auf das Münchhausentrilemma

6.5 Rationalismus Der Empirismus ist jedoch nicht die einzig mögliche erkenntnistheoretische Position. Ihm gegenüber steht der Rationalismus mit der Grundüberzeugung, dass die objektive Struktur der Welt allein mittels des Verstandes erkannt werden kann. Die Antwort des Rationalismus auf das Münchhausentrilemma ist auch der Abbruch der Rechtfertigungskette, aber nicht durch einen Verweis auf unfehlbare Wahrnehmungen, sondern durch die Annahme selbstevidenter Wahrheiten. Es gibt Sätze, deren Wahrheit so eindeutig ist, dass es keiner weiteren Begründung bedarf. „Das Ganze ist größer als ein Teil“, ein Axiom aus Euklids Geometrie, ist ein Beispiel für solch einen selbstevidenten Satz. Überhaupt sind Euklids (ca. 360–280) Elemente der Prototyp für eine rationalistische Begründung. Am Anfang stehen zehn Axiome, die keines Beweises bedürfen. Aus diesen zehn Sätzen werden allein mit logisch-mathematischen Mitteln alle weiteren Sätze abgeleitet. Sätze, deren Wahrheit keineswegs sofort klar ist und die, so scheint es zumindest, auch empirischen Gehalt besitzen. Der rationalistische Traum ist nun, diese Methode nicht nur im Bereich der Geometrie und der Mathematik anzuwenden. Das berühmteste Beispiel im Bereich der Philosophie ist Descartes‘ „Cogito, ergo sum“, „Ich denke, also bin ich“. Descartes (1596–1650) zog systematisch alles in Zweifel, aber dass er zweifelte, konnte er nicht mehr sinnvoll bezweifeln. So leitet Descartes sein gesamtes philosophisches System aus diesem selbstevidenten Satz ab. Ansätze, dem Traum des Euklid zu folgen, gab es auch auf anderen Gebieten – Hobbes‘ Leviathan, Spinozas Ethik nach geometrischer Methode, Mills Essay on Government und selbstverständlich Newtons Mathematical Principles of Natural Philosophy. Sie alle beginnen mit selbstevidenten Axiomen, aus denen alles weitere abgeleitet wird.

6.6 Analytisch/synthetisch und a priori/a posteriori Der Bereich der Mathematik zeigte sich bereits bei der Diskussion der Korrespondenztheorie als merkwürdiger Grenzfall. Er ist auch geeignet, den

Struktur der Welt wird mittels des Verstandes erkannt

Selbstevidente Wahrheiten

87

88

6. Analytische Erkenntnistheorie

Apriorisches Wissen und aposteriorisches Wissen

Unterschied zwischen Empirismus und Rationalismus noch einmal zu verdeutlichen. Hierzu wird auf die Unterscheidung zwischen analytisch/synthetisch und a priori/a posteriori von Immanuel Kant (1724–1804) zurückgegriffen. Apriorisches Wissen liegt dann vor, wenn es unabhängig von der Erfahrung gewonnen werden kann, aposteriorisches Wissen ist erfahrungsabhängiges Wissen. Im Gegensatz zu dieser erkenntnistheoretischen Unterscheidung handelt es sich bei der Unterscheidung von analytisch und synthetisch wahren Sätzen um eine logisch-semantische. Ein Satz ist analytisch wahr, so Kant, wenn das Prädikat bereits im Subjekt enthalten ist. „Eine Kugel ist rund“ ist ein analytischer Satz, denn im Begriff ‚Kugel‘ ist der Begriff ‚rund‘ bereits enthalten. Kant erweiterte die Definition, die sich in dieser Form nur auf Subjekt-Prädikat-Sätze anwenden lässt, indem er definierte, dass die Negation einer analytischen Wahrheit einen Widerspruch in sich berge. a priori

a posteriori

analytisch

J

X

synthetisch

?

J

Kantscher Kasten Gibt es synthetische Sätze a priori?

transzendentaler Idealismus

Über die Belegung der Felder analytisch/a priori und synthetisch/a posteriori in der Tabelle gibt es zwischen Empiristen und Rationalisten keine Unstimmigkeiten. Auch dass das Feld analytisch/a posteriori leer ist, bleibt (zunächst) unbestritten. Die große Frage aber ist, ob es synthetische Wahrheiten a priori gibt. Das heißt: gibt es Wissen, das nicht aus der Erfahrung stammt, das aber einen empirischen Gehalt besitzt? Die Antwort der Empiristen ist eindeutig: „Nein“. Die Bereiche analytisch und a priori sind umfangsgleich. Die Antwort der Rationalisten hingegen ist ein klares „Ja“. Die Mathematik und die Geometrie sind Beispiele für synthetisches Wissen a priori. Empiristen haben mit der Einordnung der Mathematik aber ein Problem. Sie müssen sie entweder als analytisch a priori oder synthetisch a posteriori ansehen. Beide Positionen sind nicht befriedigend. Im ersten Fall müssen die Axiome der Mathematik und der Logik als analytische Wahrheiten vorausgesetzt werden. Dies ist zum Teil aber sehr unplausibel, da einige dieser Axiome sehr kompliziert und nicht gerade selbst-evident sind. Dennoch beschritten diesen Weg zum Beispiel Frege, Russell und Carnap, die davon ausgingen, dass mathematische und logische Wahrheiten inhaltsleer sind. Werden mathematische Axiome als synthetisch a posteriori angesehen, wie man dies etwa bei John Stuart Mill (1806–1873) oder bei Quine findet, dann werden sie als Generalisierungen aus der Erfahrung angesehen und können sich letztendlich als falsch erweisen. Eine vermittelnde Position zwischen Empirismus und Rationalismus versucht Kants transzendentaler Idealismus einzunehmen. Kants großes Verdienst ist es, auf die Rolle des erkennenden Subjekts im Erkenntnisprozess aufmerksam gemacht zu haben. Kant argumentiert, dass wir weder als Ta-

6.7 Kritik an der Definition des Wissens

bula rasa auf die Welt kommen, noch ihre objektive Struktur allein durch unseren Verstand erkennen können. Es gibt synthetisches Wissen a priori. So tragen wir die Kategorien Raum und Zeit an die Welt heran. Sie existieren nicht unabhängig von uns. Ähnliches gilt für die Naturgesetze. Erkenntnis ist somit ein Wechselspiel von a priori vorliegenden Begriffen, die wir nicht hintergehen können, und empirischen Erfahrungen, die mittels dieser Begriffe geordnet werden. Dieser Gedanke findet seinen Ausdruck in der berühmten Formulierung aus Kants Kritik der reinen Vernunft: „Gedanken ohne Inhalt sind leer, Anschauungen ohne Begriffe sind blind.“ (1781, B75, A51) Die Rolle der Vernunft ist es, die Erscheinungen zu strukturieren. Akzeptiert man diese gemäßigt rationalistische Position, muss man einen hohen Preis bezahlen: Es gibt ‚Dinge-an-sich‘, die raum- und zeitlos sind und von denen wir niemals objektives Wissen erlangen können.

6.7 Kritik an der Definition des Wissens Die von Platon vorgeschlagene Definition von Wissen als wahrem, gerechtfertigten Glauben blieb über 2000 Jahre akzeptiert, bis Edmund L. Gettier (*1927) sie im Jahr 1963 einer Kritik unterzog. In seinem berühmten Aufsatz „Is Justified True Belief Knowledge?“ konstruiert er Fälle, in denen die herkömmliche Definition zwar als notwendig, nicht aber als hinreichend erscheint. Gettiers Einwand betrifft dabei die Rechtfertigungskomponente. Demnach ist es möglich, dass sich jemand gerechtfertigt fühlt, etwas Bestimmtes zu glauben, diese Rechtfertigung aber tatsächlich so nicht besteht, was die Wahrheit des Geglaubten aber nicht tangiert. Mit anderen Worten: Es sind Fälle denkbar, in denen der Glaube eines Subjektes wahr ist und dieses Subjekt auch gerechtfertigt ist, diesen Satz für wahr zu halten, wir aber nicht von Wissen sprechen würden. Obwohl also die klassische Definition für das Vorliegen von Wissen erfüllt ist, ist es in einem solchen Fall fraglich, ob es sich hier tatsächlich um Wissen handelt, weil das Subjekt beispielsweise bei seiner Methode der Rechtfertigung getäuscht worden ist und damit eigentlich nicht den betreffenden Sachverhalt gerechtfertigt hat. Nehmen wir an, so Gettier, Smith hat eine gute Rechtfertigung für die falsche Annahme: (1) „Jones besitzt einen Ford“. In Kenntnis der logischen Regeln weiß er auch, dass (2) „Jones besitzt einen Ford oder Brown ist in Boston“, (3) „Jones besitzt einen Ford oder Brown ist in Barcelona“ oder (4) „Jones besitzt einen Ford oder Brown ist in Berlin“ aus (1) folgen. Durch reinen Zufall ist Brown tatsächlich in Berlin. Daher hat Smith eine Rechtfertigung, an die Wahrheit von (4) zu glauben und (4) ist wahr. Somit wären wir gezwungen anzunehmen, dass Smith (4) weiß. Dies erscheint aber den meisten kontraintuitiv. Dieses Problem lässt nur zwei Möglichkeiten der Lösung zu, die beide versucht wurden: Man muss die Definition von Wissen entweder erweitern oder reduzieren. Wenn man sie erweitert, muss man neue Bedingungen hinzufügen. Dadurch wird sie zwar feiner, aber auch anfällig für neue Probleme. Eine mögliche Zusatzannahme betrifft die Rechtfertigung und besagt, dass die in die Rechtfertigung eingehenden Prämissen ebenfalls wahr sein

Die klassische Wissensdefinition ist nicht hinreichend

Die Wissensdefinition muss erweitert oder reduziert werden

89

90

6. Analytische Erkenntnistheorie

müssen. Dies verhindert Täuschungen, weil bei einer Täuschung die eingehenden Prämissen gerade nicht wahr sind. Das hierbei jedoch sofort auftretende Problem ist die Frage, wann es gerechtfertigt ist, die neuen Prämissen für wahr zu halten – wie man wissen kann, dass die Prämissen wahr sind. Man sieht leicht, dass hier ein Zirkel droht, da zur Rechtfertigung, dass man etwas weiß, bereits die Rechtfertigung (die Prüfung, ob die eingehenden Prämissen wahr sind) vorausgesetzt werden muss. Man kann die Definition erneut verfeinern, indem man keine Wahrheit von den Prämissen erwartet sondern etwas, das am Ende auf Richtigkeit hinausläuft. Dies ist jedoch letztlich bloß ein Trick, der nicht davon ablenken kann, dass die Prämissen zur Verhinderung einer Täuschung am Ende irgendwie gerechtfertigt werden müssen, wofür es eines Maßstabs bedarf. Selbstverständlich ist damit nicht ausgeschlossen, dass die Definition von Wissen so erweitert werden kann, dass sie irgendwann logisch sauber ist und nicht in einen infiniten Regress läuft. Abgesehen davon, dass das jedoch äußerst fragwürdig ist, stellt sich dann die Frage nach der Brauchbarkeit einer solchen Definition: Hat sie derart modifiziert noch ausreichend Erklärungskraft? Die Alternative einer Reduktion entgeht diesen Schwierigkeiten. Wenn man die problematische Rechtfertigung herausnimmt und Wissen einfach als wahre Meinung definiert, geht der Mehrwert des Wissen verloren. Denn jeder, der – aus welchen Gründen auch immer – zufällig eine wahre Meinung hat, weiß damit zugleich auch etwas. Der Preis für eine logisch saubere Definition ist in diesem Falle dann keine hohe Trennschärfe.

6.8 Ausblick, Lektürehinweise, Fragen und Übungen Ausblick Das wichtigste Resultat der analytischen Erkenntnistheorie ist sicherlich, dass ohne sie die Wissenschaftstheorie in der Form, wie sie seit etwa 100 Jahren betrieben wird, nicht möglich gewesen wäre. Aus der Beantwortung der zentralen Frage, wie man überhaupt Erkenntnis von der Welt haben kann, folgt eben auch, wie man dieses Wissen erlangen kann. So hat die analytische Erkenntnistheorie die Reflexion auf die Methode des Wissenserwerbs angestoßen und sich in großen Teilen auch dorthin verlagert. Denn Erkenntnistheorie in der reinen Form ist heute nur noch selten Gegenstand philosophischer Untersuchungen. Es ist wieder einmal die Neurobiologie, die sich in letzter Zeit dieses Themas angenommen hat. Auf dem Weg zu einer Erklärung der Funktionsweise des Gehirns unterscheiden einige Hirnforscher (zum Beispiel Gerhard Roth (2002)) zwischen Wirklichkeit und Realität. Die Realität ist danach das, von dem wir niemals Erkenntnis werden haben können. Lediglich die Wirklichkeit, die vom Gehirn erzeugt wird, ist uns gegeben. Diese Unterscheidung ist nicht neu und wurde bereits von Berkeley diskutiert. Berkeley hält die Welt für nichts anderes als ein Phänomen des menschlichen Bewusstseins. Die Ideen, die wir wahrnehmen und daraus ein Bild der Welt erzeugen, sind letztlich auf Gott zurückzuführen. So verhält es sich auch in der neueren Neurowissenschaft: Die Wirklichkeit ist eben ein Phänomen des Gehirns, wenn man so will, das allerdings seinen Anteil an der Realität hat. Auch Kant und Wittgenstein unterscheiden zwischen dem Ding-an-sich und der wahrgenommenen Welt beziehungsweise zwischen der Welt und der Wirklichkeit. Solche Positionen haben auf der einen Seite bestimmte Vortei-

6.8 Ausblick, Lektürehinweise, Fragen und Übungen le – sie erklären etwa, wie es zu einer Diskrepanz zwischen manchen Wahrnehmungsurteilen und dem auf andere Weise von der Welt gewonnenen Bild der Welt kommen kann – auf der anderen Seite haben sie aber auch einige Probleme, insbesondere weil unklar ist, wie der Mensch, wenn er doch nur jeweils zu einem von beiden (Welt oder Wirklichkeit) einen direkten Zugang hat, von dem anderen ausreichend verlässliche Erkenntnis haben kann, damit ein solcher Unterschied überhaupt sinnvoll behauptet werden kann. Bei der Klärung derartiger Fragen wird auch in Zukunft die analytische Erkenntnistheorie wichtige Beiträge liefern können.

Lektürehinweise Eine grundlegende Einführung in die Erkenntnistheorie gibt Ernst (2007), eine sehr umfangreiche und detaillierte analytische Einführung, die auch zum Selbststudium geeignet ist, findet sich in Grundmann (2008). Eine sehr gute, eher historisch ausgerichtete Einführung ist die des kritischen Rationalisten Musgrave (1993).

Fragen und Übungen 1. Wie lautet Platons Definition von Wissen? 2. Welche Wahrheitstheorien kennen Sie? Skizzieren Sie kurz die wichtigsten Punkte. 3. Wie lautet Tarskis Schema T? 4. Was ist das Münchhausentrilemma? 5. Welche Lösung bieten Empirismus und Rationalismus für das Münchhausentrilemma an?

91

7. Wissenschaftstheorie Die Wissenschaftstheorie ist ein noch vergleichsweise junger Zweig der Philosophie. Zwar wurden einige Fragestellungen, die man heute der Wissenschaftstheorie zurechnet, schon früher kontrovers diskutiert; zu nennen ist hier beispielsweise das Induktionsproblem. Während solche Probleme aber ursprünglich als Probleme der (Fach-)Wissenschaften oder aber von diesen losgelöst als rein philosophische (meist erkenntnistheoretische) Probleme verstanden wurden, hat hier in den letzten 100 Jahren ein Umdenken stattgefunden: Die Fachwissenschaften wurden von der Philosophie als Gegenstand entdeckt und die Wissenschaftstheorie hat sich als wichtiges, eigenständiges Arbeitsgebiet in der Philosophie herausgebildet. Die Wissenschaftstheorie ist eine ‚Meta-Wissenschaft‘: Sie macht keine Aussagen über die Welt, ist also selbst keine Wissenschaft in diesem Sinne und steht auch nicht in Konkurrenz zu ihnen, sondern sie macht Aussagen über die Wissenschaften und die wissenschaftliche Praxis. Dabei erhebt sie zumindest teilweise den Anspruch, Elemente der wissenschaftlichen Praxis zu bewerten und so auch zu einer Optimierung der Wissenschaften beizutragen. Aber was sind überhaupt Wissenschaften? In der Praxis tobt oft ein erbitterter Streit um die ‚Wissenschaftlichkeit‘ bestimmter Theorien; man denke hier nur an die Astrologie oder, aktueller, den Kreationismus und die Homöopathie. Kreationisten und Homöopathen sind davon überzeugt, dass ‚ihr‘ Fachgebiet der etablierten Konkurrenz in nichts nachsteht. Der Darwinist und der Vertreter der ‚Schulmedizin‘ sprechen ihnen hingegen die Wissenschaftlichkeit ab – aber sind die nicht nur, wie man oft als Gegenargument der so Angegriffenen hört, engstirnig, befangen und parteiisch? Die Wissenschaftstheorie kann in solchen Fällen als neutrale Instanz fungieren. In den eben geschilderten Fällen könnte sie die wissenschaftlichen Methoden der verschiedenen Disziplinen in Hinblick auf die Erkenntnisziele der Wissenschaften bewerten: Wie ‚sicher‘ sind die Ergebnisse, die mit den jeweiligen Methoden ‚erzeugt‘ werden können? Sind die Gründe, die für die eine oder andere Position sprechen, erkenntnistheoretisch relevant? Sind die in Frage stehenden Theorien überhaupt konsistent, also widerspruchsfrei? Handelt es sich bei den Theorien um Glaubensartikel, die sich jeder empirischen Überprüfung und Widerlegung entziehen? Was sind, ganz allgemein betrachtet, Qualitätsmerkmale wissenschaftlicher Theorien? Neben solche Fragen tritt als wichtiges Gebiet der Wissenschaftstheorie die Klärung wissenschaftlicher Begriffe und Vorgehensweisen: Was sind Hypothesen und Theorien, wie funktioniert wissenschaftliche Erklärung, was macht eine wissenschaftliche Disziplin aus? Ein weiterer Problemkomplex hat eine historische Komponente: Wie entstehen wissenschaftliche Theorien in der Praxis und wie entwickeln sie sich? Wie sieht vor diesem Hintergrund wissenschaftlicher Fortschritt aus?

7.1 Logischer Positivismus – der Wiener Kreis

In diesem Kapitel werden vier Bereiche/Phasen der Wissenschaftstheorie vorgestellt. Zunächst wird die in der zweiten und dritten Dekade des 20. Jahrhunderts florierende Philosophie des Wiener Kreises, der Logische Positivismus, relativ ausführlich thematisiert. Es handelt sich dabei um eine radikale und faszinierende Form des Empirismus, die auch den Ausgangspunkt für die späteren Entwicklungen bildet und als eigentlicher Ursprung der modernen Wissenschaftstheorie angesehen werden kann. Direkt aus dem Logischen Positivismus ist in den 50er Jahren die zweite hier betrachtete Phase, das Standardmodell der Wissenschaftstheorie, hervorgegangen. Dabei handelt es sich um eine weniger radikale Ausgestaltung und Weiterentwicklung der ursprünglichen Theorien. Der dritte Bereich, Poppers Falsifikationismus, ist parallel zur Philosophie des Wiener Kreises entstanden und stellt zum einen eine einflussreiche Kritik daran dar, zum anderen bildet er auch einen Ausgangspunkt für die vierte hier betrachtete Strömung, die die Analyse von Wandel und Dynamik wissenschaftlicher Theorien in den Mittelpunkt stellt.

7.1 Logischer Positivismus – der Wiener Kreis Die philosophische Strömung des Logischen Positivismus oder auch Neopositivismus ist aufs engste mit einer in Wien arbeitenden Gruppe von Wissenschaftlern und Philosophen verbunden: dem Wiener Kreis. Dessen Mitglieder trafen sich ab 1923 regelmäßig und diskutierten wissenschaftstheoretische Fragestellungen. Zu den wichtigsten Angehörigen zählten der philosophisch sehr formal arbeitende Rudolf Carnap, die wohl prominenteste Person dieser Gruppe, und der Soziologe Otto Neurath (1882–1945). Offizielles Haupt des Kreises war der Physiker Moritz Schlick (1882–1936), weitere wichtige Mitglieder waren Hans Hahn (1879–1934) und Friedrich Waismann (1896–1959). Neben seiner ‚Stammbesetzung‘ hatte der Wiener Kreis häufig Gäste, die dort vortrugen oder an den Diskussionen teilnahmen. Zu diesen zählten beispielsweise Hans Reichenbach (1891–1953) (der in Berlin die Gesellschaft für empirische Philosophie gegründet hatte, die sich ähnlichen Zielen wie der Wiener Kreis verschrieb), Ludwig Wittgenstein, Kurt Gödel, Alfred Tarski, Carl Gustav Hempel, Willard Van Orman Quine und A. J. Ayer. Die Liste der Mitglieder, Gäste und Sympathisanten liest sich fast wie ein Who’s Who der Analytischen Philosophie jener Zeit. Die Veröffentlichungen der Mitglieder des Wiener Kreises zeichnen sich durch eine hohe Präzision und Klarheit aus und durch einen geradezu mitreißenden Optimismus: Die absolute Überzeugung, den richtigen Weg gefunden und eingeschlagen zu haben, Wissenschaft und Philosophie in neue, richtige Bahnen lenken zu können, spricht aus jedem Satz. Der Wiener Kreis fand dann Mitte der 30er Jahre sein Ende durch den aufkeimenden Austrofaschismus und die Ermordung Schlicks. Alle Mitglieder emigrierten, die meisten in die USA, und prägten die philosophische Szene dort nachhaltig. Der Logische Positivismus kann als Verschmelzung zweier Traditionsli-

93

94

7. Wissenschaftstheorie empiristische und logische Tradition

Wissenschaftssprache

analytisch/ synthetisch

Verhältnis von Philosophie und Realwissenschaft

nien betrachtet werden: Auf der einen Seite steht die im letzten Kapitel bereits angesprochene empiristische/positivistische Tradition. Neben den angelsächsischen Klassikern waren hier Ernst Mach (1838–1916) (Schlicks Lehrstuhl wurde ursprünglich für Mach eingerichtet) und Russell die wichtigsten Einflüsse. Auf der anderen Seite steht die logische und sprachphilosophische Tradition, wobei insbesondere Frege, wieder Russell und Wittgenstein als einflussreiche Vordenker zu nennen sind. Logik und Sprachphilosophie sind für den Wiener Kreis die technischen Werkzeuge, die eine zuvor unerreichte Präzision im Umgang mit den empirisch gegebenen ‚Rohdaten‘ ermöglichten. So war die Kombination der beiden Traditionslinien äußerst fruchtbar: Die zuvor schon vorhandene und beispielsweise von Russell in Unser Wissen von der Außenwelt (1914) grob skizzierte Idee einer ‚Mathematisierung der Erfahrung‘ (C. Ulises Moulines) sollte nach dem Willen der Logischen Positivisten nun umgesetzt werden. Ziel war es, eine höchsten Ansprüchen genügende Wissenschaftssprache zu erstellen, deren interne Struktur durch die eine Traditionslinie, deren inhaltliche Ausgestaltung (gewissermaßen das Vokabular) durch die andere Traditionslinie beigesteuert wird. Die Wissenschaftssprache ist nun nicht nur wissenschaftliches Werkzeug, sondern spielt auch für die wissenschaftstheoretischen Überlegungen des Logischen Positivismus eine zentrale Rolle. Dabei ist die im vorigen Kapitel bereits thematisierte Unterscheidung zwischen analytisch und synthetisch von entscheidender Wichtigkeit. Analytische Sätze wie „Alle Junggesellen sind unverheiratet“ oder „Jeder Kreis ist rund“ sind ausschließlich auf Grund der Bedeutung der in ihnen vorkommenden Begriffe, also unabhängig von Sachverhalten in der Welt, wahr. Wie die Welt auch ist: sie können nicht falsch sein. Demgegenüber sind synthetische Sätze wie „Diese Flasche ist blau“ oder „Diese Masse ist Bayerisch Creme“ auf Grund der Bedeutung der in ihnen vorkommenden Begriffe und von Sachverhalten in der Welt wahr. Der Wiener Kreis vertrat nun die Auffassung, dass alles, was a priori gewusst werden kann, also ohne Rückgriff auf die Erfahrung, analytisch ist. Analytische Sätze sagen aber nichts über die Welt aus, sondern nur über die Sprache; sie haben keinen Realgehalt. Die Logischen Positivisten folgten Frege und Russell in der Überzeugung, dass auch alle Sätze der Logik und Mathematik analytisch sind. Neue mathematische Erkenntnisse sagen uns demnach nichts über die Welt, sondern decken uns bislang unbekannte Strukturen der ‚Sprache der Mathematik‘ auf. Für den Wiener Kreis folgt daraus der Schluss, dass die Rolle der Philosophie ganz neu definiert werden muss. Aussagen über die Welt sind ausnahmslos Aussagen über empirisch Gegebenes; diese werden aber von den die Welt beschreibenden Realwissenschaften aufgestellt, nicht von der Philosophie. Logik und Mathematik können von den Wissenschaftlern legitim zum Umformen der synthetischen Sätze, des von der Wissenschaft formalisierten Wissens über die Welt, herangezogen werden, ohne dieses Wissen zu verfälschen. So lassen sich Theorien erarbeiten und Hypothesen formulieren. Was als Arbeitsgebiet für die Philosophie bleibt, ist das Aufstellen von Aussagen über die Wissenschaftssprache, über Zusammenhänge zwischen Sätzen; auf diesem Weg können aber keine Erkenntnisse über die

7.1 Logischer Positivismus – der Wiener Kreis

Welt gewonnen werden, wie es die Rationalisten noch behauptet hatten, denn solche Aussagen wären synthetisch a priori – und solche Aussagen gibt es gemäß dem Logischen Positivismus nicht. Etliche klassische philosophische Probleme – Fragen über das Gute, das Schöne, die Existenz Gottes – lassen sich dann aber offenbar nicht mehr beantworten, sie werden als Scheinprobleme entlarvt. Eine weitere wichtige Folgerung des Wiener Kreises ist, dass die Erkenntnismethoden der Realwissenschaften sich im Grunde nicht voneinander unterscheiden: Alle Realwissenschaften verarbeiten, ganz abstrakt betrachtet, Erfahrungsdaten, welche sie empirisch, durch Beobachtung der Welt, gewinnen. Dies gilt für den Physiker und den Biologen ebenso wie für den Historiker und den Soziologen. (Die Mathematik ist demgegenüber eine Strukturwissenschaft, da sie gemäß der eben angesprochenen Unterscheidung von analytisch und synthetisch nur analytische Sätze aufstellt, also nicht die Welt beschreibt.) Die Realwissenschaften haben gemäß dem Logischen Positivismus keine grundsätzlich unterschiedlichen Methoden und Erkenntnisziele, auch wenn beispielsweise die klassische Unterscheidung von Natur-, Geistes-, Sozialwissenschaften dies suggeriert und die Realwissenschaftler selbst zunächst dieser Meinung sein mögen. Der Logische Positivismus verfolgt dementsprechend das Ziel, eine Einheitswissenschaft zu etablieren: Die Trennung zwischen den Realwissenschaften soll aufgehoben werden. Die neue Wissenschaftssprache soll als ‚Universalsprache der Wissenschaft‘ Garant sein für die reibungslose und fruchtbare Zusammenarbeit der Wissenschaftler aus den (vormals) verschiedenen Disziplinen. Technischer Höhepunkt der Bestrebungen zur Konstruktion einer solchen Wissenschaftssprache ist Carnaps Der Logische Aufbau der Welt (1928). Carnap entwickelt in diesem Werk als technischen Rahmen eine Konstitutionstheorie, die er am konkreten Beispiel eines Konstitutionssystems ausarbeitet und erläutert. Stark vereinfacht geht es in dem Projekt darum, einen Stammbaum der Begriffe zu konstruieren. Ausgehend von einfachsten, subjektiven Erfahrungsbestandteilen, den empirisch gegebenen ‚Elementarerlebnissen‘, und nur einer einzigen Relation zwischen diesen, der ‚Ähnlichkeitserinnerung‘, sollen sämtliche Begriffe der Wissenschaftssprache Schritt für Schritt konstruiert (oder konstituiert) werden. Damit würde die gesamte Wissenschaftssprache auf eine exakte und intersubjektive Grundlage gestellt werden. Carnap will dabei unseren natürlichen, psychologischen Erkenntnisprozess in seinem System systematisch vereinfacht nachzeichnen – schließlich haben wir als Menschen alle auf Grundlage unserer Wahrnehmungen eine Sprache gelernt – und so eine Idealsprache kreieren, in der jeder Begriff eine exakt definierte und aufweisbare Bedeutung hat. Eine solche Sprache soll dann als Einheitssprache in der Wissenschaft Verwendung finden und schließlich zu der angestrebten Einheitswissenschaft führen – die Gräben zwischen den verschiedenen wissenschaftlichen Disziplinen würden verschwinden. Der Begriff ‚Mensch‘ wird von Soziologen, Medizinern und Biologen benutzt, ‚Elektron‘ von Physikern und Chemikern, aber die jeweils intendierte Bedeutung der Begriffe ist höchstens ähnlich. Wäre die Bedeutung aber überall gleich, könnten die Forschungsergebnisse der einen Disziplin direkt in der anderen Disziplin Verwendung finden –

Einheitswissenschaft

Konstitutionstheorie

95

96

7. Wissenschaftstheorie

Verifikationsprinzip

Sinnkriterium

Protokollsätze

die Zusammenarbeit aller Realwissenschaftler würde den wissenschaftlichen Fortschritt enorm beschleunigen. Im Aufbau bleibt Carnap freilich die vollständige Ausarbeitung einer solchen Sprache schuldig, gelangt aber dennoch zu beeindruckenden Ergebnissen, wie selbst Kritiker des Projekts wie Quine und Nelson Goodman (1906–1998) zu würdigen wussten. Dass auch diese präzise Ausarbeitung nur ein erster Schritt in Richtung des angestrebten Ziels war, war Carnap und den anderen Logischen Positivisten klar. An der prinzipiellen Durchführbarkeit eines solchen Ansatzes hegten sie jedoch keine Zweifel und setzten diese für ihre weiteren Überlegungen voraus. Das Verifikationsprinzip ist eines der zentralen Prinzipien des Logischen Positivismus und wird oft auf den folgenden Satz reduziert: „Der Sinn eines Satzes ist die Methode seiner Verifikation.“ Auf den ersten Blick mag dies wenig plausibel erscheinen. Deutlicher wird das Verifikationsprinzip in folgender Formulierung: „Man versteht einen Satz genau dann, wenn man weiß, wie man ihn prinzipiell (empirisch) überprüfen könnte.“ Aus dieser subjektiven Perspektive heraus wird die dem Prinzip zu Grunde liegende Intention verständlich: Jemand versteht den Satz „Diese Flasche ist blau“ nur dann, wenn er weiß, wie er seine Richtigkeit empirisch überprüfen könnte. Wie steht es dann mit dem Satz „In dieser Flasche befindet sich ein Dodekaeder“? Um zu wissen, wie dieser Satz empirisch überprüft werden kann, muss man wissen, was ein Dodekaeder ist – weiß man das nicht, versteht man den Satz nicht. In der ersten Formulierung des Verifikationsprinzips wird keine subjektive, sondern eine intersubjektive Perspektive eingenommen. Dort geht es nicht darum, ob irgendjemand Bestimmtes weiß, was ein Dodekaeder ist, sondern dass bekannt ist, was ein Dodekaeder ist – dass es ‚der Wissenschaft‘ bekannt ist. Der Wissenschaft ist es genau dann bekannt, wenn das Wort ‚Dodekaeder‘ exakt definiert wurde, beispielsweise im Rahmen eines Konstitutionssystems. Ist dies nun bei allen in einem Satz vorkommenden Begriffen der Fall, sind immer auch die Kriterien zur empirischen Überprüfung des Satzes bekannt – wie auch immer diese im Detail aussehen mögen. Und diese Überprüfungskriterien werden nun vom Logischen Positivismus mit der Bedeutung des Satzes identifiziert. Auf Grundlage des Verifikationsprinzips kann nun auch das Sinnkriterium verdeutlicht werden, welches der Abgrenzung von sinnvollen und metaphysischen Aussagen, von Wissenschaft und Metaphysik dient. Gemäß dem Sinnkriterium sind für den Logischen Positivismus nur solche (synthetischen) Aussagen sinnvoll, deren Gültigkeit intersubjektiv überprüft werden kann – Maßstab dafür ist wieder die Erfahrung. Dieser Aspekt wurde schon in Kapitel 5 thematisiert. Wenn innerhalb des Wiener Kreises auch ein Konsens hinsichtlich wesentlicher Aspekte bestand – der Idee der Einheitswissenschaft und der Metaphysikfeindlichkeit beispielsweise –, so gab es doch etliche Punkte, über die angeregt diskutiert wurde und bei denen die Meinungen weit auseinander klafften. Ein Beispiel dafür ist die Protokollsatzdebatte, in der es um die Schnittstelle von Sprache und Welt geht. Die Protokollsätze bilden das Fundament des Sprachsystems und sollen (idealerweise) frei von jeglicher Interpretation oder Verarbeitung sein; sie sollen sprachlich codierte Informatio-

7.2 Das Standardmodell der Wissenschaftstheorie

nen über die Welt bereitstellen, die dann wissenschaftlich weiterverarbeitet werden können. Welcher Form diese Protokollsätze sein sollten (beliebiger oder strikt vorgegebener Form), was für Begriffe in ihnen vorkommen können (nur vergleichsweise unproblematische Begriffe für Wahrnehmungseigenschaften wie ‚rot‘ und ‚rund‘ oder auch Begriffe für Arten von Gegenständen wie ‚Schwan‘) und ob man die Möglichkeit einräumen müsste, dass diese Sätze auch falsch sein können (Schlick war strikt gegen eine solche Auffassung, Neurath dafür, Carnap zunächst dagegen, später dafür), war Gegenstand kontroverser Diskussionen im Kreis. Auch gab es keinen Konsens darüber, wie die zu erschaffende Idealsprache aussehen sollte: Während Carnap sie eher als eine Sprache für die Wissenschaft sah, strebte Neurath an, die ‚neue‘ Sprache als universelle Einheitssprache zu etablieren, die auch im Alltag Verwendung finden sollte. Künstliche Normalsprachen, in diesem Kontext spricht man auch von ‚Plansprachen‘, gibt es etliche; man denke nur an Esperanto, Interlingua und Ido. Im Regelfall sind diese Sprachen aber für spezielle Einsatzgebiete gedacht. Neuraths ‚Universalslang‘ hingegen sollte aus der normalen Umgangssprache heraus durch sukzessive Reinigung und Ergänzung entwickelt werden – so sollten, um nur ein Beispiel zu geben, alle metaphysischen Ausdrücke aus der Sprache getilgt werden –, um diese schließlich zu ersetzen. Der Wiener Kreis verstand sein Programm auch als ein politisches. Hinter den angestrebten radikalen Reformen der Wissenschaft stand immer auch der Wille, so etwas wie eine ‚neue Aufklärung‘ zu etablieren, eine ‚wissenschaftliche Weltauffassung‘. Nicht nur die Wissenschaft, auch das Volk sollte von den neuen Erkenntnissen profitieren und damit die Fähigkeit herausbilden, Argumente rational zu prüfen und kritisch zu hinterfragen sowie metaphysischen Versprechungen – seien sie religiös, romantisch oder nationalistisch motiviert – zu widerstehen. Vor diesem Hintergrund ist Neuraths radikale Forderung, die Wissenschaftssprache zu einer Sprache auch für das normale Leben zu machen, nachzuvollziehen.

7.2 Das Standardmodell der Wissenschaftstheorie Viele der radikalen Vorstellungen des Wiener Kreises waren problematisch, wie sich teils schon in den Diskussionen des Wiener Kreises selbst, teils auch später zeigte. So gelang es beispielsweise nicht, mit der Wissenschaftssprache die nötige Trennschärfe zwischen der Vermeidung aller metaphysischer Begriffe – ein Kernanliegen des Wiener Kreises – und der Formulierbarkeit relevanter wissenschaftlicher Aussagen – für eine Wissenschaftssprache unumgänglich – zu erreichen. Versuche, allgemein gültige, formale Kriterien für diese wichtige Abgrenzung aufzustellen, führten zu keinen brauchbaren Ergebnissen. Ein offenes Problem war auch, wie die Realwissenschaften von den Protokollsätzen zu immer allgemeineren Hypothesen und zu neuen Sätzen kommen konnten: Wann sollte das Aufstellen solcher Hypothesen gerechtfertigt sein, wie sollte es vor sich gehen und welchen Gültigkeitsanspruch durften diese Hypothesen dann für sich in Anspruch

97

98

7. Wissenschaftstheorie

nehmen? Solche Fragen waren für die wissenschaftliche Praxis von entscheidender Wichtigkeit. Das Ausräumen der (zu) radikalen Ansprüche und die Klärung der eben angerissenen Fragen führte schließlich in den 50er/60er Jahren des letzten Jahrhunderts zu einer auf breiter Front akzeptierten Auffassung von Wissenschaftstheorie, dem so genannten ‚Standardmodell‘. Dazu gehörten als wesentliche Elemente die Zweistufenkonzeption der Sprache, das DN-Modell der Erklärung und die Idee einer objektiven Bestätigungstheorie. Diese gemäßigtere Form des Logischen Positivismus wird von vielen Autoren als Logischer Empirismus bezeichnet.

7.2.1 Die Zweistufenkonzeption

Beobachtungsbegriffe und theoretische Begriffe

Die Wissenschaftssprache war für den Logischen Positivismus nicht nur Mittel zum Zweck, nicht nur Grundlage für die disziplinübergreifende wissenschaftliche Arbeit, sondern zentrale Argumentationsinstanz. Während die Realwissenschaften für die Untersuchung der Welt zuständig sind und – vereinfacht dargestellt – immer neue Protokollsätze beisteuern und Theorien in der Sprache aufstellen, besteht die Rolle der Philosophie darin, die Struktur der Wissenschaftssprache zu analysieren und ihre Begriffe und Sätze zueinander in Beziehung zu setzen und zu klären. Das ursprüngliche, vom Logischen Positivismus angestrebte Ideal der Zurückführung aller wissenschaftlichen Begriffe auf die Erfahrung ließ sich jedoch nicht verwirklichen. Ernst Mach forderte seinerzeit von den Wissenschaften den völligen Verzicht auf Begriffe, bei denen diese Reduktion nicht möglich ist; das hieße jedoch, dass solche Begriffe wie ‚Elektron‘, ‚Kraft‘ und ‚Gen‘ aus der Wissenschaft verschwinden müssten – eine Position, die schon von den Mitgliedern des Wiener Kreises nicht geteilt wurde und die auch heute unhaltbar scheint. Dennoch sind diese Begriffe zu komplex, zu abstrakt, um fest mit der Erfahrung in Einklang gebracht werden zu können – in dieser Hinsicht scheiterte das Programm des Wiener Kreises, der zunächst von einer solchen Möglichkeit ausgegangen war. Am Begriff ‚Elektron‘ kann dies verdeutlicht werden: Elektronen sind empirisch nicht ohne weiteres nachweisbar, entziehen sich dem direkten empirischen Zugriff – der Weg zur Formulierung der ‚Methode der Verifikation‘ von Sätzen, die diesen Begriff enthalten, ist kompliziert und unsicher. Elektronen sind eher Entitäten, deren Existenz man annimmt, weil sich damit ‚bessere‘ Theorien formulieren lassen. Dennoch ist der Begriff für viele wissenschaftliche Theorien von zentraler Bedeutung und gehört definitiv in die Wissenschaftssprache. Was unterscheidet den Begriff ‚Elektron‘ dann aber noch vom metaphysischen Begriff ‚Seele‘? Auch hier lassen sich gute Theorien formulieren, in denen der Begriff einen entscheidenden Platz einnimmt. Carnap und Carl Gustav Hempel (1905–1997) kamen in den späten 50er Jahren zu dem Ergebnis, dass in der Wissenschaftssprache zwei Sphären unterschieden werden müssen, die der Beobachtungsbegriffe, bei denen eine solche Rückführung auf die Erfahrungsgrundlage tatsächlich möglich ist,

7.2 Das Standardmodell der Wissenschaftstheorie

und die der theoretischen Begriffe, bei denen dies nicht möglich ist – die aber dennoch in der Wissenschaftssprache verwendet werden dürfen. Man muss sich jedoch darüber klar sein, dass die theoretischen Begriffe mit einer größeren Unsicherheit belastet sind. Dies ist die Zweistufenkonzeption der Wissenschaftssprache (double language model). Wo genau eine solche Grenze zu ziehen ist, war auch Gegenstand der Diskussionen – sollten nur grundlegende Beobachtungsterme wie ‚rot‘ oder ‚dreieckig‘ zu den Beobachtungsbegriffen zählen oder auch noch solche wie ‚Flasche‘? Aus solchen Überlegungen entwickelte Carnap sein Toleranzprinzip, nach dem es nicht die eine angemessene Sprache für die Wissenschaft gibt, sondern sich mehrere Sprachsysteme gleichberechtigt gegenüberstehen. Die Wahl eines solchen Systems ist dann pragmatisch nach dem jeweils zu bearbeitendem Problemgebiet zu treffen. (Siehe dazu auch Abschnitt 5.8.) Der massive Nachteil der Zweistufenkonzeption ist, dass über die Hintertür der theoretischen Begriffe nun auch der Metaphysik wieder Tür und Tor geöffnet sind: Der Begriff ‚Elektron‘ scheint zwar sicherer und fundierter zu sein als ‚Seele‘ oder ‚Kausalität‘ (die für den Wiener Kreis beide als metaphysisch und damit sinnlos galten), aber es gibt kein klares Abgrenzungskriterium mehr, welches den einen als zulässig und die anderen als unzulässig ausweisen könnte. Es ist nun die Einbindung der Begriffe in wissenschaftliche Theorien, die über die Sinnhaftigkeit entscheidet – und dieses Kriterium ist deutlich weicher und weniger klar als das alte Sinnkriterium.

7.2.2 Wissenschaftliche Erklärung Was ist eigentlich wissenschaftliche Erklärung, was zeichnet sie gegenüber anderen Erklärungen aus? Diese zentrale Frage der Wissenschaftstheorie wurde in den ersten Dekaden des 20. Jahrhunderts stark vernachlässigt. Die Forschung auf diesem Gebiet ist wohl mit keinem Namen so eng verknüpft wie mit dem von Hempel. Dessen Deduktiv-Nomologisches Modell (DNModell), auch ‚Hempel-Oppenheim-Schema‘ (HO-Schema) genannt, stellt einen einflussreichen und lange akzeptierten Ansatz einer allgemeingültigen Schematisierung wissenschaftlicher Erklärungen dar. Der Grundgedanke dabei ist, dass wissenschaftliche Erklärungen so funktionieren, dass über allgemeingültige Gesetze (daher ‚nomologisch‘) und das Vorliegen entsprechender Antezedens- oder Randbedingungen deduktiv auf das Konsequenz geschlossen wird: L1 … Lr C1 … Ck

(Natur-)Gesetze Antezedens-Bedingungen

E

Beschreibung des zu erklärenden Phänomens

Die Konklusion oder das Explanandum E wird also dadurch erklärt, dass die relevanten Randbedingungen und Gesetze (die zusammen das Explanans bilden) angegeben werden; dabei darf der Schluss auf das Explanandum nicht ohne Verwendung der Gesetze möglich sein und das Explanans muss

DN-Modell

99

100

7. Wissenschaftstheorie

empirisch zugänglich und wahr (oder zumindest sehr wahrscheinlich) sein. Dieser Schluss ist deduktiv: Sind die Prämissen wahr, sind also die Gesetze korrekt und liegen die Randbedingungen tatsächlich vor, kann das Konsequenz nicht falsch sein. Ein einfaches, auf Popper zurückgehendes Beispiel kann die Sache verdeutlichen: L:

Immer, wenn ein Faden der Stärke r mit einem Gewicht von mindestens s belastet wird, reißt er. C1: f ist ein Faden der Stärke r. C2: An f wird ein Gewicht der Größe s angehängt. E:

Der Faden f reißt.

Das Explanandum E, das Reißen des Fadens, wird durch ein allgemeingültiges Gesetz L und die entsprechenden Randbedingungen C1 und C2 erklärt. L, C1 und C2 sind empirisch zugänglich und (so wird vorausgesetzt) wahr. Der Schluss auf E kann nicht allein durch C1 und C2 erfolgen, L ist dafür unerlässlich. Nun liegen die meisten Erklärungen in den Wissenschaften sicherlich nicht in der sauberen und strukturierten Form dieses Schemas vor; laut Hempel ist es aber möglich, sämtliche wissenschaftliche Erklärungen in eine solche Form (oder in die des verwandten Induktiv-Statistischen Modells (IS-Modells), das hier nicht näher thematisiert werden soll) zu überführen. Übrigens gilt das DN-Modell laut Hempel nicht nur der Erklärung, sondern auch der Vorhersage: Ist im angesprochenen Beispiel der Faden bereits gerissen, kann ich das Reißen durch das Schema erklären. Sind die Randbedingungen und die Gesetze bekannt, kann man auf Grundlage desselben Schemas aber schon vor der Durchführung des Experiments vorhersagen, dass der Faden reißen wird.

7.2.3 Induktion und Bestätigung Für den Logischen Positivismus war die Logik das wichtigste philosophische und wissenschaftliche Werkzeug. Auf die konkreten Einsatzgebiete in der Wissenschaft bezogen hat die Logik die Aufgabe, die Schlüssigkeit von Argumenten zu bewerten: Folgt aus diesen und jenen Prämissen tatsächlich die angestrebte Konklusion? Auch im Spezialfall der wissenschaftliche Erklärung ist die Logik, wie sich im letzten Unterabschnitt gezeigt hat, unverzichtbar. Die bisher diskutierte deduktive Logik garantiert dabei die Wahrheit der Konklusion, insofern die Prämissen wahr sind. In vielen Fällen reicht die deduktive Logik aber nicht aus, da eine solche Garantie in der Praxis gar nicht vorliegt. Wie kommen wir darauf, den Satz „Morgen geht die Sonne auf“ für wahr zu halten, zumindest aber für extrem wahrscheinlich? Nun – bisher ging die Sonne doch jeden Morgen auf, weshalb sollte sie das plötzlich nicht mehr tun? Wir schließen hier aus vielen gleichartigen Vorkommnissen in der Vergangenheit auf die Zukunft. Dieses Vorgehen ist in unserer Lebensführung so fest verwurzelt, dass wir schon gar nicht mehr darüber nachdenken:

7.3 Poppers Falsifikationismus

Haustiere erwarten ihr Futter, wenn sie die Person sehen, die sie üblicherweise füttert. Wir wissen, dass solche groben Ansichten über Gleichförmigkeit irreführend sein können. Der Mann, der das Huhn tagtäglich gefüttert hat, dreht ihm schließlich den Hals um und zeigt damit, dass subtilere Ansichten über die Gleichförmigkeit der Natur für das Huhn nützlicher gewesen wären. (Russell (1912, S. 43)) Im Falle der induktiven Schlüsse garantieren die Prämissen nicht die Wahrheit der Konklusion, sondern stützen die Konklusion nur, machen sie zu einem gewissen Grade wahrscheinlich. Solche induktiven Schlüsse sind aber in der wissenschaftlichen Praxis verbreiteter, als man zunächst denken mag: Alle ‚anspruchsvollen‘ realwissenschaftlichen Gesetze sind nur Hypothesen, die zwar (möglicherweise) extrem wahrscheinlich sind, niemals aber völlig sicher, denn ein Irrtum ist immer möglich. Selbst wenn eine natürliche Gesetzmäßigkeit von der Wissenschaft erkannt und perfekt beschrieben wurde, ist es nie logisch auszuschließen, dass diese Gesetzmäßigkeit künftig nicht mehr bestehen wird. Nun ist es aber unbestreitbar so, dass bestimmte Hypothesen wahrscheinlicher sind als andere. Eine wichtige Aufgabe für die Wissenschaftstheorie besteht darin, Kriterien für diesen Grad an Sicherheit aufzustellen, eine Bestätigungstheorie zu entwickeln, auf deren Grundlage sich dann die Wahrscheinlichkeiten bestimmter Hypothesen im Lichte gegebener empirischer Gegebenheiten berechnen lassen. So könnten konkurrierende Hypothesen und Theorien gegeneinander abgewogen werden. Idealerweise sollten die dabei erzielten Ergebnisse eine objektive Gültigkeit haben. Carnap und Hempel verfolgten in den 40er und 50er Jahren zunächst unterschiedliche Ansätze zur Entwicklung einer solchen objektiven Bestätigungstheorie. Während Hempel Bestätigung als eine partielle Verifikation von Hypothesen verstand, entwickelte Carnap in (1950) eine induktive Logik, die den Grad der Bestätigung von Aussagen unter Rückgriff auf die Wahrscheinlichkeitstheorie festzulegen suchte. Hempel gab seinen Ansatz schließlich zu Gunsten des Carnapschen auf, der sich aber langfristig ebenfalls nicht durchsetzen konnte.

7.3 Poppers Falsifikationismus Einen völlig anderen Weg in Bezug auf das Problem der Bestätigung schlägt einer der prominentesten Kritiker des Wiener Kreises ein, Sir Karl Raimund Popper (1902–1994). Auch sein Interesse galt den Grundlagen und Methoden der Wissenschaften. In seiner Logik der Forschung (1935) macht er sich angesichts der extremen Probleme mit der Induktion (im vorigen Abschnitt wurde kurz darauf eingegangen) für einen neuen wissenschaftlichen Ansatz stark. Wissenschaftler glauben üblicherweise an die Wahrheit der von ihnen aufgestellten Theorien und versuchen, diese so gut es geht durch empirische Befunde zu bestätigen, also zu verifizieren. Eine endgültige Verifikation kann aber nicht erfolgen, denn alle Theorien sind empirisch unterdeterminiert und keine noch so gute Bestätigung durch einzelne Beobachtungen,

Falsifikation vs. Bestätigung

101

102

7. Wissenschaftstheorie

Immunisierungen

Abgrenzungskriterium für wissenschaftliche Theorien

Messungen oder Versuche kann die Wahrheit einer realwissenschaftlichen Theorie zeigen. Die Probleme, die die Induktion hier aufwirft, sind unüberwindbar. Poppers Auffassung nach sollte der Wissenschaftler Theorien nicht etwa verifizieren, sondern – im Gegenteil – vielmehr versuchen, sie deduktiv zu falsifizieren, also zu widerlegen. Das klingt zunächst absurd, hat aber einen entscheidenden Vorteil, der in der Asymmetrie zwischen Verifikation und Falsifikation begründet liegt: Eine Hypothese wie „Alle Schwäne sind weiß“ kann man empirisch unmöglich verifizieren, sondern höchstens durch entsprechende Beobachtungen weißer Schwäne stützen, ‚wahrscheinlich machen‘. Andererseits ist es aber durch die Beobachtung eines einzigen nicht weißen Schwans möglich, sie ein für alle mal zu falsifizieren. Diesen systematischen Vorteil gilt es, laut Popper, für die Wissenschaften fruchtbar zu machen. Wissenschaftler sollten kreativ Hypothesen aufstellen und versuchen, sie zu falsifizieren. Nach Popper zeichnen sich gute wissenschaftliche Theorien dadurch aus, dass aus ihnen viele Basissätze (Beobachtungssaussagen) ableitbar sind, die sich direkt empirisch überprüfen lassen; dass sie einen großen empirischen Gehalt haben, der sich im Grad ihrer theoretischen Falsifizierbarkeit niederschlägt. Bieten die Theorien eine große ‚Angriffsfläche‘ und haben sie mehreren Falsifikationsversuchen standgehalten, können die Theorien zunächst als bestätigt angesehen werden. Es wäre laut Popper jedoch unsinnig, ihnen einen Grad an Wahrscheinlichkeit zuweisen zu wollen; die wissenschaftspraktischen Elemente der Falsifikation lassen eine solche Konzeption in der Tat kaum plausibel erscheinen. Es ist immer möglich, wissenschaftliche Theorien gegen einzelne Falsifikationen zu immunisieren – zum Beispiel, indem der Gültigkeitsbereich der Theorie so weit eingeschränkt wird, dass die problematischen Fälle nicht mehr durch die Theorie abgedeckt werden. Ein solches Vorgehen ist dem wissenschaftlichen Fortschritt jedoch laut Popper nicht zuträglich; es macht die Theorie schlechter, da die Angriffsfläche so verkleinert wird. Auch in Poppers Falsifikationismus gibt es ein Abgrenzungskriterium für wissenschaftliche Theorien: Theorien sind nur dann wissenschaftlich zu nennen, wenn sich aus ihnen tatsächlich empirische Basissätze ableiten lassen, über die sie falsifiziert werden könnten. Die klassischen Beispiele für in dieser Hinsicht unwissenschaftliche Theorien sind für Popper die Freudsche Psychoanalyse und der Marxismus. Beide Theorien lassen keine verbindlichen Voraussagen zu, es lassen sich keine Basissätze aus ihnen ableiten, die gegebenenfalls zu ihrer Falsifikation führen könnten. Sie können jeden beliebigen empirischen Befund so auslegen, dass es doch zur Theorie passt. Solche Theorien sind laut Popper als nicht wissenschaftlich abzulehnen.

7.4 Wandel und Dynamik wissenschaftlicher Theorien Seit den späten 50er Jahren des letzten Jahrhunderts ist ein neuer Aspekt in das Zentrum der wissenschaftstheoretischen Forschung gerückt und hat diese maßgeblich bestimmt: Die Analyse der Dynamik wissenschaftlicher Theorien. Die zentrale Fragestellung ist hier die, wie es in den Wissen-

7.4 Wandel und Dynamik wissenschaftlicher Theorien

schaften zu Fortschritten kommt. Wollte die frühere Wissenschaftstheorie noch interne Strukturen der wissenschaftlichen Erklärung aufdecken und Wege aufzeigen, wie die Wissenschaft an konkreten Problemen arbeitet und zu ihren Ergebnissen kommt, nimmt die spätere Wissenschaftstheorie eine neue Perspektive ein und betrachtet den Wissenschaftsbetrieb aus größerer Entfernung. Während die ‚klassische‘ Wissenschaftstheorie in gewisser Hinsicht normativ war, also immer auch die praktische Arbeit in den Wissenschaften revolutionieren wollte (um nur Schlagworte zu nennen: Einheitswissenschaft, Wissenschaftssprache, Falsifikationismus), nimmt diese spätere Strömung der Wissenschaftstheorie für sich in Anspruch, rein deskriptiv zu sein. Sie will die wissenschaftliche Praxis beschreiben und die ihr zu Grunde liegenden Prinzipien aufdecken.

7.4.1 Kuhn: Wissenschaftliche Revolutionen Thomas S. Kuhn (1922–1996) leitete diese neue Phase der Wissenschaftstheorie mit seinem einflussreichen Hauptwerk Die Struktur Wissenschaftlicher Revolutionen (1962) ein, wobei er sich auf zuvor von Popper angestellte Gedankengänge bezieht. Kuhn vertritt die These, dass der Fortschritt in den Wissenschaften nicht immer gleichmäßig, Schritt für Schritt verläuft, sondern dass Phasen von Normalwissenschaft durch Phasen wissenschaftlicher Revolutionen unterbrochen werden. In der normalwissenschaftlichen Phase wird im Rahmen eines Paradigmas gearbeitet. Ein Paradigma legt nach Kuhn den Gegenstandsbereich der zugehörigen Theorien fest, die Forschungsziele und zu klärenden Fragen, Experimentiermethoden und -werkzeuge und selbst die Interpretation der erzielten Ergebnisse. Diese Festlegung erfolgt dabei nicht streng definitorisch, sondern eher durch einen breiten Konsens der Forscher in Hinblick auf allgemein akzeptierte Hintergrundannahmen und als beispielhaft ausgewiesene frühere Forschungsleistungen. Kuhn bezeichnet die normalwissenschaftliche Arbeit als ‚puzzle solving‘; es geht hier nicht um eine Prüfung der Theorien, sondern um deren Erweiterung und Präzisierung. Wissenschaftlicher Fortschritt besteht hier darin, dass die Theorien im Rahmen des Paradigmas auf Grundlage von Experimenten, Beobachtungen und deren Interpretationen weiter ausgearbeitet werden. Mit fortschreitender Ausarbeitung der Theorien kommt es jedoch immer häufiger zu Anomalien – Beobachtungen und Ergebnissen, die sich im Rahmen der Theorien nicht befriedigend erklären lassen und die durch ad hoc-Anpassungen, die von Popper vehement kritisierten Immunisierungen, mit ihnen in Einklang gebracht werden. Solche Anpassungen sind aber unbefriedigend; häufen sich derartige Anomalien, neigt sich die Phase der Normalwissenschaft ihrem Ende zu, sie gerät in eine Krise. Ein neues, rivalisierendes Paradigma entsteht. In der Phase der wissenschaftlichen Revolution steht das neue Paradigma dem alten, etablierten Paradigma gegenüber; ein Kampf um die Vorherrschaft in der scientific community beginnt. Der Unterschied zwischen den Paradigmen ist dabei groß; es handelt sich bei dem neuen Paradigma um einen völlig neuen Apparat an Theorien und Annahmen, eine völlig neue Sicht auf das wissenschaftliche Arbeitsfeld. Kuhns Inkommensurabilitäts-

Normalwissenschaft

Wissenschaftliche Revolution

Inkommensurabilität

103

104

7. Wissenschaftstheorie

Immunisierung

Probleme

these besagt dabei, dass eine rationale Bewertung des einen Paradigmas nicht aus der Perspektive des anderen Paradigmas erfolgen kann – das Gerüst des Paradigmas schränkt die mit ihm zu bewertenden Konzepte dafür zu stark ein. Ein Standardbeispiel dafür ist der Übergang von der Aristotelischen zur Newtonschen Physik: In Newtons Theorie spielt der Begriff der Kraft eine entscheidende Rolle, für den es bei Aristoteles kein Pendant gibt. Entsprechend sind beide Paradigmen nicht in der Lage, die Postulate des jeweils anderen Paradigmas angemessen zu bewerten, da die gemeinsamen Maßstäbe fehlen. Dies wird oft so ausgelegt, dass es gar keine rationalen Kriterien dafür gibt, welches Paradigma überlegen ist und als Gewinner aus diesem Kampf hervorgeht. Kuhn selbst führt zwar etliche Kriterien auf, die hier einer Beurteilung dienen können, räumt aber ein, dass deren Auslegung und Gewichtung subjektiv ist. Eines der Paradigmen setzt sich schließlich durch und wird bestimmend für die folgende normalwissenschaftliche Phase; der Kreislauf beginnt von neuem. Im Gegensatz zu Popper hebt Kuhn den heuristischen Wert der Immunisierungsstrategien hervor, die die Theorien in den normalwissenschaftlichen Phasen vor Anomalien und damit vor vorzeitiger Falsifikation schützen können – bevor eine Theorie aufgegeben und durch eine neue ersetzt wird, muss erst ihr Potential ausgelotet werden. Kuhns Ansatz wurde vielfältig kritisiert und weiterentwickelt. Ein wichtiger Kritikpunkt ist der, dass die Theorie nicht das leistet, was sie leisten soll: die wissenschaftliche Praxis angemessen zu beschreiben. Wissenschaftliche Revolutionen in Kuhns Sinne sind Phänomene, die sehr selten auftreten; es kommt nicht oft vor, dass sich eine wissenschaftliche Disziplin völlig neu positioniert. Es gibt viele Phänomene, die man mit Recht als ‚wissenschaftliche Revolutionen‘ klassifizieren würde und die, auf Kuhns Theorie bezogen, innerhalb der normalwissenschaftlichen Phasen erfolgten. Sie bewirkten zwar vielleicht eine deutliche Erweiterung ‚ihres‘ Paradigmas, standen aber nicht in Konkurrenz dazu und führten auch nicht zu dessen Ablösung. Als Illustration für ein solches Phänomen wird oft die Entdeckung der DNAStruktur durch James Watson und Francis Crick aufgeführt, der man kaum den Charakter einer wissenschaftlichen Revolution absprechen möchte, die aber doch nicht Kuhns Kriterien dafür erfüllen würde. Der zweite Kritikpunkt ist – je nach Perspektive – noch schwerwiegender: Gemäß der Inkommensurabilitätsthese gibt es keine objektiven, rationalen Gründe und Erklärungen, weshalb sich in Phasen wissenschaftlicher Revolutionen das eine oder das andere Paradigma durchsetzt. Das heißt aber, dass die Wissenschaft – an die wir höchste Ansprüche stellen und die ihre eigene Rationalität und Objektivität immer wieder betont – im Kern selbst irrational ist, was ihre schwerwiegendsten und richtungsweisendsten Entscheidungen angeht. Dass eine solche Behauptung Widerstand hervorruft, ist wenig verwunderlich.

7.4.2 Lakatos und Feyerabend Imre Lakatos (1922–1974) setzte sich ebenfalls mit der Dynamik wissenschaftlicher Theorien auseinander. Sein Raffinierter Falsifikationismus, der

7.4 Wandel und Dynamik wissenschaftlicher Theorien

zumindest auf den ersten Blick stark an die Theorie von Kuhn erinnert, versucht die beiden letztgenannten Kritikpunkte auszuräumen und enger an Popper anzuknüpfen. Lakatos begreift die Wissenschaft als einen Wettstreit konkurrierender Forschungsprogramme – sein Äquivalent zu Kuhns Paradigmen. Diese Forschungsprogramme haben einen harten Kern, der aus den – aus Sicht der im Programm arbeitenden Wissenschaftler – unumstößlichen Elementen (Gesetzen, Grundannahmen) besteht, die von einem Schutzgürtel (protective belt) aus untergeordneten Hilfshypothesen umgeben sind. Diese Forschungsprogramme können im Lichte neuer empirischer Befunde verändert werden, was sich in Modifikationen innerhalb des Schutzgürtels niederschlägt; so wird ihr Kern vor Anomalien und vor vorzeitiger Falsifikation geschützt. Solche Anpassungen führen zu immer neuen ‚Versionen‘, zu Weiterentwicklungen der Forschungsprogramme. Dies würde der Entwicklung der Theorien in der normalwissenschaftlichen Phase bei Kuhn entsprechen. An die Stelle von Kuhns wissenschaftlichen Revolutionen tritt bei Lakatos ein weniger dramatisch anmutender Wettstreit der Forschungsprogramme: Gibt es Situationen, in denen mehrere Forschungsprogramme konkurrieren, gewinnt dasjenige, welches einen festen Katalog an objektiven, theorieunabhängigen Qualitätskriterien am besten erfüllt. Dieser Katalog kommt nicht nur bei der Entscheidung zwischen konkurrierenden Programmen zum Einsatz, sondern auch bei der Abwägung zwischen verschiedenen Versionen eines Programms. Inwiefern geht Lakatos‘ Theorie nun aber über Kuhn hinaus? Zum einen ist die Unterteilung in Forschungsprogramme statt in Paradigmen feiner. Größere theoretische Entwicklungen, die doch nicht den Charakter von Kuhnschen Revolutionen haben, lassen sich mit Lakatos besser erklären. Insofern scheint Lakatos‘ Theorie besser geeignet zu sein, die wissenschaftsgeschichtlichen Entwicklungen angemessen zu beschreiben. Zum anderen will Lakatos dem Vorwurf der Irrationalität der Wissenschaft mit seinem Kriterienkatalog begegnen: Ob ein Forschungsprogramm einer Modifikation, also einer anderen Version seiner selbst oder auch einem anderen Forschungsprogramm über- oder unterlegen ist, kann anhand dieses Kataloges anscheinend objektiv beurteilt werden; das subjektive und irrationale Element verschwindet, die Rationalität der Wissenschaft ist gerettet. Lakatos selbst versteht seine eigene Theorie dabei als eine natürliche Weiterentwicklung der Popperschen Ideen. Paul Feyerabend (1924–1994) war hingegen der Überzeugung, dass dem Fortschritt in den Wissenschaften keine allgemein gültigen, übergeordneten methodologischen Regeln zu Grunde liegen. Wie auch Kuhn vertrat Feyerabend die Auffassung, dass konkurrierende wissenschaftliche Theorien inkommensurabel seien; Feyerabend bezog sich dabei jedoch auf durch den späten Wittgenstein inspirierte sprachphilosophische Überlegungen. In seinem Hauptwerk Wider den Methodenzwang (1975) – eigentlich als ‚Schlagabtausch‘ mit seinem Freund Lakatos gedacht, der jedoch kurz zuvor starb – stellt Feyerabend die Wissenschaft sogar mit der Religion und Mystik auf eine Stufe und bestreitet, dass den Entscheidungen zwischen konkurrierenden Theorien tatsächlich rationale, objektive Überlegungen zu Grunde lie-

Lakatos

Historische Adäquatheit und Rettung der Rationalität

Feyerabend

105

106

7. Wissenschaftstheorie

gen. Als Schlagwort seiner Theorie gilt ‚anything goes!‘ – kurz, man soll die Wissenschaften einfach machen lassen. Auf Grund dieser radikalen Auffassungen wird Feyerabends Position auch als ‚Erkenntnistheoretischer Anarchismus‘ bezeichnet.

7.5 Ausblick, Lektürehinweise, Fragen und Übungen Ausblick Die Wissenschaftstheorie hat sich zu einer wichtigen philosophischen Disziplin entwickelt und vereint in sich Elemente aus vielen anderen philosophischen Bereichen, beispielsweise der Erkenntnistheorie, der Sprachphilosophie, aber auch der Ontologie. An die Stelle der mächtigen, das Ganze der Wissenschaft umfassenden Fragestellungen, wie sie in diesem Kapitel kurz geschildert wurden, ist heute eher ein Arbeiten an ausgewiesenen Teilproblemen getreten. Zum einen ist eine deutliche Tendenz auszumachen, spezialisierte Wissenschaftstheorien auszuarbeiten, eine Wissenschaftstheorie der Physik, eine der Biologie oder auch eine der Wirtschaftswissenschaften beispielsweise, in welchen die individuellen Methoden und Probleme der jeweiligen Disziplin besser berücksichtigt werden können. Das vom Logischen Positivismus beschworene Ideal einer Einheitswissenschaft mit universellen Methoden und Erkenntnismöglichkeiten ist – leider? – nicht mehr aktuell. Zum anderen sind auch neue Fragestellungen in das Interesse der Wissenschaftstheorie gerückt, wie die nach dem Wesen von Naturgesetzen, von Kausalität und der ontologischen Grundlage der Wissenschaft, und ausgewählte ältere Arbeitsgebiete wieder neu erschlossen worden, wie die Bestätigungstheorie und die wissenschaftliche Erklärung.

Lektürehinweise Eine sehr gute und dazu noch unterhaltsame Einführung in die Wissenschaftstheorie ist Godfrey-Smith (2003). Ebenso gut, aber deutlich umfangreicher und formaler ist Schurz (2006). Eine Auswahl an einführenden Texten zu den verschiedenen Fragestellungen und Bereichen der Wissenschaftstheorie findet sich in Bartels/Stöckler (2007); damit ist sie sehr gut als Einführung geeignet, ohne dabei einen Lehrbuchcharakter zu haben. Eine gute Auswahl der zentralen Texte des Wiener Kreises mit einer informativen Einleitung ist Stöltzner/Uebel (2006); eine unverzichtbare Quelle für Hintergrundinformationen zum Logischen Positivismus ist Stadler (1997).

Fragen und Übungen 1. Welche Argumente sprechen für, welche gegen eine ‚Universalsprache der Wissenschaft‘, wie sie vom Wiener Kreis angestrebt wurde? 2. Was sind die Gemeinsamkeiten von George Orwells ‚Neusprech‘ und Otto Neuraths ‚Universalslang‘? 3. Geben Sie einige Gründe an, weshalb es erstrebenswert ist, möglichst eindeutige Kriterien für die Wissenschaftlichkeit einer Theorie zu entwickeln. 4. Man beobachtet, dass niemand außer Johann blaue Flaschen kauft. Daraus leitet man die Theorie ab, dass immer, wenn eine blaue Flasche gekauft wird, Johann der Käufer ist. Lässt sich diese Theorie verifizieren? Wie? Unter welchen Umständen wäre sie falsifiziert? Unter welchen Umständen würde sie sich bewähren? 5. Im Rahmen eines Konstitutionssystems verfügen Sie bereits über die Begriffe ET(x,y) für ‚x ist ein Elternteil von y‘ und M(x) für ‚x ist männlich‘. Auf dieser

7.5 Ausblick, Lektürehinweise, Fragen und Übungen Grundlage können Sie halbformal weitere Verwandtschaftsbeziehungen konstituieren, zum Beispiel V(x,y) für ‚x ist der Vater von y‘: „V(x,y) := ET(x,y) b M(x)“ (also: ‚x ist der Vater von y‘ := ,x ist ein Elternteil von y‘ b ,x ist männlich‘) und GMV(x,y) für ‚x ist die Großmutter väterlicherseits von y‘: „GMV(x,y) := ET(x,z) b ~M(x) b V(z,y)“ (also: ‚x ist die Großmutter väterlicherseits von y‘ := ,x ist Elternteil von z‘ b ~ ,x ist männlich‘ b ,z ist der Vater von y‘). Bereits konstituierte Begriffe können Sie für weitere Konstitutionsschritte benutzen. Konstituieren Sie folgende Begriffe: W(x) für ‚x ist weiblich‘, MU(x,y) für ‚x ist die Mutter von y‘, S(x,y) für ‚x ist eine Schwester von y‘, TA(x,y) für ‚x ist eine Tante von y‘, CO(x,y) für ‚x ist ein Cousin von y‘.

107

8. Philosophie des Geistes

Körper-GeistProblem

Die Philosophie des Geistes ist wohl derjenige Bereich der Philosophie, der in der aktuellen nicht-akademischen Diskussion die größte Aufmerksamkeit erfährt. Ob es um die Möglichkeit des Lebens nach dem Tode geht oder um die Existenz des ‚freien Willens‘ (und darum, was das eigentlich bedeuten soll) – die Philosophie des Geistes nimmt bei der Beantwortung solcher Fragen eine Schlüsselrolle ein. Das Grundproblem der Philosophie des Geistes ist dabei das Verhältnis des Geistigen, Mentalen und des Körperlichen, Physischen zueinander: Das so genannte Leib-Seele-Problem, heute geläufiger unter der weniger religiös konnotierten Bezeichnung Körper-Geist-Problem. Die Frage, wie Körper und Geist miteinander interagieren können, wie also die scheinbar tiefe Kluft zwischen diesen so unterschiedlichen Sphären überwunden werden kann, stellt sich jeder Theorie des Geistes – und jede solche Theorie wird auch daran gemessen, wie gut sie diese Frage beantworten kann. Die Theorien lassen sich anhand des Bieri-Paradoxons genauer klassifizieren. Der Berliner Philosoph hat 1981 folgende Annahmen formuliert: 1. Mentale Phänomene sind nichtphysikalische Phänomene. 2. Mentale Phänomene sind im Bereich physikalischer Phänomene kausal wirksam. 3. Der Bereich physikalischer Phänomene ist kausal geschlossen. (Bieri (1981, S. 9))

Dualismus und Monismus

Das Problem ist nun, dass nicht alle drei Annahmen – obwohl sie alle intuitiv plausibel sind – gleichzeitig wahr sein können. Wir erleben unser Bewusstsein eindeutig als nichtmateriell. Dennoch sind wir überzeugt, dass Mentales auf Physisches einwirken kann. Mein Wunsch, meinen Arm zu heben, führt dazu, dass ich den Arm hebe. Der Durst, den ich verspüre, führt dazu, dass ich zum Kühlschrank gehe. Die Kopfschmerzen, die ich spüre, lassen mich eine Aspirin einnehmen. Aber üblicherweise glaubt niemand an Wunder. Annahme (3) muss jedoch falsch sein, wenn (1) und (2) wahr sind; (1) ist falsch, wenn (2) und (3) zutreffen; (2) ist falsch, wenn (1) und (3) gelten. Es gibt nun einige Grundpositionen, die man hinsichtlich der ontologischen Grundlage des Körper-Geist-Problems bzw. des Problems der mentalen Verursachung einnehmen kann. Man kann die ehemals sehr verbreitete Auffassung vertreten, dass das Mentale und das Physische zwei unterschiedliche Substanzen sind; diese Auffassung ist der Substanz-Dualismus. Dann ist man häufig geneigt, Annahme (3) aufzugeben. Man kann auch leugnen, dass es entweder Mentales oder aber Physisches als Substanz überhaupt gibt; diese Auffassung ist dann ein Substanz-Monismus der einen oder anderen Variante. Entweder ist alles, was es gibt, physisch – diese Position wird als Physikalismus oder Materialismus bezeichnet. Oder alles, was es gibt, ist

8. Philosophie des Geistes

mental – diese Position wird als Mentalismus oder als Idealismus bezeichnet. Der Physikalist entscheidet sich also gegen Annahme (1); der Mentalist, mutatis mutandis, auch. Darüber hinaus gibt es, wie in der Philosophie üblich, noch etliche auf den ersten Blick eher bizarre Sonderfälle, auf die an dieser Stelle aber nicht näher eingegangen werden soll. Jede dieser Grundpositionen hat nun eigene Vor- und Nachteile. Auf den ersten Blick scheint der Substanz-Dualismus eine sehr attraktive Position zu sein, kommt er doch unseren Intuitionen und vorwissenschaftlichen Vorstellungen stark entgegen. Wir erfahren unsere mentale ‚Innenwelt‘ als ganz deutlich verschieden von unserem Körper und der restlichen materiellen Welt. Will man annehmen, dass es ein Leben nach dem Tod gibt, sollte man erklären können, wie etwas, das offenbar mit dem Körper verbunden ist, der Geist oder – in diesem Kontext passender – die Seele, den Tod des Körpers überdauern kann. Der Substanz-Dualismus hat hier eindeutig Vorteile gegenüber einem Physikalismus, der eine eigenständige, körperunabhängige Existenz des Geistes leugnet. Auch scheint diese Position tief in unserer Alltagssprache verwurzelt zu sein, die bei Fragen der personalen Identität noch deutlich zwischen Körper und Geist unterscheidet, wie sich beispielsweise in der Phrase ‚Körper und Geist zusammenhalten‘ zeigt. Der Substanz-Dualismus kommt jedoch in arge Erklärungsnöte, wenn es darum geht, die Interaktion von Körper und Geist zu erklären: Unser Körper ‚sendet‘ offenbar Wahrnehmungen an den Geist und ‚empfängt‘ vom Geist Befehle, die als Auslöser für Handlungen etc. dienen. Wie soll diese Interaktion aber funktionieren? Dies ist das Problem der mentalen Verursachung. In der Philosophiegeschichte finden sich etliche (aus heutiger Sicht recht eigenwillige) Erklärungsansätze, die aber vor dem Hintergrund neuerer wissenschaftlicher Ergebnisse und immer besserer Messmethoden unplausibel wurden. Heute spielt der Substanz-Dualismus in der Philosophie des Geistes praktisch keine Rolle mehr. Dem Mentalismus liegt die metaphysische Vorstellung zu Grunde, dass nicht nur unser Geist mentaler Substanz ist, sondern auch alles andere – unser Körper, unsere Umwelt, einfach alles. (Wie man sich das konkret vorstellen muss, sei zunächst einmal dahingestellt.) Die Interaktion von Geist und Körper stellt in einem solchen System trivialerweise kein Problem mehr dar, denn es gibt nichts anderes mehr, mit dem der Geist zu interagieren hätte; das Problem der mentalen Verursachung stellt sich hier also gar nicht. Mentalistische oder idealistische Positionen unterschiedlichster Ausprägung waren in der Philosophiegeschichte sehr verbreitet, zeichneten sich aber immer durch eine gewisse Ferne zu den (Natur-)Wissenschaften und eine Nähe zu religiösen oder mystischen Elementen aus. Ausgangspunkt für den Mentalismus wie auch für den Substanz-Dualismus waren oft Überlegungen, die die epistemische Sicherheit der Perspektive der ersten Person, also der subjektiven Perspektive betonten; das eigene Erleben, die eigenen Überzeugungen nahmen in den Argumentationen eine Schlüsselrolle ein. Deutlich wird dies beispielsweise bei René Descartes‘ (1596–1650) cogito-Argument: „Ich denke, also bin ich.“ Diese Betonung des Subjektiven kollidierte immer mehr mit der an Bedeutung gewinnenden modernen Wissenschaft, die die Intersubjektivität und damit die Dritte-Person-Perspektive in den Mittelpunkt

mentale Verursachung

109

110

8. Philosophie des Geistes

stellte. Wie der Substanz-Dualismus spielt auch der Mentalismus in der aktuellen Philosophie des Geistes praktisch keine Rolle mehr. Es bleibt der Physikalismus, der als Grundposition unbestreitbar die aktuelle Diskussion in der Philosophie des Geistes dominiert. Auch hier stellt das Problem der mentalen Verursachung keine größere Schwierigkeit dar, da es nichts von Natur aus Geistiges gibt, das mit dem Materiellen interagieren könnte. Das Körper-Geist-Problem nimmt hier die Gestalt an, dass das Fehlen des Geistes als Substanz irgendwie aufgefangen werden muss; schließlich haben wir Empfindungen und Vorstellungen, die wir mit großer Gewissheit als ‚mental‘ bezeichnen würden. Entweder muss also eine Erklärung dafür gegeben werden, dass es Mentales zwar nicht als Substanz, aber in der einen oder anderen Form doch gibt oder es muss plausibel erklärt werden, weshalb es – unseren Überzeugungen zum Trotz – gar nichts Mentales gibt. Die dem Physikalismus als Grundposition zuzurechnenden Theorien in der Philosophie des Geistes sind extrem vielfältig und facettenreich. Im weiteren Verlauf dieses Kapitels werden nun einige in der Geschichte der Analytischen Philosophie populäre und einflussreiche Theorien der Philosophie des Geistes näher vorgestellt. Die erste Theorie ist der Semantische Physikalismus, der insofern eine Sonderrolle einnimmt, als er sich nicht (oder nicht zwingend) in das obige Schema von Physikalismus, Mentalismus und Substanz-Dualismus einfügt. Es folgt ein Abschnitt zur Identitätstheorie, einem ‚waschechten‘ Physikalismus. Die dritte vorgestellte Theorie ist der Funktionalismus, der in einigen Varianten im Sinne des obigen Schemas neutral, in anderen dem Physikalismus zugeordnet werden kann. Nach der Vorstellung dieser drei Theorien werden noch zwei weitere physikalistische Positionen kurz angerissen und schließlich ein Blick auf die Qualia geworfen, die in vielen Diskussionen in der Philosophie des Geistes eine herausragende Rolle spielen und die oft gegen physikalistische Positionen ins Feld geführt werden.

8.1 Die Sprache als Schlüssel: Semantischer Physikalismus Logischer Positivismus

Im vorigen Kapitel wurde der Logische Positivismus und dessen Konzeption einer Universalsprache der Wissenschaft diskutiert. In diesem Zusammenhang wurde festgestellt, dass für den Logischen Positivismus alle Aussagen über die Welt, alle Realaussagen, dem Sinnkriterium nach intersubjektiv verifizierbar sein müssen. Das heißt, dass die Methode ihrer empirischen Verifikation bekannt sein muss. Dies gilt nicht nur für Aussagen der Physik und der Biologie, sondern auch für die Aussagen der Psychologie, die für den Logischen Positivismus nur eine Wissenschaft wie jede andere ist, die in das Gebäude der angestrebten Einheitswissenschaft integriert werden muss. Entsprechend ist der Logische Positivismus auch der Überzeugung, dass der Psychologie keine Sonderrolle hinsichtlich ihrer wissenschaftlichen Methoden und Erfahrungsansprüche zukommt. Wie kann aber Psychologie in einem solchen Rahmen überhaupt noch funktionieren – und welche Konse-

8.1 Die Sprache als Schlüssel: Semantischer Physikalismus

quenzen hat das für die Frage nach dem Verhältnis von Mentalem und Physischem? Die Auslotung der Konsequenzen dieser Auffassung führt zum Semantischen Physikalismus als einer Position in der Philosophie des Geistes. Das Verifikationskriterium des Logischen Positivismus besagt, dass die Bedeutung einer Aussage die Methode ihrer Verifikation ist. Was aber ist die Bedeutung psychologischer oder mentaler Aussagen wie „Don ist hungrig“? Ein Verweis auf nur subjektiv erlebbare ‚innere Zustände‘ hilft hier nicht weiter. Wollte man sagen, dass die Bedeutung dieser Aussage darin besteht, dass Don gerade so-und-so ein Gefühl hat, würde man keine gültige Definition im Sinne des Logischen Positivismus gegeben haben. Wie sollte man denn auf einer solchen Grundlage intersubjektiv überprüfen, ob Don hungrig ist? Intersubjektiv überprüfbar ist das, was intersubjektiv erfahrbar ist; man könnte hier der Deutlichkeit halber hinzufügen: durch unsere ‚äußeren‘ Sinne. Wir können sehr wohl sehen, dass Don unruhig auf seinem Stuhl sitzt; dass sein Magen knurrt; dass er zum Kühlschrank geht; dass er sagt, dass er hungrig ist und auch sonst die für Hungrigsein typischen äußeren Anzeichen und Verhaltensdispositionen zeigt. (Verhaltensdispositionen sind Verhaltensweisen unter bestimmten Bedingungen: Don würde in diesem Beispiel sicherlich nicht zum Kühlschrank gehen, wenn er wüsste, dass er völlig leer wäre. Die Beschreibung einer Verhaltensdisposition für den hier beschriebenen Fall sähe nun in etwa so aus: „Don würde zum Kühlschrank gehen, wenn er wüsste, dass sich eine Portion Bayerisch Creme darin befände.“) Was genau diese Anzeichen und Verhaltensdispositionen für gegebene mentale Aussagen sind, ist freilich nicht so einfach zu bestimmen; hier wären dann die Psychologen gefragt. Eine dieser Grundauffassung entsprechende Strömung gab es in der Psychologie bereits seit der zweiten Dekade des 20. Jahrhunderts: den Behaviorismus, nach dem sich das Geschäft der Psychologie auf Kontrolle und Vorhersage von Verhalten beschränken sollte. Die Datengrundlage dafür bildet ausschließlich die Beobachtung von Verhalten – selbst falls es mentale, innere Zustände geben sollte, sind sie dem Behaviorismus folgend für die Praxis der Psychologie uninteressant. Wegen der massiven Parallelen wird der Semantische Physikalismus manchmal auch als Analytischer oder Logischer Behaviorismus bezeichnet. Nun folgt aber aus dem Verifikationskriterium, dass Aussagen, die sich hinsichtlich der Methode ihrer Verifikation nicht unterscheiden, bedeutungsgleich sind. In diesem Sinne sind also die beiden Aussagen „Don ist hungrig“ und „Don zeigt folgendes Erscheinungsbild: [typische äußere Anzeichen und Verhaltensdispositionen für Personen, die hungrig sind]“ bedeutungsgleich. Das heißt dann aber, dass die Bedeutung einer mentalen Aussage gleich der einer physikalischen Aussage ist – denn die zweite Aussage beschreibt nur beobachtbare Anzeichen und Verhaltensweisen einer Person, die in physikalischer Sprache ausgedrückt sind. So bezeichneten die Logischen Positivisten ihre Einheitssprache als eine ‚physikalische Sprache‘, da „[…] sich jeder Wahrnehmungsbefund des Alltags, also alles, was wir z. B. an Licht und Körpern (im vorwissenschaftlichen Sinn) feststellen, in ihr ausdrücken läßt.“ (Carnap (1931, S. 442)) Da diese Bedeutungsgleichheit aber eine direkte Konsequenz des für alle Aussagen geltenden

Intersubjektivität

mentale Aussagen und physikalische Ersatzaussagen

111

112

8. Philosophie des Geistes

Wittgenstein und das Privatsprachenargument

Ryles ‚Gespenst in der Maschine‘

Verifikationskriteriums ist, müssen entsprechend auch sämtliche mentalen Aussagen in entsprechender Weise auf Aussagen über intersubjektiv zugängliche Anzeichen und Verhaltensdispositionen zurückführbar sein – und würden damit generell keine genuin mentalen, sondern physikalische Sachverhalte beschreiben. Der Dualismus zwischen mentalen und physikalischen Sachverhalten ist für den Logischen Positivismus also nur ein Scheinproblem, welches mit der Verifikationstheorie der Bedeutung einfach aufgelöst werden kann. So erklärt sich auch die Bezeichnung Semantischer Physikalismus: Die Bedeutung einer mentalen Aussage ist kein mysteriöser, mentaler Sachverhalt, sondern besteht in der Angabe der Methode ihrer Verifikation in physikalischer Sprache. Wichtig ist hier, dass das ‚Physikalismus‘ in der Bezeichnung dieser Position sich tatsächlich nur auf die Sprache bezieht und nichts mit einem ontologischen Physikalismus zu tun hat, wie er in der Einleitung dieses Kapitels beschrieben wurde: Eine derartige Festlegung würde der schon verschiedentlich angesprochenen und für den Logischen Positivismus kennzeichnenden Ablehnung aller Metaphysik widersprechen. Die hier skizzierte Auffassung prägte – zeitweise in leicht abgewandelter Form – etliche Jahre die Auffassung mentaler Phänomene in der Philosophie, auch weit über den Logischen Positivismus hinaus. Überraschend erscheint zunächst, dass die Logischen Positivisten hier Zustimmung vom anderen Extrem des Spektrums erfuhren – vom späten Wittgenstein, dessen Auffassungen zur Philosophie der Normalen Sprache schon im 4. Kapitel angesprochen wurden. Im Rahmen seiner Überlegungen zur Natur der Sprache in den Philosophischen Untersuchungen (1953) stellt Wittgenstein das Privatsprachenargument (siehe Kapitel 6) auf, in welchem er die Position vertritt, dass sich mentale Ausdrücke nur auf intersubjektiv Erfahrbares beziehen können. Da es intersubjektive Regeln für die korrekte Anwendung aller sprachlichen Ausdrücke geben muss, gilt dies auch für mentale Ausdrücke. Solche Regeln kann es nach dem Privatsprachenargument aber nur geben, wenn die Kriterien zur Regelanwendung ebenfalls intersubjektiv, also empirisch zugänglich sind. Auch beim späten Wittgenstein beziehen sich mentale Ausdrücke also nicht auf irgendwelche subjektiven, mentalen Entitäten, sondern auf intersubjektiv zugängliche Regeln, die die Verwendung dieser Wörter regeln. Wenn Wittgenstein in seinen Ausführungen auch sehr knapp bleibt, ist seine Nähe zu den diesbezüglichen Ansichten des Logischen Positivismus doch kaum zu übersehen. Gilbert Ryle (1900–1976) – einem weiteren Vertreter der Philosophie der Normalen Sprache – kommt das Privileg zu, mit seinem Der Begriff des Geistes (1949) die wohl wichtigste Monographie zur Philosophie des Geistes im 20. Jahrhundert geschrieben zu haben. Ryle teilt Wittgensteins Grundposition und betont, dass mentale Ausdrücke sich generell auf Verhaltensdispositionen beziehen. Der wohl bekannteste Aspekt seiner Untersuchung ist aber seine Metapher vom ‚Gespenst in der Maschine‘ (‚ghost in the machine‘), die er im Kontext eines breit angelegten Angriffs auf den Substanz-Dualismus und die durch Descartes geprägte Vorstellung des den Körper steuernden Bewusstseins entwickelt. Auf Grundlage einer Sprach-

8.1 Die Sprache als Schlüssel: Semantischer Physikalismus

analyse zeigt Ryle, dass diese in unserer Alltagssprache tief verwurzelte Vorstellung mit all ihren Problemen auf einem Kategorienfehler basiert. Ryles Konzeption der Kategorien erinnert stark an Russells Typen (und Carnaps Stufen); während Russell diese Konzeption aber für Ausdrücke idealer Sprachen entwickelt hat, überträgt Ryle sie ganz analog auf Begriffe der normalen Sprache. Er führt zwei Kriterien für die Kategoriezugehörigkeit von Begriffen an: (1) „[E]ine Kategorie, zu der ein Begriff gehört, ist die Klasse der logisch richtigen Verwendungen des Begriffs.“ (2) „Wenn zwei Ausdrücke zur selben Kategorie gehören, dann ist es zulässig, durch Konjunktionen verbundene Sätze zu bilden, die diese Ausdrücke enthalten.“ (Ryle (1949, S. 5; 22)) Ryle sagt nun, dass dem Mythos des Gespensts in der Maschine die falsche Annahme zu Grunde liegt, dass ‚Körper‘ und ‚Geist‘ derselben Kategorie angehören. Das wäre so – um ein Beispiel von Ryle abzuwandeln – als würde man neben dem Bordeaux auch noch dessen Bouquet trinken (oder, in der Variante für Erstsemester, nach den sechs Bieren auch noch das Sixpack trinken). Diese Probleme rühren von einer Unfähigkeit der Sprecher her, die entsprechenden Begriffe korrekt zu benutzen, einer Unkenntnis ihrer Regeln. In der Philosophie des Geistes führt dieser Kategorienfehler dazu, dass man das Wort ‚Geist‘ in sprachlichen Kontexten benutzt, in die es nicht gehört und dadurch Fragen zu klären versucht, die jeder sinnvollen Grundlage entbehren. Alltägliche Kategorienfehler bemerkt man meist schnell, da man von anderen Sprechern korrigiert wird; der Kategorienfehler in diesem speziellen Fall ist aber so tief in unserer Alltagssprache verwurzelt, dass nur eine intensive Untersuchung ihn deutlich zu Tage fördert. Hat man ihn aber einmal bemerkt, erweisen sich viele Probleme der Philosophie des Geistes und insbesondere der Mythos des Gespensts in der Maschine als von unsauberem Sprachgebrauch herrührende Scheinprobleme. Die dem Semantischen Physikalismus zu Grunde liegende Idee der Bedeutungsgleichheit mentaler und physikalischer Aussagen ist durchaus plausibel. Dass Philosophen so unterschiedlicher Schulen wie des Logischen Positivismus und der Philosophie der Normalen Sprache diese Auffassung vertraten, macht deutlich, dass sie ganz unabhängig von ontologischen und erkenntnistheoretischen Fragen attraktiv ist. Für beide Schulen spielt Sprache eine entscheidende Rolle. Bei der Philosophie der Normalen Sprache geht dies schon aus der Bezeichnung deutlich hervor, für den Logischen Positivismus wurde dieser Umstand in Kapitel 5 betont. Für den späten Wittgenstein und seine Anhänger kann es Bedeutung nur auf Grundlage intersubjektiv gültiger Sprachregeln geben – und diese können sich nur herausbilden, wenn es intersubjektiv zugängliche Kriterien für die korrekte Anwendung dieser Regeln gibt. Im Gegensatz zum praktischen Gebrauch der Sprache ist für den Logischen Positivismus eine exakte Definition der sprachlichen Ausdrücke wesentlich. Hier ist es dann das empirische Verifikationskriterium, welches die Bedeutung des Ausdrucks mit der Methode seiner (intersubjektiven) Verifikation identifiziert. In beiden Fällen können mentale Ausdrücke also überhaupt nur dann bedeutsam sein, wenn die Kriterien für ihre Anwendung intersubjektiv zugänglich sind, sie also nichts bezeichnen, was nur im subjektiven Erleben zu verorten ist.

Kategorienfehler

113

114

8. Philosophie des Geistes Probleme

Der Semantische Physikalismus ist trotz seiner unbestreitbaren Vorteile nicht frei von Problemen. Ein eher psychologisches Problem offenbart sich in der Introspektion: Wir haben ganz unzweifelhaft Gedanken, Gefühle und Wahrnehmungen, die sich weder in unserem Verhalten manifestieren noch durch Angabe irgendwelcher Verhaltensdispositionen angemessen zu beschreiben wären. Ob ich in einer bedächtigen Minute an eine Bayerisch Creme mit Mocca- oder mit Vanillegeschmack denke, macht auf mein Verhalten keinen Unterschied, aber es gibt einen solchen Unterschied in meinem Erleben. Auf der anderen Seite gibt es ein schwerwiegendes technisches Problem: Wie man an den Beispielen sehen konnte, sind die physikalischen ‚Ersatzaussagen‘ alle unvollständig: Schon die ‚normalen‘ Verhaltensdispositionen für mentale Zustände lassen sich nicht vollständig angeben, weil es unendlich viele sind. Erschwerend kommt hinzu, dass man jede physikalische Ersatzaussage hinsichtlich aller anderen mentalen Zustände ‚absichern‘ muss: Die mentale Aussage „Don ist hungrig“ bedeutet: „Don würde sich Bayerisch Creme nehmen, wenn welche vor ihm läge; [usw.] es sei denn, Don will unbedingt abnehmen; Don ist furchtbar übel; [usw.]“ – Man sieht schon an diesem einfachen Beispiel, dass sich selbst für scheinbar unkomplizierte mentale Aussagen keine vollständigen physikalischen Ersatzaussagen aufstellen lassen. Hinzu kommt, dass die Absicherungen im hinteren Teil der Ersatzaussage wieder mentale Ausdrücke enthalten – auch diese müssten entsprechend ‚physikalisiert‘ werden, was die Situation noch verschärft.

8.2 Identitätstheorie Nach der ‚klassischen‘ Identitätstheorie, wie sie von Ullin T. Place (1924–2000), John J. C. Smart (*1920) und Herbert Feigl (1902–1988) entwickelt wurde, gibt es mentale Zustände tatsächlich. Diese Zustände sind auch wirklich mental, wobei ‚mental‘ hier jedoch nicht im Sinne des Substanz-Dualismus zu verstehen ist. Die mentalen Zustände sind – daher auch der Name der Theorie – identisch mit neurophysiologischen Zuständen des Gehirns, also letztendlich mit physikalischen Zuständen. Bei dieser Theorie handelt es sich also um einen handfesten Physikalismus: Das Mentale wird auf das Physische reduziert. „S hat Schmerzen“ und „Die C-Fasern von S feuern“ sind demnach nur zwei Aussagen, die sich auf ein und dasselbe Ereignis beziehen, denn Schmerzen sind nichts anderes als das Feuern von C-Fasern. (Dieser Zusammenhang von Schmerzen und dem Feuern von C-Fasern ist sachlich nicht zutreffend, aber man kann sich das Prinzip leicht vorstellen. Ebenso könnte das Lieben von Bayerisch Creme mit dem Feuern von BC-Fasern identifiziert werden.) Der entscheidende Unterschied zum Semantischen Physikalismus ist der, dass dort eine Synonymie behauptet wird: Die Bedeutung der mentalen Aussage und der physikalischen Ersatzaussage sind der Theorie nach identisch. Bei der Identitätstheorie ist hingegen nicht die Bedeutung identisch, sondern der Referent. Zudem tritt bei der Identitätstheorie eine vergleichsweise einfache physikalische Aussage über bestimmte Vorgänge im

8.2 Identitätstheorie

Gehirn an die Stelle der komplexen und unvollständigen physikalischen Ersatzaussage im Semantischen Physikalismus. Das Erklären der Interaktion von Körper und Geist stellt für die Identitätstheorie – wie für jeden ‚echten‘ Physikalismus – kein Problem dar, da Körper und Geist im Rahmen der Theorie keinen unterschiedlichen ontologischen Sphären angehören. Wahrnehmung, Denken, Verhalten – alles spielt sich in der physikalischen Sphäre ab. Ein wichtiger Vorteil gegenüber dem Semantischen Physikalismus ist, dass sich bei der Identitätstheorie nicht die im vorigen Abschnitt beschriebenen Probleme mit der Formulierung der physikalischen Ersatzaussage ergeben. Ein weiterer entscheidender Vorteil ist, dass die Identitätstheorie mentale Zustände als mentale Zustände zulässt und damit unserem Alltagsverständnis des Mentalen deutlich besser entspricht. „Don ist hungrig“ ist nicht länger nur bedeutungsgleich mit einer komplexen Aussage über Dons Verhalten, sondern bezeichnet wirklich einen mentalen Zustand, der auch noch in einem strengen Sinne ein Zustand von Don ist: nämlich eine bestimmte neurophysiologische Konfiguration in seinem Gehirn, das Feuern von H-Fasern beispielsweise. Dieser Zustand kann, aber muss sich keineswegs in Verhaltensdispositionen manifestieren. Auch lässt sich auf Grundlage dieser Theorie viel plausibler nachvollziehen, weshalb Don, der zwar hungrig ist, Bayerisch Creme liebt und sich weder im Hungerstreik befindet noch an Übelkeit leidet, die ihm vorgesetzte Portion dennoch verschmäht, da er fürchtet, dass Frank, der ihm gegenübersitzt, ihn für gefräßig halten könnte. Wie das Zusammenspiel der vielen feuernden Fasern auch im Detail aussehen mag – man kann sich zumindest vorstellen, dass das Gehirn ‚irgendwie‘ so funktioniert. Für diese Art von Identitätstheorie ist es wesentlich, dass es sich bei den neurophysiologischen Zuständen um Typen (types) solcher Zustände handelt: Das Feuern von C-Fasern sind Schmerzen – unabhängig davon, um wessen Gehirn es sich handelt. Die Korrelation zwischen der mentalen und der physikalischen Beschreibung der Zustände wird durch psychophysische Brückengesetze beschrieben. Entsprechend würde das Feuern von H-Fasern immer mit Hunger identisch sein. Es kann also nicht sein, dass Don hungrig ist, wenn seine H-Fasern feuern, Frank aber durstig ist, wenn seine H-Fasern feuern. Umgekehrt kann es aber auch nicht sein, dass irgendjemand oder -etwas Schmerzen verspürt, wenn es keine (feuernden) C-Fasern hat. Man kann dies als eine Art von Speziesismus auffassen – es können nur diejenigen Lebewesen Schmerzen haben, die auch C-Fasern haben. Lebewesen, deren Gehirne anders organisiert sind, die beispielsweise keine C-Fasern haben, wird damit die Eigenschaft abgesprochen, Schmerzen haben zu können. Nun könnte man sich aber durchaus vorstellen, dass auch Hunde, Vögel und Fische und sogar Marsianer und entsprechend weit entwickelte Computer Schmerzen haben können; der Identitätstheorie nach wäre das nicht möglich, insofern sie keine C-Fasern haben. Viel schwerwiegender ist aber, dass empirische Untersuchungen gezeigt haben, dass die Gehirne verschiedener Menschen unterschiedlich aufgebaut sind und unterschiedlich funktionieren; sogar bei einer Person können bestimmte mentale Zustände zu unterschiedlichen Zeitpunkten zu ganz anderen Erregungsmustern führen (wenn man so will: zum Feuern unterschiedli-

Typen-Identität

Probleme

115

116

8. Philosophie des Geistes

cher Fasern führen), nach einem Schlaganfall oder Verletzungen des Gehirns beispielsweise. Der Identitätstheorie ist damit die wissenschaftliche Grundlage entzogen worden.

8.3 Funktionalismus

Beschreibung von Verhalten

Der in den 60er Jahren des letzten Jahrhunderts von Hilary Putnam (*1926) und Jerry Fodor (*1935) entwickelte Funktionalismus steht nun für eine völlig andere Sicht auf das Körper-Geist-Problem. Zunächst erinnert die Herangehensweise des Funktionalismus stark an den Semantischen Physikalismus. Für den Semantischen Physikalismus waren Aussagen über mentale Zustände bedeutungsgleich mit physikalischen Aussagen über das Verhalten und Verhaltensdispositionen des zugehörigen Körpers. Diese physikalischen Ersatzaussagen waren jedoch, wie sich gezeigt hat, defizitär: Sie waren chronisch unvollständig und griffen wieder auf mentales Vokabular zurück. Der Funktionalismus versteht mentale Aussagen demgegenüber als Aussagen über funktionale Zustände eines (mentalen) Systems. Ein funktionaler Zustand legt fest, mit welchem Verhalten und welchem Folgezustand das System – zum Beispiel ein Mensch – auf bestimmte Reize reagiert. Die Definition eines solchen Systems mit seinen Verhaltensregeln lässt sich vollständig und ohne Rückgriff auf mentales Vokabular vornehmen. Der Funktionalismus ist nicht auf die Beschreibung von Lebewesen beschränkt, sondern spielt seine Stärken überall dort aus, wo ein System Verhalten (im weitesten Sinne) zeigt – zum Beispiel im Falle von Menschen und Tieren, aber auch Getränkeautomaten, Toastern und Computern. So erläuterte Putnam das Konzept der funktionalen Zustände in seiner ersten Publikation zum Funktionalismus unter Rückgriff auf Zustände einer Turing-Maschine. Die Turing-Maschine ist eine 1936 von Alan Turing (1912–1954) konzipierte ‚Symbolverarbeitungsmaschine‘, in gewisser Weise das Modell eines einfachsten Computers, der mit nur drei Operationen – Symbol lesen, Symbol schreiben, Schreib-/Lesekopf bewegen – und einem unendlich langen Speicherband alle Berechnungen anstellen kann, die auch ein Computer durchzuführen in der Lage ist. Das Programm einer solchen Maschine ist eine endliche Liste von Arbeitsanweisungen für den Schreib-/Lesekopf, die abhängig von Ursprungszustand und aktuell gelesenem Symbol das zu schreibende Symbol, die Bewegung des Kopfes (ein Feld nach rechts, ein Feld nach links, stehenbleiben) und den Folgezustand angeben. Die Parallelen zwischen Turing-Maschine und Funktionalismus sind in der Tat auffällig. Im Funktionalismus kann man sich die funktionale Beschreibung eines Systems als eine Liste von Zuständen vorstellen. Jedem dieser Zustände ist eine Liste möglicher Eingaben (Reize) und den jeweils zugehörigen Ausgaben (Reaktionen) sowie dem Folgezustand zugeordnet, in dem das System nach Ein- und Ausgabe übergeht. Diese Zustandsliste kann man als das ‚Programm‘ des Systems auffassen. Im Falle eines einfachen Systems, eines Toasters beispielsweise, ist eine solche Liste auch recht kurz und einfach; im Falle eines komplexen Systems, eines Menschen oder Tieres, ist sie entsprechend von einer kaum zu fassenden Komplexität.

8.3 Funktionalismus

Wie das Programm der Turing-Maschine auf ganz unterschiedlichen Computern und Maschinen ausgeführt werden kann, können auch die funktionalen Zustände bei verschiedenen Organismen ganz unterschiedlich realisiert sein. So können Menschen, Hunde und Computer namens HAL-9000 alle in einem funktionalen Zustand sein, der mit dem mentalen Zustand der Angst identisch ist. Wie genau ihr physikalischer Zustand beschaffen ist – ob Coder D-Fasern feuern oder ein bestimmter Zustand in einem gigantischen Turing-Programm aktiv ist – ist dafür nicht relevant. Im Gegensatz zur Identitätstheorie ist die Multirealisierbarkeit der funktionalen Zustände für den Funktionalismus also kein Problem, sondern zeichnet ihn gerade aus. Auch wenn es zunächst nicht so aussieht, ist der Funktionalismus im Grunde ontologisch neutral: Die Multirealisierbarkeit ist nicht auf physikalische ‚Hardware‘ beschränkt, sondern prinzipiell auch mit dem Mentalismus, dem Substanz-Dualismus und praktisch jeder anderen ontologischen Grundlage vereinbar. Im Regelfall geht man jedoch davon aus, dass die funktionalen Zustände in irgendeiner Form physikalisch realisiert sind – dies ist eine deutlich schwächere Voraussetzung, als sie die im vorigen Abschnitt diskutierte Identitätstheorie macht. Unter dieser Voraussetzung kann man den Funktionalismus als einen gangbaren Physikalismus auffassen. Im Funktionalismus werden drei unterschiedliche Sphären miteinander in Zusammenhang gebracht: (1) Die physikalische Sphäre, im Falle des Menschen in Form der neurophysiologischen Beschreibung von Gehirnzuständen. (2) Die funktionale Sphäre, die den funktionalen Zustand des Menschen beschreibt: Er ist in einem Zustand, in dem er auf diese-und-jene Reize so-und-so reagiert und danach einen definierten Folgezustand einnimmt. (3) Die mentale Sphäre – dem funktionalen Zustand kann ein mentaler Zustand korrespondieren, das funktional beschriebene Verhalten kann beispielsweise mit Schmerz identifiziert werden. Oft tritt der Funktionalismus in Verbindung mit der Computertheorie des Geistes auf, der Auffassung, der menschliche Geist sei ein informationsverarbeitendes System. Die physical symbol system hypothesis von Newell und Simon (1976, S. 116) geht davon aus, dass ein symbolverarbeitendes System „im Prinzip die notwendigen und hinreichenden Bedingungen für intelligentes Handeln“ habe. Information wird durch Symbole repräsentiert, die im menschlichen Gehirn auf neuronaler Ebene realisiert sind; der Geist verhält sich zum Gehirn wie die Software zur Hardware. Denken als ein mentaler Prozess ist (nichts anderes als) Symbolmanipulation, mentale Prozesse sind Berechnungsprozesse. Eng verknüpft mit der Computertheorie des Geistes ist die Annahme einer Sprache des Geistes (Fodor (1975)), die besagt, dass alle unsere Denkvorgänge sprachbasiert sind. Diese Annahme bietet viele Vorteile. Sie trägt zum Beispiel der Tatsache Rechnung, dass viele mentale Phänomene einen intentionalen Gehalt besitzen. Der Begriff der Intention wurde von Franz Brentano (1838–1917) eingeführt und bedeutet, dass sich mentale Zustände sehr häufig auf einen Gegenstand in der Welt beziehen. So ist Lukas überzeugt, dass es regnen wird; oder Andreas hofft, dass Bayern München nicht Deutscher Fußballmeister wird. Wünsche, Hoffnungen, Überzeugungen, Wissen usw. beziehen sich auf etwas außerhalb ihrer selbst. Da dieser

Multirealisierbarkeit

drei Beschreibungssphären

Kognitionswissenschaft/ Computertheorie des Geistes

Sprache des Geistes

117

118

8. Philosophie des Geistes

Status der Alltagspsychologie

Bezugsgegenstand normalerweise durch einen dass-Satz ausgedrückt wird, spricht man in diesen Fällen auch von propositionalen Einstellungen (propositional attitudes). Verbunden damit ist die Annahme von internen, mentalen Repräsentationen. Sich in einem intentionalen Zustand zu befinden, heißt dann, dass ein Subjekt sich in einer speziellen Relation zu einer mentalen Repräsentation befindet. Lukas befindet sich in der Beziehung des Überzeugtseins zu einer mentalen Repräsentation, deren Inhalt es ist, dass es regnet. Diese Repräsentation hat einen semantischen Gehalt; sie ist ein Stellvertreter für einen äußeren Zustand und kann daher wahr oder falsch sein, je nachdem, wie die Welt zum Zeitpunkt von Lukas‘ Überzeugung beschaffen ist. Zu beachten ist dabei, dass der Wahrheitswert des Satzes „Lukas ist überzeugt, dass es regnet“ nicht vom Wahrheitswert des dass-Satzes abhängt: Lukas kann diese Überzeugung haben bzw. sie kann ihm wahrheitsgemäß zugeschrieben werden, ohne dass die im dass-Satz ausgedrückte Proposition zutrifft. Viele Ausprägungen des Funktionalismus, insbesondere aber auch die Sprache-des-Geistes-Hypothese gehen davon aus, dass unsere Alltagspsychologie (folk psychology), die mit Begriffen wie ‚Wünschen‘, ‚Hoffen‘, ‚Glauben‘, ‚Überzeugtsein‘, ‚Wissen‘ etc. operiert, im Großen und Ganzen zutreffend ist und in eine wissenschaftliche Psychologie überführt werden kann.

8.4 Anomaler Monismus und Eliminativer Materialismus Anomaler Monismus

Type und Token

Der Anomale Monismus wurde von Donald Davidson (1917–2003) in seinem Aufsatz „Mental Events“ (1970) entwickelt. Seiner Position liegt eine schwächere Version der oben angesprochenen Identitätstheorie zu Grunde, nach der jedes mentale Ereignis mit einem physikalischen Ereignis identisch ist – in Abgrenzung zur obigen Fassung bezieht sich diese Identität aber nicht auf Typen mentaler Zustände und Typen physikalischer Zustände, sondern auf einzelne Zustände, Zustandstoken, weshalb diese schwächere Position auch Token-Identitätstheorie genannt wird. Die Unterscheidung von Type und Token ist in vielen Bereichen der Philosophie üblich; mit ihr wird zwischen einzelnen Vorkommnissen (den Token) und Typen (den Types) von Vorkommnissen unterschieden. Die Zeichenfolge ‚APPLE‘ besteht aus vier oder aus fünf Zeichen – aus vier Zeichen, wenn man Zeichen als Typen versteht, aus fünf Zeichen, wenn man Zeichen als Token versteht. In Kontext der Philosophie des Geistes gibt es den mentalen Zustand als Token, als einzelnes Vorkommnis: den Hunger von Don, und als Zustands-Typ, Hunger, der alle einzelnen Hunger-Vorkommnisse erfasst. Davidson leugnet die Existenz von Brückengesetzen, die die mentale Beschreibung eines Zustands mit der physikalischen Beschreibung verbinden. Weder kann ich auf Grundlage der mentalen Beschreibung „Don ist hungrig“ darauf schließen, dass die H-Fasern von Don feuern, noch kann ich aus

8.5 Qualia

dem Feuern seiner H-Fasern darauf schließen, dass er hungrig ist. Aus diesem Umstand ergibt sich auch die Bezeichnung dieser Position – es handelt sich um einen Monismus, da mentale Zustände identisch mit physikalischen Zuständen sind, und um einen anomalen Monismus, da es keine psychophysischen Brückengesetze gibt. Paul M. Churchland (*1942) und Patricia S. Churchland (*1943) sind die beiden bekanntesten Vertreter des Eliminativen Materialismus oder, kurz, Eliminativismus. Dieser radikalen Auffassung nach gibt es keine mentalen Zustände – es gibt Gehirne, es gibt neurophysiologische Zustände, aber das, was wir als mentale Zustände bezeichnen – Hunger, Schmerz, Gedanken –, sind Illusionen, die nur durch den Glauben an die Alltagspsychologie gestützt werden. (Siehe dazu beispielsweise Paul M. Churchland (1995).) Die Alltagspsychologie ist aber, so die Vertreter des Eliminativen Materialismus, fehlerhaft und wird über kurz oder lang durch die Neurowissenschaften, die Kognitionswissenschaft oder andere präzise Wissenschaft ersetzt werden. Mit der Alltagspsychologie wird dann auch der Glaube an mentale Zustände von der Bildfläche verschwinden – wie es beispielsweise beim Phlogiston der Fall war. Der Eliminative Materialismus beruft sich dabei auf die Erfolge des Konnektionismus (Rumelhart/McCelland (1986); Smolensky (1988)). Konnektionistische Ansätze ‚leben‘ von der scheinbaren Ähnlichkeit künstlicher neuronaler Netze mit dem Gehirn. Hier zeigt sich deutlich der Unterschied in der Zielsetzung zwischen den Vertretern der dem Funktionalismus zugehörigen Computertheorie des Geistes und denen des Konnektionismus. Erstere betrachten Rationalität und Systematizität in unserem Verhalten und die damit verbundenen Erklärungen der Alltagspsychologie wie Intentionen und zielgerichtetes, ‚logisches‘ Handeln als den zu modellierenden Bereich, für dessen Modellierung sich entsprechend ein symbolverarbeitender Ansatz anbietet. Konnektionisten hingegen verweisen auf die Struktur des Gehirns und halten die Modellierung von Mustererkennung und Kategorisierungsprozessen für primär.

8.5 Qualia Qualia werden regelmäßig als Schwachstelle der physikalistischen Positionen in der Philosophie des Geistes ausgemacht und entsprechend gegen diese ins Feld geführt. Die Qualia mentaler Zustände sind die ‚phänomenalen Charakteristika‘ der Zustände; das, ‚wie sie sich anfühlen‘. Es ist eine Sache, so die Qualia-Verfechter, in einem mentalen Zustand zu sein, beispielsweise Schmerzen zu haben, und eine ganz andere Sache, diesen Zustand nurmehr als eine Verhaltensdisposition, als einen physikalischen Zustand oder als einen funktionalen Zustand aufzufassen, wie es Physikalisten tun. Alle diese Optionen lassen die subjektiven Qualia außen vor und damit, so die Kritiker, einen wesentlichen, für eine angemessene Beschreibung des mentalen Zustandes unverzichtbaren Aspekt, der sich jeder intersubjektiven Beschreibung entzieht: Wie sich Schmerzen anfühlen, lässt sich unmöglich in einer intersubjektiven, physikalistischen Beschreibung erfassen.

Eliminativer Materialismus

Konnektionismus

119

120

8. Philosophie des Geistes

Mary

Die Qualia stehen im Mittelpunkt etlicher bekannter Gedankenexperimente und Einwände, die in der Philosophie des Geistes immer wieder diskutiert werden. Das wohl bekannteste Gedankenexperiment dieser Art stammt von Frank Jackson (*1943) (siehe Jackson (1982)). Man stelle sich eine brillante Wissenschaftlerin vor – Mary. Sie lernt alles, was es über Farbwahrnehmung zu wissen gibt, so dass sie irgendwann ein vollständiges Wissen dieses Gebietes hat; sie weiß, was in unserem Gehirn passiert, wenn wir verschiedene Farben wahrnehmen; sie weiß, wie wir Farbausdrücke benutzen. Sie weiß auch, dass bestimmte Gegenstände in der Regel bestimmte Farben haben: dass Tomaten rot sind, Bananen gelb usw. Sie weiß alles, was man aus Büchern etc. über das Farbsehen lernen kann. Das Problem ist nur, dass Mary ihr ganzes bisheriges Leben in einer schwarz-weiß-grauen Umgebung verbracht hat. Sie hat daher noch nie eine Farbe erlebt, obwohl sie doch alles über das Farbsehen weiß. Was passiert nun, wenn sie ihre schwarz-weiß-graue Umgebung verlässt und erstmals farbige Gegenstände, beispielsweise eine blaue Flasche, sieht? Lernt sie etwas Neues? Von der Antwort auf diese zunächst unscheinbare Frage hängt ab, ob der Physikalismus wirklich eine adäquate Lösung des Körper-Geist-Problems ist. Das Gedankenexperiment soll zeigen, dass Qualia keine unwesentliche Begleiterscheinung der fraglichen Situation sind, sondern dass sie – so die Kritiker – in einer vollständigen Beschreibung der entsprechenden Tatsachen eine Rolle spielen müssen, dass sich die relevanten Tatsachen also nicht ohne Rückgriff auf sie formulieren lassen: Mary lernt in der Tat etwas Neues; und das, was sie lernt, ist eine Tatsache, die sich prinzipiell nicht physikalistisch beschreiben lässt – denn sie beinhaltet eine in physikalischer Sprache nicht ausdrückbare, subjektive Erlebnisqualität. Also ist der Physikalismus falsch. Eine solche Interpretation der Situation ist für die Anhänger des Physikalismus selbstverständlich nicht hinnehmbar. Dennoch scheint die Annahme durchaus plausibel zu sein, dass Mary hier etwas Neues lernt. Lässt sich das Gedankenexperiment aber so weit entschärfen, dass der Physikalismus gerettet werden kann? Hier sollen zwei solche Ansätze kurz vorgestellt werden, von denen einer das Experiment selbst, der andere dessen Interpretation durch die Kritiker des Physikalismus angreift. Daniel Dennett (*1942) (1991, 398–409) greift das Gedankenexperiment selbst an. Er erklärt unsere (falschen) Intuitionen, dass Mary in der Situation etwas Neues lernt, damit, dass wir die Prämissen des Experiments nicht angemessen berücksichtigen. Mary weiß – so das Gedankenexperiment – alles über Farbwahrnehmung; sie weiß nicht nur all das, was wir darüber wissen und was heutiger Stand der Wissenschaft ist. Sie weiß in allen Details, welche neurophysiologischen Effekte die Wahrnehmung bestimmter Farben in ihrem Nervensystem hervorrufen würden und wie ihr Gehirn auf solche Effekte reagieren würde. Ihr Wissen über die fraglichen Zusammenhänge wäre nahezu gottgleich. Zieht man aber all dies wirklich in Betracht, erscheint der zunächst plausible Schluss, dass Mary in der Situation etwas Neues lernt, zumindest nicht länger zwingend. Andererseits kann ein Verfechter des Physikalismus den Ausgang des Gedankenexperiment auch akzeptieren und einräumen, dass Mary etwas

8.6 Ausblick, Lektürehinweise, Fragen und Übungen

Neues lernt; nur ist das, war Mary lernt, seiner Auffassung nach kein propositionales Wissen von Tatsachen (siehe Kapitel 6), also kein Wissen-dass. Das wäre in der Tat fatal, hieße es doch, dass es nicht-physikalische Tatsachen gäbe und damit auch, dass der Physikalismus falsch wäre. Was Mary lernt, ist vielmehr eine Fähigkeit, also ein Wissen-wie. Solches Wissen ist aber eine bloße Begleiterscheinung, die dem für den Physikalisten relevanten propositionalen Tatsachenwissen nichts hinzufügt. Einige Philosophen, das Ehepaar Churchland und Dennett beispielsweise, gehen einen radikalen Weg und leugnen, dass es Qualia überhaupt gibt. Diese Position stellt aber auch unter den Physikalisten eher eine Ausnahme dar, denn die Evidenz für die Existenz von Qualia scheint doch erdrückend. Der öfter beschrittene Weg ist der, die Existenz von Qualia zwar anzuerkennen, sie aber als bloße Begleiterscheinungen zu klassifizieren. Dazu wird versucht zu zeigen, dass sich alle Tatsachen auch ohne Rückgriff auf Qualia formulieren lassen, sie also in unserem propositionalem Wissen keine Rolle spielen, ohne dass dabei aber Relevantes unterschlagen würde. Im Kontext der Diskussionen um Qualia wird auch immer wieder über Zombies gesprochen. Philosophische Zombies sehen exakt so aus wie normale Menschen, benehmen sich auch exakt so wie normale Menschen, haben aber im Gegensatz zu normalen Menschen kein phänomenales Bewusstsein, also keine Qualia. Sie führen ein reges Leben in Gedankenexperimenten und diskutieren gerne über ihre mentalen Zustände.

8.6 Ausblick, Lektürehinweise, Fragen und Übungen Ausblick Die Philosophie des Geistes ist sicherlich der in der interdisziplinären wissenschaftlichen Diskussion präsenteste Bereich der Philosophie. Aus der in der aktuellen Wissenschaft meinungsbildenden, hinsichtlich der Frage des Geistes an der Neurobiologie orientierten Position ergeben sich etliche Fragestellungen, die auch außerhalb des philosophisch-akademischen Umfeldes auf reges Interesse stoßen. Heute ist insbesondere das Problem des freien Willens wieder in das Zentrum der Diskussion gerückt. Wenn eine rein physikalistische Erklärung für mentale Phänomene zutrifft, gelten auch in diesem Bereich ausschließlich die Naturgesetze. Für ‚unvorhersehbare Variationen‘ scheint es keinen Raum zu geben; alles ist festgelegt, determiniert. Wie können Menschen dann aber einen freien Willen haben? Der zunächst naheliegende Verweis auf die Quantenphysik, in der nur statistische Wahrscheinlichkeiten gelten, ist auch keine Lösung, da wir unter einem freien Willen üblicherweise eine geplante Entscheidung verstehen und keine auf (zufälligen) statistischen Wahrscheinlichkeiten beruhende. Die Kognitionswissenschaft, die Anteile aus der Philosophie des Geistes mit Elementen der Psychologie, Informatik, Linguistik und der Neurowissenschaft verbindet, ist Mitte der 50er Jahre des letzten Jahrhunderts entstanden und damit eine noch sehr junge Wissenschaft. Waren zu Beginn in der Kognitionswissenschaft die dem Funktionalismus nahestehende Künstliche-Intelligenz-Forschung der Informatik und die kognitive Psychologie deren ‚Leitwissenschaften‘, hat diese Rolle inzwischen die Neurowissenschaft übernommen, die philosophisch am ehesten dem Eliminativen Materialismus zuzurechnen ist. Der ‚Streit‘ zwischen Funktionalismus und Eliminativismus ist damit nicht auf die Philosophie beschränkt, sondern wird auf einem deut-

QualiaEliminativismus

Zombies

121

122

8. Philosophie des Geistes lich größeren Terrain ausgetragen. Sehr überspitzt betrachtet kann die Kognitionswissenschaft auch als ein Testfeld der Philosophie des Geistes betrachtet werden – Erfolge und Misserfolge von Ansätzen in der Kognitionswissenschaft haben einen direkten Einfluss auf den Status der Theorien in der Philosophie des Geistes.

Lektürehinweise Eine umfassende und sehr gut verständliche Einführung in die Philosophie des Geistes ist Beckermann (2008). Einen guten Überblick über die Diskussion um den freien Willen bietet Geyer (2004). Gardner (1989) und Urchs (2002) beschreiben sehr gut die grundlegenden Fragen und Antworten der Kognitionswissenschaft.

Fragen und Übungen 1. In welcher Weise stellt sich das Problem der mentalen Verursachung für den Substanz-Dualismus und die beiden angesprochenen Ausprägungen des SubstanzMonismus? 2. Erläutern Sie den Unterschied zwischen Type- und Token-Identitätstheorie an einem Beispiel. 3. Entwerfen Sie eine möglichst angemessene physikalische Ersatzaussage im Sinne des Semantischen Physikalismus für die mentale Aussage „Thomas ist müde“. 4. Wie sähe die Beschreibung des typischen ‚Verhaltens‘ eines Toasters im Sinne des Funktionalismus aus? Lassen sich alle drei oben angesprochenen Beschreibungsebenen darauf anwenden? 5. Was denken Sie: Lernt Mary etwas Neues, wenn sie ihre schwarz-weiß-graue Umgebung verlässt?

9. Analytische Ethik Die analytische Ethik stellt innerhalb der Geschichte der philosophischen Ethik nicht eine weitere inhaltliche Richtung – eine neue ethische Theorie –, sondern vielmehr eine fundamentale Wende in der Art, Ethik zu treiben, dar. Genau dies unterscheidet sie von allen anderen Ethiken: sie ist formal, nicht material. Während bestimmte ethische Schulen für bestimmte ethische Inhalte stehen – die Glücksethik beispielsweise befasst sich mit der Frage, wie man ein glückliches Leben führen kann –, möchte die analytische Ethik bewusst keine inhaltliche Aussage treffen. Sie will nicht sagen, wie man zum Glück findet, was ein gutes Leben ist oder worin Gerechtigkeit besteht. Ihr geht es um die Analyse der Sprache der Ethik. Was heißt es, über Glück zu sprechen? Wie kann man überhaupt von einem guten Leben reden oder was bedeutet die Rede von Gerechtigkeit? Erstmals wird die Sprache der Ethik selbst und nicht bloß deren Gegenstand systematisch einer Reflexion unterzogen. Dies geschieht aber nicht bloß aus heuristischem Interesse, sondern es hat einen guten Grund: Die allgemeine sprachphilosophische Erkenntnis, dass die Form der Sprache konkrete Folgen für beziehungsweise Auswirkungen auf den Inhalt von Theorien hat, ist leitend für die analytische Ethik. Dieser Punkt lässt sich sehr schön an einem Grundmuster eines Arguments der klassischen Ethik nachvollziehen, wie es schon bei Platon verwendet wird. Im Dialog Menon fragt Sokrates den Menon danach, was denn die Tugend sei. Menon antwortet, indem er für verschiedene Menschen angibt, was die Tugend jeweils für sie ist. Daraufhin entgegnet ihm Sokrates, dass er nach einer Tugend gefragt habe, nicht nach einer ganzen Reihe davon (2001, 71d–72e). Das Argument des Sokrates funktioniert hier auf die Weise, dass Menon, sobald er sich auf die Frage, was denn die Tugend sei, eingelassen hat, damit bereits zugegeben hat, dass es eine Tugend gibt. Eine solche Präsupposition ist typisch in der Geschichte der Ethik: Je nach Kontext und Gegenstand der Untersuchung setzen die Ethiker bereits voraus, dass es das Gute, das Gerechte, die Tugend, das Glück oder wovon sie auch immer ihre Leser überzeugen wollen, gäbe. In einem zweiten Schritt gestehen sie dann zwar großzügig zu, dass man allerdings noch herausfinden müsse, was es denn jeweils sei. Jedoch gelangen sie am Ende ihrer ‚voraussetzungsfreien‘ Untersuchung rein zufällig genau dorthin, wo sie auch hin wollten. Auf diese Weise gleichen ethische Schriften oftmals mehr meinungsbildenden Kommentaren als wissenschaftlichen Arbeiten. Deshalb konnten auch im Laufe der Geschichte die unterschiedlichsten ethischen Thesen und Theorien vorgebracht werden, die sich teilweise widersprechen oder zumindest ausschließen. Dieser Umstand wird noch bizarrer, wenn man sich vor Augen führt, dass manche Bestimmungen, die bereits zurückgewiesen worden sind, später in der Geschichte erneut – im Kern unverändert – vorgetragen werden. So wird beispielsweise der Utilitarismus seit seinem ersten Auftreten regelmäßig widerlegt und erneut for-

Die analytische Ethik untersucht die Sprache der Ethik

Traditionelle Ethiken sind oftmals von subjektiven Vorstellungen geleitet

124

9. Analytische Ethik

Analytische Ethik ist eine Folge der Bedingungen der Neuzeit

muliert (zum Beispiel: Kant (1785), (1787); Mill (1871); Hoerster (2003)). Gleiches trifft auf den ethischen Platonismus oder auf die Aristotelische Tugendethik (Aristoteles (1995); neuere Tugendethik: MacIntyre (1981); Wolf (2002), (1999)) zu. Dieses Problem hängt mit der Frage nach dem Gegenstand der Ethik zusammen. Worauf beziehen sich ethische Theorien und haben alle Ethiker den gleichen Zugang dazu? Denn dies ist ja etwa im Falle der Naturwissenschaft mit ihrem Gegenstand, der Natur, gegeben. Ein Streit zwischen Naturwissenschaftlern lässt sich am Ende idealerweise unter Hinweis auf die beobachteten Phänomene beilegen; dies ist in der Ethik so nicht möglich. Der ethische Diskurs weist noch eine weitere Eigentümlichkeit auf: Jeder Mensch folgt Regeln, andernfalls könnte er nicht handeln. Kein Mensch wählt unter normalen Umständen vorsätzlich für sich falsche oder schlechte Regeln, sondern solche, die er als die für seine Zwecke besten ansieht. Außerdem hält niemand alles, was er tut, von vornherein für nicht nachahmenswert oder verwerflich. Insofern hält ein jeder seine eigenen ethischen Regeln üblicherweise für gut und richtig und daher für befolgungsfähig. Wenn nun ein anderer erklärt, dass diese Regeln schlecht oder untauglich sind, hat das zwei Konsequenzen. Erstens wird derjenige, dessen Regeln angegriffen werden, dadurch auch persönlich angegriffen, weil es sich eben um die Regeln seiner Lebensweise handelt. Zweitens entsteht ein Hierarchieverhältnis: Der Kritisierende stellt sich, weil er ja etwas vermeintlich besser weiß, in Bezug auf die Lebensführung über den Kritisierten. Daraus wird schnell abgeleitet, dass auch ein Unterschied in der sozusagen ‚charakterlichen Qualität‘ beider besteht. In ethischen Diskursen besteht somit immer die Gefahr einer Gemengelage zwischen dem Gegenstand des Diskurses und der Persönlichkeit der Diskutierenden. (Siehe hierzu etwa, wie in Deutschland mit dem australischen Philosophen Peter Singer umgegangen wird. Eine Dokumentation findet sich im Nachwort seines Buches (1994).) Die analytische Ethik verspricht eine Möglichkeit, diese Schwierigkeiten zu beseitigen. Auf der einen Seite versucht sie durch die genaue logische Analyse der Sprache der Ethik herauszufinden, was mit der ethischen Sprache überhaupt gesagt und gemeint sein kann (1). Die Analyse der ethischen Sprachen muss insbesondere auf die zwei grundlegenden Fragen jeder ethischen Theorie Antworten liefern: Wie lassen sich ethische Regeln rechtfertigen? (9.1.1) und: Was ist eine gültige ethische Theorie? (9.1.2). Auf der anderen Seite hat sich die analytische Ethik lange auf den Standpunkt zurückgezogen, dass sie nur aufgrund der Erkenntnisse über das Funktionieren der Sprache zu ethischen Aussagen kommen will, die dadurch so allgemein gültig und wertfrei sind, dass sie ohne metaphysische Annahmen auskommen. So kann der Vorwurf der ‚ethischen Missionierung‘ nicht aufkommen. Jede Begründung soll von jedem gleichermaßen einwandfrei nachvollziehbar sein und akzeptiert werden können. Das Ziel ist am Ende ein herrschaftsfreier Diskurs, wie ihn Jürgen Habermas (*1929) (1981) vorgeschlagen hat. Die analytische Ethik konnte, genau wie die Analytische Philosophie insgesamt, nur unter den Bedingungen der Neuzeit entstehen. Die Erosion von ‚Wahrheitsgaranten‘, vornehmlich den Göttern, brachte es mit sich, dass Argumentationen oder Beweise nicht mehr unter

9.1 Die logische Analyse der Sprache der Ethik

Rückgriff darauf abgesichert werden konnten. Die moderne Auffassung, kein Beweis könne gültig sein, der nicht clare et distincte (Descartes) sei, das heißt, der sich am Ende nur auf Innerweltliches (und nicht mehr auf Metaphysisches) bezieht, macht eine letztgültige materiale Argumentation schlechthin unmöglich. Denn kein materialer Grund kann letztbegründet werden, wie aus dem Münchhausentrilemma, das im Kapitel 6 angesprochen worden ist, hervorgeht. Demnach bleibt nur noch der Rückzug auf eine rein formale Argumentationsweise. Folgerichtig behauptet die analytische Ethik dann auch, dass sie ethisch neutral sei, also keine Aussagen darüber mache, was beispielsweise zu tun oder was gut sei (9.2).

9.1 Die logische Analyse der Sprache der Ethik Als logische Analyse der ethischen Sprache, kann man die analytische Ethik als Erkenntnistheorie der Ethik bezeichnen: Wie kommt man zu ethischen Erkenntnissen und welcher Art sind sie? Von der Beantwortung dieser Frage hängt ab, was als gültige ethische Theorie verstanden werden darf, was als deren Gegenstand zählt und wie verbindlich ihre Regeln sind. Es ist G. E. Moore, der 1903 mit der analytischen Reflexion auf die Sprache der Ethik beginnt und damit der analytischen Ethik das Feld bereitet. Er untersucht in seinem Buch Principia Ethica das Wort ‚gut‘, einen zentralen Grundbegriff der Ethik, um dessen Bedeutung herauszufinden, und kommt überraschend zu dem Ergebnis, dass dieser Begriff nicht definierbar, sondern ein, wie Moore sagt, so genannter ‚einfacher Term‘ sei. Schließlich könne man bei jeder vorgeschlagenen Definition immer noch fragen, warum das Vorgeschlagene denn nun gut sei. Eine Definition ersetzt bloß das Definiendum durch das Definiens, erklärt es aber nicht. Damit, so Moore, gibt keine Definition des Begriffs ‚gut‘ eine Antwort auf die Frage, was gut ist: Der entscheidende Sinn von ‚Definition‘ ist derjenige, wonach eine Definition feststellt, welches die Teile sind, die unveränderlich ein bestimmtes Ganzes bilden, und in diesem Sinne entzieht sich ‚gut‘ jeglicher Definition, da es einfach ist und keine Teile hat. Es ist einer jener zahllosen Gegenstände des Denkens, die selbst der Definition unfähig sind, weil sie die letzten Begriffe sind, mit denen alles, was definierbar ist, definiert werden muß. […] Es mag sein, daß alle Dinge, die gut sind, auch etwas anderes sind, so wie alle Dinge, die gelb sind, eine gewisse Art der Lichtschwingung hervorrufen. […] Aber viel zu viele Philosophen haben gemeint, daß sie, wenn sie diese Eigenschaften nennen, tatsächlich ‚gut‘ definieren. (Moore (1903, S. 39 f.)) Die Folgen, die sich aus dieser These ergeben, sind gravierend: Der Gegenstand der Ethik ist in seinem Kern nicht definierbar. Wenn das stimmt, wären alle Versuche der letzten 2000 Jahre, diesem Begriff eine Bedeutung beizulegen, von vornherein aussichtslos gewesen. Alle früheren ethischen Theorien fielen damit in sich zusammen. Durch Moores Analyse war einerseits der Schritt hin zu einer Analyse der ethischen Sprache gemacht – der

Analytische Ethik als Erkenntnistheorie der Ethik

Moore: ‚gut‘ ist nicht definierbar

125

126

9. Analytische Ethik

Haben ethische Sätze den Status von Naturgesetzen?

linguistic turn beginnt in der Ethik also sehr früh – und andererseits wurde schlagartig deutlich, welche schwerwiegenden Konsequenzen sich aus dieser Art der Philosophie für die materialen Implikationen von Ethik ergeben würden. Es geht nun nicht mehr darum, herauszufinden, was etwa das Gute ist, sondern vielmehr was es bedeutet, darüber zu sprechen. Damit war der Weg zu den zentralen Fragen bereitet: Handelt es sich bei der Ethik um eine Wissenschaft? Da die Wissenschaft darauf abzielt, objektive Aussagen über die Welt zu treffen, müssten ethische Sätze mindestens wahrheitsfähig und allgemein gültig sein. Welche Konsequenzen aber hat es für einen ethischen Satz, wenn er diese beiden Kriterien erfüllt? Hat er dann dieselbe Gültigkeit wie ein Naturgesetz? Wenn das so wäre, müsste jeder Mensch die ethischen Sätze gleichermaßen einsehen und auch nicht anders können, als sie zu befolgen (sofern Wahrheit für ihn ein leitender Wert ist). Die Pluralität ethischer Systeme lässt an einer solchen Position jedoch Zweifel aufkommen. Welchen Status haben ethische Sätze aber dann? Sind sie vielleicht nur Ausrufe oder Appellationen, Beschreibungen oder zufällige Konventionen? Diesen Fragen gilt es im Folgenden genauer nachzugehen.

9.1.1 Die Rechtfertigung ethischer Theorien

Der Unterschied zwischen Moral und Ethik

Bevor die Frage nach der Rechtfertigung ethischer Theorien beantwortet werden kann, muss eine wichtige Unterscheidung getroffen werden: zwischen Moral und Ethik. Während die Moral die tatsächlich gelebten Sitten und Gebräuche bezeichnet, meint Ethik die theoretische Reflexion darauf. So kann es etwa sein, dass das Ergebnis einer ethischen Reflexion ist, dass bestimmte Bräuche nicht gut und deswegen verboten sind. Die Ethik macht den Menschen also Vorschriften bezüglich ihrer Moral, also dessen, was sie – in ihren Augen: wohl begründet – tun. Es entsteht ein Spannungsverhältnis zwischen Moral und Ethik. Dabei nehmen sowohl die Moral als auch die Ethik ihren Ausgang von gemeinsamen, zentralen, letztlich dem Anliegen der Moral- oder Ethiktreibenden folgenden Fragestellungen, etwa nach dem Guten, dem Glück, der Gerechtigkeit (die eher in sozialen Gemeinschaften relevant wird) oder der Verantwortung. Das Ziel beider ist es, eine solche Strategie der Rechtfertigung zu entwickeln, die überzeugend ist und die jeweils gegebenen Antworten als richtig ausweist und somit die Gültigkeit der jeweiligen Theorie sicherstellt. An dieser Stelle fällt eine interessante Ähnlichkeit mit der Erkenntnistheorie besonders auf: Auch in der Ethik geht es offensichtlich um wahre, gerechtfertigte Meinung. ‚Wahrheit‘ meint hier eher eine Richtigkeit der ethischen Norm und die Meinung bezieht sich auf die Moral (also das, was gelebt wird). Im Unterschied zur Erkenntnistheorie aber zielt die Rechtfertigung darauf ab, direkt die Norm als richtig zu erweisen und nicht den Weg, wie man zu ihrer Erkenntnis gelangt ist, abzusichern. Das hängt damit zusammen, dass in der Ethik ‚Wahrheit‘ anders verwendet wird. ‚Wahrheit‘ und ‚Rechtfertigung‘ stehen in der Ethik in einem viel engeren Abhängigkeitsverhältnis. Zu unterscheiden ist dabei zwischen einer Rechtfertigung einzelner Normen einer Ethik und der Rechtfertigung

9.1 Die logische Analyse der Sprache der Ethik

der gesamten ethischen Theorie selbst, um die es im Folgenden gehen wird. Die besondere Schwierigkeit besteht dabei darin, dass die Intentionen und die Interessen der Menschen einen großen Einfluss auf die Beantwortung ethischer Fragen haben. Dies hat wiederum Auswirkungen auf die Eignung der angegebenen Gründe für eine ethische oder moralische Position: Wenn eine bestimmte ethische oder moralische Position nur im Interesse eines einzelnen ist, ist sie zwar in diesem Sinne für diesen wohl begründet. Derselbe Grund taugt aber nicht für andere Menschen. Betrifft die verhandelte Position aber auch andere, macht das den Grund unbrauchbar. Folglich gilt: Sowohl die Ethik als auch die Moral zielen darauf ab, tragfähige Gründe anzugeben, die eine bestimmte Position rechtfertigen. Entscheidend für die Brauchbarkeit der Rechtfertigung ist in beiden Fällen, wie mit Interessen und Intentionen einzelner umgegangen wird. Schließlich muss zwischen zwei Strategien unterschieden werden, Ethik zu betreiben, die beide unterschiedliche Rechtfertigungsmethoden nach sich ziehen. Die erste ist ein deskriptives Verfahren. Der deskriptive Ethiker stellt keine eigenen Normen auf, sondern beschreibt, welche Normen er zu welcher Zeit wo vorfindet. Man könnte sagen, er ist ein Beobachter. Insofern sieht er sich auch keinen größeren wissenschaftstheoretischen Schwierigkeiten ausgesetzt, was die Plausibilität seines Ergebnisses angeht. Er behauptet nur, dass zu einer bestimmten Zeit an einem bestimmten Ort etwas der Fall ist. Die zweite ethische Strategie, die normative, ist die am weitesten verbreitete und die, die gewöhnlich mit Ethik assoziiert wird. Der normative Ethiker stellt Normen auf, die nicht notwendig bereits in der Welt vorzufinden sind, gleichwohl dort aber Geltung haben sollen. Das bringt ihn sofort in den Rechtfertigungszwang, die Gültigkeit seiner behaupteten Norm zu begründen. Der Normativist kann selbstverständlich auch auf Normen zurückgreifen, die er in der Welt ganz deskriptiv vorfindet. Er geht aber einen Schritt darüber hinaus und trifft Entscheidungen darüber, welche dieser Normen Bestand haben sollen. Während die Ergebnisse des Deskriptivisten also in dem Maße wissenschaftlich unproblematisch, wie seine Thesen nicht innovativ sind, verhält es sich beim Normativisten umgekehrt. Gehen seine Thesen mitunter weit über das hinaus, was in der Welt vorzufinden ist, sind sie deshalb in hohem Maße wissenschaftlich problematisch, weil sie singuläre ethische Regeln verallgemeinern wollen. Wenn man Ethik in der üblichen Weise auffasst, dass sie etwas über das Gesollte aussagt – wodurch die deskriptive Ethik nicht als eigenständige Ethik zu rechnen wäre – stellt sich grundsätzlich das Problem der Rechtfertigung der ethischen Normen. Die normative Ethik strebt gemeinhin Normen an, die für mehr als nur einen Geltung haben sollen. Deshalb zielt sie auf allgemein gültige, objektive Begründungen. Der angestrebte Standpunkt ist dann der des Objektivismus. Dabei soll entweder das Verfahren, mit dem ethische Normen gewonnen werden, objektiv sein oder die Normen selbst. Im ersten Fall liegt ein formaler ethischer Objektivismus vor, im zweiten Fall ein materialer. Ziel ist in beiden Fällen der Nachweis, dass ethische Regeln für alle verbindlich sind.

Deskriptive Ethik

Normative Ethik

127

128

9. Analytische Ethik

Ethik als Wissenschaft: objektive Rechtfertigung

Die Wahrheit ethischer Sätze: Naturalismus

Die Welt als Garant der Wahrheit ethischer Sätze

Der in beiden Fällen damit verbundene Anspruch ist, die überzeitliche und intersubjektive Geltung ethischer Normen oder Begründungsverfahren aufzuzeigen, was in der Folge darauf hinaus läuft, ethische Theorien als ‚wahr‘ auszuweisen. Eine in diesem Sinne wahre ethische Theorie ist idealer Weise aufgrund klar nachvollziehbarer Gründe wahr, die von jedem zu jeder Zeit überprüft werden können. Dadurch wäre sie von dem Vorwurf befreit, nur bestimmte Interessen zu berücksichtigen und müsste dementsprechend von jedem befolgt werden. In diesem Falle wird Ethik zu einer Wissenschaft, die ja die exakt selben Ansprüche an Theorien und Ergebnisse stellt. Der Vorteil dieses Standpunktes liegt auf der Hand: Ethik ist aus der Beliebigkeit und der Meinung einzelner herausgelöst und in einen sicheren und festen Rahmen gestellt. Hat man sich auf die Prämissen und die Methoden geeinigt, kann es keine Diskussion mehr über die daraus abgeleiteten ethischen Normen geben; schließlich sind sie genau so wahr wie die Prämissen. Eventuelle Fehler in den Prämissen oder der Methode stellen dabei – genau wie in der Wissenschaft – nicht das gesamte System in Frage oder zeigen gar, dass es falsch ist, sondern weisen lediglich darauf hin, an welcher Stelle Verbesserungsbedarf besteht. Jeder behobene Fehler bringt die Ethik ihrem Ziel, den letzten, wahren ethischen Normen, ein Stück näher. Dieser Weg ist oft in der Geschichte eingeschlagen worden. Platon, Aristoteles und Kant sind sicherlich die berühmtesten Philosophen, die die Ethik wissenschaftlich betrieben haben. Zweifelsohne hat Kant es darin allerdings zur Perfektion gebracht, wie allein sein dogmatischer Sprachduktus verrät, der keinen Zweifel daran aufkommen lässt, dass es sich so verhält, wie er schreibt. Akzeptiert man Kants Prämissen, muss man ihm auch schon in allem anderen folgen. Was wahr ist, muss man auch als wahr akzeptieren. Aber inwiefern können ethische Sätze wahr sein? Es ist klar, dass mit diesem Punkt der Objektivismus steht und fällt, weswegen Objektivisten auch sehr darum bemüht sind, hier tragfähige Argumente vorzubringen. Sie suchen daher nach einem Referenzpunkt, eben einem Objekt, an dem sie ihre Normen festmachen können. Ein solcher fester Bezugspunkt und die Wahrheitsfähigkeit ethischer Sätze gehören zusammen. Wird als dieser Bezugspunkt eine natürliche Begründung zur Rechtfertigung von ethischen Normen gewählt, heißt dieser Standpunkt naturalistisch. Zudem ist er kognitivistisch, das heißt, er hält die Wahrheit bestimmter Sätze für erkennbar. Als in diesem Sinne naturalistische Kandidaten, die die Wahrheit ethischer Normen garantieren können, kommen am Ende nur zwei alt bekannte in Betracht: die Welt oder die Vernunft. Der Vorteil, wenn man behauptet, der Grund für die Wahrheit ethischer Sätze liege in der Welt, ist offenkundig: einen objektiveren Maßstab, zu dem alle gleichermaßen Zugang haben, kann man sich nicht denken. Die Wahrheit jedes ethischen Satzes lässt sich am Ende auf die Existenz oder Nichtexistenz bestimmter ‚ethischer Gegenstände‘ in der Welt zurückführen. Nun darf man sich diese Gegenstände nicht in der herkömmlichen Weise materiell vorstellen. Auch bestimmte Zustände wie etwa Schmerzen können in bestimmter Lesart als solche Gegenstände fungieren. Diese naturalistische Position sieht sich zwei fundamentalen Einwänden gegenüber, die es sehr schwer machen, sie ernsthaft zu vertreten. Bekannt ist

9.1 Die logische Analyse der Sprache der Ethik

John L. Mackies (1917–1981) Argument der absonderlichen Wahrnehmung. Wir nehmen unsere Umwelt durch Sinnesorgane wahr, schreibt er in Ethik (1977, S. 43 ff.). Wo aber ist unser Organ, um ethische Gegenstände oder Sachverhalte wahrzunehmen? Aus Ermangelung eines solchen Organs könne es uns also schlechterdings nicht möglich sein, natürliche ethische Gegenstände oder Sachverhalte zu erfassen. Selbst wenn es sie geben sollte, wären sie für uns damit nicht relevant. Folgt man diesem Argument nicht, nimmt man also an, dass es solche Gegenstände gibt und wir sie auch wahrnehmen können, stellt sich immer noch Moores offene Frage, warum dieser Gegenstand gut ist. Ein ethischer Gegenstand kann bestenfalls sagen, dass etwas – nämlich er selbst – gut ist und führt dadurch in einen Dogmatismus, weil über die Gründe dafür, warum er denn gut ist, keine Diskussion mehr möglich ist. Dogmatismen bergen oftmals die Gefahr, dass sie mit Gewalt durchgesetzt werden. Man denke hier etwa an das deus vult, mit dem die Kreuzzüge gerechtfertigt wurden. Der zweite Kandidat, mit dem eine naturalistische Ethikbegründung möglich sein soll, die Vernunft (wie man sie etwa bei Kant findet), ist nicht weniger problematisch. Soll die Vernunft einen solch fundamentalen Stellenwert bekommen, muss man behaupten, dass sie allen Ethiktreibenden gleichermaßen eignet und diese damit zumindest in kompatibler Weise ethisch argumentieren können. Andernfalls würde die Vernunft ja nicht als natürliche Ethikbegründung taugen, wenn aus ihr prinzipiell unvereinbare Standpunkte folgen würden. Diese Anforderung führt letztendlich zu der Behauptung, es gäbe mindestens einen ethischen Gegenstand, nämlich die natürliche Vernunft. Aus genannten Gründen erscheint diese Annahme unplausibel. Die alternative Behauptung, die Vernunft sei ein Vermögen, mittels dessen jeder gleichermaßen Einsicht in allgemein gültige ethische Normen bekommen könne, ist am Ende nicht mehr als ein normatives regulatives Postulat und damit selber schon eine ethische Behauptung. Es setzt nämlich voraus, was es eigentlich erst zeigen soll: dass alle gleichermaßen ethisch argumentieren. Dies wird an der Frage deutlich, wie denn diejenigen zu behandeln sind, die keine Einsicht in die doch objektiven ethischen Normen haben. Haben diejenigen dann keine Vernunft? Die These, die Vernunft sei ein natürliches Vermögen, erweist sich bei genauerer Analyse folglich als bloßes Diktum, dessen Gültigkeit prinzipiell nicht prüfbar ist. Will man diese These trotzdem retten, muss man zugeben, dass irgend etwas anderes zusätzlich als natürlich zugegeben werden muss, etwa bestimmte Argumentationsregeln. Damit sieht sich dieses Argument denselben Schwierigkeiten ausgesetzt, die gegen die Existenz ethischer Gegenstände vorgebracht werden können. Gegen die Plausibilität des Naturalismus spricht außerdem ein rein pragmatisches Argument: Wäre der Naturalismus wahr – gäbe es also ethische Gegenstände, auf die jeder gleichermaßen Zugriff hätte –, dann dürfte es keinen Zweifel an der Wahrheit des Naturalismus geben, weil sie ja offenkundig ist. Gibt man aufgrund dieser Einwände den Objektivismus auf, gibt man damit zugleich auf, dass ethische Regeln notwendig und allgemein gültig sind. Dies führt zum Relativismus, der Gegenposition des Objektivismus.

Die Vernunft als Garant der Wahrheit ethischer Sätze

Der ethische Relativismus

129

130

9. Analytische Ethik

Ethische Sätze sind nicht objektiv

Problem der Vermittlung bei ethischen Konflikten

Pluralismus: Relative Objektivität ethischer Sätze

Die Kernposition des Relativismus ist, dass ethische Normen relativ zu den Ethiktreibenden, zu Orten und Zeiten wahr sind, weil es eben kein natürliches Faktum, das als Begründung geeignet ist, gibt. Der Relativismus ist daher immer non-naturalistisch. Streng durchgeführt ist seine Konsequenz die Aufgabe des allgemein gültigen und universellen Wahrheitsbegriffes. So lässt sich auch der ethische Egoismus hier einordnen. Demzufolge ist alles gut, was ein Subjekt dafür hält. Die Wahrheit ethischer Normen ist dann relativ zu ihm zu sehen. Da jeder seine eigenen Vorstellungen von ethischen Normen hat, wäre es Unsinn, all die teilweise widerstreitenden Positionen jeweils universell wahr zu nennen. Dennoch hält auch der ethische Egoist am Wahrheitsbegriff fest. Üblicherweise akzeptiert ein Relativist als wahr, was die meisten dafür halten. Zwar kann hier noch von Wahrheit gesprochen werden, objektiv und allgemeingültig ist diese Wahrheit aber auch nicht mehr. Deshalb ist auch nicht das darunter zu verstehen, was üblicherweise unter Wahrheit verstanden wird: allgemein gültiges und universelles Wissen. Dennoch gilt diese Position als kognitivistisch, weil der Relativismus die prinzipielle Wahrheitsfähigkeit ethischer Normen behauptet. Offensichtlich ist es ein Vorteil des Relativismus, dass er dem Umstand, keine naturalistische Rechtfertigung ethischer Theorien geben zu können, Rechnung trägt, indem er das Augenmerk auf die ethische Praxis, die Moral, legt. Dafür hat er zwei entscheidende Nachteile: Gerne verwechseln Relativisten relative und objektive Wahrheit, wenn sie behaupten, dass es keine allgemein gültige Wahrheit gäbe, diese Position aber (allgemein gültig) wahr sei. Darauf hat der amerikanische Philosoph Putnam eindringlich hingewiesen (1997, S. 95). Weiterhin gerät der Relativismus in Schwierigkeiten, im Falle ethischer Konflikte zu vermitteln. Widerstreitende Normen – die zweifelsohne ebenfalls Teil der Moral sind – bleiben unvermittelt nebeneinander stehen. Diese beiden Extrempositionen finden ihre Auflösung im so genannten Pluralismus. Der Pluralismus nimmt genau wie der Relativismus an, dass ethische Normen ihre Gültigkeit oder Wahrheit immer nur in Bezug auf etwas bekommen können. Mit dem Objektivismus behauptet der Pluralismus aber, dass es sehr wohl kognitive Verfahren gibt, die Wahrheit bestimmter Normen innerhalb des jeweiligen Bezugsrahmens erweisen zu können. Der Pluralismus ist ebenfalls immer non-naturalistisch. Er widerspricht aber beiden Positionen hinsichtlich der Möglichkeit einer Letztbegründung. Weil er also behauptet, dass es keine letzte Möglichkeit gibt, zwischen der Wahrheit der einzelnen Bezugsrahmen, die jeweils wahre ethische Normen enthalten, als solche zu entscheiden, ist er in letzter Konsequenz non-kognitivistisch. Die Überzeugungskraft des Pluralismus hängt an der Brauchbarkeit des vorgeschlagenen Bezugsrahmens. Als Kandidaten sind hierfür von Wittgenstein (1953) die allgemeine menschliche Handlungsweise, von Michael Walzer (*1935) (1994) eine Minimalmoral, die einen minimalen und sehr grundsätzlichen Kern von jedem Menschen eigenen Begriffen oder Urteilen umfasst, oder auch pragmatistische Positionen vorgeschlagen worden. Zu den pragmatistischen Positionen gehört etwa auch die Diskursethik von

9.1 Die logische Analyse der Sprache der Ethik

Habermas oder das sprachlogische Apriori von Apel (*1922) (1973). Beide Thesen lassen sich kurz gefasst darauf reduzieren, dass wer überhaupt – worüber auch immer – sprechen will, bestimmte Regeln der Sprache zuvor akzeptieren muss, um verstanden zu werden. Diese Regeln sind ‚quasi wahr‘, eben nicht erkenntnistheoretisch, aber praktisch. Dann kann man über wahre ethische Normen sprechen, ohne sich in einem bewiesen wahren Rahmen zu bewegen. Zwar erhebt die apelsche ‚Transzendentalpragmatik‘ nach ihrem eigenen Anspruch einen Anspruch auf Letztbegründung. Diese gibt es aber nur innerhalb der Sprache unter denjenigen, die sprechen. Es ist also klar, dass diese Theorie relativ zu einer Sprache gilt. Sie erhebt aber keinen letzten Wahrheitsanspruch in Hinsicht auf ihre eigene Gültigkeit. Insofern ist diese Richtung den pluralistischen Theorien zuzuschreiben. Der Vorteil des Pluralismus begründet sich sicherlich durch seine pragmatisch scharfe Eleganz. Er kümmert sich nicht mehr um die grundsätzliche Wahrheitsfrage, sondern um die Normen selbst. Dadurch macht er die Moral sozusagen hoffähig. Dogmatismus verhindert er dadurch, dass er eben keinen letzten Wahrheitsanspruch erhebt. Dadurch bleibt diese Position allerdings auch problematisch, weil – wie im Falle des Relativismus – die Vermittlung zwischen fundamental (also aus verschiedenen Bezugssystemen stammenden) widerstreitenden Normen ebenfalls nicht möglich ist. Die Diskussion ist deshalb in diesem Zusammenhang, ob es solcherart Normen überhaupt geben kann. Die Antwort hängt vom Bezugsrahmen ab. Erkenntnistheoretische Position

Kognitivismus

Non-Kognitivismus

Naturalismus

Objektivismus, Vernunftethiken



Non-Naturalismus

Pluralismus, Diskursethiken

Relativismus, Subjektivismus, ethischer Egoismus

Der Pluralismus enthält ein pragmatistisches Moment

Ontologische Position

Ontologischer und erkenntnistheoretischer Status von Ethiken

9.1.2 Was ist eine gültige ethische Theorie? Die Möglichkeit, eine ethische Theorie zu rechtfertigen, führt zu keiner ethischen Aussage. Sie ist rein formal, ohne einen inhaltlichen Standpunkt einzunehmen. Wenn man weiß, wie man einen ethischen Satz als wahr erweisen kann, weiß man nicht notwendig, was ethisch gut oder schlecht ist. Die Rechtfertigung eines ethischen Satzes belegt also nicht seine Richtigkeit. Formale und materiale Aspekte beeinflussen sich zwar, sie determinieren sich aber nicht notwendig. Es ist wichtig zu sehen, dass Rechtfertigung und Richtigkeit eines ethischen Satzes streng voneinander zu unterscheiden sind.

Die Rechtfertigung eines ethischen Satzes garantiert nicht dessen Wahrheit

131

132

9. Analytische Ethik

Strategien der Rechtfertigung

Dieser Punkt lässt sich sehr gut anhand des klassischen Beispiels des Tyrannenmordes veranschaulichen. Was ist im Falle eines tyrannischen Herrschers zu tun, unter dessen Herrschaft unzählige Menschen sterben? Weitere Todesopfer könnten nur durch die Tötung des Tyrannen verhindert werden. Man könnte beispielsweise die Notwendigkeit einer ethischen Handlung damit rechtfertigen, dass das menschliche Leben objektiv natürlich wertvoll ist, weshalb es geschützt werden müsse. Damit ist jedoch keine Klarheit gewonnen, was denn nun zu tun ist. Verschiedene ethische Theorien haben unterschiedliche Antworten auf diese Frage gegeben und leider auch oftmals verschiedene Gegenstände, auf die sie sich beziehen. Mögliche Gegenstände sind hier: Handlungen, Unterlassungen, Verhalten, Sätze, Geisteshaltungen oder Meinungen, um nur die prominentesten zu nennen. Ich bemühe mich im Folgenden, wo dies erforderlich ist, eine möglichst neutrale Sprechweise zu verwenden, in dem ich von ethischen Akten sprechen werde: 1. Einerseits kann man argumentieren, man müsse den Tyrannen töten, weil dadurch mehr Menschenleben gerettet als getötet würden. Das jedoch würde den Wert des Lebens der Möglichkeit der Abwägung preisgeben. Wie will man entscheiden, welches Menschenleben unter welchen Umständen verzichtbar ist? Hier lässt sich an der Objektivität des Werts menschlichen Lebens zweifeln. Und was geschieht, wenn durch besondere Umstände die Tötung des Tyrannen doch kein Menschenleben rettet? (Ko) 2. Andererseits kann unter Hinweis auf den natürlichen Wert des Menschen der Standpunkt vertreten werden, man dürfe niemals einen Menschen töten, also auch nicht den Tyrannen. Offensichtlich lässt dieser Standpunkt keinen Zweifel an der Objektivität des Werts zu. Gleichwohl ist es doch fragwürdig, wie man es unterlassen kann, all den weiteren Opfern zu helfen, wenn man doch auch ihr Leben als schützenswert erachtet. (De) 3. Schließlich kann man sich von diesen formalen Widersprüchen befreien, wenn man sagt, weil das menschliche Leben objektiv schützenswert ist, wird man jeden ethischen Akt unternehmen, um es auch zu schützen. Allerdings kann man nicht garantieren, dass die Versuche erfolgreich sind oder es nicht vielleicht zu unbeabsichtigten Folgen kommt. (Mo)

Metaethik

Konsequenzialismus

Diese drei ethischen Standpunkte korrespondieren mit den klassischen drei Positionen der Ethik, wie sie die so genannte Metaethik ausgemacht hat. Die Metaethik wendet die analytische Methode nicht auf fundamentale Rechtfertigungen an, sondern auf die Frage, wie man herausfinden kann, was ‚gut‘ ist. Durch die Analyse, auf welche Weise man überhaupt ethisch argumentieren kann und welche Voraussetzungen und Konsequenzen das jeweils bedeutet, entsteht eine Klassifikation aller möglichen ethischen Theorien. In dem obigen Beispiel fallen unter (Ko) alle konsequenzialistischen Theorien, also solche, die die ethische Qualität an ihren Folgen festmacht. Die berühmteste Theorie ist hier sicherlich der Utilitarismus Mills, demzufolge – vereinfacht gesprochen – das gut ist, was das Glück auf der Welt für die größtmögliche Anzahl an Menschen erhöht.

9.2 Metaphysikfreiheit und ethische Neutralität

Die zweite Kategorie (De) umfasst so genannte deontologische Theorien. Diese Gruppe stellt die ethische Pflicht ins Zentrum ihrer Überlegungen. Entscheidend ist nicht, zu welchem Ziel oder aus welcher Absicht heraus ein ethischer Akt unternommen wird, sondern ob dieser Akt selbst gut ist. Die einschlägige Pflichtethik ist diejenige Kants, die ihren prominenten Ausdruck im kategorischen Imperativ findet. Theorien der letzten Art (Mo), Motivethiken, bewerten einzig Absichten. Gut ist dann der ethische Akt, der aus einer guten Absicht heraus getan wurde. Theorien dieser Art sind nur selten vertreten worden, am bekanntesten dürfte diejenige Max Webers (1864–1920) sein. Motivethik

Deontologische Ethik

Konsequenzialismus

Was wird bewertet?

Absichten

Handlungen

Folgen

Berühmte Vertreter

Max Weber

Immanuel Kant

John S. Mill

Deontologie

Motivethik

9.2 Metaphysikfreiheit und ethische Neutralität Bis hierher wurde deutlich, dass die analytische Ethik ihre Hauptaufgabe darin sieht, Klarheit in der ethischen Sprache herzustellen. Fasst man sie in diesem Sinne als der Erkenntnistheorie analog auf, liegt der Schluss nahe, dass sie keine inhaltlichen Aussagen macht, sich also nicht darauf festlegt, was ‚gut‘ ist. So hat sich lange die These von der Metaphysikfreiheit und ethischen Neutralität der analytischen und insbesondere der Metaethik gehalten. Wie aber erst kürzlich in den Arbeiten von Birnbacher (1995) und Berger (2004) Unterlassungen Gegenstand ethischer Untersuchungen wurden, so ist auch erst kürzlich die Erkenntnis ins Bewusstsein gerückt, dass auch die bloß formale Feststellung, ein bestimmter Standpunkt könne nicht eingenommen werden, materiale ethische Konsequenzen hat: Die Form bestimmt den Inhalt. Darüber hinaus ist es auch möglich zu argumentieren, dass sich die metaethische Behauptung, es wäre unsinnig, einen bestimmten ethischen Standpunkt einzunehmen, in nichts von der Behauptung unterscheidet, die diesen Standpunkt material angreift. Beide haben gleichermaßen die Aufgabe oder Veränderung einer materialen ethischen Theorie zur Folge und sind daher nicht ethisch neutral. Schließlich lehrt die neuere Philosophie der Normalen Sprache (siehe Kapitel 4), dass es keine Sprache gibt, die voraussetzungsfrei ist. Die noch von einigen Vertretern der Philosophie der Idealen Sprache unterstellte, eineindeutige Relation zwischen Satz und Welt besteht nicht. Die Semantik der Sprache hängt zu einem wesentlichen Teil von den Sprechern und deren Lebensumständen ab. Insofern gibt es keine neutrale ethische Sprache. Ethische Neutralität im behaupteten Sinne kann höchstens dann erreicht werden, wenn absolut kein Kontakt zwischen den Beobachtern und den Beobachteten stattfindet. Dazu ist es freilich erforderlich, dass sie dieselbe Sprache sprechen. Ob aber selbst unter diesen reinen Bedingungen ein gegenseitiges Verstehen möglich ist, ist insofern fraglich, als dass nicht klar ist,

Ethische Neutralität und Metaphysikfreiheit

Metaethik ist nicht ethisch neutral

133

134

9. Analytische Ethik

Identifikation versteckter Metaphysik

ob man jede ethische Tätigkeit der Beobachteten auch zweifelsfrei – also ohne die Notwendigkeit von Rücksprachen – als solche erkennen kann. Es scheint daher, als wäre zur Beobachtung von Ethik eine Teilhabe an den ethischen Praktiken erforderlich. Denn jeder ethische Satz umfasst immer schon eine mehr oder weniger offensichtliche und umfassende Metaphysik – das betrifft auch die analytische Ethik. (Vgl. Wachtendorf (2008).) Deshalb sieht die neuere analytische Ethik ihre Aufgabe hauptsächlich darin, die versteckte Metaphysik zu identifizieren und so weit wie möglich zu eliminieren. Ziel ist nach wie vor, ethische Argumentationen und auch die eigenen Wirkungen auf die Ethik klar, nachvollziehbar und verständlich zu machen.

9.3 Ausblick, Lektürehinweise, Fragen und Übungen Ausblick Seit den ersten bekannten Abhandlungen über Ethik unterscheiden sich diese darin, dass sie unterschiedliche Theorien vertreten, also verschiedene materiale Standpunkte einnehmen. Um so erstaunlicher ist es, dass eine – bei Ethikern oft nicht gern gesehene – rein formale ethische Strömung eine derart große Wirkung erzielen konnte. Die analytische Ethik hat der traditionellen den Spiegel vorgehalten und den lange überfälligen Klärungsprozess in dieser Disziplin eingeleitet. In kaum einem anderen Bereich der Philosophie ist wohl derart ungeniert mit unterstellten, ungeprüften und fast schon phantasierten Begriffen und Entitäten jongliert worden wie in der traditionellen Ethik. Es mutet daher sehr überraschend an, dass es knapp 2000 Jahre gedauert hat, bis G. E. Moore nachgewiesen hat, was das Wort ‚gut‘ eigentlich überhaupt bedeuten kann. Damit hat er zugleich all diejenigen in die Schranken gewiesen, die im Laufe der Philosophiegeschichte ihrer freien Assoziation nachgegeben haben und alle möglichen Dinge als die Bedeutung von ‚gut‘ vorgeschlagen haben. Die analytische Ethik hat somit die Ethik von einem Gebiet, in der keine Spekulation als zu abstrus galt, zu einer Disziplin mit klaren methodischen Regeln gemacht, in der die auch in den anderen Disziplinen üblichen Maßstäbe an Präzision, Plausibilität und Klarheit in der Argumentation gelten. Genau so, wie die Ethik dadurch, dass Sokrates sie von den Göttern zu den Menschen auf die Erde gebracht hat, verändert worden ist, hat die analytische Ethik eine ähnliche Wirkmächtigkeit erreicht, indem sie die Ethik aus dem Reich der Spekulation auf den Boden der Tatsachen zurückgeholt hat. Ist damit auch noch nicht gesagt, wie denn material eine Ethik zu bestimmen ist, so ist immerhin der Weg hin zu einer solchen Bestimmung bereitet, indem alle nicht gangbaren Wege nun als unmöglich oder unsinnig ausgeschlossen werden können. Die analytische Ethik gibt damit ein Werkzeug an die Hand, zu klaren, widerspruchsfreien und damit tragfähigen ethischen Konzepten zu gelangen. Es wird sich zeigen, inwieweit die im Bereich der Ethik arbeitenden Philosophen in Zukunft Gebrauch von diesem Werkzeug machen werden.

Lektürehinweise Die derzeit populärste Theorie zur Frage der Gerechtigkeit, die auf einem formalen Prinzip aufbaut ohne zu sagen, was Gerechtigkeit material ist, findet sich in Rawls (1971). Quante (2003) bietet eine Einführung für das Basiscurriculum, die auch zum Selbststudium geeignet ist. Umfangreicher ist das Einführungswerk von Wolf/Schaber (1998), das auch zum Selbststudium geeignet ist. Eine neuere, thematisch umfangreiche und systematisch erschöpfende Einführung in die analytische Ethik bietet Birn-

9.3 Ausblick, Lektürehinweise, Fragen und Übungen bacher (2001). Der Klassiker und Pionier einer Einführung in die analytische Ethik ist Frankena (1963).

Fragen und Übungen 1. Was ist der Unterschied zwischen deskriptiven und normativen ethischen Ansätzen? 2. Was ist der Unterschied zwischen analytischer und traditioneller Ethik? 3. Warum ist ‚gut‘ nicht definierbar und was sind die Folgen dieser Feststellung? 4. Kann es auch ohne eine naturalistische Rechtfertigung universelle ethische Normen geben und welcher Art könnten sie sein? 5. Müssen ethische Sätze wahr sein, um verbindlich sein zu können?

135

Literatur Eine laufend aktualisierte, kommentierte Liste mit Literaturempfehlungen zu den einzelnen in dieser Einführung behandelten Themen findet sich im Internet unter www.leerhoff.de/wbg/. Was ist Analytische Philosophie?

Philosophie der Idealen Sprache

Beckermann, Ansgar: ‚Einleitung‘ in: Peter Prechtl [Hg.]: Grundbegriffe der analytischen Philosophie. Stuttgart, Weimar: J. B. Metzler 2004 Bennett, Maxwell; P. M. S. Hacker: Philosophical Foundations of Neuroscience. Oxford: Blackwell 2003 Føllesdal, Dagfinn: ‚Was ist analytische Philosophie?‘ in: Georg Meggle [Hg.]: Analyomen 2, Bd. I: Logic, Epistemology, Philosophy of Science. Berlin: de Gruyter 1997 Frege, Gottlob: ‚Über Sinn und Bedeutung‘ in: Zeitschrift für Philosophie und philosophische Kritik, NF 100 (1892), 25–50. Frege, Gottlob: Nachgelassene Schriften. H. Hermes, F. Kambartel, F. Kaulbach [Hg.], Hamburg: Meiner 19832 Rawls, John: A Theory of Justice. Cambridge (Mass.): Belknap Press of Harvard University Press 1971 Rehkämper, Klaus: ‚Ist Existenz eine Eigenschaft? – Ein Überblick von Platon bis in die Gegenwart‘ in: Information Philosophie 2/2003, 18–28 Wittgenstein, Ludwig: ‚Philosophische Untersuchungen‘ in: Tractatus logico-philosophicus – Tagebücher 1914–1916 – Philosophische Untersuchungen. Werkausgabe Bd. 1, Frankfurt a. M.: Suhrkamp 1985

Carnap, Rudolf: Bedeutung und Notwendigkeit: eine Studie zur Semantik und modalen Logik. (Original: Meaning and Necessity. A Study in Semantics and Modal Logic. (1947/56)) Wien [usw.]: Springer 1972 Frege, Gottlob: Begriffsschrift. Eine der arithmetischen nachgebildete Formelsprache des reinen Denkens. Halle: Nebert 1879 Frege, Gottlob: ‚Über Sinn und Bedeutung‘ in: Zeitschrift für Philosophie und philosophische Kritik, NF 100. 1892, 25–50 Leerhoff, Holger: Logische Form und Interpretation. Eine systematisch-historische Untersuchung des Logischen Atomismus. Paderborn: mentis 2008 Mormann, Thomas: Rudolf Carnap. München: Beck 2000 Newen, Albert; Markus Schrenk: Einführung in die Sprachphilosophie. Darmstadt: WBG 2008 Poe, Edgar Allan: The Adventures of Huckleberry Finn. Parallel World Edition. Zwondon: Modal 1884 Russell, Bertrand: The Principles of Mathematics. (1903) New York, London: W. W. Norton 1996 Russell, Bertrand: ‚On Denoting‘ in: Mind 14 (1905), 479–493. Erneut abgedruckt in: ders., Logic and Knowledge. Essays 1901–1950. R. C. Marsh [Hg.]. London [usw.]: Unwin Hyman 1956 Russell, Bertrand: ‚The Philosophy of Logical Atomism‘ in: Monist 28 (1918), 495–527; 29 (1919), 32–63, 190–222, 345–380. Erneut abgedruckt in: ders., Logic and Knowledge. Essays 1901–1950. R. C. Marsh [Hg.]. London [usw.]: Unwin Hyman 1956 Stepanians, Markus: Gottlob Frege zur Einführung. Hamburg: Junius 2001 Wittgenstein, Ludwig: ‚Tractatus logico-philosophicus‘ (1921) in: Tractatus logico-philosophicus – Tagebücher 1914–1916 – Philosophische Untersuchungen. Werkausgabe Bd. 1, Frankfurt a. M.: Suhrkamp 1985

Logik Beckermann, Ansgar: Einführung in die Logik. 2. Auflage. Berlin, New York: de Gruyer 2003 Gödel, Kurt: ‚Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I‘ in: Monatshefte für Mathematik und Physik 38 (1931), 173–198 Priest, Graham: Einführung in die nicht-klassische Logik. (Original: An Introduction to Non-Classical Logic. (2001)) Paderborn: mentis 2008 Spohn, Wolfgang; Peter Schroeder-Heister; Erik J. Olsson [Hg.]: Logik in der Philosophie. Heidelberg: Synchron 2005 Whitehead, Alfred North; Bertrand Russell: Principia Mathematica. 3 Bde. Cambridge: At the University Press 1910–13 Zoglauer, Thomas: Einführung in die Formale Logik für Philosophen. 3. Auflage. Göttingen: UTB (Vandenhoeck & Ruprecht) 2005

Philosophie der Normalen Sprache Austin, John L.: ‚A Plea for Excuses‘ in: Philosophical Papers. Oxford: Oxford University Press 1961a Austin, John L.: Zur Theorie der Sprechakte. (Original: How To Do Things With Words. (1961)) Stuttgart: Reclam 1972 Bennett, Maxwell; P. M. S. Hacker: Philosophical Foundations of Neuroscience. Oxford: Blackwell 2003 Carnap, Rudolf: Grundlagen der Logik und Mathematik.

Literatur (Original: Foundations of Logic and Mathematics. (1939)) München: Nymphenburger 1973 Carroll, Lewis: Alice hinter den Spiegeln. (Original: Through the Looking-Glass, and What Alice Found There (1872)). Übersetzt von Christian Enzensberger. Frankfurt: Insel 1974 Chomsky, Noam: ‚A review of B. F. Skinner’s ‚Verbal Behavior‘‘ in: Language 35 (1959), 26–58 Donnellan, Keith: ‚Referenz und Kennzeichnungen‘ (Original: ‚Reference and Definite Descriptions‘ (1966)) in: Ursula Wolf [Hg.]: Eigennamen. Dokumentation einer Kontroverse. Frankfurt a. M.: Suhrkamp 1985 Geach, P. T.: Logic matters. Berkeley, Los Angeles: University of California Press 1972 Grice, H. Paul: ‚Logik und Konversation‘ (Original: ‚Logic and Conversation‘ (1975)) in: G. Meggle [Hg.]: Handlung, Kommunikation, Bedeutung. Frankfurt a. M.: Suhrkamp 1979 Hanfling, Oswald: Philosophy and Ordinary Language: The Bent and Genius of Our Tongue. New York, London: Routledge 2000 Kripke, Saul A.: ‚Sprecher-Referenz und semantische Referenz‘ (Original: ‚Speaker’s Reference and Semantic Reference‘ (1977)) in: Ursula Wolf [Hg.]: Eigennamen. Dokumentation einer Kontroverse. Frankfurt a. M.: Suhrkamp 1985 Levinson, Stephen C.: Pragmatik. (Original: Pragmatics. (1983)) Tübingen: Niemeyer 2000 Peirce, Charles S.: ‚Pragmatism‘ (1907) in: The Essential Peirce. Selected Philosophical Writings. Vol. 2. Bloomington: Indiana University Press 1998 Ryle, Gilbert: Der Begriff des Geistes. (Original: The Concept of Mind. (1949)) Stuttgart: Reclam 1969 Savigny, Eike von: Die Philosophie der normalen Sprache. Frankfurt a. M.: Suhrkamp 1969 Searle, John R.: Speech Acts: an Essay in the Philosophy of Language. (1969) Cambridge: Cambridge University Press 1970 Strawson, Peter F.: ‚Über Referenz‘ (Original: ‚On Referring‘ (1950)) in: Ursula Wolf [Hg.]: Eigennamen. Dokumentation einer Kontroverse, Frankfurt a. M.: Suhrkamp 1985 Wittgenstein, Ludwig: ‚Philosophische Untersuchungen‘ (1953) in: Tractatus logico-philosophicus – Tagebücher 1914–1916 – Philosophische Untersuchungen. Werkausgabe Bd. 1, Frankfurt a. M.: Suhrkamp 1985

Ontologie Carnap, Rudolf: ‚Überwindung der Metaphysik durch logische Analyse der Sprache‘ in: Erkenntnis 2 (1931), 219–241 Carnap, Rudolf: ‚Empiricism, Semantics, and Ontology‘ in: Revue Internationale de Philosophie 4 (1950), 20–40 Lauener, Henri: Willard Van Orman Quine. München: Beck 1982 Lewis, David: On the Plurality of Worlds. Blackwell 1986 Leerhoff, Holger: ‚Bradley’s Regress, Russell’s States of

Affairs, and Some General Remarks on the Problem‘ in: Studia Philosophica Estonica (2008) 1.2, 249–264 Meixner, Uwe: Einführung in die Ontologie. Darmstadt: WBG 2004 Meixner, Uwe: David Lewis. Paderborn: mentis 2008 Quine, Willard Van Orman: ‚On What There Is‘ in: Review of Metaphysics 2 (1948/1949), 21–38 Runggaldier, Edmund; Christian Kanzian: Grundprobleme der Analytischen Ontologie. Paderborn [usw.]: UTB/Schöningh 1998 Russell, Bertrand: ‚Logical Atomism‘ in: J. H. Muirhead [Hrsg.]: Contemporary British Philosophy – Personal Statements. London: George Allen & Unwin 1924

Erkenntnistheorie Albert, Hans: Kritik der reinen Erkenntnislehre. Das Erkenntnisproblem in realistischer Perspektive. Tübingen: Mohr 1987 Albert, Hans: Traktat über kritische Vernunft. (1968) 5. Auflage, Tübingen: Mohr 1991 Aristoteles: Metaphysik. Hg. v. Franz F. Schwarz. Stuttgart: Reclam 2001 Ayer, Alfred Jules: The Foundations of Empirical Knowledge. London: MacMillan 1940 Berkeley, George: Drei Dialoge zwischen Hylas und Philonous. (Original: Three Dialogues between Hylas and Philonous. (1713)) Hamburg: Meiner 2005 Berkeley, George: Eine Abhandlung über die Prinzipien der menschlichen Erkenntnis. (Original: Treatise Concerning the Principles of Human Knowledge. (1710)) Hamburg: Meiner 2004 Carnap, Rudolf: Der logische Aufbau der Welt. (1928) Hamburg: Meiner 1998 Ernst, Gerhard: Einführung in die Erkenntnistheorie. Darmstadt: WBG 2007 Euklid: Die Elemente. Bücher I–XIII. Hrsg. u. übs. v. Clemens Thaer. 4. Aufl., Frankfurt a. M.: Harri Deutsch 2003 Gettier, Edmund: ‚Ist gerechtfertigte, wahre Meinung Wissen?‘ (Original: ‚Is Justified True Belief Knowledge?‘ (1963)) in: Peter Bieri [Hg.]: Analytische Philosophie der Erkenntnis. Frankfurt a. M.: Hain 1987 Goodman, Nelson: The Structure of Appearance. (1951) 3. Auflage, Dordrecht [usw.]: Reidel 1977 Grundmann, Thomas: Analytische Einführung in die Erkenntnistheorie. Berlin: de Gruyter 2008 Hume, David: Dialoge über natürliche Religion. (Original: Dialogues concerning Natural Religion. (1779)) 7. Auflage, Hamburg: Meiner 1993 Hume, David: Ein Traktat über die menschliche Natur. (Original: A Treatise of Human Nature. (1739–40)) Band 1, Hamburg: Meiner 1989; Band 2, Hamburg: Meiner 1978 Hume, David: Eine Untersuchung über den menschlichen Verstand. (Original: An Enquiry Concerning Human Understanding. (1748)) 12. Auflage, Hamburg: Meiner 1993 Kant, Immanuel: Kritik der reinen Vernunft. (1781) Hamburg: Meiner 1998 Locke, John: Versuch über den menschlichen Verstand.

137

138

Literatur (Original: An Essay Concerning Human Understanding. (1690)) 5. Auflage, Hamburg: Meiner 2000 Moore, G. E.: Some Main Problems of Philosophy. (1910) London: Allen & Unwin 1953 Musgrave, Alan: Alltagswissen, Wissenschaft und Skeptizismus. (Original: Common Sense, Science and Scepticism. (1993)) Tübingen: Mohr 1993 Neurath, Otto: ‚Soziologie im Physikalismus‘ in: Erkenntnis 2 (1931), 393–431 Platon: Theätet, Hrsg. u. übers. v. Ekkehard Martens. Stuttgart: Reclam 1981 Psillos, Stathis: Scientific Realism: How Science Tracks Truth. New York, London: Routledge 1999 Roth, Gerhard: Das Gehirn und seine Wirklichkeit: Kognitive Neurobiologie und ihre philosophischen Konsequenzen. (1994) 8. Auflage, Frankfurt a. M.: Suhrkamp 2002 Russell, Bertrand: Probleme der Philosophie. (Original: Problems of Philosophy. (1912)) Frankfurt a. M.: Suhrkamp 2003 Russell, Bertrand: Unser Wissen von der Außenwelt. (Original: Our Knowledge of the External World – As a Field for Scientific Method in Philosophy. (1914)) Hamburg: Meiner 2004 Skirbekk, Gunnar [Hg.]: Wahrheitstheorien. Eine Auswahl aus den Diskussionen über Wahrheit im 20. Jahrhundert. Frankfurt a. M.: Suhrkamp 1977 Tarski, Alfred: ‚Der Wahrheitsbegriff in den formalisierten Sprachen‘ in: Studia Philosophica 1 (1935), 261–404 Tarski, Alfred: ‚The Semantic Conception of Truth and the Foundations of Semantics‘ in: Philosophy and Phenomenological Research IV/3 (1944), 341–375 [dt. Übers. in Skirbekk, Gunnar 1977] Thomas von Aquin: Von der Wahrheit. De veritate (Quaestio I). (1256–1259) Übers. u. hg. v. Albert Zimmermann. Hamburg: Meiner 1986 van Fraassen, Bas: The scientific Image. Oxford: Clarendon 1980 Vollmer, Gerhard: Evolutionäre Erkenntnistheorie. Stuttgart: Hirzel 1975 Vollmer, Gerhard: Was können wir wissen? Stuttgart: Hirzel 2003

Wissenschaftstheorie Bartels, Andreas; Manfred Stöckler: Wissenschaftstheorie. Ein Studienbuch. Paderborn: mentis 2007 Carnap, Rudolf: Der logische Aufbau der Welt. (1928) Hamburg: Meiner 1998 Carnap, Rudolf: Logical Foundations of Probability. Chicago: University of Chicago Press 1950 Feyerabend, Paul: Wider den Methodenzwang. (Original: Against Method. (1975)) Frankfurt a. M.: Suhrkamp 1975 Hempel, Carl G.; Paul Oppenheim: ‚Studies in the Logic of Explanation‘ in: Philosophy of Science 15 (1948), 135–175 Kuhn, Thomas S.: Die Struktur wissenschaftlicher Revolutionen. (Original: The Structure of Scientific Revolutions. (1962)) Frankfurt a. M.: Suhrkamp 1981 Lakatos, Imre: ‚Falsifikation und die Methodologie wis-

senschaftlicher Forschungsprogramme‘ (Original: ‚Falsification and the Methodology of Scientific Research Programmes‘ (1970)) in: Imre Lakatos, Alan Musgrave [Hg.]: Kritik und Erkenntnisfortschritt. Braunschweig: Vieweg 1974 Popper, Karl Raimund: Logik der Forschung. (1934) 10. Auflage, Tübingen: Mohr Siebeck 1994 Russell, Bertrand: Probleme der Philosophie. (Original: Problems of Philosophy. (1912)) Frankfurt a. M.: Suhrkamp 2003 Russell, Bertrand: Unser Wissen von der Außenwelt. (Original: Our Knowledge of the External World – As a Field for Scientific Method in Philosophy. (1914)) Hamburg: Meiner 2004 Stadler, Friedrich: Studien zum Wiener Kreis. Ursprung, Entwicklung und Wirkung des Logischen Empirismus im Kontext. Frankfurt a. M.: Suhrkamp 1997 Stöltzner, Michael; Thomas Uebel: Wiener Kreis: Texte zur wissenschaftlichen Weltauffassung von Rudolf Carnap, Otto Neurath, Moritz Schlick, Philipp Frank, Hans Hahn, Karl Menger, Edgar Zilsel und Gustav Bergmann. Hamburg: Meiner 2006

Philosophie des Geistes Beckermann, Ansgar: Analytische Einführung in die Philosophie des Geistes. 3. Auflage, Berlin: de Gruyer 2008 Churchland, Paul M.: The Engine of Reason, the Seat of the Soul. Cambridge (Mass.): MIT Press 1995 Carnap, Rudolf: ‚Die Physikalische Sprache als Universalsprache der Wissenschaft‘ in: Erkenntnis 2 (1931), 432–465 Davidson, Donald: ‚Mental Events‘ in: L. Foster und J. W. Swanson [Hg.]: Experience and Theory. London: Duckworth 1970 Dennett, Daniel C: Consciousness Explained. (1991) London [usw.]: Penguin 1993 Feigl, Herbert: ‚The ‚Mental‘ and the ‚Physical‘‘ in: Herbert Feigl; Michael Scriven; Grover Maxwell [Hg.]: Minnesota Studies in the Philosophy of Science: Concepts, Theories, and the Mind-Body Problem. Minneapolis: University of Minnesota Press 1958 Fodor, Jerry A.: Psychological Explanation. New York: Random House 1968 Fodor, Jerry A.: The language of thought. New York: Thomas Y. Cromwell 1975 Gardner, Howard: Dem Denken auf der Spur. Der Weg der Kognitionswissenschaft. (Original: The Mind’s New Science: A History of the Cognitive Revolution. (1985)) Stuttgart: Klett-Cotta 1989 Geyer, Christian: Hirnforschung und Willensfreiheit: Zur Deutung der neuesten Experimente. Frankfurt a. M.: Suhrkamp 2004 Jackson, Frank: ‚Epiphenomenal Qualia‘ in: Philosophical Quarterly 32 (1982), 127–136 Newell, A.; Herbert A. Simon: ‚Computer science as empirical inquiry: Symbols and search‘ in: Communications of the ACM 19 (1976), 113–126. Place, Ullin T.: ‚Is Consciousness a Brain Process?‘ in: British Journal of Psychology 47 (1956), 44–50 Putnam, Hilary: ‚Minds and Machines‘ in: Sidney Hook

Literatur [Hg.]: Dimensions of Mind: A Symposium. New York: New York University Press 1960 Rumelhart, David Everett; James L. McCelland: Parallel distributed processing. Vol. I. Cambridge (Mass.): MIT Press 1986 Ryle, Gilbert: Der Begriff des Geistes. (Original: The Concept of Mind. (1949)) Stuttgart: Reclam 1969 Smart, John J. C.: ‚Sensations and Brain Processes‘ in: Philosophical Review 58 (1959), 141–156 Smolensky, Paul: ‚On the proper treatment of connectionism‘ in: Behavioral and Brain Sciences 11 (1988), 1–74 Urchs, Max: Maschine, Körper, Geist: Eine Einführung in die Kognitionswissenschaft. Frankfurt a. M.: Klostermann 2002 Wittgenstein, Ludwig: ‚Philosophische Untersuchungen‘ (1953) in: Tractatus logico-philosophicus – Tagebücher 1914–1916 – Philosophische Untersuchungen. Werkausgabe Bd. 1, Frankfurt a. M.: Suhrkamp 1985

Analytische Ethik Apel, Karl-Otto: Das Apriori der Kommunikationsgemeinschaft. Frankfurt a. M: Suhrkamp 1973 Aristoteles: Nikomachische Ethik. Philosophische Schriften Bd. 3, Hamburg: Meiner 1995 Berger, Armin: Unterlassungen. Paderborn: mentis 2004 Birnbacher, Dieter: Tun und Unterlassen. Stuttgart: Reclam 1995 Birnbacher, Dieter: Analytische Einführung in die Ethik. 2. Auflage, Berlin, New York: de Gruyter 2007 Frankena, William K.: Analytische Ethik. (Original: Ethics. (1963)) 5. Auflage. München: dtv Wissenschaft 1994 Habermas, Jürgen: Theorie des kommunikativen Handelns. (1981) 2. Auflage, Frankfurt a. M.: Suhrkamp 1991

Hoerster, Norbert: Ethik und Interesse. Stuttgart: Reclam 2003 Kant, Immanuel: Grundlegung zur Metaphysik der Sitten. (1785) 7. Auflage, Hamburg: Meiner 1994 Kant, Immanuel: Kritik der praktischen Vernunft (1787), 9. Auflage, Hamburg: Meiner, 1974 MacIntyre, Alasdair: Der Verlust der Tugend. (Original: After Virtue. (1981)) 2. Auflage, Frankfurt a. M.: Suhrkamp 1997 Mackie, John Leslie: Ethik. Die Erfindung des moralisch Richtigen und Falschen. (Original: Ethics: Inventing Right and Wrong. (1977)) Stuttgart: Reclam 2000 Mill, John Stuart: Der Utilitarismus. (Original: Utilitarianism. (1871)) Stuttgart: Reclam 1994 Moore, G. E.: Principia Ethica. (1903) Stuttgart: Reclam 1996 Putnam, Hilary: Für eine Erneuerung der Philosophie. (Original: Renewing Philosophy. (1992)) Stuttgart: Reclam 1997 Quante, Michael: Einführung in die Allgemeine Ethik. Darmstadt: WBG 2003 Rawls, John: Eine Theorie der Gerechtigkeit. (Original: A Theory of Justice. (1971)) 11. Auflage, Frankfurt a. M.: Suhrkamp 2000 Singer, Peter: Praktische Ethik. (Original: Practical Ethics. (1979)) 2. revidierte u. erw. Auflage, Stuttgart: Reclam 1994 Wachtendorf, Thomas: Ethik als Mythologie. Sprache und Ethik bei Ludwig Wittgenstein. Berlin: Parerga 2008 Walzer, Michael: ‚Moralischer Minimalismus‘ in: Deutsche Zeitschrift für Philosophie 42, 1994, 3–13 Wolf, Jean-Claude, Peter Schaber: Analytische Moralphilosophie. Freiburg, München: Alber 1998 Wolf, Ursula: Aristoteles’ ‚Nikomachische Ethik‘. Darmstadt: WBG 2002 Wolf, Ursula: Die Philosophie und die Frage nach dem guten Leben. Reinbek bei Hamburg: Rowohlt 1999

139

Personenregister Albert, Hans (*1921) 82, 83 Anselm von Canterbury (1033–1109) 10 Apel, Karl-Otto (*1922 ) 130 f. Aristoteles (384–322 v. Chr.) 15, 80, 104, 124, 128 Austin, John Langshaw (1911–1960) 47, 55–59 Ayer, Alfred Jules (1910–1989) 85, 93 Bartels, Andreas (*1953) 106 Beckermann, Ansgar (*1945) 12, 14, 16, 31, 122 Bennett, Maxwell (*1939) 11, 62, 63, 91 Berger, Armin (*1971) 133 Berkeley, George (1685–1753) 84–86, 90 Bieri, Peter (*1944) 108 Birnbacher, Dieter (*1946) 133–135 Bolzano, Bernard (1781–1848) 11, 12 Bradley, Francis Herbert (1846–1926) 70–72 Brentano, Franz (1838– 1917) 117 Carnap, Rudolf (1891–1970) 33, 38–40, 46, 50, 52, 72, 74–77, 88, 93, 95–99, 101, 111, 113 Carroll, Lewis (1832–1998) 47 Chomsky, Noam (*1928) 49 Churchland, Patricia (*1943) 119, 121 Churchland, Paul M. (*1942) 119, 121 Crick, Francis (1916–2004) 104 Davidson, Donald (1917–2003) 118 Dennett, Daniel (*1942) 120, 121 Descartes, René (1596–1650) 10, 15, 61, 87, 109, 112, 125 Donnellan, Keith (*1931) 54 Ernst, Gerhard (*1971) 91 Euklid (ca. 300 v. Chr.) 87 Feigl, Herbert (1902–1988) 114 Feyerabend, Paul (1924–1994) 104, 105 f. Fodor, Jerry (*1935) 116, 117 Føllesdal, Dagfinn (*1932) 11, 14, 16

Frankena, William K. (1908–1994) 135 Frege, Gottlob (1848–1925) 9–11, 33, 35–38, 40, 43– 46, 52–54, 67, 88, 94 Freud, Sigmund (1856–1939) 102 Gardner, Howard (*1943) 122 Geach, P. T. (*1916) 54 Gettier, Edmund (*1927) 15, 89 Geyer, Christian (*1960) 122 Gödel, Kurt (1906–1978) 29, 93 Goodman, Nelson (1906–1999) 86, 96 Grice, Herbert Paul (1913–1988) 47, 57, 58 Grundmann, Thomas (*1960) 91 Habermas, Jürgen (*1929) 124, 131 Hacker, P. M. S. (*1939) 11, 62, 63, 91 Hahn, Hans (1879–1934) 93 Hanfling, Oswald (1927–2005) 63, 91 Hempel, Carl Gustav (1905–1997) 93, 98–101 Hersch, Jeanne (1910–2000) 14 Hobbes, Thomas (1588–1679) 87 Hoerster, Norbert (*1937) 124 Hume, David (1711–1776) 84, 85 Husserl, Edmund (1859–1938) 15 Jackson, Frank (*1943) 120 James, William (1842–1910) 50 Kant, Immanuel (1724–1804) 15, 88–90, 124, 128 f., 133 Kanzian, Christian (*1963) 77 Kripke, Saul Aaron (*1941) 54, 72 Kuhn, Thomas S. (1922–1996) 103–105 Lakatos, Imre (1922–1974) 104 f. Lauener, Henri (1933–2002) 77 Leerhoff, Holger (*1971) 46, 77 Leibniz, Gottfried Wilhelm (1646–1716) 32 f., 71, 72 Levinson, Stephen C. 63 Lewis, David (1941–2001) 73, 77 Locke, John (1632–1704) 84 f. Mach, Ernst (1838–1916) 94, 98 MacIntyre, Alasdair (*1929) 124 Mackie, John Leslie (1917–1981) 129

McCelland, James L. (*1948) 119 Meinong, Alexius (1853–1920) 42 Meixner, Uwe (*1956) 77 Mill, John Stuart (1806–1873) 87, 88, 124 Montague, Richard (1930–1971) 46 Moore, George Edward (1873–1958) 9, 11, 60, 85 f., 125, 129, 134 Mormann, Thomas 46, 77 Morris, Charles (1901–1979) 50 Moulines, Ulises C. (*1946) 94 Musgrave, Alan (*1940) 83, 84, 91 Neurath, Otto (1882–1945) 34, 81, 93, 97 Newen, Albert (*1964) 46 Newton, Isaac (1643–1727) 87, 104 Peirce, Charles S. (1839–1914) 19, 49 f. Place, Ullin T. (1924–2000) 114 Platon (ca. 428–ca. 348 v. Chr.) 15, 52, 79, 89, 91, 123, 128 Popper, Karl Raimund (1902–1994) 12, 93, 101–105 Prechtl, Peter (*1948) 12 Priest, Graham (*1948) 31 Putnam, Hilary (*1926) 116, 130 Quante, Michael (*1962) 134 Quine, Willard Van Orman (1908–2000) 34, 64, 76 f., 81, 88, 93, 96 Rawls, John (1921–2002) 12, 134 Rehkämper, Klaus (*1957) 10 Reichenbach, Hans (1891–1953) 93 Rorty, Richard (1931–2007) 81 Roth, Gerhard (*1942) 90 Rumelhart, David Everett (*1942) 119 Runggaldier, Edmund (*1946) 77 Russell, Bertrand (1872–1970) 9–11, 13, 26, 33, 34, 38, 40–46, 51–54, 60, 70–72, 74, 76, 85–88, 94, 101, 113 Ryle, Gilbert (1900–1976) 11, 47, 61, 112 f. Savigny, Eike von (*1941) 52, 57, 59, 61, 63 Schaber, Peter (*1958) 134

Personenregister Schlick, Moritz (1882–1936) 93 f., 97 Schrenk, Markus (*1974) 46 Searle, John Rogers (*1932) 47, 55 Smart, John J. C. (*1920) 114 Smolensky, Paul (*1955) 119 Spohn, Wolfgang (*1950) 31 Stadler, Friedrich (*1951) 106 Stöckler, Manfred (*1951) 106 Stöltzner, Michael (*1964) 106 Strawson, Peter (1919–2006) 12, 47, 53 f., 59 f.

Tarski, Alfred (1901–1983) 80, 91, 93 Thomas von Aquin (ca. 1225–1274) 80 Turing, Alan (1912–1954) 116 f. Uebel, Thomas (*1952) 106 Urchs, Max (*1955) 122 Vollmer, Gerhard (*1943) 83 Wachtendorf, Thomas (*1977) 134 Waismann, Friedrich (1896–1959) 93

Walzer, Michael (*1935) 130 Watson, James (*1928) 104 Weber, Max (1864–1920) 133 Whitehead, Alfred North (1861–1947) 9, 10, 26 Wittgenstein, Ludwig (1889–1951) 10 f., 13, 33, 38, 40–42, 46, 47, 50–52, 58, 60, 62, 74, 81, 90, 93 f., 105, 112, 113, 130 Wolf, Jean-Claude (*1953) 134 Wolf, Ursula (*1951) 124 Zoglauer, Thomas (*1960) 31

141

Sachregister a priori/a posteriori 87 ff., 94 f. Abbildbeziehung 10, 51 Abgrenzungskriterium 97, 99, 102 Ableitbarkeit 24–27 Abstrakta 68 f. Akt, illokutionärer/lokutionärer/ perlokutionärer 55 f. Alltagspsychologie 118 f. Alltagssprache s. Sprache, AlltagsAmbiguität 20, 32, 41, 58 Analyse, logische 45, 124 ff. analytisch/synthetisch 94 ff., 87 ff. Anomalie 103–105 ‚anything goes‘ 105 Argument (Logik) 17–27 Atom, logisches 40 Atomismus, logischer s. Logischer Atomismus Aussage vs. Aussageform 29 Aussage, elementare/atomare vs. komplexe 18, 22 f., 27 Aussagenlogik 18–26 Axiom 25–30, 87 f. Basissätze 102 Bedeutung 25, 33–46, 47–55, 60 f., 75, 94 ff., 111–116 Bedeutung (Frege) 35–38, 46 Bedeutung mentaler Aussagen 112, 114 Bedeutungsgleichheit (Synonymie mentaler und physikalischer Aussagen) 111, 113–116 Bedeutungstheorien, Bedeutung als Gebrauch 49 ff. – behavioristische B. 49 Bedeutungsträger 34 ff. Bedingung, hinreichende/notwendige 13–15, 21 f., 80, 89, 117 Begriff, Beobachtungs- s. Zweistufenkonzeption der Sprache Begriff, theoretischer s. Zweistufenkonzeption der Sprache Begriffsausdruck 36–38 Begriffsumfang 36, 38 Behaviorismus 49, 111 – analytischer B. 111 Bestätigungstheorie 98, 101 Bezugssystem, sprachliches 75 f. Bieri-Paradoxon 108 Bindungsstärke 21, 22 Bivalenzprinzip 30 Britischer Idealismus 72 Brückengesetze, psychophysische 115, 119

Bündeltheorie 68 calculus ratiocinator 33 characteristica universalis 33 cogito-Argument 109 Computertheorie des Geistes 117, 119 Deduktion 99 f., 102 Deduktiv-Nomologisches Modell s. DN-Modell Definition 48, 80, 111, 114, 116, 125 Denotat s. Referenz(-objekt) Deontologie 31, 132 f. deskriptive vs. performative Sprachauffassung 55 DN-Modell 98–100 Egoismus (Ethik) 130 f. Eigenname 34–39, 42 f., 44 f., 51–54, 67, 70, 76, 80 f. – komplexer E. 43 s. auch Kennzeichnung Eigenschaft 10 f., 27 f., 36 f., 38 f., 41, 44 f., 50 f., 54, 62, 66–74, 82, 84 Eigenschaft, Formalisierung von 27 f., 70 ff. Einheitssprache 95, 97, 111 Einheitswissenschaft 62, 95 f., 103, 106, 110 Eliminativer Materialismus s. Eliminativismus Eliminativismus 119, 121 f. Empirismus 83–88, 93, 98 Empirismus, Logischer s. Logischer Empirismus Entitäten 65 f. Epistemologie s. Erkenntnistheorie Erfüllbarkeit 23 Erkenntnismethoden der Realwissenschaften 95 Erkenntnistheorie 79–91, 125 f., 131 Erklärung, wissenschaftliche s. DN-Modell Ethik 123–135 – deskriptive E. 127 – ethische Neutralität 133 f. – normative E. 127 ‚ex falso sequitur quodlibet‘ (‚aus etwas Falschem folgt Beliebiges‘) 21, 23, 31 Exemplifikation 66, 69

Existenz 10, 28, 42 f., 53, 64, 68, 75 ff., 84 ff., 98 Extension 36, 38 f. Extensionalitätsprinzip 19, 22, 30 Falsche, das 37–39 Falsifikationismus 93, 101–105 – Raffinierter F. 104 Familienähnlichkeit 13, 51 f. Folgerung, logische 17 ff. Form, grammatische vs. logische 9 f., 17, 40–45, 54, 79 formale Sprache s. Sprache, formale Formationsregeln 24 f., 29 Forschungsprogramm 105 Fortschritt (wissenschaftlicher) 96, 102 f., 105 Frege-Prinzip s. Kompositionalitätsprinzip Freier Wille s. Problem des freien Willens Funktionalismus 110, 116–118, 121 f. Gebrauch vs. Erwähnung 81 Gedanke (Frege) 36 ff., 38 gerechtfertigte Meinung s. Meinung, gerechtfertigte Gesättigtheit 66 f. Gesetz (Natur-) 99–103, 105 f. Gesetz vom ausgeschlossenen Dritten 29 Gesetz vom zu vermeidenden Widerspruch 29 ‚Gespenst in der Maschine‘ 112 f. Glauben 58, 79, 82 f., 89, 118 Gottesbeweis, ontologischer 10 Grammatik 10 f., 24, 40–43, 46; s. auch Form, grammatische vs. logische Grundzeichen der Logik 24–29 Gültigkeit (Logik) 22–27 Gültigkeitsbereich eines Quantors s. Skopus Hempel-Oppenheim-Schema s. DN-Modell Holismus 81 HO-Schema s. DN-Modell Humpty-Dumpty-Theorie der Sprache 47 f. ideale Sprache s. Sprache, ideale Idealismus 72, 83, 85, 88 f., 109 – britischer I. 72

Sachregister Identität, personale 109 Identitätsaussage, informative 35 ff. Identitätstheorie 110, 114–116, 118 f. illokutionärer Akt s. Akt, illokutionärer Immunisierung 102–104 Implikation (materiale) s. Konditional Implikatur 56–59 Individualterm s. Eigenname Induktion 85, 92, 100–102, 127 Induktionsproblem 92 Inkommensurabilitätsthese 104 f. Instantiierung s. Exemplifikation Instrumentalismus 52 Intension 38 f. Intention, intentionaler Gehalt 117 f. Interaktion von Körper und Geist s. Problem der mentalen Verursachung interne Repräsentation 117 f. interne vs. externe Fragen 75 Interpretation eines Kalküls 25 Intersubjektivität 38, 52, 95 f., 110–113, 119 f., 127 Introspektion 114 Junktoren 18–30, 44, 76 Kalkül 24–27, 29 f. – K. der Aussagenlogik 24–27 – K. der Prädikatenlogik 29 kategorematisch/synkategorematisch 43 f. Kategorie, ontologische 64–69 – tranzendentale K. 89 Kategorienzugehörigkeit von Begriffen 113 Kategorienfehler 11, 61, 113 Kennzeichnung 10, 33, 39, 42–45, 53 ff., 60, 76 – attributive vs. referentielle Verwendung 54 Kennzeichnungstheorie 43, 76 Kognitionswissenschaften 117, 119, 121 f. Kognitivismus 128–131 Kohärenztheorie der Wahrheit s. Wahrheit, Kohärenztheorie der komplexe Eigennamen 43; s. auch Kennzeichnungen Kompositionalitätsprinzip 36 f. Konditional 8, 20–23, 26 Konklusion 15, 17, 24, 27, 99 ff.; s. auch Schluss, logischer Konnektionismus 119 Konsequenzialismus 132 Konsistenz 23, 26, 29, 92 Konstitutionssystem 95 f. Konstitutionstheorie 95 f. Kontingenz 23, 73 Kontradiktion 23

Konversationsimplikatur 57–59 Konversationsmaximen 57 f. Körper-Geist-Problem 108–110, 116, 119 Korrespondenztheorie der Wahrheit s. Wahrheit, Korrespondenztheorie der Leib-Seele-Problem s. Körper-GeistProblem linguistic turn 9, 126 Logik 9–16, 17–31, 33, 37, 67, 72, 75 f., 88, 94 f, 100 f. – Aussagen- 18–27 – deontische L. 31 – mehrwertige L. 15, 30 – Modal- 30 f., 72 – Prädikaten- 10, 27 ff., 67, 70, 76; s. auch Form, grammatische vs. logische logische Analyse 45, 124 ff. logische Syntax 50 Logischer Atomismus 40 f. Logischer Empirismus 85 ff., 98 Logischer Positivismus 12, 46, 74 f., 93–97, 98, 106, 110–114 Logizismus 9, 33 lokutionärer Akt s. Akt, lokutionärer materiale Implikation s. Konditional Materialismus 108 f., 119, 122 Materialismus, Eliminativer s. Eliminativismus Mathematik 9, 33, 75, 94 f.; s. auch Logizismus Mathematik, Sprache der 75, 94 Mehrdeutigkeit s. Ambiguität mehrstelliges Prädikat s. Relation Meinung, gerechtfertigte 15, 79 f., 82 f., 89 f. mentale Repräsentation s. interne Repräsentation mentale Verursachung s. Problem der mentalen Verursachung mentale vs. physikalische Phänomene 108, 112, 117, 121 Mentalismus 109 f. Mereologie 11, 62 mereologischer Fehlschluss 11, 62 Meta-Ethik 132 Metaphysik 9–12, 33, 64–77, 96–99, 109, 112, 124 f, 133 – allgemeine M. s. Ontologie – spezielle M. 64 Metaphysikkritik 9–12, 64–77, 96–99, 112, 124 f., 133 Metasprache s. Objekt- vs. Metasprache modaler Realismus s. Realismus, modaler Modell (eines Kalküls) 25 mögliche Welten 39 f.,72 ff. Monismus, anomaler 118 f.

Moral vs. Ethik 126 f. Motivethik 132 f. Multirealisierbarkeit 117 Münchhausentrilemma 82 f., 87 Name s. Eigenname Naturalismus (Ethik) 128–131 Neopositivismus s. Logischer Positivismus Neurowissenschaften 62, 119, 121 normale Sprache s. Sprache, normale Normalsprache s. Sprache, normale Normalwissenschaft 103–105 Normenlogik s. Logik, deontische Objekt- vs. Metasprache 80 Objektivismus (ethischer) 127–131 Ontologie 13, 38–45, 42, 64–78, 82 f., 84, 106, 108, 131 ontologische Verpflichtung 76 ordinary language philosophy s. Philosophie der Normalen Sprache paradigm case argument 60 Paradigma 103–105 performative Sätze 55–57 perlokutionärer Akt s. Akt, perlokutionärer personale Identität 109 Philosophie der Normalen Sprache 47 ff. Physikalismus 108–117, 119–121 Physikalismus, semantischer 110–114, 116 Plansprache 97 Pluralismus (Ethik) 130 f. Positivismus, Logischer s. Logischer Positivismus Prädikat 9 f., 27–29, 35–40, 44, 51 f, 54, 67, 70 f., 76 f. Prädikat, mehrstelliges s. Relation Pragmatik 47, 49 f. Prämisse 17 f., 22–24, 27 f., 100 f.; s. auch Schluss, logischer Präsupposition 43, 45, 53 f., 123 Privatsprachenargument 52, 112 Problem der mentalen Verursachung 108–110, 115, 117–119 Problem des freien Willens 121 Problem, Körper-Geist- s. KörperGeist-Problem Problem, Schein- 11, 59 f., 95, 112 f. Proposition 38 f., 118 propositionale Einstellungen 117 f. propositionales Wissen 79, 121 Protokollsatz, -debatte 96 ff. Prototypen 13 psychophysische Brückengesetze s. Brückengesetze, psychophysische Qualia 110, 119–121 Quantor 10, 27 ff., 44, 76 f.

143

144

Sachregister Raffinierter Falsifikationismus s. Falsifikationismus, Raffinierter Rationalismus 83, 87 ff. Realismus 72 ff., 83 f. Realismus, modaler 72 ff. Realität 34, 64 f., 67, 70, 73, 75, 84, 90 Realwissenschaften 94–98, 101 – Erkenntnismethoden der R. 95 Referenz(-objekt) 35 ff., 42–45, 53 f., 71, 76, 114 Relation 27 f., 38 f., 41, 51, 66–74 – asymmetrische R. 71 f. – Formalisierung d. R. 27 ff., 70 ff. Relativismus 49, 129 Sachverhalt 33, 38 f., 42, 44, 68–75, 77, 129 Scheinproblem 11, 59 f., 95, 112 f. Schema T 80 Schluss, logischer 17 f., 22 ff., 26 f., 31, 99 f. Schlüssigkeit (eines Arguments) 17 f., 22, 24, 27, 100 Semantik 22 f., 38, 40 f., 47, 50, 54, 133 – S. möglicher Welten 38 semantischer Physikalismus s. Physikalismus, semantischer semantischer Referent vs. Sprecherreferent 54 Semiotik 49, 62 singulärer Term s. Eigenname Sinn (Frege) 35–38, 43, 45 f. Sinneseindrücke/Sinnesdaten 85 ff. Sinnkriterium 96, 99, 110 Skopus 28 Speziesismus 115 Sprachanalyse 9–16, 27, 44 ff., 51, 53, 55, 59, 65, 70 ff., 74, 86, 112, 123–132 Sprache und Welt, Zusammenhang von 10, 33 f., 40, 42, 45, 51, 64 f., 68, 70, 75 f., 94, 96, 133 Sprache, Alltags- 11 f., 32, 40 f., 45, 47 f., 51 f., 53, 62–66, 75 f., 97, 109, 113 – formale S. 29, 33, 64, 67, 72

– ideale S. 10 f, 32–46, 47 f., 62, 67, 70 f., 76 f., 95 ff. – normale S. 10 ff., 32, 40 f., 46, 47–63, 69–72, 77, 97, 112 f., 133 – Oberflächenstruktur/Tiefenstruktur der S. 10, 45 – Universal- 33, 75, 95, 97 – Wissenschafts- 18, 45, 47, 62, 94–99 Sprachrelativität 74 ff. Sprachspiel 13, 51 Sprechakttheorie 55–57 Standardmodell der Wissenschaftstheorie 93, 97–101 Strukturwissenschaft 95 Subjekt-Prädikat-Form 9, 54, 70 f., 88 Subsistenz 10, 43 Substanz-Dualismus 108–112, 114, 117 Substitutionsregel 25 f. Syllogistik 9 Symbole, unvollständige 43; s. auch Kennzeichnungen synkategorematisch s. kategorematisch/synkategorematisch Syntax 40 f., 47, 50, 75 synthetisch s. analytisch/synthetisch Tautologie 23, 25 Toleranzprinzip 75, 98 f. Transformationsregeln 24–26, 29 f. Tropen 68 f. Tugendethik 123 Turing-Maschine 116 f. Type vs. Token 115, 118 Typentheorie 41, 113 Ungesättigtheit 66 f. Universalien 41, 86 Universalsprache s. Sprache, UniversalUnterbestimmtheit 65, 69 s. auch Holismus Unvollständigkeitssatz 29 Utilitarismus 123 Vagheit 30, 32, 70 Verhaltensdispositionen 111–116, 119

Verifikation 82, 96, 98, 101 f., 110–113 Verpflichtung, ontologische 76 f. Vorstellungen, subjektive (Frege) 37 f. Wahre, das 37–39 Wahrheit 50, 68, 80 ff., 87–90, 94, 100 ff. – analytische W. 82 – Kohärenztheorie der W. 80 f. – Korrespondenztheorie der W. 68, 80 f., 87 – pragmatische Theorie der W. 50 Wahrheitsfunktionalität s. Extensionalitätsprinzip Wahrheitstabelle 20, 23 f. Wahrheitswert 19–23, 29 f., 33, 37–40, 53 f., 82, 118 Wahrheitswertlücke 54 Wahrheitswertverlauf 20–23 Wahrmacher 68, 76, 81 Widerspruchsfreiheit s. Konsistenz Wiener Kreis 12 f., 33, 74, 93–101; s. auch Logischer Positivismus Wissen 15, 60, 79, 83–86, 88 ff., 96, 121 – W. durch Bekanntschaft/Beschreibung 86 – propositionales W. vs. ‚WissenWie‘ 121 wissenschaftliche Erklärung s. DN-Modell wissenschaftliche Revolution 103–105 Wissenschaftssprache 18, 47, 62, 94–99 wohlgeformte Ausdrücke 24 f., 40 Zombie 73, 121 Zustand, funktionaler 116–119 – intentionaler Z. 118 – mentaler/neurophysiologischer Z. 114–121 Zweistufenkonzeption der Sprache 98 f. Zweiwertigkeitsprinzip s. Bivalenzprinzip