Die Logik der Normalität: Untersuchungen zur Semantik von Normalitätsurteilen 9783110339802, 9783110335422

Normally, it’s warm in the summer. A simple statement – yet what do we mean by “normally?” This is the question addresse

176 89 1MB

German Pages 206 [208] Year 2014

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Einleitung
Quantitative Normalität
Determinierer und Quantität
Definitionen von DL und DLE
Leere Subjekte: Das Verhältnis von DL zu DLE
Das Universalprädikat: DL / DLE und PL
Hierarchie der Determinierer
Gegensätze
Das logische Quadrat
Quantität und aussagenlogische Verbindungen
Varianten von DL und DLE
Quantoren: Vergleiche
Aristotelische Logik
Petersons aristotelische Theorie mittlerer Quantoren
Theorie der generalisierten Quantoren
Determinierer und Modalität
Definitionen von MDL und MDLE
Unmögliches: Das Verhältnis von MDL zu MDLE
Notwendiges: MDL / MDLE und S5
Determinierer und Modalität
Modaloperatoren und Quantoren: de dicto und de re
Vergleich: Quantität in Adverbien
Die quantitative Deutung der Normalität
Normalerweise
Normal
Normalität im logischen Quadrat
Normalität und aussagenlogische Verbindungen
Normalität und Einzelaussagen
Wahrscheinlichkeit
Normalitätsurteile und singuläre Aussagen
Grundgesetze der Wahrscheinlichkeit
Logische Wahrscheinlichkeiten nach Carnap
Determinierer und logische Wahrscheinlichkeit
Der probabilistische Schluss
Quantitative Normalitätslogik
Qualitative Normalität
Ordnungen der Conditional Logic
Ceteris paribus Annahmen und Conditional Logic
Conditional Logic als Logik der Ähnlichkeiten
Boutiliers Conditional Logics of Normality
Defaults
Default Logik, Autoepistemische Logik, Circumscription
Veltmans Defaults in Update Semantics
Qualitative Logik der Normalität
Normalität, Deskriptivität und Modalität
Normalität und aussagenlogische Junktoren
Normal und Typisch
Typikalität
Stereotype nach Putnam
Prototypensemantik
Normalität zwischen Quantität und Qualität
Reduktion von Normalität auf Majorität
Revisions- und Rechtfertigungsthese
Quantitative Rechtfertigung und ,,normal''
Einwände gegen quantitative Rechtfertigung
Vorteile der quantitativen Rechtfertigung
Rechtfertigung oder Revision?
Quantität und Normalität jenseits der Logik
Ontologische Verbindungen durch Evolution
Pragmatische Verbindungen durch Konvention
Das richtige Normalitätsverständnis
Recommend Papers

Die Logik der Normalität: Untersuchungen zur Semantik von Normalitätsurteilen
 9783110339802, 9783110335422

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Corina Strößner Die Logik der Normalität

Logos

Studien zur Logik, Sprachphilosophie und Metaphysik Herausgegeben von / Edited by Volker Halbach, Alexander Hieke, Hannes Leitgeb, Holger Sturm

Band / Volume 22

Corina Strößner

Die Logik der Normalität Untersuchungen zur Semantik von Normalitätsurteilen

ISBN 978-3-11-033542-2 e-ISBN 978-3-11-033980-2 ISSN 2198-2201 Library of Congress Cataloging-in-Publication Data A CIP catalog record for this book has been applied for at the Library of Congress. Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.dnb.de abrufbar. © 2014 Walter de Gruyter GmbH, Berlin/Boston Druck und Bindung: Hubert & Co. GmbH & Co. KG, Göttingen ∞ Gedruckt auf säurefreiem Papier Printed in Germany www.degruyter.com

Dank Diese Arbeit hat von der Hilfe vieler Personen profitiert. Ich bedanke mich bei meinem Doktorvater Niko Strobach für die Hilfe bei der Eingrenzung des Themas und seine Korrekturvorschläge. Außerdem ließ er mir viel Freiraum für die Arbeit an der Dissertation. Ulrich Nortmann danke ich für seine sehr gründliche Begutachtung, die dazu beigetragen hat, dass die endgültige Version deutlich weniger Unzulänglichkeiten enthält, als es sonst der Fall gewesen wäre. Schließlich danke ich auch Ingolf Max für seine Hinweise. Ich konnte diese Arbeit verfassen und redigieren dank einer Mitarbeiterstelle am Institut für Philosophie in Saarbrücken, eines Stipendiums der Graduiertenförderung der Universität des Saarlandes und der Anstellung in der EmmyNoether-Gruppe Formal Epistemology von Franz Huber, die durch die Deutsche Forschungsgemeinschaft finanziert wird. Diese Arbeit wurde maßgeblich durch Diskussionen nach Vorträgen beeinflusst. Anregungen konnte ich vor allem aus den Gesprächen mit Frank Veltman bei meinem Vortrag am 10.11.2008 im Rahmen der Vortragsreihe Logic Tea in Amsterdam und mit Hannes Leitgeb beim Formal Epistemology Workshop 2010 ziehen. Bei Effi Sternkikker und Julia Lippmann bedanke ich mich für das Probelesen und Korrigieren, bei Tobias Breidenmoser für inspirierende Gespräche über Intersexualität und bei Anett Strößner für die Hilfe bei der Erstellung der Grafiken. Mein Dank gilt jedoch besonders Joanna Kuchacz, die die Entstehung der Arbeit begleitet hat und von den ersten Kapiteln an immer wieder gelesen und mit mir diskutiert hat.

Inhaltsverzeichnis

1

1 Einleitung 2 Quantitative Normalität 2.1 Determinierer und Quantität . . . . . . . . . . . . . . . . . 2.1.1 Definitionen von DL und DLE . . . . . . . . . . . . 2.1.2 Leere Subjekte: Das Verhältnis von DL zu DLE . . . 2.1.3 Das Universalprädikat: DL / DLE und PL . . . . . . 2.1.4 Hierarchie der Determinierer . . . . . . . . . . . . . 2.1.5 Gegensätze . . . . . . . . . . . . . . . . . . . . . . 2.1.6 Das logische Quadrat . . . . . . . . . . . . . . . . . 2.1.7 Quantität und aussagenlogische Verbindungen . . . 2.1.8 Varianten von DL und DLE . . . . . . . . . . . . . 2.2 Quantoren: Vergleiche . . . . . . . . . . . . . . . . . . . . 2.2.1 Aristotelische Logik . . . . . . . . . . . . . . . . . 2.2.2 Petersons aristotelische Theorie mittlerer Quantoren 2.2.3 Theorie der generalisierten Quantoren . . . . . . . . 2.3 Determinierer und Modalität . . . . . . . . . . . . . . . . . 2.3.1 Definitionen von MDL und MDLE . . . . . . . . . 2.3.2 Unmögliches: Das Verhältnis von MDL zu MDLE . 2.3.3 Notwendiges: MDL / MDLE und S5 . . . . . . . . . 2.3.4 Determinierer und Modalität . . . . . . . . . . . . . 2.3.5 Modaloperatoren und Quantoren: de dicto und de re 2.4 Vergleich: Quantität in Adverbien . . . . . . . . . . . . . . 2.5 Die quantitative Deutung der Normalität . . . . . . . . . . . 2.5.1 Normalerweise . . . . . . . . . . . . . . . . . . . . 2.5.2 Normal . . . . . . . . . . . . . . . . . . . . . . . . 2.5.3 Normalität im logischen Quadrat . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . . . . . . .

7 7 9 15 16 20 22 23 27 28 31 32 34 38 41 42 45 46 49 51 53 55 56 57 58

Inhaltsverzeichnis

2.6

2.7

2.5.4 Normalität und aussagenlogische Verbindungen 2.5.5 Normalität und Einzelaussagen . . . . . . . . . Wahrscheinlichkeit . . . . . . . . . . . . . . . . . . . 2.6.1 Normalitätsurteile und singuläre Aussagen . . 2.6.2 Grundgesetze der Wahrscheinlichkeit . . . . . 2.6.3 Logische Wahrscheinlichkeiten nach Carnap . 2.6.4 Determinierer und logische Wahrscheinlichkeit 2.6.5 Der probabilistische Schluss . . . . . . . . . . Quantitative Normalitätslogik . . . . . . . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

59 61 62 63 66 67 75 86 89

3

Qualitative Normalität 93 3.1 Ordnungen der Conditional Logic . . . . . . . . . . . . . . . 94 3.1.1 Ceteris paribus Annahmen und Conditional Logic . . 95 3.1.2 Conditional Logic als Logik der Ähnlichkeiten . . . . 97 3.1.3 Boutiliers Conditional Logics of Normality . . . . . . 98 3.2 Defaults . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104 3.2.1 Default Logik, Autoepistemische Logik, Circumscription104 3.2.2 Veltmans Defaults in Update Semantics . . . . . . . . 110 3.3 Qualitative Logik der Normalität . . . . . . . . . . . . . . . . 125 3.3.1 Normalität, Deskriptivität und Modalität . . . . . . . . 125 3.3.2 Normalität und aussagenlogische Junktoren . . . . . . 129 3.3.3 Normal und Typisch . . . . . . . . . . . . . . . . . . 130 3.4 Typikalität . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132 3.4.1 Stereotype nach Putnam . . . . . . . . . . . . . . . . 133 3.4.2 Prototypensemantik . . . . . . . . . . . . . . . . . . . 137

4

Normalität zwischen Quantität und Qualität 4.1 Reduktion von Normalität auf Majorität . . . . . . . . 4.2 Revisions- und Rechtfertigungsthese . . . . . . . . . . 4.2.1 Quantitative Rechtfertigung und „normal” . . . 4.2.2 Einwände gegen quantitative Rechtfertigung . 4.2.3 Vorteile der quantitativen Rechtfertigung . . . 4.2.4 Rechtfertigung oder Revision? . . . . . . . . . 4.3 Quantität und Normalität jenseits der Logik . . . . . . 4.3.1 Ontologische Verbindungen durch Evolution . 4.3.2 Pragmatische Verbindungen durch Konvention 4.4 Das richtige Normalitätsverständnis . . . . . . . . . .

viii

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

141 142 146 147 148 155 157 158 158 163 177

1 Einleitung Bei den Erscheinungsformen des Edlen und Gerechten, die den Gegenstand der Staatswissenschaft bilden, gibt es so viele Unterschiede und Schwankungen, daß die Ansicht aufkommen konnte, sie beruhten nur auf Konvention, nicht aber auf natürlicher Notwendigkeit. Ähnliches Schwanken herrscht aber auch bei den Lebensgütern, weil schon so manchem Schaden daraus erwachsen ist: es ist schon vorgekommen, daß der eine durch Reichtum, der andere durch Tapferkeit zugrunde ging. Man muß sich also damit bescheiden, bei einem solchen Thema und bei solchen Prämissen die Wahrheit nur grob und umrißhaft anzudeuten sowie bei Gegenständen und Prämissen, die nur im großen und ganzen [im Original: hos epi to poly - Anm. Verf.] feststehen, in der Diskussion eben auch nur zu entsprechenden Schlüssen zu kommen. Im selben Sinne nun muß auch der Hörer die Einzelheiten der Darstellung entgegennehmen: der logisch geschulte Hörer wird nur insoweit Genauigkeit auf dem einzelnen Gebiet verlangen, als es die Natur des Gegenstands zuläßt. Es ist nämlich genau so ungereimt, vom Mathematiker Wahrscheinlichkeiten entgegenzunehmen wie vom Rhetor denknotwendige Beweise zu fordern.1

Diese Worte lässt Aristoteles in der Nikomachischen Ethik seiner praktischen Philosophie vorangehen. Schon zu Beginn stimmt er seinen Hörer oder Leser darauf ein, dass es dabei anders als in der Logik „so viele Unterschiede und Schwankungen” gebe, dass nicht mit allgültigen Aussagen gerechnet werden dürfe. Aristoteles will Thesen vortragen, von denen er selbst glaubt, dass sie nicht immer und in allen Situationen, aber doch in den meisten Fällen, zutreffen. Es handelt sich also eher um Normalitätsaussagen als um universelle Aussagen. Nicht nur im Staatswesen und in der Ethik gelten Gesetze und Betrachtungen eingeschränkt. Einige Wissenschaftsphilosophen lehren, dass auch naturwissenschaftliche Erklärungen nur als Normalitätsaussagen verstanden werden können. So weist vor allem Nancy Cartwright immer wieder darauf hin, dass 1

Arist. NE 1094b nach Dirlmeier (1956).

1 Einleitung physikalische Gesetze nur als ceteris paribus Behauptungen zu verstehen seien, die sehr einschränkende und darüber hinaus künstliche Bedingungen voraussetzen: „Most scientific explanations use ceteris paribus laws. These laws, read literally as descriptive statements, are false, not only false but deemed false even in the context of use. This is no suprise: we want laws that unify; but what happens may well be varied and diverse”.2 Beschränkt man ein Gesetz allerdings nur auf die als normal betrachteten Fälle, verliert es an Relevanz in der Anwendung: „Once the ceteris paribus modifier has been attached, the law of gravity is irrelevant to the more complex and interesting situations”.3 Sowohl Aristoteles’ hos epi to poly als auch ceteris paribus in Cartwrights Sinne verweisen auf das Konzept der Normalität: im ersten Fall durch Häufigkeit, im zweiten durch methodische Vereinfachung. Was aber ist Normalität? Was bedeuten die Ausdrücke „normal” und „normalerweise”? Wo und wann ist es gerechtfertigt, sie zu gebrauchen? Gibt es typische Sprachspiele der Normalität? Wie weit hängt die Bedeutung des Wortes vom jeweiligen Kontext ab? Gibt es überhaupt ein einheitliches Konzept der Normalität und eine logische Deutung dafür? Mit der Theorie der Wahrscheinlichkeit und zahlreichen nicht-klassischen Logiken haben das Unbestimmte und die Vagheit längst ihren Platz in den exakten Wissenschaften gefunden. Anders als für Aristoteles ist es für uns heute nicht abwegig, „vom Mathematiker Wahrscheinlichkeiten entgegenzunehmen”. Das heißt nicht, dass wir auf Beweise und methodische Genauigkeit verzichten würden, aber als Thema sind unscharfe Konzepte für die formalen Wissenschaften alles andere als ungereimt. Eine analytisch-philosophische Beschäftigung mit Normalität wird durch diese Entwicklungen unterstützt. Die Frage nach der Bedeutung von Normalität stellt uns vor einige Probleme. Ist es zum Beispiel plausibel, Normalitätssätze lediglich als Ausdruck subjektiver Einstellungen oder intersubjektiver Prägungen zu verstehen oder sind sie nicht auch objektiv? Nicht minder groß sind die Unklarheiten in Bezug auf die Normativität oder Deskriptivität. Dem Wort „normal” nach möchte man meinen, dass eine enge Verbindung zwischen Normalität und Norm besteht. Andererseits wird selbst von einigen unmoralischem Handlungsweisen, soweit sie weit verbreitet sind, gesagt, sie seien normal. 2 3

2

Cartwright (1999), S.52f. Cartwright (1999), S.58.

1 Einleitung Obwohl es scheint, als gäbe es kein einheitliches Normalitätsverständnis, entstehen im Gebrauch selten sprachliche Missverständnisse, wenn „normal” oder „normalerweise” benutzt wird. Dementsprechend setzt diese Untersuchung nicht dabei an, alle in Frage kommenden semantischen Eigenarten von „Normalität” aufzulisten und gegeneinander abzuwägen. Diese Arbeit sucht sich stattdessen einen pragmatisch-logischen Ausgangspunkt: Was tut jemand, wenn er von Normalität spricht? Wozu tut er es? Welche Konsequenzen hat das für seine Argumentation? Die grundlegende Arbeitshypothese soll dabei die folgende sein: Normalität ist eine logische Kategorie, die sich dadurch auszeichnet, im Einzelfall Prognosen zu bedingen, die solange gerechtfertigt sind, bis neue Evidenzen zur Verfügung stehen. Grundlage der Prognose sind die Normalitätsannahmen, die sich sprachlich als Normalitätsaussagen ausdrücken. Insofern sie mit einem solchen Satz äquivalent sind, sind auch generische Sätze Normalitätsaussagen. Zum Beispiel ist „Vögel können fliegen” eine Normalitätsaussage, wenn damit dasselbe wie mit „Vögel können normalerweise fliegen” gemeint ist. Es sind mehrere Arten von Normalitätsaussagen zu unterscheiden: 1. Gattungsbezogene Normalitätsaussagen: Sie beziehen sich auf einen Subjektbegriff. So kann zum Beispiel die Physiologie der Menschen beschrieben werden, wobei von dem Menschen im Allgemeinen die Rede ist. Subjekt ist dabei ein genereller Term beziehungsweise, in der Begrifflichkeit moderner Logik, ein Prädikat. 2. Modale Normalitätsaussagen: Sie handeln von einem Individuum in einer Art von Situationen. Als modale Normalitätsaussagen sollen hier nur Sätze mit einem singulären Ausdruck als Subjekt verstanden werden. Ein Beispiel ist die Beschreibung von Lebensgewohnheiten eines einzelnen Menschen. 3. Gemischte Normalitätsaussagen: Nicht immer ist beides klar zu trennen. Prädikats- und Situationsbezug können in einem Satz gemeinsam auftreten. Die Aussage „Menschen schlafen normalerweise nachts” ist gattungsbezogen, insofern von Menschen die Rede ist, aber modal, da von einer Art von Situationen, nämlich den Nächten, gesprochen wird. Zu einer Prognose tragen Normalitätsaussagen bei, wenn sie für eine Entität beziehungsweise für ein Ereignis relevant sind. Die einzelnen Normalitätsannahmen und die prognostischen Aussagen, die sie im Einzelfall erlauben, sind in Tabelle 1.1 dargestellt.

3

1 Einleitung R ELEVANTE N ORMALITÄTSAUSSAGE S sind normalerweise P. x ist S. Bei E ist x normalerweise P. E liegt vor. Bei E sind S normalerweise P. x ist S. E liegt vor.

P ROGNOSE x ist vermutlich P. x ist vermutlich P. x ist vermutlich P.

Tabelle 1.1: Normalität und Prognose Damit sind wesentliche Formen von Normalitätsaussagen und ihr prognostischer Sinn vorgestellt. Der Ausdruck „vermutlich” in den Folgerungen verdeutlicht, dass sie mit weiteren Prämissen widerlegt werden können. Schließen aufgrund von Normalität ist nicht monoton. Insbesondere wenn man erfährt, dass x eine Ausnahme und nicht P ist, und dies als weitere Prämisse anerkennt, sind diese Schlüsse nicht mehr gerechtfertigt. Was liegt aber diesen Normalitätsaussagen zugrunde? Die Aussage „S sind normalerweise P” kann so verstanden werden, dass sie „Die meisten S sind P” bedeutet. Dementsprechend ist „Bei Ereignis E ist x normalerweise P” zu „Meistens, wenn E vorliegt, ist x P” oder, um die quantitative Komponente zu unterstreichen, zu „In den meisten E-Fällen ist x P” umformulierbar. Die stärksten denkbaren Normalitätssätze sind dabei universelle Aussagen. Diese sind Spezialfälle von quantitativer Normalität. Dass dies zunächst seltsam anmutet, liegt daran, dass Normalitätsaussagen bei Universalität untertrieben sind. Aber deswegen sind sie nicht falsch. Menschen sind normalerweise sterblich, auch wenn alle Menschen sterblich sind. Schwieriger ist es, die untere Grenze der Quantität für Normalität festzulegen. Damit etwas quantitativ als normal gelten kann, würden wir einen sehr hohen statistischen Wert erwarten. Wo ist aber die Grenze zu setzen? Im Prinzip kann jeder Wert in Erwägung gezogen werden, der größer als 50 Prozent ist. Jeder dieser Werte stellt sicher, dass eine Prognose, die aus einer entsprechenden Aussage gezogen wird, zumindest mit größerer Wahrscheinlichkeit zutrifft als scheitert. Eine wichtige Entscheidung ist jedoch, ob dieser Grenzwert vage bleibt oder ob er fest ist.4 Dem kurz umrissenen quantitativen Verständnis ist eines gegenüber zu stellen, welches sich auf typische Eigenschaften oder Vereinfachungen stützt. Nach diesem qualitativen Konzept ist die Aussage „S ist normalerweise P” als „Ein typisches S ist P” oder „Vereinfacht betrachtet ist S P” zu verstehen. Es ist dabei nicht notwendig, dass besonders viele S P sind. Auch hier begünstigt Normalität 4

4

Eine Semantik mit einem vagen Grenzwert gibt zum Beispiel Ernest W. Adams (1974) für „almost all”.

1 Einleitung Prognosen, denn zunächst nehmen wir an, dass Dinge und Ereignisse normal sein werden. Das logische Wesen verschiedener Normalitätskonzeptionen ist Thema dieser Abhandlung, die unter der Frage steht, mit welcher Logik wir Normalitätsaussagen unterlegen sollten. Im folgenden Kapitel setzen wir uns mit quantitativer Normalität auseinander. Dabei soll eine formale Theorie entwickelt werden, die Ansätze aus der klassischen Prädikatenlogik, der Theorie der generalisierten Quantoren und der Wahrscheinlichkeitstheorie zu einer quantitativen Logik der Normalität vereint. Daraufhin werden einige bekannte qualitative Theorien der Normalität vorgestellt und mit der quantitativen Logik der Normalität verglichen.5 Wir widmen uns dabei zum einen solchen Logiken und Interpretationen, in denen es um eine übergreifende Plausibilitätsordnung geht, und zum anderen solchen, die typische Eigenschaften bestimmter Individuen oder Situationen thematisieren.6 Sowohl die globale als auch die lokale Variante der qualitativen Normalität setzt keinen Zusammenhang mit Mehrheiten voraus. Die Frage, inwiefern dieser Verzicht auf Rechtfertigung von Normalität durch Majorität philosophisch akzeptabel ist, wird im letzten Kapitel diskutiert. Wir werden dabei sehen, dass Normalitätsaussagen, soweit sie einen deskriptiven Anspruch haben, einen starken logischen Zusammenhang zu entsprechenden statistischen Urteilen aufweisen. Dennoch bemerken wir, dass Normalität nicht auf quantitative Aussagen zu reduzieren ist. 5

6

Die Auswahl, die dabei getroffen wird, umfasst nur einen Teil der gesamten Theorien, die sich im weiteren Sinne mit Normalitäts- oder Plausibilitätsordnungen beschäftigen. Besonders berücksichtigt werden dabei Logiken, die explizit von Normalitätsoperatoren sprechen, und Systeme, die einen besonders großen Einfluss im Bereich der Philosophie und Logik hatten. Zu den Theorien, die mit Normalität zu tun haben, und die hier unberücksichtigt bleiben, gehört unter anderem die Rangtheorie, ausführlich in Spohn (2012) dargestellt, und die von Kraus, Lehmann und Magidor (1990). Zu betonen ist auch, dass sich die vorliegende Arbeit auf die semantischen Aspekte von Normalitätsaussagen konzentriert. Obgleich Normalitätsaussagen dadurch bestimmt sind, eine bestimmte Art von Schlussfolgerung generieren zu können, ist es ihre Bedeutung, die hier im Vordergrund steht. Fragen nach den syntaktischen Eigenschaften und Ableitungsregeln stehen weitestgehend im Hintergrund. Einen detaillierten Vergleich von qualitativer nicht-monotoner Logik und probabilistischer quantitativer Folgerung bieten vor allem Hawthorne und Makinson (2007). Die Idee zu dieser Unterscheidung innerhalb der qualitativen Normalität verdanke ich einem Hinweis von Hannes Leitgeb.

5

2 Quantitative Normalität Die Interpretation von Normalität durch Quantität ist insofern statistisch, als sie sich ausschließlich auf Häufigkeiten beruft und dabei einen engen Zusammenhang zur Logik der Wahrscheinlichkeiten schafft. Intuitiv ist sofort einleuchtend, dass sich an Häufigkeiten auch Wahrscheinlichkeiten anknüpfen und daraus wiederum Erwartungen und Prognosen resultieren. Rufen wir uns die tabellarische Darstellung der Normalitätsaussagen in Erinnerung. Im statistischen Konzept gilt es zunächst, Normalitätsaussagen durch quantitative Aussagen zu ersetzen. Dies ist in Tabelle 2.1 dargestellt. Wenn nun x S ist und E vorliegt, dann ermöglichen diese quantitativen Aussagen Prognosen aufgrund von Wahrscheinlichkeit, wie Tabelle 2.2 zeigt. Was heißt es nun im Detail, Normalitätsaussagen durch quantitative Behauptungen zu ersetzen? Wie ist eine quantitative Aussage formal aufgebaut? Wie lässt sich der Bezug zur Wahrscheinlichkeit begründen und welche Probleme wirft er auf? Eine logische Formalisierung der prognostischen Kraft von Normalität im Sinne von Häufigkeiten soll dieses Konzept präzisieren und alle Konsequenzen und Hintergrundannahmen verdeutlichen, die es mit sich bringt.

2.1 Determinierer und Quantität Das Wort „normal” durch die Bedeutung von „die meisten” zu erläutern, ist ein erster Schritt zur Klärung des quantitativen Konzepts der Normalität. Doch N ORMALITÄTSAUSSAGE S sind normalerweise P. Bei E ist x normalerweise P. Bei E sind S normalerweise P.

Q UANTITATIVE AUSSAGE Die meisten S sind P. In den meisten E-Fällen ist x P. Die meisten S sind in den meisten E-Fällen P. In den meisten E-Fällen sind die meisten S P.

Tabelle 2.1: Normalität und Quantität

2 Quantitative Normalität Q UANTITATIVE AUSSAGE Die meisten S sind P. In den meisten E-Fällen ist x P. Die meisten S sind in den meisten E-Fällen P. In den meisten E-Fällen sind die meisten S P.

P ROGNOSE Wahrscheinlich ist x P. Wahrscheinlich ist x P. Wahrscheinlich ist x P. Wahrscheinlich ist x P.

Tabelle 2.2: Quantität und Prognose

damit wäre nicht viel gewonnen, wenn der Ausdruck „die meisten” sich bei näherem Hinterfragen als ebenso unklar erweisen würde. Ein wichtiges Anliegen dieses Kapitels ist es daher, eine Logik zu entwickeln, in welcher die Semantik von „die meisten” erfasst werden kann. Mit dem Beginn der modernen Logik mit Gottlob Frege wurden wesentliche Ansätze aus der klassisch-antiken Beschäftigung mit Logik aufgegeben. Insbesondere die Analyse, die sich an der Subjekt-Prädikat-Struktur natürlicher Sätze orientiert, ist in der formalen Prädikatenlogik hinfällig geworden. Dies gilt sogar als eine ihrer größten Errungenschaften. Durchgesetzt haben sich hingegen mengentheoretische Begrifflichkeit und mathematische Methodik. Im Umfeld dieser Entwicklungen bildete sich im frühen 20. Jahrhundert auch eine philosophische Skepsis gegenüber alltagsprachlicher Redeweise heraus, die unter dem Verdacht stand, logisch unzulänglich und somit für wissenschaftliche Zwecke unbrauchbar zu sein. Eine große Leistung der formalen Linguistik der letzten Jahrzehnte ist es, die mengentheoretischen Grundlagen zur Analyse natürlichsprachlicher Ausdrücke zu nutzen und dabei erstaunlich formale Strukturen unserer Alltagssprache herauszustellen. Insbesondere ist dadurch die vorher viel zu stark gezogene Grenze zwischen klarer Logik und unklarer Alltagssprache etwas zurückgenommen worden. In diese Entwicklung ordnet sich auch die Theorie der generalisierten Quantoren ein.7 Durch diese sind auch quantitative Determinierer wie „wenige”, „die meisten” oder „fast alle” in das Zentrum der Forschung gerückt. Die Anwendung mathematisch verallgemeinerter Quantoren für linguistische Zwecke wurde dabei vor allem in Barwise und Cooper (1981) geleistet. An ihren und den nachfolgenden Arbeiten, insbesondere auch Benthem (1984), orientieren sich 7

8

Eine aktuelle Darstellung zu der Theorie der generalisierten Quantoren findet sich in Peters und Westerståhl (2006). Einen kürzeren Überblick geben Westerståhl (1989), Keenan (1996), Keenan und Westerståhl (1997), Keenan (2002) und Westerståhl (2011).

2.1 Determinierer und Quantität die Definitionen der Determinierer, die in den folgenden Abschnitten genutzt werden.

2.1.1 Definitionen von DL und DLE Die Determiniererlogik DL resultiert aus einer Erweiterung der Prädikatenlogik. Der wesentliche Unterschied besteht im Umgang mit den Quantoren. Während sie in PL atomare Terme sind, werden sie in DL aus Determinierern und einstelligen Prädikaten zusammengesetzt. Diese Herangehensweise ist aus der linguistischen Theorie der generalisierten Quantoren übernommen, welche ihrerseits der Montague-Grammatik folgt. Dort sind terms Ausdrücke, die durch Anbindung an ein Verb einen Satz bilden und selbst durch Determinierer mit common nouns gebildet werden. Auch die linguistische Deutung von „die meisten” als Mehrheit wurde in DL aus der Theorie der generalisierten Quantoren übernommen.8 Zum Alphabet von DL gehören Individuenterme, Prädikatsymbole, Junktoren und Hilfszeichen, wie sie in der Prädikatenlogik bekannt sind. Dementsprechend lassen sich syntaktische Bestimmungen ohne Quantoren aus PL übernehmen. Definition 2.1.1 Alphabet ohne Quantoren 1. Individuenterme sind Individuenkonstanten oder Individuenvariablen. a) „a” ist eine Individuenkonstante. Wenn t eine Individuenkonstante ist, so auch t 0 . b) „x” ist eine Individuenvariable. Wenn t eine Individuenvariable ist, so auch t 0 . c) Nur was nach Regel a) oder b) gebildet werden kann, ist ein Individuenterm. 2. Prädikatsymbole a) „P1 ” ist ein einstelliges Prädikatsymbol. b) Wenn αn ein Prädikatsymbol ist, so auch αn0 . c) Wenn αn ein Prädikatsymbol ist, so auch αn+1 . d) Sonst ist nichts ein Prädikatsymbol. 8

Eine Darstellung der Montague-Grammatik und ihres Bezugs zu generalisierten Quantoren findet sich in GAMUT (1991).

9

2 Quantitative Normalität 3. Logische Zeichen und Hilfszeichen a) „¬” und „∧” sind logische Zeichen. b) „(” und „)” sind Hilfszeichen. Die Bildung von Quantoren wird durch eine syntaktische Regel ermöglicht, die besagt, dass ein Quantor aus einem Determinierer und einem einstelligen Prädikat zusammengesetzt werden muss. Ein Quantor der Determiniererlogik ist dementsprechend kein Operator, der zu lesen wäre als „alles” oder „einiges”, sondern er bestimmt selbst die Gegenstände, über die gesprochen wird. Die Determinierer bilden beispielsweise in Verbindung mit „ist Mensch” die Quantoren „alle Menschen”, „einige Menschen” oder „die meisten Menschen”. Definition 2.1.2 Determinierer und Quantoren 1. Determinierer sind „A ”, „E ” und „M ”. 2. Wenn ∆ ein Determinierer ist und α ein einstelliges Prädikatsymbol ist, dann ist ∆α ein Quantor. Ein wichtiger Teil der syntaktischen Definitionen sind die Angaben, welche die Bildung von Formeln regeln. Dies entspricht weitestgehend dem, was aus der Prädikatenlogik bekannt ist. Prädikate können, entsprechend ihren n Stellen, mit n Individuentermen verbunden werden, um Formeln zu bilden. Formeln können darüber hinaus mit aussagenlogischen Junktoren verbunden werden, wodurch sich wiederum neue Formeln ergeben. Die Bildung quantifizierter Formeln entspricht ebenfalls der prädikatenlogischen Vorgehensweise, auch wenn die Quantoren selbst anders aufgebaut sind, als es in der Prädikatenlogik üblich ist. Definition 2.1.3 Formeln 1. Wenn α ein n-stelliges Prädikatsymbol ist und t1 ,...,tn Individuenterme sind, dann ist αt1 ...tn eine atomare Formel. 2. Wenn φ und ψ Formeln sind, dann sind auch (φ ∧ ψ) und ¬φ Formeln. 3. Wenn φ eine Formel, ∆α ein Quantor und χ eine Individuenvariable ist, dann ist ∆α χφ eine Formel. 4. Nur was in endlichen Schritten nach 1.-3. generiert wird, ist eine Formel.

10

2.1 Determinierer und Quantität Alle Definitionen, Bemerkungen und Ergebnisse zu der Art und Weise, wie Variablen und Quantoren sich in Formeln zueinander verhalten, sind in der Determiniererlogik nicht anders als in der Prädikatenlogik. Dies betrifft insbesondere auch die Begriffe des Skopus, der frei vorkommenden Variable und des Satzes. Definition 2.1.4 Skopus, freie Variable, Satz 1. Wenn ∆α χψ eine Teilformel von φ ist, dann ist ψ der Skopus dieses Vorkommens von ∆α χ in φ . 2. Das Vorkommen einer Variablen χ in einer Formel ist frei, wenn dieses Vorkommen von χ nicht im Skopus einer Quantifizierung liegt. 3. Wenn ∆α χψ eine Teilformel von φ ist und χ in ψ frei ist, dann ist dieses Vorkommen von χ durch ∆α χ gebunden. 4. Ein Satz ist eine Formel ohne Variablen, die frei vorkommen. In dem Modell, das nun definiert wird, sind nicht nur Prädikate und Individuen, sondern auch die Quantoren zu interpretieren und zwar so, dass durch die Interpretation die logischen Eigenschaften der Determinierer formal erfasst werden.9 Bei „alle S” enthält die Interpretation des Quantors nur eine Menge. Diese enthält alle S und sonst nichts. Für „einige S” ist jede nicht-leere Teilmenge der Extension von S zu berücksichtigen. Um den Ausdruck „die meisten S” zu deuten, werden alle Mengen zur Interpretation herangezogen, die mehr S enthalten als nicht enthalten. Das heißt, dass eine Menge zur Interpretation von „die meisten S” gehört, wenn die Anzahl der Individuen, die in dieser Menge und S enthalten sind, größer ist als die Anzahl der Individuen, die nicht in dieser Menge, aber in der Interpretation von S enthalten sind. Definition 2.1.5 Modell und DL-Quantoren Ein Modell M für DL besteht aus einem nicht-leeren, endlichen Redebereich D und einer Interpretation I, so dass gilt: 1. Wenn t eine Individuenkonstante von DL ist, dann ist I(t) ∈ D. 2. Wenn αn ein n-stelliges Prädikat von DL ist, dann gilt: I(α) ⊆ Dn , wobei Dn die Menge aller n-Tupel ist, die aus den Elementen von D gebildet werden können. 9

Eine andere Möglichkeit wäre, die Semantik der Determinierer in den Wahrheitsbewertungen zu erfassen. Diese soll hier allerdings nicht weiter verfolgt werden.

11

2 Quantitative Normalität 3. Wenn ∆α ein Quantor ist, so ist I(∆α) ⊆ POW (I(α)), wobei gilt: a) M ∈ I(A α) gdw M = I(α). b) M ∈ I(E α) gdw M 6= 0. / c) M ∈ I(M α) gdw |M| > |I(α) − M|. In Bezug auf die Interpretation von Quantoren ist auch eine alternative Definition denkbar. Sie definiert die formale Sprache DLE, die Determiniererlogik mit Existenzimplikation. In DLE darf die Interpretation eines Quantors prinzipiell nicht die leere Menge enthalten. Dies führt zu einer Erweiterung der Definition für den Determinierer „A ”. Im Übrigen gelten alle anderen DL-Definitionen auch für DLE. Definition 2.1.6 Quantoren in DLE Ein Modell M für DLE besteht aus einem nicht-leeren, endlichen Redebereich D und einer Interpretation I, so dass gilt: 1. wie in DL. 2. wie in DL. 3. Wenn ∆α ein Quantor ist, so ist I(∆α) ⊆ POW (I(α)), wobei gilt: a) M ∈ I(A α) gdw M = I(α) und M 6= 0. / b) M ∈ I(E α) gdw M 6= 0. / c) M ∈ I(M α) gdw |M| > |I(α) − M|. Bevor wir dazu übergehen können, Formeln als wahr oder falsch zu bewerten, muss geklärt werden, welche Rolle die Variablen spielen. Dazu wird per Definition eine Belegung eingeführt. Definition 2.1.7 Belegung und Denotate Eine Belegung g ist eine Funktion, die jeder Variablen ein Element des Redebereiches zuordnet. Wenn d ∈ D und χ eine Variable ist, dann ist g[χ/d] die zu g alternative Belegung, die für χ als Wert d und für alle anderen Variablen dieselben Werte wie g gibt. Wenn t ein singulärer Term (eine Individuenkonstante oder -variable) ist, dann gilt für [[t]]M,g , das Denotat von t im Modell M unter der Belegung g: Wenn t eine Konstante ist, dann ist [[t]]M,g = I(t). Wenn t eine Variable ist, dann ist [[t]]M,g = g(t).

12

2.1 Determinierer und Quantität In der folgenden Bewertung von DL und DLE benötigen wir nur eine Definition für Quantoren. Diese soll besagen, dass es bei einer wahren quantifizierten Formel in der Interpretation des Quantors mindestens eine Menge geben muss, deren sämtliche Elemente, wenn mit ihnen die Variable belegt wird, einen wahren Satz ergeben. Da die Determinierer ihre Deutung schon mit der Interpretationsfunktion zugewiesen bekommen haben, ist es nicht nötig, in der Verteilung der Wahrheitswerte zwischen verschiedenen Quantoren zu differenzieren. In den anderen Teilen unterscheiden sich die Definitionen nicht von den üblichen prädikatenlogischen Festlegungen. Definition 2.1.8 Wahrheitswerte Wenn M ein Modell mit dem Redebereich D und g eine Belegung ist, dann gilt für VM,g , den Wahrheitswert bezogen auf M und g: D E • VM,g (αnt1 . . .tn ) = 1 gdw [[t1 ]]M,g , . . . , [[tn ]]M,g ∈ I (αn ). • VM,g (¬φ ) = 1 gdw VM,g (φ ) = 0. • VM,g (φ ∧ ψ) = 1 gdw VM,g (φ ) = 1 und VM,g (ψ) = 1. • VM,g (∆α χφ ) = 1 gdw es wenigstens ein M ∈ I(∆α) gibt, so dass für jedes d ∈ M gilt: VM,g[χ/d] (φ ) = 1. In der natürlichen Sprache ist es auch möglich, komplexere einstellige Prädikate wie „Kinder, die ältere, aber keine jüngeren Geschwister haben” zu formulieren und diese als Subjektbegriff zu nutzen. Um dies auch in DL und DLE zu ermöglichen, greifen wir auf Lambda-Abstraktion zurück. Definition 2.1.9 Lambda-Abstraktion Wenn φ eine Formel und χ eine Variable ist, dann ist λ χφ ein Lambda-Abstrakt und kann als einstelliges Prädikatsymbol genutzt werden. In einem Modell M ist die Interpretation eines Lambda-Abstraktes die Menge jener Individuen, die einen wahren Satz ergeben, wenn χ mit ihnen belegt wird: I(λ χφ ) = {d ∈ D : VM,g[χ/d] (φ ) = 1}. Für die hier definierten quantorenlogischen Sprachen wird Gültigkeit, wie allgemein üblich, als Erhaltung der Wahrheit im Übergang von den Prämissen zur Konklusion eines Schlusses verstanden. Definition 2.1.10 Gültigkeit Der Schluss von {ψ1 , ψ2 , ..., ψn } auf φ ist gültig, ψ1 , ψ2 , ..., ψn |= φ , gdw in

13

2 Quantitative Normalität jedem Modell M und jeder Belegung g gilt: VM,g (φ ) ≥ VM,g (ψ1 ∧ ψ2 ∧ ... ∧ ψn ). Ein Satz φ ist allgemeingültig, |= φ , gdw in jedem Modell M und jeder Belegung g gilt: VM,g (φ ) = 1. Damit sind die grundlegenden Bestimmungen von DL und DLE gegeben. Bevor wir uns mit den Details dieser beiden Sprachen beschäftigen, werden noch einige Zeichen zur Vereinfachung eingeführt. In den folgenden Untersuchungen werden das leere Prädikat und das Universalprädikat besonders wichtig sein: • B ESONDERE F ORMELN UND P RÄDIKATE de f

1. Falsum: ⊥ = Px ∧ ¬Px. de f

2. Tautologie: > = ¬(Px ∧ ¬Px). de f

3. Universalprädikat: U = λ x>. de f

4. Leeres Prädikat: O = λ x⊥. Weiterhin werden folgende aussagenlogische Verbindungen als Abkürzungen eingeführt: • J UNKTOREN de f

1. Alternation: φ ∨ ψ = ¬(¬φ ∧ ¬ψ). de f

2. Materiales Konditional: φ → ψ = ¬(φ ∧ ¬ψ). de f

3. Bikonditional: φ ↔ ψ = (¬(φ ∧ ¬ψ)) ∧ (¬(¬φ ∧ ψ)). Zur Vereinfachung werden weitere Zeichen zur kürzeren Wiedergabe von Prädikatsymbolen und Individuentermen eingeführt: • I NDIVIDUEN - UND P RÄDIKATAUSDRÜCKE 1. Weitere Individuenkonstanten sind „b” und „c”. 2. Weitere Individuenvariablen sind „y” und „z”. 3. Ein Prädikatsymbol kann durch einen lateinischen Großbuchstaben wiedergegeben werden.

14

2.1 Determinierer und Quantität

2.1.2 Leere Subjekte: Das Verhältnis von DL zu DLE Es ist durch die Definitionen von DL und DLE nicht ausgeschlossen, dass ein Prädikat leer ist. Das hat Auswirkungen auf die Interpretation der Quantoren. In DL sieht dies folgendermaßen aus: • I(A O) = {0}. / Begründung: M ∈ I(A α) gdw M = I(α). Nun ist I(O) = 0/ und damit gilt M = I(O) = 0. / Daher ist I(A O) = {0}. / • I(E O) = 0. / Begründung: M ∈ I(E α) gdw M ⊆ I(α) und M ∩ I(α) 6= 0. / Nun ist I(O) = 0/ und keine Menge erfüllt M ∩ 0/ 6= 0. / • I(M O) = 0. / Begründung: M ∈ I(M α) gdw M ⊆ I(α) und |M| > |I(α) − M|. Wiederum ist I(O) = 0. / Nun gilt |M ⊆ 0| / = 0. Keine Menge kann weniger als kein Element enthalten. Daher kann keine Menge die Bedingung |M| > |I(O) − M| erfüllen. In der Bewertung kommen durch diese Interpretationen einige Ungereimtheiten zustande. Wenn ein Subjekt S leer ist, ist den Ausdrücken „einige S” und „die meisten S” die leere Menge zugeordnet. Das bedeutet, dass es keine Menge gibt, durch die eine Aussage als wahr bewertet werden könnte. Problematisch ist vor diesem Hintergrund die Bewertung von „alle S”. Die Menge, mit denen dieser Quantor bewertet wird, enthält nur die leere Menge. In der Bewertung von quantifizierten Aussagen wird verlangt, dass wenigstens eine der Mengen so beschaffen ist, dass jedes ihrer Individuen als Ersetzung der Variablen einen wahren Satz ergibt. Im Falle der leeren Menge ist das trivialerweise wahr. Damit sind in DL nach bisherigen Definitionen Allaussagen über Nichtexistentes immer wahr, wie es auch aus der klassischen Prädikatenlogik PL bekannt ist. Die uneinheitliche Bewertung von Sätzen über leere Subjekte führt schon in PL zu einigen unplausiblen Ergebnissen. Der überaus einleuchtende Schluss „Alle S sind P. Also sind auch einige S P” ist nicht gültig. In unserer Determiniererlogik ist dieses Ergebnis noch unerfreulicher. Auch der Schluss von „Alle S sind P” auf „Die meisten S sind P” ist nicht gültig. An dem Punkt, wo gewisse quantitative Aussagen Normalitätsaussagen deuten, wird die Sonderstellung von Allaussagen inakzeptabel. Wer meint, dass alle S P sind, sollte zwangsläu-

15

2 Quantitative Normalität fig auch annehmen, dass S im quantitativen Sinn normalerweise P sind. Dies aufzugeben, ist außerordentlich problematisch. In DLE kommen diese Probleme nicht zustande. Es lässt sich ohne weiteres zeigen, dass alle Quantifizierungen über leere Subjekte in DLE falsch sind: • I(A O) = 0. / Begründung: M ∈ I(A α) gdw M 6= 0/ und M = I(α). Nun ist I(O) = 0/ und es kann somit unmöglich gelten, dass M 6= 0/ und M = I(O). Allaussagen sind, ebenso wie andere quantifizierte Aussagen in DLE, für leere Prädikate prinzipiell falsch. Damit bilden sie kein Gegenmodell zu A α χφ |= M α χφ . • I(E O) = 0. / • I(M O) = 0. / DLE setzt für jede wahre Quantifizierung die Existenz einer Instanz des Subjektbegriffes voraus.

2.1.3 Das Universalprädikat: DL / DLE und PL Besondere Aufmerksamkeit verdienen die Beziehungen der Determinierer zum Allquantor und zum Existenzquantor der klassischen Logik. Das Prädikat, dessen Interpretation der gesamte Redebereich ist, wurde als Universalprädikat bestimmt. Wenn ein Determinierer A oder E sich auf ein Universalprädikat, also auf alle Dinge, bezieht, gleichen die so entstandenen Quantoren denen der klassischen Prädikatenlogik. Lemma 2.1.11 Die Semantik von A U und von E U in DL / DLE gleicht der von ∀ und ∃ in PL. Beweis. Die Semantik von ∀ und ∃ in PL lautet: VM,g (∀χφ ) = 1 gdw für jedes d ∈ D gilt: VM,g[χ/d] (φ ) = 1 und VM,g (∃χφ ) = 1 gdw für wenigstens ein d ∈ D gilt: VM,g[χ/d] (φ ) = 1. Für ∀: Laut der Definition eines Modells von DL und DLE wird ein Quantor mit einer Teilmenge der Potenzmenge des Redebereiches interpretiert. Im Fall von „alle” gilt dabei: M ∈ I(A α) gdw M = I(α). Bei einem Universalprädikat, das extensionsgleich zum nicht leeren Redebereich ist, heißt das, dass der gesamte Redebereich und nur er in der Interpretationsmenge des Quantors ist. Daher kann in der Bewertung nur eine Menge, nämlich der Redebereich D,

16

2.1 Determinierer und Quantität berücksichtigt werden, so dass gilt: VM,g (A Uχφ ) = 1 gdw für jedes d ∈ D gilt: VM,g[χ/d] (φ ) = 1. Damit gleicht A U dem Allquantor ∀. Für ∃: M ∈ I(E α) gdw M ∩ I(α) 6= 0/ und M ⊆ I(α). Daher gilt I(E α) = POW (I(α)) − {0}. / Das heißt, dass alle Teilmengen der Subjektextension, abgesehen von der leeren Menge, in der Interpretationsmenge enthalten sind. Wenigstens eine dieser nicht-leeren Teilmengen des Redebereiches soll nun so beschaffen sein, dass für jedes d ∈ M gilt: VM,g[χ/d] (φ ) = 1. Die kleinsten Mengen aus I(E U) sind die Einermengen, die jeweils ein Individuum des Redebereiches enthalten. Daher ist VM,g (E Uχφ ) = 1, wenn für ein Individuum des Redebereiches d ∈ D gilt, dass VM,g[χ/d] (φ ) = 1, denn für jedes Individuum im Redebereich gibt es eine entsprechende Einermenge in der Interpretation von I(E U), die nichts als dieses Individuum enthält. Andernfalls ist VM,g (E Uχφ ) falsch. Wenn nicht einmal eine einzige Einermenge M so beschaffen ist, dass für d ∈ M VM,g[χ/d] (φ ) = 1 gilt, dann kann keine andere größere Menge diese Bedingung erfüllen. Daher gleicht E U dem Existenzquantor ∃. Die folgenden Abkürzungen der klassischen Quantoren in DL und DLE entsprechen, wie durch das Lemma plausibel geworden ist, der formalen Gleichheit von klassischen Quantoren und Determinierern mit Universalprädikat als Subjekt: • K LASSISCHE Q UANTOREN de f

1. ∀ = A U. de f

2. ∃ = E U. Die Ergebnisse des letzten Abschnitts weisen darauf hin, dass die klassische Prädikatenlogik PL selbst ein Teil von DL und DLE ist. Die Quantoren von PL haben semantische Stellvertreter in DL und DLE. Auch alle weiteren semantischen Teile von PL wurden in DL und DLE aufgenommen. Theorem 2.1.12 PL ist Teillogik von DL und DLE: Wenn ∆ |=PL φ , dann ∆ |=DL φ und ∆ |=DLE φ . Beweis. Mit der Definition der klassischen Quantoren stehen zunächst alle Zeichen des Alphabets von PL auch in DL und in DLE zur Verfügung. Die Gültigkeit ist in allen diesen Logiken als Erhaltung von Wahrheit in allen Modellen definiert. Die Bewertungsfunktion VM,g unterscheidet sich in ihrer Definition lediglich in der Klausel für quantifizierte Sätze. Auch Modell und

17

2 Quantitative Normalität Belegung weichen in DL und DLE nur dort von PL ab, wo es um Quantoren geht. Wie jedoch im vorangegangenen Lemma 2.1.11 festgehalten wurde, gleichen die in DL und DLE definierten Quantoren semantisch den klassischen von PL. Daher kann kein gültiger PL-Schluss in DL oder in DLE ungültig sein. In der Eigenschaft, dass sie Erweiterungen von PL sind, unterscheiden sich DL und DLE nicht voneinander. Da nur das Universalprädikat als Subjekt in diesem Teilbereich eine Rolle spielt, macht es auch keinen Unterschied, dass DL und DLE jeweils unterschiedlich mit leeren Subjektbegriffen umgehen. Dies ist allerdings relevant, wenn man sich fragt, wie eine klassische prädikatenlogische Formalisierung zu einer Formalisierung durch Determinierer und Subjektbegriff steht: • E INIGE S SIND P 1. Mit ∃ (als definiertem Zeichen) in DL und DLE: ∃x(Sx ∧ Px). Dies gilt gdw I(S) ∩ I(P) 6= 0. / Bei I(S) = 0/ kann diese Bedingung nicht erfüllt sein. 2. Mit E in DL und DLE: E SxPx. Dies gilt gdw es eine nicht-leere Menge M gibt und M ⊆ I(S), so dass für jedes d ∈ M gilt: d ∈ I(P). Dies entspricht der Bedingung: I(S)∩I(P) 6= 0. / Daher ist diese Formalisierung äquivalent zur klassischen Formalisierung.10

• A LLE S SIND P

1. Mit ∀ (als definiertem Zeichen) in DL und DLE: ∀x(Sx → Px). Dies gilt gdw I(S) ∩ I(P) = I(S). Bei I(S) = 0/ ist diese Bedingung trivialerweise erfüllt. 10

18

Zur Begründung eine Beweisskizze: Wenn I(S) ∩ I(P) 6= 0, / dann gibt es ein Individuum d, so dass d ∈ I(S) und d ∈ I(P). Dann ist {d} eine Menge, so dass {d} ∩ I(S) 6= 0/ und für jedes d ∈ {d} gilt, dass d ∈ I(P). Wenn I(S) ∩ I(P) = 0, / dann kann es keine Menge M ∈ I(E S) geben, so dass für jedes d ∈ M gilt, dass d ∈ I(P). Denn M ⊆ I(P) und wegen I(S) ∩ I(P) = 0/ wäre auch I(S) ∩ M = 0. / Damit würde diese Menge M nicht M ∩ I(S) 6= 0/ erfüllen.

2.1 Determinierer und Quantität 2. Mit A in DL: A SxPx. Dies gilt gdw es ein Menge M = I(S) gibt, so dass für jedes d ∈ M gilt, dass d ∈ I(P). Das ist genau dann der Fall, wenn I(S) ∩ I(P) = I(S). Die Wahrheitsbedingung stimmt somit vollkommen mit der entsprechenden klassischen Formalisierung überein. 3. Mit A in DLE: A SxPx. Dies gilt gdw es eine nicht-leere Menge M = I(S) gibt, so dass für jedes d ∈ M gilt, dass d ∈ I(P). Vorausgesetzt I(S) 6= 0, / ist dies wiederum gleichwertig mit der Forderung, dass I(S) ∩ I(P) = I(S). In diesen Fällen ist die DLE Wahrheitsbedingung mit der von DL identisch. Wenn I(S) = 0, / dann gibt es hingegen keine Menge M, so dass M 6= 0/ und M = I(S). Damit ist die Formel falsch. Die DLE Formalisierung „A SxPx” ist daher nicht äquivalent zu „∀x(Sx → Px)”, sondern zu „∀x(Sx → Px) ∧ ∃xSx”, wo zusätzlich gefordert wird, dass der Subjektbegriff nicht leer ist. Diese speziellen Ausführungen für S und P lassen ein allgemeineres Ergebnis vermuten. Theorem 2.1.13 Quantifizierungen mit den Determinierern A und E haben prädikatenlogische äquivalente Formalisierungen in DL und DLE: A α χφ ⇔DLE ∀χ(α χ → φ ) ∧ ∃χ(α χ) E α χφ ⇔DLE ∃χ(α χ ∧ φ ) A α χφ ⇔DL ∀χ(α χ → φ ) E α χφ ⇔DL ∃χ(α χ ∧ φ ) Beweis. Die Äquivalenz von A α χφ und ∀χ(α χ → φ ) ∧ ∃χ(α χ) in DLE wird hier bewiesen. Die anderen Beweise sind vollkommen parallel zu führen. Dass A α χφ und ∀χ(α χ → φ ) ∧ ∃χ(α χ) äquivalent sind, wenn φ eine atomare Formel mit einem einstelligen Prädikat ist, wurde bereits allgemein anhand eines Prädikates P gezeigt. Wenn φ eine atomare Formel mit einem komplexen Prädikat ist, kann in derselben Weise mit dem einstelligen Prädikat λ χφ verfahren werden. Da alle möglichen Bestandteile, aus denen φ als Satz von DLE bestehen könnte, zu denselben Wahrheitsbedingungen für A α χφ und für ∀χ(α χ → φ ) ∧ ∃χ(α χ) führen, sind beide Formeln äquivalent. Für die Beziehung zwischen den hier definierten Logiken DL und DLE und ihrer Teillogik PL kann schließlich folgende Feststellung getroffen werden:

19

2 Quantitative Normalität D ETERMINIERER Alle

S INGULÄRER S ATZ Logischer Schluss

⇓ Die meisten

Wahrscheinliche Erwartung

⇓ Einige

Keine Prognose

Tabelle 2.3: Ordnung der Determinierer

Satz 2.1.14 Jede Formel von DL und DLE ohne den Determinierer M lässt sich in eine äquivalente Formel von PL umformulieren. Aus den vorherigen Ausführungen wurde klar, dass die anderen Determinierer mit klassischen Quantoren umformulierbar sind. Wir haben auch gesehen, dass alle anderen Bestandteile von DL und DLE prädikatenlogische Entsprechungen haben. Für den Determinierer M fehlt es hingegen schon an einer syntaktischen Entsprechung. Somit zeigt sich der eigentliche Kern von DL und DLE in der Formalisierung des Determinierers „die meisten”.

2.1.4 Hierarchie der Determinierer In dem folgenden Abschnitt werden hauptsächlich Gesetzmäßigkeiten bezüglich der logischen Kraft von „die meisten” diskutiert. Es wurde bereits festgestellt, dass DL aufgrund des uneinheitlichen Umgangs der Determinierer mit leeren Subjektbegriffen in diesem Bereich problematische Ergebnisse erzeugt. Daher werden wir uns in diesem Abschnitt hauptsächlich mit DLE beschäftigen. Die Kraft einer quantitativen Aussage bemisst sich an ihrem Verhältnis zu anderen quantitativen Aussagen einerseits und zu quantorenfreien Sätzen andererseits. Natürlichsprachliche Determinierer stehen intuitiv in der Ordnung, die der Tabelle 2.3 zu entnehmen ist. Da die Determiniererlogik nur Wahrheit und keine Wahrscheinlichkeit behandelt, lässt sich die Prognose aus „die meisten” nicht darstellen, wohl aber die logische Kraft von „alle”. Wir kommen in DLE zu folgenden Gesetzen:

20

2.1 Determinierer und Quantität Theorem 2.1.15 Gesetze der Hierarchie: A α χφ |= M α χφ M α χφ |= E α χφ A α χφ |= E α χφ

Beweis. Wenn M ∈ I(A α), dann ist M ∈ I(M α), denn in diesem Falle ist M = I(α) und somit |I(α) − M| = 0. Bei I(α) 6= 0/ gilt immer |I(α)| > |I(α) − M|. Andernfalls ist in DLE I(M α) = I(A α) = 0/ und beide Quantifizierungen sind falsch. Vorausgesetzt A α χφ ist wahr, so gibt es eine Menge M ∈ I(A α), so dass für jedes d ∈ M VM,g[χ/d] (φ ) = 1 gilt. Für diese Menge gilt auch M ∈ I(M α) und somit ist die Formel M α χφ wahr. Wenn M ∈ I(M α), dann gilt: |M| > |I(α) − M|. Das heißt auch, dass M 6= 0, / da |0| / unmöglich größer als die Kardinalität irgendeiner anderen Menge ist. Somit ist auch die Voraussetzung erfüllt, dass M ∈ I(E α) ist. Damit ist auch E α χφ wahr. Dass aus A α χφ schließlich E α χφ folgt, ist eine Konsequenz aus den beiden vorhergehenden Gesetzen. Theorem 2.1.16 Quantitative und singuläre Aussagen Sei t eine Individuenkonstante und χ eine beliebige Individuenvariable. Dann gilt für [t/χ]φ , die Formel, die aus der Einsetzung von t für χ resultiert: A α χφ , αt |= [t/χ]φ M α χφ , αt 6|= [t/χ]φ E α χφ , αt 6|= [t/χ]φ Beweis. Wenn VM,g (A α χφ ) = 1, dann gibt es eine Menge M = I(α), so dass für jedes d ∈ M gilt, dass VM,g[χ/d] (φ ) = 1. Außerdem sei VM,g (αt) = 1 und somit I(t) ∈ I(α). Daher ist I(t) ∈ M. Was für jedes d ∈ M zutrifft, gilt auch für I(t). Der Schluss ist damit gültig. M α χφ , αt 6|= [t/χ]φ kann durch ein Gegenbeispiel gezeigt werden: Der Redebereich besteht aus den Augenzahlen eines Würfels, also den Zahlen Eins bis Sechs. Das Gegenmodell M ist wie folgt beschaffen: I(P) = {1, 2, 3}, I(Q) = {1, 3, 5}, I(c) = 2. Nun ist {1, 3} ∈ I(M P), denn |{1, 3}| > |{2}|. Daher gilt VM,g (M PxQx) = 1. Es gilt ebenso, dass VM,g (Pc) = 1, aber nicht VM,g (Qc) = 1. Etwas anschaulicher formuliert: Die meisten der kleineren drei Ergebnisse

21

2 Quantitative Normalität des Würfelns sind ungerade. Zwei ist eines der kleineren drei Ergebnisse und dennoch nicht ungerade. E α χφ , αt 6|= [t/χ]φ kann durch dasselbe Gegenbeispiel gezeigt werden, da die Wahrheit von „M PxQx” die von „E PxQx” impliziert.

2.1.5 Gegensätze Die beschriebenen hierarchischen Strukturen sind typisch für das logische Quadrat. Vervollständigt werden dabei die Schlussverhältnisse durch Gegensätze. Diese sind auch für Schemata von DLE zu finden: Theorem 2.1.17 Gegensätze in DLE. KONTRADIKTORISCHE G EGENSÄTZE : A α χφ , ¬A α χφ ; M α χφ , ¬M α χφ ; E α χφ , ¬E α χφ KONTRÄRE G EGENSÄTZE :11 A α χφ , A α χ¬φ ; M α χφ , M α χ¬φ ; A α χφ , M α χ¬φ ; M α χφ , A α χ¬φ S UBKONTRÄRE G EGENSÄTZE :12 E α χφ , E α χ¬φ Beweis. Zur Begründung der kontradiktorischen Gegensätze genügt es, auf die Bewertungsregel der Negation zu verweisen, denn diese stellt sicher, dass die Negation jedes wahren Satzes falsch und die jedes falschen Satzes wahr ist. Damit ist klar, dass die genannten Schemata, die alle Varianten von φ und ¬φ sind, sich kontradiktorisch gegenüber stehen. Die Kontrarietät von A α χφ und A α χ¬φ ist ebenfalls offensichtlich. Da I(A α) nur Mengen enthält, die auch alle Elemente von I(α) enthalten, muss jedes d ∈ I(α) φ erfüllen.13 Daher ist es nicht möglich, dass gleichzeitig irgendein d ∈ I(α) oder gar jedes d ∈ I(α) ¬φ erfüllt. Dass beide Formeln gemeinsam falsch sein können, ist an jedem Modell zu zeigen, in dem I(α) sowohl Individuen enthält, die φ erfüllen, als auch solche, die ¬φ erfüllen. Für M α χφ und M α χ¬φ ist ähnlich zu argumentieren. Wenigstens mehr als die Hälfte der Elemente von I(α) müssen φ erfüllen. Wenn dasselbe auch für 11 12 13

22

Ich verstehe konträre Gegensätze hier so, dass sie den kontradiktorischen Gegensatz ausschließen. Es ist notwendig, dass beide Sätze auch zusammen falsch sein können. Auch hier sind kontradiktorische Gegensätze ausgeschlossen. Im Folgenden sagen wir, ein Individuum d erfülle eine Formel φ mit einem freien Vorkommen der Variablen χ relativ zu Modell M und Belegung g, wenn VM,g[χ/d] (φ ) = 1.

2.1 Determinierer und Quantität ¬φ gälte, müsste mindestens ein d ∈ I(α) sowohl φ als auch ¬φ erfüllen und es bestünde ein Widerspruch. Das Modell, das beide Formeln falsch werden lässt, ist so beschaffen, dass genau die Hälfte der Elemente von I(α) für φ wahre Sätze ergeben. Dies ist dann möglich, wenn |I(α)| gerade ist. Bei A α χφ und M α χ¬φ sei darauf verwiesen, dass aus A α χφ die Wahrheit von M α χφ folgt und M α χφ zu M α χ¬φ konträr ist. Dasselbe gilt für M α χφ und A α χ¬φ . Der subkonträre Gegensatz von partikulären Aussagen, wie sie in DLE durch E α χφ und E α χ¬φ formalisiert werden, ist aus der klassischen Logik bekannt. Jedes d, also auch jedes d ∈ I(α), wird für φ oder ¬φ eine wahre Formel ergeben. Deswegen können nicht beide Formeln falsch sein. Sie sind zusammen wahr, wenn ein d ∈ I(α) einen wahren Satz ergibt, aber ein anderes d 0 ∈ I(α) für φ einen falschen Satz ergibt und somit ¬φ erfüllt.

2.1.6 Das logische Quadrat Wir haben nun einige logische Beziehungen kennengelernt, die die Vermutung nahe legen, dass sich für DLE eine Erweiterung des logischen Quadrats ergibt.14 Um eine solche vollständige Figur zu erhalten, sind weiterhin Formeln der Art ¬M α χ¬φ zu berücksichtigen, die in der Hierarchie unter M α χφ aber über E α χφ stehen und einen subkonträren Gegensatz zu ihrer inneren Negation bilden.15 Die Operation ¬M α χ¬ ist dual zu M α χ. In der natürlichen Sprache gibt es für den Ausdruck ¬M α χ¬ kein passendes Wort, er kann allerdings mit „nicht die wenigsten” oder „nicht nur eine Minderheit” paraphrasiert werden. Die bisherigen Ergebnisse und unsere Intuitionen lassen die Figur in Abbildung 2.1 für DLE als erweitertes logisches Quadrat erwarten. Das Quadrat für „die meisten” ist dabei in das für „alle” und „einige” eingewoben. Das äußere Quadrat für „Alle S sind P” und „Einige S sind P”, das in der klassischen Prädikatenlogik PL und auch in DL nicht intakt ist, hat in DLE weitestgehend Geltung. Dies ist der Tatsache geschuldet, dass jede bejahende Aussage voraussetzt, dass der Subjektbegriff nicht leer ist. Damit gilt die Subalternation von „alle” auf „einige”. Es sind allerdings nicht alle Eigenschaften, die üblicherweise im logischen Quadrat zu finden sind, realisiert. Dementsprechend muss mit der Wahrung der 14

15

Obgleich es sich, streng genommen, nicht mehr um ein klassisches logisches Quadrat handelt, wird im Text vereinfachend von einem „erweiterten logischen Quadrat” gesprochen. Während M mit „> 12 ” verglichen werden kann, entspricht ¬M ...¬ „≥ 12 ”.

23

2 Quantitative Normalität A SxPx B

 ¬E SxPx B

 B

 B

?

B

 

? B  M Sx¬Px B  @B  @B @ B B@  ? ?  B @ ¬M Sx¬Px ¬M SxPx  B  B  B  B  B ? ?  B M SxPx @

E SxPx

¬A SxPx

Kontradiktorisch Konträr Subkonträr

Abbildung 2.1: Erwartete Erweiterung des logischen Quadrats

konträren und subkonträren Gegensätze sowie der inferentiellen Beziehungen auf andere Eigenschaften verzichtet werden, die mit dem logischen Quadrat verbunden sind, wenn sie auch oft nicht optisch dargestellt sind. In DLE sind „alle” und „einige” nicht mehr dual zueinander und der konträre und subkonträre Gegensatz besteht auch nicht zwischen zwei Ausdrücken, die innere Negationen von einander sind. Ebenso sind Aussagen wie „Nicht alle S sind P” und „Einige S sind nicht P” nicht äquivalent, denn ¬A SxPx ist wahr, wenn S ein leerer Begriff ist, E Sx¬Px aber nicht. Es besteht jedoch zumindest eine bedingte Äquivalenz zwischen diesen Ausdrücken, wenn vorausgesetzt ist, dass I(S) 6= 0. /

24

2.1 Determinierer und Quantität A SxPx M SxPx ¬M Sx¬Px E SxPx

falsch falsch wahr falsch

wahr falsch wahr wahr

¬E SxPx M Sx¬Px ¬M SxPx ¬A SxPx

Tabelle 2.4: Wahrheitswerte bei leerem Subjekt in DLE A SxPx M SxPx ¬M Sx¬Px E SxPx

wahr falsch wahr falsch

wahr falsch wahr falsch

¬E SxPx M Sx¬Px ¬M SxPx ¬A SxPx

Tabelle 2.5: Wahrheitswerte bei leerem Subjekt in DL

Wenn wir uns jedoch die Verhältnisse im Falle eines leeren Subjektbegriffes genau anschauen, sehen wir, dass diese Figur an einer entscheidenden Stelle fehlerhaft ist. Das Problem ist im Verhältnis der M -Aussagen zu anderen Aussagen zu sehen. Wenn nämlich S leer ist, werden die acht Aussagen wie in Tabelle 2.4 bewertet. Dies zeigt, dass einige der oben dargestellten Verhältnisse, die intuitiv zu erwarten wären, nicht bestehen. So ist der Schluss von ¬M Sx¬Px auf E SxPx nicht gültig und, was vielleicht noch unerfreulicher ist, auch der Schluss von ¬E SxPx auf M Sx¬Px gilt nicht. Außerdem sind weder ¬M Sx¬Px und ¬E SxPx konträr noch M Sx¬Px und E SxPx subkonträr. Die allgemeine Regel, dass affirmative Aussagen existentiellen Import haben und negierte Aussagen keinen existentiellen Import haben, gilt bei M Sx¬Px und ¬M Sx¬Px nicht. Deswegen ergibt sich nur ein eingeschränktes logisches Quadrat, welches wir in Abbildung 2.2 sehen. Die grundsätzliche Unvollständigkeit zeigt, dass das Problem des leeren Subjekts im Zusammenhang mit dem logischen Quadrat mehr als ein Sonderproblem der prädikatenlogischen Quantoren darstellt. Dass DLE gegenüber DL dennoch deutliche Vorteile hat, wird daran sichtbar, dass die Probleme in DL noch schwerwiegender sind als in DLE. Die acht Aussagen werden wie in Tabelle 2.5 bewertet, wenn S ein leerer Begriff ist. Somit scheitern in DL die Schlüsse von A SxPx auf M SxPx, ebenso wie die von ¬M Sx¬Px auf E SxPx, die von ¬E SxPx auf M Sx¬Px und von ¬M SxPx auf ¬A SxPx. Außerdem fehlt der konträre Gegensatz zwischen A SxPx und ¬E SxPx sowie der zwischen A SxPx und ¬M SxPx. Auch die sub-

25

2 Quantitative Normalität A SxPx B

 ¬E SxPx B

 B



B  B  ? B  M SxPx @ B  M Sx¬Px @B  @B @ B  B@ ? ?  B @ ¬M Sx¬Px ¬M SxPx   B  B  B  B  B ?  B - E SxPx ¬A SxPx Abbildung 2.2: Erweiterung des logischen Quadrats

konträren Gegensätze zwischen E SxPx und ¬A SxPx und zwischen E SxPx und M Sx¬Px gehen verloren. Es fehlen also noch deutlich mehr Bestandteile des erwünschten vollständigen erweiterten Quadrats, wie Abbildung 2.3 verdeutlicht. Sowohl in DL als auch in DLE finden wir nur Teile des intuitiv zu erwartenden logischen Quadrats. Die einzige Möglichkeit, die fehlenden Schlüsse zu realisieren, ist es, eine ähnliche Strategie zu nutzen, wie wir sie in DLE im Vergleich zu DL finden. Es kann ein neuer Operator eingeführt werden, der den Dualoperator von M ersetzt, aber selbst existentiellen Import hat. Da wir allerdings kaum eine intuitive Interpretation für diesen Dualoperator haben und er hier, im Gegensatz zu A , M und E , auch keine eigene Relevanz hat, wäre dieser Schritt eine unnötige Verkomplizierung gegenüber DLE. Damit verlassen wir das Gebiet der Gegensätze und Implikationen des logischen Quadrats, die das Verhältnis von Determinierern und Negation betreffen, und widmen uns dem Verhältnis der Determinierer in Bezug auf die Alternation und Konjunktion.

26

2.1 Determinierer und Quantität A SxPx B

 ¬E SxPx B

 

B B

 B

M SxPx @



 M Sx¬Px B  @B  @B @ B  B@ ? ?  B @ -¬M Sx¬Px ¬M SxPx   B  B  B  B  B  B - E SxPx ¬A SxPx  B

Abbildung 2.3: Erweiterung des logischen Quadrats bei DL

2.1.7 Quantität und aussagenlogische Verbindungen Wie interagieren die Quantoren mit den aussagenlogischen Junktoren? Welche logischen Regeln gelten für zwei quantitative Ausdrücke, wenn sie Teile einer Konjunktion oder Alternation sind? Wenn von einem Subjekt gesagt werden kann, dass es P ist, kann von dem Subjekt gesagt werden, dass es auch P oder Q ist. Diese Eigenschaft ist den Wahrheitsbedingungen der Alternation geschuldet und gilt in DL und DLE unabhängig davon, welcher Determinierer genutzt wird.16 Theorem 2.1.18 Wenn ∆ ein Determinierer ist, gilt: ∆α χφ |= ∆α χ(φ ∨ ψ) Beweis. Allgemein gilt: Sollte überhaupt etwas für χ in φ einen wahren Satz ergeben, dann muss es zwangsläufig auch für φ ∨ ψ einen wahren Satz ergeben, weil es ausreicht, dass ein Bestandteil der Alternation wahr ist. Dies gilt für jedes beliebige d ∈ I(∆α). 16

Es soll nicht verschwiegen werden, dass es in der natürlichen Sprache auch Determinierer gibt, für die das nicht gilt: Ein Determinierer, der nicht erlaubt, dass eine Grenze nach oben überschritten wird, wie „höchstens die Hälfte” oder „genau drei”, erfüllt diese alternative Erweiterung nicht.

27

2 Quantitative Normalität Die Zusammenfassung von Prädikaten zur Konjunktion ist von der Art der quantitativen Aussage über ein Subjekt abhängig. Verschiedene Prädikate einer Allaussage über ein Subjekt dürfen durch Konjunktion zusammengefasst werden. Bei Meistaussagen und partikulären Sätzen ist das nicht möglich. Theorem 2.1.19 ∆α χφ , ∆α χψ |= ∆α χ(φ ∧ ψ) gilt gdw für ∆ „A ” eingesetzt wird: A α χφ , A α χψ |= A α χ(φ ∧ ψ) M α χφ , M α χψ 6|= M α χ(φ ∧ ψ), E α χφ , E α χψ 6|= E α χ(φ ∧ ψ) Beweis. Vorausgesetzt sei, es gilt A α χφ und A α χψ. Dann muss, damit es eine Menge M ∈ I(A α) gibt, so dass jedes d ∈ M den Satz φ erfüllt, dies auch für jedes d ∈ I(α) zutreffen, denn M ∈ I(A α) gdw M = I(α). Genau dasselbe gilt für ψ. Wenn nun für jedes d ∈ M sowohl VM,g[χ/d] (ψ) = 1 als auch VM,g[χ/d] (φ ) = 1 gilt, dann gilt auch für jedes d ∈ M VM,g[χ/d] (φ ∧ ψ) = 1 und A α χ(φ ∧ ψ) ist wahr. Ein gleichartiges Argument kann auf M α χφ und M α χψ nicht angewendet werden. Bei M α lässt sich keine Menge spezifizieren, welche sowohl zur Bewertung von φ als auch ψ herangezogen werden muss, denn es gibt verschiedene M ∈ I(M α). Somit folgt nicht, dass es auch eine Menge M ∈ I(M α) gibt, deren Elemente φ ∧ ψ erfüllen. Auf gleiche Weise ist zu zeigen, dass E α χφ , E α χψ 6|= E α χ(φ ∧ ψ). Für den Determinierer M ist allerdings eine abgeschwächte Zusammenfassung unter Konjunktion möglich: Theorem 2.1.20 M α χφ , M α χψ |= E α χ(φ ∧ ψ) Beweis. Da M α χφ und M α χψ, gibt es eine Menge M1 , deren Elemente φ erfüllen, und eine Menge M2 , deren Elemente ψ erfüllen, wobei M1 ∈ I(M α) und M2 ∈ I(M α). Dabei enthalten M1 und M2 jeweils mehr als die Hälfte aller Elemente von I(α) und deswegen ist M1 ∩ M2 6= 0. / Es gibt daher ein d, so dass d ∈ M1 ∩ M2 und d ∈ I(α). Daher gilt {d} ∈ I(E α) und VM,g[χ/d] (φ ∧ ψ) = 1. Somit ist VM,g (E α χ(φ ∧ ψ)) = 1 und der Schluss gültig.

2.1.8 Varianten von DL und DLE Die Interpretation von „die meisten” als „mehr als die Hälfte” scheint kontraintuitiv zu sein. Fast jeder kompetente Sprecher des Deutschen würde bezweifeln,

28

2.1 Determinierer und Quantität dass „Die meisten S sind P” wahr ist, wenn 501 von insgesamt 1000 S P sind. Dennoch wurde in DL und DLE eben diese formale Definition für „die meisten” genutzt. Dafür gibt es zwei Gründe. Zum einen ist es genau diese Interpretation, die sich traditionell in der Theorie der generalisierten Quantoren durchgesetzt hat. Zum anderen ist Majorität die logische Minimalbedingung für „die meisten”. Sie liefert den konträren Gegensatz zur inneren Negation und stellt sicher, dass eine Vorhersage mindestens wahrscheinlicher als ihre Negation ist. Mit der Analyse von „die meisten” als „mehr als die Hälfte” wird zunächst nur ein Operator erzeugt, der die Eigenschaften hat, die ein jeder Operator haben muss, um „als die meisten” verstanden werden zu können. Andere mögliche Grenzen für M wären zum Beispiel mindestens 23 , 0, 95 oder 0, 99. Diese entsprechen in der Statistik ungefähr den Werten innerhalb der einfachen, doppelten beziehungsweise dreifachen Standardabweichung vom Erwartungswert bei einer Normalverteilung. Wir können alternativ diese Grenzen für M nutzen, um leicht variierte Versionen von DLE zu definieren. Definition 2.1.21 Varianten DLE Die Logiken DLE2/3 , DLE0,95 und DLE0,99 übernehmen alle Definitionen von DLE mit Ausnahme der Interpretation für M α: I(M α) ⊆ POW (I(α)), so dass für M ⊆ I(α) gilt: • In DLE2/3 : M ∈ I(M α) gdw |M| ≥ |I(α) − M| · 2.17 • In DLE0,95 : M ∈ I(M α) gdw |M| ≥ |I(α) − M| · 19.18 • In DLE0,99 : M ∈ I(M α) gdw |M| ≥ |I(α) − M| · 99.19 17

18

19

Dieser Determinierer nimmt nur Mengen auf, die mindestens 2/3 der Elemente des Subjektbegriffes enthalten. Das heißt, dass auf ein nicht enthaltenes Element mindestens zwei Elemente kommen müssen, die in M enthalten sind. Daher ist die Zahl der nicht enthaltenen Elemente mit 2 multipliziert nicht größer als die Anzahl der Elemente von M. Dieser Determinierer nimmt nur Mengen auf, die mindestens 95 Prozent der Elemente des Subjektbegriffes enthalten. Das heißt, dass auf fünf nicht enthaltene Elemente mindestens 95 Elemente kommen müssen, die in M enthalten sind. Dies entspricht einem Verhältnis von 1:19. Daher ist die Zahl der nicht enthaltenen Elemente mit 19 multipliziert nicht größer als die Anzahl der Elemente von M. Dieser Determinierer nimmt nur Mengen auf, die mindestens 99 Prozent der Elemente des Subjektbegriffes enthalten. Das heißt, dass auf ein nicht enthaltenes Element mindestens 99 Elemente kommen müssen, die in M enthalten sind. Daher ist die Zahl der nicht enthaltenen Elemente mit 99 multipliziert nicht größer als die Anzahl der Elemente von M.

29

2 Quantitative Normalität Obgleich sich DLE2/3 , DLE0,95 und DLE0,99 in den bisher diskutierten Gesetzen nicht von DLE unterscheiden, gibt es Differenzen, wenn die Subjektbegriffe komplex sind. Wir betrachten nun solche Subjekte. Sie werden dadurch gebildet, dass auf eine Formel, die selbst auch logische Konnektoren enthalten darf, die Lambda-Abstraktion angewendet wird. Die Gültigkeit von Schlüssen kann sich in Varianten von DLE unterscheiden, wenn Lambda-Abstraktionen beteiligt sind. Theorem 2.1.22 Komplexe Subjekte M λ χφ1 χφ2 , M λ χ(φ1 ∧ φ2 )χψ 6|=DLE ¬M λ χφ1 χ¬ψ M λ χφ1 χφ2 , M λ χ(φ1 ∧ φ2 )χψ |=DLE2/3 ¬M λ χφ1 χ¬ψ M λ χφ1 χφ2 , M λ χ(φ1 ∧ φ2 )χψ |=DLE0,95 ¬M λ χφ1 χ¬ψ M λ χφ1 χφ2 , M λ χ(φ1 ∧ φ2 )χψ |=DLE0,99 ¬M λ χφ1 χ¬ψ Beweis. Wir zeigen durch mehrere Schritte, die in Tabelle 2.6 dargestellt sind, inwiefern es überhaupt Kardinalitäten in der Interpretation geben kann, die eine Verträglichkeit von M λ χφ1 χφ2 und M λ χ(φ1 ∧φ2 )χψ mit M λ χφ1 χ¬ψ garantieren können. In Zeile 0 nehmen wir eine Variable an, die der Kardinalität der Menge von Elementen, die φ1 erfüllen, entspricht: |I(λ χφ1 )| = x. Aus den Wahrheitsbedingungen von M und der Prämisse M λ χφ1 χφ2 können wir in Zeile 1 folgern, wie groß |I(λ χ(φ1 ∧ φ2 ))| mindestens sein muss. Da die meisten Entitäten, die φ1 erfüllen, auch φ2 erfüllen, muss |I(λ χ(φ1 ∧ φ2 ))| in DLE größer als 2x sein, in DLE2/3 mindestens 2x 3 usw. Aus M λ χ(φ1 ∧ φ2 )χψ können wir in Zeile 2 weiterhin folgern, wie viele λ χ(φ1 ∧ φ2 ) mindestens ψ erfüllen und wie groß daher |I(λ χ(φ1 ∧ φ2 ∧ ψ))| sein muss. Dazu wenden wir wiederum die Wahrheitsbedingungen von M auf die vorherige Zeile an. So ergibt sich, durch nochmalige Multiplikation mit dem Grenzwert von M für DLE ein Wert, der größer als 4x ist, für DLE2/3 ein Wert, der nicht kleiner als 4x 9 ist, usw. Dieser Wert für die Kardinalität darf natürlich auch nicht von der mindestens ebenso mächtigen Menge I(λ χ(φ1 ∧ ψ)) unterschritten werden. Nun nehmen wir an, die Konklusion ¬M λ χφ1 χ¬ψ sei falsch und die meisten der Individuen, die φ1 erfüllen, erfüllen auch ¬ψ. Ebenso, wie in Zeile 1 der Wert von |I(λ χ(φ1 ∧ φ2 ))| eingeschränkt wurde, können wir in Zeile 3 |I(λ χ(φ1 ∧ ¬ψ))| näher bestimmen. Um einen späteren Vergleich mit Zeile 2 zu ermöglichen, werden die Brüche entsprechend erweitert. In Zeile 4 folgern wir aus Zeile 3, wie groß |I(λ χ(φ1 ∧ ψ))| höchstens ist, denn |I(λ χ(φ1 ∧ ¬ψ))| + |I(λ χ(φ1 ∧ ψ))| = |I(λ χφ1 )| = x. In Zeile 5 überprüfen

30

2.2 Quantoren: Vergleiche

Zeile

DLE

DLE2/3

DLE0,95

DLE0,99

x

x

x

x

0

|I(λ χφ1 )|

1

|I(λ χ(φ1 ∧ φ2 ))|

>

x 2



2x 3



19x 20

2

|I(λ χ(φ1 ∧ φ2 ∧ ψ))|

>

x 4



4x 9



361x 400

>

x 2



2x 3



19x 20

>

2x 4



6x 9



380x 400



9900x 10000



2x 4


) VM,g (∀χφ ) = 1 gdw φ M,g,χ = D. VM,g (∃χφ ) = 1 gdw φ M,g,χ 6= 0. / VM,g ([most]χφ ) = 1 gdw |φ M,g,χ | > |D − φ M,g,χ |. • B INÄRE Q UANTOREN (Typ < 1, 1 >) M,g,χ M,g,χ M,g,χ M,g,χ VM,g (([most2 ]χφ1 )φ2 ) = 1 gdw |φ1 ∩ φ2 | > |φ1 − φ2 |. Linguisten haben die Theorie der generalisierten Quantoren für die Untersuchung natürlicher Sprachen weiterentwickelt. Eine detaillierte Ausführung der Nutzung generalisierter Quantoren für die linguistische Forschung bietet der mittlerweile klassische Aufsatz von Barwise und Cooper (1981). In ihrer Behandlung der Quantoren nehmen Barwise und Cooper die Tatsache, dass viele Ausdrücke wie „die meisten” nicht als einstellige Quantoren behandelt werden 33

Vgl. Lindström (1966).

39

2 Quantitative Normalität können, zum Anlass, diese nicht als einfache Quantoren, sondern als Determinierer zu untersuchen. Ein Quantor besteht bei ihnen aus einem Determinierer, wie „die meisten”, und einem Mengenausdruck. Dies entspricht der natürlichsprachlichen Analyse, nach der eine Nominalphrase (noun-phrase) aus einem Determinierer und aus einem Nomen besteht. Die Quantoren ∀ und ∃ beziehen sich nach dieser Sichtweise nicht auf die Ausdrücke „alle” oder „einige”, sondern auf „alles” und „einiges”. In der englischen Sprache wird dieser allgemeine Bezug noch deutlicher: Wenn man sich auf die Gesamtheit der Dinge bezieht, wie es auch durch die klassischen Quantoren getan wird, sagt man nicht „every” und „some”, sondern „everything” und „something”. Sowohl die Bezeichnung „Determinierer” als auch dieses Vorgehen wurden in DL und DLE von der linguistischen Theorie der generalisierten Quantoren nach Barwise und Cooper (1981) übernommen. Ein wesentliches Ziel innerhalb der Theorie der generalisierten Quantoren besteht darin, die logischen Eigenarten von Determinierern in der natürlichen Sprache zu bestimmen. Einige wichtige Eigenschaften, die Determinierer beziehungsweise ihre korrespondierenden Quantoren des Typs < 1, 1 > häufig haben, sind hier aufgeführt: • Konservativität (KONSERV): Ein Determinierer ist konservativ, wenn bei der Bewertung nur die Dinge des Redebereiches eine Rolle spielen, die in der Extension des Begriffes sind, auf die sich der Determinierer bezieht: Det(S)(P) gdw Det(S)(S ∩ P). • Extensionalität (EXT): Ein Determinierer hat Extension, wenn seine Bedeutung unabhängig von einer Erweiterung des Redebereiches ist: Wenn S ⊆ D0 ⊆ D, dann gilt DetD (S)(P) gdw DetD0 (S)(P). • Quantität / Isomorphie (ISOM): Ein Determinierer ist quantitativ, wenn er nicht nach einzelnen Elementen, sondern nur nach der Anzahl der Elemente bewertet wird, welche die Extensionen und Schnittmengen jeweils enthalten: π sei eine Permutation im Redebereich, das heißt ein Austausch der Elemente untereinander, bei dem an jede Stelle, an der vorher ein Individuum war, ein anderes Individuum tritt. Die Kardinalitäten der Extensionen werden also nicht verändert. Es gilt Det(S)(P) gdw Det(π(S))(π(P)). Wenn ein Determinierer als Quantor vom Typ < 1, 1 > alle genannten Eigenschaften erfüllt, sind für seine Bewertung nur zwei Zahlen zu berücksichtigen:

40

2.3 Determinierer und Modalität a = |S ∩ P| und b = |S − P|. Relevant ist nur noch die Frage, wie viele S im Redebereich auch P sind und wie viele nicht. Alle Determinierer in DL und DLE erfüllen EXT, KONSERV und ISOM. Daher lassen sich auch deren Wahrheitsbedingungen ausschließlich durch die Zahlen a und b angeben: • A α χφ ist wahr gdw b = 0 (bei DLE zusätzlich a 6= 0). • E α χφ ist wahr gdw a 6= 0. • M α χφ ist wahr gdw a > b. Die Verbindung von DL und DLE zur Theorie der generalisierten Quantoren ist offensichtlich. Vom logisch-mathematischen Standpunkt aus kann MOST2 durch einige Verallgemeinerungen auf der Grundlage der Prädikatenlogik PL definiert werden. Durch die Erweiterung von PL um diesen binären Quantor entsteht eine Logik PL+MOST2 , die ebenso ausdrucksstark ist wie DL und DLE. In den Logiken DL und DLE wurde allerdings im Vorgehen eher den linguistischen Ansätzen gefolgt: Wir verstehen Quantoren als zusammengesetzte Ausdrücke mit einem Determinierer. Klassische Quantoren sind Randerscheinungen, bei denen das Subjekt der gesamte Redebereich ist. Der Vorzug des Ansatzes liegt in der größeren Nähe zur natürlichen Sprache. Darüber hinaus können wir den Determinierer „die meisten” auf diese Art und Weise auch auf modallogische Zusammenhänge anwenden, wie im nächsten Abschnitt dargestellt wird.

2.3 Determinierer und Modalität Sätzen wie „S sind normalerweise P” ist durch die Interpretation als „Die meisten S sind P” beizukommen. Anders sieht es mit „x ist normalerweise P” aus. Hier müssen wir im Sinne von „Meistens ist x P” interpretieren. Um auch diesen Satz formal zu erfassen, werden Ansätze aus dem letzten Abschnitt in Richtung von adverbialer Quantität und Modalität ausgelegt. Die bisherigen Ausführungen haben sich auf den Determinierer „die meisten” bezogen. Inwiefern die Ergebnisse auch auf „meistens” zu übertragen sind, soll nun dargestellt werden. Um modale Varianten der Logiken DL und DLE zu erhalten, mit denen auch „meistens” formalisiert werden soll, sind die Definitionen dieser Logiken in einigen Punkten zu erweitern. Ein wichtiger Teil der modalen Erweiterungen besteht in der Bildung der Modaloperatoren, die allerdings aus dem schon bestehenden Alphabet von DL beziehungsweise DLE gewährleistet wird. Ein

41

2 Quantitative Normalität Modaloperator unterscheidet sich, wie wir sehen werden, dadurch von einem Quantor, dass er nicht durch die Verbindung von Determinierern mit einstelligen Prädikaten, sondern mit Sätzen zustande kommt.

2.3.1 Definitionen von MDL und MDLE Wir beginnen zunächst mit dem Einbau möglicher Welten in die Modelle von MDL und MDLE. Es soll nur einen Redebereich geben, der für alle möglichen Welten genutzt wird. Wir wollen hier der Einfachheit wegen auch voraussetzen, dass tatsächlich alle Dinge, die in einer Welt vorkommen, auch in jeder anderen Welt sind.34 Definition 2.3.1 Modell für MDL Ein Modell M für MDL ist ein Tupel aus einer nicht-leeren, endlichen Menge möglicher Welten W und einem ebenso nicht-leeren, endlichen Redebereich D und einer Interpretation I, so dass gilt: 1. Wenn t eine Individuenkonstante von MDL ist, dann ist I(t) ∈ D. 2. Iw (=) = {hd, di : d ∈ D} für jede Welt w ∈ W . 3. Wenn αn ein n-stelliges Prädikat von MDL ist, dann ist Iw (α) ⊆ Dn für jede Welt w ∈ W , wobei Dn die Menge aller n-Tupel ist, die aus den Elementen von D gebildet werden können. 4. Wenn ∆α ein Quantor ist, dann ist Iw (∆α) ⊆ POW (Iw (α)) für jede Welt w ∈ W , so dass für M ⊆ Iw (α) gilt: a) M ∈ Iw (A α) gdw M = Iw (α). b) M ∈ Iw (E α) gdw M 6= 0. / c) M ∈ Iw (M α) gdw |M| > |Iw (α) − M|. Für MDLE sind Modelle ähnlich definiert. Es gibt jedoch eine Veränderung in Punkt 4: 34

42

Für spezielle philosophische Logiken ist dies nicht immer plausibel, denn damit geht der Ausschluss vom Vergehen und Entstehen von Individuen einher. Dennoch werden wir hier eine vereinfachte Logik vorschlagen, um die Behandlung von Fragen zu vermeiden, die wenig mit dem Problem von quantitativer Normalität zu tun haben.

2.3 Determinierer und Modalität Definition 2.3.2 Modell für MDLE Ein Modell M für MDLE ist ein Tupel aus einer nicht-leeren, endlichen Menge möglicher Welten W und einem ebenso nicht-leeren, endlichen Redebereich D und einer Interpretation I, so dass gilt: 1. wie in MDL. 2. wie in MDL. 3. wie in MDL. 4. Wenn ∆α ein Quantor ist, dann ist Iw (∆α) ⊆ POW (Iw (α)) für jede Welt w ∈ W , so dass für M ⊆ Iw (α) gilt: a) M ∈ Iw (A α) gdw M = Iw (α) und M 6= 0. / b) M ∈ Iw (E α) gdw M 6= 0. / c) M ∈ Iw (M α) gdw |M| > |Iw (α) − M|. Daraus ergeben sich für nicht-modale Sätze von MDL und MDLE folgende Wahrheitswerte: Definition 2.3.3 Wahrheitswerte Wenn M ein Modell, w ∈ W und g eine Belegung ist, dann ist der Wahrheitswert von φ unter Belegung g in einer Welt w und dem Modell M, VM,w,g (φ ), folgendermaßen bestimmt:

• VM,w,g (αt1 . . .tn ) = 1 gdw [[t1 ]]M,w,g , . . . , [[tn ]]M,w,g ∈ Iw (αn ). • VM,w,g (¬φ ) = 1 gdw VM,w,g (φ ) = 0. • VM,w,g (φ ∧ ψ) = 1 gdw VM,w,g (φ ) = 1 und VM,w,g (ψ) = 1. • VM,w,g (∆α χφ ) = 1 gdw es wenigstens ein M ∈ I(∆α) gibt, so dass für jedes d ∈ M gilt: VM,w,g[χ/d] (φ ) = 1. Aus diesen veränderten Definitionen ergibt sich noch keine Modallogik, denn es fehlen Modaloperatoren und modale Sätze. Ein Modaloperator kommt durch die Verbindung eines Satzes mit dem Determinierer zustande und wird als einstelliger Satzoperator genutzt. Definition 2.3.4 Syntax der Modaloperatoren und der modalen Sätze

43

2 Quantitative Normalität • Wenn φ ein Satz und ∆ ein Determinierer ist, dann ist ∆φ ein Modaloperator. • Wenn ∆φ ein Modaloperator und ψ eine Formel ist, dann ist ∆φ (ψ) eine Formel. Bezüglich der Definition ist zu bemerken, dass Modaloperatoren nur mit Sätzen und nicht mit Formeln, die freie Variablen enthalten, gebildet werden. Durch den Satz findet eine Restriktion des Modaloperators auf bestimmte Welten statt und zwar, entsprechend des Determinierers, auf alle, einige oder die meisten dieser Welten. Um mit einem vollständigen Modaloperator eine modale Formel zu bilden, sind alle Formeln zulässig. Um zur Semantik der Modaloperatoren voranzuschreiten, wird die Bedeutung eines Satzes als die Menge der möglichen Welten verstanden, in denen dieser Satz wahr ist. Dieses Verständnis von „Bedeutung” unterscheidet sich klar von Freges Gebrauch dieses Wortes, denn es bezieht sich auf die Intension statt auf die Extension. Ebenso wie bei der Interpretationsfunktion neben Prädikaten auch Quantoren berücksichtigt wurden, werden wir auch hier den Modaloperatoren eine Bedeutung zuweisen. In der folgenden Definition zeigt sich deutlich die Parallelität zwischen den Modaloperatoren und den Quantoren, die aus demselben Determinierer gebildet sind. Definition 2.3.5 Bedeutung MDL 1. Wenn φ ein Satz ist, dann gilt für [φ ]M , die Bedeutung des Satzes φ relativ zum Modell M: [φ ]M = {w ∈ W : V M,w,g (φ ) = 1}. 2. Wenn φ ein Satz ist, dann gilt für [∆φ ]M , die Bedeutung des Modaloperators ∆φ relativ zum Modell M: M ∈ [∆φ ]M gdw M ⊆ [φ ]M und a) für ∆ = A : M = [φ ]M . b) für ∆ = E : M 6= 0. / c) für ∆ = M : |M| > |[φ ]M − M|. Alternativ gilt für MDLE folgende abweichende Definition: Definition 2.3.6 Bedeutung MDLE 1. wie in MDL. 2. Wenn φ ein Satz ist, dann gilt für [∆φ ]M , die Bedeutung des Modaloperators ∆φ relativ zum Modell M: M ∈ [∆φ ]M gdw M ⊆ [φ ]M und

44

2.3 Determinierer und Modalität a) für ∆ = A : M = [φ ]M und M = 0. / b) für ∆ = E : M 6= 0. / c) für ∆ = M : |M| > |[φ ]M − M|. Schließlich ist der Wahrheitswert von Formeln mit Modaloperatoren ähnlich festgelegt wie im Falle von Quantoren. Definition 2.3.7 Wahrheitswerte für Modaloperatoren VM,w,g (∆φ ψ) = 1 gdw es wenigstens ein M ∈ [∆φ ]M gibt, so dass für jedes w0 ∈ M gilt: VM,w0 ,g (ψ) = 1. Es handelt sich bis zu diesem Punkt bei MDL und MDLE um modale Prädikatenlogiken. Um jedoch auch Sätze wie „Es regnet” ohne Prädikat-Subjekt-Struktur zu erfassen, werden wir schließlich noch Satzbuchstaben als eigenständige Zeichen definieren.35 Definition 2.3.8 Satzbuchstaben • „p” ist ein Satzbuchstabe. Wenn ψ ein Satzbuchstabe ist, dann auch ψ 0 . Sonst ist nichts ein Satzbuchstabe. • Jeder Satzbuchstabe ist eine atomare Formel. • Wenn ψ ein Satzbuchstabe ist, dann ist Iw (ψ) ∈ {1, 0}. • VM,w,g (ψ) = 1 gdw Iw (ψ) = 1. Damit ist es auch möglich, MDLE und MDL als modale Aussagenlogiken zu nutzen und auf Prädikate und Quantoren zu verzichten. Wir können nun dazu voranschreiten, einige logische Eigenschaften dieser beiden Logiken zu untersuchen.

2.3.2 Unmögliches: Das Verhältnis von MDL zu MDLE Aus den Definitionen von MDLE und MDL ergibt sich nun die Frage, welche Konsequenzen solche Definitionen für den existentiellen Import haben. Wir betrachten ⊥ als eine beliebige kontradiktorische Formel. Es gilt also [⊥]M = 0. / Für modale Sätze in MDL bedeutet das: 35

Aussagen lassen sich auch als 0-stellige Prädikatsymbole auffassen. Sie sind Prädikate, die ohne Individuenterme Sätze bilden.

45

2 Quantitative Normalität • VM,w,g ((A ⊥)ψ) = 1 gdw es eine Menge M = [⊥]M gibt, so dass für jede Welt w0 ∈ M gilt: VM,w0 ,g (ψ) = 1. Nun ist [⊥]M = 0/ und damit gilt M = 0. / • VM,w,g ((E ⊥)ψ) = 1 gdw es eine Menge M gibt, so dass M ⊆ [⊥]M , M 6= 0/ und für jede Welt w0 ∈ M gilt: VM,w0 ,g (ψ) = 1. Nun ist [⊥]M = 0/ und damit ist nur 0/ ⊆ 0. / Eine Menge M, so dass M ⊆ 0/ und M 6= 0, / gibt es aber nicht. • VM,w,g ((M ⊥)ψ) = 1 gdw es eine Menge M gibt, so dass M ⊆ [⊥]M und |M| > |[⊥]M − M| und für jede Welt w0 ∈ M gilt: VM,w0 ,g (ψ) = 1. Nun ist [⊥]M = 0. / Da aber |M ⊆ 0| / = 0 kann es eine Menge M, so dass |M| > |0/ − M|, nicht geben. Im Falle von E und M wird vorausgesetzt, dass es die Welten, auf die Bezug genommen wird, gibt. Es besteht existentieller Import. Da es die Menge M, welche die für Determinierer spezifischen Bedingungen erfüllt, nicht gibt, kann die allgemeine Forderung, dass für jede Welt w0 ∈ M VM,w0 ,g (ψ) = 1 gilt, nicht erfüllt werden. Was ist aber mit A ⊥, also mit „In allen widersprüchlichen Welten gilt φ ”? Dieser Satz ist wahr, denn trivialerweise gilt für jedes w0 ∈ 0: / VM,w0 ,g (ψ) = 1. Die Probleme, die sich daraus ergeben, sind dieselben wie bei den Quantoren. Die Schlussfolgerung von universeller über quasi-universelle zur partikulären Aussage ist auch für modale Ausdrücke nicht gegeben. Bei MDLE ist die Situation für den universellen Determinierer anders: • VM,w,g ((A ⊥)ψ) = 1 gdw es eine Menge M = [⊥]M und M 6= 0/ gibt und für jede Welt w0 ∈ M gilt: VM,w0 ,g (ψ) = 1. Nun ist [⊥]M = 0/ und es gibt keine Menge M, so dass M = 0/ und M 6= 0. / Für andere Determinierer ergeben sich keine Veränderungen. Da nun aber allgemein in MDLE VM,w,g ((∆⊥)ψ) = 0 gilt, besteht kein Gegenmodell zu (A φ )ψ |= (M φ )ψ.

2.3.3 Notwendiges: MDL / MDLE und S5 Den zweiten interessanten Grenzfall des Determiniererbezugs bei der Bildung von Modaloperatoren stellt die Tautologie dar. In diesem Zusammenhang ist auch das Verhältnis von MDL und MDLE zu anderen Modallogiken zu diskutieren.

46

2.3 Determinierer und Modalität Zunächst ist festzuhalten, dass wir in MDLE und MDL, anders als es in vielen Modallogiken üblich ist, darauf verzichtet haben, Zugänglichkeitsrelationen in das Modell aufzunehmen. Stattdessen sind alle Welten prinzipiell zugänglich. Es wurde gezeigt, dass eine Modallogik ohne Zugänglichkeitsrelation einer Modallogik mit einer Zugänglichkeitsrelation, die transitiv, reflexiv und symmetrisch ist, entspricht.36 Insofern gleichen MDLE und MDL der Logik S5. Unter den modalen Prädikatenlogiken sind weiterhin solche mit einem übergreifenden Redebereich und solche mit variablen Redebereichen für jede Welt zu unterscheiden. MDL und MDLE sind Logiken mit einem einzigen Redebereich. Am ehesten sind sie somit mit der prädikatenlogischen Variante von S5 mit einem konstanten Redebereich vergleichbar. Der Benennung von Graham Priest folgend, nennen wir diese Logik CS5, wobei „C” auf den konstanten Redebereich verweist.37 Das genaue Verhältnis von CS5 zu MDL und MDLE ist durch den Grenzfall einer tautologischen Wenn-Klausel bestimmt: Lemma 2.3.9 Die Semantik von A > und E > in MDL / MDLE gleicht der von  und ♦ in CS5. Beweis. Die Semantik von  und ♦ in CS5 lautet: VM,w,g (ψ) = 1 gdw für jede Welt w0 ∈ W gilt: VM,w0 ,g (ψ) = 1, und VM,w,g (♦ψ) = 1 gdw für wenigstens eine Welt w0 ∈ W gilt: VM,w0 ,g (ψ) = 1. Unsere Definition lautet: VM,w,g ((A φ )ψ) = 1 gdw es eine Menge M = [φ ]M (und in MDLE M 6= 0) / gibt, so dass für jede Welt w0 ∈ M gilt: VM,w0 ,g (ψ) = 1. VM,w,g ((E φ )ψ) = 1 gdw es eine Menge M ⊆ [φ ]M und M 6= 0/ gibt und für jede Welt w0 ∈ M gilt: VM,w0 ,g (ψ) = 1. Für > gilt: [>]M = W , da eine Tautologie in jeder Welt gilt. Somit können wir unsere Definitionen umformulieren: VM,w,g ((A >)ψ) = 1 gdw es eine Menge M = W gibt, so dass für jede Welt w0 ∈ W gilt: VM,w0 ,g (ψ) = 1. Diese Formulierung ist äquivalent zu der oben gegebenen Definition für  in CS5. VM,w,g ((E >)ψ) = 1 gdw es eine Menge M ⊆ W und M 6= 0/ gibt und für jede Welt w0 ∈ M gilt: VM,w0 ,g (ψ) = 1. Es gibt eine Menge M ⊆ W und M 6= 0, / so dass für jede Welt w0 ∈ M: VM,w0 ,g (ψ) = 1 0 gilt, gdw es ein w ∈ W gibt, so dass VM,w0 ,g (ψ) = 1. Damit gelten auch hier dieselben Wahrheitsbedingungen zu den gegebenen Definitionen wie für ♦ in CS5. 36 37

Vgl. Priest (2008), S.45. Es gibt im Hinblick auf die möglichen Modelle zwar Unterschiede. Diese wirken sich aber nicht auf die logischen Folgerungen aus. Vgl. Priest (2008), S.308.

47

2 Quantitative Normalität Daher können wir die klassisch bekannten S5-Modaloperatoren auch in MDL und MDLE als Abkürzungen definieren: • K LASSISCHE M ODALOPERATOREN de f

1.  = A >. de f

2. ♦ = E >. Dies ist wiederum ein Hinweis darauf, dass MDL und MDLE Erweiterungen der modalen Prädikatenlogik CS5 und, da es auch Satzbuchstaben gibt, der modalen Aussagenlogik S5 darstellen: Theorem 2.3.10 S5 und CS5 sind Teillogiken von MDL und MDLE: Wenn ∆ |=CS5 φ oder ∆ |=S5 φ , dann ∆ |=MDL φ und ∆ |=MDLE φ . Beweis. Mit der Definition der Modaloperatoren stehen zunächst alle Zeichen des Alphabets von S5 und CS5 zur Verfügung. Junktoren sind semantisch genauso definiert wie in S5 und CS5. Somit bleibt als einziger Unterschied die Modalität. Nun haben wir aber, wie im obigen Lemma gezeigt, zu den S5Operatoren passende Definitionen gefunden. Da es in den einzelnen Operationen keine semantischen Unterschiede gibt und die Gültigkeit in beiden Logiken in selber Weise auf der Grundlage der Semantik definiert ist, ist S5 eine Teillogik von MDL und MDLE. Für CS5 sind die Teile von MDL und MDLE, die auch Teile von PL sind, zu berücksichtigen. Wir wissen aus dem vorigen Abschnitt, dass PL eine Teillogik von DL und DLE und damit natürlich auch von MDL und MDLE ist. Hinzu kommen nur die Modaloperatoren, deren semantische Entsprechung im obigen Lemma gezeigt wurde. Auch hier unterliegen Formeln, die syntaktisch CS5-Formeln gleichen, denselben semantischen Regeln wie in CS5. Da der Gültigkeitsbegriff wiederum identisch ist und gleichermaßen auf der Semantik beruht, ist CS5 eine Teillogik von MDL und MDLE. Unabhängig davon, dass S5 und CS5 Teilsprachen unserer hier definierten Logiken sind, können wir uns fragen, inwiefern Formeln von MDL und MDLE auch in äquivalente Formeln von S5 und CS5 übertragbar sind. Betrachten wir

48

2.3 Determinierer und Modalität also äquivalente Formalisierungen für „Mitunter q, wenn p” und „Immer q, wenn p”.38 • M ITUNTER Q , WENN P 1. Mit ♦ (als definiertem Zeichen): ♦(p ∧ q) Es gibt mindestens eine Welt, in der „p ∧ q” wahr ist, also eine Welt, in der sowohl p als auch q gilt. 2. Mit E : (E p)q Unter allen Welten, in denen p wahr ist, ist auch eine Welt, in der auch q gilt. Es muss also eine Welt geben, in der sowohl p als auch q gilt. • I MMER Q , WENN P 1. Mit  (als definiertem Zeichen): (p → q) In allen Welten ist „p → q” wahr. Also gibt es keine Welt, in der p gilt, aber q nicht gilt. 2. Mit A : (A p)q MDL: In allen Welten, in denen p wahr ist, ist q wahr. Es gibt also keine Welt, in der p gilt, aber q nicht. MDLE: Darüber hinaus gibt es auch mindestens eine Welt, in der p gilt. Die MDLE Formel „(A p)q” ist daher nicht äquivalent zu „(p → q)”, sondern zu „(p → q) ∧ ♦p”. Ebenso wie bei DL / DLE und PL kann auch hier weiter vorgegangen werden, um zu zeigen, dass alle Formeln ohne den Determinierer M äquivalente Entsprechungen in CS5 mit Satzbuchstaben haben. Dies soll jedoch nicht weiter thematisiert werden. Wichtig ist zu bemerken, dass „meistens, wenn” in keiner dieser bekannten Modallogiken ausdrückbar ist und allgemein nicht durch einen einstelligen Modaloperator zu erfassen ist.

2.3.4 Determinierer und Modalität Die Logiken MDL und MDLE sind auf der Ebene der Modalität ebenso von dem Verhalten der Determinierer geprägt wie auf der Ebene der Quantoren. 38

Damit ist nicht die alltagssprachlich höchst seltene Aussage gemeint, dass mitunter oder immer q gilt, wenn im aktualen Fall p gilt, sondern die Aussage, dass in allen Fällen beziehungsweise einigen der Fälle, in denen p gilt, auch q gilt.

49

2 Quantitative Normalität Q UANTITÄT Alle

D ETERMINIERER A

M ODALITÄT Immer

M

Meistens

E

Mitunter

⇓ Die meisten



⇓ Einige



Tabelle 2.7: Hierarchie der Determinierer

Die Hierarchie der Determinierer bestimmt beide Ebenen. Dies zeigt Tabelle 2.7.39 Entscheidend ist, dass die Regeln der Determinierer für Quantoren und Modaloperatoren jeweils auf gleiche Weise die Semantik von Quantoren und Modaloperatoren bestimmen und somit eine Parallelität zwischen Quantität und Modalität schaffen. Entsprechend kann in angepasster Form für Modalität das übernommen werden, was schon im letzten Abschnitt für Quantoren festgehalten wurde. Auch hier beschränken wir uns wieder auf MDLE: Theorem 2.3.11 Subalternation, Schlussfolgerungen zum Aktualen, konträre und subkonträre Gegensätze (A ψ)φ |= (M ψ)φ ; (M ψ)φ |= (E ψ)φ ; (A ψ)φ |= (E ψ)φ (A ψ)φ , ψ |= φ ; (M ψ)φ , ψ 6|= φ ; (E ψ)φ , ψ 6|= φ Von diesen Formeln ist in jedem Modell jeweils wenigstens eine falsch: (A ψ)φ , (A ψ)¬φ ; (M ψ)φ , (M ψ)¬φ Von diesen Formeln ist in jedem Modell jeweils wenigstens eine wahr: (E ψ)φ , (E ψ)¬φ Diese Regeln des logischen Quadrats sind parallel zu den entsprechenden Regeln der Quantoren und können parallel bewiesen werden. Im Übrigen ergeben sich dieselben logischen Gesetze und Probleme, die wir bereits in Bezug auf Quantoren kennengelernt haben. Auch wenn zusätzlich Junktoren zu berücksichtigen sind, sind Modaloperatoren den Quantoren logisch ähnlich: 39

50

Die adverbiale beziehungsweise modale natürliche Entsprechung von „die meisten” hat eine deutlich temporale Komponente. Dem wurden hier auch die anderen modalen Ausdrücke angepasst. Damit wollen wir uns nicht auf eine Interpretation im Sinne einer Zeitlogik festlegen. Es geht eher um alternative Situationen oder Fälle.

2.3 Determinierer und Modalität A p(A Sx(Px)) A p(M Sx(Px)) A p(E Sx(Px))

M p(A Sx(Px)) M p(M Sx(Px)) M p(E Sx(Px))

E p(A Sx(Px)) E p(M Sx(Px)) E p(E Sx(Px))

Tabelle 2.8: Modalität de dicto A Sx(A p(Px)) M Sx(A p(Px)) E Sx(A p(Px))

A Sx(M p(Px)) M Sx(M p(Px)) E Sx(M p(Px))

A Sx(E p(Px)) M Sx(E p(Px)) E Sx(E p(Px))

Tabelle 2.9: Modalität de re

Theorem 2.3.12 Junktoren und Modaloperatoren (∆ψ)φ |= (∆ψ)(φ ∨ ψ) (A ψ)φ1 , (A ψ)φ2 |= (A ψ)(φ1 ∧ φ2 ) (M ψ)φ1 , (M ψ)φ2 6|= (M ψ)(φ1 ∧ φ2 ) (M ψ)φ1 , (M ψ)φ2 |= (E ψ)(φ1 ∧ φ2 ) Auch hier sind die Beweise parallel zu den entsprechenden Theoremen für Quantoren zu führen.

2.3.5 Modaloperatoren und Quantoren: de dicto und de re Bisher wurden nur Formeln berücksichtigt, die entweder ausschließlich Modaloperatoren oder ausschließlich Quantoren enthalten. Natürlich kann beides auch zusammen auftreten, was zahlreiche Kombinationen ermöglicht. Bei einem Beispiel mit einer Restriktion durch den Satz p, dem Subjekt S und dem Prädikat P gibt es immerhin schon 18 verschiedene Kombinationen. Die ersten neun beginnen mit Modaloperatoren, sind also in klassischer Begrifflichkeit Modalitäten de dicto.40 Weitere neun haben Modaloperatoren innerhalb des Bereichs der Quantoren und sind somit modal de re.41 Keine dieser 18 Formeln ist zu einer anderen äquivalent. Am ehesten würde man dies bei A Sx(A p(Px)) und A p(A Sx(Px)) vermuten. Dies ist aber nicht der Fall, denn A S bezieht sich in beiden Formeln auf etwas anderes, weil S in 40 41

Vgl. Tabelle 2.8. Vgl. Tabelle 2.9.

51

2 Quantitative Normalität verschiedenen Welten eine andere Extension haben kann.42 Die erste Formel besagt, dass alle S in jedem p-Fall P sind, und die zweite, dass in jedem p-Fall alle S P sind. Ein Beispiel dafür sind die Sätze: „Alle Schüler der Klasse 6b sind immer laut, wenn es heiß ist” und „Immer, wenn es heiß ist, sind alle Schüler der Klasse 6b laut”. Keine dieser beiden Aussagen impliziert die andere, weil nicht zwingend in allen unterschiedlichen Fällen haargenau dieselben Kinder Schüler der Klasse 6b sind. Auch zwischen den anderen Modalitäten de re und de dicto bestehen aus demselben Grund keine unmittelbaren logischen Gesetzmäßigkeiten. Dieses Ergebnis ist insofern bedeutsam, als gemischte Normalitätsaussagen der Form „Normalerweise sind S, wenn p der Fall ist, P” durch zwei verschiedene Aussagen statistisch interpretiert werden können: „Meistens, wenn p der Fall ist, sind die meisten S P” oder „Die meisten S sind meistens, wenn p der Fall ist, P”. Dem entsprechen die Formeln M p(M Sx(Px)) und M Sx(M p(Px)), die, wie festgestellt, nicht äquivalent sind. Für welche der Formeln sollen wir uns entscheiden? Betrachten wir den Satz „Nachts schlafen Menschen normalerweise”. Heißt das „Für die meisten Nächte gilt, dass die meisten Menschen schlafen” oder „Für die meisten Menschen gilt, dass sie nachts meistens schlafen”? Mithilfe unserer natürlichsprachlichen Intuition fällt es schwer, zwischen diesen beiden Sätzen zu unterscheiden. Dies hat einen guten Grund, denn es besteht zwischen ihnen nur ein Unterschied, wenn in unterschiedlichen Fällen andere Individuen Menschen sind. „Mensch” ist allerdings ein Begriff, dessen Extension in verschiedenen Fällen stabil ist. „Einmal Mensch, immer Mensch” ist ein intuitiv einleuchtendes Prinzip.43 Bei vielen anderen Worten, wie „Lügner” und „Verlierer”, gilt dies nicht. Für die Übersetzung von gemischten Normalitätsaussagen können wir Folgendes festhalten: • P RINZIP 1: Wenn der Subjektbegriff über verschiedene Fälle in seiner Extension stabil ist, sind beide quantitativen Interpretationen äquivalent und somit gleichermaßen als Deutung einer gemischten Normalitätsaussage geeignet. 42 43

52

In modaler Prädikatenlogik lauten die entsprechenden Formeln: ∀x(Sx → (p → Px)) und (p → ∀x(Sx → Px)). Von Besonderheiten, die aus der Frage des Status von nicht (mehr) existenten Individuen entstehen, zum Beispiel historischen oder fiktiven Gestalten, wollen wir dabei absehen.

2.4 Vergleich: Quantität in Adverbien Ein anderes Beispiel für eine gemischte Normalitätsaussage ist „Nachts bleiben Nachtwächter normalerweise wach”. Hier ist die Interpretation „In den meisten Nächten gilt, dass die meisten Nachtwächter wach bleiben” und nicht „Für die meisten Nachtwächter gilt, dass sie in den meisten Nächten wach bleiben” naheliegend. Menschen, die Nachtwächter sind, können verschiedene Schlafgewohnheiten haben, wenn sie nicht im Dienst sind. Insofern geht es in dieser Normalitätsaussage nicht um die Individuen, die aktual Nachtwächter sind, sondern darum, was es heißt, diese Rolle innezuhaben. In diesem Fall sprechen wir in erster Linie vom Subjektbegriff und nicht von den Individuen, die derzeit in seiner Extension sind. Dabei müssen wir folgendes Prinzip anwenden: • P RINZIP 2: Wenn wir das Normalitätsurteil auf den Subjektbegriff als Konzept beziehen, ist eine Interpretation durch eine Aussage de re zu nutzen. Anders sieht die Sache in „Die Schüler der 6b sind im Sommer normalerweise faul” aus. Hier wollen wir offensichtlich etwas über Individuen sagen, die die Klasse 6b besuchen. Dies wird daran deutlich, dass im nächsten Schuljahr Urteile über die Schüler der 6b auf die der 7b übertragen werden. Hier sprechen wir also von den Individuen, die aktual unter den Subjektbegriff fallen und nicht über die Rolle, die im Subjektbegriff umschrieben ist. Damit kommt ein anderes Prinzip zur Anwendung: • P RINZIP 3: Sprechen wir von den Individuen, auf die wir mit einem Begriff verweisen, ist eine Übertragung zu einer Aussage de dicto angebracht. Mit diesen Prinzipien ist ein Wegweiser angegeben, wie gemischte Normalitätsaussagen statistisch interpretiert werden können. Dabei wird es in vielen Fällen nicht immer so klar wie in den vorgeführten Beispielen sein, welches Prinzip zur Anwendung kommen muss. Einiges muss den sprachlichen Intuitionen überlassen werden. Ein Teil der Formalisierung wird darin bestehen, sich über diese Intuitionen Klarheit zu verschaffen.

2.4 Vergleich: Quantität in Adverbien Wir haben bereits gesehen, dass die Ergebnisse von MDL und MDLE in engem Zusammenhang zur Modallogik, welche ein zentrales Thema der Philosophie

53

2 Quantitative Normalität und Logik ist, stehen. Die entscheidende Eigenart von MDL und MDLE ist dabei, dass Quantität und Modalität durch die Determinierer besonders eng miteinander verbunden werden. Auch diese Idee ist nicht vollkommen neu. Zum Vergleich werden wir David Lewis’ Arbeit „Adverbs of Quantification” betrachten. Lewis schlägt folgende Einteilung quantitativer Adverbien vor: (1) Always, invariably, universally, without exception (2) Sometimes, occasionally, [once] (3) Never (4) Usually, mostly, generally, almost always, with few exceptions, [ordinarily], [normally] (5) Often, frequently, commonly (6) Seldom, infrequently, rarely, almost never Bracketed items differ semantically from their list-mates in ways I shall not consider here.44

Auffällig ist hier, dass Lewis „normally” in einem Atemzug mit „mostly” nennt, also offenbar ein quantitatives Normalitätskonzept voraussetzt, dabei allerdings semantische Unterschiede einräumt, die er jedoch nicht weitergehend behandelt. Auf den folgenden Seiten seines Aufsatzes widmet sich Lewis den möglichen Antworten auf die Frage: Worüber quantifizieren solche Ausdrücke? Schließlich schlägt Lewis vor, modale Quantifizierungen wie „meistens” auf unterschiedliche Fälle zu beziehen. Die Quantifizierung findet bei solchen Adverbien, so Lewis, durch sogenannte „unselective Quantifiers” statt: „That is what I claim; the unselective ∀ and ∃ can show up as the adverbs always, and sometimes”.45 Während ein gewöhnlicher Quantor prinzipiell mit Variablen verbunden wird, also als ∀x auftritt und angibt, an welchen Stellen in einer Formel Variablen berücksichtigt werden müssen, werde mit quantitativen Adverbien anders verfahren. Sie können durch einen Quantor formalisiert werden, der sich immer auf alle freien Variablen in seinem Skopus bezieht. In einer vorläufigen Zusammenfassung sagt Lewis: „Our adverbs are quantifiers over cases; a case may be regarded as the 0 tuple of its participants; and the participants are values of the variables that occur free in the open sentence modified by the adverb”.46 44 45 46

54

Lewis (1998), S.5. Lewis (1998), S.10. Lewis (1998), S.10.

2.5 Die quantitative Deutung der Normalität David Lewis widmet sich sodann der Einschränkung durch „Wenn”-Klauseln. Dabei kann ein Satz wie „Wenn es regnet, bleibt A meistens zu Hause” theoretisch als [Meistens] + [Wenn es regnet, bleibt A zu Hause] oder als [Meistens, wenn] + [Es regnet] + [A bleibt zu Hause] analysiert werden. Beide Analysen sind grundsätzlich verschieden. Dabei entspricht nur die zweite der Semantik des natürlichsprachlichen Satzes. Lewis kommt zu dem Ergebnis, „that the if of our restrective if-clauses should not be regarded as a sentential connective. It has no meaning apart from the adverb it restricts”.47 Dabei bemerkt er Folgendes: Sentence (39) [die zweiteilige Konstruktion - Anmerkung Verf.] is true iff the conditional If ψ, φ is true in all, some, none, most, many, or few of the admissible cases - that is, of the cases that satisfy any permanent restrictions, disregarding the temporary restrictions, imposed by the ifclause. But is there any way to interpret the conditional If ψ, φ that makes (39) equivalent to (38) [die dreiteilige Konstruktion] for all six groups of our adverbs? No; if the adverb is always we get the proper equivalence by interpreting it as the truth-functional conditional ψ ⊃ φ , whereas if the adverb is sometimes or never, that does not work, and we must instead interpret it as the conjunction φ &ψ. In the remaining cases, there is no natural interpretation that works.48

Diese Ausführungen von Lewis lassen sich mit MDL und MDLE darstellen, wobei ∆ψφ die dreistellige Konstruktion und ∆> die modale Grundlage der zweiteiligen Konstruktion ist. Anstatt auf Quantoren können wir uns auf Determinierer beziehen. Damit ist es in MDL und MDLE auch nicht nötig, von unselektierenden Quantoren zu sprechen. Stattdessen gibt es Determinierer, die in zweierlei Hinsicht selektiv sind, nämlich begrifflich oder propositional. Die erste Variante führt zu einem Quantor, die zweite zu einem quantitativen Adverb in Lewis’ Sinne. Grundsätzliche Ideen Lewis’ zu quantitativen Adverbien, wie „immer”, „mitunter” und „meistens”, lassen sich dabei in MDL und MDLE formal nachvollziehen.

2.5 Die quantitative Deutung der Normalität Die letzten Seiten widmeten sich ausschließlich der Logik quantitativer Aussagen. Nun bleibt die Frage zu klären, was all diese Bestimmungen und Ergebnisse 47 48

Lewis (1998), S.10. Lewis (1998), S.14.

55

2 Quantitative Normalität N ORMALITÄTSAUSSAGE S sind normalerweise P. Bei p ist a normalerweise P. Bei p sind S normalerweise P.

Q UANTITATIVE AUSSAGE & MDLE-F ORMEL Die meisten S sind P. M Sx(Px) In den meisten p-Fällen ist a P. M p(Pa) Die meisten S sind in den meisten p-Fällen P. M Sx(M p(Px)) In den meisten p-Fällen sind die meisten S P. M p(M Sx(Px))

Tabelle 2.10: Quantitative Deutung für „normalerweise”

von MDLE für das quantitative Konzept der Normalität bedeuten. Ausgangspunkt ist dabei der Determinierer „die meisten”. Die Logik des Determinierers M weist Eigenschaften auf, die sich mit dem Ausdruck quasi-universell umschreiben lassen. Das heißt, dass es sich um einen starken Determinierer handelt, der dem universellen Determinierer „alle” ähnelt, aber einige wichtige Gesetze der Universalität nicht erfüllt. Bei Quasi-Universalität besteht ein konträrer Gegensatz zwischen einer Aussage und ihrer inneren Negation. Aus quasiuniversellen Aussagen lässt sich, ebenso wie aus universellen, auf partikuläre Sätze schließen. Allerdings sind sie schwächer als universelle Aussagen, was sich auch darin zeigt, dass quasi-universelle Sätze durch universelle impliziert werden. Diese Eigenschaften werden im quantitativen Konzept der Normalität von den Normalitätsaussagen, die mit „normalerweise” gebildet werden, übernommen.

2.5.1 Normalerweise Im quantitativen Sinne von Normalität können Aussagen mit „normalerweise” in solche mit „die meisten” und „meistens” übertragen werden. Wir haben nun mit MDLE eine formale Sprache, in der wir diese quantitative Deutung festhalten können. Formal wird der Tabelle 2.10 entsprechend in MDLE übersetzt, wobei für gemischte Normalitätsurteile zwei verschiedene, nicht äquivalente Übersetzungen in Frage kommen. Durch den Determinierer „die meisten” wird somit bestimmt, welchen logischen Regeln gattungsbezogene Normalitätsannahmen im quantitativen Sinne unterliegen. Die Regeln sollen in diesem Abschnitt

56

2.5 Die quantitative Deutung der Normalität festgehalten und diskutiert werden. Zunächst wollen wir aber einen Blick auf die Wendung „Es ist normal, dass...” oder „Es ist für ... normal, dass...” werfen.

2.5.2 Normal Dass es normal ist, dass S P sind, beziehungsweise es für ein S normal ist, P zu sein, ist eine deutlich schwächere Aussage als die, dass S normalerweise P sind. Während „S sind normalerweise P und S sind normalerweise nicht P” paradox ist, gibt es gute Gründe, „Es ist normal, dass S P sind, und es ist normal, dass S nicht P sind” nicht für widersprüchlich zu halten.49 So ist es zum Beispiel normal für Säugetiere, weiblich zu sein, und auch normal, männlich zu sein. Da keine Normalitätsannahme dem Weiblich-Sein oder Nicht-Weiblich-Sein bei Säugetieren widerspricht, sind beide Sätze, „Es ist normal für Säugetiere, weiblich zu sein” und „Es ist normal für Säugetiere, nicht weiblich zu sein”, akzeptabel. Diese schwächeren Aussagen mit „normal” ebenso wie die stärkeren mit „normalerweise” nennen wir gleichermaßen Normalitätssätze. Die Intuition, dass eine Aussage mit „es ist normal, dass” wahr ist, wenn sie nicht einer Normalitätsaussage mit gegenteiligem Inhalt widerspricht, lässt sich gut ins quantitative Konzept der Normalität einbauen. Dies bedeutet, dass „Es ist normal, dass S P ist” dual zu „Normalerweise ist S P” ist. Dementsprechend ist zu vermuten, dass „Es ist normal, dass S P ist” als „Es ist nicht der Fall, dass die meisten S nicht P sind”, formal ¬M Sx¬Px, zu deuten ist. Doch wie wir wissen, wäre eine solche Aussage immer trivialerweise wahr, wenn es keine S gibt. Um dies zu verhindern, deuten wir „Es ist normal” nicht allein durch „die meisten”, sondern fordern weiterhin, dass es das Subjekt gibt beziehungsweise, im modalen Fall, dass die restriktive Proposition in wenigstens einigen Fällen erfüllt wird. Dementsprechend ergibt sich die quantitative Deutung für „normal”, die wir in Tabelle 2.11 finden. Dadurch, dass auch diese schwächeren Aussagen über Normalität Existenzannahmen unterstellen, sind „Es ist normal, dass” und „normalerweise” nicht mehr dual zueinander.50 49 50

Dies ist nicht zu verwechseln mit der klar falschen Aussage, dass es für S normal ist, P und nicht P zu sein. Die Forderung des existentiellen Imports soll an dieser Stelle die Semantik von „normal” an „normalerweise” annähern. Davon abgesehen ist es schwer zu entscheiden, ob Normalitätssätze existentiellen Import haben sollen oder nicht. Im Grundsatz ist das dargelegte quantitative Verständnis von „normal” auch mit einer anderen Entscheidung bezüglich des existentiellen Imports kompatibel.

57

2 Quantitative Normalität S CHWACHER N ORMALITÄTSSATZ Es ist normal, dass S P sind. Es ist normal, dass wenn p, a P ist. Es ist normal, dass wenn p, S P sind.

MDLE-F ORMEL ¬M Sx¬Px ∧ ∃xSx ¬M p¬Pa ∧ ♦p ¬M Sx(M p¬Px) ∧ ∃xSx ∧ ♦p ¬M p(M Sx¬Px) ∧ ∃xSx ∧ ♦p

Tabelle 2.11: Quantitative Deutung von „normal”

2.5.3 Normalität im logischen Quadrat Entscheidend für Normalität im quantitativen Sinne ist eine bestimmte Stellung in einem erweiterten logischen Quadrat. Dazu gehört die hierarchische Ordnung, in der sich beide Arten von Normalitätssätzen zwischen Partikularität und Universalität finden lassen. Die Ausdrücke „normal” und „normalerweise” werden damit als Stufen eines erweiterten logischen Quadrats zwischen „alle” und „einige” beziehungsweise „immer” und „mitunter” verstanden. Dadurch, dass wir allen bejahenden Aussagen eine Existenzpräsupposition unterstellen, präsentiert sich in Abbildung 2.6 ein weitestgehend intaktes logisches Quadrat der Normalität. Grundsätzlich haben Normalitätsaussagen konträre Gegensätze. Anders sieht es mit Normalitätssätzen aus, die mit dem Wort „normal” gebildet werden. Für diese schwächeren Normalitätssätze liegt insofern ein subkonträrer Gegensatz vor, als von zwei erschöpfenden Alternativen mindestens eine normal sein muss. Was für alle gilt und was in allen Fällen gilt, ist prima facie auch normal. Was hingegen für keinen und niemals gilt, kann nicht normal sein. Ebenso wie der Satz „Einige Menschen sind sterblich” aus logischer Sicht gerechtfertigt ist, wenn alle Menschen sterblich sind, sollten auch quantitative Normalitätsurteile durch Allaussagen gerechtfertigt sein. Wir legen eine Hierarchie zugrunde, die Implikationen von stärkeren zu schwächeren Urteilen erlaubt. Das heißt natürlich auch, dass aus einer schwächeren Aussage nicht geschlossen werden darf, dass die stärkere falsch ist.51 Unter diesen Grundannahmen dürfte es unumstritten sein, dass Normalität subaltern aus Universalität folgt. 51

58

Nach wie vor einschlägig und wegweisend in der Frage, ob zum Beispiel „Einige Menschen sind sterblich” eine falsche Aussage darstellt, ist die Theorie der konversationellen Implikaturen von Paul Grice (1989). Dieser argumentiert, dass eine solche Untertreibung nicht sachlich falsch, aber bei kooperativer Kommunikation äußerst irreführend ist.

2.5 Die quantitative Deutung der Normalität Alle / Immer

Keiner / Nie

B

 B B

  B

? Normalerweise

? Normal

? Einige / Mitunter

 B

 B

?



Unnormal @ B  @B  @B @ B  B@ ?  B @ Nicht normalerweise  B  B  B  B  B ?  B

Nicht alle / Nicht immer

Kontradiktorisch Konträr Subkonträr

Abbildung 2.6: Logisches Quadrat mit Normalität

2.5.4 Normalität und aussagenlogische Verbindungen Neben dem Verhältnis der Determinierer zueinander und zur Negation sind auch die logischen Regeln interessant, die sich ergeben, wenn Normalitätsurteile und Satzverknüpfungen zusammenspielen. Dabei können Normalitätsaussagen als Teile von Alternation und Konjunktion auftreten. Wer davon ausgeht, dass A normalerweise der Fall ist, darf ohne weiteres auch davon ausgehen, dass A oder B normalerweise der Fall ist. Da dies ebenso für viele andere logische Ausdrücke wie „alle”, „einige”, „immer” oder „mitunter” gilt, könnte man meinen, dass die alternative Erweiterbarkeit von Normalitätsaussagen selbstverständlich ist. Sie ist es jedoch nicht. Der Eindruck, dass sie es

59

2 Quantitative Normalität ist, entspringt der Annahme, dass Normalität logisch und philosophisch grundsätzlich den anderen genannten logischen Modi gleicht.52 Daher ist es durchaus notwendig, die alternative Erweiterung näher zu erläutern und zu begründen. Wer meint, dass Menschen normalerweise mit genau einem X-Chromosom und genau einem Y-Chromosom oder mit genau zwei X-Chromosomen ausgestattet sind, der hat ein Normalitätsurteil für wahr erachtet, das sich auf eine Alternation bezieht. Beide Bestandteile der Alternation sind wesentlicher Inhalt der Normalitätsannahme. Keine der beiden Teilaussagen würde für sich genommen ein Normalitätsurteil erlauben. Der Effekt dieser Normalitätsalternation scheint in der Anwendung der Normalitätsaussage deutlich zu werden: Wenn eine der alternativen Normalitätsbedingungen nicht erfüllt ist, wird die Prognose gerechtfertigt, dass der zweite Teil der Alternation zutreffen wird. Dazu ein Beispiel: Von einem Kind erfahren wir, dass es nicht ein Y- und ein X-Chromosom hat. Daher gehen wir nun davon aus, dass das Kind voraussichtlich genau zwei X-Chromosomen hat. Erlauben wir nun alternative Erweiterbarkeit, wie in der Normalitätsdeutung durch MDLE, geht dieser Effekt verloren. In dem quantitativen Konzept der Normalität ist die Argumentationsstruktur vom Scheitern einer Normalitätsalternative zur Prognose der anderen Alternative nicht möglich. Dies scheint gegen die alternative Erweiterbarkeit von Normalität zu sprechen. Für das quantitative Konzept von Normalität ist es aber wichtig, dass Erwartungen, die sich aus Normalitätsannahmen ergeben, durch Wahrscheinlichkeiten dargestellt werden können, wie im nächsten Abschnitt diskutiert wird. Mit Sicht auf Wahrscheinlichkeit wäre es aber inkohärent, eine Aussage p für wahrscheinlicher zu halten als ihre logische Konsequenz p ∨ q. Der Idee, dass eine Alternation nur echte Normalitätsalternativen angeben sollte, kann dabei nicht Rechnung getragen werden. Im quantitativen Konzept der Normalität gibt eine Normalitätsaussage, die eine Alternation ist, nicht unbedingt zwei echte normale Alternativen an. Dass wir bei einer Aussage der Art „Normalerweise p oder q” davon ausgehen, dass beide Aussagen tatsächlich einen relevanten Beitrag zu der Wahrheit der Alternation leisten, kann aus Sicht des quantitativen Normalitätskonzeptes allenfalls eine konversationelle Implikatur im Sinne von Grice sein. 52

60

Ein Beispiel für eine Normalitätslogik, in der diese Erweiterung nicht gültig ist, finden wir in Veltman (1996). Diese Logik wird ausführlich in Abschnitt 3.2.2 diskutiert.

2.5 Die quantitative Deutung der Normalität Dass etwas normalerweise der Fall ist und etwas anderes auch normalerweise der Fall ist, heißt in der quantitativen Interpretation von „normalerweise” nicht zwangsläufig, dass normalerweise auch beides zusammen der Fall ist. Inwieweit passt das zu unserem intuitiven Vorverständnis von Normalität? Wenn normalerweise A gilt und normalerweise B gilt, ist es doch auch intuitiv richtig zu sagen, dass normalerweise A und B gilt? Wieso gilt diese Regel nicht als logisches Gesetz bei einem quantitativen Normalitätsverständnis? Bei zwei Eigenschaften, die häufig auf eine Art von Dingen zutreffen, kann nicht davon ausgegangen werden, dass es dieselben Einzeldinge sind, auf die beides zutrifft. Mit logischen Mitteln können wir nicht sicherstellen, dass durch die Konjunktion nicht die Grenze unterschritten wird, die wir für Normalität ansetzen. Plausibler und vielleicht noch auffälliger ist dies, wenn wir nicht nur zwei, sondern noch mehr Eigenschaften betrachten. Bei tausend Eigenschaften, die zum Beispiel der Art Mensch normalerweise zukommen, werden wir feststellen, dass eine Mehrzahl der Menschen in einigen wenigen dieser Eigenschaften von dem Normalen abweichen. In dem Sinne gibt es nur sehr wenige Menschen, die alle normalen Eigenschaften erfüllen, und deswegen ist es nicht gerechtfertigt anzunehmen, dass Menschen normalerweise diese Eigenschaften haben, auch wenn es gerechtfertigt ist, von jeder dieser Eigenschaften für sich genommen zu sagen, dass Menschen sie normalerweise haben. Weshalb ist die konjunktive Zusammenfassung unserem Vorverständnis nach plausibel, obwohl sie im quantitativen Verständnis falsch ist? Dafür gibt es zwei Gründe: Zum einen ist Normalität in der Alltagssprache grundsätzlich weitaus weniger scharf begrenzt, als sie mit einer Logik wie MDLE erfasst werden könnte. Wo die Grenzen vage sind, ist auch das Problem, dass die Linie der Normalität mit der Konjunktion unterschritten wird, nicht deutlich. Zum anderen gibt es qualitative Normalitätskonzepte, nach denen mit „normalerweise” eine Eigenschaft zugeschrieben werden kann, ohne dass diese besonders häufig ist. Einem solchen Konzept von Normalität werden wir uns noch ausführlich im nächsten Kapitel widmen.

2.5.5 Normalität und Einzelaussagen Den momentanen Analysen nach besteht kein logisches Verhältnis zwischen Normalität und Einzelaussagen. Daraus, dass S normalerweise P sind, folgt für etwas, das S ist, zunächst rein gar nichts. Dies widerspricht im Kern der Ausgangshypothese, dass Normalität der logisch-pragmatische Modus ist, der

61

2 Quantitative Normalität Prognosen für den Einzelfall erlaubt. Nun haben wir zunächst die risikofreien logischen Schlüsse betrachtet und so ist es nicht überraschend, dass an dieser Stelle noch keine Verbindung zwischen Normalität und Einzelaussagen festgehalten werden kann, da Prognosen aufgrund von Normalitätsaussagen scheitern können und insofern nicht risikofrei sind. Was wir benötigen, ist ein anderer Folgerungsbegriff. Aus bisher gemachten Untersuchungen lässt sich festhalten, dass der klassische Folgerungsbegriff selbst dann Prognosen aufgrund von Normalität nicht einfangen kann, wenn wir unsere logische Sprache um den Begriff der Normalität erweitern, obgleich er einige logisch gültige Schlüsse mit Normalitätsurteilen liefert. Als prognostische Grundlage wird Normalität aber erst wirksam, wenn wir auch eine Begrifflichkeit der Prognose selbst einführen und unseren Folgerungsbegriff so variieren, dass er unsichere Vorhersagen erlaubt. Dafür werden wir uns der Begrifflichkeit der Wahrscheinlichkeit widmen, die eng mit Erwartungen in Zusammenhang steht und gleichzeitig mit quantitativen Aussagen verbunden ist.

2.6 Wahrscheinlichkeit Die Verbindung einer quantitativen Aussage und einer Prognose ist durch die Theorie der Wahrscheinlichkeiten herzustellen. Doch welcher Wahrscheinlichkeitsbegriff hängt mit Prognosen zusammen und wie sieht dieser Zusammenhang aus? Zunächst können wir von der Wahrscheinlichkeit eines Ereignisses sprechen. Das ist allerdings nicht der Wahrscheinlichkeitsbegriff, den wir hier gebrauchen. Logik handelt von Sätzen und deren Wahrheit. Daher ist zur Anknüpfung an eine Logik der Quantität eher ein Wahrscheinlichkeitsbegriff hilfreich, der sich auf die Wahrheit von Aussagen bezieht. Wir sprechen von „Es ist wahrscheinlich der Fall, dass p” oder „Die Wahrscheinlichkeit von p ist n” statt von „Das Ereignis E ist wahrscheinlich” oder „Die Wahrscheinlichkeit von Ereignis E ist n”. Diese ganz prinzipielle Einordnung soll keinen allgemeinen Anspruch auf die einzig richtige Interpretation von Wahrscheinlichkeiten erheben, sondern ist den Anforderungen geschuldet, die sich aus dem Thema der Normalitätslogik ergeben. Auch in einigen anderen Punkten werden wir uns fragen müssen, welcher Begriff von Wahrscheinlichkeit überhaupt im statistischen Normalitätskonzept relevant sein kann. Zunächst wollen wir allerdings die Art von Schlussfolge-

62

2.6 Wahrscheinlichkeit rung näher bestimmen, auf die es in Bezug auf quantitative Normalitätsurteile ankommt.

2.6.1 Normalitätsurteile und singuläre Aussagen Um einen Schluss wie „S sind normalerweise P und x ist S. Also ist x wahrscheinlich P” im quantitativen Normalitätskonzept zu verstehen, ist ein anderer Begriff der Folgerung zu nutzen, als er aus der klassischen deduktiven Logik bekannt ist. Insbesondere wird man bei diesen Schlüssen nicht zulassen können, dass eine Konklusion immer erhalten bleibt, wenn neue Prämissen hinzugefügt werden. Folgerungen mit statistischen Informationen und Wahrscheinlichkeiten können aufgrund verschiedener Eigenarten charakterisiert und eingeteilt werden. Eine wesentliche Rolle spielen dabei Urteile über Gesamtheit (population) und Stichprobe (sample) als Prämissen oder Konklusionen von Schlüssen.53 Urteile über die Gesamtheit sind hier generelle Urteile. Aussagen über die Stichprobe beziehen sich auf einen Teil der Individuen, die in der Gesamtheit enthalten sind. Die folgenden Ausführungen beschränken sich auf Stichproben eines einzigen Individuums und damit auf singuläre Aussagen. 1. Von der Gesamtheit auf die Stichprobe Beispiel: Die meisten Kugeln in der Urne sind schwarz. Also ist die nächste gezogene Kugel wahrscheinlich schwarz. 2. Von der Stichprobe auf die Gesamtheit Beispiel: Die bisher gezogene Kugel war schwarz. Also sind wahrscheinlich die meisten Kugeln in der Urne schwarz. 3. Von einer Stichprobe auf eine andere Stichprobe Beispiel: Die bisher gezogene Kugel war schwarz. Also ist wahrscheinlich die nächste gezogene Kugel schwarz. Die eingangs genannte Schlussfolgerung von einer quantitativen Normalitätsannahme auf eine singuläre Aussage gehört klar zu den Folgerungen des ersten Typs. Die Folgerungen zweiter Struktur zeigen hingegen eher die Konstitution einer allgemeinen Aussage aus Einzelannahmen auf. Die dritte Folgerung kann 53

Die folgende Darstellung basiert auf (Hacking, 2001), S.12f.

63

2 Quantitative Normalität G ESAMTHEIT Alle Raben sind schwarz. Raben sind normalerweise schwarz. Einige Raben sind schwarz.

S TICHPROBE Mit Sicherheit ist Kramurx schwarz. Wahrscheinlich ist Kramurx schwarz. Möglicherweise ist Kramurx schwarz.

Tabelle 2.12: Schlüsse auf die Stichprobe S TICHPROBE Kramurx ist schwarz. Kramurx ist schwarz. Kramurx ist schwarz.

G ESAMTHEIT Möglicherweise sind alle Raben schwarz. Möglicherweise sind Raben normalerweise schwarz. Mit Sicherheit sind einige Raben schwarz.

Tabelle 2.13: Schlüsse auf die Gesamtheit aus affirmativer Aussage

als eine Zusammenfassung von dem Erschließen einer Annahme und ihrer Anwendung verstanden werden. Ob und inwiefern solche Schlüsse gültig sind und ob sie mit Wahrscheinlichkeiten zusammenhängen oder nicht, hängt von der logischen Stärke der Evidenz und der Hypothese ab. Dies ist also entscheidend davon abhängig, mit welchem Determinierer die Aussage über die Gesamtheit, die Evidenz, gebildet wird. Die Worte „mit Sicherheit”, „wahrscheinlich” und „möglicherweise” bezeichnen in den folgenden Beispielen den logischen Status, den die Evidenz einer Aussage verleiht. In Tabelle 2.12 betrachten wir einige einfache Schlüsse auf eine singuläre Aussage über den Raben Kramurx, also Spezialfälle des Schlusses von der Gesamtheit auf die Stichprobe. Hier zeigt sich die Hierarchie der Determinierer besonders deutlich. Mit einem deduktiven Schluss haben wir es bei „alle” zu tun. Das partikuläre Urteil sagt allenfalls, dass das singuläre Urteil zutreffen könnte, solange dies nicht aufgrund anderer Information ausgeschlossen ist. Aus einer quantitativen Aussage mit „die meisten” ergibt sich eine widerlegbare Erwartung, die in diesem Kapitel zentrales Thema sein wird. Interessant sind auch die Schlüsse auf eine Hypothese über die Gesamtheit der Raben in Tabelle 2.13. Unproblematisch, da logisch vollkommen sicher, ist diese Schlussstruktur für „einige”. Bei den Schlüssen auf das Normalitätsurteil und auf die universelle Aussage besteht kein großer Unterschied. Wir können lediglich nicht ausschließen, dass diese Urteile zutreffen. Die etwas seltsam wirkende Ausdrucksweise „Möglicherweise sind Raben normalerweise schwarz” soll heißen, dass es in Anbetracht der Evidenzen logisch-epistemisch

64

2.6 Wahrscheinlichkeit S AMPLE Kramurx ist nicht schwarz. Kramurx ist nicht schwarz. Kramurx ist nicht schwarz.

G ESAMTHEIT Unmöglich sind alle Raben schwarz. Möglicherweise sind Raben normalerweise schwarz. Möglicherweise sind einige Raben schwarz.

Tabelle 2.14: Schlüsse auf die Gesamtheit aus negierter Aussage

möglich ist, dass das Normalitätsurteil „Raben sind normalerweise schwarz” wahr ist. Zweifellos wird mit jedem weiteren schwarzen Raben eine allgemeine Gesetzmäßigkeit immer plausibler. Favorisieren wir aber hier zunächst ein Normalitätsurteil oder ein universelles? Solange wir nicht wissen, wie viele Raben es gibt, sind logisch gültige Schlussfolgerungen auf ein quantitativ verstandenes Normalitätsurteil nicht möglich. In jedem Fall ist das Normalitätsurteil mindestens so wahrscheinlich wie das stärkere universelle Gesetz. Doch solange beide, Allsatz und Normalitätssatz, nicht sicher sind, müssen wir das Normalitätsurteil nicht gegenüber dem Allsatz favorisieren. Zwar ist der Allsatz tendenziell unwahrscheinlicher, aber dafür hat er auch eine größere Allgemeinheit und Erklärungskraft. Was Normalitätsurteile von universellen Urteilen vor allem unterscheidet, sehen wir, wenn wir das Verhältnis negativer Evidenzen zu Annahmen über die Gesamtheit der Raben in Tabelle 2.14 betrachten. Der Unterschied zwischen universellen Sätzen und Normalitätsurteilen ist weniger darin zu suchen, dass sie durch singuläre Urteile unterschiedlich stark gestützt werden. Die entscheidende Differenz ist vielmehr, dass schon eine gegenteilige Evidenz ein universelles Urteil ausschließt, aber noch kein Normalitätsurteil widerlegen kann. In ihrem Verhalten im Schluss auf die Gesamtheit sind Normalitätsaussagen somit Zwitterwesen, die durch positive Einzelfälle nicht belegt und durch negative nicht widerlegt werden. Sie sind also, wie partikuläre Sätze, verträglich mit Ausnahmen, aber, wie universelle Aussagen, durch Einzelbeispiele noch nicht bestätigt. Der Status der hier diskutierten Schlüsse ist bis auf die eingangs genannte Ausnahme, „S sind normalerweise P und x ist S. Also ist x wahrscheinlich P”, durchweg mithilfe quantitativer Normalitätsdeutung und MDLE erfassbar. Eben dieser Schluss ist allerdings so wesentlich, dass die Ausarbeitung eines formalen probabilistischen Systems nötig ist.

65

2 Quantitative Normalität

2.6.2 Grundgesetze der Wahrscheinlichkeit In jedem formalen probabilistischen System sind Grundgesetze der Wahrscheinlichkeit zu berücksichtigen, die weitestgehend unabhängig von der philosophischen Ausdeutung des Wahrscheinlichkeitsbegriffes gelten. An erster Stelle sind dabei die Axiome Kolmogorows zu nennen, welche den Grundstein der Wahrscheinlichkeitslehre bilden. • A XIOME54 1. Normalisierung: 0 ≤ P(A) ≤ 1. 2. Sicherheit: P(A) = 1, wenn A sicher ist. 3. Additivität: P(A ∨ B) = P(A) + P(B), wenn A und B einander ausschließen. Die Normalisierung ist die Grundlegung eines Maßstabes auf den Bereich der Zahlen zwischen 0 und 1. Im zweiten Axiom wird festgestellt, dass einem Satz, der mit Sicherheit wahr ist, die höchste Wahrscheinlichkeit zugesprochen werden muss. Schließlich wird mit dem letzten Axiom zur Additivität von exklusiven Aussagen die Verbindung zu aussagenlogischen Junktoren hergestellt. Zu den Grundbegriffen der Wahrscheinlichkeit gehört auch der der bedingten Wahrscheinlichkeit. Ebenso ist die Bayes-Regel von großer Wichtigkeit: • B EDINGTE WAHRSCHEINLICHKEIT 1. Bedingte Wahrscheinlichkeit: P(A/B) =

P(A∧B) P(B) ,

wenn P(B) 6= 0.

2. Konjunktion: P(A ∧ B) = P(A/B) · P(B), wenn P(B) 6= 0. 3. Bayes-Regel: P(A/B) =

P(B/A)·P(A) P(B/A)·P(A)+P(B/¬A)·P(¬A) .

Aus der Definition der bedingten Wahrscheinlichkeit geht hervor, dass die Wahrscheinlichkeit eines Satzes A unter der Bedingung der Wahrheit von B durch den Anteil von A ∧ B an B bestimmt wird. Da durch P(B) geteilt wird, dürfen keine unmöglichen Bedingungen gegeben sein. Zur Erklärung der BayesRegel können wir uns die Definition der Konjunktion vor Augen halten: Die Wahrscheinlichkeit von A, wenn B ist gleich dem Anteil von A ∧ B unter A ∧ B oder ¬A ∧ B, also unter B. 54

66

Die Darstellung folgt Hacking (2001).

2.6 Wahrscheinlichkeit

2.6.3 Logische Wahrscheinlichkeiten nach Carnap Unter den Deutungen der Wahrscheinlichkeit sind prinzipiell zwei Richtungen zu unterscheiden: Wahrscheinlichkeit kann als relative Häufigkeit bei einer theoretisch unendlich fortgesetzten Versuchsreihe verstanden werden. In dem Falle wird von einem objektiven Wahrscheinlichkeitsverständnis beziehungsweise einer Häufigkeitsdeutung gesprochen. Eine andere Möglichkeit ist das Verständnis von Wahrscheinlichkeit als Grad rationaler Überzeugungen im Sinne einer subjektiven oder epistemischen Wahrscheinlichkeit. Es lässt sich leicht dafür argumentieren, dass beide Konzepte in verschiedenen Bereichen sinnvoll zur Anwendung kommen können. So wies Rudolf Carnap darauf hin, dass keineswegs davon ausgegangen werden muss, dass es überhaupt nur einen Begriff von Wahrscheinlichkeit gibt, und dementsprechend keine Konkurrenz, sondern eine Koexistenz der Konzepte bestehe. Er versteht objektive Wahrscheinlichkeit als eine physikalische Eigenschaft von Dingen, zum Beispiel als die Eigenschaft eines Würfels durch seine Form und Beschaffenheit bestimmte Ereignisse in bestimmter Häufigkeit hervorzubringen.55 Im Vergleich dazu kann subjektive Wahrscheinlichkeit mit Überzeugungen und unsicheren Schlussfolgerungen in Zusammenhang gebracht werden. Carnap untersucht innerhalb des weiten Rahmens subjektiver Wahrscheinlichkeitsinterpretation logische Wahrscheinlichkeit. Er betrachtet das logische Maß der Stützung, die eine Annahme für eine Folgerung geben kann. Die maximale Bestätigung ist bei einem logisch gültigen Schluss zu finden, doch auch weniger starke Stützung kann durchaus bedeutend genug sein, um ihr ein großes Gewicht beizumessen. Logische Wahrscheinlichkeit ist ein Verhältnis zwischen Evidenzen und einer Hypothese. Bezogen auf die bisherigen Ausführungen sind aus Sicht dieser Wahrscheinlichkeitsdeutung einige sprachliche Verfeinerungen vorzunehmen. In den Tabellen zu Normalitätsschlüssen war neben „Normalerweise sind S P” und „x ist P” die Prognose „x ist wahrscheinlich P” zu lesen. Außerdem wurde in den ersten Ausführungen zur Wahrscheinlichkeit gesagt, dass sich unser Begriff von Wahrscheinlichkeit nicht auf Ereignisse, sondern auf Sätze bezieht. Beides muss hinsichtlich einer logischen Wahrscheinlichkeitsdeutung präzisiert werden. Das Wort „wahrscheinlich” wird in diesem Sinne nicht auf den Satz „x ist P”, sondern auf die beiden Aussagen „Die meisten S sind P und x ist ein S” 55

Vgl. Carnap und Stegmüller (1959), S.21.

67

2 Quantitative Normalität und „x ist P” angewendet.56 Insofern wird dieser Begriff von Wahrscheinlichkeit niemals auf einen einzelnen Satz, sondern mindestens auf zwei Sätze bezogen, wobei einer die Voraussetzung und der zweite die Folgerung darstellt.57 Wenn die Idee logischer Wahrscheinlichkeitsdeutung auch ursprünglich nicht auf ihn zurückgeht, sondern schon in den 20er Jahren von Keynes vertreten wurde, so hat sich doch vor allem Rudolf Carnap um logische Wahrscheinlichkeit verdient gemacht.58 Kennzeichnend für Carnaps Ansatz ist die Unterscheidung zwischen drei Wahrscheinlichkeitsbegriffen, dem klassifikatorischen, komparativen und quantitativen, wobei Carnap sich fast ausschließlich dem letzteren widmet, den er deutlich favorisiert. Eine quantitative Wahrscheinlichkeit liegt vor, wenn jemand sagt: „Unser Wissen über die gegenwärtige Wetterlage und die Wetterdaten der vergangen Jahrzehnte bestätigen die Annahme, dass es morgen schneit, zu 25 Prozent”. Davon abzugrenzen sind komparative Aussagen wie „Aufgrund der bisherigen Erfahrungen ist es wahrscheinlicher, dass es zu Weihnachten schneit als regnet” und klassifikatorische wie „Es ist wahrscheinlich, dass es morgen schneit”. 56

57

58

68

Wenn hier gesagt wird, dass sich die Wahrscheinlichkeit auf Sätze bezieht, sind damit Sätze formaler Sprachen wie MDLE gemeint. Es geht also eher um Propositionen als um Sätze natürlicher Sprachen. Wir können uns fragen, wie viele potenzielle Teile diese Relation des Wahrscheinlichkeitsschlusses haben kann. Eine logische Konsequenzrelation nach Tarski besteht aus einer Menge von Sätzen als Prämissen und einem Satz als Konklusion. Es besteht kein Grund, warum Wahrscheinlichkeitsschlüsse eine vollkommen andere Form haben sollten. Allerdings wird in den meisten bekannten Arbeiten bedingte Wahrscheinlichkeit nicht wie eine Tarski-Relation ausgedrückt. Stattdessen arbeitet man mit einem Satz e als Evidenz, der die Rolle der Prämisse übernimmt, und einem Satz h, der als Hypothese dient. Der Unterschied zur Konsequenzrelation ist allerdings inhaltlich weniger bedeutend, als der Form nach angenommen werden könnte, denn e kann eine Konjunktion beliebig vieler Sätze sein. Somit könnten alle Elemente der Prämissenmenge bei Tarski, als Konjunktion zusammengefasst, die Evidenz e der bedingten Wahrscheinlichkeit bilden. Darauf weist auch Carnap hin: „e kann als ein einziger, obzwar unter Umständen sehr langer Satz aufgefaßt werden, nämlich die Verknüpfung aller einzelnen Beobachtungsaussagen mittels Konjunktion”. Carnap und Stegmüller (1959), S.23. Die beiden wichtigsten Veröffentlichungen Carnaps in diesem Bereich sind die englischsprachige Monographie „The logical foundations of probability”, Carnap (1950), und eine darauf bezogene, deutsche Veröffentlichung unter Mitwirkung von Wolfgang Stegmüller „Induktive Logik und Wahrscheinlichkeit”, Carnap und Stegmüller (1959).

2.6 Wahrscheinlichkeit Carnaps Fixierung auf die präzise quantitative Begrifflichkeit ist kaum gerechtfertigt. Viele sinnvolle Prognosen sind nicht so genau, dass sie mit quantitativer Begrifflichkeit erfasst werden können. Wir werden also im Verlauf der nächsten Abschnitte aufmerksam darauf achten, inwieweit zur Formalisierung des klassifikatorischen „wahrscheinlich” auch auf die quantitative Begrifflichkeit der Wahrscheinlichkeit zurückgegriffen werden kann. Carnap unterscheidet innerhalb des induktiven Schließens verschiedene Arten von Folgerungen:59 1. Der direkte Schluss ist in unserem Zusammenhang besonders wichtig. Es handelt sich um den schon erwähnten Schluss von der Gesamtheit auf die Stichprobe. 2. Der Voraussageschluss ist der Schluss von einer Stichprobe auf eine andere Stichprobe. Er wird von Carnap als besonders wichtig eingestuft. 3. Der Analogieschluss steht in engem Zusammenhang zum Voraussageschluss. Es ist der Schluss von einer Aussage über ein Individuum oder einem einzelnen Sachverhalt auf eine Aussage über ein anderes Individuum oder einen anderen einzelnen Sachverhalt, der auf gemeinsamen Eigenschaften beruht. 4. Der inverse Schluss ist der Gegenschluss zum direkten Schluss. Es handelt sich also um einen Schluss von der Stichprobe auf die Gesamtheit. 5. Der Allschluss ist der Schluss auf ein universelles Urteil aus Einzelevidenzen. In seiner Bedeutung schätzt Carnap ihn als praktisch und wissenschaftlich weniger bedeutsam als den Voraussageschluss ein. Carnap geht sehr intensiv auf die Gemeinsamkeiten und Unterschiede zwischen deduktiven und induktiven Verfahren ein. Dabei kommt er zu weitreichenden Gemeinsamkeiten. Insbesondere ist die induktive Logik genauso wenig wie die Deduktion empirisch, denn „[d]ie Frage, ob die Prämisse (das Datum) e bekannt (wohlfundiert, in hohem Maße bestätigt, anerkannt) sei, ist [...] irrelevant”.60 Ebenso wie die Wahrheit der Prämissen nichts mit der Gültigkeit eines Schlusses zu tun hat, soll auch der Bestätigungsgrad ein rein analytisches Konzept sein. 59 60

Vgl. Carnap und Stegmüller (1959), S.81f. Carnap und Stegmüller (1959), S.78.

69

2 Quantitative Normalität Auf einen interessanten Unterschied zwischen Induktion und Deduktion weist Carnap hin. Während nämlich bei einem logischen Schluss gilt, dass die Anerkennung der Prämissen die der Konklusion unmittelbar nach sich zieht, gilt für Induktion: „Wenn e und sonst nichts [Hervorh. - Verf.] dem X zum Zeitpunkt t bekannt ist, dann ist h für X zum Zeitpunkt t mit einer Gewißheit vom Grade 2/3 bestätigt”.61 Hier wird offensichtlich eine weitere Forderung gestellt, deren Bedeutung Carnap durchaus erkennt, denn er schreibt: „Die Wendung ,und sonst nichts’ [...] ist wesentlich”.62 Daraus leitet sich das methodische requirement of total evidence ab. Der Induktionsschluss ist nur dann praktisch sinnvoll, wenn wir das gesamte uns zur Verfügung stehende Wissen einbeziehen. Das heißt natürlich auch, dass ein in der Vergangenheit sinnvoller induktiver Schluss später nicht mehr sinnvoll ist, wenn die Person über neue Evidenz verfügt. Darin gleicht der probabilistische Ansatz den nicht-monotonen Logiken.63 Die Prämissen sind nicht beliebig erweiterbar, ohne die Gültigkeit des Schlusses zu gefährden. Die Grundlagen der induktiven Logik Carnaps Bevor die Details der induktiven Logik Carnaps betrachtet werden können, sind hier zunächst die Grundbegriffe seiner Theorie der quantitativen Bestätigungsgrade zu erläutern. Sie bilden selbst noch keine induktive Logik, sind aber wichtiges Fundament und zeigen einige von Carnaps Vorentscheidungen. Die Menge der Zustandsbeschreibungen Z entspricht einer Menge möglicher Welten W in einer epistemischen Logik. Zustandsbeschreibungen beschreiben eine „mögliche Sachlage”.64 Um dies weiter zu explizieren, spricht Carnap von Basissätzen, die neben atomaren auch negierte Sätze umfassen. Ein Basispaar besteht aus einem atomaren Satz und seiner Negation. Eine Zustandsbeschreibung z enthält von jedem Basispaar genau ein Element. Der Status aller anderen Sätze ist wahrheitsfunktional bestimmt. Der logische Spielraum eines Satzes entspricht seiner Bedeutung in MDL und MDLE. • Rφ ist der logische Spielraum (auch: L-Spielraum) von φ , wobei gilt:65 61 62 63 64 65

70

Carnap und Stegmüller (1959), S.78. Carnap und Stegmüller (1959), S.79. Eine Logik L ist nicht monoton, wenn aus ∆ |=L φ nicht ∆, ψ |=L φ folgt. Carnap und Stegmüller (1959), S.143. Vgl. Carnap und Stegmüller (1959), S.145.

2.6 Wahrscheinlichkeit – Wenn φ atomar ist, dann ist Rφ = {z ∈ Z|φ ∈ z}. – Wenn φ eine Tautologie oder wahre Identitätsaussage ist, dann ist Rφ = Z. – Wenn φ ¬ψ ist, dann ist Rφ = Z−Rψ . – Wenn φ ψ1 ∧ ψ2 ist, dann ist Rφ = Rψ2 ∩ Rψ1 . – Wenn φ ∀χ(ψ) ist, so ist Rφ = M(Rψ[t/χ]0 ), wobei M(Rψ[t/χ]0 ) die Menge aller logischen Spielräume ist, die bei Einsetzung von Individuenkonstanten für die Variable entstehen. T

Diese Grundlagen werden bei der Herausstellung der Regeln induktiver Logik benötigt. Wahrscheinlichkeit oder Bestätigung ist bei Carnap durch eine Bestätigungsfunktion (confirmation function) c gegeben, die für eine Evidenz e und die Hypothese h einen Zahlenwert gibt. Carnap versucht im Rahmen seines Programms quantitativer Bestätigung, eine Funktion zu finden, durch welche sich Bestätigung genau errechnen lässt. Doch zunächst beginnt er Forderungen und Bedingungen anzugeben, welche die große Menge aller denkbaren Funktionen nach und nach weiter einschränken, nämlich auf die regulären und dann auf die symmetrischen Funktionen. Regularität und Symmetrie Mit der Regularität schränken wir uns zum einen auf Funktionen ein, die logisch kohärent sind und somit die Axiome Kolmogorows erfüllen. Es fallen mit der Regularität also all jene Wahrscheinlichkeitsverteilungen heraus, gegen die sich Dutch Book Argumente führen ließen.66 Zum anderen sollen reguläre Bestätigungen nur dann den Wert 1 geben, wenn die Hypothese logisch aus den Evidenzen folgt. Der Symmetrie liegt der einleuchtende Gedanke zugrunde, dass eine Prognose nicht davon abhängt, welches Individuum genau betrachtet wird, sondern davon, welche relevanten Informationen über die Gruppe von Dingen, zu denen dieses Individuum gehört, zur Verfügung stehen. Zwei Individuen, über 66

Gegen jemanden lässt sich ein Dutch Book Argument führen, wenn seine Wahrscheinlichkeitsannahmen als Wettquoten einen Wettvertrag ermöglichen, bei dem er mit Sicherheit verlieren wird. Vgl. Hacking (2001), S.164f.

71

2 Quantitative Normalität die man haargenau dieselben relevante Dinge weiß, muss man in der Prognose also gleich behandeln. Es ist sehr plausibel, dass ein rationaler Akteur so vorgehen sollte. Wenn man unterschiedliche Dinge von a und von b erwartet, sollte man einen guten Grund dafür haben. Hat man einen solchen, so kann dieser nur darin liegen, dass man doch über ein Individuum etwas weiß oder glaubt, was man über das andere nicht weiß oder glaubt. Dann stehen nicht dieselben Evidenzen zu beiden Individuen zur Verfügung und das Kriterium der Symmetrie greift nicht. Habe ich keinen guten Grund und keine Begründung, so sind unterschiedliche Bewertungen der Prognosen nicht rational. Von einer guten Wahrscheinlichkeitsverteilung erwartet Carnap also zweierlei: Kohärenz und Indifferenz gegenüber irrelevanten oder nicht bekannten Informationen. Formal schlägt Carnap einen Weg ein, der über die Wahrscheinlichkeit von Zustandsbeschreibungen über Sätze zu Schlussfolgerungen führt. Zunächst gibt er eine reguläre Maßfunktion, die sich auf Zustandsbeschreibungen bezieht:67 • R EGULÄRE M ASSFUNKTION – Für jede Zustandsbeschreibung zi einer Sprache L gilt: m(zi ) > 0. Jede Weltbeschreibung hat zu Beginn eine gewisse Wahrscheinlichkeit, sich als wahr zu erweisen. – Wenn z1 , z2 , ..., zn alle Zustandsbeschreibungen in der Sprache L sind, gilt: m(z1 ) + m(z2 ) + ... + m(zn ) = 1. Mit Sicherheit ist irgendeine Weltbeschreibung wahr. Dies wird auf Sätze folgendermaßen ausgedehnt:68 – Paradoxien sind ausgeschlossen: m(⊥) = 0. – Sonst ist m(φ ) die Summe der Maße aller Zustandsbeschreibungen des logischen Raumes von φ , Rφ . Wenn {z1 , z2 ..., zn } = Rφ , dann n

m(φ ) = ∑ m(zk ). k=1

Darauf aufbauend werden reguläre Bestätigungsfunktionen definiert: • REGULÄRE B ESTÄTIGUNG Wenn m(e) 6= 0, dann c(h/e) = 67 68

72

m(e∧h) m(e) .

Vgl. Carnap und Stegmüller (1959), S.155. Vgl. Carnap und Stegmüller (1959), S.155.

Sonst ist c(h/e) nicht definiert.

2.6 Wahrscheinlichkeit Mit der Regularität gehen wichtige Gesetze einher. Hier sind einige davon aufgelistet:69 1. Normalisierung ist damit erfüllt, dass jede Bestätigung im 1er Raum liegt: 0 ≤ c(h, e) ≤ 1. 2. Sicherheit logisch gültiger Konditionale zeigt sich durch den Wert 1 in der Bestätigung des Sukzedens durch das Antezedens und den Wert 0 bei gegenteiligem Sukzedens. Wenn |= e → h, dann c(h/e) = 1. Wenn |= e → ¬h, dann c(h/e) = 0. 3. Äquivalente Evidenzen und Hypothesen können, ohne dass sich der Bestätigungsgrad ändert, füreinander eingesetzt werden: Wenn |= e ↔ e0 sowie |= h ↔ h0 , dann c(h/e) = c(h0 /e) und c(h/e) = c(h/e0 ). 4. Eine Alternation als Hypothese ist so gut bestätigt wie die Addition der Bestätigung ihrer Bestandteile, wenn sich ihre Bestandteile ausschließen: Wenn |= ¬(i ∧ h), dann c(h ∨ i/e) = c(h/e) + c(i/e). 5. Eine Konjunktion als Hypothese entspricht der Multiplikation der Bestätigung eines Teiles und der Bestätigung des zweiten unter zusätzlicher Annahme der Wahrheit des ersten Teiles: c(h ∧ i/e) = c(h/e) · c(i/e ∧ h). 6. Eine Negation als Hypothese ist soviel weniger bestätigt als der Satz, den sie negiert: c(¬h/e) = 1 − c(h/e). Alle diese Regeln schränken die Bestätigungsfunktion nur geringfügig ein. Die Restriktion der Symmetrie geht darüber deutlich hinaus. Um sie auszudrücken, greift Carnap auf Isomorphie zurück. Dieses Schlagwort spielte bereits in der Diskussion um generalisierte Quantoren eine Rolle. Dort wurde ein Quantor oder ein Determinierer als isomorph bezeichnet, wenn es nicht darauf ankommt, welche Individuen bestimmte Eigenschaften haben, sondern nur auf die quantitative Verteilung. In ähnlicher Weise wird der Begriff auch bei Carnap benutzt. Zueinander isomorph sind Zustandsbeschreibungen, bei denen sich die quantitativen Verteilungen der Individuen auf die Extensionen der Prädikate nicht unterscheiden. Zwei Zustandsbeschreibungen, die zueinander isomorph sind, gehören zu derselben Strukturbeschreibung. 69

Vgl. Carnap und Stegmüller (1959), S.162f und Carnap und Stegmüller (1959), S.150f.

73

2 Quantitative Normalität Auf den Begriff der Isomorphie stützt sich die Definition der symmetrischen Maßfunktionen m: • S YMMETRISCHE M ASSFUNKTION Eine Maßfunktion m ist genau dann symmetrisch, wenn m regulär ist und m(zi ) = m(z j ), sobald zi und z j isomorphe Zustandsbeschreibungen sind. Die symmetrische Maßfunktion wird in gleicher Weise auf Sätze ausgedehnt wie die reguläre Maßfunktion. Schließlich wird die symmetrische Bestätigungsfunktion definiert: • S YMMETRISCHE B ESTÄTIGUNG Eine Bestätigungsfunktion c ist genau dann symmetrisch, wenn sie auf einer symmetrischen Maßfunktion beruht: Wenn m(e) 6= 0, dann c(h/e) = m(e∧h) m(e) . Sonst ist c(h/e) nicht definiert. Die Voraussetzung, unter der alle Erwägungen der Symmetrie stehen, ist die Annahme einer Menge von Prädikaten, die eine Division bilden. Das heißt, dass auf jedes Individuum genau eines dieser Prädikate zutrifft. Carnap gibt mit der Bildung von sogenannten Q-Prädikaten ein Verfahren an, derartige komplexe Prädikate zu bilden. Man konstruiert aus n einstelligen Prädikaten P1 , P2 , ..., Pn durch Konjunktion und Negation die 2n semantisch verschiedenen Formeln, die möglich sind, und behandelt sie wie Prädikate. Der direkte Schluss bei Carnap Durch symmetrische Bestätigungsfunktionen lässt sich klären, wie das Rechtfertigungsverhältnis von einem Satz wie „90 Prozent der Bälle sind grün” als Evidenz zu der Hypothese „Der nächste gezogene Ball ist grün” aussieht. Bei Carnap wird der Schluss auf die Stichprobe unmittelbar nach der Festlegung auf symmetrische Bestätigungsfunktionen untersucht. Er steht unter diesen Voraussetzungen: Die Prädikate „M1 ”, „M2 ”, ..., „Mr ” bilden eine Division. e sei eine statistische Verteilung für n in in bezug auf diese Division mit den Anzahlen ni für die „Mi ”. vi = nni . h sei eine individuelle Verteilung für s von den n in in e (also s ≤ n) mit den Anzahlen si für die „Mi ”. Es sei si ≤ ni (da sonst ` e ⊃∼ h und daher c(h, e) = 0). hst sei die h entsprechende statistische Verteilung. c sei symmetrisch.70 70

74

Carnap und Stegmüller (1959), S.187. Dabei ist „in” Carnaps Metazeichen für Individuenkonstanten. Vgl. Carnap und Stegmüller (1959), S.140.

2.6 Wahrscheinlichkeit Die folgenden Gesetze ergeben sich aus allen vorhergehenden Bestimmungen und geben einen exakten Wert der Bestätigung eines induktiven direkten Schlusses an: • D IREKTER S CHLUSS71 1. c(h/e) =

(n−s)! (n1 −s1 )!·(n2 −s2 )!...(nr −sr )!

2. c(hst /e) =

s! s1 !·s2 !...sr !

· n1 !·n2n!!·...·nr !

· c(h/e)

Carnaps Hauptanliegen liegt allerdings nicht in der formalen Ausdeutung der direkten Schlüsse. Vor allem die Schlüsse von Stichprobe zu Stichprobe sind deutlich problematischer. Um sie zu erklären, braucht es mehr Voraussetzungen. Carnaps Lehre wird dabei häufig Praxisferne und Unanwendbarkeit vorgeworfen.72 Dies detailliert zu erläutern, würde über das Ziel, Prognosen aus quantitativ verstandenen Normalitätsurteilen zu formalisieren, hinausgehen. Es fällt jedoch in der Tat auf, dass einige grundsätzliche Teile der Carnapschen Induktionslogik einem logischen Atomismus geschuldet sind, den wir heute nicht teilen. In modernen logischen Systemen finden wir keine Q-Prädikate. Carnap gibt auch zu bedenken: „[D]ie von den Grundprädikaten bezeichneten Eigenschaften und Relationen müssen voneinander logisch unabhängig sein”.73 Damit ist eine große Klasse von Ausdrücken aus Carnaps System ausgeschlossen. Unabhängig davon können für den direkten Schluss vielfältige Ergebnisse festgehalten werden, die insbesondere den Zusammenhang von Wahrscheinlichkeit und Determinierern betreffen.

2.6.4 Determinierer und logische Wahrscheinlichkeit Im Abschnitt „Theorie der generalisierten Quantoren” haben wir auf Determinierer hingewiesen, die ISOM, EXT und KONSERV erfüllen. Sie weisen einen Zusammenhang mit logischen Wahrscheinlichkeiten auf. Zu diesen gehören auch alle Determinierer, die in dieser Arbeit eine Rolle spielen. Darüber hinaus gilt dies auch für alle proportionalen Determinierer, die eine Aussage über relative Häufigkeit machen. Im Folgenden werden wir uns auf Formeln mit einer freien Variable und deren Negation als Prädikate einer Division konzentrieren. 71 72 73

Vgl. Carnap und Stegmüller (1959), S.187. Vgl. Hájek (2012). Carnap und Stegmüller (1959), S.233.

75

2 Quantitative Normalität Diese ersetzen Carnaps Q-Prädikate. Inwieweit sind Carnaps Erwägungen nun für diesen eingeschränkten Fall relevant und wie lassen sie sich anwenden? Logische Wahrscheinlichkeit und quantifizierte Aussagen Da sich die Ausdrücke φ und ¬φ kontradiktorisch gegenüber stehen, bilden zwei Ausdrücke λ χφ und λ χ¬φ per Definition eine Division im Sinne Carnaps, sobald λ χφt weder logisch wahr noch logisch falsch ist. Die Prädikate einer Division müssen erschöpfend und disjunkt sein und kein Prädikat einer Division darf schon allein aus logischen Gründen ausgeschlossen sein. Mit Ausnahme von Sätzen mit A sind durch Aussagen mit Determinierern aus unseren Determiniererlogiken noch keine statistischen Verteilungen in Carnaps Sinne gegeben. Verschiedene statistische Verteilungen entsprechen Aussagen mit M und E . Statistische Verteilungen haben die Form „genau n...”, während Meistaussagen und partikuläre Urteile nur Aussagen der Art „mindestens...” machen. Daher können einer Aussage mit Determinierern mehrere statistische Verteilungen entsprechen. Die Lehre aus der Symmetrie, dass alle individuellen Verteilungen einer statistischen Verteilung gleichwertig und im selben Maße wahrscheinlich sind, lässt sich nicht ohne weiteres auf unser Problem anwenden. Intuitiv sind es weniger die unterschiedlichen isomorphen Verteilungen, die wir als logisch gleichberechtigt ansehen müssen, sondern die Aussagen über verschiedene Individuen. Zur Veranschaulichung betrachten wir ein Beispiel mit vier Kindern. Es geht darum, wer beziehungsweise wie viele davon Mädchen sind. In der Tabelle 2.15 sind die verschiedenen individuellen und statistischen Verteilungen angegeben. Außerdem ist die MDLE Formalisierung und die Bewertung der drei Aussagen „Alle Kinder sind weiblich”, „Die meisten Kinder sind weiblich” und „Einige Kinder sind weiblich” gegeben.74 In der ersten Zeile sind alle vier Kinder Mädchen. Diese individuelle Verteilung sei i4 . Die entsprechende statistische Verteilung, in der vier von vier Kindern Mädchen sind, nennen wir j4 . Die MDLE Formel „A Kx(W x)” für „Alle Kinder sind weiblich” ist wahr, denn wir setzen voraus, dass es nur diese vier Kinder im Redebereich gibt. Dasselbe gilt für die schwächeren Quantifizierungen mit M und E . In den folgenden vier Zeilen ist jeweils eines der vier Kinder männlich. Diese Fälle entsprechen den vier verschiedenen individuellen Verteilungen i3a , i3b , i3c und i3d , aber gehören zu 74

76

Ganz im Sinne der prädikatenlogischen Tradition heißt „einige Kinder” „mindestens ein Kind”.

2.6 Wahrscheinlichkeit 1 ♀ ♀ ♀ ♀ ♂ ♀ ♀ ♀ ♂ ♂ ♂ ♀ ♂ ♂ ♂ ♂

2 ♀ ♀ ♀ ♂ ♀ ♀ ♂ ♂ ♀ ♀ ♂ ♂ ♀ ♂ ♂ ♂

3 ♀ ♀ ♂ ♀ ♀ ♂ ♀ ♂ ♀ ♂ ♀ ♂ ♂ ♀ ♂ ♂

4 ♀ ♂ ♀ ♀ ♀ ♂ ♂ ♀ ♂ ♀ ♀ ♂ ♂ ♂ ♀ ♂

Ind. i4 i3a i3b i3c i3d i2a i2b i2c i2d i2e i2 f i1a i1b i1c i1d i0

Stat. j4 j3 j3 j3 j3 j2 j2 j2 j2 j2 j2 j1 j1 j1 j1 j0

A Kx(W x) wahr falsch falsch falsch falsch falsch falsch falsch falsch falsch falsch falsch falsch falsch falsch falsch

M Kx(W x) wahr wahr wahr wahr wahr falsch falsch falsch falsch falsch falsch falsch falsch falsch falsch falsch

E Kx(W x) wahr wahr wahr wahr wahr wahr wahr wahr wahr wahr wahr wahr wahr wahr wahr falsch

Tabelle 2.15: Individuelle und statistische Verteilungen

derselben statistischen Verteilung j3 . Zwar ist „A Kx(W x)” in dieser Verteilung als falsch zu bewerten, aber „M Kx(W x)” ist auch hier wahr. Schließlich folgen in der Tabelle Fälle, in denen zwei Kinder weiblich sind, ein Kind weiblich ist oder gar kein Kind weiblich ist. Bei diesen statistischen Verteilungen ist auch „M Kx(W x)” falsch. In der Tabelle ist zu sehen, dass jedem Individuum innerhalb einer statistischen Verteilung immer genauso häufig die fragliche Eigenschaft zugesprochen wird wie jedem anderen Individuum auch. Daraus ergibt sich, dass die Information, dass einige, die meisten beziehungsweise alle Kinder weiblich sind, über jedes Kind im gleichen Maße informativ ist. Es macht keinen Unterschied, welches Individuum betrachtet wird. Bezogen auf singuläre Aussagen bedeutet dies, dass sie mit gleichem Gewicht in die unterschiedlichen statistischen Verteilungen eingehen. Am Beispiel von M Kx(W x) und den zwei statistischen Verteilungen, die diese Aussage wahr machen, wird dies in Tabelle 2.16 verdeutlicht. Wir betrachten vier verschiedene singuläre Aussagen über die vier Kinder W c1 , W c2 , W c3 und W c4 . Dabei steht „W x” für „x ist ein Mädchen” und die Konstanten von c1 bis c4 stehen für die vier Kinder. „M Kx(W x)” ist wahr für die statistische Verteilungen j4 und j3 und somit äquivalent zu j4 ∨ j3 . Dabei ist

77

2 Quantitative Normalität M Kx(W x) j4 j3

i4 i3a i3b i3c i3d

W c1 wahr wahr wahr wahr falsch

W c2 wahr wahr wahr falsch wahr

W c3 wahr wahr falsch wahr wahr

W c4 wahr falsch wahr wahr wahr

Tabelle 2.16: Meistaussagen und Wahrheit singulärer Aussagen die statistische Verteilung j4 identisch mit der individuellen Verteilung i4 . Diese entspricht ihrerseits der Konjunktion W c1 ∧W c2 ∧W c3 ∧W c4 . Jede singuläre Aussage geht gleichermaßen, nämlich einmal, in diese statistische Verteilung ein. Die statistische Verteilung j3 kann ihrerseits als die Alternation aus den statistischen Verteilungen i3a bis i3d verstanden werden. Dabei ist i3a äquivalent zu W c1 ∧ W c2 ∧ W c3 ∧ ¬W c4 , i3b zu W c1 ∧ W c2 ∧ ¬W c3 ∧ W c4 , und so weiter. Somit entspricht j3 (W c1 ∧ W c2 ∧ W c3 ∧ ¬W c4 ) ∨ (W c1 ∧ W c2 ∧ ¬W c3 ∧ W c4 ) ∨ (W c1 ∧ ¬W c2 ∧W c3 ∧W c4 ) ∨ (¬W c1 ∧W c2 ∧W c3 ∧W c4 ). Dabei geht wiederum jedes singuläre Urteil mit dem selben Gewicht in die statistische Verteilung ein, nämlich je dreimal als bejahender Satz und einmal als negierter Satz. Es wird deutlich, wie einerseits quantifizierte Formeln von MDLE mit statistischen und individuellen Verteilungen nach Carnap in Verbindung stehen, und wie anderseits diese mit singulären Sätzen in Zusammenhang stehen. Daher lassen sich Carnaps Ausführungen auch auf MDLE Formeln anwenden. Unter der Voraussetzung, dass individuelle Verteilungen einer statistischen Verteilung gleichgewichtig sind, folgt unmittelbar, dass singuläre Aussagen auch durch eine quantifizierte Formel gleich gut bestätigt sind. Daher ist Carnaps Symmetrie, wenn auch in leicht übertragener Form, für quantifizierte Aussagen wirksam, die keine statistischen Verteilungen angeben. Der direkte Schluss als Vorhersageschluss Der Vorhersageschluss kann als ein Sonderfall des direkten Schlusses mit einem Element in der Probe und zwei Prädikaten einer Division betrachtet werden. Laut Carnap gilt, wie bereits festgehalten, für einen Schluss auf die individuelle Verteilung h beziehungsweise auf die statistische Verteilung hst einer Probe folgende Gesetzmäßigkeit: • D IREKTER S CHLUSS

78

2.6 Wahrscheinlichkeit 1. c(h/e) =

(n−s)! (n1 −s1 )!·(n2 −s2 )!...(nr −sr )!

2. c(hst /e) =

s! s1 !·s2 !...sr !

· n1 !·n2n!!·...·nr !

· c(h/e)

Statt r Prädikaten, die eine Division bilden, betrachten wir nun zwei Prädikate. Bezogen auf den einfacheren Fall der mit Lambda-Operation gebildeten Prädikate λ xφ und λ x¬φ ergeben sich folgende Gleichungen: 1. c(h/e) =

(|D|−s)! (|I(λ x(φ ))|−s1 )!·((|D|−|I(λ x(φ ))|)−(s−s1 ))!

2. c(hst /e) =

s! s1 !·(s−s1 )!

x(φ ))|)! · |I(λ x(φ ))|!·(|D|−|I(λ |D|!

· c(h/e)

h ist dabei eine individuelle Verteilung, die s1 von s Individuen der Probe das Prädikat λ xφ zuspricht, und hst die entsprechende statistische Verteilung. Ein Spezialfall des direkten Schlusses ist der Schluss von einem allgemeinen Urteil auf ein singuläres. Dort ist die Probe s = 1. Je nachdem, ob das singuläre Urteil affirmativ oder negiert ist, gilt s1 = 0 oder s1 = 1. Wir betrachten das affirmative singuläre Urteil als Hypothese mit s1 = 1 und erhalten folgende Gleichungen: 1. c(h/e) =

(|D|−1)! (|I(λ xφ )|−1)!·(|D|−|I(λ xφ )|)!

xφ )|)! · |I(λ xφ )|!·(|D|−|I(λ |D|!

2. c(hst /e) = c(h/e) Nach dem Kürzen erhalten wir als Bestätigung einer singulären Prognose durch eine statistische Information die relative Häufigkeit in der Gesamtheit: c(h/e) = |I(λ xφ )| 75 |D| . Dieses Ergebnis erinnert an das Frequency Principle, das sich bei Ian Hacking in folgender Formulierung findet: If S is an individual event of type E, and the only information about whether E occurred on a trial of a certain kind, on a certain chance setup, is that on trials of that kind on that setup the frequency-type probability Pr(E)=p, then the belief-type probability of S is also p.76

Bei Carnap finden wir ein ähnliches Prinzip, dass relative Häufigkeit rationalen Bestätigungsgraden entspricht, als Gesetz, welches aus der Symmetrieforderung folgt. 75

(|D|−1)!·|I(λ xφ )|!·(|D|−|I(λ xφ )|)! (|I(λ xφ )|−1)!·((|D|−|I(λ xφ )|)!·|D|! |I(λ xφ )| |D| .

76

Hacking (2001), S.137.

=

(|D|−1)!·|I(λ xφ )|! (|I(λ xφ )|−1)!·|D|!

=

(|D|−1)!·|I(λ xφ )|·(|I(λ xφ )|−1)! (|I(λ xφ )|−1)!·|D|·(|D|−1)!

=

79

2 Quantitative Normalität

k

m

B

A

Abbildung 2.7: Mengentheoretische Darstellung von m und k ALLE

k=0

ALLEE

k = 0; m 6= 0

EINIGE

m>0

DIE MEISTEN

m>k

GENAU N

m=N

MINDESTENS N

m≥N

GENAU n %

m k+m

=

n 100

MINDESTENS n %

m k+m



n 100

Tabelle 2.17: Durch k und m definierte Determinierer Determinierer und der Zahlenbaum Determinierer, die ISOM, KONSERV und EXT. erfüllen, sind durch zwei Werte definierbar, nämlich der Anzahl der Subjekte A, die ein Prädikat B erfüllen, und die Anzahl derjenigen, die das nicht tun. Wenn m = |A ∩ B| und k = |A − B|, wie in Abbildung 2.7, müssen nur die Zahlen m und k bekannt sein, um die quantitative Aussage zu beurteilen. In Tabelle 2.17 ist eine Liste von einigen Determinierern, die allein durch k und m semantisch charakterisiert werden können, angegeben. Der Index E verweist im Folgenden darauf, dass für „alle”, wie in DLE und MDLE, existentieller Import gefordert wird. Hier sei darauf hingewiesen, dass mit „MINDESTENS n%” auch die Gesetze für einen anspruchsvolleren Operator anstelle von M ,

80

2.6 Wahrscheinlichkeit |A|= 0 1 2 3 4 5

5,0

4,1

3,2

2,3

1,4

0,5

...

...

...

...

...

...

...

k,m 0,0 1,0 2,0 3,0 4,0

0,1 1,1

2,1 3,1

0,2 1,2

2,2

0,3 1,3

0,4

Tabelle 2.18: Zahlenbaum wie mindestens 23 , 0, 95 und 0, 99, zu klären sind. Aufgrund der Tatsache, dass diese Determinierer nur von zwei Zahlen abhängen, werden sie mitunter auch im Zahlenbaum (Tree of Numbers) dargestellt.77 Seine Grundstruktur sehen wir in Tabelle 2.18. Der Zahlenbaum besteht aus Paaren von Zahlen für k = |A − B| und m = |A ∩ B|. „0,0” repräsentiert also den Fall, in dem kein A-Element nicht B-Element ist und kein A-Element B-Element ist. In diesem Fall ist |A| = 0. In der Zeile mit |A| = 1, finden wir einerseits „1,0”, das eine A ist nicht B, und andererseits „0,1”, das eine A ist B. In der folgenden Zeile kommen in dieser Reihenfolge zunächst der Fall, in dem keines von zwei A B ist, dann der Fall, in dem genau eines von zwei A B ist, und schließlich der Fall, in dem beide A B sind. Auf dieser Weise wird mit allen folgenden Zeilen verfahren. Mithilfe der Zeichen „+” und „-” kann in diesem Baum gekennzeichnet werden, in welchen Fällen der Determinierer eine wahre Aussage erzeugt.78 Eine besondere Eigenschaft des Zahlenbaums ist es, dass das Zahlenpaar an jedem Knoten einer statistischen Verteilung entspricht. Wir können daher jedem Knotenpunkt auch eine Bestätigung für eine singuläre Aussage zuordnen. Durch Carnaps logische Wahrscheinlichkeiten wissen wir, wie gut eine Einzelaussage durch eine statistische Aussage bestätigt ist: c(h/e) = |I(λ|D|xφ )| , wobei in unserem Fall gilt: |I(λ xφ )| = m und |D| = k + m. So können wir jeder Zahlenkombination im Zahlenbaum eine Wahrscheinlichkeit zuordnen, die angibt, wie stark man im Einzelfall erwarten soll, dass ein bestimmtes Individuum, welches unter A fällt, auch B ist. Damit ergibt sich die Figur in Tabelle 2.19. Die Knotenpunkte decken dabei jeweils dieselben Fälle ab wie im normalen Zahlenbaum. Eine Besonderheit ergibt sich für den Knoten mit „0, 0”. Hier ist 77 78

Vgl. Benthem (1984), S.458. Vgl. Tabelle 2.20.

81

2 Quantitative Normalität |A| = 0 1 2 3 4 5

0

1/5

2/5

3/5

4/5

1

...

...

...

...

...

....

...

k,m

— 0 0 0 0

1 1/2

1/3 1/4

1 2/3

1/2

1 3/4

1

Tabelle 2.19: Zahlenbaum und Wahrscheinlichkeit

die Wahrscheinlichkeit nicht definiert. Für Determinierer, die eine Darstellung im Zahlenbaum haben, kann man Aussagen über den Grad der Bestätigung treffen, die sie für singuläre Aussagen geben können. Zu unterscheiden sind dabei folgende Arten von Determinierern: 1. Klassische Determinierer: „Alle”, „einige” und deren negative Gegenspieler nennen wir „klassische Determinierer”. Im Einzelfall hat „alle” immer maximale Bestätigungskraft. Aus „Einige A sind B” folgt zumindest, dass nicht auszuschließen ist, dass ein bestimmtes A B ist. Dementsprechend ist die Bestätigung größer als 0. Bei klassischen Determinierern ist das Bestätigungspotential allein durch die Zahlen 1 und 0 ausdrückbar. 2. Numerische Determinierer: Unter numerischen Determinierern fassen wir solche Ausdrücke, die sich auf eine absolute Häufigkeit beziehen, wie „mindestens zwei” oder „genau zwei”. Diese sind als Bestätigung für Einzelprognosen untauglich. Denn die Information, dass mindestens zwei A B sind, ist nicht hilfreich, wenn man nicht weiß, wieviele A es insgesamt gibt. Insofern bieten numerische Determinierer für sich genommen nicht mehr prognostische Möglichkeiten als der Determinierer „einige”. 3. Proportionale Determinierer: Unter proportionalen Determinierern sind alle Determinierer zu verstehen, die eine relative Häufigkeit angeben. Dazu gehört neben allen prozentualen Angaben auch „die meisten”. Diese Determinierer sind wahrscheinlichkeitslogisch nützlich. Sie geben zwar weder für m noch für m + k eine genaue Zahl an, doch kennzeichnen sie deren Verhältnis zueinander und gerade dies ist für die Bestätigung relevant.

82

2.6 Wahrscheinlichkeit A + ...

+ -

...

...

... M -

...

AE -

...

...

...

+ ...

...

...

+ -

...

+

...

...

... E -

+

+ ...

+ -

...

+ ...

-

...

...

...

+ ...

+ +

+

...

+ ...

+ +

...

...

+

...

...

Tabelle 2.20: Determinierer im Zahlenbaum

In Tabelle 2.20 sind Determinierer aus MDL und MDLE im Zahlenbaum dargestellt. Durch die Darstellung wird nicht nur gezeigt, für welche Zahlenkombinationen von k und m der Determinierer einen wahren Satz gibt. Gleichzeitig können wir auch durch einen korrespondierenden Zahlenbaum der Wahrscheinlichkeiten ablesen, wie er sich zu einer singulären Prognose verhält. Dabei gilt, wenn wir Carnaps Ideen in MDLE übertragen: • S TÜTZUNG FÜR VORHERSAGEN – c(ψ/((A φ )ψ) ∧ φ ) = 1 – c(βt/(A α χβ χ) ∧ αt) = 1 – c(ψ/((M φ )ψ) ∧ φ ) >

1 2

– c(βt/(M α χβ χ) ∧ αt) >

1 2

– c(ψ/((E φ )ψ) ∧ φ ) > 0 – c(βt/(E α χβ χ) ∧ αt) > 0 Carnaps symmetrische Bestätigung ist aber nicht nur dazu in der Lage, einzelne statistische Aussagen als Bestätigung singulärer Aussagen zu betrachten, sondern ermöglicht auch bei mehreren logisch verbundenen Informationen die relevanten auszuwählen. Solche Schlüsse haben die Struktur „Die meisten S sind P. Die meisten S, die außerdem R sind, sind nicht P. a ist S und R. Also ist a wahrscheinlich nicht P” oder „Die meisten S sind P. Die meisten R sind nicht P.

83

2 Quantitative Normalität Alle R sind S. a ist R. Also ist a wahrscheinlich nicht P”.79 Die Information über die kleinere relevante Gruppe überwiegt, wenn eine Vorhersage über a gemacht wird, weil jene individuellen Verteilungen, in denen a zwar S aber nicht R ist, ausgeschlossen werden können. Zur Verdeutlichung betrachten wir ein Beispiel mit fünf Individuen, die S sind. Es gelten folgende Prämissen: 1. Die meisten S sind P. 2. Die meisten S, die außerdem R sind, sind nicht P. 3. a ist S und R. Es ist ausgeschlossen, dass mehr als drei S R sind. Wären vier oder fünf S auch R, so müssten, wegen 2., mindestens drei dieser S, die auch R sind, nicht P sein. Dass aber drei von fünf S nicht P sind, steht im Widerspruch zu 1. Somit stehen bezogen auf S und R nur noch drei verschiedene statistische Verteilungen zur Debatte: Option 1 - Genau ein S ist R. Option 2 - Genau zwei S sind R. Option 3 - Genau drei S sind R. Bei Option 1 und Option 2 ist kein R ein P, denn sonst wäre die Prämisse 2. verletzt.80 Diese beiden statistischen Verteilungen unterstützen damit die Konklusion, dass a nicht P ist, vollständig, denn laut 3. ist a R. Anders sieht es in der dritten Option mit drei R aus. Hier ist die statistische Verteilung zu berücksichtigen, in der nur zwei von drei R nicht P sind, so dass auch nicht logisch ausgeschlossen ist, dass das Individuum a P ist. Diese statistische Verteilung setzt sich aus drei verschiedenen individuellen Verteilungen zusammen. Bei zwei dieser drei individuellen Verteilungen ist a nicht P. Die Symmetrie sichert, dass diese drei individuellen Verteilungen, die Teil derselben statistischen Verteilung sind, gleich gewichtet werden. Damit bestätigt diese statistische Verteilung das singuläre Urteil „a ist nicht P” immerhin zu 2/3. Somit liegt die Bestätigung immer über 1/2. Würde man hingegen die Prämisse 2. abändern zu „Die meisten R sind nicht P” würde sich kein derartiges Resultat ergeben. Zwar werden durch die Prämisse, dass die meisten S P sind, zunächst individuelle Verteilungen, in 79

80

84

Ein Beispiel ist: „Die meisten Vögel können fliegen. Die meisten Vögel, die am Südpol leben, können nicht fliegen. Tux ist ein am Südpol lebender Vogel. Also kann Tux wahrscheinlich nicht fliegen”. Diese und alle folgenden Aussagen über R und P beziehen sich auf die fünf S dieses Beispiels als den vollständigen Redebereich.

2.6 Wahrscheinlichkeit denen a S ist, bevorzugt, aber dies wird anschließend ausgeglichen, wenn durch „Die meisten R sind nicht P” wiederum mehr individuelle Verteilungen eingehen, in denen a nicht P ist.81 Nur dadurch, dass mit „die meisten S, die R sind” in Prämisse 2. eine Einschränkung gegenüber Prämisse 1. gemacht wird, werden die Informationen aus 1. hinfällig, weil Verteilungen, in denen a nicht R ist, ausgeschlossen werden. Nur die Informationen aus der spezielleren Aussage sind relevant für die Vorhersage. Damit gehen auch in Hinsicht auf MDLE Formeln, bei denen eine Meistaussage eine andere einschränkt, Konsequenzen für die Bestätigungsfunktion bei Vorhersageschlüssen einher. In den folgenden vier Beispielen hebt jeweils eine präzisere Meistaussage eine allgemeinere auf, so dass die präzisere Information eine Vorhersage ermöglicht: • VORHERSAGE UND P RINZIP DER KLEINSTEN R EFERENZKLASSE – c(ψ/(M φ1 ¬ψ) ∧ (M (φ1 ∧ φ2 )ψ) ∧ φ1 ∧ φ2 ) >

1 2

– c(βt/(M α1 χ¬β χ) ∧ (M λ χ(α1 χ ∧ α2 χ)χβ χ) ∧ α1t ∧ α2t) > – c(ψ/(M φ1 ¬ψ) ∧ (M φ2 ψ) ∧ (A φ2 φ1 ) ∧ φ1 ∧ φ2 ) >

1 2

1 2

– c(βt/(M α1 χ¬β χ) ∧ (M α2 χβ χ) ∧ (A α2 χα1 ) ∧ α1t ∧ α2t) >

1 2

Die Intuition, dass eingeschränktere Bezugsklassen für die Vorhersage relevant sind, ist keineswegs neu. Sie wurde vor allem durch Hans Reichenbach als „principle of the narrowest reference class” bekannt.82 Durch Carnaps symmetrische Bestätigung lässt sich die logische Bedeutung von quantitativen Normalitätsaussagen für singuläre Aussagen probabilistisch darstellen. Vorhersageschlüsse von Normalität zu singulären Sätzen sind zwar 81

82

Wenn es insgesamt fünf R und fünf S gibt, die miteinander in keinem logisch relevanten Zusammenhang stehen, gehen zunächst, wenn Prämisse 1. berücksichtigt wird, elf individuelle Verteilungen in die Evidenz ein, in denen a P ist (eine für die statistische Verteilung, in der alle S P sind; vier für die statistische Verteilung, in der nur ein S nicht P ist; sechs für die statistische Verteilung, in der drei S P sind), und es gehen fünf Verteilungen ein, in denen a nicht P ist (eine für die statistische Verteilung, in der ein S nicht P ist, und vier für die statistische Verteilung, in der zwei S nicht P sind). Dann kommen jedoch bei Berücksichtigung von „Die meisten R sind nicht P” ebenso viele Verteilungen, in denen a nicht P ist, und Verteilungen, in denen a P ist, hinzu, nämlich auch elf, in denen a nicht P ist, und fünf, in denen a P ist, so dass es zu einem Ausgleich kommt. So wird keine Vorhersage stärker bestätigt. Vgl. Reichenbach (1949), S.374.

85

2 Quantitative Normalität nicht logisch gültig, aber können probabilistisch gerechtfertigt sein, insofern Normalitätsaussagen eine hohe Bestätigung für singuläre Aussagen geben. Auch dass im Zweifelsfall die konkrete Normalitätsaussage den Ausschlag gibt, kann durch diese probabilistischen Überlegungen begründet werden.

2.6.5 Der probabilistische Schluss Carnap favorisiert Bestätigung als einen quantitativen Begriff, bei dem genaue Werte angegeben werden. Bei der Darstellung eines Schlusses wie „S sind normalerweise P und x ist S. Also ist x wahrscheinlich P” ist es allerdings überhaupt nicht nötig, exakte Werte anzugeben. Wir werden uns dementsprechend mit einem klassifikatorischen Begriff der Wahrscheinlichkeit oder besser des Wahrscheinlichkeitsschlusses auseinandersetzen, der seinerseits komparativ, nämlich durch Vergleich mit der Negation, definiert ist. Der Wahrscheinlichkeitsschluss hat die Struktur ... also wahrscheinlich: ... Wir definieren diesen Schluss mithilfe von Carnaps Bestätigungsfunktion: Ein Wahrscheinlichkeitsschluss von den Evidenzen ψ1, ψ2 , ..., ψn zu der Hypothese φ soll gültig sein, wenn für jede symmetrische Bestätigungsfunktion c gilt: c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) > c(¬φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) beziehungsweise c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) > 12 . Das heißt, dass ein Satz aus den Prämissen wahrscheinlich folgt, wenn er in jedem Fall stärker als seine Negation bestätigt wird. Der Grenzwert für probabilistische Gültigkeit, der überschritten werden muss, ist dementsprechend 0,5. Was ist aber, wenn die Voraussetzungen selbst widersprüchlich sind und c daher nicht definiert ist? Der probabilistische Schluss soll schwächer sein als der logische Schluss, so dass jeder logisch gültige Schluss auch probabilistisch gültig ist. Da bei klassischen logischen Schlüssen ex falso quodlibet gilt, sollen auch bei probabilistischen Schlüssen widersprüchliche Annahmen jede Folgerung erlauben.83 Deswegen ist der probabilistische Schluss auch dann gültig, wenn c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) nicht definiert ist, da ψ1 ∧ ψ2 ∧ ... ∧ ψn widersprüchlich ist. • D ER PROBABILISTISCHE S CHLUSS Der probabilistische Schluss ψ1 , ψ2 , ..., ψn |=w φ ist gültig gdw für jede 83

86

In fast allen Logiken, insbesondere auch in den klassischen Logiken, gilt für jedes beliebige φ : ⊥ |= φ (ex falso quodlibet). Eine Ausnahme bilden die parakonsistenten Logiken.

2.6 Wahrscheinlichkeit symmetrische Funktion c gilt: c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) > ψ2 ∧ ... ∧ ψn ) ist nicht definiert.

1 2

oder c(φ /ψ1 ∧

Dieser Schluss ist insofern probabilistisch, als es reicht, dass die Prämissen die Konklusion wahrscheinlich machen. Damit Bestätigungsfunktionen definiert werden können, müssen allerdings auch Wahrscheinlichkeiten eingeführt werden. Dies kann auf unterschiedliche Weise erfolgen. Es kann eine Menge symmetrischer Maßfunktionen für Sätze definiert werden. Jede dieser Maßfunktionen gibt, durch die bedingte Wahrscheinlichkeit definiert, eine Bestätigung c für einen Schluss. Mit deren Hilfe kann durch die obige Definition festgestellt werden, ob der Schluss probabilistisch gültig ist. • MDLE+P: Vorläufige Definition Es gelten alle Definitionen von MDLE und außerdem gilt: – Es gibt eine Menge von Maßfunktionen m, welche jedem Satz φ von MDLE eine Wahrscheinlichkeit zuordnen, so dass gilt: m(⊥) = 0, m(φ ) > 0, wenn ¬(φ ↔⊥), und m(φ ) = m(ψ), wenn φ und ψ zu derselben statistischen Verteilung gehören. – Für jede Maßfunktion gibt es eine Bestätigungsfunktion c, die, vor∧ψ) ausgesetzt m(φ ) 6= 0, als c(ψ/φ ) = m(φ m(φ ) definiert ist. – Der probabilistische Schluss ψ1 , ψ2 , ..., ψn |=w φ ist gültig gdw für jede Bestätigung c gilt: c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) > 12 oder c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) ist nicht definiert. In diesem Ansatz besteht das Problem, dass die Maßfunktion von Anfang an auf Satzebene fixiert wird und somit eine Verankerung im Modell fehlt. Eine bessere Möglichkeit, Wahrscheinlichkeiten und Logik zu verbinden, besteht in der Einführung logisch möglicher Welten, wobei diese die Rolle von Carnaps Zustandsbeschreibungen übernehmen sollen und im weiteren Verlauf auch Zustandsbeschreibungen genannt werden. Damit sollen sie von den bereits definierten möglichen Welten aus MDL und MDLE abgegrenzt werden. Dabei spricht man diesen Zustandsbeschreibungen durch eine Maßfunktion Wahrscheinlichkeiten zu. Intuitiv lässt sich sagen, dass die Wahrscheinlichkeit eines Satzes der Summe der Wahrscheinlichkeiten der Zustandsbeschreibungen entspricht, in denen er wahr ist. Der Definitionsbereich der Maßfunktion m umfasst

87

2 Quantitative Normalität also sowohl Zustandsbeschreibungen als auch Sätze. Der Funktionswert ist in beiden Fällen eine Wahrscheinlichkeit. Eine Zustandsbeschreibung für ein MDLE Modell M lässt sich als ein Paar hz, Zi darstellen, wobei gilt Z ∈ POW (W ) und z ∈ Z. Dabei ist z eine logische Alternative für die aktuale Welt und Z eine logische Alternative für alle, auch nicht-aktuale, Fälle. Um die Regularität der Maßfunktion zu garantieren, wird gefordert, dass keine Zustandsbeschreibung den Wert 0 zugewiesen bekommt, und dass die Summe der Werte einer Maßfunktion für alle vorhandenen Zustandsbeschreibungen 1 ist. Die Maßfunktion ist symmetrisch, wenn isomorphe Zustandsbeschreibungen denselben Wert zugesprochen bekommen. Zwei Zustandsbeschreibungen sind isomorph, also weichen bezüglich der Quantität nicht voneinander ab, wenn alle Prädikate, einschließlich der mit Lambda gebildeten, in der aktualen Welt beider Beschreibungen ebenso mächtige Extensionen haben. Desweiteren muss es für jede nicht-aktuale Alternative einer Beschreibung genau eine Alternative der anderen Zustandsbeschreibung geben, die ebenso diese Bedingung erfüllt. Definition 2.6.1 MDLE+P Es gelten alle Definitionen von MDLE und außerdem gilt: 1. Für jedes Modell M gibt es eine Menge von Zustandsbeschreibungen ZM , die geordnete Paare der Form hz, Zi enthält, wobei gilt: Z ∈ POW (W ) und z ∈ Z. 2. Es gibt eine Menge von Maßfunktionen m, wobei m jedem hz, Zi ∈ ZM eine Wahrscheinlichkeit zuordnet, so dass gilt: a) mhz, Zi > 0. b) Sei ZM = {z1 , z2 , ..., zn }. Dann ist m(z1 ) + m(z2 ) + ... + m(zn ) = 1, c) m(hz1 , Z1 i) = m(hz2 , Z2 i), wenn für jede Formel φ gilt: |Iz1 (λ xφ )| = |Iz2 (λ xφ )|, und wenn es für alle w1 ∈ Z1 genau eine Welt w2 ∈ Z2 gibt, so dass für jede Formel φ gilt: |Iw1 (λ xφ )| = |Iw2 (λ xφ )|. 3. Die Maßfunktion m ordnet jedem Satz φ eine Wahrscheinlichkeit zu, so dass m(φ ) die Summe ∑ m(hz, Zi) für alle hz, Zi ∈ ZM ist, für die gilt: VMZ/M ,z (φ ) = 1. Dabei ist MZ/M = hZ, D, Ii gdw M = hW, D, Ii. 4. Die Bestätigungsfunktion c ist, wenn m(φ ) 6= 0, als c(ψ/φ ) = definiert und bleibt undefiniert, wenn m(φ ) = 0.

88

m(φ ∧ψ) m(φ )

2.7 Quantitative Normalitätslogik 5. Der probabilistische Schluss ψ1 , ψ2 , ..., ψn |=w φ ist gültig gdw für jede Maßfunktion m und die zu ihr definierte Bestätigung c und jedes Modell M mit seinen Zustandsbeschreibungen ZM gilt: c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) > 1 2 oder c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) ist nicht definiert. Durch die Definition einer probabilistischen Erweiterung von MDLE sind damit auch einfache Vorhersageschlüsse aus quantitativen Prämissen formalisierbar. Auf ähnliche Weise, wie auch höhere Grenzen für „die meisten” gegeben werden können, ließen sich anspruchsvollere probabilistische Schlüsse formalisieren. Diese können für die alternativen Varianten der Determiniererlogik genutzt werden. Definition 2.6.2 Varianten des probabilistischen Schlusses 2 Der probabilistische Schluss ψ1 , ψ2 , ..., ψn |=w 3 φ ist gültig gdw für jede Maßfunktion m und die zu ihr definierte Bestätigung c und jedes Modell M mit seinen Zustandsbeschreibungen ZM gilt: c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) ≥ 23 oder c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) ist nicht definiert. 0,95 Der probabilistische Schluss ψ1 , ψ2 , ..., ψn |=w φ ist gültig gdw für jede Maßfunktion m und die zu ihr definierte Bestätigung c und jedes Modell M mit seinen Zustandsbeschreibungen ZM gilt: c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) ≥ 19 20 oder c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) ist nicht definiert. 0,99 Der probabilistische Schluss ψ1 , ψ2 , ..., ψn |=w φ ist gültig gdw für jede Maßfunktion m und die zu ihr definierte Bestätigung c und jedes Modell M mit 99 seinen Zustandsbeschreibungen ZM gilt: c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) ≥ 100 oder c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) ist nicht definiert.

2.7 Quantitative Normalitätslogik Mit den bisherigen Grundlagen, nämlich der Definition des Determinierers M , der Ausweitung auf Modalität und schließlich dem probabilistischen Schluss, haben wir alle Bausteine für eine quantitative Logik der Normalität gegeben. Weiterhin ist es möglich, eine höhere Grenze für Normalität und den probabilistischen Schluss als „mehr als die Hälfte” zu setzen. Dabei müssen nicht zwangsläufig alle Möglichkeiten, die in MDLE+P gegeben sind, ausgeschöpft werden. Die qualitativen Normalitätslogiken, die wir im nächsten Kapitel besprechen werden, sind in erster Linie Aussagenlogiken. Daher definieren wir nun zwei

89

2 Quantitative Normalität propositionale Normalitätslogiken, die sich aus den zuvor definierten Bausteinen zusammensetzen lassen. Neben der Grenze „mehr als die Hälfte” betrachten wir auch die Grenze „mindestens 95 Prozent”. Die folgenden Definitionen von N und N0,95 verlangen nur einige wenige Erweiterungen der bekannten Modallogik S5. Mittelpunkt ist zum einen das Normalitätskonditional φ ψ, sprich „Wenn φ dann normalerweise ψ”, das in seiner Definition M φ ψ entspricht, und zum anderen der probabilistische Schluss. Im Falle einer Aussagenlogik vereinfacht sich dieser bei der Symmetrieforderung, da keine Prädikatsextensionen zu berücksichtigen sind, dahingehend, dass logische Möglichkeiten dann strukturell gleich sind, wenn sie lediglich darin abweichen, welche Welt als aktual betrachtet wird.84 Definition 2.7.1 Propositionale Normalitätslogiken N und N0,95 N und N0,95 sind propositionale Modallogiken im Stil von S5. Zusätzlich zu allen Bestimmungen von S5 gelten folgende Definitionen: • N ORMALITÄT FÜR N: VM,w (φ ψ) = 1 gdw |[φ ]M ∩ [ψ]M | > |[φ ]M − [ψ]M |. Dabei ist [φ ]M = {w0 : VM,w0 (φ ) = 1}. • N ORMALITÄT FÜR N0,95 : VM,w (φ ψ) = 1 gdw |[φ ]M ∩ [ψ]M | > |[φ ]M − [ψ]M | · 19. Dabei ist [φ ]M = {w0 : VM,w0 (φ ) = 1}. • P ROBABILISTISCHER S CHLUSS : – Es gibt für ein Modell M eine Menge von Zustandsbeschreibungen ZM , die geordnete Paare der Form hz, Zi enthält, wobei Z ∈ POW (W ) und z ∈ Z. – Maßfunktionen m ordnen jedem hz, Zi ∈ ZM eine Wahrscheinlichkeit zu, so dass gilt: a) mhz, Zi > 0, 84

90

In der folgenden Definition steigt mit der Grenze für Normalität gleichzeitig auch die Grenze für den probabilistisch gültigen Schluss. Ebenso wäre es möglich, eine Logik zu definieren, bei der nur der Normalitätsoperator anspruchsvoller wird. In einer solchen Logik wären einige zusätzliche Schlüsse probabilistisch gültig, zum Beispiel der von > ψ und > φ zu φ ∧ ψ. Er ist allerdings nicht uneingeschränkt für beliebig viele Normalitätsannahmen und langkettige Konjunktionen gültig.

2.7 Quantitative Normalitätslogik b) Sei ZM = {z1 , z2 , ..., zn }. Dann ist m(z1 ) + m(z2 ) + ... + m(zn ) = 1, c) m(hz1 , Z1 i) = m(hz2 , Z2 i), wenn Z1 = Z2 . – Die Maßfunktion m ordnet jedem Satz φ eine Wahrscheinlichkeit zu, so dass m(φ ) die Summe ∑ m(hz, Zi) für alle hz, Zi ∈ ZM ist, für die gilt: VM,z (φ ) = 1. ∧ψ) – Die Bestätigungsfunktion c ist als c(ψ/φ ) = m(φ m(φ ) definiert, wenn m(φ ) 6= 0, und bleibt undefiniert, wenn m(φ ) = 0.

– ψ1 , ψ2 , ..., ψn |=wN φ gdw für jede Maßfunktion m und die zu ihr definierte Bestätigung c und jedes Modell M mit seinen Zustandsbeschreibungen ZM gilt: c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) > 12 oder c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) ist nicht definiert. – ψ1 , ψ2 , ..., ψn |=wN0,95 φ gdw für jede Maßfunktion m und die zu ihr definierte Bestätigung c und jedes Modell M mit seinen Zustandsbeschreibungen ZM gilt: c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) ≥ 19 20 oder c(φ /ψ1 ∧ ψ2 ∧ ... ∧ ψn ) ist nicht definiert. Je nach Bedarf können andere Normalitätslogiken aus den Grundlagen von MDLE+P definiert werden. All diese Logiken teilen einige wesentliche Charakteristika, insbesondere die Ungültigkeit der Konjunktion unter Normalität, die die quantitative Normalitätslogik von den nun zu diskutierenden qualitativen Logiken der Normalität unterscheidet.

91

3 Qualitative Normalität In der Einleitung war die Rede von zwei Stichworten, die eng mit Normalität verbunden sind: zum einen von hos epi to poly und zum anderen von ceteris paribus . Nachdem das quantitative Konzept der Normalität im letzten Kapitel sehr ausführlich thematisiert wurde, ist Aristoteles’ hos epi to poly klarer geworden. Ist aber damit auch geklärt, was ceteris paribus bedeutet? Im folgenden Zitat umreißt Nancy Cartwright den Unterschied zwischen den physikalischen Gesetzen und den Beschreibungen der Biologie: „Not only do the laws of physics have exceptions; unlike biological laws, they are not even true for the most part, or approximately true”.85 Über die Gesetze der Physik sagt Cartwright nun, sie seien „best covered by ceteris paribus generalizations – generalizations that hold only under special conditions, usually ideal conditions”.86 Aus diesen Zitaten wird deutlich, dass mit der ceteris paribus Generalisierung keine quantitative Normalität gemeint sein kann. Gegen eine statistische Deutung einer ceteris paribus Generalisierung in Cartwrights Sinne spricht weiterhin der Ausdruck „ideal”. Für diesen ist in der Diskussion quantitativer Normalität kein Platz gewesen. In diesem Kapitel geht es nun darum, ein Normalitätskonzept zu erläutern, in dem nicht Quantität, sondern Idealisierung oder Typikalität fundamental sind. Normalitätsaussagen besagen hierbei, was unter besonders vereinfachten Rahmenbedingungen oder was typischerweise der Fall ist. Wir werden dies qualitative Normalität nennen. Dabei ergeben sich Deutungen von Normalitätsaussagen als Typikalität, wie sie in Tabelle 3.1 zu sehen sind, oder als Gesetzte unter idealen Umständen, wie in Tabelle 3.2. Der Unterschied zwischen Deutungen im Sinne von „ideal” und im Sinne von „typisch” besteht in der jeweiligen Globalität der Normalitätsannahme. Vereinfachungen und Idealisierungen sind für ein gesamtes epistemisches System relevant, während Typikalitätsaussagen meist einen konkreten Bezug zu einem 85 86

Cartwright (1999), S.54. Cartwright (1999), S.45.

3 Qualitative Normalität N ORMALITÄTSAUSSAGE S sind normalerweise P. Bei E ist x normalerweise P. Bei E sind S normalerweise P.

T YPIKALITÄT Typische S sind P. In typischen E-Fällen ist x P. Typische S sind in typischen E-Fällen P. In typischen E-Fällen sind typische S P.

Tabelle 3.1: Normalität als Typikalität N ORMALITÄTSAUSSAGE

I DEALISIERUNG

S sind normalerweise P. Bei E ist x normalerweise P. Bei E sind S normalerweise P.

S sind in idealen Fällen P. In idealen E-Fällen ist x P. S sind in idealen E-Fällen P. In idealen E-Fällen sind S P.

Tabelle 3.2: Normalität als Idealisierung

Begriff haben. Im Laufe dieses Kapitels über logische Systeme qualitativer Normalität soll dies verdeutlicht werden. Außerdem werden wir die Unterschiede und Gemeinsamkeiten zur quantitativen Normalität herausarbeiten.

3.1 Ordnungen der Conditional Logic Die Behandlung von Konditionalen als Wahrheitsfunktionen in der klassischen Logik führt zu einigen kontraintuitiven Ergebnissen. Demnach hat jemand, der ein Antezedens für falsch hält, schon genügend Grund, das Konditional zu akzeptieren. Wissen wir, dass Kramurx ein Rabe ist, dann ist zum Beispiel „Wenn Kramurx ein Pinguin ist, dann kann Kramurx fliegen” eine wahre Aussage. Dabei gibt das Antezedens überhaupt keinen Anlass zu glauben, dass das Sukzedens wahr wäre, wenn es das Antezedens wäre. Dagegen hält Robert Stalnaker fest: „The falsity of the antecedent is never sufficient reason to affirm a conditional”.87 Er plädiert dafür, dass das Sukzedens immerhin wahr sein müsste, wenn das Antezedens, entgegen den tatsächlichen Fakten, doch zuträfe. Daher ist es nicht verwunderlich, dass auch David Lewis’ Theorie der Counterfactuals formal mit Stalnakers Logik der Konditionale eng verwandt ist. Die Conditional Logic, die sich aus den Arbeiten Lewis’ und Stalnakers ergibt, 87

94

Stalnaker (1981), S.43.

3.1 Ordnungen der Conditional Logic kann aber auch als eine Logik der ceteris paribus Einschränkungen betrachtet werden.

3.1.1 Ceteris paribus Annahmen und Conditional Logic Konditionale, die mit ceteris paribus Klauseln gelesen werden müssen, sind in gewisser Hinsicht Konditionale mit Normalitätsannahmen. Sie können in der klassischen Logik nicht hinreichend erfasst werden. Graham Priest zeigt dies anhand des folgenden Beispiels, in dem der klassisch gültige Schluss φ → ψ |= φ ∧ ξ → φ , die Verstärkung des Antezedens, unplausibel ist: If it does not rain tomorrow we will go to the cricket. Hence, if it does not rain tomorrow and I am killed in a car accident tonight then we will go to the cricket.88

Das erste Konditional, so Priest, müsse so gelesen werden, als enthalte es eine ceteris paribus Klausel: A conditional of this kind is of the form ‘if A and CA then B’, where CA is the ceteris paribus clause. How does this clause function? It is no ordinary conjunct. For a start, as we have seen, it captures an open-ended set of conditions. It also depends very much on A.89

Aus diesen Überlegungen lassen sich Grundlagen der Conditional Logic darstellen. Eine Conditional Logic ist eine Modallogik mit einer Menge von Zugänglichkeitsrelationen, bei der jede Formel eine gesonderte Zugänglichkeitsrelation zugewiesen bekommt. So fasst Priest zusammen: „[E]very formula, A, gives rise to a corresponding necessity operator, A . A > B is then just A B”.90 Ein Konditional mit ceteris paribus Annahmen ist damit in einer Welt genau dann wahr, wenn das Sukzedens in den Welten wahr ist, die gemäß der vom Antezedens bestimmten Relation zugänglich sind. Im oben genannten Beispiel sind bei „It does not rain tomorrow” einige Welten nicht zugänglich, die erst durch Hinzufügung von „I am killed in a car accident tonight” zu berücksichtigen sind. Umgekehrt werden einige Welten nicht mehr zugänglich sein, nämlich 88 89 90

Priest (2008), S.82. Priest (2008), S.84. Priest (2008), S.85.

95

3 Qualitative Normalität die, in denen der Sprecher lebt. Es können nun Einschränkungen gegeben werden, die die Semantik der Conditional Logic bestimmen. Die folgenden beiden Prinzipien sind grundlegend: 1. Von einer Zugänglichkeitsrelation, die durch das Antezedens A bestimmt ist, sollen von einer Welt aus nur Welten ausgewählt werden, in denen A gilt. 2. Von einer Zugänglichkeitsrelation, die durch das Antezedens A bestimmt ist, soll eine Welt von sich selbst aus zugänglich sein, wenn in dieser Welt A gilt. Welche Bedeutung haben diese beiden Forderungen? Die erste Forderung lässt sich, bezogen auf Normalitätskonditionale, als Relevanzprinzip auffassen. Ein Gesetz der Art „Wenn A, dann normalerweise B” lässt sich nur anhand der möglichen Fälle beurteilen, in denen wenigstens das Antezedens A gilt. Dies ist vergleichbar mit der Eigenschaft der Konservativität bei generalisierten Quantoren. Ein Determinierer ist konservativ, wenn er in einem Satz nur in Bezug auf die Individuen bewertet wird, die im Subjektbegriff enthalten sind. Parallel dazu führt in der Conditional Logic die erste Bedingung dazu, dass folgende Äquivalenz zu finden ist: A → B ⇔ A → (A ∧ B), denn A → B entspricht A B. Aufgrund der ersten Einschränkung ist A A ohnehin allgemeingültig, so dass A B ⇔ A (A ∧ B) gilt. Die zweite Forderung sagt intuitiv, dass das Antezedens mit ceteris paribus Erweiterung die aktuale Welt nicht ausschließt, wenn das Antezedens in dieser wahr ist. Die ceteris paribus Klausel ist in der aktualen Welt prima facie erfüllt. Hier ist zu bemerken, dass dies offensichtlich im Widerspruch zu einer other things being normal Interpretation dieser Klausel, wie sie von Cartwright vertreten wird, steht. Bei ihr findet sich die These: „Ceteris paribus generalizations, read literally without the ‘ceteris paribus’ modifier, are false”.91 Ceteris paribus Klauseln, so wie sie in der Conditional Logic behandelt werden können, haben wenig mit theoretischen Gesetzen in Cartwrights Sinne zu tun, sondern sie schließen allenfalls mögliche, aber nicht reale Alternativen aus. Cartwrights These der ceteris paribus Verallgemeinerungen ist mit dieser Lesart der Conditional Logic nicht zu erfassen. Es spricht allerdings auch einiges dafür, dass ceteris paribus in der Conditional Logic eher als other things being 91

96

Cartwright (1999), S.45.

3.1 Ordnungen der Conditional Logic equal denn als other things being normal zu interpretieren ist. Die betrachteten Welten sind ähnlich zu der aktualen Welt.

3.1.2 Conditional Logic als Logik der Ähnlichkeiten Robert Stalnaker bringt den Gedanken der Ähnlichkeit in die Logik mit der Forderung, dass ein Konditional mit einem falschen Antezedens anhand einer Welt beurteilt werden müsse, in denen das Antezedens wahr ist, wobei gilt: [...] that the world selected differ minimally from the actual world. This implies, first, that there are no differences between the actual world and the selected world except those that are required, implicitly or explicitly, by the antecedent.92

Formal wird dies durch Ähnlichkeitssphären ausgedrückt. Bei dem Umgang mit Ähnlichkeitssphären gibt es zwischen Robert Stalnaker und David Lewis einige Unterschiede. Der Grundansatz ist allerdings derselbe: Ein Konditional sollte in einer Welt anhand der Welten beurteilt werden, in denen das Antezedens wahr ist, und die darüber hinaus der realen Welt ähnlich sind. Das schon erwähnte Prinzip, dass Welten, in denen das Antezedens wahr ist, sich selbst zugänglich sind, ist bereits ein erster Teil dieser Ähnlichkeitsvoraussetzung, denn selbstverständlich ist jede Welt sich selbst ähnlich. Darüber hinaus kann in diesem Fall auch keine andere Welt relevant für die Bewertung des Konditionals sein, denn jede andere Welt wäre dieser Welt weniger ähnlich, als sie sich selbst ist. Nur wenn das Antezedens falsch ist, sind andere Welten zu berücksichtigen. Stalnaker will dabei auf eine Welt zurückgreifen, die der aktualen am meisten entspricht. David Lewis spricht von Ähnlichkeitssphären, also potentiell mehreren Welten, die der aktualen etwa gleich ähnlich sind. Innerhalb einer Sphäre gelten dann die Wahrheitsbedingungen eines strikten Konditionals. Lewis umreißt seine Position, verglichen zu Stalnakers, mit folgenden Worten: We have discarded two assumptions about comparative similarity [. . . ]: first Stalnaker’s assumption of uniqueness, then the Limit Assumption. What assumptions remain? First, the Ordering Assumption: that for each world i, comparative similarity to i yields a weak ordering of the worlds accessible from i. That is, writing j ≤i k to mean that k is not closer to i than j, each ≤i is connected and transitive. [. . . ] Second, the Centering 92

Stalnaker (1981), S.46.

97

3 Qualitative Normalität Assumption: that each world i is accessible from itself, and closer to itself than any other world is to it.93

Aus dieser Veränderung resultiert die Nichtgültigkeit des bedingten Satzes vom ausgeschlossenen Dritten, (A → B) ∨ (A → ¬B), den Stalnaker akzeptiert. Lewis’ Konditionale sind daher logisch anspruchsvoller.

3.1.3 Boutiliers Conditional Logics of Normality Was macht die Systeme von Robert Stalnaker und David Lewis interessant für die Frage nach Normalitätskonzepten? Inwiefern sind sie relevant für ceteris paribus Generalisierungen oder Typikalitätsaussagen? Wichtig und interessant für das qualitative Normalitätskonzept ist die Möglichkeit, Welten logisch zu ordnen. Das heißt, die Ordnung selbst, die Unterscheidung von naheliegenden und weniger naheliegenden Alternativen, ist ein wichtiger Bestandteil einer qualitativen Deutung von Normalität. Eine grundlegende Annahme der Systeme von Lewis und Stalnaker ist die herausragende Stellung der aktualen Welt, um die herum sich alle anderen möglichen Welten nach ihrer Ähnlichkeit anordnen. Aus der Perspektive einer Normalitätslogik können wir Weltbeschreibungen epistemisch bevorzugen, die besonders typisch oder normal sind. Dabei bildet nicht die aktuale Welt das Zentrum einer Ähnlichkeitsordnung, sondern eine idealisierte, maximal normale Welt. Diese ideal-normale Welt passt eher zu Cartwrights Verständnis von ceteris paribus, denn auch dann, wenn ein Akteur nicht glaubt, dass diese Welt tatsächlich die aktuale Welt ist, hat sie eine besondere Bedeutung als Zentrum einer epistemischen Ordnung aller Alternativen. Ein logischer Ansatz, in dem die Grundidee der Ordnung nach Normalität zum Tragen kommt, findet sich in Craig Boutiliers Conditional Logics of Normality.94 Diese Logiken zeichnen sich durch die für qualitative Normalitätskonzepte eingängige Annahme aus, dass Dinge nicht nur normal, sondern auch am normalsten sein können: A natural reading of the standard default statement that justifies the conclusion fly based on (total) evidence bird is something like “Birds normally fly”, or “In the most normal circumstances in which x is a bird, x flies”.95 93 94 95

98

Lewis (1981), S.64. Vgl. Boutilier (1994). Boutilier (1994), S.88. Auf Defaults werden wir im nächsten Kapitel ausführlicher eingehen.

3.1 Ordnungen der Conditional Logic Dass Boutiliers Verständnis von Normalitätsurteilen auf der Seite des Qualitativen liegt, ist vollkommen klar und wird auch von ihm selbst betont. So beschreibt er diese auch als „statements of normality or typicality”.96 Für ihn sind „normality” und „typicality” synonym. Damit ist allerdings nicht gesagt, dass Boutilier eine lokale, auf Typen bezogene Normalität meint. Es handelt sich eher um eine Abgrenzung zu einer quantitativen Normalitätsdeutung. Das Normalitätskonditional in den Conditional Logics of Normality Den Ausgangspunkt für Craig Boutiliers Interesse an Conditional Logic bilden Schlussschemata, die in diesen Systemen nicht gelten und für Normalitätsschlüsse definitiv nicht erwünscht sind: • Keine Verstärkung des Antezedens. A ⇒ B 6|= A ∧C ⇒ B. • Keine Transitivität. A ⇒ B, B ⇒ C 6|= A ⇒ C. • Keine Kontraposition. A ⇒ B 6|= ¬B ⇒ ¬A.97 Die für Konditionale gegebene Semantik, nämlich dass A ⇒ B wahr ist, wenn die der aktualen Welt ähnlichsten A-Welten auch B-Welten sind, deutet Boutilier für „Wenn A, dann normalerweise B” so um, dass gilt: „A ⇒ B will be true if the most normal worlds that make A true also satisfy B”.98 Statt um die wirklichkeitsnächsten Welten geht es um die normalsten Welten. Im Gegensatz zur Conditional Logic von Stalnaker und Lewis ist es nicht von der aktualen Welt abhängig, welche Welten am normalsten sind. Daher braucht Boutiliers Semantik der Normalitätsurteile keine Auswahlfunktion, die für jede Antezedenswelt einen eigenen Modaloperator definiert, sondern, wie in der Standardmodallogik üblich, nur eine Zugänglichkeitsrelation. Diese ordnet die Welten hinsichtlich ihrer Normalität. Eine Welt ist von einer Welt aus zugänglich, wenn sie mindestens genauso normal wie diese ist. Die Zugänglichkeit von w zu v, w 6 v, bedeutet, dass v mindestens so normal ist wie w. Sie ist transitiv und reflexiv. Außerdem kann total connectedness gefordert werden. Das heißt, dass alle Welten miteinander verbunden sind, also für beliebige Welten w und v w 6 v oder v 6 w gilt. Die korrespondierenden Logiken heißen CT4O 96 97 98

Boutilier (1994), S.88. Vgl. Boutilier (1994), S.91. Boutilier (1994), S.95.

99

3 Qualitative Normalität beziehungsweise, mit vollständiger Verbundenheit, CO. Anders als bei vielen bekannten Standardmodallogiken gibt es zwei primitive Modaloperatoren, wobei einer die zugänglichen, mindestens ebenso normalen Welten und der andere die unzugänglichen Welten berücksichtigt.99 → − •  A ist wahr in w gdw A in allen Welten v wahr ist, die von w aus zugänglich sind. A ist in allen mindestens genauso normalen Welten wahr. ← − •  A ist wahr in w gdw A in allen Welten v wahr ist, die von w aus nicht zugänglich sind. A ist in allen weniger normalen Welten wahr. Außerdem werden folgende Operatoren definiert: → − ← − • A :=  A ∧  A A ist in allen Welten wahr. → − → − • ♦ A := ¬  ¬A A ist in manchen mindestens genauso normalen Welten wahr. ← − ← − • ♦ A := ¬  ¬A A ist in manchen weniger normalen Welten wahr. • ♦A := ¬¬A A ist in manchen Welten wahr. Folgende Axiome gelten in CT4O und CO, wobei ⊃ das materiale Konditional ist: → − → − → − • K.  (A ⊃ B) ⊃ (  A ⊃  B) ← − ← − ← − • K’.  (A ⊃ B) ⊃ (  A ⊃  B) → − • T.  A ⊃ A → − → −→ − • 4.  A ⊃   A → − ← − • H. ♦(  A ∧  B) ⊃ (A ∨ B).100 99

100

100

Alle folgenden Definitionen sind von Boutilier (1994). Die Notation der Modal→ − ← → operatoren wurde leicht verändert. Statt „” wurde „  ” verwendet und statt „  ” wurde „” genutzt. Entsprechend wurde mit dem Diamant für die schwachen Modalitäten verfahren. Boutilier (1994), S.99.

3.1 Ordnungen der Conditional Logic In CO gilt außerdem: − ← −→ • S. A ⊃  ♦ A.101

Normalitätskonditionale werden auf Grundlage der beiden vorhandenen Modaloperatoren formalisiert. Es handelt sich um eine zweistellige Operation, die allerdings auf der Grundlage von einstelligen Modaloperatoren als Abkürzung eingeführt wird: → − → − (A ⇒ B) := (A ⊃ ♦ (A ∧  (A ⊃ B))).102

Das heißt, „Wenn A dann normalerweise B” ist genau dann wahr, wenn für jede Welt gilt: Wenn A der Fall ist, dann gibt es eine mindestens ebenso normale Welt, in der A gilt und in jeder mindestens ebenso normalen A-Welt auch B der Fall ist. Das bedeutet, dass von jeder A-Welt aus eine A-Welt zugänglich ist, von der aus nur noch A-Welten zugänglich sind, die auch B-Welten sind. In CO gilt dies, wenn entweder A in keiner Welt gilt oder in den normalsten A-Welten das strikte Konditional (A ⊃ B) gilt. Die Wahrheit einer Formel der Struktur A ⇒ B hängt nicht davon ab, in welcher Welt wir uns aktual befinden, denn die Definition wird mit  als Hauptoperator gebildet. Dementsprechend gilt auch: A ⇒ B |= A ⇒ B. Dies unterscheidet Boutiliers Ansatz von anderen Arten der Conditional Logic, in denen die aktuale Welt entscheidende Bedeutung bei der Bewertung des Konditionals hat. Beim Gesetz des konditionalen ausgeschlossenen Dritten, durch das sich Stalnakers Logik von Lewis’ unterscheidet, zeigt sich, dass Boutiliers Ansatz näher bei Lewis steht: The conditional law of excluded middle CEM (A ⇒ B) ∨ (A ⇒ ¬B) is not valid in our logic. In contrast with Stalnaker’s [...] conditional semantics, a proposition A need not normally imply B or ¬B. For example, the door need not normally be open or closed. This is because we do not make the Uniqueness Assumption, that the most normal A-world be unique.103

Im Bereich der Normalitätsaussagen ist es äußerst plausibel, dass CEM nicht gilt. Dies ist notwendig, damit ein konträres Verhältnis zur inneren Negation besteht. Ein solches ist nicht nur im quantitativen, sondern auch im qualitativen 101 102 103

Boutilier (1994), S.101. Boutilier (1994), S.103. Boutilier (1994), S.106f.

101

3 Qualitative Normalität Normalitätsverständnis als eine übergreifende Eigenschaft von Normalitätsannahmen plausibel. Würde CEM gelten, müsste von zwei Alternativen immer eine normalerweise zutreffen. Das widerspricht aber der Intuition, dass wir in vielen Bereichen gar keine Normalitätsannahmen machen. Zum Beispiel nehmen wir weder an, dass es am 13. März an der Ostseeküste normalerweise regnet, noch nehmen wir an, dass es am 13. März an der Ostseeküste normalerweise nicht regnet. Übergreifend bedeutsam ist die Funktion von Normalitätsaussagen zur Rechtfertigung für potentiell widerlegbare Annahmen. Der Modus Ponens für Normalitätskonditionale „Wenn A, dann normalerweise B. Nun A. Also B” ist in keiner der Conditional Logics of Normality gültig. Dies ist nicht unplausibel, denn Vermutungen aus Normalitätsannahmen haben im Vergleich zu logischen Schlüssen einen vorläufigen Charakter. In der Logik quantitativer Normalität wurden solche Prognosen mit Hilfe von probabilistischen Schlüssen dargestellt. Boutilier bietet allerdings keinen weiteren Folgerungsbegriff an. Stattdessen weist er darauf hin, dass die Erwartung aus dem Normalitätskonditional zwar nicht als logische Folgerung gilt, aber dafür selbst ein allgemeingültiges Normalitätskonditional ist. Dieses nennt Boutilier Weak Modus Ponens: Weak Modus Ponens. A ∧ (A ⇒ B) ⇒ B.104

Da es keinen entsprechenden Folgerungsbegriff gibt, heißt das auch, dass sich der Vorhersageschluss in Boutiliers Logik nicht als Schluss, sondern nur als Tautologie darstellen lässt. Konjunktion in der Conditional Logic of Normality In Boutiliers Conditional Logics gilt folgendes logisches Gesetz: • And. ((A ⇒ B) ∧ (A ⇒ C)) ⊃ (A ⇒ B ∧C).105

Das bedeutet, wenn bei A normalerweise B gilt und außerdem bei A normalerweise C gilt, dann gelten bei A auch normalerweise B und C zusammen. Alle Sachverhalte, die normalerweise auftreten, lassen sich durch Konjunktion zusammenfassen und bilden das Normale. Das ist für eine Logik quantitativer Normalität nicht plausibel, sondern stellt ein Merkmal eines qualitativen Normalitätsverständnisses dar. 104 105

102

Boutilier (1994), S.105. Boutilier (1994), S.105.

3.1 Ordnungen der Conditional Logic Aus And ergibt sich die Möglichkeit, eine Art von Lotterieparadox für Normalitätsannahmen zu formulieren. Ein Lotterieparadox entsteht, wenn verschiedene Behauptungen akzeptiert werden, die in einer Konjunktion nicht mehr plausibel sind. Ein Beispiel dafür ist der berechtigte Glaube, dass ein bestimmtes Ticket in einer Lotterie mit vielen Tickets und nur einem Gewinn nicht das gewinnende Ticket ist. Dies ist für jedes einzelne Ticket glaubhaft. Dennoch ist es absurd anzunehmen, dass jedes Los verlieren wird. In der Conditional Logic of Normality können Lotterieparadoxien für Normalität zum Problem werden: Suppose we know that birds normally fly: B ⇒ F. In Example 3.5 we saw that if penguins are exceptional (e.g., P ⇒ ¬F) then we can infer that birds are not typically penguins (B ⇒ ¬P). If we also know that other types of birds, for instance emus, canaries, hummingbirds, are exceptional in some respect, then we can also infer that birds are not typically one of these types (B ⇒ ¬E, B ⇒ ¬C, B ⇒ ¬H). However, if these form an exhaustive list of all birds of interest, we run into trouble.106

Die Annahme, dass jeder Vogel in gewisser Weise nicht normal ist, ist nicht kompatibel mit dem qualitativen Normalitätsverständnis. Tatsächlich scheint aber fast alles in gewisser Weise abzuweichen. Es scheint normal zu sein, dass Dinge nicht ganz normal sind. Boutilier sieht darin nicht wirklich ein Problem: „While it certainly seems natural to expect almost every subclass of some class of objects to be exceptional in a certain respect, it is unusual that we would care to encode most of these exceptions”.107 Das heißt, dass Boutiliers Logik es uns gegebenenfalls verbietet, alle möglichen Ausnahmen formal aufzunehmen, weil sonst Inkohärenzen entstehen würden. Durch die Normalitätsaussagen darf zumindest logisch niemals das vollkommen Normale ausgeschlossen werden. Boutilier sieht darin eine Stärke, denn somit könne man inkohärente Defaults und Definitionen entlarven.108 Dies zeigt, wie überzeugt er von einem qualitativen Normalitätsverständnis ist. Die Tatsache, dass sich aus quantitativ plausiblen Normalitätsannahmen ein Widerspruch ergibt, sieht er als Anlass, die Normalitätsannahmen zu revidieren. 106 107 108

Boutilier (1994), S.112. Boutilier (1994), S.112. Vgl. Boutilier (1994), S.113.

103

3 Qualitative Normalität

3.2 Defaults Im Rahmen von Forschungen zu künstlicher Intelligenz, zu denen auch Boutiliers Arbeit gehört, spielen seit einigen Jahrzehnten nicht-monotone Logiken und Defaults eine große Rolle. Die einschlägigen formalen Systeme wie Default Logik, autoepistemische Logik und Circumscription beziehen sich zwar nicht explizit auf Normalitätsaussagen, können aber auch als eine formale Deutung von Normalitätsannahmen verstanden werden. Dies wird deutlich mit Blick auf Frank Veltmans Aufsatz „Defaults in Update Semantics”, der sich explizit mit Normalität beschäftigt. Im ersten Teil dieses Abschnitts werden mit der Default Logik, autoepistemischer Logik und Circumscription Standardsysteme nicht-monotoner Glaubensrepräsentation kurz vorgestellt, bevor es in einem längeren zweiten Teil um Veltmans Verständnis von Defaults und Normalität gehen wird.

3.2.1 Default Logik, Autoepistemische Logik, Circumscription Ihren Ursprung hat die Logik der Defaults in Raymond Reiters „A logic for default reasoning” von 1980. Sie beruht darauf, dass Konklusionen unter Anwendung von Defaultregeln gezogen werden, soweit der Default relevant ist und nichts dagegen spricht, die Konklusion zu glauben. Eine Defaultregel δ besteht dementsprechend aus drei Teilen:109 A : B1 , B2 , ..., Bn C Alternativ findet sich mitunter auch folgende Schreibweise:110 A : MB1 , MB2 , ..., MBn C Die drei Teile haben folgende Bedeutung: 1. Die Voraussetzung A, auch prerequisite von δ , muss gegeben sein, damit die Defaultregel benutzt werden darf. Sie entspricht den Prämissen eines Schlusses. 109 110

104

Die hier gegebene Darstellung folgt weitestgehend Besnard (1989). Zum Beispiel bei Reiter (1980).

3.2 Defaults 2. Die Begründung B1 , B2 , ..., Bn , auch justification von δ , muss mit dem bisherigen Wissen konsistent sein, damit der Default genutzt werden kann. Wenn bekannt ist, dass einer dieser Teile falsch ist, darf der Default nicht angewendet werden. 3. Die Folgerung C, auch consequent von δ , ergibt sich, wenn der Default genutzt werden darf. Häufig sind Begründung und Folgerung identisch. Die Rechtfertigung für die Anwendung des Schlusses ist dabei, dass die Schlussfolgerung nicht mit dem faktischen Wissen in Konflikt steht. In diesem Fall spricht man von einem normalen Default. Dieser hat die folgende Form: A:C C Es kann auch gefordert werden, dass die Nutzung des Defaults noch zusätzliche Rechtfertigungen braucht. Dies ist bei seminormalen Defaults der Fall. Sie haben die folgende Form: A : C, B1 , B2 , ..., Bn C Eine Default Theorie enthält eine Menge von feststehenden Sätzen A und eine Menge von Defaults ∆. Sie ist also ein geordnetes Paar hA, ∆i.111 Die Extension E einer Default Theorie ist deduktiv geschlossen und umfasst zum einen alle feststehenden Sätze und zum anderen die Folgerung eines Defaults, wenn zwar dessen Voraussetzung aber keine der Rechtfertigung widersprechende Formel in der Extension enthalten ist.112 Das heißt, alle feststehenden Sätze und alle zulässigen Defaultfolgerungen bilden mit allen aus ihnen deduktiv folgenden Sätzen eine Extension. Default Theorien können auf verschiedene Weise widersprüchliche Annahmen unterstützen. Zum einen kann es vorkommen, dass es nicht nur eine, sondern verschiedene, nicht miteinander verträgliche Extensionen gibt. Zum 111

112

Besnard (1989) nennt A die Axiome. Es sollte allerdings beachtet werden, dass es sich dabei nicht um Axiome im mathematischen Sinne handelt, sondern um fest stehende faktische Annahmen der Theorie. „Extension” gehört zum fachsprachlichen Vokabular im Rahmen der Default Logik und ist keinesfalls mit dem gleichlautenden Ausdruck für den Begriffsumfang zu verwechseln.

105

3 Qualitative Normalität anderen kann es passieren, dass es gar keine Extensionen gibt. Der erste Fall tritt ein, wenn in einem Wissensstand verschiedene Defaultregeln angewendet werden können, die jedoch zu unterschiedlichen Ergebnissen führen. Ein Bei:¬ψ spiel für eine solche Theorie ist h{φ1 , φ2 }, { φ1ψ:ψ , φ2¬ψ }i. Sowohl ψ als auch ¬ψ sind durch Axiome und Defaults gerechtfertigt. Da beide aber nicht miteinander verträglich sind, gibt es zwei Extensionen, von denen eine ψ und die andere ¬ψ enthält. Derartige Situationen kommen durchaus vor. So können wir uns einen Default vorstellen, der besagt, dass, wenn eine FORSA Umfrage bei der Sonntagsfrage für eine Partei eine Zustimmung unter 5% angibt, diese Partei bei einer zu diesem Zeitpunkt abgehaltenen Bundestagswahl nicht in den Bundestag einzöge. Wir können als weitere Defaultregel einführen, dass, wenn eine EMNID Umfrage bei der Sonntagsfrage für eine Partei eine Zustimmung von mindestens 5% verbucht, diese Partei bei den Wahlen in den Bundestag einziehen würde. Betrachten wir die Wahlumfragen vom 18.08.2010, so sehen wir, dass die keine einheitliche Erwartung rechtfertigen können.113 Eine Inkonsistenz viel grundsätzlicherer Natur liegt vor, wenn eine Default Theorie gar keine Extension hat. Dies kann nur vorkommen, wenn Defaults beteiligt sind, die nicht normal sind:114 h0, / {

> : ¬φ2 ∧ φ1 > : ¬φ3 ∧ φ2 > : ¬φ1 ∧ φ3 , , }i φ1 φ2 φ3

Diese Defaults blockieren sich bei der Anwendung gegenseitig, so dass gar keine Extension gebildet werden kann. Wenn wir den ersten Default vor dem zweiten anwenden, wird der erste nachträglich durch den zweiten nicht länger anwendbar. Daher muss der zweite Default vor dem ersten angewendet werden. Der dritte Default muss aus demselben Grund vor dem zweiten Anwendung finden und schließlich der erste vor dem dritten. Da dies unmöglich ist und somit Defaults, die zur Bildung einer Extension angewendet werden müssen, nicht angewendet werden können, hat diese Default Theorie keine Extension. Dies ist eine logische Inkohärenz. Mit einer Default Theorie können zwei Arten von Vorhersagen verbunden werden. Dies sind zum einen gewagte Vorhersagen (brave predictions) und zum 113 114

106

Umfragewerte sind einzusehen unter http://www.wahlrecht.de/umfragen/forsa.htm und http://www.wahlrecht.de/umfragen/emnid.htm. Vgl. Besnard (1989) S.94.

3.2 Defaults anderen vorsichtige Vorhersagen (sceptical predictions).115 Zu einer mutigen Vorhersage gehört jeder Satz, der in einer willkürlich zu wählenden Extension enthalten ist. Je nachdem, welche Extension man wählt, kann dieselbe Theorie demnach zu anderen Vorhersagen führen. Vorsichtige Vorhersagen schließen lediglich Sätze ein, die in allen Extensionen enthalten sind. Auffällig in der Default Logik ist die Sonderstellung des Defaults. Ein Default wird als Schlussregel gegeben und nicht, wie in anderen Ansätzen, als Normalitätskonditional. Doch im Gegensatz zu einer rein beweistheoretischen Schlussregel, wie dem Modus Ponens, ist eine Defaultregel nicht logisch allgemein, sondern hat eine inhaltlich konkrete Bedeutung. Bemerkenswert ist auch, dass Ray Reiter bei Einführung der Default Logik auf der intuitiven Ebene noch ein statistisches Verständnis von Defaults zu haben schien: Such facts usually assume the form „Most P’s are Q’s” or „Most P’s have property Q”. For example most birds fly except for penguins, ostriches, the Maltese falcon etc. Given a particular bird, we will conclude that it flies unless we happen to know that it satisfies one of these exceptions.116

An anderer Stelle lesen wir: Notice that we have provided a representation for the ‘fuzzy’ quantifier ‘most’ or ‘almost all’ in terms of defaults, without appealing to frequency distributions or fuzzy logics. Notice also that the dual ‘fuzzy’ quantifier ‘few’ has a dual representation as a default.117

Reiter knüpft hier Defaults an Quantoren an, gesteht dabei allerdings ein, dass seine Representation der sogenannten „fuzzy quantifiers” im Grunde genommen nichts mit Quantität zu tun hat. Kurz gesagt: Reiter äußert quantitative Intuitionen zu Defaults, bietet aber keine quantitative Logik.118 Später hat er sich auch klar gegen eine quantitative Lesart von Defaults gestellt.119 Dass Default Logik eigentlich nichts mit „die meisten” oder „fast alle” zu tun hat, zeigt sich unter 115 116 117 118

119

Vgl. Poole (1994), S.192. Reiter (1980), S.82. Reiter (1980), S.83. Es gibt diverse Autoren, die Default Logik durch Quantität interpretieren und auch einige Stimmen, die sich gegen diese Deutung stellen. Für einen Überblick vgl. Besnard (1989), S.78. Vgl. Reiter (1987). Auf Reiters spätere Position wird im nächsten Kapitel ausführlicher eingegangen.

107

3 Qualitative Normalität anderem darin, wie sich Defaultschlüsse in Bezug auf Konjunktionen verhalten. >:φn 1 >:φ2 Bei einer Defaulttheorie hA, { >:φ φ1 , φ2 , ..., φn }i enthält die Extension nicht nur φ1 ,φ2 ,...,φn , sondern auch φ1 ∧ φ2 ∧ ... ∧ φn , denn Extensionen sind immer deduktiv geschlossen. Insofern handelt es sich bei der Default Logik, als Deutung für Normalitätsaussagen verstanden, um eine Logik eines qualitativen und nicht eines quantitativen Normalitätsverständnisses. Defaultregeln sind innerhalb einer Theorie eher methodischer Natur. Sie haben und brauchen keine Verankerung durch faktisches Wissen und können durch dieses auch nicht widerlegt werden. Sie besitzen in dem Sinne, anders als die Sätze, die in A enthalten sind, keinen Wahrheitsanspruch, sondern dienen eher der Methodik. Dieser methodologische Ansatz tritt noch deutlicher in anderen Systemen zu Tage, die oft in einem Atemzug mit der Default Logik genannt werden. Dies sind die Circumscription und die autoepistemische Logik. Wenn sie sich auch in der formalen Technik unterscheiden, so ist es der autoepistemischen Logik und der Circumscription doch gemeinsam, dass sie erlauben, einige nicht klassisch logisch gültige Vorhersagen zu treffen. In der Circumscription geht es darum, sich bei der Bewertung von Schlüssen auf Modelle zu beschränken, die den Begriffsumfang einzelner Prädikate nicht größer werden lassen, als es in Anbetracht der Evidenzen nötig ist. Circumscription für Prädikate greift dafür auf Prädikatenlogik zweiter Stufe zurück und definiert φ ∗ (α), die Circumscription eines Prädikates α in φ (α). Dabei sei φ (α) ein Satz, der α enthält. α < β kürzt ∀x(αx → β x) ∧ ¬∀x(αx ↔ β x) ab. Dann ist φ ∗ (α) = φ (α) ∧ ¬∃p(φ (p) ∧ p < α).120 Diese Formel ist genau dann wahr, wenn es keine kleinere Extension p gibt, die φ (p) erfüllt, als die von α. Circumscription führt dazu, dass die Modelle minimal sind. Sie modellieren also nur die Informationen, die explizit gegeben sind. Es wird davon ausgegangen, dass keine relevanten Informationen fehlen. Ein bekanntes Beispiel, mit dem der Grundgedanke der Circumscription verdeutlicht wird, ist das Flussüberquerungsproblem. Drei Missionare und drei Kannibalen müssen einen Fluss überqueren. Das Boot fasst nur zwei Personen und niemals dürfen mehr Kannibalen als Missionare zusammen sein. Eine offensichtlich unbefriedigende Lösung des Rätsels ist „Sie benutzen die Brücke eine halbe Meile flussaufwärts”, denn eine solche Brücke kam bei der Beschreibung des Problems überhaupt nicht vor.121 120 121

108

Vgl. Lifschitz (1994), S.300. Dieses Beispiel diskutiert John McCarthy, der Begründer der Circumscription, in McCarthy (1980).

3.2 Defaults Circumscription beruft sich darauf, dass es in vielen Situationen angebracht ist, mögliche Modelle auszuschließen oder wenigstens nicht zu berücksichtigen, die mehr beinhalten als in einer Beschreibung tatsächlich vorkommt. 122 Dem Grundgedanken der Circumscription entspricht der Default >:¬φ ¬φ . Auf der anderen Seite kann durch die Circumscription des Prädikats „abnormal” auch dargestellt werden, dass nur explizit genannte Ausnahmen als solche zu berücksichtigen sind.123 Dabei ist es offensichtlich, dass Circumscription diesen Minimalismus auf methodischer Ebene begründet und nicht etwa durch deskriptive Behauptungen über die Realität. In der Circumscription sollen wir nicht davon ausgehen, dass es im Flussüberquerungsproblem eine Brücke gibt, wenn nirgendwo von einer Brücke die Rede ist. Ganz ähnlich mutet das bekannteste Beispiel der autoepistemischen Logik an. Ein rationales Subjekt fragt sich, ob es wohl eine ältere Schwester oder einen älteren Bruder hat. Dabei sagt es sich: „Wenn ich ein älteres Geschwisterkind hätte, würde ich auch glauben, dass es diese Person gibt, weil ich sie kennengelernt hätte. Aber ich glaube nicht, dass ich ein älteres Geschwisterkind habe. Daher habe ich auch keins”.124 Dieses Beispiel bezieht sich darauf, wie ein Agent aufgrund seiner besonderen Perspektive auf seine eigenen Glaubenseinstellungen zu neuen Schlussfolgerung kommen kann. Daher nennt sich die entsprechende Logik autoepistemisch. Autoepistemische Logik ist eine Modallogik mit epistemischer Interpretation. Eine autoepistemische Theorie AE enthält verschiedene modale und nicht-modale Informationen, die einem Subjekt bekannt sind. Die Expansion E entspricht dabei den rationalen Überzeugungen, die der Agent bezogen auf seine Evidenzen haben sollte. Sie ist das autoepistemische Gegenstück zur Extension in der Default Logik. Die Expansion E einer autoepistemischen Theorie AE ist deduktiv geschlossen und enthält zum einen alle Sätze, die aus der Theorie AE logisch folgen, und zum anderen jede Formel der Art φ , wenn und nur wenn φ ∈ E. Wenn die ideale rationale Person einen Satz glaubt, so zählt sie auch den Satz, dass sie ihn glaubt, zu ihren Überzeugungen. Umgekehrt gehört bei jedem Satz, der nicht zu den rationalen Überzeugungen zählt, die Aussage, dass dieser Satz nicht geglaubt wird, zu den rationalen Überzeugungen.125 Ähnlich 122 123 124 125

Vgl. Poole (1994), S.204. Vgl. McCarthy (1986). Vgl. Konolige (1994), S.218. Vgl. Konolige (1994), S.220f. und Besnard (1989), S.175ff.

109

3 Qualitative Normalität wie es bei einer Default Theorie verschiedene Extensionen geben kann, kann auch eine autoepistemische Theorie mehrere Expansionen haben, die jeweils unterschiedliche Sätze enthalten, die nicht miteinander konsistent sind.126 Der Default A:B1 ,BC2 ,...,Bn lässt sich durch Aufnahme folgender Formel in eine autoepistemische Theorie übertragen: A ∧ ¬¬B1 ∧ ¬¬B2 ∧ ... ∧ ¬¬Bn → C. Auf diese Weise lässt sich eine Default Theorie in eine autoepistemische Theorie überführen, so dass alle Sätze, die in einer Extension der Default Theorie enthalten sind, auch Teil einer Expansion der entsprechenden autoepistemischen Theorie sind.127 Zusätzlich enthalten die Expansionen der autoepistemischen Theorie modale Formeln, die nicht in der Default Theorie vorkommen. Auf die starken logischen Verbindungen zwischen autoepistemischer Logik auf der einen Seite und der Default Logik auf der anderen Seite wurde schon vielfach hingewiesen. In der philosophischen Interpretation zeigt die autoepistemische Formulierung der Defaults deren primär methodisch-epistemologischen Hintergrund besonders gut. Es besteht keinerlei Anspruch, etwas über die Realität zu sagen, sondern es handelt sich lediglich um ein Konditional über das rationale epistemische Subjekt. Soweit Defaults als Deutung für Normalitätskonditionale der Art „Wenn A dann normalerweise B” verstanden werden sollen, so ist klar, dass „normalerweise” dabei nicht deskriptiv ist. Es ist zumindest innerhalb der Logik nicht ausdrückbar, ob und in welchem Zusammenhang Normalität zu den Fakten steht. Sie wird als methodologische Regel eingeführt. Nun geht es weder in der Default Logik noch in der autoepistemischen Logik um Normalitätsaussagen oder eine passende formale Deutung für die Semantik von „normalerweise”. Etwas anders sieht es bei Veltmans Logiken aus, in denen normally und if... then normally... explizit als logische Operatoren eingeführt werden. Diesem System widmet sich der folgende Abschnitt.

3.2.2 Veltmans Defaults in Update Semantics Der Aufsatz „Defaults in Update Semantics” von Frank Veltman wurde 1996 veröffentlicht. Obwohl in Veltmans Arbeit von Defaults die Rede ist, hat sie mit Reiters Default Logik recht wenig gemein. Insbesondere sind Veltmans Defaults keine speziellen Schlussregeln. In ihrer Struktur ist die von ihm vorgeschlagene 126 127

110

Vgl. Konolige (1994), S.222. Vgl. Besnard (1989), S.184.

3.2 Defaults Logik eher eine epistemische Modallogik mit Präferenzordnung. Er selbst präsentiert sie jedoch in erster Linie als eine Alternative zur Default Logik. Mit der Update Semantik nutzt er einen nicht klassischen Blick auf die Bedeutung von Sätzen. Daher soll hier eine kurze Charakterisierung der Update Semantik vorangestellt werden.

Update Semantik Eine Update Semantik ist eine epistemisch angelegte Semantik, die anstatt von Wahrheitsbedingungen das informative Potential von Aussagen zur semantischen Grundlage nimmt. Es geht also in der Update Semantik nicht darum, wann eine Aussage wahr ist, sondern darum, wie sie sich als Information auf den Wissenstand einer Person auswirkt: The slogan ‘You know the meaning of a sentence if you know the conditions under which it is true’ is replaced by this one: ‘You know the meaning of a sentence if you know the change it brings about in the information state of anyone who accepts the news conveyed by it’.128

Daraus ist auch sofort ersichtlich, dass wir aus Veltmans Ansatz nichts über die Wahrheitsbedingungen von Normalitätsaussagen, sondern etwas über ihre epistemische Rolle erfahren können. Grundlage der Update Semantik bilden Informationszustände. Ein Informationszustand umfasst verschiedene mögliche Welten, die als Mengen von Sätzen definiert sind. Wenn daher A die Menge aller atomaren Sätze ist, dann gilt für die Menge aller möglichen Welten W : W = POW (A). Da ein Informationszustand σ eine Menge möglicher Welten ist, ergibt sich σ ⊆ POW (A). Grenzfälle sind die zwei folgenden Informationszustände: Im minimalen Informationszustand 0 = POW (A) wird keine Welt ausgeschlossen. Wenn jemand hingegen aufgrund widersprüchlicher Informationen alles ausgeschlossen hat, befindet er sich im absurden Zustand 1 = 0. / Der Übergang von einem Informationszustand zu einem anderen wird durch die Funktion [ ] ermöglicht, die einem Satz φ die Operation [φ ] zuordnet. Diese Operation ist eine Relation zwischen Informationszuständen. Intuitiv ist [φ ] das Update mit der Information φ . σ [φ ] ist der Informationszustand, den man erreicht, wenn man, vom Zustand σ ausgehend, 128

Veltman (1996), S.221.

111

3 Qualitative Normalität die Information φ erhält. Der Informationszustand σ [φ1 ][φ2 ] resultiert, wenn von σ ausgehend φ1 und φ2 akzeptiert werden, usw.129 Ein Satz φ ist in σ akzeptiert, wenn gilt σ [φ ] = σ . In diesem Fall ändert die neue Information nichts an dem Wissenstand einer Person. Eine Information φ ist im Informationszustand σ nicht akzeptabel, wenn sie zum absurden Informationszustand führen würde, also wenn σ [φ ] = 1.130 Von verschiedenen möglichen Schlussbegriffen, die in einer Update Semantik definiert werden können, ist vor allem der folgende relevant:131 An argument is valid1 iff updating the minimal state 0 with the premises ψ1 , ..., ψn in that order, yields an information state in which the conclusion φ is accepted.132

Das heißt, ψ1 , ..., ψn |= φ gdw 0[ψ1 ]...[ψn ][φ ] = 0[ψ1 ]...[ψn ]. Auf der Grundlage einer Update Semantik lässt sich unter anderem auch die klassische Aussagenlogik AL mit den Konnektoren ¬, ∨ und ∧ formulieren. Dabei gelten folgende Bestimmungen:133 • Atomare Sätze: σ [p] = σ ∩ {w ∈ W | p ∈ w} • Negation: σ [¬φ ] = σ − σ [φ ] • Konjunktion: σ [φ ∧ ψ] = σ [φ ] ∩ σ [ψ] • Alternation: σ [φ ∨ ψ] = σ [φ ] ∪ σ [ψ] Update Semantik ermöglicht darüber hinaus die Formalisierung epistemischer Ausdrücke wie might: • Epistemische Möglichkeit: σ [might φ ] = 1 gdw σ [φ ] = 1, σ [might φ ] = σ gdw σ [φ ] 6= 1.134 Diese Definition führt dazu, dass eine Aussage, die besagt, dass φ epistemisch möglich ist, immer logisch folgt, wenn φ angenommen werden kann, ohne dass 129 130 131 132 133 134

112

Vgl. Veltman (1996), S.221. Vgl. Veltman (1996), S.228. Insgesamt gibt es drei mögliche Schlussbegriffe, die sich hinsichtlich ihrer Eigenschaften der Monotonie von einander unterscheiden. Vgl. Veltman (1996), S.224. Veltman (1996), S.224. Vgl. Veltman (1996), S.228. Vgl. Veltman (1996), S.228.

3.2 Defaults man dadurch in den absurden Informationszustand käme. Ob etwas epistemisch (noch) möglich ist oder nicht, hängt natürlich davon ab, wie weit der Informationsprozess fortgeschritten ist. Daher ist AL+might keine monotone Logik. Die Konklusion might φ folgt nämlich als Konklusion aus einer Menge von Prämissen nicht mehr, wenn die Prämissenmenge um ¬φ erweitert wird. Wenn wir die Update Semantik sprachphilosophisch deuten, fällt auf, wie weit diese Semantik den Wahrheitsbegriff ausklammert. Da nicht die Wahrheitsbedingungen berücksichtigt werden, sondern der Bezug auf Informationen und Informationszustände als eigenständige Bedeutungskomponente in den Vordergrund tritt, wird der Bezug der Sprache zur nichtsprachlichen Außenwelt verdrängt. Die Frage „Was muss eigentlich der Fall sein, damit eine Aussage wahr ist?” stellt sich gar nicht erst. „Wann kann eine Aussage akzeptiert werden?” kann nur mit „Wenn sich daraus kein Widerspruch ergibt” beantwortet werden. Es ist dabei durchaus eine Errungenschaft der Update Semantik, den Fokus auf Informationsdynamik und Kohärenzbedingungen selbst zu lenken. Die Überprüfung der Wahrheit einer Aussage bezüglich der Außenwelt bleibt jedoch unberücksichtigt. Die Frage, wann eine Normalitätsaussage, bezogen auf eine sprachunabhängige Wirklichkeit, wahr ist, lässt sich im Rahmen der dynamischen Update Semantik nicht stellen. Veltmans Begriff von Normalität tendiert schon allein aufgrund der semantischen Vorgaben der Update Semantik in Richtung einer epistemischen Bestimmung. Normalitätsaussagen und Erwartungsordnung Defaults sind bei Veltman als einfache Normalitätsaussagen normally φ gegeben. Zu ihrer semantischen Charakterisierung wird eine Erwartungsordnung, wie wir sie in ähnlicher Form aus der Conditional Logic kennen, genutzt. Diese ist auch bei Veltman eine transitive, reflexive Relation zwischen möglichen Welten. Wenn der Satz φ ein Default ist und in der Welt w aber nicht in der Welt v gilt, dann gilt hv, wi ∈ / ε in einer entsprechenden Erwartungsordnung ε. Die Alternative w ist in keinem Fall gegenüber v bevorzugt. Allgemeiner formuliert Veltman: Let P be the set of all propositions that a certain agent considers to be normally the case. Then hw, vi is an element of this agent’s expectation pattern ε if every proposition in P that holds in v also holds in w.135 135

Veltman (1996), S.232.

113

3 Qualitative Normalität Um die Stellung von Welten zueinander darzustellen, wird auch w ≤ε v, statt hw, vi ∈ ε geschrieben. Dies bedeutet, dass w nicht ungewöhnlicher ist als v. Davon ausgehend kann w =ε v als Abkürzung für w ≤ε v & v ≤ε w und w φ 6|= > (φ ∨ ψ). In Veltmans Defaultschließen folgt aus „Normalerweise φ ” nicht „Normalerweise φ oder ψ”. Dies ist eine erstaunliche Eigenart von Veltmans Default Logik, wenn man bedenkt, dass für fast alle modalen Operatoren in den verschiedensten Logiken ein derartiges Gesetz gilt. Sowohl für den Notwendigkeitsoperator als auch für den Möglichkeitsoperator gelten in den Modallogiken φ |= (φ ∨ψ) sowie ♦φ |= ♦(φ ∨ψ). Warum kann ein Normalitätsurteil nach Veltman nicht ohne weiteres eine Abschwächung des Sukzedens implizieren? Dies ist der vollkommen anderen semantischen Hintergrundtheorie geschuldet. In den bekannten Modallogiken steht, ebenso wie in der Conditional Logic, neben der Menge der möglichen Welten auch die Zugänglichkeitsrelation beziehungsweise die Ähnlichkeitsrelation fest. Sie ist statisch und wird in der Semantik nur noch beschrieben. Veltmans Normalitätsoperator und Normalitätskonditional haben eine andere technische Funktion. Sie wählen keine geordneten Welten zur Bewertung aus, sondern ordnen selbst Welten. In diesem Sinne ist die Information aus „Normalerweise p oder q” nicht nur eine Abschwächung von „Normalerweise p”, denn der erste Satz impliziert außerhalb der p-Welten eine epistemische Bevorzugung von q-Welten. Veltman rechtfertigt die Ungültigkeit. Er gibt folgendes Beispiel: The rule ‘Tigers normally have four or five legs’ indicates what one can expect in case one encounters a tiger that does not have four legs; the rule ‘Tigers normally have four legs’ does not. No wonder an agent might be willing to accept the latter without wanting to accept the former.153 152 153

Veltman (1996), S.256. Veltman (1996), S.257.

123

3 Qualitative Normalität Für die Ungültigkeit der beiden anderen Schlussschemata kann Veltman kein intuitives Argument geben.154 Der Grund für deren Scheitern scheint ein unerwünschter Nebeneffekt der eingeschränkten Defaults zu sein. Wir finden φ ψ, φ χ 6|= (φ ∧ ψ) χ und φ ψ, ψ χ 6|= (φ ∨ ψ) χ, weil sich der Default der Konklusion jeweils auf eine andere Erwartungsordnung bezieht als die Defaults, die in den Prämissen gegeben wurden. Während mit den Prämissen die Erwartungsordnungen π||φ || beziehungsweise π||ψ|| präzisiert werden, beziehen sich die Konklusionen auf π||φ ∧ψ|| beziehungsweise π||φ ∨ψ|| . Intuitiv lässt sich dennoch eine Deutung für die Ungültigkeit dieser Schlüsse geben. Dazu müssen wir Veltmans Normalität eher mit Typikalität und weniger mit allgemeiner Idealisierung in Zusammenhang bringen. Dies lässt sich besonders gut im Bereich der prädikatenlogischen Variante verdeutlichen. Es ist plausibel, dass für jede Kategorie andere Eigenschaften als typisch gelten. Das trifft auch dann zu, wenn es logische Verbindungen zwischen den entsprechenden Konzepten gibt. Betrachten wir folgendes Beispiel: Die Sätze „Menschen sind normalerweise omnivor” und „Menschen sind normalerweise moralisch verantwortungsbewusst” werden akzeptiert. Beide Eigenschaften können durchaus als typische Charakteristika des Menschen betrachtet werden. Aufgrund von Conjunction of Consequents muss somit auch „Menschen sind normalerweise omnivor und moralisch verantwortungsbewusst” akzeptiert werden. Würde nun Strengthening with a Consequent gelten, so müsste auch „Moralisch verantwortungsbewusste Menschen sind normalerweise omnivor” akzeptiert werden.155 Nun scheint es aber nicht zur typischen Vorstellung eines verantwortungsbewussten Menschen zu gehören, dass dieser sich omnivor ernährt. Es wäre nach Veltmans Logik zwar nicht möglich, den Satz „Moralisch verantwortungsbewusste Menschen sind normalerweise Vegetarier” zu akzeptieren, da sonst kein maximal normaler Mensch denkbar wäre. Dass aber eine Normalitätsannahme nicht akzeptiert 154 155

124

Vgl. Veltman (1996), S.257. Man könnte einwenden, dass durch „moralisch verantwortungsbewusst” eine normative Ebene in den Schluss eingebracht wird, die diesen, vor allem aus Sicht eines Vegetariers, unplausibel macht. Allerdings wird der Schluss auch dann noch zweifelhaft sein, wenn an die Stelle von „moralisch verantwortungsbewusst” ein anderes Prädikat, wie zum Beispiel „sehend” oder „schläft nachts” tritt. Der Punkt ist, dass es keine spezifischen Typikalitätsvorstellungen für die Ernährung von Untergruppen von Menschen geben muss, die sich logisch unmittelbar aus denen für Menschen herleiten lassen.

3.3 Qualitative Logik der Normalität werden kann, bedeutet nicht, dass eine gegenteilige Typikalitätsannahme akzeptiert werden muss. Dementsprechend darf in unserem Beispiel „nicht omnivor” zwar nicht als typische Eigenschaft des moralisch verantwortungsbewussten Menschen betrachtet werden, aber wir sind auch nicht gezwungen „omnivor” als typisch zu betrachten.

3.3 Qualitative Logik der Normalität In diesem Kapitel wurden bisher exemplarisch verschiedene formale Ansätze vorgestellt, die sich direkt oder indirekt mit Normalität beschäftigen. Alle von ihnen wurden als qualitative Logik der Normalität betrachtet. Dabei hat Normalität eine gewisse Nähe zu Typikalität oder Idealisierung. Die Logiken N und N0,95 und die Ansätze von MDLE werden dem als quantitative Logik der Normalität gegenüber gestellt. In der Default Logik, Circumscription, autoepistemischen Logik und den meisten Formen der Conditional Logic gibt es keinen Normalitätsoperator. Dennoch ist auch da der Bezug zu Normalitätsaussagen deutlich, denn die formalisierten nicht-monotonen Schlüsse sind intuitiv Schlüsse aufgrund von Normalitätsannahmen. Nur Veltman und Boutilier führen explizit ein formales normalerweise ein. Dabei handelt es sich zunächst um einen logischen Operator mit einem entsprechenden Namen und nicht zwangsläufig um eine semantische Bestimmung dieses Wortes. Daher sprechen wir unabhängig von der Frage, ob innerhalb der Logik explizit von Normalität die Rede ist, bei allen hier besprochenen Systemen gleichermaßen von Logiken der Normalität.

3.3.1 Normalität, Deskriptivität und Modalität Logiken der qualitativen Normalität umfassen neben Normalitätssätzen, auch deskriptive und epistemische Sätze. In welchem Zusammenhang stehen Normalitätsaussagen zu anderen Sätzen? Die Normalitätsebene und logische Hierarchien Anders als in der quantitativen Logik der Normalität besteht in den Logiken eines qualitativen Normalitätskonzeptes kein hierarchischer Zusammenhang zwischen Normalitätssätzen und deskriptiven, zum Beispiel quantitativen, Sätzen. In der Logik der quantitativen Normalität gab es hingegen zahlreiche

125

3 Qualitative Normalität solcher Verbindungen. Diese kamen vor allem durch die Hierarchie der quantitativen Determinierer zustande. In den hier vorgestellten Logiken, denen ein qualitatives Normalitätskonzept zugrunde liegt, gibt es solche Verbindungen nicht. Es handelt sich zum einen vorwiegend um Aussagenlogiken und zum anderen werden selbst in den prädikatenlogischen Ansätzen der Default Logik Quantoren nicht diskutiert. In Veltmans Default Logik sind Quantoren nicht definiert und von Reiter werden Defaults als spezielle Schlussregeln eingefügt, die in ihrer formalen Charakteristik denkbar weit entfernt von der Syntax und Semantik der Quantoren sind. Es bestehen im qualitativen Konzept dementsprechend keine Verbindungen zwischen Normalitätsaussagen und quantitativen Aussagen. In der autoepistemischen Logik und Boutiliers Conditional Logics of Normality finden wir zwar keine Quantoren, sehr wohl aber Modaloperatoren. Im Falle der autoepistemischen Logik handelt es sich klar um epistemische Operatoren. Bei Boutilier ist das weniger eindeutig. In erster Linie werden die möglichen Welten für die Formalisierung der Konditionale benutzt. Die Welten sind aber, anders als in der Standardversion der Conditional Logic, nicht hinsichtlich ihrer Ähnlichkeit zur aktualen Welt, sondern hinsichtlich ihrer Normalität beziehungsweise Plausibilität geordnet. Eine solche Ordnung scheint weniger zu alethischen als zu epistemischen Modalitäten zu passen. Boutilier gibt aber in seiner Arbeit keine expliziten Hinweise darauf, dass seine Modallogiken epistemisch oder doxastisch sind. In welchem Verständnis stehen nun Normalitätsaussagen beziehungsweise Defaults zu den modalen Sätzen? Sie werden als Konditionale aufgrund modaler → − → − Aussagen als (A → ♦ (A ∧  (A → C))) bei Boutilier beziehungsweise als (A) ∧ (¬¬C) → C für einen normalen Default in der autoepistemischen Logik definiert. Der einstellige Normalitätsoperator kann prinzipiell aus dem Normalitätskonditional definiert werden, indem an die Stelle des Antezedens eine Tautologie tritt. Wenn wir dies mit den beiden oben genannten Konditionalen tun, ergibt sich, dass dem Satz „Normalerweise C” folgende Formeln → − → − entsprechen müssen: (> → ♦ (> ∧  (> → C))) in Boutiliers Modallogik und (>) ∧ (¬¬C) → C in autoepistemischer Logik. Diese lassen sich kürzer → −→ − umformulieren zu  ♦ C und ♦C → C. Wie verhalten sich diese Formeln zu (A → C) und ♦(A → C) beziehungsweise zu C und ♦C ? In den Conditional Logics of Normality finden wir ähnliche hierarchische Implikationen wie in der quantitativen Logik. Es gilt (A → C) |= (A →

126

3.3 Qualitative Logik der Normalität → − → − → − → − ♦ (A ∧  (A → C))) und (A → ♦ (A ∧  (A → C))) |= ♦(A → C) ebenso → −→ → −→ → − − − → − wie C |=  ♦ C und  ♦ C |= ♦C. Die Formel (A → ♦ (A ∧  (A → C))) besagt, dass von jeder A-Welt aus eine mindestens ebenso normale AWelt erreichbar ist, so dass alle mindestens ebenso normalen Welten (A → C) erfüllen. Wenn (A → C) gilt, ist dies schon daher erfüllt, dass in allen Welten (A → C) gilt. Außerdem ist, wenn von irgendeiner Welt aus in allen mindestens ebenso normalen Welten und somit in mindestens einer Welt (A → C) gilt, auch ♦(A → C) wahr. Im speziellen Fall eines tautologischen Antezedens gilt dies → −→ − natürlich auch:  ♦ C ist genau dann wahr, wenn in der maximal normalen Welt C gilt. Dies setzt selbstverständlich voraus, dass C zumindest in einer Welt gilt und ist schon damit erfüllt, dass C in allen Welten gilt. Es gibt in der Conditional Logic of Normality somit eine Hierarchie der Modalitäten, bei der Normalität, ähnlich wie in der quantitativen Logik, zwischen Universalität und Partikularität steht. Allerdings ist dabei nicht vollkommen klar, welche Bedeutung diese Modalitäten haben. In der autoepistemischen Logik ist die Situation besonders schwierig. Wenn man sich verdeutlicht, was die intendierte Bedeutung der Formeln ist, so ist dies auch nicht sehr verwunderlich. Intuitiv ist eine logische Verbindung zwischen „Wenn ich weiß, dass A, und nicht ausschließe, dass C, dann C” zu „Ich weiß, dass wenn A dann C” und „Ich schließe nicht aus, dass wenn A dann C” alles andere als offensichtlich. Es gilt aber in der autoepistemischen Logik immerhin (A → C) |= (A) ∧ (♦C) → C, jedoch nicht (A) ∧ (♦C) → C |= ♦(A → C). Wenn jede A-Welt eine C-Welt ist, dann ist sicher, dass, wenn alle Welten AWelten sind, in allen Welten und damit auch in der aktualen C gilt. Auf der anderen Seite ist (A) ∧ (♦C) → C wahr, wenn in allen Welten A aber in keiner C gilt, obwohl ♦(A → C) dann falsch ist. Insofern setzt die autoepistemische Formel für Defaults nicht einmal voraus, dass ein Konditional möglich ist. Dieses Ergebnis erscheint für ein Normalitätskonditional unplausibel. Es muss allerdings beachtet werden, dass (A)∧(♦C) → C in der autoepistemischen Logik nicht als eine Formalisierung eines Normalitätskonditionals „Wenn A dann normalerweise C” zu verstehen ist. Es handelt sich eher um eine formalisierte Anweisung, wie ein perfektes epistemisches Subjekt eine Normalitätsannahme nutzen sollte. Logische Hierarchien, wie wir sie im vorigen Kapitel für quantitative Normalität kennengelernt haben, sind in den qualitativen Logiken der Normalität weniger bedeutsam. Wie wir allerdings bei Boutilier gesehen haben, sind ähnli-

127

3 Qualitative Normalität che hierarchische Verbindungen von Normalitätsoperatoren zu Modaloperatoren möglich, wie es sie auch bei den Determinierern quantitativer Logik der Normalität gibt. Der Vorhersageschluss Ein Vorhersageschluss „A, also vermutlich C” verbindet eine Normalitätsaussage A mit der Konklusion C in einer Weise, in der der Schluss durch Hinzufügen gegenteiliger Informationen zu den Prämissen nicht mehr gültig ist. In der quantitativen Logik der Normalität wurde der Vorhersageschluss durch Methoden der Wahrscheinlichkeitstheorie und induktiven Logik dargestellt und damit der probabilistische Schluss neben dem klassischen logischen Schluss etabliert. In den Systemen der qualitativen Logik der Normalität ist die Darstellung von Vorhersageschlüssen von System zu System sehr verschieden. Der Vorhersageschluss ist das Kernthema der Default Logik nach Reiter. Diese formalisiert nicht die Normalitätsaussagen selbst, sondern die Schlüsse, die aufgrund von diesen zustande kommen können. Dabei wird für jede Normalitätsannahme, aus der geschlossen werden soll, ein konkretes Schlussschema in die Default Theorie eingeführt. In einer autoepistemischen Theorie kann dafür ein entsprechendes Konditional eingeführt werden, das den Vorhersageschluss ermöglicht. In Boutiliers Variante der Conditional Logic finden wir hingegen eine ausgearbeitete Logik der Normalitätskonditionale, allerdings keine Vorhersageschlüsse. Boutilier weist lediglich auf die Allgemeingültigkeit eines Normalitätskonditionals hin, das dem Vorhersageschluss entspricht.156 Er definiert aber keinen Folgerungsbegriff für solche Schlüsse. Dagegen bietet Veltman neben der semantischen Formalisierung von Normalitätskonditionalen auch eine ausführliche Behandlung des Vorhersageschlusses. Dabei kommt er mit nur einem Schlussbegriff aus, der sowohl für nicht widerlegbare logische Folgerungen als auch für den Vorhersageschluss benutzt wird. Dies unterscheidet Veltmans Vorgehen auch von dem Weg, der für die quantitativen Logiken eingeschlagen wurde, die mit zwei Folgerungsbegriffen arbeiten. Der Vorhersageschluss wird dennoch bei Veltman syntaktisch als solcher gekennzeichnet. Er wird dadurch erkennbar, dass seine Konklusion immer ein Satz ist, der mit dem einstelligen Junktor presumably gebildet ist. Während in N und N0,95 die Vorläufigkeit der Folgerung an 156

128

Vgl. Boutilier (1994), S.105.

3.3 Qualitative Logik der Normalität dem Schlussbegriff deutlich wird, ist dies bei Veltman durch die Beschaffenheit der Konklusion sichtbar. Zusammenfassend lässt sich sagen, dass der Vorhersageschluss in allen hier besprochenen Systemen von zentraler Bedeutung ist. Selbst Boutilier, der keinen derartigen Schluss anbieten kann, diskutiert eingehend die Möglichkeit, stattdessen ein Normalitätskonditional zu nutzen, um die Vorhersageschlüsse formal zu erfassen.

3.3.2 Normalität und aussagenlogische Junktoren Wie verhalten sich nun Konjunktion und Alternation in den beschriebenen Systemen zu Normalitätskonditionalen, Defaults und Vorhersagen? Es ist ein wesentliches Charakteristikum eines qualitativen Konzeptes von Normalität, dass alles, was normalerweise der Fall ist, auch normalerweise zusammen der Fall ist. Verschiedene Normalitätsaussagen lassen sich mit Konjunktion und „normalerweise” als Hauptoperator verbinden. Auch kann alles, was sich einzeln durch einen Vorhersageschluss aus den Prämissen ergibt, als Konjunktion gefolgert werden. Dies ist mit einem quantitativen Blick auf Normalität nicht vereinbar. Im quantitativen Konzept der Normalität muss jede Normalitätsaussage selbst gerechtfertigt werden. Das ist in den hier dargestellten Systemen anders. Normalität hat den Stellenwert einer feststehenden Qualität, die sich von Einzelaussagen auf eine Konjunktion überträgt. Die Gültigkeit der konjunktiven Zusammenfassung kommt in qualitativen Logiken oft dadurch zustande, dass eine Plausibilitäts- beziehungsweise Normalitätsordnung angenommen wird, die Alternativen einen unterschiedlichen Stellenwert hinsichtlich ihrer Normalität gibt. Damit hängt der Gedanke zusammen, dass Normalität ein gradueller Begriff ist. Die Steigerung „normal, normaler, am normalsten” ergibt vor dem Hintergrund solcher Ordnungen Sinn. Eine derartige Ordnung finden wir allerdings weder in der Default Logik noch in der autoepistemischen Logik, welche sich jedoch beide nicht explizit mit Normalitätsaussagen beschäftigen. Die konjunktive Zusammenfassung gilt hier für die Konklusionen einzelner Vorhersageschlüsse. Das liegt daran, dass die Extensionen beziehungsweise Expansionen einer Default Theorie oder autoepistemischen Theorie deduktiv geschlossen sind. Insofern benötigen diese Logiken keine Normalitätsordnung und erfüllen dennoch die Konjunktionsregel. Im Übrigen lassen sich die Ergebnisse der Default Logik und der autoepistemischen

129

3 Qualitative Normalität Logik auch in einer Modallogik mit Präferenzordnung realisieren.157 In Anbetracht der Parallelen zur Conditional Logic und Veltmans Logik der Normalität ist dies keineswegs erstaunlich und spricht für den besonderen Stellenwert einer solchen Ordnung im qualitativen Normalitätskonzept. Die Erweiterung des Sukzedens eines Normalitätskonditionals durch Hinzufügung von Sätzen mit Alternation erscheint auf den ersten Blick als ein Gesetz, das für alle Arten von Konditionalen und somit auch für Normalitätskonditionale unmittelbar plausibel ist. In N und N0,95 gilt φ ψ1 |= φ (ψ1 ∨ ψ2 ) ebenso wie (φ ⇒ ψ1 ) |= (φ ⇒ ψ1 ∨ ψ2 ) bei Boutilier. Doch wir haben mit Veltmans Logik auch ein System kennengelernt, das keine solche Erweiterung der Normalitätskonditionale mit beliebigen Sätzen erlaubt. Veltmans Begründung dafür, dass eine Alternation als Sukzedens eines Normalitätskonditionals echte normale Alternativen angeben sollte, wurde im letzten Abschnitt diskutiert. Es ist zu betonen, dass es sich um eine Eigenart von Veltmans Ansatz der Update Semantik handelt, die keinesfalls als Charakteristikum jedes qualitativen Konzeptes von Normalität angesehen werden sollte.

3.3.3 Normal und Typisch Bisher haben wir qualitative Normalitätssätze vor allem im starken Sinne als Sätze mit „normalerweise” oder „typischerweise” betrachtet. Wir wollen nun auch einen Blick auf die Adjektive „normal” und „typisch” im qualitativen Normalitätsverständnis werfen. In den Darstellungen Veltmans und Boutiliers finden sich keine semantischen Charakterisierungen von „normal”. Dieses Wort wird aber bei ihnen metalogisch gebraucht, um Charakteristika der Semantik ihrer Systeme darzustellen oder zu definieren. Boutilier benutzt „normal” in den Steigerungsformen zur Beschreibung der Ordnung möglicher Welten zueinander.158 Veltman definiert den Ausdruck „normal worlds”, wobei er auf die Welten referiert, die in der Erwartungsordnung am höchsten stehen.159 Auf die Frage, welche Qualität es ist, normal zu sein, und wessen Qualität dies ist, müsste nach Veltman und Boutilier die Antwort lauten: Normal zu sein, ist eine Eigenschaft von epistemischen Alternativen, die in einer Plausibilitätsordnung nicht hinter anderen Alternativen stehen. Boutilier bestreitet allerdings, dass Normalität wirklich 157 158 159

130

Vgl. Poole (1994), S.201f. Vgl. zum Beispiel Boutilier (1994), S.95. Vgl. Veltman (1996), S.232.

3.3 Qualitative Logik der Normalität eine inhärente Eigenschaft von epistemischen Möglichkeiten ist: „Surely there is no inherent property of possible worlds that allows them to be judged to be more or less normal”.160 Es ist die Ordnung, die primär ist und den Welten ihren Status als mehr oder minder normal verleiht. Vom alltagssprachlichen Verständnis des Wortes „normal” ist diese Erklärung freilich weit entfernt und ist wohl eher technisch beziehungsweise metalogisch zu interpretieren. Unabhängig von diesem Gebrauch des Wortes „normal” benutzen Veltman und Boutilier „abnormal” eher in einem alltagssprachlichen Sinne. Veltman schreibt „It can be a fact that every bird is in some respect abnormal. But it cannot be a rule”.161 Bei Boutilier finden wir folgenden Satz: „It may be that green is an exceptional property of birds, and that these abnormal birds cannot fly”.162 In diesem weniger formalen und eher alltagssprachlichen Sinn von „abnormal” sind Objekte oder Gruppen von Objekten abnormal, wenn sie, bezogen auf die Standards ihrer Art, Ausnahmen sind. Obwohl es in der natürlichen Sprache einen deutlichen Unterschied zwischen einer normalen und einer typischen Entität gibt,163 bringt Boutilier in seiner Darstellung immer wieder Typikalität als Äquivalent für Normalität ins Spiel. Dabei heißt „typisch” bei ihm, dass sich an einem epistemisch idealen Zustand orientiert wird. Die Normalitätsordnung, die sich ergibt, ist allerdings globaler Natur. Im Gegensatz dazu nutzt Veltman für seine Logik der Normalitätskonditionale keine globale Erwartungsordnung. Welche Welten normal sind, ist bei ihm relativ zu einem gegebenen Satz beziehungsweise, bei prädikatenlogischer Deutung, zu einem Begriff. Während „normal” bei Boutilier global ist und es um einen idealisierten Zustand geht, handelt es sich bei Veltmans Erwartungsordnung um eine Ordnung, die erst durch einen Typen von Begriff oder Proposition bestimmt wird, obgleich Veltman selbst nicht von Typikalität spricht. Dadurch lässt sich Veltmans Logik mit Typikalitätsaussagen in einem engeren Sinne assoziieren. Auf diese wird im nächsten Abschnitt eingegangen.

160 161 162 163

Boutilier (1994), S.110. Veltman (1996), S.249. Boutilier (1994), S.135. Etwas kann normal sein, ohne deswegen gleich typisch zu sein.

131

3 Qualitative Normalität

3.4 Typikalität Bei Typikalität geht es darum, welche Eigenschaften, Individuen oder Unterarten mit einem Subjektbegriff assoziiert werden. In diesem Sinn spielte Typikalität in den letzten Jahrzehnten eine zunehmend wichtige Rolle. Besonders zu nennen sind dabei Hilary Putnams Ausarbeitungen zu Stereotypen und die Prototypensemantik im Anschluss an Eleanor Rosch. Die logisch-philosophischen Bemühungen um den Begriff des Typs sind allerdings durchaus älter als diese beiden Ansätze, die in den 1970er Jahren einzuordnen sind. Bereits 1936 haben sich Carl Hempel und Paul Oppenheim, durch Forschung der Persönlichkeitspsychologie angeregt, in „Der Typusbegriff im Lichte der neuen Logik” mit der Frage nach Typen auseinandergesetzt.164 Dabei unterscheiden sie zwischen einer ordnenden Form, die durch den Vergleich verschiedener Objekte untereinander geprägt ist, und einer klassifizierenden Form, die in prädikatenlogischer Form Eigenschaften zu- oder abspricht.165 Obwohl beide Formen logisch nicht voneinander abhingen, sei es immerhin möglich, eine typologische „Reihenordnung durch gewisse Zusatzvorschriften in einzelne Klassen” einzuteilen und somit auch einen klassifikatorischen Typusbegriff zu erhalten.166 Eine besondere Bedeutung haben oft die Extremwerte in einer solchen Rangordnung: Die ausgezeichneten Punkte der typologischen Rangordnung müssen insbesondere auch nicht notwendig so gewählt werden, daß die sie charakterisierenden Beschaffenheiten empirisch besonders häufig realisiert sind; man kann für die empirisch-typologische Beschreibung von Individuen ganz extreme, empirisch nie erreichte Beziehungspunkte wählen.167

Derartig gewählte Extremwerte erleichtern die Darstellung. So würde mitunter versucht, „die Eigenart der in den Bereich des ,Normalen’ fallenden Formen [. . . ] dadurch verständlich zu machen, daß man sie als Abschwächungen gewisser pathologischer Grenzformen darstellt”.168 Während die Ausarbeitungen von Hempel und Oppenheim vor allem wissenschaftstheoretisch orientiert sind, beschäftigen sich die Theorien der Prototypen 164 165 166 167 168

132

Vgl. Hempel und Oppenheim (1936). Vgl. Hempel und Oppenheim (1936), S.79. Hempel und Oppenheim (1936), S.82f. Hempel und Oppenheim (1936), S.87. Hempel und Oppenheim (1936), S.87.

3.4 Typikalität und Stereotype mit den Konstrukten einer Sprachgemeinschaft. Der Typusbegriff ist bei ihnen nicht nur logisch-philosophisch analysierbar, sondern wird selbst in den Mittelpunkt der Sprachphilosophie gerückt. Im Unterschied zur klassischen Bedeutungstheorie wird in beiden Theorien darauf verzichtet, eine klare Definition für einen Begriff, die alle und nur jene Entitäten umfasst, die unter diesen Begriff fallen, in den Mittelpunkt der Semantik zu stellen. Das Wissen um Konzepte besteht stattdessen in erster Linie im Wissen um typische Vertreter und deren Eigenschaften. Diese Grundidee teilen Prototypensemantik und Theorie der Stereotype. Wie sich in der Darstellung beider Theorien zeigen wird, bestehen allerdings zwischen beiden Ansätzen auch Unterschiede.

3.4.1 Stereotype nach Putnam Das Konzept der Stereotype, wie es von Putnam in „Is semantics possible?” von 1970 und in „The meaning of ‘meaning”’ von 1975 entwickelt wurde, richtet sich im wesentlichen gegen zwei Thesen.169 Zum einen bestreitet Putnam die Möglichkeit, die Bedeutung eines Wortes durch eine Definition immer klar bestimmen zu können. Zum anderen bezweifelt er, dass es zur bedeutungsrichtigen Verwendung eines Begriffes durch einen Sprecher notwendig ist, dass dieser Sprecher jede spezifische Differenz zu anderen Begriffen kennt. Diese beiden Grundideen gehen in seine Theorie der Stereotype ein. Die allgemeinen Probleme, die sich ergeben, wenn man die Bedeutung eines Wortes zu definieren versucht, führen Putnam zu der These, dass die Möglichkeiten exakter Definition und damit auch die Unterscheidung zwischen analytischer und synthetischer Ebene in der Semantik deutlich überschätzt wurden. Stattdessen schlägt Putnam eine Representation durch „associated characteristics” vor.170 Assoziierte Charakteristika treten bei Putnams Semantik an die Stelle von analytischen Definitionen. Die assoziierten Eigenschaften sind solche, die einem typischen Vertreter einer Art zugeschrieben werden.171 Anders als bei einer analytischen Definition von „Tiger” hat eine stereotype Beschreibung nicht den Anspruch, alle Tiger zu erfassen oder Merkmale zu nennen, die nur Tiger haben. Diese Beschreibung gibt nach Putnam auch nicht 169 170 171

Die Aufsätze wurden auch als Kapitel 8 und Kapitel 12 von Putnam (1975) veröffentlicht, wonach sie hier auch zitiert werden. Putnam (1975), S.144. Vgl. Putnam (1975), S.147f.

133

3 Qualitative Normalität notwendigerweise faktisches Wissen wieder. Das Wissen um ein Stereotyp ist in erster Linie linguistischer Natur. Es gehört zu den Fähigkeiten eines kompetenten Sprechers, das Stereotyp zu kennen, wenn er die Bedeutung eines Wortes kennt: [T]here is somehow associated with the word ‘tiger’ a theory; not the actual theory we believe about tigers, which is very complex, but an oversimplified theory which describes a, so to speak, tiger stereotype. It describes, in the language we used earlier, a normal member of the natural kind. It is not necessary that we believe this theory, though in the case of ‘tiger’ we do. But it is necessary that we be aware that this theory is associated with the word: if our stereotype of a tiger ever changes, then the word ‘tiger’ will have changed its meaning.172

Eine durch Stereotype fundierte Semantik unterscheidet sich in einigen Punkten deutlich von einer auf Definitionen basierten Semantik. Zunächst ergeben sich aus der Bedeutung eines Wortes, soweit sie durch ein Stereotyp gegeben ist, keine zwingenden analytischen Wahrheiten. Dass dem Stereotyp eines S die charakteristische Eigenschaft P zugeschrieben wird, begründet nicht, dass alle S P oder alle normalen S oder auch nur die meisten S P sind. Es folgt nicht einmal, dass überhaupt irgendein S P ist.173 Dies zeigt auch klar, dass ein Stereotyp keine in der Realität zu verortende Entität ist. Der Begriff des Stereotyps ist ein semantischer und kein ontologischer. Das Stereotyp eines Begriffs muss auch nicht zwangsläufig einmalig sein: „the same stereotype might be associated with different kinds”.174 Es legt damit, anders als eine Definition, die Extension eines Begriffes nicht eindeutig fest. Putnam erklärt dies am Beispiel von „Aluminium” und „Molybdän”.175 Ein kompetenter Sprecher einer Sprache muss nicht unbedingt dazu in der Lage sein, im Zweifelsfall zwischen diesen beiden Metallen zu unterscheiden. Meist reicht es vollkommen aus, wenn es in der Sprachgemeinschaft einige Experten gibt, die genau bestimmen können, ob etwas unter die Extension eines Begriffes fällt oder nicht. Wenn die Information eines Stereotyps aber nun weder ausreicht, um festzustellen, ob etwas unter einen Begriff fällt oder nicht, und auch nicht zwangsläufig 172 173 174 175

134

Putnam (1975), S.148. Vgl. Putnam (1975), S.250. Putnam (1975), S.150. Vgl. Putnam (1975), S.150.

3.4 Typikalität wahr ist, so ist fraglich, wozu das Stereotyp überhaupt nützt. Laut Putnam ist es nicht nur nicht schädlich, sondern sogar im Sinne der semantischen Arbeitsteilung, dass einzelne Sprecher für weite Teile des Wortschatzes nur über ein Minimalwissen verfügen. Daher sollte das Stereotyp überhaupt nicht sehr präzise sein. Obgleich die Informationen, die in einem Stereotyp enthalten sind, kein Faktenwissen implizieren, sind sie meist nicht grundlegend falsch: „Most stereotypes do in fact capture features possessed by paradigmatic members of the class in question”.176 Es ist sogar eine praktische Notwendigkeit, dass Stereotype zumindest soweit korrekt sind, dass eine grobe Zuordnung von Individuen möglich ist. Stereotype, die wahre Informationen über einen Begriff enthalten, sind eher dazu geeignet, ihre semantische Funktion zu erfüllen. Ein Stereotyp, der nur aufgrund von Zufällen, einer bestimmten kulturellen Perspektive oder fehlenden Erkenntnissen seine semantische Funktion erfüllt, ist jedoch ebenso gut. Wahrheit ist nicht das ausschlaggebende Kriterium für Stereotype, sondern eher ein sehr wahrscheinlicher Nebeneffekt. Wenn wir nun Stereotype vor dem Hintergrund von Normalität betrachten, ist zu beachten, dass die Idee der Stereotype in erster Linie keine Erklärung zur Bedeutung von Normalitätssätzen sein soll, sondern eine allgemeine Theorie über Bedeutung ist. Diese gibt Typikalität eine ausgezeichnete Rolle, die sie in anderen semantischen Ansätzen nicht hat. Dennoch lässt sich vor dem Hintergrund der Theorie der Stereotype auch eine These über Normalitätsurteile formulieren: Ein Normalitätsurteil reflektiert ein Stereotyp. Der Satz „S sind normalerweise P” ist genau dann wahr, wenn P eine Eigenschaft ist, die mit dem Begriff, der auf S referiert, assoziiert wird. Wir können dies stereotypes Normalitätsverständnis nennen. Das stereotype Verständnis von Normalität ist ein qualitatives und kein quantitatives. Statistische Informationen sind nicht notwendig, um Stereotype zu entwickeln. Die Möglichkeit der konjunktiven Zusammenfassung ist sehr plausibel für Stereotype, denn assoziierte Eigenschaften sollten auch insgesamt als Stereotyp assoziiert werden. Besonders gut zu einem solchen stereotypen Normalitätsverständnis passt Veltmans Logik in seiner prädikatenlogischen Deutung. Wir finden bei Veltman sowohl φ ψ, φ χ 6|= (φ ∧ ψ) χ als auch 176

Putnam (1975), S.250. Es ist zu bemerken, dass Putnam in dieser Äußerung mit dem Gebrauch von „paradigmatic members” wiederum in das Sprachspiel der Typikalität geht, ohne dass deutlich wird, ob paradigmatische Mitglieder sprachlich oder ontologisch ausgezeichnet sind.

135

3 Qualitative Normalität φ ψ, ψ χ 6|= (φ ∨ ψ) χ. Auf stereotype Nomalitätsaussagen angewandt bedeutet dies das Scheitern der Schlüsse „Ein stereotypes S ist P und R. Also ist das Stereotyp von einem S, das P ist, auch R” und „Ein stereotypes S ist P und ein stereotypes P ist R. Also ist der Stereotyp des Begriffes, der P und S umfasst, R”. Dieses Scheitern ist plausibel. Ein Beispiel, warum Übertragungen von Stereotypen zu Über- und Unterbegriffen in diesem Sinne problematisch sein können, wurde im Zusammenhang mit Veltmans Default Logik bereits diskutiert. In der Theorie der Stereotype ließen sich unzählige weitere Fälle angeben oder konstruieren, in denen diese Schlussmuster nicht einleuchten. Es besteht einfach keine logische Notwendigkeit, dass solche Übertragungen für Stereotype existieren. Dass Stereotype sich untereinander nicht widersprechen, kann eine logisch sinnvolle Forderung sein, aber dass sie sich eventuell von Über- zu Unterkategorien vererben können, ist allenfalls eine empirisch zu überprüfende These. Zu entscheiden, was letztlich zu einem Stereotyp gehört oder nicht, ist darüber hinaus keine logische Aufgabe, sondern kann nur durch die Untersuchung einer Sprechergemeinschaft geleistet werden. Einige Probleme des stereotypen Normalitätsverständnisses sind zu nennen. Zunächst haben Normalitätsaussagen in einer solchen Deutung keinen hohen Informationsgehalt. Sie treffen zum einen keine Aussage über die Realität, sondern über die Semantik, wenngleich es nicht unwahrscheinlich ist, dass die assoziierten Eigenschaften auch reale Gegebenheiten widerspiegeln. Da Stereotype auch nur das linguistische Minimalwissen eines Sprechers beinhalten, sind stereotype Normalitätsurteile nur brauchbar, um ein unbekanntes Wort zu erklären. Für einen bereits kompetenten Sprecher, der dieses Wort kennt, wären solche Normalitätsaussagen trivial. Ein zweiter potentiell problematischer Punkt ist die Begründung von Vorhersagen aus stereotypen Normalitätsaussagen. Der Vorhersageschluss ist, wie wir gesehen haben, in allen Logiken der Normalität von fundamentaler Wichtigkeit. Soweit Stereotype sich auf die Sprache selbst oder sehr idealisierte Umstände beziehen, ist es fraglich, wieso sich daraus Erwartungen, die sich eindeutig auf die Außenwelt beziehen, ergeben sollten. Wir finden bei Veltman p q, p |= presumably q, was bei prädikatenlogischer Deutung zum Beispiel folgendem Schluss entspricht: „Bären sind normalerweise menschenscheu. Bruno ist ein Bär. Also ist Bruno vermutlich menschenscheu”. Auch wenn bekannt ist, dass Bären in der Nähe von größeren Menschenansiedlungen meist ihre Scheu verloren haben, könnte es doch noch der stereotypen Vorstellung von einem Bär entsprechen, dass er im Wald lebt

136

3.4 Typikalität und diesen niemals verlässt. Putnam fordert ausdrücklich nicht, dass alle Sätze, die das Stereotyp eines Bären beschreiben, auch faktisch akzeptiert werden. Dann ist es aber fraglich, wieso man seine Erwartungen überhaupt am Stereotyp ausrichten sollte, wenn diese nicht zwangsläufig mit den Fakten übereinstimmen müssen. Eine simple Antwort ist: Wir tun es einfach. In sehr vielen Fällen, nämlich dann wenn das Stereotyp den Fakten recht nahe kommt, haben wir damit Erfolg. Dies scheint jedoch darin begründet zu sein, dass das Stereotyp den statistischen Gegebenheiten nahe kommt. Der Einwand, dass die Erwartungen, soweit sie sich nur aus Stereotypen begründen, keine logische Grundlage zu haben scheinen, bleibt bestehen.

3.4.2 Prototypensemantik Ein Ansatz, der dem von Putnam in vielen Punkten ähnelt, findet sich in der Prototypensemantik. Diese wurde vor allem in Anschluss an Eleanor Roschs Arbeiten als eine neue semantische Betrachtungsweise entwickelt.177 Auch die Prototypensemantik lehnt die Bedeutungsbestimmung durch Definitionen, die hinreichende und notwendige Bedingungen für das Fallen unter einen Begriff angeben, ab.178 Stattdessen konstituiert sich ein Begriff durch die Angabe eines Prototyps. Der Prototyp ist das zentrale Exemplar der Kategorie und insofern ihr bester Vertreter. Um ihn herum gruppieren sich andere Individuen derselben Art aufgrund ihrer Ähnlichkeit mit dem Prototyp. Die folgende These der prototypischen Innenstruktur von Kategorien ist zentral in der Prototypensemantik: Rather, many natural categories are internally structured into a prototype (clearest case, best example) of the category with nonprototype members tending towards an order from better to poorer examples.179

In ihrer ursprünglichen Form geht die Prototypensemantik dabei noch weiter und vertritt die Auffassung, dass die Zugehörigkeit eines Exemplars zu einer Kategorie der Ähnlichkeit mit dem Prototypen entspricht.180 Das heißt auch, 177

178 179 180

Einen Überblick über die Thesen und Entwicklungen der Prototypensemantik gibt Kleiber (1993). Die Grundidee des Prototyps ist, in Bezug auf Farben, schon bei Rosch Heider (1971) zu finden. Sie wird später von Rosch unter anderem in Rosch (1973) und Rosch (1975) weiter entwickelt, wobei einige Anlehnungen an die Grundideen der Gestaltpsychologie eingehen. Vgl. Kleiber (1993), S.5. Rosch (1975), S.544. Vgl. Kleiber (1993), S.33f.

137

3 Qualitative Normalität dass Dinge mehr oder minder zu Kategorien gehören. Dementsprechend sind die Grenzen der Kategorien unscharf. Welche Eigenschaften hat ein Prototyp, die ihn zum besten Vertreter einer Kategorie machen? Zum einen hat er die meisten Gemeinsamkeiten mit anderen Exemplaren der Kategorie. Es spielt aber auch eine Rolle, dass der Prototyp Eigenschaften hat, die zwar innerhalb der Kategorie verbreitet sind, aber außerhalb der Kategorie gar nicht oder sehr selten vorkommen: [T]he more prototypical of a category a member is rated, the more attributes it has in common with other members of the category and the fewer attributes in common with members of the contrasting categories.181

Von einer Eigenart, welche selten bei artfremden Dingen und häufig bei arteigenen zu finden ist, wird auch gesagt, sie habe eine hohe cue validity.182 So hat „eine Mähne haben” für Löwen eine höhere cue validity als „männlich sein”, obwohl es mehr männliche Löwen als Löwen mit einer Mähne gibt. Denn es handelt sich bei der Mähne um ein Merkmal, das sich in den angrenzenden Kategorien, also besonders unter anderen Arten der Großkatzen, nicht findet. Prototypen sind in der Standardversion der Prototypensemantik Individuen oder Unterkategorien, die tatsächlich existieren. Anders als Stereotype haben sie einen Referenten. Der Prototyp wird nicht im Nachhinein konstruiert, sondern er ist fundamental. Die Kategorien werden vom Prototyp aus konstruiert. In der erweiterten Prototypensemantik, die Kleiber (1993) als „[e]ine drastische Revision” der Prototypensemantik betrachtet, werden einige radikale Thesen zurück genommen.183 Eine solche Theorie wird später von Eleanor Rosch, zum Beispiel in Rosch (1978), selbst vertreten. Die These der fundamentalen semantischen Bedeutung von Prototypen wird aufgegeben. Auch der Blick auf Prototypen erscheint dabei verändert. Es ist nicht mehr die Rede von einem Prototyp im eigentlichen Sinne, sondern viel eher von Prototypikalität. Rosch bestreitet in diesen Untersuchungen die Existenz eines Prototyps bei natürlichen Kategorien: To speak of a prototype at all is simply a convenient grammatical fiction; what is really referred to are judgements of degree of prototypicality. 181 182 183

138

Rosch (1978), S.37. Vgl. Kleiber (1993), S.52f. Kleiber (1993), S.111.

3.4 Typikalität Only in some artificial categories is there by definition a literal single prototype.184

Dabei ist es das Urteil der Sprechergemeinschaft, das entscheidet, wie prototypisch etwas ist, also welche Exemplare die Kategorie besser repräsentieren als andere. Die Ähnlichkeiten von Putnams Theorie der Stereotype zur Prototypensemantik sind auffällig. Dabei sind die Gemeinsamkeiten zur erweiterten Prototypensemantik größer. Putnam vertritt nirgendwo die These der ursprünglichen Prototypensemantik, dass der Grad der Typikalität auch dem Grad der Zugehörigkeit zu einer Kategorie entspricht. Außerdem wird der Prototyp in der Prototypentheorie zunächst referentiell verstanden.185 Dagegen ist das Stereotyp bei Putnam lediglich durch assoziierte Eigenschaften bestimmt. Ein wesentlicher Unterschied besteht darin, dass die Prototypensemantik eine psychologisch fundierte Theorie der Bedeutung ist, während Putnam jede mental begründete Sicht auf Konzepte ablehnt.186 Kleiber sieht in seiner Darstellung der Prototypensemantik einen engen Bezug zu quantitativen Konzepten. Seiner Auffassung nach ist Quasi-Universalität „implizit oder explizit mit dem Prototypenbegriff verknüpft”:187 Der Prototyp entspricht innerhalb der Standardversion immer in irgendeiner Form der folgenden Vorstellung: Eine All-Quantifizierung ist nicht notwendig, aber eine Mehrheit muß vorhanden sein.188

Aus Sicht der hier getroffenen Unterscheidung zwischen einem quantitativen und einem qualitativen Normalitätskonzept ist diese Gleichsetzung zu bezweifeln, denn zur Prototypensemantik passen eher die Logiken eines qualitativen und nicht eines quantitativen Verständnisses. Wegen der konjunktiven Zusammenfassung, die für Prototypen plausibel ist, müssten per Definition immer wenigstens mehr als die Hälfte der Exemplare Prototypen oder prototypisch sein. Doch schon einzelne Eigenschaften, die mit Prototypen in Verbindung gebracht werden, müssen nicht zwangsläufig auf die Mehrheit der Entitäten der Kategorie zutreffen. Beispielsweise hat die schon erwähnte Eigenschaft „eine 184 185 186 187 188

Rosch (1978), S.40. Vgl. Kleiber (1993), S.40f. Vgl. Kleiber (1993), S.71. Kleiber (1993), S.76. Kleiber (1993), S.76.

139

3 Qualitative Normalität Mähne haben” für Löwen eine hohe cue validity, obwohl nicht die Mehrheit der Löwen eine Mähne hat. Ähnlich wie in der Theorie der Stereotype geht es auch in der Prototypensemantik nicht um eine prinzipielle Idealisierung, sondern um eine Vorstellung eines typischen Subjekts, so dass auch hier eher Veltmans Logik der Normalität passend erscheint. Für beide Theorien lässt sich dabei jedoch sagen, dass sie nicht unmittelbar mit Normalität oder gar Vorhersageschlüssen zu tun haben, sondern allgemein auf Fragen der Kategorisierung eingehen.

140

4 Normalität zwischen Quantität und Qualität In diesem Kapitel werden die Stärken und Schwächen des quantitativen und des qualitativen Normalitätskonzeptes diskutiert. Dabei wird geklärt, wie stark die Verbindung zwischen Quantität und Normalität ist. Es stehen im wesentlichen fünf verschiedene Thesen zur Debatte. 1. Q UANTITÄTSTHESE: Für jedes quasi-universelle Urteil, also jeden Satz mit „die meisten” oder „meistens”, gibt es ein Normalitätsurteil, das dazu äquivalent ist. Das quantitative Konzept liefert eine vollständige semantische Charakterisierung von Normalitätsurteilen. 2. R ECHTFERTIGUNGSTHESE: Ein Normalitätsurteil muss durch ein quasiuniverselles Urteil gerechtfertigt werden. Es entspricht aber nicht jedem quasi-universellen Urteil ein Normalitätsurteil. Quasi-Universalität ist eine notwendige, aber keine hinreichende Bedingung für Normalität. Das quantitative Konzept der Normalität liefert einen positiven Anteil zur Semantik von Normalitätsurteilen. 3. R EVISIONSTHESE: Jedes Normalitätsurteil, dem gegenteilige Evidenzen in Form eines entsprechenden negierten, quasi-universellen Urteils entgegen stehen, ist nicht länger akzeptabel und muss gegebenenfalls verworfen werden. Quasi-Universalität ist zwar keine notwendige Bedingung für Normalität, aber sie kann zur Revision eines Normalitätsurteils führen. Das quantitative Konzept der Normalität liefert einen negativen Anteil zur Semantik von Normalitätsurteilen. 4. E INFACHE Q UALITÄTSTHESE: Normalitätsurteile und quasi-universelle Urteile stehen in keinem logischen Zusammenhang. Normalität ist ausschließlich als Idealisierung oder Typikalität zu verstehen.

4 Normalität zwischen Quantität und Qualität 5. E RWEITERTE Q UALITÄTSTHESE: Es gibt zwar keine logische Korrelation zwischen Normalität und Quasi-Universalität, aber andere Gründe an einen signifikanten Zusammenhang zwischen beiden zu glauben. Die Position, dass Quasi-Universalität eine hinreichende Bedingung für Normalität ist, wie die Quantitätsthese behauptet, wird in der Literatur übrigens kaum diskutiert. Viel häufiger geht es darum, ob Quasi-Universalität eine notwendige Bedingung für Normalität sein sollte.189 Davon sind aber Quantitätsthese sowie Rechtfertigungs- und Revisionsthese gleichermaßen betroffen. Nachdem im Kapitel zur quantitativen Normalität stillschweigend die Äquivalenz zwischen Normalität und Majorität unterstellt wurde, soll hier auch die Behauptung, dass Quantität hinreichend für Normalität ist, diskutiert werden. Dabei wird deutlich, dass die These quantitativer Rechtfertigung und Revision gerade dadurch gestärkt wird, dass zunächst die Schwächen der Quantitätsthese geklärt werden. Auf der anderen Seite stehen die Qualitätsthesen in zwei Fassungen, die gleichermaßen einen logischen Zusammenhang zwischen Normalität und QuasiUniversalität leugnen. Die einfache Versionen lehnt eine quantitative Komponente von Normalität vollständig ab. Die Vorstellung eines Zusammenhangs zwischen Quasi-Universalität und Normalität ist in unserem Alltagsverständnis allerdings tief verwurzelt, so dass es Bemühungen gibt, diesen auf einer anderen als auf der logischen, methodischen oder semantischen Ebene zu verorten. Dieser Gedanke wird bei einer erweiterten Qualitätsthese aufgegriffen. Im Folgenden werden wir diese Thesen diskutieren und zum Abschluss einen Blick auf die Verbindung von Normalität zu Ontologie und Normen werfen. Zunächst widmen wir uns aber der Quantitätsthese, die eine Reduzierbarkeit von Normalität zu Majorität annimmt.

4.1 Reduktion von Normalität auf Majorität Im Teil zur quantitativen Normalität wurden Meistaussagen als äquivalent zu Normalitätsaussagen behandelt. Doch es scheint zweifelhaft, inwiefern jede beliebige wahre quasi-universelle Aussage tatsächlich in eine wahre Normalitätsaussage übertragen werden kann. Dagegen, dass „Die meisten S sind P” tatsächlich in eine Normalitätsaussage „S sind normalerweise P” übertragbar ist, können folgende Gründe sprechen: 189

142

Vgl. Carlson (1995), Asher und Morreau (1991) und McCarthy (1986).

4.1 Reduktion von Normalität auf Majorität 1. Es fehlt ein offensichtlicher Zusammenhang zwischen Subjekt- und Objektbegriff. 2. Das quantitative Urteil ist nur in einer Ausnahmesituation wahr. 3. Das Prädikat ist keine natürliche oder ursprüngliche Eigenschaft des Subjekts. Wir beginnen mit einem Beispiel, in dem es um den fehlenden Zusammenhang zwischen Subjekt und Prädikat geht. Dazu betrachten wir alle Entitäten auf unserem Planeten, die sich in der Luft bewegen können. Dazu gehören die meisten Insekten und Vögel, weitere Tiere, die fliegen oder gezielt gleiten können, aber auch Flugzeuge und andere in der Luft steuerbare Dinge. Diese Kategorie wollen wir „Flugobjekte” nennen. Wir nehmen an, dass Insekten die allergrößte Gruppe darstellen. Insekten verfügen über Flügel und haben einen Chitinpanzer. Die folgenden beiden Normalitätsurteile sind somit, unabhängig von den Eigenschaften anderer Flugobjekte, quantitativ begründet: 1. Flugobjekte haben normalerweise Flügel. 2. Flugobjekte haben normalerweise einen Chitinpanzer. Während das erste Normalitätsurteil allgemein auf Anerkennung stößt, wird das zweite eher abgelehnt werden. Ein Grund dafür ist die Tatsache, dass es zwischen „Flügeln haben” und „zum Flug fähig sein” einen offensichtlichen Zusammenhang gibt. Flügel kommen bei unterschiedlichen Flugobjekten vor. Dagegen ist ein Chitinpanzer für Insekten spezifisch und hat keinen klaren Bezug zu der Art „Flugobjekt”. Es gibt zwei Möglichkeiten, auf diesen Einwand zu reagieren: 1. Es könnte gesagt werden, dass Flugobjekte in der Tat normalerweise einen Chitinpanzer haben. In dem Moment, in dem ein Sprecher mit dieser Behauptung konfrontiert wird, ist ihm nur nicht bewusst, dass die überwiegende Zahl der Flugobjekte über einen Chitinpanzer verfügt, weil er zunächst gar nicht an die Gruppe der unscheinbaren Insekten, sondern an Flugzeuge, UFOs und Vögel dachte. Wenn diese Person aber die Kategorie erklärt bekommt und sie auf die große Zahl der Insekten aufmerksam gemacht wird, sollte sie keine Zweifel mehr haben, die zweite Aussage ebenso zu akzeptieren wie die erste. Das zweite Normalitätsurteil ist demnach nicht falscher als das erste, sondern nur weniger offensichtlich wahr.

143

4 Normalität zwischen Quantität und Qualität 2. Die zweite Möglichkeit, auf das Problem zu reagieren, besteht darin, in Frage zu stellen, dass das zweite Urteil überhaupt quantitativ begründet ist. Gerade wenn Gruppen so wenig homogen sind wie die Kategorie der Flugobjekte und es Unterkategorien gibt, dann könnte argumentiert werden, dass sich die Quantifizierung überhaupt nicht auf die Individuen, sondern auf die Unterkategorien bezieht. Deswegen ist die Aussage, dass Flugobjekte normalerweise einen Chitinpanzer haben, auch falsch. Dabei wäre natürlich noch zu konkretisieren, wie diese Quantifizierung über Gruppen aussieht. Es muss weiter geklärt sein, was es bedeuten soll, dass eine Unterkategorie Flügel hat. Das heißt, diese Unterkategorien müssten wiederum selbst, eventuell durch Normalitätsaussagen, bestimmte Eigenschaften zu- oder abgesprochen bekommen. Wer die Quantitätsthese verteidigen will, muss sich entscheiden, welche der beiden Argumente er vorbringen will. Dabei mag zunächst die zweite Möglichkeit attraktiver sein, weil sie das plausiblere Ergebnis liefert. Sie benötigt aber einige weitere Voraussetzungen: Es muss geklärt werden, wann die Unterkategorien und wann die Individuen relevant sind. Ein weiterer Grund, warum Normalitätsaussagen nicht allein durch Quantität begründet sein dürfen, könnte darin gesehen werden, dass gewisse quantitative Verhältnisse nur in einer Ausnahmesituation bestehen. Sollte der Satz „Vögel können normalerweise nicht fliegen” wahr sein, wenn eine plötzliche Veränderung der Außenbedingungen dazu führen würde, dass Vögel mehrheitlich nicht mehr fliegen können? Obwohl in einer entsprechenden Ausnahmesituation „Die meisten Vögel können nicht fliegen” wahr ist, bleibt das Normalitätsurteil auch in diesem Kontext unplausibel. Es besteht zusätzlich das Problem, dass „Die meisten Vögel können in den meisten Situationen fliegen” und „In den meisten Situationen können die meisten Vögel fliegen” auch in dieser Ausnahmesituation wahre Aussagen sind, die genau die gegenteilige Normalitätsannahme, „Vögel können normalerweise fliegen”, begründen. Dabei sollen „S sind normalerweise P” und „S sind normalerweise nicht P” einander konträr gegenüber stehen und dürfen nicht gleichzeitig wahr sein. Somit hätte Quantität als hinreichende Bedingung den Effekt, dass verschiedene quantitative Urteile, die sich nicht widersprechen, zur Akzeptanz scheinbar widersprüchlicher Sätze führen. Dieser Widerspruch ist durch Präzisierung natürlich auflösbar. So ist „Die meisten Vögel können aktual nicht fliegen” eine hinreichende Bedingung für „Vögel können in dieser Situation normalerweise nicht fliegen”. Die anderen

144

4.1 Reduktion von Normalität auf Majorität quantitativen Sätze rechtfertigen dann eher einen Normalitätssatz wie „Normalerweise können Vögel normalerweise fliegen”. Diese Formulierungen sind allerdings äußerst sperrig. Dabei ist noch nicht einmal klar, wie sich der Unterschied zwischen „Die meisten Vögel können in den meisten Situationen fliegen” und „In den meisten Situationen können die meisten Vögel fliegen” in entsprechenden Normalitätsaussagen bemerkbar machen soll. Scheinbare Widersprüche, die sich aus der Quantitätsthese ergeben, sind zwar prinzipiell auflösbar, aber dies macht die Normalitätsaussagen komplizierter und unnatürlicher. Dem dritten Einwand, der gegen Quantität als hinreichende Bedingung für Normalität vorgebracht wird, liegt die Intuition zugrunde, dass eine Normalitätsaussage einen natürlichen oder ursprünglichen Zustand beschreiben muss. Nun entsprechen die aktualen quantitativen Verhältnisse nicht unbedingt denen, die wir als natürlich bezeichnen würden. Teilweise lässt sich dieser Einwand auf den zweiten zurückführen. Eine Situation kann unnatürlich sein, insofern sie eine Ausnahme darstellt. Dabei ist es richtig, dass nicht allein anhand der quantitativen Verhältnisse in dieser Situation über Normalität entschieden werden kann. Ist aber darüber hinaus gemeint, dass irgendeine ursprüngliche oder als ursprünglich gedachte Situation eine besondere Rolle bei der Beurteilung von Normalitätsaussagen zukommt, ist dieser Einwand selbst zweifelhaft. Es ist zum Beispiel bekannt, dass sich mittlerweile der überwiegende Teil der lebenden Tiger in Gefangenschaft befindet. Dennoch erscheint es unplausibel, die Aussage, dass Tiger in Gefangenschaft leben, zur Normalitätsaussage über die Art Panthera tigris zu erheben, denn diese quantitative Aussage ist nur aufgrund von Tatsachen wahr, die von Menschen in jüngster Zeit geschaffen wurden, und ist insofern keine passende Beschreibung von Tigern. Dieser Einwand ist insoweit gerechtfertigt, als wir uns bezüglich der Tiger in einer Ausnahmesituation befinden, ebenso wie wir uns in einer Ausnahmesituation befänden, wenn Vögel plötzlich nicht mehr fliegen können. Damit handelt es sich um den schon besprochenen zweiten Einwand. Man könnte nun sagen, dass es gar nicht darum geht, dass Tiger nur über einen sehr geringen Zeitraum ihrer Existenz mehrheitlich in Gefangenschaft waren, sondern darum, dass dies nicht der natürliche Zustand sei, egal wie lange er anhält. Dabei müsste nun geklärt werden, was „natürlich” heißt. Eine Antwort könnte sein, dass das Ursprüngliche das Natürliche sei. Demnach müssten Normalitätsaussagen sich auf die ursprüngliche Situation beziehen. Doch ist das wirklich plausibel? Angenommen die ersten Tiger lebten auf Java,

145

4 Normalität zwischen Quantität und Qualität heißt das, dass Tiger normalerweise dort leben? Sind für die Bewertung einer Normalitätsaussage die ältesten Tiger relevanter als die anderen Tiger? Wie können wir Normalitätsurteile dann bewerten, wenn so wenig über diese Tiere bekannt ist? Von den Einwänden, die gegen die Annahme, dass Quasi-Universalität hinreichend für Normalität ist, erhoben wurden, konnte nur der letzte weitestgehend entkräftet werden. Ansonsten zeigten sich deutliche Schwächen der Quantitätsthese. Gerade der Einwand, dass in Ausnahmesituationen unplausible Normalitätsurteile wahr sein könnten, ist sehr ernst zu nehmen. Er wiegt gerade deshalb so schwer, weil er selbst ein quantitativ begründeter Einwand ist. Ausnahmesituationen zeichnen sich ja dadurch aus, dass sie selten sind. Insofern trifft diese Kritik sogar dann zu, wenn keine qualitativen Normalitätsvorstellungen im Spiel sind. Nur durch eine unplausible Verkomplizierung von Normalitätsaussagen oder mit starken Einschränkungen lässt sich die Quantitätsthese überhaupt konsistent vertreten. Sind die Stärken der Quantitätsthese groß genug, um ihre Schwächen auszugleichen? Sie liefert die beiderseitige Übersetzbarkeit von Quasi-Universalität und Normalität. Der Vorteil, dass auch quasi-universelle Aussagen durch Normalitätsaussagen gedeutet werden können, ist aber nicht sehr bedeutend, denn Quasi-Universalität ist klarer und auch formal leichter zu erfassen als Normalität. Alles in allem halten sich die Stärken und Vorteile, die sich aus der Akzeptanz der Quantitätsthese ergeben, doch in Grenzen.

4.2 Revisions- und Rechtfertigungsthese Wir widmen uns als nächstes Thesen, die zwar Quasi-Universalität als eine notwendige Bedingung für Normalitätsurteile betrachten, aber darauf verzichten, sie auch als hinreichend anzusehen. Dies trifft auf die Rechtfertigungsthese und im eingeschränkten Maße auf die Revisionsthese zu. Beide Ansätze teilen die Annahme, dass eine Aussage der Form „Normalerweise A, aber nicht meistens A” schon allein aus logischen Gründen nicht akzeptabel ist. Die Rechtfertigungsthese setzt voraus, dass „Normalerweise A” nur akzeptiert werden darf, wenn auch „Meistens A” angenommen wird. Die Revisionsthese erlaubt hingegen an „Normalerweise A” festzuhalten bis „Nicht meistens A” bekannt ist. In einem dynamischen Rahmen oder im Zusammenhang von belief revision sind diese Thesen verschieden.

146

4.2 Revisions- und Rechtfertigungsthese

4.2.1 Quantitative Rechtfertigung und „normal” Soweit wir Majorität im zweiten Kapitel mit Nomalitätsurteilen gleichgesetzt haben, konnten wir schwache Normalitätssätze mit „es ist normal, dass”, unter Ausschluss leerer Subjekte, als deren subalterne Gegenstücke betrachten.190 Wie wirkt sich die Einschränkung, dass Mehrheit zwar notwendig, aber nicht hinreichend für Normalitätsurteile ist, auf die Deutung von „normal” aus? „Wenn A dann normalerweise B” setzt voraus, dass „In den meisten A-Fällen gilt B” wahr ist. Welche quantitative Rechtfertigung benötigt die Aussage „Es ist normal, dass B, wenn A”? Ist es eine notwendige Bedingung für die Wahrheit dieser Aussage, dass „Nicht in den meisten A-Fällen gilt nicht B” wahr ist? Schließlich ist diese quantitative Aussage dual zur quantitativen Rechtfertigung des entsprechenden Normalitätsurteils. Dennoch ist es falsch, dass dieses quantitative Urteil notwendige Bedingung für die Wahrheit des schwachen Normalitätssatzes ist. Betrachten wir zur Begründung die einstelligen Operatoren „es ist normal, dass” und „es ist normalerweise der Fall, dass”. Von Problemen, die sich aus leeren Mengen von Subjekten oder Bezugsfällen ergeben, kann in diesem Fall abgesehen werden und wir können getrost sagen, dass sich die Ausdrücke dual zueinander verhalten. Dabei heißt „es ist normal, dass” nichts anderes als „Nicht normalerweise nicht”. Wenn „Normalerweise A” wahr ist, dann ist es nach der Rechtfertigungsthese auch „Meistens A”. Das gilt natürlich auch für „Normalerweise nicht A” und „Meistens nicht A”. Wenn normalerweise nicht A der Fall ist, dann ist auch meistens nicht A der Fall. Durch Kontraposition kommen wir zu: Wenn nicht meistens nicht A der Fall ist, dann ist auch nicht normalerweise nicht A der Fall. Im zweiten Teil dieses Konditionals steht nichts anderes als ein schwacher Normalitätssatz und im ersten eine schwache quantitative Rechtfertigung. Wie wir aber sehen, ist die Wahrheit des quantitativen Satzes keine notwendige, sondern eine hinreichende Bedingung für die Geltung des schwachen Normalitätssatzes. Wenn etwas nicht nur selten vorkommt, ist es schon allein aus logischen Gründen heraus normal, denn ein gegenteiliges Normalitätsurteil kann nicht statistisch begründet sein. Auf der anderen Seite kann aber etwas normal sein, auch wenn es selten vorkommt. Dies ist dann der Fall, wenn wir trotz der vorhandenen statistischen Vorbedingungen kein 190

Vgl. Abbildung 2.6 in Abschnitt 2.5.3.

147

4 Normalität zwischen Quantität und Qualität

Normalerweise

Normalerweise nicht

B

 B

 B

 B

 B B

?

Meistens

  B



?

Meistens nicht

B  @ B  @B  B @ B @  B @ ?  B @ Nicht meistens  B  B  B  B  B  B ? B   B Es ist normal, dass nicht @ @

?

Nicht meistens nicht

?

Es ist normal, dass

Abbildung 4.1: Normalität nach der Rechtfertigungsthese

gegenteiliges Normalitätsurteil annehmen. Der Zusammenhang wird in der Abbildung 4.1 verdeutlicht.191

4.2.2 Einwände gegen quantitative Rechtfertigung Die Einwände, die gegen Quasi-Universalität als notwendige Bedingung für Normalität üblicherweise erhoben werden, treffen Rechtfertigungs- und Revisionsthese gleichermaßen. Diese Kritik formuliert Schurz mit folgenden Worten: For example, the ability to fly is a prototypical property of birds, and this - so the objection runs - remains true even if by some major disaster the 191

148

Da es um einstellige Modaloperatoren geht, spielt existentieller Import keine Rolle.

4.2 Revisions- und Rechtfertigungsthese majority of birds were to stop using their wings or even lose their flying ability.192

Ähnliche Einwände finden wir im Bereich von generischen Aussagen und Quantität bei Asher/Morreau: „Potatoes would contain vitamin C even if all of them were to be boiled for so long that it is lost”.193 Nicht nur im Hinblick auf Normalität, sondern besonders auch auf Defaults und Typikalität kann schließlich kritisiert werden, dass eine Reduktion zu quantitativen Konzepten unzulässig sei.194 Diese Kritikpunkte sollen auf den folgenden Seiten diskutiert werden, bevor die Stärken eines teilweise quantitativen Verständnisses von Normalität hervorgebracht werden. Die Berechtigung qualitativer Konzepte und Logiken Während quantitative Logik der Normalität einen Bezug zu Statistik und Wahrscheinlichkeiten herstellt, haben die Schlüsse der Default Logik oder Logiken mit Normalitätsordnungen keine derartige Verbindung zur Wahrscheinlichkeitstheorie. Dabei soll sich das Default Schließen laut Reiter durchaus bewusst von induktiven Ansätzen abgrenzen: Now, in certain settings a statistical reading is warranted. Regardless of my concept of a prototypical bird, if I find myself lost and hungry in a remote part of the world, my design of a bird-catching trap will depend upon my observation of the frequency with which the local birds fly. But to appeal exclusively to a statistical reading for plausible inference is to misunderstand the intended purpose of nonmonotonic reasoning.195

Mitunter wird auch darauf verwiesen, dass qualitative Logiken eher dem entsprechen, wie Menschen tatsächlich im Alltag denken und schließen. Tatsächlich spricht einiges dagegen, nicht-monotone Logiken und qualitative Konzepte abzulehnen. Sie haben einige Vorzüge, die statistisch-induktiven Ansätzen fehlen. So erlauben sie auch dann epistemische Präferenzen, wenn gar keine quantitativen Evidenzen vorliegen oder noch nicht einmal vorliegen können. Meine epistemische Präferenz für Alternativen, in denen ich einen 192 193 194 195

Schurz (2001), S.478. Schurz bezieht sich hier auf Äußerungen von McCarthy und Reiter, die wir später auch noch diskutieren werden. Asher und Morreau (1995), S.300. Vgl. Reiter (1987), S.181. Reiter (1987), S.181.

149

4 Normalität zwischen Quantität und Qualität Körper habe, gegenüber denen, in welchen von mir nur ein Gehirn im Tank existiert, ist zum Beispiel rein qualitativ. Ich verfüge über gar keine quantitativen Evidenzen, die mir ermöglichen, diese Präferenz durch Mehrheiten oder statistisch begründeten Wahrscheinlichkeiten zu fundieren. Die entscheidende Frage, ob diese Logiken auch das bessere Normalitätsverständnis bieten, bleibt dennoch offen. Die Annahme, dass ich zum Beispiel kein Gehirn im Tank bin, ist viel zu grundlegend, um sie als Normalitätsurteil zu verstehen. Der Satz „Normalerweise bin ich kein Gehirn im Tank” legt nahe, dass Ausnahmen von dieser Regel vorkommen oder wenigstens möglich sind. Ebenso ist die Berechtigung von Stereotypen oder Prototypen von der Frage nach dem richtigen Normalitätsverständnis nicht berührt. Sich gegen ein prototypisches oder stereotypisches Verständnis von Normalität auszusprechen, heißt genauso wenig, sich gegen das Konzept der Stereotype oder Prototypen auszusprechen, wie eine Ablehnung eines quantitativen Normalitätsverständnisses eine Ablehnung von Induktion und Wahrscheinlichkeit impliziert. Es geht in dieser Diskussion also ausdrücklich nicht darum, qualitative Konzepte und Logiken insgesamt in Frage zu stellen, sondern darum festzustellen, ob sie die richtige Interpretation für Normalität liefern. Generische Sätze Asher/Morreau schreiben in ihren Arbeiten über generische Sätze: Perhaps in despair of ever finding truth conditions which enable it to be true that potatoes contain vitamin C (which most of them in fact do) but at the same time true that turtles live to be a hundred years or more old (which most of them do not), it has sometimes been denied that sentences like these have truth conditions at all; or at least, it has been denied that truth conditions are of any interest when it comes to explaining what these sentences mean.196

Die Einwände, die gegen quantitative Deutungen von generischen Aussagen erhoben werden, treffen Normalitätsaussagen nur teilweise, denn nicht jedes generische Urteil ist ein Normalitätsurteil oder mit einem Normalitätsurteil äquivalent. Generische Aussagen, welche die Kategorie an sich und nicht die Exemplare betreffen, also generische Aussagen mit kind predicate interpretation, 196

150

Asher und Morreau (1995), S.301f.

4.2 Revisions- und Rechtfertigungsthese sind prinzipiell nicht als Normalitätssätze zu verstehen, wie folgendes Beispiel zeigt: Tiger sind vom Aussterben bedroht. * Tiger sind normalerweise vom Aussterben bedroht.

Bei anderen generischen Aussagen ist es plausibel, sie als Normalitätsurteile zu deuten: Tiger sind gestreift. Tiger sind normalerweise gestreift.

Bei wieder anderen generischen Aussagen ist nicht ganz klar, ob sie auch Normalitätsurteile sind: Löwen haben eine Mähne. (?)Löwen haben normalerweise eine Mähne.

Wenn die quantitative Rechtfertigung gelten soll, darf „Löwen haben normalerweise eine Mähne” natürlich nicht akzeptabel sein, wenn mit „Löwen” gleichermaßen weibliche und männliche Tiere gemeint sind. Aus qualitativer Sicht, mit Blick auf prototypische Eigenschaften, ist ein solches Normalitätsurteil hingegen akzeptabel. Eine Mähne zu haben, ist ein prototypisches Merkmal für Löwen, denn es hat, wie bereits ausgeführt, eine hohe cue validity. Wann ist ein generischer Satz ein Normalitätsurteil? Die Antwort auf diese Frage darf natürlich nicht von einer statistischen Rechtfertigung abhängig gemacht werden, wenn es darum geht, ob einige generische Sätze die These der quantitativen Rechtfertigung widerlegen können. Dies würde zwar vermeintliche Gegenbeispiele, wie „Löwen haben eine Mähne” entkräften, aber kaum jemanden überzeugen, der ein quantitatives Konzept von Normalität ablehnt. Es muss ein anderes plausibles Kriterium gefunden werden, wann generische Aussagen auch Normalitätsaussagen sind. Betrachten wir dazu die Einteilung generischer Sätze, wie sie Krifka u. a. (1995) vorschlagen: a. The dodo is extinct. (kind predicate interpretation) b. Linguists have more than 8,000 books in print. [. . . ] (collective property interpretation) c. [. . . ] German teenagers watch six hours of TV daily. (average property interpretation) d. The potato contains vitamin C. (characterizing property interpretation)

151

4 Normalität zwischen Quantität und Qualität e. Dutchmen are good sailors. [. . . ] (distinguishing property interpretation) f. [. . . ] In Alaska, we filmed the grizzly. (representative object interpretation) g. Man set foot on the Moon in 1969. (avant-garde interpretation) h. The wolves are getting bigger as we travel north. (internal comparison interpretation)197

Von den genannten Beispielen können a. und b. auf gar keinen Fall in ein Normalitätsurteil übertragen werden. Auch die Beispiele f. bis h. lassen sich offensichtlich nicht in diesem Sinn deuten. Bei c., d. und e. kommt eine Deutung im Sinne von Normalität zumindest auf den ersten Blick in Frage. Gegen eine Normalitätsdeutung für generische Aussagen einer distinguishing property interpretation sprechen sich Krifka u. a. (1995) indirekt selbst aus, wenn sie darauf hinweisen, dass aus solchen Sätzen keine Vorhersagen für einzelne Individuen der Gruppe abgeleitet werden können.198 Gerade dies soll bei Normalitätsannahmen möglich sein. Ein ähnliches Argument spricht auch dagegen, Sätze der average property interpretation so zu deuten. Besonders dann, wenn eine durchschnittliche Eigenschaft angegeben wird, die gar nicht realisiert werden kann, wie „Deutsche Frauen haben 1,36 Kinder”, wäre eine entsprechende Einzelvorhersage absurd. Damit sind es nur generische Aussagen einer characterizing property interpretation, die als Normalitätsurteile verstanden werden können. Dieses Kriterium, generische Aussagen dann und nur dann als Normalitätsurteile zu verstehen, wenn sie eine charakterisierende Eigenschaft nennen, ist selbst nicht statistisch. Gleichzeitig schließt es einige Gegenbeispiele gegen die Forderung nach quantitativer Rechtfertigung aus. So entspricht „Löwen haben eine Mähne” eher einer distinguishing property interpretation und ist damit kein Normalitätsurteil. Asher/Morreau bringen gegen ein quantitatives Verständnis von Generizität vor, dass „Turtles live to be a hundred years or more old” wahr ist, obwohl die meisten Schildkröten nicht so alt werden. Betrifft dieser Einwand auch die quantitative Rechtfertigung von Normalitätsurteilen? Bei „Turtles live to be a hundred years or more old” kommt eine characterizing property interpretation und eine distinguishing property interpretation in Frage. Während bei einer 197 198

152

Krifka u. a. (1995), S.78. Vgl. Krifka u. a. (1995), S.82.

4.2 Revisions- und Rechtfertigungsthese generischen Aussage „S sind P” in der characterizing property interpretation der Gedanke eine Rolle spielt, dass P für die einzelnen Exemplare von S charakteristisch ist, geht es bei einer distinguishing property interpretation um die Abgrenzung von anderen Arten. Wie ist „Turtles live to be a hundred years or more old” zu verstehen? Es kann insofern als eine Abgrenzung gegenüber anderen Tieren gesehen werden, als es einzelne Schildkröten gibt, die über hundert Jahre alt werden. Das grenzt sie von anderen Tierarten, die keine so alten Vertreter aufweisen, ab. In diesem Sinne ist der generische Satz aber kein Urteil einer characterizing property. Dieser Satz könnte aber auch als ein Urteil darüber verstanden werden, dass Schildkröten über das Potenzial verfügen, hundert Jahre und älter zu werden, obwohl aufgrund äußerer Ursachen das Leben einer Schildkröte in den meisten Fällen nicht so lang ist. Aber dann handelt es sich nicht um ein Gegenbeispiel zur These quantitativer Rechtfertigung. Damit der Satz „Schildkröten können hundert Jahre alt werden” als Normalitätsurteil wahr ist, ist es auch bei quantitativer Rechtfertigung nicht notwendig, dass die meisten Schildkröten hundert Jahre alt werden, sondern nur, dass sie über entsprechende Möglichkeiten verfügen. Schließlich findet sich bei Asher/Morreau: „Potatoes would contain vitamin C even if all of them were to be boiled for so long that it is lost”.199 Dieser Einwand gegen die quantitative Semantik von Generizität betrifft ganz klar auch Normalitätsurteile. Er ist vergleichbar mit dem Argument, dass „Vögel können normalerweise fliegen” auch dann wahr wäre, wenn diese vorübergehend ihre Flugfähigkeit verlören. Diese vermeintlichen Gegenbeispiele werden nun im nächsten Absatz diskutiert. Ausnahmesituationen Der klassische Einwand gegen Majorität als notwendige Bedingung für Normalität hat häufig etwa folgende Form: Normalerweise sind S P und es sind auch die meisten S P, aber selbst wenn S plötzlich nicht mehr mehrheitlich P wären, würde der Satz „Normalerweise sind S P” immer noch akzeptabel sein. Der Einwand trifft nicht den Kern der quantitativen Rechtfertigung. Es wird nur festgestellt, dass eine bestimmte Art von quantitativer Rechtfertigung, welche sich ausschließlich auf den aktualen Kontext bezieht, nicht notwendig ist. Nun ist aber selbstverständlich, dass nicht jedes Normalitätsurteil auf eine solche 199

Asher und Morreau (1995), S.300.

153

4 Normalität zwischen Quantität und Qualität Art und Weise gerechtfertigt werden kann. Insbesondere Normalitätsurteile, die sich auf ein einzelnes Individuum beziehen, lassen sich schon aus syntaktischen Gründen nicht auf diese Weise rechtfertigen. Die quantitative Rechtfertigung für Normalitätsurteile berücksichtigt üblicherweise mehr Situationen als die aktuale. Der kritische Punkt des Einwandes ist der Bezug auf eine Ausnahmesituation: Auch wenn Vögel einmal ausnahmsweise nicht fliegen können, bleibt es dabei, dass Vögel normalerweise fliegen können. Nun ist aber die Semantik von „Ausnahme” selbst nicht frei von quantitativen Vorstellungen. Ausnahmen sind selbst Situationen, die nicht besonders häufig sind. Ansonsten sollten sie nicht als Ausnahmesituationen bezeichnet werden. Der klassische Einwand lässt sich durch den Verweis auf die modalen Aspekte von Normalitätsaussagen ausräumen. Kann der Satz „Vögel können normalerweise fliegen” aber auch akzeptabel sein, wenn Vögel mehrheitlich und dauerhaft ihre Fähigkeit zu fliegen, verlören? Es ist schwer nachvollziehbar, wie Menschen, die nicht mit mehrheitlich fliegenden Vögeln konfrontiert sind, auf die Idee kommen sollten, dass Vögel normalerweise fliegen können. Normen Häufig wird Normalität mit gesellschaftlichen Normen in Zusammenhang gebracht. Beispiele für Normalitätssätze, die gesellschaftliche Vereinbarungen angeben, sind solche Sätze, die sich auf einen verbindlichen Plan zu regelmäßigen Ereignissen, zum Beispiel auf einen Fahrplan, beziehen: 1. Die Ankunft des Zuges ist normalerweise 20:00 Uhr. 2. Die Ankunft des Zuges soll 20:00 Uhr sein. 3. Die Ankunft des Zuges ist meistens 20:00 Uhr. 4. Die Ankunft des Zuges ist meistens 20:10 Uhr. 5. Die Ankunft des Zuges ist normalerweise 20:10 Uhr. 6. Der Zug, dessen Ankunft normalerweise 20:00 ist, verspätet sich normalerweise um zehn Minuten. Die ersten beiden Sätze geben eine Festlegung wieder. Auffällig ist die größere Nähe des Normalitätssatzes 1. zum normativen Satz 2. als zum deskriptiven

154

4.2 Revisions- und Rechtfertigungsthese quantitativen Satz 3. Ein Normalitätssatz, der einen solchen Richtwert angibt, bedarf keiner quantitativen Rechtfertigung. Selbst wenn ein Zug regelmäßig zehn Minuten Verspätung hat und somit Satz 4. zutrifft, bleibt die fahrplanmäßige Ankunft Default. Wenn diese 20:00 Uhr ist, würden wir eher Satz 1. als Satz 5. für wahr erachten. Sehr wohl kann es natürlich, wie im Satz 6., ein Normalitätsurteil darüber geben, wie stark üblicherweise vom Default abgewichen wird. In einem solchen Normalitätsurteil spielt wieder Quantität eine entscheidende Rolle. Eine statistische Widerlegung eines Normalitätsurteils, das ausschließlich einen Richtwert angibt, kann es hingegen nicht geben. Obgleich der zentrale Stellenwert von Regeln, Normen und Konventionen kaum bestritten werden kann, lässt sich höchstens ein Bruchteil aller Normalitätsaussagen in diesem Sinn verstehen. Diese Interpretation ist ohnehin nur da sinnvoll, wo wir einen menschlichen Einfluss vermuten dürfen. Es ist aber schwer vorstellbar, wie zum Beispiel „Vögel können normalerweise fliegen” auf diese Weise gedeutet werden kann.

4.2.3 Vorteile der quantitativen Rechtfertigung Eine der grundlegenden Eigenschaften von Normalitätsaussagen und ebenso die wesentliche Funktion von Defaults ist das Ermöglichen von gerechtfertigten, aber widerlegbaren Vorhersagen. Quasi-universelle, quantitative Aussagen liefern durch Wahrscheinlichkeitsschlüsse solche Vorhersagen. Die Rechtfertigungsthese gibt mit dem Bezug auf Statistik und Wahrscheinlichkeit damit eine Begründung für die Rationalität der Vorhersage, die unabhängig vom Default Schließen oder Plausibilitätsordnungen ist. Die These, dass Normalität quantitativ gerechtfertigt ist, beruht nicht auf qualitativer Logik, sie widerspricht ihr aber auch nicht. So ist eine Formalisierung möglich, die verlangt, dass eine Menge von Normalitätsurteilen quantitativ gerechtfertigt und deduktiv geschlossen ist. Dann können nur Normalitätsurteile akzeptiert werden, deren stärkste logische Konsequenzen auch quantitativ gerechtfertigt sind, besonders dann wenn der Grenzwert vage bleibt.200 Es ist in Hinsicht auf die quantitative Rechtfertigung aber keineswegs nötig, eine solche Verbindung zur Deduktion herzustellen. Da sie die Akzeptabilität von Normalitätsaussagen weiter einschränkt als es der quantitativen Lesart nach 200

Vgl. die Formalisierung von „almost all” bei Adams (1974) oder „belief” bei Leitgeb (2010).

155

4 Normalität zwischen Quantität und Qualität unbedingt nötig ist, handelt es sich hier um eine mit der Rechtfertigungsthese kompatiblen, aber ihr auch fremden Forderung. Das Akzeptieren von Rechtfertigungs- oder Revisionsthese garantiert, dass es zu keinen Konflikten zwischen Vorhersagen aus Normalitätsaussagen und Folgerungen aus der Statistik kommen kann. Die Annahmen „Normalerweise A” und „Meistens nicht A” sind nicht kompatibel. Wer hingegen einen logischen Zusammenhang zwischen Statistik und Normalität leugnet, muss mit der Situation umgehen, dass eine Person gleichzeitig aus der Normalitätsannahme schließen darf, dass voraussichtlich A der Fall sein wird, und es auf der anderen Seite durch statistische Evidenzen für unwahrscheinlich hält, dass A der Fall sein wird. Eine solche epistemische Situation eines rationalen Subjektes erscheint jedoch absurd. Ebenso sorgen die Revisionsthese und die Rechtfertigungsthese dafür, dass die Vorhersagen nicht offen für Dutch Book Argumente sind, wie sie in der Wahrscheinlichkeitstheorie verwendet werden. Das heißt, auf die Vorhersagen, die in einer solchen Theorie der Normalitätssätze folgen, könnte man bedenkenlos Wetten abschließen, ohne einen gewitzten Buchmacher zu fürchten, der einen in garantierte Verlustverträge treibt. Unter den gängigen diskutierten Beispielen sind so gut wie keine Defaults oder Normalitätsaussagen zu finden, die nicht statistisch gut gerechtfertigt sind oder von denen wir nicht zumindest überzeugt sind, dass sie statistisch gut gerechtfertigt seien. Wer einen logischen Zusammenhang zwischen Normalität und Majorität leugnet, begibt sich in die Schuldigkeit zu erklären, warum unsere Normalitätsaussagen quantitativ so gut gerechtfertigt sind. Dieses Thema wird im Abschnitt 4.3.1 diskutiert. Welche vorläufigen Ergebnisse sind diesen Ausführungen hinsichtlich der Hypothese, dass Mehrheit eine notwendige Voraussetzung für Normalität ist, zu entnehmen? Ein Argument, das einen dazu zwingt, einen logischen Zusammenhang zwischen Statistik und Normalität anzuerkennen, gibt es nicht. Allerdings gibt es auch kein überzeugendes Argument dagegen. Für fast alle Normalitätsaussagen, die wir zu akzeptieren bereit sind, ist es darüber hinaus auch zutreffend, dass sie statistisch gerechtfertigt sind. Die Gegenbeispiele, die allgemein vorgebracht werden, konnten ausgeräumt werden. Ausnahmen bestehen zwar, lassen sich jedoch gut einschränken. Sie treten nur dort auf, wo es um Normen und Festlegungen geht, wie in dem genannten Fahrplanbeispiel. Bei diesen Aussagen lässt sich „normally” beziehungsweise „normalerweise” nicht durch „usually” oder „gewöhnlich” ersetzen. Sie sind unter absoluter

156

4.2 Revisions- und Rechtfertigungsthese Anerkennung der Rechtfertigungs- oder Revisionsthese nicht als Normalitätsaussagen im Sinne der Theorie zu betrachten. Wir können sie als eine Theorie der deskriptiven Normalitätsurteile bezeichnen.

4.2.4 Rechtfertigung oder Revision? Bisher wurden Rechtfertigungs- und Revisionsthese gemeinsam diskutiert und verteidigt. Es gibt allerdings entscheidende Unterschiede zwischen den beiden Ansätzen. Die Rechtfertigungsthese liefert eine logische Grundlage für die Analyse von Normalitätsurteilen und Normalitätsschlüssen. Es wird zwar dabei zugestanden, dass Mehrheit für Normalitätsannahmen nicht ausreicht und es auch qualitative Aspekte der Normalität gibt, aber die quantitative Komponente wird als die logisch entscheidende betrachtet. Sie reicht aus, um die logischen Eigenschaften von Normalitätsaussagen darzustellen und zu erklären. Bei der Revisionsthese sieht es anders aus. Zwar wird ein Zusammenhang zwischen Normalität und Majorität hergestellt, aber dieser ist nicht grundlegend genug, um eine Formalisierung der Normalität in einer Logik des Quantitativen vorzunehmen. Damit ein Normalitätsurteil angenommen werden kann, ist es laut Revisionsthese nicht nötig, über entsprechende statistische Informationen zu verfügen. Daher kann der Vorhersageschluss nicht quantitativ gedeutet oder formalisiert werden. Die Revisionsthese sorgt lediglich dafür, dass ein Normalitätsschluss nicht in Konflikt mit einer statistisch begründeten Prognose treten kann. Gerade weil sie schwächer als die Rechtfertigungsthese ist, scheint die Revisionsthese eher akzeptabel zu sein. Selbst jemand, der ein qualitatives Konzept von Normalität vertritt, kann es für plausibel halten, dass sich Normalitätsannahmen an statistische Annahmen annähern. Auf der anderen Seite sind Kritikpunkte gegen rein qualitative Normalitätsdeutungen, dass sie zum Beispiel im offenen Widerspruch zu Wahrscheinlichkeiten stehen und die erstaunliche Korrelation zwischen Normalitätsurteilen und Majorität zu einem Mysterium machen, ausgeräumt, wenn statistische Revision verlangt wird. Die Revisionsthese hat aber auch einen Nachteil: Sie liefert letztlich keine Antwort auf die Frage nach der Bedeutung von Normalitätsurteilen, sondern allenfalls eine epistemische Richtlinie. Im Gegensatz dazu ist die Rechtfertigungsthese eine hinreichende Grundlage für ein eigenes logisches System quantitativer Normalität.

157

4 Normalität zwischen Quantität und Qualität

4.3 Quantität und Normalität jenseits der Logik Wir haben festgestellt, dass es im Bereich deskriptiver Normalitätsaussagen kaum Beispiele von wahren Urteilen gibt, die nicht quantitativ gerechtfertigt sind. Um zu erklären, dass Normalität so stark mit Quantität korreliert, sind aber auch Ansätze zu erwägen, die Normalität und Quantität nicht auf semantischer oder logischer, sondern auf anderer Ebene miteinander verbinden. Im Folgenden wird der Zusammenhang von Statistik und Normalität einerseits evolutionstheoretisch und andererseits auf pragmatischer Ebene diskutiert. Ein Schwerpunkt der Diskussion liegt dabei auf der Frage, ob diese Verbindungen geeignet sind, ohne eine semantisch quantitative Fundierung von Normalität die hohe Anzahl an statistisch gerechtfertigten Normalitätsurteilen zu erklären.

4.3.1 Ontologische Verbindungen durch Evolution Dieser Abschnitt soll sich mit den Verbindungen von Quantität, Typikalität und Normalität auf ontologischer Ebene beschäftigen. Gerhard Schurz diskutiert diese auf einer evolutionstheoretischen Basis im Aufsatz „What Is Normal? An Evolution-Theoretic Foundation for Normic Laws and Their Relation to Statistical Normality”. Grundsätzlich geht es bei Schurz um allgemeine Gesetze, die Ausnahmen zulassen. Diese mit „normally” gebildeten Aussagen nennt Schurz normic laws.201 Ebenso wie statistische Gesetze seien diese dadurch gekennzeichnet, dass sie nicht in einem strengen Sinne, also durch eine klar benennbare Zahl von Gegenbeispielen, widerlegbar sind.202 Während statistische Gesetze aber zumindest tendenziell durch bestimmte Tests mehr oder weniger bestätigt werden können, ist dies bei den sogenannten normic laws nur so, „provided that normic laws are, or at least imply, claims of statistical normality. More precisely: provided that Ax ⇒ Bx implies that the conditional statistical probability of Bx given Ax, p(Bx/Ax), is high”.203 Schurz ist nicht der Meinung, dass normische Gesetze auf statistische Annahmen reduziert werden können, sondern sieht die Quantität „as an insufficient but ‘weakly necessary’ condition”.204 Er unterscheidet 201 202 203 204

158

Vgl. Schurz (2001), S.476. Das gilt zumindest, wenn die Individuen, um die es geht, zumindest potentiell unendlich viele sind. Vgl. Schurz (2001), S.478. Schurz (2001), S.478. Schurz (2001), S.478.

4.3 Quantität und Normalität jenseits der Logik zwischen einer methodischen und einer ontologischen Begründung der These, dass normische Gesetze statistische Mehrheit implizieren. Die ontologische Begründung hält er dabei für stärker, da sie nicht nur Gründe angebe, warum dieser Schluss gelten sollte, sondern auch, weshalb er tatsächlich gelte. In seinen weiteren Ausführungen unterscheidet Schurz zwischen Systemen, die als geschlossen betrachtet werden können, und offenen Systemen. Geschlossene Systeme sind vor allem in der Physik und der Chemie relevant, während wir es in der Biologie, Soziologie und anderen höheren Wissenschaften mit offenen Systemen zu tun haben. Offene Systeme stehen, so Schurz, im Stoffwechsel und sind bedrohlichen Umwelteinflüssen ausgesetzt, was selbsterhaltende Mechanismen notwendig macht.205 Die wissenschaftlichen Thesen über geschlossene Systeme seien daher von denen über offene Systeme zu unterscheiden. So argumentiert Schurz dafür, dass ceteris paribus Gesetze im engeren Sinne nicht mit normischen Gesetzen, die mitunter auch als ceteris paribus Gesetze gesehen werden, gleichgesetzt werden sollten. Während ceteris paribus Klauseln zum Beispiel in der Physik dazu dienen, störende Außeneinflüsse auszuschließen, es also im Grunde genommen erst ermöglichen, ein System als geschlossen zu betrachten, nennen normische Gesetze für offene Systeme tatsächlich vorhandene Mechanismen der Selbsterhaltung.206 In dieser Arbeit wurde bisher zwischen quantitativer sowie verschiedenen Arten von qualitativer Normalität unterschieden. Wie passt dies zu der von Schurz vorgeschlagenen Differenzierung zwischen ceteris paribus Gesetzen und normischen Gesetzen? Diese Unterscheidung lässt sich mit der Trennung zwischen lokaler und globaler qualitativer Normalität einfangen. Wir erinnern uns daran, dass globale Normalitätsaussagen sich auf ein gesamtes epistemisches System beziehen, während lokale Normalitätsannahmen im Bereich eines bestimmten Subjektbegriffes relevant sind. Die ceteris paribus Gesetze, die Schurz von normischen Gesetzen abgrenzen möchte, beziehen sich auf eine ganze wissenschaftliche Theorie. Sie schließen störende Einflüsse aus, dienen der allgemeinen Vereinfachung und sind daher global. Die normischen Gesetze, die Schurz in den höheren Wissenschaften, wie Biologie, Sozial- und Kulturwissenschaften ansiedelt, sind hingegen für bestimmte Klassen von selbstregulierenden Systemen relevant und insofern lokal. 205 206

Vgl. Schurz (2001), S.479. Vgl. Schurz (2001), S.480.

159

4 Normalität zwischen Quantität und Qualität Schurz geht davon aus, dass die typischen Eigenschaften selbstregulierender Systeme durch Evolution hervorgebracht wurden. Abweichungen vom Typischen könnten zwar durchaus vorkommen aber blieben durch evolutionäre Prozesse selten. Mit seinem Evolutionsbegriff bezieht sich Schurz keineswegs nur auf biologische Prozesse, sondern auch auf technische und kulturelle Entwicklungen. Kennzeichnend für einen evolutionären Prozess ist laut Schurz das Vorhandensein von Variationen. Außerdem muss es Reproduktionsmechanismen geben, bei denen Eigenschaften der Vorgänger an den Nachfolger weitergegeben werden. Schließlich sind selektive Mechanismen notwendig, die dafür sorgen, dass an die Umwelt schlecht angepasste Systeme eliminiert werden oder wenigstens einen geringen Reproduktionserfolg haben.207 In dieser generalisierten Evolutionstheorie wird die Grundlage der Weitergabe von Eigenschaften allgemein als „Reprotyp” bezeichnet. Dazu können Gene gehören, aber auch sogenannte Meme. Meme sind dabei Informationen über die Herstellung und die Nutzung von Artefakten.208 Nachdem Schurz allgemein die Prinzipien der Evolution diskutiert hat, begründet er schließlich seine These, dass prototypische Normalität statistische Normalität impliziert. Dazu benutzt er folgende Definition von Prototypikalität, wobei sein Verständnis deutlich von dem Begriff des Prototyps in der kognitiven Linguistik abweicht: For S a class of evolutionary systems, and T a trait of S-members: (i) T is a prototypical trait of S-members at time t iff T is produced by a reprotype R and from T’s first appearance in the S-history until time t, there was overwhelming selection in favor of R.209

Diese Definition liefert mit „overwhelming selection” schon die entscheidende Richtung für eine statistische Rechtfertigung, zwar nicht für die sichtbaren Eigenschaften, Fähigkeiten oder Funktionen, aber immerhin für die Informationen, die für deren Verwirklichung ursächlich sind. Ein solcher Prozess der „overwhelming selection” kann natürlich nur dann vorliegen, wenn sich am Ende dieses Prozesses gewisse quantitative Verteilungen auf der Ebene der Reprotypen eingestellt haben. Auf der ontologischer Ebene ist die Definition der Prototypikalität also selbst quantitativ. Aus seiner Definition leitet Schurz folgende Konklusionen ab: 207 208 209

160

Vgl. Schurz (2001), S.481. Vgl. Schurz (2001), S.483. Schurz (2001), S.494.

4.3 Quantität und Normalität jenseits der Logik Conclusion 1: If T is a prototypical trait of S-members at time t, then there exists a reprotype R which produces T, and from T’s first appearance until t there was overwhelming selection in favor of R. [From definition PN.] Conclusion 2: If T is a prototypical trait of S-members at t and t is not a time soon after T’s first appearance, then for most time points from T’s first appearance until t, (i) T was a prototypical trait of S-members and (ii) most S-members possessed reprotype R and, therefore, trait T. [(i) from conclusion 1 and definition PN; (ii) from conclusion 1, definition of “production”, “selection”, and probability theory.]210

Die erste Konklusion formuliert die Konsequenz der Definition für den Reprotyp, der einer prototypischen Eigenschaft zugrunde liegt. Es wird wie in der Definition von „overwhelming selection” gesprochen. In der zweiten Konklusion ist hingegen mit „most time points” und „most S-members” die Verbindung zur Quasi-Universalität explizit. Diese Konklusion würde schon eine statistische Rechtfertigung darstellen, wenn modale Quasi-Universalität einbezogen würde. Schurz argumentiert weiter, um eine Rechtfertigung der Form „Die meisten S sind zu t P” bezogen auf einen festen Zeitpunkt t ableiten zu können: Premise 1: Most classes of evolutionary systems do not become extinct soon after acquiring a selectively advantageous trait. Premise 1 and Conclusion 2 imply, by probability theory, the final version of the statistical consequence thesis (SC): (SC) For most classes of evolutionary systems S and times t of their existence it holds that if T is a (fundamental or derived) prototypical trait of S-members at time t, then most S- members will possess trait T at time t.211

Wie ist nun Schurz in der Debatte um quantitative und qualitative Normalität einzuordnen? Hat er das Ziel, eine Begründung dafür zu liefern, dass Normalität, auch wenn sie semantisch qualitativ ist, eine evolutionsontologische Verbindung zur Quantität hat? In Anbetracht der Tatsache, dass er von prototypischen Eigenschaften spricht, könnte man dies meinen. Bei näherem Hinsehen erweist sich das als falsch. Vielmehr scheint es, dass sein Typikalitätskonzept selbst nicht frei von quantitativen Komponenten ist. Schurz gelingt es durchaus, plausibel für die „statistical consequence thesis” zu argumentieren. Die These, dass normische Gesetze logisch und semantisch nicht statistisch sind, ist mit seinem Ansatz jedoch nicht kompatibel. 210 211

Schurz (2001), S.494. Schurz (2001), S.495.

161

4 Normalität zwischen Quantität und Qualität Das Ergebnis von Schurz’ Argumentation ist sehr gut mit einem quantitativen Verständnis von Normalität vereinbar und lässt sich etwa wie folgt umreißen: Normalität ist ein statistisches Konzept, aber innerhalb selbstregulierender Systeme gibt es evolutionäre Mechanismen, die dafür sorgen, dass es für jede Art einige Eigenschaften gibt, die eine überwältigende Mehrheit von Individuen dieser Art gemein haben. Diese gemeinsamen Eigenschaften können für diese Art als prototypisch bezeichnet werden. Schurz’ Theorie erklärt vor allem, wie es überhaupt dazu kommt, dass etwas typisch sein kann, wenn wir es auf ontischer Ebene mit Mehrheiten zu tun haben. Insofern stärkt Schurz eher ein quantitatives Verständnis von Normalität. Wie sähe es aus, wenn man eine andere Definition prototypischer Eigenschaften als Schurz’ Definition annimmt, die sicher stellt, das Typikalität keine Quantität voraussetzt? So könnte zum Beispiel alternativ folgende Definition einer prototypischen Eigenschaft gegeben werden: P ist genau dann eine prototypische Eigenschaft für S zu einem Zeitpunkt t, wenn es einen jüngsten gemeinsamen Vorfahren V aller S gibt und V die Eigenschaft P hat. Diese Definition nutzt das Konzept des most recent common ancestor aus der Genetik.212 Dessen Stellung übernimmt hier der Vorfahre V, der maßgeblich für die Prototypikalität einer Eigenschaft ist. Unter der Voraussetzung, dass durch die Reproduktion Eigenschaften größtenteils weitergegeben werden und somit ein großer Teil der Nachkommenschaft von V einen großen Teil der Eigenschaften von V teilt, lässt sich für eine statistische Konsequenz argumentieren. Dies kann natürlich auch auf Artefakte und Kultur angewendet werden. Dort ist der jüngste gemeinsame Vorfahre oft der technische Prototyp. Im Gegensatz zu Schurz’ Erklärung fußt ein solcher Argumentationsansatz auf einer Definition von Prototypikalität, die tatsächlich keinerlei quasi-universellen Hintergrund benötigt und einen unabweisbaren semantischen Zusammenhang zwischen „prototypisch” und „Prototyp” herstellt. Es handelt sich um eine ontologisch qualitative Definition von Normalität. Dabei hat sie allerdings ihre Schwächen: Auf epistemischer Ebene besteht das Problem, dass wir gerade bei Lebewesen den jüngsten Vorfahren einer bestimmten Gruppe in sehr vielen Fällen nicht kennen und allenfalls aus der Beobachtung gegenwärtiger Lebewesen und ihres Genotyps folgern können, wie dieser vermutlich aussah. Dies steht aber im Widerspruch zu der Intuition, dass Aussagen über Typika212

162

Eine populärwissenschaftliche Erläuterung zum Konzept des MRCA findet sich in Dawkins (2004).

4.3 Quantität und Normalität jenseits der Logik lität von Lebewesen auch ohne Genforschung bewertbar sind. Hinzu kommt die Schwierigkeit, dass sich zum Beispiel der jüngste gemeinsame Vorfahre aller lebenden Vögel mit dem Aussterben einzelner Vogelarten ändert. Damit würden sich auch die prototypischen Eigenschaften ändern. Auch dies ist nicht plausibel. Der Prototyp hat immer auch Eigenschaften, die den Prototypen charakterisieren und nicht die Produkte, die von ihm stammen. Eine dieser Eigenschaften ist es, Prototyp zu sein und damit zu anderen Zwecken produziert worden zu sein als andere Artefakte. Insofern können auch nicht alle Eigenschaften des Prototypen als typisch gelten, sondern nur bestimmte. Aber welche sind das? Zumindest eine Einschränkung auf vererbbare Eigenschaften erscheint nötig. Doch auch dann ist durch die Tatsache, dass der most recent common ancestor ein Vorfahre aller Angehörigen von S ist, noch nicht sichergestellt, dass es eine Vererbung auch nur einer Eigenschaft zu irgendeinem aktualen Mitglied von S gibt. Dies macht das Ziehen statistischer Schlussfolgerungen schwierig. Hinzu kommt im Falle von Artefakten, dass der Begriff der Vererbung weniger klar ist. Man sollte besser sagen, dass der Prototyp eines Artefakts die typischen Eigenschaften widerspiegelt, die ein Produkt hat oder haben soll. Auch die Forschung zu den jüngsten gemeinsamen Vorfahren findet auf der genetischen Ebene statt und dabei geht es natürlich nicht darum, den einzelnen Vogel zu finden, von dem alle heute lebenden Vögel abstammen und dann alle seine, teilweise zufälligen, Eigenschaften für vogeltypisch zu erklären. Wenn wir also in der Technik einen Prototypen entwerfen oder in der Biologie den prototypischen Vogel bestimmen, wissen wir bereits, worauf es ankommt, was typisch ist und was nicht. All das macht es schwer, Typikalität auf ontologischer Ebene mit Quantität zu verbinden, ohne dass dabei Typikalität selbst auf eine quantitative Basis gestellt wird. Selbst mit evolutionstheoretischen Argumentationen können also nicht mehr statistische Konsequenzen aus Typikalitätsaussagen gezogen werden, als in der Definition von Typikalität quantitative Annahmen investiert wurden.

4.3.2 Pragmatische Verbindungen durch Konvention Einige Autoren bezweifeln, dass Normalitätsaussagen die Realität beschreiben. Sie beträfen stattdessen sprachliche und gesellschaftliche Regeln und wären in diesem Sinne normativ. Der Satz „Bären sind normalerweise scheu” sagt nach diesem Verständnis nichts über Bären, sondern etwas über jene Sprach-

163

4 Normalität zwischen Quantität und Qualität und Wissensgemeinschaften, in denen der Satz akzeptiert wird, aus. McCarthy deutet „Vögel können fliegen” zum Beispiel als Kommunikationskonvention (1) oder Datenbankenkonvention (2), die zunächst keine Verbindung zu Majorität hat: Neither (1) nor (2) requires that most birds can fly. Should it happen that most birds that are subject to the communication or about which information is requested from the database cannot fly, the convention may lead to inefficiency but not incorrectness.213

McCarthy bezieht sich dabei ebenso wenig wie Reiter explizit auf Normalitätsaussagen. Es liegt allerdings nahe, sein Verständnis des Defaults „Vögel können fliegen” auch als eine qualitative Deutung von Normalitätsaussagen zu sehen, wird doch an gleicher Stelle die Circumscription des Prädikats „abnormal” eingeführt.214 Diese ermöglicht, dass Dinge nur so weit von der Normalität abweichen, wie es explizit angegeben wird. In der Behauptung, Normalität sei normativ, darf Normativität natürlich nicht im deontischen Sinn verstanden werden. Auch wäre es irreführend zu sagen, Normalitätsurteile seien prima facie wertend. Nur wenige Normalitätsannahmen haben inhaltlich mit Moral, Vorschriften oder Wertungen zu tun. Dass zum Beispiel Bären scheu oder Vögel flugfähig sind, kann nicht in diesem Sinn interpretiert werden. Wir können die Behauptung von der Normativität der Normalität aber auch so deuten, dass die Annahme des Normalitätsurteils als eine Regel selbst eine Norm oder Konvention ist. Diese normenbezogene Sicht auf Normalität ist nicht logisch widersprüchlich und sie kommt zunächst tatsächlich ohne quantitative Elemente aus. Dabei gibt sie dem Vorhersageschluss eine Grundlage, die ihn plausibel macht. Wenn eine Abmachung besteht, dass einiges nicht extra erwähnt werden muss, sondern selbstverständlich ist, dann darf allein aus der Tatsache, dass etwas nicht gesagt wird, in diesem kommunikativen Kontext eine Folgerung gezogen werden. Diese Folgerungen sind natürlich nie endgültig, denn die fehlenden gegenteiligen Informationen könnten noch genannt werden. Dieser Vorhersageschluss ist nicht durch statistisches Schließen begründet. Die einzige Möglichkeit, durch die in dieser Sichtweise eine Normalitätsaussage abgelehnt oder revidiert werden muss, ist ein logischer Widerspruch zu 213 214

164

McCarthy (1986), S.91. Vgl. McCarthy (1986), S.92f.

4.3 Quantität und Normalität jenseits der Logik einem anderen anerkannten Normalitätsurteil. Den Fakten und insbesondere statistischen Verteilungen gegenüber ist eine solche qualiative Normalitätsannahme zunächst arbiträr. Die Nutzung und Anerkennung dieser Art von Normalität wird vom common sense bestimmt und ist wesentlich gesellschaftlich determiniert. Die Akzeptanz des Normalitätsurteils „Normalerweise A” kommt damit der Nutzung einer Kommunikationsregel oder eines Defaults gleich, der besagt, dass, soweit nichts anderes gesagt ist, davon ausgegangen werden darf, dass A der Fall ist. In diesem Zusammenhang handelt es sich bei Normalitätsannahmen eher um Normalitätsregeln als Normalitätsaussagen. Effektive Vereinbarungen Um eine bestimmte Kommunikationsregel zu akzeptieren, sollte sich daraus ein Vorteil ergeben. Nicht jede Regel ist so gut wie ihre Alternative. Auf die Frage der Effektivität von Defaults geht besonders Judea Pearl ein. Dabei kommt er auch auf Reiter, McCarthy und ihre Auffassung, dass Majorität unwichtig sei, zu sprechen: McCarthy and Reiter seem to be emphasizing that default sentences such as „Typically, birds fly” are used for many different purposes, the least significant of which is to report what proportion of birds fly.215

Pearl hält dagegen, dass keine Defaultregel vollkommen willkürlich sein könne, sondern dass es Gründe geben müsse, sie zu akzeptieren. Zur Verdeutlichung benutzt er ein Beispiel. Man stelle sich vor, folgende drei Regeln sollen in einer Gemeinschaft gelten: 1. Each time I mention a raven, you can presume it is black; if it is not black, I will say so explicitly. 2. Each time I mention a black raven, you can presume it can fly; if it cannot fly, I will say so explicitly. 3. Each time I mention a raven, you can presume it does not fly; if it does fly, I will say so explicitly.216

Diese drei Regeln sind äußerst seltsam, obwohl sie in keinem offensichtlichen Widerspruch stehen. Dennoch scheint etwas mit ihnen nicht zu stimmen. Pearl erklärt das folgendermaßen: 215 216

Pearl (1988), S.477. Pearl (1988), S.478.

165

4 Normalität zwischen Quantität und Qualität What makes our original agreement appear so irrational is exactly the presumption that our communication conventions are designed for economy and efficiency. It so happens that there is no conceivable environment in which it would make economical sense to agree on all three items together.217

Allerdings sind die zu diesen Regeln korrespondierenden Normalitätsaussagen auch in einer quantitativen Deutung nicht unbedingt widersprüchlich, solange die Mindestanforderung für die quantitative Rechtfertigung nicht höher liegt als über der Hälfte. Die Diskussion der entsprechenden Gesetzmäßigkeiten findet sich in Kapitel 2.1.8. Dementsprechend erfüllt nur die Normalitätslogik N0,95 Pearls Forderung, während N sie nicht erfüllen kann. Auch in einigen Logiken der qualitativen Normalität sind die oben genannten Regeln nicht miteinander kompatibel. Die Akzeptanz dieser drei Regeln würde zum Beispiel bei Veltman in einen absurden Informationszustand führen, weil dann kein maximal normaler Rabe denkbar wäre.218 Insofern ist die Kritik, die Pearl mit diesem Beispiel an der Beliebigkeit von Defaults übt, nicht zwangsläufig auf ein qualitatives oder quantitatives Normalitätsverständnis zu beziehen. Doch er gibt einen wichtigen Hinweis: Wenn Defaults lediglich Diskursregeln sind und nicht die Welt beschreiben sollen, so müssen sie doch immerhin effizient sein. Die Frage, ob sich eine Handlungsweise lohnt oder nicht, kann durch Entscheidungs- und Spieltheorie beantwortet werden. Interessant ist dabei die Verbindung zu der These, dass Normalitätsregeln Konventionen sind, denn der Begriff der Konventionen, wie er von David Lewis in „Convention” entwickelt und vertreten wird, steht in engem Zusammenhang zur Spieltheorie.219 Im Folgenden betrachten wir zuerst die Frage der Nützlichkeit von Defaults beziehungsweise Normalitätsannahmen und werden uns später der Frage der Konventionalität widmen. Als Beispiel denken wir uns eine Situation, in der Personen entscheiden, ob sie einen Default miteinander verabreden oder nicht. Person A und Person B 217 218

219

166

Pearl (1988), S.479. Veltman stellt zum Beispiel fest: „0[normally p][q ¬p][normally q] = 1” (Veltman (1996), S.242). Dieses Beispiel unterscheidet sich nur darin, dass statt der auf Raben bezogenen Defaults, allgemeine Regeln vorliegen. An anderer Stelle findet sich „σ [φ ψ][φ ξ ][(φ ∧ ψ) ¬ξ ] = 0”(Veltman (1996), S.256). Es handelt sich hier um einen Fehler und müsste statt „0” eigentlich „1” heißen. Vgl. Lewis (1969).

4.3 Quantität und Normalität jenseits der Logik nehmen gemeinsam an einem Spiel teil, in der eine Person der anderen in einer begrenzten Zeit einen zufällig gewählten Gegenstand aus einem Raum so genau wie möglich beschreiben soll. Der zuhörende Spieler sieht den Gegenstand nicht und ist nur auf die Informationen des Spielpartners angewiesen. Später muss er soviel wie möglich über den beschriebenen Gegenstand wissen. Vor Spielbeginn können die beiden Spieler Defaults verabreden, wie „Wenn ich sage, etwas ist ein Rabe, dann kannst du davon ausgehen, dass es schwarz ist.” Nach der Beschreibungszeit, soll der zweite Spieler so viele Fragen wie möglich über den beschriebenen Gegenstand richtig beantworten. Für falsche Antworten gibt es Punktabzug. Richtige Antworten bringen Punkte. Nicht beantworte Fragen wirken sich nicht auf den Punktestand aus. Beide Spieler haben dieselben Gewinne und Verluste. Unter welchen Umständen lohnt es sich für die Spieler, Defaults zu vereinbaren?

Da durch Absprache von Defaults Informationen ohne explizite Aussage vermittelt werden können, wird Zeit gespart. Wenn die gefolgerten Sätze tatsächlich zutreffen, haben sich die Spieler erfolgreich einen Vorteil verschafft. Kommt die gefolgerte Eigenschaft dem Gegenstand nicht zu, muss der zweite Spieler explizit darauf hinweisen. Es gibt also keinerlei zeitlichen Gewinn und es besteht das Risiko, dass Fehler unterlaufen, wenn die Defaultfolgerung nicht rechtzeitig korrigiert wird. Wenn gar kein Default vereinbart wird, gibt es weder eine Chance auf höhere Effizienz noch das Risiko einer falschen Vorhersage. Inwiefern lohnt es sich, einen Default abzusprechen? Dies hängt davon ab, wie wahrscheinlich es ist, dass die Vorhersage noch korrigiert werden muss. Der Nutzen der richtigen und schnellen Informationsvermittlung durch den Default sei S und der Schaden des Fehlerrisikos oder einer zeitaufwendigen Korrektur sei −R, wobei sowohl S und R natürliche Zahlen sein sollen. Wir gehen davon aus, dass das Annehmen des Defaults keinen Einfluss darauf hat, welcher Gegenstand den Spielern zur Beschreibung vorgelegt wird und welche Eigenschaften er hat. P(E) sei die Wahrscheinlichkeit, dass der Default angewendet werden kann. Dann errechnet sich der erwartete Nutzen des Absprechens eines relevanten Defaults als Summe von S · P(E) und −R · (1 − P(E)), wobei P(E) die Wahrscheinlichkeit ist, dass die als Default verabredete Eigenschaft tatsächlich zutrifft. Der erwartete Nutzen dafür, keine Regeln zu vereinbaren, ist 0. Damit sich die Absprache lohnt, muss der erwartete Nutzen dafür also mindestens größer als 0 sein. Bei S = R muss dementsprechend P(E) > 0, 5 sein.

167

4 Normalität zwischen Quantität und Qualität P(E), die Wahrscheinlichkeit, dass der Default zutrifft, ist nun aber plausiblerweise abhängig von quantitativen Verhältnissen. Hat das Team vor Spielbeginn Zutritt zu dem Raum, in dem sich alle Gegenstände, die eventuell zur Beschreibung ausgewählt werden können, befinden, wird es sich bei der Absprache von Defaults rationalerweise auch nach den Häufigkeiten richten, die es dort vorfindet. Zwar kann sich das Absprechen von Defaults auch dann lohnen, wenn P(E) 6> 0, 5, nämlich dann, wenn das Spielszenario falsche Antworten nicht sehr hart bestraft oder die Korrektur verhältnismäßig einfach ist, aber auch dann gibt es eine Grenze, die P(E) nicht unterschreiten darf, damit sich die Absprache lohnt. Bei dieser Betrachtung ist ein Default zunächst insofern nützlich, als er Vorhersagen ermöglicht und eine Vorhersage ist natürlich umso effektiver, je wahrscheinlicher es ist, dass sie zutrifft. Spätestens, wenn bloßes Raten eine ebenso hohe Erfolgswahrscheinlichkeit hat wie die Folgerung aus einem Default, ist die Akzeptanz dieses Defaults nicht mehr nützlich. Eine entscheidungstheoretische Analyse führt immer dazu, dass der per Default gezogene Schluss auch eine gewisse Erfolgswahrscheinlichkeit haben muss, damit die Annahme des Defaults lohnend ist. Gleiches gilt natürlich auch für Normalitätsannahmen: Wenn ein Normalitätsurteil als Regel oder Default genutzt wird, sollte es eine bestimmte Mindestwahrscheinlichkeit dafür geben, dass der Vorhersageschluss auch wahr ist. Damit besteht wiederum eine Verbindung zur Quantität. Man könnte nun einwenden, dass die hier vorgenommene Einschätzung von Defaults und Normalitätsregeln sich einseitig am Erfolg eventueller Vorhersagen orientiert. In der Tat spielt bei der Akzeptanz solcher Annahmen der kulturelle Hintergrund eine unbestreitbare Rolle. Einem Sprecher der deutschen Sprache fällt es leichter, „Vogel” und „Spatz” miteinander zu assoziieren als „Vogel” und „Pinguin”. Der kognitive Aufwand für einige Absprachen ist äußerst gering, zum Beispiel für „Gehe davon aus, dass Raben schwarz sind!”, während der für andere eher hoch ist, zum Beispiel für „Gehe davon aus, dass Katzen weiß sind!”. Dies hat in der Tat nichts mit der quantitativen Verteilung zu tun und kann die Entscheidung für oder gegen eine bestimmte Absprache beeinflussen. Solange aber der Vorhersageschluss vordergründiges Ziel ist, wird die kognitive Einfachheit allein nie die Absprache eines Defaults lohnenswert machen. Wenn die Spieler sehen, dass in dem Raum, aus dem der zu beschreibende Gegenstand kommt, drei von vier Raben weiß sind, wird es sich trotz der kognitiven Einfachheit nicht lohnen, den Default „Raben sind schwarz” abzusprechen. So

168

4.3 Quantität und Normalität jenseits der Logik werden wir im Alltag, obwohl wir uns ein typisches Kleeblatt oft vierblättrig vorstellen, noch lange nicht annehmen, ein einzelnes Kleeblatt sei vierblättrig, bis gegenteilige Informationen verfügbar sind. Konventionalität Laut einigen Autoren, wie McCarthy, lassen sich Defaults und damit auch die Akzeptanz von Normalitätsregeln als Konventionen verstehen. Selten wird hinterfragt, in welchem Sinn Normalitätsannahmen oder Defaults überhaupt Konventionen sind. Im Folgenden werden wir dies in Bezug auf Lewis’ Begriff der Konvention tun. Lewis legt in seiner Analyse des Konventionalitätsbegriffes Koordinationsprobleme zugrunde. Bei einem Koordinationsproblem wird ein gutes Ergebnis erzielt, wenn alle Beteiligten das Verhalten der anderen Beteiligten richtig einschätzen und dementsprechend handeln. Wenn sich zum Beispiel zwei Personen treffen wollen, ist es für sie nicht so wichtig, wann sie zu welchem Ort gehen, sondern vor allem, dass sie zur selben Zeit am selben Ort sind. Eine Konvention ist bei Lewis wie folgt definiert: A regularity R in the behavior of members of a population P when they are agents in a recurrent situation S is a convention if and only if it is true that, and it is common knowledge in P that, in almost any instance of S among members of P, (1) almost everyone conforms to R; (2) almost everyone expects almost everyone else to conform to R; (3) almost everyone has approximately the same preferences regarding all possible combinations of actions; (4) almost everyone prefers that any one more conform to R, on condition that almost everyone conform to R; (5) almost everyone would prefer that any one more conform to R’, on condition that almost everyone conform to R’, where R’ is some possible regularity in the behavior of members of P in S, such that almost no one in any instance of S among members of P could conform both to R’ and to R.220

Das heißt, dass eine Konvention eine Verhaltensweise ist, die innerhalb der Gemeinschaft weit verbreitet ist. Es ist für fast alle außerdem wünschenswert, 220

Lewis (1969), S.79.

169

4 Normalität zwischen Quantität und Qualität dass möglichst viele sich nach dieser Konvention richten, aber sie ist nicht alternativlos. Es gibt eine andere Verhaltensweise, die ebenso von den Mitgliedern der Gruppe präferiert werden würde, sobald sie entsprechend verbreitet wäre. All das ist in der Gruppe gemeinschaftliches Wissen.221 Beispiele für Konventionen sind: • Das Fahren auf der linken Straßenseite in England. • Das Akzeptieren von Euro-Münzen als Geld in der Eurozone. • Das Benutzen sorbischer Sprachen in Bevölkerungsteilen der Lausitz. • Das Tragen von dunkler Kleidung zu Trauerfeiern im europäischen Kulturkreis. Jede Lewis’sche Konvention kann in einem Normalitätsurteil ausgedrückt werden. Ein solches Normalitätsurteil „In Gruppe S wird normalerweise R getan” ist quantitativ gerechtfertigt, denn Konventionen werden innerhalb der Gruppe ja mehrheitlich befolgt. Lewis’ Konventionen haben die interessante Eigenart, gleichzeitig eine statistische Komponente zu enthalten und normativ zu sein. Da ein ideales Ergebnis für alle Beteiligten in diesen Fällen davon abhängt, dass sich so viele Personen wie möglich konform verhalten, ist ein Verstoß gegen eine Konvention prima facie normativ falsch. David Lewis zufolge sind Konventionen eine Art schwache Norm: „Any convention is, by definition, a norm which there is some presumption that one ought to conform to”.222 Soweit der Andere tatsächlich ein berechtigtes Interesse an meiner Konformität hat, zum Beispiel im Straßenverkehr, ist dies unmittelbar überzeugend. Für andere Fälle, zum Beispiel Kleiderordnungen, lässt sich diskutieren, wie berechtigt das Interesse an Konformität tatsächlich ist, oder ob die Konformität lediglich ihrer selbst wegen gewünscht wird. 221

222

170

Für Lewis heißt das, dass jeder Grund hat, etwas zu glauben, dass ihm und jedem anderen zeigt, dass jeder in der Gruppe Grund hat, dies zu glauben und ihn gleichzeitig glauben lässt, dass das gemeinsam Gewusste gilt: „Let us say that it is common knowlegde in a population P that ____ if and only if some state of affairs A holds such that: (1) Everyone in P has reason to believe that A holds. (2) A indicates to everyone in P that everyone in P has reason to believe that A holds. (3) A indicates to everyone in P that ____” (Lewis (1969), S.56). Lewis (1969), S.99.

4.3 Quantität und Normalität jenseits der Logik Nun ist es offensichtlich, dass bei weitem nicht alle Normalitätsurteile eine Konvention ausdrücken. Die Frage ist, ob es die Eigenschaft von Normalitätsannahmen beziehungsweise ihnen entsprechenden Defaults ist, innerhalb einer Gemeinschaft eine Konvention zu sein. Defaults können in einer Gemeinschaft weithin genutzt werden. Außerdem dient es der kommunikativen Effizienz, wenn so viele Mitglieder wie möglich einen bereits weithin anerkannten Default auch akzeptieren und nutzen. Problematisch bei dieser Betrachtung sind vor allem zwei Punkte, nämlich zum einen, dass es gleiche Präferenzen in Bezug auf Defaults gibt, und zum zweiten, dass es für Defaults ähnlich gute Alternativen gibt. Es ist zweifelhaft, dass fast jeder in Bezug auf Defaults ungefähr dieselben Interessen hat, wenn der Default mit Personen dieser Gruppe selbst in Zusammenhang steht. Hier können die Präferenzen weit auseinander gehen. Wir dürfen nicht erwarten, dass die allgemeine Akzeptanz eines Defaults „Linke sind humorlos” für Hans-Christian Ströbele und Jan Fleischhauer auch nur annähernd für ähnlich wünschenswert gehalten wird, unabhängig davon, ob andere dies tun. Noch auffälliger ist das Problem, wenn Defaults einige Mitglieder der Gruppe ernsthaft diskriminieren. Bei solchen Defaults gibt es für einige Mitglieder gute Gründe, die Kommunikationsregel umso weniger zu mögen, je verbreiteter sie ist. Selbst wenn dabei klar wäre, dass es sich nur um eine Regel ohne deskriptiven Anspruch handelt, werden Mitglieder der Gemeinschaft kein Interesse daran haben, dass ihnen per Default gewisse Schwächen und Unzulänglichkeiten zugesprochen werden. Dies lässt sich mit Lewis’ Begriff der Konvention schwer vereinbaren. Ebenso bleiben damit auch schmeichelhafte Defaults, die für eine Seite der Gemeinschaft viel wünschenswerter als für die andere sind, außen vor. Es ist allerdings zu bemerken, dass dies nicht gegen die Konventionalität von Defaults spricht, die Personen außerhalb der eigenen Kommunikationsgemeinschaft betreffen. Defaults über andere Personen der Gemeinschaft müssen ausgeschlossen werden, so dass unterschiedliche Interessen keine Rolle spielen. Wenn dies gewährleistet ist, können wir nun davon ausgehen, dass die Interessen aller Beteiligten annähernd ähnlich sind. Nun bleibt für die verbleibenden Defaults zu fragen, ob sie eine Alternative haben. Der Default „Wenn nichts anderes gesagt ist, kannst du davon ausgehen, dass ein Rabe schwarz ist. Wenn ein Rabe nicht schwarz ist, wird darauf extra hingewiesen” ist in einer Umgebung, in der es fast nur schwarze Raben gibt,

171

4 Normalität zwischen Quantität und Qualität

A1 Hirsch A2 Hase

B1 Hirsch 3 3 0 1

B2 Hase 1 0 1 1

Tabelle 4.1: Hirschjagd

besser als alle denkbaren Alternativen. Das Verzichten auf einen Default würde ebenso wenig die kommunikative Effektivität verbessern wie die Annahme, dass Raben weiß sind. Hat der Default, dass Raben schwarz sind, dann wirklich eine Alternative, die sich ebenso als Konvention hätte durchsetzen können? Zunächst erscheint ein Default, der auch durch hohe Wahrscheinlichkeit gestützt ist, alternativlos. Damit kann er nicht als Konvention im Sinne von David Lewis betrachtet werden. Andererseits diskutiert Lewis auch das bekannte Problem der Hirschjagd als Koordinationsproblem, aus dem sich Konventionen ergeben können. Bei der Hirschjagd können die Jäger nur durch gemeinsame Jagd einen Hirsch erlegen, der sie alle lange ernähren kann. Wenn allerdings einer der Jäger stattdessen einen Hasen erlegt, kann die Hirschjagd nicht erfolgreich sein. Das beste Ergebnis wird erzielt, wenn alle gemeinsam bei der Hirschjagd bleiben. Wer sich aber zur Hirschjagd entschließt, geht das Risiko ein, gar kein Essen zu bekommen. Wer einen Hasen erlegt, wird zumindest selbst für kurze Zeit satt. Die Auszahlungsmatrix ist in Tabelle 4.1 zu sehen. Jäger A entscheidet sich für A1 oder A2, also seine Hirsch- oder Hasenjagd und wählt damit die Zeile der Matrix. Gleichzeitig wählt Jäger B durch seine Entscheidung die Spalte des Endergebnisses. In jeder Zelle gibt der obere Wert den Nutzen dieses Ergebnisses für Jäger B an und der linke den für Jäger A. Gemeinsame Hirschjagd und Hasenjagd sind beide Nashgleichgewichte, da keiner der Jäger in diesen Szenarien sein eigenes Ergebnis durch eine andere Handlung verbessern könnte, solange auch andere Personen nicht anders handeln. Lewis äußert sich explizit, dass nicht nur eine gemeinsame Hirschjagd, sondern auch allgemeine Hasenjagd potentiell eine Konvention sein kann: „For each to catch his rabbit is not a good coordination equilibrium. But it is a coordination equilibrium nonetheless, so long as catching a rabbit is better than going

172

4.3 Quantität und Normalität jenseits der Logik off on a one-man stag hunt that is bound to fail”.223 Auf den Fall der Defaults angewandt, bedeutet das, dass allein das Argument, ein konkurrierender Default zu „Raben sind schwarz” sei eine denkbar schlechte Alternative, nicht ausreicht, ihn nicht als mögliche Konvention zu betrachten. Zur Klärung der Frage, ob auch eine schlechte Regel eine Konvention sein kann, betrachten wir wieder ein Beschreibungsspiel. Es soll ein schwarzer Rabe so genau wie möglich beschrieben werden. Anders als beim vorher betrachteten Fall gibt es nun keine Möglichkeit, Defaults zu verabreden. Die Beteiligten bringen ihre Defaults mit in die Situation ein. Außerdem gibt es keine Möglichkeit nachzufragen oder zu korrigieren. Sollte der Sprecher davon ausgehen, dass Raben per Default schwarz sind, und der gesuchte Rabe ist schwarz, wird er dies als Selbstverständlichkeit betrachten und nicht mitteilen. Wenn er einen anderen Default oder keinen Default annimmt, teil er mit, dass der Rabe schwarz ist. Wenn der Rezipient per Default davon ausgeht, dass Raben schwarz sind, wird er nach einem schwarzen Raben suchen, solange nichts anderes mitgeteilt wird. Wenn er per Default davon ausgeht, dass Raben weiß sind, sucht er nach einem weißen Raben, wenn er keine anderen Informationen erhält. Wenn er gar keinen Default annimmt, wird er sich diesbezüglich nicht festlegen. In jedem Fall überwiegen explizite Informationen den Default. Wir gehen davon aus, dass es vollkommen übereinstimmende Interessen aller Beteiligten gibt und es sich somit um ein Spiel reiner Koordination handelt. Beide haben ein Interesse, möglichst ökonomische Informationsvermittlung zu betreiben, alle notwendigen Informationen mitzuteilen und Missverständnisse zu vermeiden. Wenn es gelingt mitzuteilen, dass der Rabe schwarz ist, ohne überhaupt etwas sagen zu müssen, ist dies ideal. Dies wird dann geschehen, wenn beide per Default annehmen, dass der Rabe schwarz ist. Eine explizite Weitergabe ist zwar auch gut, bedarf aber mehr Aufwand. Zu einem solchen Ergebnis kommt es, wenn der Beschreiber des Raben keinen Default annimmt oder per Default davon ausgeht, dass Raben weiß sind. Auf der anderen Seite kann die Sprecherannahme des Defaults, dass Raben schwarz sind, zu fehlenden oder falschen Informationen auf der Seite des Rezipienten führen. Wenn nämlich nichts über die Farbe des Raben gesagt ist, aber der Rezipierende davon ausgeht, dass Raben per Default weiß sind, wird er ein falsches Bild von diesem Tier gewinnen oder eine Information nicht bekommen, wenn er selbst keinen Default annimmt. Daraus ergibt sich die Auszahlungsmatrix in Tabelle 4.2. 223

Lewis (1969), S.47.

173

4 Normalität zwischen Quantität und Qualität

A1 Schwarz A2 Weiß A3 Kein D.

B1 Schwarz 3 3 -5 -5 -2 -2

B2 Weiß 1 1 1 1 1 1

B3 Kein D. 1 1 1 1 1 1

Tabelle 4.2: Auszahlungsmatrix im einfachen Beschreibungsspiel In dieser Auszahlungsmatrix fällt auf, dass es keinen Unterschied macht, ob derjenige, der den Vogel beschreibt, keinen Default annimmt oder per Default annimmt, dass Raben weiß sind, weil der spezielle Vogel, der beschrieben wird, schwarz ist. Es gibt fünf Gleichgewichte, nämlich hA1, B1i, hA2, B2i, hA2, B3i, hA3, B2i und hA3, B3i. Hingegen sind hA1, B2i und hA1, B3i keine Gleichgewichte, da für den Beschreibenden in dieser Zeile B1 die bessere Alternative wäre. Ähnlich wie bei der Hirschjagd ragt ein Gleichgewicht als deutlich besser für alle Beteiligten heraus. Hinzu kommt, dass die anderen Gleichgewichte nicht besser sind als andere Ausgänge, die keine Gleichgewichte sind. David Lewis nennt solche Gleichgewichte „improper” und definiert dem gegenüber echte Gleichgewichte: „Let us call it a proper equilibrium if each agent likes it better than any other combination he could have reached, given the others’ choices”.224 Zusätzlich fordert Lewis nun, „that a coordination problem must contain at least two proper coordination equilibria”.225 Mit dieser Forderung widerspricht sich Lewis insofern, als er auch die Stag Hunt nicht mehr als Koordinationsproblem betrachten dürfte. Derjenige, der einen Hasen erlegt, profitiert nämlich überhaupt nicht davon, wenn der andere auch Hasen jagt. Es kann ihm egal sein. Somit ist das Gleichgewicht, dass sich bei allgemeiner Hasenjagd einstellt, auch kein echtes Koordinationsgleichgewicht und das ganze Szenario sollte für Lewis eigentlich kein Koordinationsproblem sein. Das hier diskutierte Szenario der Beschreibung eines Rabens dürfte der Lewis’schen Auffassung nach kein Koordinationsproblem sein, da es nur eine Lösung gibt, die ein echtes Gleichgewicht darstellt. Damit scheitert die These, dass die Annahme eines Defaults eine Konvention ist, tatsächlich daran, dass es 224 225

174

Lewis (1969), S.22. Lewis (1969), S.22.

4.3 Quantität und Normalität jenseits der Logik

A1 Grau A2 Weiß A3 Kein D.

B1 Grau 28 28 -44 -44 -17 -17

B2 Weiß 4 4 12 12 7 7

B3 Kein D. 10 10 10 10 10 10

Tabelle 4.3: Auszahlungsmatrix in einem wiederholten Beschreibungsspiel

keine echte Alternative gibt. Das liegt daran, dass wir einen Fall gewählt haben, in dem der eine Default auf jeden Fall zu einer richtigen Annahme führt und der andere auf jeden Fall zu einer falschen. Realistischer und interessanter sind aber Fälle, in denen beide Defaults zumindest potentiell zu richtigen Vorhersagen führen können, wenn auch mit ganz unterschiedlichen Wahrscheinlichkeiten. Um zu klären, ob Defaults Konventionen sind, brauchen wir ein etwas komplexeres Beispiel. Wieder haben beide Beteiligten gleichermaßen ein Interesse an möglichst effektiver Kommunikation. Im folgenden Beispiel geht es um zehn Tauben, von denen eine weiß ist und die anderen grau. Jede wird in je einer Runde beschrieben. Beide Beteiligten können wieder gar keinen Default annehmen, per Default davon ausgehen, dass Tauben weiß sind, oder davon ausgehen, dass sie grau sind. Damit modellieren wir eine Situation, in der ein Default mit deutlich höherer Wahrscheinlichkeit bestätigt wird als der andere, weil er durch Majorität gut gestützt ist. Bei diesem Spiel übernehmen wir die Nutzwerte aus dem obigen Fall und berücksichtigen, wie häufig ein solches Ergebnis in dem Spiel, das zehn Runden umfasst, vorkommt. In hA1, B1i erzielen zum Beispiel beide Spieler neun mal, nämlich bei den grauen Tauben, drei Punkte und einmal, nämlich bei der weißen Taube, einen Punkt, da hier der Beschreibende darauf hinweisen muss, dass er eine weiße Taube sucht. Entsprechend wird allen Kombinationen der Nutzen zugeordnet, so dass sich die Auszahlungsmatrix der Tabelle 4.3 ergibt. In dieser Tabelle gibt es zwei echte Koordinationsgleichgewichte, nämlich hA1, B1i und hA2, B2i. Dies reicht aus, damit es sich hier nun in der Tat um ein Koordinationsproblem nach Lewis handelt. Daher können auch der Default, dass Tauben grau sind, und der Default, dass Tauben weiß sind, prinzipiell in einer Gemeinschaft Konventionen sein. Dass der Default für weiße Tauben im

175

4 Normalität zwischen Quantität und Qualität Vergleich zu dem Default, der durch hohe Mehrheiten gestützt wird, denkbar schlecht abschneidet, spielt bei der Beantwortung der Frage, ob es sich bei Defaults um Konventionen handeln kann, keine Rolle. Mit gewissen Einschränkungen können Normalitätsregeln tatsächlich Konventionen im Sinne von Lewis sein. Die erste Einschränkung schließt dabei Defaults aus, bei denen Interessen eine wesentliche Rolle spielen, die nicht gleichermaßen von allen in der Gemeinschaft geteilt werden. Das betrifft viele Defaults, bei denen es um Personen geht, die selbst Mitglieder der Gemeinschaft sind. Außerdem muss ein konventioneller Default in seiner Zuschreibung mindestens möglicherweise wahr sein. Einen Default, der im Einzelfall nie wahr ist, können wir nicht als Konvention verstehen, da sich kein echtes Koordinationsgleichgewicht ergibt. Direkt damit verbunden ist die weniger offensichtliche Erkenntnis, dass auch Defaults, die im Einzelfall immer zutreffen, keine Konventionen sind, da es keine Alternative gäbe, die auch eine Konvention sein könnte. Es kann zum Beispiel keine Konvention sein, Menschen per Default für sterblich zu halten. Selbst wenn Defaults und mit ihnen Normalitätsregeln konventionell sein können, ist es doch bei bekannten Mehrheitsverhältnissen nicht vollkommen offen, welches Gleichgewicht sich durchsetzen wird. Betrachten wir dazu noch einmal die Beschreibung der Tauben als Koordinationsproblem. Wie bei einem Koordinationsproblem üblich, gehen wir davon aus, dass wir es mit rationalen Akteuren zu tun haben, denen die Auszahlungsmatrix bekannt ist. Es ist also beiden klar, dass für den rezipierenden Mitspieler die Wahl des durch hohe Wahrscheinlichkeit gestützen Defaults geboten ist, wenn er das bestmögliche Resultat anstrebt. Auch wenn er höhere Verluste vermeiden will, sollte er diese Option wählen. Nur wenn er guten Grund hat, zu glauben, dass der andere Spieler den Default, dass Tauben weiß sind, nutzt, sollte er sich gegen den Default entscheiden, der auch mit Mehrheitsverhältnissen zusammenfällt. Der Sprecher sollte sich ebenfalls für den Default, dass Tauben grau sind, entscheiden, wenn er das bestmögliche Resultat anstrebt. Auf der anderen Seite geht er mit dieser Wahl auch das Risiko auf das schlechteste Ergebnis ein, wenn der Zuhörer Tauben per Default für weiß hält. Um ein besonders schlechtes Ergebnis zu vermeiden, ist es für ihn am besten, ganz auf Defaults zu verzichten. In keinem Fall ist es vorteilhaft, den Default zu wählen, der nur bei einer Minderheit zu richtigen Vorhersagen führt, es sei denn, der Sprecher hat einen guten Grund, davon auszugehen, dass der andere Spieler, diesen Default wählt.

176

4.4 Das richtige Normalitätsverständnis Beide Mitspieler in diesem Koordinationsproblem wissen also, dass der andere keinen guten Grund hat, sich in Bezug auf Tauben für den Default „weiß” zu entscheiden, es sei denn, er glaubt, dass der andere dies auch tut. Gerade weil sie das wissen, haben sie kaum Grund zu der Annahme, der andere würde dies tun. Wenn nun aber diese Möglichkeit wegfällt, ist der quantitativ gerechtfertigte Default für den Rezipienten in jedem Fall mindestens so gut wie gar kein Default. Auch das können beide Spieler wissen. Wenn also diese Auszahlungsmatrix für die Spieler gemeinsames Wissen ist und es kein anderes gemeinsames Wissen gibt, das dafür spricht, dass Tauben per Default als weiß gelten, ist es prima facie der quantitativ gerechtfertigte Default, der zu bevorzugen ist und somit auch eher eine Konvention wird. Wissen um die Quantität fließt so in die Etablierung eines Defaults als Konvention ein. Das heißt, Defaults haben selbst einen Bezug zu Quantitäten, auch wenn dieser nicht logisch zwingend im klassischen Sinne ist.

4.4 Das richtige Normalitätsverständnis Wir haben im Laufe des letzten Abschnitts gesehen, dass als Grundlage für widerlegbare Vorhersagen neben quantitativ gerechtfertigten Normalitätsaussagen auch Normalitätsannahmen im Sinne konventioneller Kommunikationsregeln in Frage kommen. Als nicht primär quantitative Normalitätsauffassung garantiert die Annahme einer Vereinbarung oder Konvention, etwas prima facie als vorausgesetzt zu betrachten, einen widerlegbaren Vorhersageschluss. Dieser ist aber ausschließlich da relevant, wo Informationen durch Kommunikationspartner derselben Sprachgemeinschaft mit denselben Vorstellungen über Normalität erlangt werden. Auf welche Art und Weise lässt sich dies auf Typikalität und ceteris paribus Annahmen anwenden? Putnams Stereotype und Roschs Prototypikalität haben vor allem mit Kategorisierung und Zuordnung von Individuen zu Kategorien zu tun. Dabei geht es um Identifizierung eines gegebenen Objekts als zugehörig zu einer bestimmten Kategorie. Der Default hingegen hilft, Annahmen über ein Objekt zu machen, dessen Kategorienzugehörigkeit in Teilen bekannt ist. Weder Stereotype noch Prototypen können für sich einen Vorhersageschluss rechtfertigen. Ebenso wie Typikalitätsurteile dienen auch ceteris paribus Annahmen nicht primär dazu, Vorhersagen zu machen. Sie nützen dazu, über bekannte Phänomene auf einer abstrakten Ebene nachzudenken und diese durch Vereinfachungen überhaupt

177

4 Normalität zwischen Quantität und Qualität erst darstellen oder erklären zu können. Bei Kommunikationskonventionen, wie McCarthy sie einführt, sieht es anders aus. Der Satz „Wenn ich von einem Vogel rede, kannst du, solange nichts anderes gesagt wird, davon ausgehen, dass ich ein flugfähiges Tier meine” ist keineswegs dabei hilfreich, ein unbekanntes Objekt als Vogel zu erkennen, aber er rechtfertigt die vorläufige Folgerung, dass eine uns nicht näher bekannte Entität, die in einem Gespräch als Vogel kategorisiert wird, fliegen kann. Dennoch schien es zu kurz gegriffen, Typikalität und Vereinfachung komplett aus dem semantischen Bereich der Normalität auszuschließen. Wenn wir innerhalb unserer sprachlichen Gemeinschaft über Dinge berichten oder uns berichten lassen, gehen Vorstellungen über Typikalität selbstverständlich ein. Ebenso haben wir einen Sinn dafür, was nebensächlich ist, und welche Möglichkeiten und Einflüsse wir nicht erwähnen müssen, wenn wir über etwas berichten. Stereotype, Prototypen und ceteris paribus Annahmen können über die Kommunikationsnorm, von maximaler Typikalität oder Einfachheit auszugehen, wirksam werden. Solange wir es als vereinbart betrachten, dass wir uns Dinge so typisch und so vereinfacht wie möglich vorstellen, haben Typikalität und ceteris paribus Klauseln einen Bezug zu Defaults.226 Der Zusammenhang zwischen Typikalität, Vereinfachung, Quantität und Normalität ist in Abbildung 4.1 dargestellt. Dabei fließt auch ein, dass, wie im vorherigen Abschnitt diskutiert wurde, statistische Informationen Einfluss auf Defaults haben. Bei diesen quantitativen Aussagen ist die Rechtfertigung der Vorhersage allerdings auch ohne den Zwischenschritt über Konventionalität gegeben. Für Normalität, die logisch darüber bestimmt ist, dass sie widerlegbare Folgerungen ermöglicht, gibt es prinzipiell zwei Deutungen: zum einen als quantitativ gerechtfertigte Aussagen und zum anderen als Kommunikationsregeln. Nun besteht in der zweiten Deutung von Normalität ein praktischer Zusammenhang zu Quantität und auch quantitativ verstandenen Normalitätsaussagen muss eine qualitative Komponente zugesprochen werden. Die entscheidende Frage ist aber, was als die logisch-semantische Grundbedeutung von Normalität anzusehen ist. 226

178

Bemerkenswerterweise weisen Typikalität und Vereinfachung hinsichtlich ihres Einflusses auf kommunikative Konventionen unterschiedliche Tendenzen auf. Während Typikalitätsannahmen dazu führen, dass wir gewisse Informationen als implizit mitgegeben betrachten, führen Vereinfachungen als Defaults eher dazu, dass davon ausgegangen wird, dass das, was nicht genannt wird, auch nicht da oder zumindest nicht zu berücksichtigen ist.

4.4 Das richtige Normalitätsverständnis

Vorhersagen

6 Normalität

6 Rechtfertigung Konvention

 Einfluss

6 Einfluss Typikalität

? Kategorisierung

Vereinfachung

Quantität

? Idealisierung

Abbildung 4.2: Normalität und ihre konzeptuellen Nachbarn

Die quantitative Deutung ist klar deskriptiv und setzt Normalitätsaussagen in einen engen Zusammenhang zu anderen deskriptiven Aussagen, insbesondere zu Quantifizierungen. Dabei implizieren universelle Aussagen Normalitätsaussagen oder zumindest deren quantitative Rechtfertigung. Wer die Akzeptanz von Normalitätsurteilen als konventionell oder normativ betrachtet, kann der Folgerung von universellen Aussagen zu Normalitätsurteilen nicht ohne weiteres zustimmen. Sie ist auch in keiner qualitativen Normalitätslogik angelegt. Vielmehr scheint die Anerkennung eines universellen Satzes eher ein Grund zu sein, ein entsprechendes Normalitätsurteil abzulehnen oder wenigstens für sinnlos zu erachten. Bei einer konventionellen Deutung von Normalität ist der kommunikative und gesellschaftliche Hintergrund von entscheidender Bedeutung. Nur innerhalb einer Sprachgemeinschaft können solche Normalitätsannahmen überhaupt bestehen. Auch die Akzeptanz oder Ablehnung eines Normalitätssatzes kann immer nur eine Aufgabe der Gemeinschaft und niemals die einer einzelnen Person sein. Im quantitativen Verständnis sind hingegen Normalitätsurteile nicht mehr oder weniger sozial determiniert als andere Ausdrücke auch.

179

4 Normalität zwischen Quantität und Qualität Letztlich kann nur unsere sprachliche Intuition den entscheidenden Ausschlag für ein konventionell-qualitatives oder ein deskriptiv-quantitatives Normalitätsverständnis geben: Verbinden wir mit Sätzen wie „Vögel können normalerweise fliegen” und „Bären sind normalerweise scheu” Informationen über Vögel und Bären oder vielmehr Kommunikationsregeln? Innerhalb dieser Arbeit wurde für eine quantitative Normalitätsdeutung argumentiert und ihr wurde eine logische Grundlage gegeben, die in ihren expressiven Möglichkeiten über die vorgestellten qualitativen Normalitätslogiken N und N0,95 sogar hinausgeht. Durch die modalen, prädikatenlogischen und probabilistischen Bausteine aus MDLE+P ist für fast jeden beliebigen Satz mit dem Wort „normalerweise” das Werkzeug zur Formalisierung und logischen Analyse im Sinne von quantitativer Rechtfertigung vorhanden. Die quantitativ fundierten Normalitätslogiken stellen einen Zusammenhang zu Universalität und Partikularität her. Außerdem können sie auch dem Ausdruck „Es ist normal, dass” intuitiv eine eigene Bedeutung als schwachen Gegenspieler zu „normalerweise” geben. Nun ist dies alles kein zwingender Grund, qualitative Normalitätskonzepte zu verwerfen und nur noch quantitative Normalität anzuerkennen. Es zeigt aber, dass die quantitativen Normalitätsdeutungen und -logiken in Hinsicht auf die Nähe zum natürlichen Sprachgebrauch, die Expressivität und die Rechtfertigung von Vorhersagen mehr Vorteile bieten als ihnen in der Diskussion der bereits definierten, weitestgehend qualitativen Ansätzen zur Normalität zugestanden wird. Beide Seiten, quantitative und qualitative Normalitätsdeutung, können nicht für sich beanspruchen, eine vollständige Semantik für Normalitätsurteile zu geben. Eine glaubhafte quantitative Deutung muss einräumen, dass Normalitätsurteile nicht nur aus statistischer Rechtfertigung bestehen können. Der logisch entscheidende Teil, der die Vorhersage ermöglicht, bleibt aber in dieser Deutung quantitativ. Da wir nun zu Beginn Normalitätsurteile primär darüber definiert haben, dass sie widerlegbare Schlüsse rechtfertigen, steht hier der Normalitätsbegriff einem quantitativen logischen Kern näher als einem qualitativen.

180

Literatur Adams, Ernest W (1974). „The logic of ‘almost all’“. In: Journal of Philosophical Logic 3.1, S. 3–17. Asher, Nicholas und Michael Morreau (1991). „Commonsense entailment: A modal theory of nonmonotonic reasoning“. In: Logics in AI. Hrsg. von J. van Eijck. Bd. 478. Lecture Notes in Computer Science. Springer Berlin / Heidelberg, S. 1–30. URL: http://dx.doi.org/10.1007/BFb0018430. – (1995). „What Some Generic Sentences Mean“. In: The Generic Book. Hrsg. von Gregory Carlson und Francis Jeffrey Pelletier. The University of Chicago Press, S. 300 –338. Barwise, Jon und Robin Cooper (1981). „Generalized quantifiers and natural language“. In: Linguistics and Philosophy 4, S. 159–219. Benthem, Johan van (1984). „Questions on Quantifiers“. In: The Journal of Symbolic Logic 49, 2, S. 443–466. Besnard, Philippe (1989). An Introduction to Default Logic. Springer Berlin u.a. Boutilier, Craig (1994). „Conditional logics of normality: a modal approach“. In: Artificial Intelligence 68, S. 87–154. Carlson, Gregory (1995). „Truth Conditions of Generic Sentences: Two Contrasting Views“. In: The Generic Book. Hrsg. von Gregory Carlson und Francis Jeffrey Pelletier. The University of Chicago Press, S. 224 –237. Carnap, Rudolf ((1950) 1962). Logical Foundations of Probability. 2. Aufl. The University of Chicago Press. Carnap, Rudolf und Wolfgang Stegmüller (1959). Induktive Logik und Wahrscheinlichkeit. Springer Wien. Cartwright, Nancy (1999). How the laws of physics lie. Clarendon Press Oxford. Dawkins, Richard (2004). The Ancestor’s Tale. A Pilgrimage to the Dawn of Life. Houghton Mifflin Company Boston. GAMUT, L.T.F. (1991). Logic, Language, and Meaning Vol. II: Intensional Logic and Logical Grammar. The University of Chicago Press.

181

Literatur Grice, Paul (1989). Studies in the Way of Words. Harvard University Press Cambrige, London. Kap. Logic and Conversation. Hacking, Ian (2001). An Introduction to Probability and Inductive Logic. Cambridge University Press. Hájek, Alan (2012). „Interpretations of Probability“. In: The Stanford Encyclopedia of Philosophy. Hrsg. von Edward N. Zalta. Winter 2012. Hawthorne, James und David Makinson (2007). „The Quantitative/Qualitative Watershed for Rules of Uncertain Inference“. In: Studia Logica 86.2, S. 247– 297. Hempel, Carl G. und Paul Oppenheim (1936). Der Typusbegriff im Lichte der neuen Logik. A. W. Sijthoff’s Uitgeversmaatschnappij Leiden. Keenan, Edward L. (1996). „The Semantics of Determiners“. In: The Handbook of Contemporary Semantic Theory. Hrsg. von Shalom Lappin. Wiley Blackwell Oxford, S. 41–63. – (2002). „Some Properties of Natural Language Quantifiers: Generalized Quantifier Theory“. In: Linguistics and Philosophy 25 (5), S. 627–654. URL: http://dx.doi.org/10.1023/A:1020803514176. Keenan, Edward L. und Dag Westerståhl (1997). „Generalized Quantifiers in Linguistics and Logic“. In: Handbook of Logic and Language. Hrsg. von Johan van Benthem und Alice ter Meulen. Elsevier Science Amsterdam, S. 837–893. Kleiber, Georges (1993). Prototypensemantik: eine Einführung. ‹bersetzt aus dem Französichen von Michael Schreiber. Gunter Narr Verlag Tübingen. Konolige, Kurt (1994). „Autoepistemic Logic“. In: Handbook of Logic in Artficial Intelligence and Logic Programming. Hrsg. von Dov Gabbay, C. J. Hogger und J. A. Robinson. Bd. 3. Clarendon Press Oxford, S. 217–295. Kraus, Sarit, Daniel Lehmann und Menachem Magidor (1990). „Nonmonotonic reasoning, preferential models and cumulative logics“. In: Artificial intelligence 44.1, S. 167–207. Krifka, Manfred u. a. (1995). „Genericity: An Introduction“. In: The Generic Book. Hrsg. von Gregory Carlson und Francis Jeffrey Pelletier. The University of Chicago Press, S. 1–124. Leitgeb, Hannes (März 2010). Reducing Belief Simpliciter to Degrees of Belief. Draft. URL: http://www.andrew.cmu.edu/user/kk3n/formalepist/ leitgeb%20paper.pdf.

182

Literatur Lewis, David (1969). Convention. A Philosophical Study. Harvard University Press Cambrige, Massachusetts. – (1981). „Counterfactuals and Comparative Possibility“. In: Ifs: conditionals, belief, decision, chance, and time. Hrsg. von William Leonard Harper, Robert Stalnaker und Glenn Pearce. D.Reidel Publishing Company Dordrecht, Boston, London. – (1998). „Adverbs of quantification“. In: Papers in Philosophical Logic. Cambridge University Press, S. 5–20. Lifschitz, Vladimir (1994). „Circumscription“. In: Handbook of Logic in Artficial Intelligence and Logic Programming. Hrsg. von Dov Gabbay, C. J. Hogger und J. A. Robinson. Bd. 3. Clarendon Press Oxford, S. 297–352. Lindström, Per (1966). „First-order predicate logic with generalized quantifiers“. In: Theoria 32, S. 186–195. Łukasiewicz, Jan (1951). Aristotle’s Syllogistic from the Standpoint of Modern Formal Logic. Oxford University Press. McCarthy, John (1980). „Circumscription - A Form of Nonmonotonic Reasoning“. In: Artificial Intelligence 13, S. 27–39. URL: http : / / www formal.stanford.edu/jmc/circumscription.pdf. – (1986). „Applications of Circumscription to Formalizing Common-Sense Knowledge“. In: Artificial Intelligence 28 (1), S. 89–116. Mostowski, Andrzej (1957). „On a generalization of quantifiers“. In: Fundamenta Mathematicae 44, S. 12–36. Pearl, Judea (1988). Probabilistic Reasoning in Intelligent Systems. Morgan Kaufmann Santa Mateo. Peters, Stanley und Dag Westerståhl (2006). Quantifiers in Language and Logic. Clarendon Press Oxford. Peterson, Philip (1979). „On the Logic of “Few”, “Many”, and “Most”“. In: Notre Dame Journal of Formal Logic xx 1, S. 155–179. – (2000). „‘Few’, ‘Many’, and ‘Most’“. In: Intermediate Quantifiers. Logic, Linguistics, and Aristotelian Semantics. Ashgate Adlershot, S.15–46. Peterson, Philip und Robert Carnes (2000). „The Compleat Syllogistic: Including Rules and Venn Diagrams for Five Quantities“. In: Intermediate Quantifiers. Intermediate Quantifiers. Logic, Linguistics, and Aristotelian Semantics. Ashgate Adlershot, S.47–146.

183

Literatur Poole, David (1994). „Default Logic“. In: Handbook of Logic in Artficial Intelligence and Logic Programming. Hrsg. von Dov Gabbay, C. J. Hogger und J. A. Robinson. Bd. 3. Clarendon Press Oxford, S. 189–215. Priest, Graham (2008). An Introduction to Non-Classical Logic. Cambridge University Press. Putnam, Hilary (1975). Mind, Language and Reality. Philosophical Papers, Volume 2. Cambridge University Press. Reichenbach, Hans (1949). The theory of probability. University of California Press Berkley. Reiter, Raymond (1980). „A logic for default reasoning“. In: Artificial Intelligence 13, S. 81–132. – (1987). „Nonmonotonic Reasoning“. In: Annual Review of Computer Science 2, S. 147–186. Rosch, Eleanor (1973). „Natural Categories“. In: Cognitive Psychology 4, S. 328–350. – (1975). „Cognitive Reference Points“. In: Cognitive Psychology 7, S. 532– 547. – (1978). „Principles of Categorization“. In: Cognition and Categorization. Hrsg. von Eleanor Rosch und Barbara Lloyd. Lawrence Erlbaum Associates, Hillsdale, New Jersey. Kap. 2, S. 27–48. Rosch Heider, Eleanor (1971). „“Focal” Color Areas and the Development of Color Names“. In: Developmental Psychology 4, S. 447–455. Schurz, Gerhard (2001). „What is ‘Normal’? An Evolution-Theoretic Foundation for Normic Laws and Their Relation to Statistical Normality“. In: Philosophy of Science 68, S. 476–497. Spohn, Wolfgang (2012). The Laws of Belief: Ranking Theory and Its Philosophical Applications. Oxford University Press. Stalnaker, Robert (1981). „A Theory of Conditionals“. In: Ifs: conditionals, belief, decision, chance, and time. Hrsg. von William Leonard Harper, Robert Stalnaker und Glenn Pearce. D.Reidel Publishing Company Dordrecht, Boston, S. 41–55. Veltman, Frank (1996). „Defaults in update semantics“. In: Journal of Philosophical Logic 25, S. 221–261. Westerståhl, Dag (1989). „Quantifiers in formal and natural languages“. In: Handbook of Philosophical Logic. Hrsg. von Dov M. Gabbay und Franz

184

Literatur Guenther. Bd. IV. D. Reidel Publishing Company Dodrecht, Boston, London. Kap. IV.1, S. 1–131. – (2011). „Generalized Quantifiers“. In: The Stanford Encyclopedia of Philosophy. Hrsg. von Edward N. Zalta. Summer 2011.

185

Personenregister Adams, Ernest W. 4, 155 Apuleius 33 Aristoteles 1f., 32–34, 93 Asher, Nicholas 142, 149f., 152f. Barwise, Jon 8, 39f. Benthem, Johan van 8, 81, siehe auch GAMUT, L.T.F. Besnard, Philippe 104–107, 109f. Boethius 33 Boutilier, Craig 98–104, 118, 122, 125–131 Carlson, Gregory 142 Carnap, Rudolf 67–76, 78f., 81, 83, 85–87 Carnes, Robert 34, 36f. Cartwright, Nancy 1f., 93, 96, 98 Cooper, Robin 8, 39f. Dawkins, Richard 162 Dirlmeier, Franz 1 Frege, Gottlob 8, 33, 44 GAMUT, L.T.F. Benthem, Johan van 9 Groenendijk, Jeroen 9 Jongh, Dick de 9 Stokhof, Martin 9 Verkuyl, Henk 9 Grice, Paul 58, 60

186

Personenregister Hájek, Alan 75 Hacking, Ian 63, 66, 71, 79 Hawthorne, James 5 Hempel, Carl G. 132 Keenan, Edward L. 8 Keynes, John Maynard 68 Kleiber, Georges 137–139 Kolmogorow, Andrei Nikolajewitsch 66, 71 Konolige, Kurt 109f. Kraus, Sarit 5 Krifka, Manfred 151f. Lehmann, Daniel 5 Leitgeb, Hannes 5, 155 Lewis, David 54f., 94, 97–99, 101, 118, 166, 169–176 Lifschitz, Vladimir 108 Lindström, Per 39 Łukasiewicz, Jan 33 Magidor, Menachem 5 Makinson, David 5 McCarthy, John 108f., 142, 149, 164f., 169, 178 Morreau, Michael 142, 149f., 152f. Mostowski, Andrzej 38f. Nash, John F. 172 Oppenheim, Paul 132 Pearl, Judea 165f. Peters, Stanley 8 Peterson, Philip 34–38 Poole, David 107, 109, 130 Priest, Graham 47, 95 Putnam, Hilary 132–135, 137, 139, 177 Reichenbach, Hans 85

187

Personenregister Reiter, Raymond 104, 107, 110, 126, 128, 149, 164f. Rescher, Nicholas 38 Rosch (Heider), Eleanor 132, 137–139, 177 Schurz, Gerhard 148f., 158–162 Spohn, Wolfgang 5 Stalnaker, Robert 94, 97–99, 101, 118 Stegmüller, Rudolf 67–70, 72–75 Tarski, Alfred 68 Veltman, Frank 60, 104, 110–119, 122–126, 128–131, 135f., 140, 166 Weidemann, Hermann 32 Westerståhl, Dag 8

188

Sachregister AD Disjunction of Antecedents 123f. Adverbien (quantitative) 53–55 Agglomeration siehe Konjunktionsregel AL (Update Semantik) 112 AL+Defaults 113–116 AL+K-Defaults 117–121 AL+might 112 Alternation des Antezedens 123f. Alternative Abschwächung 27, 59f., 123f. Antezedens komplexes 124f., 165f., siehe auch Subjektbegriff, komplexer kontradiktorisches 45f., 48 tautologisches 46–48, 118f., 126 Aristotelische Logik 32–34 ASC Strengthening with a Consequent 123–125 Ausnahmesituation 143–146, 153f. Aussage generische siehe generischer Satz indefinite 32, siehe auch generischer Satz Normalitäts- siehe Normalitätsaussage partikuläre 23, 32f., 35, 64f., 76 universelle 4, 32f., 65 Auszahlungsmatrix 172 autoepistemische Logik 104, 108–110, 125–130 autoepistemische Theorie 109f. Axiome der Wahrscheinlichkeitstheorie siehe Kolmogorow Axiome einer Default Theorie 105f.

189

Sachregister Basispaar 70, Bayes-Regel 66, Bedingter Satz vom ausgeschlossenen Dritten 98, 101f. Beschreibungsspiel 167f., 173–175 Bestätigungsfunktion 71, siehe auch Wahrscheinlichkeit reguläre 71–73 symmetrische 71–74, 76, 78 binärer Quantor siehe Quantor ,binärer brave prediction 107 CC Conjunction of Consequents siehe Konjunktionsregel CEM Conditional Excluded Middle 98, 101f. ceteris paribus 1f., 93, 95–98, 159, 177f., siehe auch Idealisierung Circumscription 104, 108f., 125, 164 CO 100f. Conditional Excluded Middle (CEM) 98, 101f. Conditional Logic 94–97, 101, 118, 122f. Conjunction of Consequents (CC) siehe Konjunktionsregel CS5 47–49, 90 CT4O 100 cue validity 138, 140, 151 de dicto 51f. de re 51f. deduktive Geschlossenheit 105, 108f., 129, 155 Default 104–108, siehe auch Normalitätsregel bei Veltman 110, 113, siehe auch AL+Defaults; AL+K-Defaults normaler 105f. seminormaler 105f. Default Logik 104–107, 110 Default Schluss mutiger 107 vorichtiger 107 Default Theorie 105f., 110 Axiome 105f., Extension 105f., 109 Deskriptivität 2, 5, 125, 154, 157, 179f.

190

Sachregister Determinierer 8f., 27, 40, 75, 80, siehe auch Theorie der generalisieren Quantoren extensionale 40f., 75, 80–82 in DL/DLE 9f., 12f., 17f., 21f., 27f., 41, 44, 83 in MDL/MDLE 43f., 49f., 55, 83 isomorphe 40f., 75, 80–82 klassische 82 konservative 40f., 75, 80–82, 96 numerische 82 proportionale 38f., 75, 82 quantitative 8, 20, siehe auch Isomorphie (ISOM) Verhältnis zu singulärer Aussage 20–22, 78–84 direkter Schluss 69, 74f., 78f. Disjunction of Antecedents (AD) 123f. Division (Prädikate) 74f. DL/DLE 9–14 DLE0,95 29–31, siehe auch DL/DLE DLE0,99 29–31, siehe auch DL/DLE DLE2/3 29–31, siehe auch DL/DLE Dutch Book Argument 71, 156 Effektivität (Kommunikation) 165f., siehe auch Beschreibungsspiel Entscheidungstheorie 166 erwarteter Nutzen 167 Erwartungsordnung 113–117, 122, 131, siehe auch Erwartungsrahmen Erwartungsrahmen 117–119 Evidenz siehe Wahrscheinlichkeit, bedingte, siehe Wahrscheinlichkeit, logische Evolutionstheorie 158–160 existentieller Import 15f., 25, 33, 35, 46, 57f. Expansion einer autoepistemischen Theorie 109f. Extension (Begriffsumfang) 11f., 40, 44, 52f., 108, 134 =0/ 14–16 =Redebereich 14, 16–18 Extension einer Default Theorie 105f., 109 Extensionalität (EXT) 40f., 75, 80–82 Frequency Principle 79

191

Sachregister Gegensatz siehe auch logisches Quadrat konträrer 22–24, 29, 32f., 50, 56, 58, 101 kontradiktorischer 22, 33 subkonträrer 22–24, 33, 50, 58 generalisierte Evolutionstheorie 158–160 generischer Satz 3, 32f., 149–153 Genotyp 160, 162 Geschlossenheit (deduktive) 105, 108f., 129, 155 Gesetze ceteris paribus siehe ceteris paribus normische siehe normische Gesetze Gleichgewicht 172–176 Grenzwert für „die meisten” 28–31 für probabilistischen Schluss 86, 90 für quantitative Normalität 4, 61, 89f., 155 vager 4, 61, 155 Hirschjagd Problem 172f. hos epi to poly 1f., 93 Idealisierung 93, 98, 125, 131, 178f., siehe auch Normalitätsaussage, globale individuelle Verteilung 76–78 Induktion 69, siehe auch Wahrscheinlichkeit, logische direkter Schluss 69, 74f., 78f. Vergleich zur Deduktion 69f. Informationszustand 114–117, siehe auch Update Semantik Intension 4434, 36, 38, siehe auch Determinierer Isomorphie (Bestätigungsfunktion) 73, siehe auch Symmetrie Isomorphie (ISOM) 40f., 75, 80–82 jüngster gemeinsamer Vorfahre 162f. Kategorisierung 124, 134–140, 177, 179 klassische Prädikatenlogik siehe PL Kolmogorow Axiome 66, siehe auch Dutch Book Argument Kommunikationsregel 164f., 171, 177f., 180 Konditional

192

Sachregister materiales 14, 94, 100, 119 Normalitäts- siehe Normalitätskonditional Konjunktionsregel 28, 60f., 90f., 102f., 108, 123, 129 Konservativität (KONSERV) 40f., 75, 80–82, 96 Kontradiktion 22, 33 Kontrarietät 22–24, 29, 32f., 50, 56, 58, 101 Konvention 163f., 166, 169f., 172–174, 179 Koordinationsgleichgewicht 172–176 Koordinationsproblem 169, 172, 174–176 Lambda-Abstraktion 13, 30, 76, 79, 88, siehe auch Subjektbegriff, komplexer leeres Prädikat 14–16 Lindström Quantor siehe Quantor, Typ logische Wahrscheinlichkeit 67–69, siehe auch Induktion logischer Spielraum 70f. logisches Quadrat 23f., 33–35 Erweiterung um Normalität 58f., 148 Erweiterungen in DL/DLE 23–27 Erweiterungen von Peterson 35, 37 Lotterieparadox 103, siehe auch Konjunktionsregel Möglichkeit epistemische 109, siehe auch AL+Defaults; AL+K-Defaults; AL+might logische 87, siehe auch Zustandsbeschreibung, für ein MDLE-Modell Maßfunktion reguläre 71–73 symmetrische 71–74, 76, 78 materiales Konditional 14, 94, 100, 119 MDL/MDLE 42–45 Meme 160 mittlerer Quantor 34, 36, 38, siehe auch Determinierer Modalität de dicto siehe de dicto de re siehe de re Modaloperatoren in MDL/MDLE 44–46 Montague-Grammatik 9 most recent common ancestor 162f.

193

Sachregister N 90f., 129f., 166, 180 N0,95 90f., 129f., 166, 180 Nashgleichgewicht 172–176 nicht-monotones Schließen 4, 70, 104, 113, 149 Norm 2, 154f., 163f., 170, 179 normale Welt (Veltman) 114–117, 121, 130f. Normalitätsannahme 3, 125, 165, siehe auch Normalitätsaussage Normalitätsaussage 3–5, 57f., 147f., 153, 177–180 bei Boutilier 101–103 bei Veltman 111, 113–116, 122, 124 deskriptive 157f., siehe auch Deskriptivität gattungsbezogene 3, 56, 93, 121f. gemischte 3, 52f., 56, 93 globale 93, 159 lokale 93, 159 modale 3, 56, 93, 154 normative 154–157, 163f., siehe auch Normativität qualitative 4, 93, 125f., 129, 164f., siehe auch Qualitätsthese quantitative 4, 7, 56–58, 60, siehe auch Quantitätsthese, statistisch gerechtfertigte siehe Rechtfertigungsthese stereotype 135f. Verhältnis zur Alternation 27, 59f., 123f. Verhältnis zur Konjunktion siehe Konjunktionsregel Verhältnis zu singulärer Aussage 62f., 65, 85f., siehe auch Vorhersageschluss Normalitätskonditional 126, siehe auch Normalitätslogik bei Boutilier 101f., 128–130 bei Veltman 116–123, 128–130 in autoepistemischer Logik 127 in der Conditional Logic 95f., 99, 122f. in N und N0,95 90, 130 Normalitätslogik N 90f., 129f., 166, 180 N0,95 90f., 129f., 166, 180 von Boutilier siehe CO; CT4O von Veltman siehe AL+Defaults; AL+K-Defaults

194

Sachregister Normalitätsoperator siehe auch Normalitätslogik einstellig 116, 119, 123, 126 zweistellig siehe Normalitätskonditional Normalitätsregel 164–166, 168f., 177–180 als Konvention 171–178 Normalitätssatz 57f., 130, 147, siehe auch Normalitätsaussage Normalitätsurteil siehe Normalitätsaussage Normativität 2, 154f., 163f., 170, 179 normische Gesetze 158–161, siehe auch offene Systeme Nutzen (erwarteter) 167 objektive Wahrscheinlichkeit 67 offene Systeme 159, siehe auch normische Gesetze optimale Welt (Veltman) 114–121 Paradoxie 14, 45f., 72, 86 Partikularität 23, 32f., 35, 64f., 76 PL 9, 15–19, 33, 38, 41, 48 Plausibilitätsordnung 5, 98, 126, 129–131, siehe auch Erwartungsordnung Prädikate einer Division 74f. Prädikatenlogik (klassische) 9, 15–19, 33, 38, 41, 48 Prinzip der kleinsten Referenzklasse 83–85 probabilistischer Schluss 86–90 Prognose siehe Vorhersageschluss Prototyp 137f. Prototypensemantik 132f., 137–140, 150 erweiterte 138f. Standardversion 137f. Prototypikalität 151 evolutionärer Systeme 160–163 Kategorisierung 138, 177 Q-Prädikate 74–76 Qualitätsthese 141f. Quantitätsthese 141–146 quantitative Adverbien 53–55 Quantor

195

Sachregister ∃ 16–19 ∀ 16–19 binärer 39–41, siehe auch Determinierer generalisierter 8f., 31, 35, 38–41 in DL/DLE 9–13, 18f., 44 mittlerer 34, 36, 38, siehe auch Determinierer Typ 39 unselektierender 54f. Quasi-Universalität 56, 139 Rechtfertigungsthese 141, 153, 155–158, siehe auch Revisionsthese Regularität 71–73 Reproduktion (Evolutionstheorie) 160 Reprotyp 160f. Revisionsthese 141, 156f., siehe auch Rechtfertigungsthese S5/CS5 47–49, 90 Schluss direkter siehe direkter Schluss nicht-monotoner 4, 70, 104, 113, 149 probabilistischer 86–90 Selektion (Evolutionstheorie) 160 Signalspiel 167f., 173–175 singuläre Aussage 32, 64 als Bestandteil einer Verteilung 77f. Verhältnis zu Determinierern 20–22, 78–84 Verhältnis zu Normalität 62f., 65, 85f., siehe auch Vorhersageschluss skeptical prediction 107 Spieltheorie 166 statistical concequence thesis (SC) 161, siehe auch normische Gesetze; Prototypikalität evolutionärer Systeme statistische Verteilung 76–78 Stereotyp 132–137, 139f., 150, 177 Strengthening with a Consequent (ASC) 123–125 Subalternation 23, 33, 35, 50, 58 Subjektbegriff komplexer 13, 30f., 83–85, 124f., 165f., siehe auch Antezedens, komplexes

196

Sachregister leerer 14–16 universaler 14, 16–18 subjektive Wahrscheinlichkeit 67 Subkontrarietät 22–24, 33, 50, 58 Syllogistik 32f., siehe auch Aristotelische Logik Symmetrie 71–74, 76, 78 Systeme, offene 159, siehe auch normische Gesetze Tautologie 14, 46f., 71 Theorie der generalisierten Quantoren 8f., 31, 35, 38–41 Typ eines Quantoren 39 Typikalität 93f., 124f., 131f., 177f., siehe auch Normalitätsaussage, lokale Prototyp 137f. Prototypikalität siehe Prototypikalität Stereotyp 132–137, 139f., 150, 177 Universalität 4, 32f., 65 Universalprädikat 14, 16–18 Update Semantik 110–113 Variation (Evolutionstheorie) 160 Vereinfachung siehe Idealisierung Verstärkung des Antezends mit Sukzedens (ASC) 123–125 Vorhersageschluss 3, 86, 128, 155, 177–180 durch Default 104–107, 110 durch nicht-monotone Logik 4, 70, 104, 113, 149 durch Wahrscheinlichkeit 86–90 Wahrscheinlichkeit 7, 62f. Axiome siehe Kolmogorow Axiome Bayes-Regel siehe Bayes-Regel bedingte 66 Bestätigungsfunkion 71 logische 67 logischer Spielraum 70 objektive 67 Schluss von Gesamtheit auf Probe 63f. Schluss von Probe auf Gesamtheit 63–65

197

Sachregister Schluss von Probe auf Probe 63 subjektive 67 Wahrscheinlichkeitsbegriff klassifikatorischer 68 komparativer 68 quantitativer 68f. Wahrscheinlichkeitsschluss 86–90 Weakening the Consequent (CW) 123f., siehe auch Alternative AbschwächungWiderspruch 14, 45f., 72, 86 Zahlenbaum 81–83 Zugänglichkeitsrelation (Conditional Logic) 95f. Zugänglichkeitsrelation (Boutilier) 99f. Zugänglichkeitsrelation (S5) 47 Zustandsbeschreibung 70–72 für ein MDLE-Modell 87–89

198