129 49
German Pages 232 [233] Year 2024
Erklären und Verstehen Fragen und Antworten in den Wissenschaften Herausgegeben von Verena Klappstein und Thomas A. Heiß
Grundlagen der Rechtsphilosophie | 5 Franz Steiner Verlag
Grundlagen der Rechtsphilosophie Herausgegeben von Annette Brockmöller Band 5 https://www.steiner-verlag.de/series/1612-3654
ERKLÄREN UND VERSTEHEN Fragen und Antworten in den Wissenschaften Herausgegeben von Verena Klappstein und Thomas A. Heiß
Franz Steiner Verlag
Bibliografische Information der Deutschen Nationalbibliothek: Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über dnb.d-nb.de abrufbar. Dieses Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung außerhalb der engen Grenzen des Urheberrechtsgesetzes ist unzulässig und strafbar. © Franz Steiner Verlag, Stuttgart 2024 www.steiner-verlag.de Layout und Herstellung durch den Verlag Satz: DTP + TEXT Eva Burri, Stuttgart Druck: Beltz Grafische Betriebe, Bad Langensalza Gedruckt auf säurefreiem, alterungsbeständigem Papier. Printed in Germany. ISBN 978-3-515-13480-4 (Print) ISBN 978-3-515-13484-2 (E-Book) https://doi.org/10.25162/9783515134842
Inhaltsverzeichnis
VERENA KLAPPSTEIN / THOMAS A. HEISS
Fragen und Antworten
Eine Einführung. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 MARCUS ELSTNER / MATHIAS GUTMANN / JULIE SCHWEER
„Für sich bestehende Undinge“? Zur Logik von Maßbegriffen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
BENJAMIN RATHGEBER
Funktionen des Verstehens
Zur Logik von Erklären und Verstehen in den Wissenschaften . . . . . . . . . . . . . . . . . . . . . . 43 SEBASTIAN A. E. MARTENS
Law french? Das kommt mir spanisch vor
Zum schwierigen Verhältnis zwischen dem allgemein-gesellschaftlichen und dem speziell-juristischen Diskurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 OLAF MUTHORST
Schichten und Felder
Wissen in der Rechtswissenschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 BURKHARD JOSEF BERKMANN
Epistemologie des Kirchenrechts
Fragen und Antworten in der Kanonistik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 BRITTA MÜLLER-SCHAUENBURG CJ
Von der Offenbarung zur Erklärung?
Jüdische und christlich-theologische Konzeptionen des Verstehens. . . . . . . . . . . . . . . . . . . 113
6
Inhaltsverzeichnis
FARID SULEIMAN
‚Fragen & Antworten‘ in der Islamischen Theologie
Eine Untersuchung am Beispiel des Problems der Willensfreiheit in der Koranexegese. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 PETER NICK
Causa finalis
Sind biologische Erklärungen Teil der Naturwissenschaft?. . . . . . . . . . . . . . . . . . . . . . . . . . 157 JAN-HENDRYK DE BOER
Veränderung erklären
Überlegungen zu einer zentralen Herausforderung der Geschichtswissenschaft. . . . . . . . 171 KLAUS RUTHENBERG
Was ist Chemie?
Eine Skizze der Philosophie einer vermeintlich unphilosophischen Wissenschaft. . . . . . . 199
Fragen und Antworten Eine Einführung
Was ist wissenschaftliche Tätigkeit? Sie zeichnet sich essentiell durch die Erarbeitung von Fragestellungen und die Bereitstellung von Antwortmöglichkeiten aus. Dieser Zug, die Ausrichtung auf die Schaffung von Frage-Antwort-Zusammenhängen, verbindet prima facie sämtliche Diskurse und Disziplinen, die mit dem Selbstverständnis auftreten, Wissenschaften zu sein. Diese Beobachtung legt die rational begründete Vermutung nahe, dass es Sachgesetzlichkeiten geben könnte, durch die dieser Vorgang – etwaig gar zwingendermaßen – bestimmt wird: Strukturen, die bereits aus dieser elementaren Form wissenschaftlicher Tätigkeit folgen, die mithin vorgegeben sind, sobald ein Diskurs mit dem Ziel stattfindet, derartige Zusammenhänge zu erarbeiten. Denn sobald ein Diskurs sich als Vollzug einer bestimmten Wissenschaft begreift, ergibt sich die Notwendigkeit, im intra- und interdisziplinären Dialog eine Reihe charakteristischer Parameter zu bestimmen, welche die spezifische „Identität“ genau dieser Wissenschaft oder Disziplin, ihre Bedingungen und Bezugspunkte ausmachen: – Welche Gegenstände hat sie? – Wo verlaufen ihre Grenzen, wo die wechselseitigen Anschlussflächen zu anderen Disziplinen? – Welche Methoden lässt sie für die Bearbeitung ihrer Gegenstände zu? – Welche Stellung haben die an diesem Vorgang beteiligten Subjekte? Jede dieser Entscheidungen hat eine bestimmte Ordnung, bestimmte Klassifikationen, innerhalb des Kataloges aller möglichen Fragestellungen und Frage-AntwortKontexte zur Folge, ja alle diese Entscheidungen bestehen letztlich in nichts anderem als in der Determination dieser Ordnung. Sie führen dazu, dass die Masse möglicher Fragekontexte nach einem simplen Muster strukturiert wird: (1) Fragen, die innerhalb dieser Wissenschaft als zulässig/einschlägig erscheinen und deren Beantwortung mit den Mitteln dieser Wissenschaft erwartet werden kann.
8
����������������������������������
(2)
(3)
Fragen, die innerhalb dieser Wissenschaft zwar gestellt werden und deren grundsätzliche Beantwortbarkeit erwartet werden kann, indes nicht unter ausschließlicher Nutzung der von der jeweiligen Wissenschaft bereitgestellten Mittel. Fragen, die nicht nach einschlägigen empirischen oder formalen Methoden innerhalb der jeweiligen wissenschaftlichen Sprachspiele beantwortbar sind, insbes. Scheinprobleme.
Diese Bestimmung, die logisch am Anfang jeder Wissenschaft steht, ist ein essentiell hermeneutischer Prozess: Sie betrifft den jeweiligen Begriff des Verstehens und die damit korrespondierende Methode des Erklärens. Auf die Erforschung dieses Prozesses war die Tagung „Fragen und Antworten“ gerichtet, die vom 17. bis zum 19. Mai 2019 an der Universität Passau stattgefunden hat, und auf deren Ergebnissen dieser Sammelband beruht. Vertreterinnen und Vertreter unterschiedlicher Disziplinen, u. a. aus Chemie1, Biologie2 und Physik3, weltlicher4 und kirchlicher5 Jurisprudenz, Geschichtswissenschaften6, Philosophie7, christlicher8, islamischer9 und jüdischer10 Theologie, haben aus der Perspektive ihres jeweiligen Faches exemplarisch dazu Stellung genommen, ob der wissenschaftliche Diskurs in ihrem Bereich die drei hier postulierten Kategorien kennt – oder gar anerkennt – und wie er gegebenenfalls mit ihnen umgeht. Das hier Vorgelegte ist die Zwischenbilanz eines bislang fünfjährigen Dialoges, der mittlerweile im Rahmen einer interdisziplinäre Forschungsgruppe geführt wird: mit dem Ziel, zu einer übergreifenden Hermeneutik der verstehenden Wissenschaften und damit zu einer Theorie der gemeinsamen Fundamente der Disziplinen vorzudringen – mithin zu einer Theorie, derer es für einen fruchtbaren Austausch der
Ruthenberg, Was ist Chemie? – Eine Skizze der Philosophie einer vermeintlich unphilosophischen Wissenschaft, S. 199 ff. 2 Nick, Causa finalis – sind biologische Erklärungen Teil der Naturwissenschaft?, S. 157 ff. 3 Elstner/Gutmann/Schweer, Modelle und Erklärungen in der Physik, S. 13 ff. 4 Martens, Law French? Das kommt mir spanisch vor – Zum schwierigen Verhältnis zwischen dem allgemeingesellschaftlichen und dem speziell-juristischen Diskurs, S. 51 ff.; Muthorst, Schichten und Felder: Wissen in der Rechtswissenschaft, S. 69 ff. 5 Berkmann, Epistemologie des Kirchenrechts. Fragen und Antworten in der Kanonistik, S. 81 ff. 6 de Boer, Veränderung erklären. Überlegungen zu einer zentralen Herausforderung der Geschichtswissenschaft, S. 171 ff. 7 Rathgeber, Funktionen des Verstehens. Zur Logik von Erklären und Verstehen in den Wissenschaften, S. 43 ff. 8 Müller-Schauenburg, Von der Offenbarung zur Erklärung? Jüdische und christlich-theologische Konzeptionen des Verstehens, S. 113 ff. 9 Suleimann, ‚Fragen & Antworten‘ in der Islamischen Theologie: Eine Untersuchung am Beispiel des Problems der Willensfreiheit in der Koranexegese, S. 133 ff. 10 Müller-Schauenburg, Von der Offenbarung zur Erklärung? Jüdische und christlich-theologische Konzeptionen des Verstehens, S. 113 ff. 1
Fragen und Antworten
Wissenschaften dringend bedarf. Am Anfang des Projektes stand die Beobachtung, dass sich die (traditionell vor allem in der Geschichte der Naturwissenschaften und in der Philosophie einflussreiche) Kategorisierung von Fragen, die Aristoteles in seiner Vierursachenlehre formuliert hat, in den vier „kanonischen“ Auslegungsmethoden der Jurisprudenz unschwer wiedererkennen lässt.11 Dies hat uns dazu veranlasst, im Gespräch mit Vertretern und Vertreterinnen Philosophie, der Theologie, der Rechts- und Geschichtswissenschaften nach vergleichbaren Strukturen, insbes. in den auslegenden Wissenschaften, zu suchen.12 Als sich hierbei abzeichnete, dass einerseits nicht einfach bestimmte Fragen, sondern bestimmte Arten der Kategorisierung von Fragen und Antworten die Disziplinen miteinander verbindet, und dass dies andererseits nicht das proprium nur der auslegenden Wissenschaften ausmacht, nahm das Projekt die Züge an, die es jetzt hat: die Suche nach dem Instrumentarium und den Stellschrauben jener Hermeneutik, mittels derer sich die Erzeugung wissenschaftlicher Disziplinen vollzieht, d. h. der generativen Hermeneutik der Wissenschaften. Wir hoffen, und meinen, in Aussicht stellen zu dürfen, dass die hier gesammelten Beiträge nicht nur für ein primär wissenschaftstheoretisch interessiertes Publikum Erkenntnisgewinne versprechen, sondern dass sie und das, worauf sie in ihrer Gesamtheit abzielen, allen Disziplinen Impulse zur gezielten Selbstreflexion zu liefern vermögen. Anstelle des Versuches einer Anleitung hierzu wollen wir an dieser Stelle lediglich, anhand einiger exemplarischer Schlaglichter,13 andeuten, Erkenntnisse welcher Art wir, die Herausgeberin und der Herausgeber, für unsere eigene Disziplin, die (weltliche) Rechtswissenschaft, gewinnen konnten. Die Jurisprudenz, enger gefasst: die Rechtsdogmatik, begreift sich als die Wissenschaft von der Geltung, dem Inhalt und dem System von Normen, die ihrem im Diskurs allgemein konsentierten Anspruch nach auf intersubjektive Gültigkeit und, typischerweise, staatlich-hoheitliche Erzwingbarkeit angelegt sind. Sie ist zugleich die Wissenschaft von Inhalt und System derjenigen Wertungen und Prinzipien, die sich in diesen Normen Ausdruck verschaffen. Die Frage nach dem Repertoire gleichbleibender Formen, Denk- und Sprachstrukturen möglicher Rechtsordnungen ist der Rechtstheorie vorbehalten. Diejenige nach der normativen Kraft und Gültigkeit der den Wertungen des Normensystems zugrundeliegenden Gerechtigkeitsideen dagegen der
Klappstein, How much of Aristotle’s Four Causes can be Found in the German Legal Method to Interpret Laws?, ARSP 2016, S. 405–444; Klappstein, Warum ist Aristoteles Vierursachenlehre das wissenschaftstheoretische Fundament juristischer Auslegung und warum eignet sie sich als Matrix für eine Generalhermeneutik?, in: „als bis wir sein Warum erfasst haben“, Die Vierursachenlehre des Aristoteles in Rechtswissenschaft, Philosophie und Theologie, hrsg. von Verena Klappstein and Thomas Heiß, Stuttgart 2017, S. 87–117. 12 Klappstein/Heiß (Hrsg.), „als bis wir sein Warum erfasst haben“, Die Vierursachenlehre des Aristoteles in Rechtswissenschaft, Philosophie und Theologie, Stuttgart 2017. 13 Für eine Vertiefung der juristischen Perspektive vgl. die Beiträge von Berkmann, Martens und Muthorst in diesem Band, S. 81 ff., 51 ff., 69 ff. 11
9
10
����������������������������������
Rechtsphilosophie, die ihrerseits auf eine konstitutive Abgrenzung vom allgemein-gesellschaftlichen Diskurs angewiesen ist.14 Rechtswissenschaftliche Fragen im dogmatischen Kontext sind solche, die sich darauf beziehen, was de lege lata als Recht (sei es generell-abstrakt, sei es in einem Einzelfall) gilt, oder aber zumindest de lege ferenda gelten sollte. Fragen der ersteren Art gehören zum 1., solche der letzteren Art zum 2. Fragenkontext: Fragen nach der lex ferenda lassen sich zwar als genuin juridische stellen, grenzen aber zwangsläufig an den Bereich der Rechtsphilosophie sowie der Rechtstheorie an und können ohne Anleihen bei ihnen regelmäßig nicht beantwortet werden: Selbst eine bloße Bereinigung oder Entfaltung des geltendrechtlichen Systems impliziert bestimmte Ideale der, mitunter auch nur formal verstandenen, Gerechtigkeit, und sie muss auf das Arsenal der möglichen Formen juristischer System(fort)bildung zurückgreifen. Besonders problematisch ist die Frage nach dem Inhalt des Geltungskriteriums und, ihr zugrundeliegend, diejenige nach dem eigentlichen Geltungsgrund.15 Sie betrifft unmittelbar die Parameter der Erkenntnis für Fragen des 1. Kontextes, und damit die Identität des (Forschungs-)gegenstandes der Rechtswissenschaft: sie ist die entscheidende Vorfrage sowohl für die Rechtsquellen- als auch für die Methodenlehre. Dennoch kann sie keinesfalls ohne Rekurs, zumindest auf die Rechtsphilosophie und möglicherweise auch auf die Soziologie beantwortet werden. Selbst eine Zuweisung zum 3. Fragenkontext erscheint, ungeachtet der schlechthin fundamentalen Bedeutung dieser Frage, nicht ausgeschlossen. Bemerkenswert erscheint ferner, dass selbst die Tätigkeit des mit einer Streitentscheidung befassten Gerichtes (oder rechtsanwendender Verwaltungsorgane) nicht in Reinform als Beantwortung rechtswissenschaftlicher Fragen nur mit den methodischen Mitteln der Rechtswissenschaft, d. h. dem 1. Kontext, eingeordnet werden kann: Ziel ist die Ermittlung dessen, welchen Gehalt das Recht für diesen „Fall“ hat, aber die Konstruktion dessen, was der „Fall“ ist, d. h. was sich in Wirklichkeit zugetragen hat (oder genauer: welche Beschreibung insoweit als wahr zugrunde zu legen ist), bedient sich zwar eines rechtlichen Rahmens, innerhalb dessen jedoch nicht nur Methoden anderer Wissenschaften (insbes. der Naturwissenschaften) zum Einsatz kommen, sondern sich die Richterinnen und Richter auch auf die Expertise von Sachverständigen verlassen, deren Gutachten sie erneut zunächst einmal wieder verstehen müssen, und zwar Disziplinen übergreifend16. Der Diskurs mit der Kanonistik schließlich hat gezeigt,17 dass die Rechtswissenschaften von anderen Rechten als dem von uns betriebenen (deutschen Privatrecht der Gegenwart) sich zwar primär, aber nicht notwendig nur durch ihren Bezug auf eine andere Normenordnung auszeichnen: So stellen sich für die Kirchen14 15 16 17
Plakativ zum Verhältnis des rechtlichen zum allgemeingesellschaftlichen Diskurs: Martens, S. 51 ff. Beitrag Muthorst, S. 69 ff. Hierzu: Klappstein/Dybowski, Theory of Legal Evidence – Evidence in Legal Theory, Springer 2022. Beitrag Berkmann, S. 81 ff.
Fragen und Antworten
rechtswissenschaft Fragen der Abgrenzung zur, oder aber Unterordnung unter, die Theologie; die besondere Identität dieser Wissenschaft wird mithin auch von Grenzdiskursen eigener Art charakterisiert. Die Beiträge verdeutlichen, dass im Ergebnis jede Disziplin – unabhängig von ihrem Gegenstand – immer auch deskriptive Elemente aufweist und aufweisen muss. Diese deskriptiven Elemente sind Erklärungen und bauen per se auf Vorausgesetztem auf. Das Erklären und erklärt werden Können, ist Voraussetzung für ein Verstehen, welches in drei Stufen differenziert werden kann: Die Basis bildet dabei die 1. Stufe, als eigentliches „Noch-Nicht-Verstehen“, wenn nämlich Erlerntes in eine Formel eingesetzt wird. Derart noch nicht verstehende Individuen sind lediglich abgerichtet. Sie liefern zufällig die avisierten Ergebnisse, ohne verstanden zu haben. Auf der 2. Stufe ist ein „schwaches Verstehen“ in Gestalt des Verstehens von Regelmäßigkeiten und (wissenschaftliche) Regeln i. w. S. zu verzeichnen. Dabei werden die Regeln verstanden und Individuen liefern im Umgang mit den Regeln sicher die avisierten Ergebnisse. Hingegen steht auf der 3. Stufe das „starke Verstehen“. Regelmäßigkeiten und (wissenschaftliche) Regeln i. w. S. können in einem Akt der Selbstergreifung neu entwickelt werden. Sich in der Welt zeigendes Unbekanntes – etwaig gar ohne schon bekannte Regelmäßgkeit – kann als ein Fall von einer – etwaig gar neu zu entwickelnden – Regelmäßigkeit oder (wissenschaftlichen) Regel i. w. S. verstanden werden. Derart starkes Verstehen erfordert Kreativität und das „Spielen“ mit den durch die bestehenden Regelmäßigkeit bestehenden Grenzen. Zum Abschluss möchten wir den Referentinnen und Referenten der Passauer Tagung unseren außerordentlichen Dank aussprechen, ferner Prof. Dr. Thomas Riehm, unserem verehrten Lehrer, der uns die Durchführung der Veranstaltung möglich gemacht und uns in jeder erdenklichen Weise Unterstützung und Förderung hat zuteil werden lassen. Verena Klappstein & Thomas A. Heiß
Fulda/Traunreut, Martini 2021
11
„Für sich bestehende Undinge“? Zur Logik von Maßbegriffen
MARCUS ELSTNER / MATHIAS GUTMANN / JULIE SCHWEER
Abstract: Nicht selten wird hervorgehoben, dass das Vokabular der Naturwissenschaften gerade
deshalb zur präzisen Beschreibung von „Wirklichkeit“ geeignet sei, da die in wissenschaftlichen Theorien vorkommenden Grundbegriffe im Gegensatz zur Alltagssprache besondere Klarheit besäßen. Am Beispiel des Ausdruckes ‚Temperatur‘ der für die Grundlegung der Thermodynamik wesentlich ist, lässt sich aber zeigen, dass der zuvor geschilderte Eindruck in zwei Hinsichten täuscht. Denn zum einen benötigt der begriffliche Aufbau einer wissenschaftlichen Theorie außer- wie vorwissenschaftliches Wissen. Dieses Wissen ist seinerseits abhängig von der Form der Fragen die gestellt und der Mittel, die zu ihrer Beantwortung herbeigebracht werden. Zum anderen gestattet erst der Umgang mit Gegenständen, Vorgängen und Verläufen die Auszeichnung von Dispositionen, welche wiederum die innerhalb der wissenschaftlichen Theorie rein formal und mathematisch konstruierten Zusammenhänge zu „verstehen“ erlauben. Das hier entwickelte Konzept des Maßbegriffes soll sowohl auf die referierten Missverständnisse hinsichtlich der Bedeutung wissenschaftlicher Ausdrücke (in Theorien) reagieren, als auch einen Betrag zur Identifikation des methodischen Ortes grundlegender wissenschaftlicher Begriffe leisten. Zu diesem Zweck wird das Konzept des Maßbegriffes am Beispiele der ‚Temperatur‘ entwickelt. Ausgehend von lebensweltlich verfügbarem dispositionellem Wissen wird die Operationalisierung, Formalisierung und Mathematisierung der Temperatur rekonstruiert und der direkte Zusammenhang zur Theoriebildung und der ihr unterlegten Axiomatisierung hergestellt. Abschließend werden die methodologischen Konsequenzen für physikalische Erklärungen aufgezeigt.
14
Marcus Elstner / Mathias Gutmann / J ulie Schweer
1. Vorbemerkung
So wie „das Wesen der Technik ganz und gar nichts Technisches“1 ist, möchte man dies auch für die Physik behaupten – ihr Wesen nämlich ist ganz und gar nichts Physikalisches. Es bedarf vielmehr explizit nicht-physikalischen Wissens, um Physik zu betreiben – denn sowenig die Logik „für sich selber sorgen“2 kann, so wenig vermag man eine wissenschaftliche Theorie im Rahmen ihrer selbst zu begründen. Haben Wissenschaften ihren ‚Sitz im Leben‘, bildet lebensweltliches Wissen zwar eine wichtige Ressource für die wissenschaftliche Praxis; welche Aspekte lebensweltlichen Wissens aber herausgegriffen werden, bestimmt sich durch die Fragestellungen innerhalb der Wissenschaft selber. Wissenschaftsphilosophische Reflexionen, wie die folgenden, setzen mithin das Vorliegen von Wissenschaften schon voraus. Wir wollen dabei nicht nur zwischen lebensweltlichen und wissenschaftlichen Praxen unterscheiden, sondern zudem zwischen vorwissenschaftlichen und wissenschaftlichen. Charakterisieren wir (zumindest Natur-)Wissenschaften durch die, für bestimmte Aussagetypen angezielte universelle Geltung,3 sehen wir sogleich, dass dies kein notwendiges Kriterium sicheren Wissens ist. Denn es finden sich zahlreiche bewährte, in Resultat und Ausführung durchaus verlässliche lebensweltliche Praxen, Wissensbestände und die dieselben strukturierenden Aussagen und Schlüsse, für welche Universalität weder bezweckt noch erreicht wird – das damit verbundene Wissen hat wesentlich die Struktur von Know-how und umfasst ‚Rezeptewissen‘ ebenso wie hochgradig normierte und standardisierte Produktionsprozesse.4 Ein solches in steter Veränderung begriffenes Wissen gehört zu den Begleitumständen jeder Wissenschaft. Damit ergeben sich zwei miteinander verbundene aber analytisch unabhängige Blickrichtungen, zunächst nämlich jene der rekonstruierenden wissenschaftstheoretischen Betrachtung, die von Theorien, Fragestellungen und den für deren Bearbeitung notwendigen Mitteln ausgeht.5 Sie zielt u. a. auf ‚vorwissenschaftliches‘ Wissen, was auch die übernommenen Fragestellungen, Begriffe und Verfahrensweisen umfasst. Die zweite Blickrichtung geht konstruktiv
Martin Heidegger, Die Frage nach der Technik, in: Gesamtausgabe. Vorträge und Aufsätze (hg. von F.-W. von Herrmann), Bd. 7, Vorträge und Aufsätze, Frankfurt 2000, 7. 2 Ludwig Wittgenstein, Tractatus logico-philosophicus. Werkausgabe Bd. 1, 1984, 5.473. 3 Die Universalität der Geltung wird angestrebt, operationalisiert durch Personen- und Situationeninvarianz – was einen Anspruch markiert, keine Feststellung (dazu Peter Janich, Kleine Philosophie der Naturwissenschaften, München 1997; Peter Janich, Logisch-pragmatische Propädeutik, Weilerswist 2001). 4 Janich (Fn. 3), Phil. Naturw.; Janich (Fn. 3), L.-p. Prop.; Oliver Schlaudt, Messung als konkrete Handlung: eine kritische Untersuchung über die Grundlagen der Bildung quantitativer Begriffe in den Naturwissenschaften, Würzburg 2009. 5 Deren Gegebenheit gilt in Bezug auf die jeweilige Rekonstruktion; hier liegt also ein echt hermeneutisches Verhältnis zugrunde; auch Wissenschaftler müssen etwas verstanden haben, bevor sie erklären oder beschreiben können. 1
„Für sich bestehende Undinge“?
von lebensweltlichen Fähigkeiten und Fertigkeiten aus, um die Übergänge in wissenschaftliche Praxis und Theorie nachzuvollziehen.6 Besonderes Augenmerk der wissenschaftsphilosophischen Reflexion gilt seit je dem Verständnis der Grundbegriffe der jeweiligen Theorien – eine wesentliche Voraussetzung sowohl für Beschreibungen wie Erklärungen mit, in und durch wissenschaftliche(n) Theorien. Doch selbst wenn man für die Einführung grundlegender Begriffe die Beziehungen zu jeweils relevanten Tätigkeiten7 herstellte, wird die Bedeutung solcher Sprachstücke nicht nur von zahlreichen disziplinären, sozialen oder gruppenspezifischen Aspekten,8 sondern auch von der Lösung des Anfangsproblems,9 der mehr oder minder starken Theoriegebundenheit10 verhandelter Gegenstände oder von theoretischen11 Kontexten abhängen und zwar sowohl im Sinne experimentellen Handelns12
Der Zusammenhang beider unterstreicht den analytischen Charakter der Unterscheidung, denn mit ‚lebensweltlich‘, ‚vorwissenschaftlich‘ und ‚wissenschaftlich‘ sind keine festen Bestände, sondern Elemente von Transformationsprozessen benannt. Dies gilt – wie unten zu sehen – auch für den Gegensatz von ‚Substantialismus‘ und ‚Funktionalismus‘. 7 Verstehen wir ‚Messen‘ als eine letztlich allen modernen Wissenschaften gleichermaßen wesentliche Grundlage, dann gehört auch diese zur komplexen Tätigkeitsform ‚Wissenschaft‘; zur Rekonstruktion des Messens als konkreter Tätigkeit s. Schlaudt (Fn. 4), Messung als Handlung. 8 S. etwa Karin Knorr-Cetina, Die Fabrikation von Erkenntnis. Zur Anthropologie der Naturwissenschaft. Mit einem Vorwort v. R. Harré, Frankfurt a. M. 2016; Thomas Kuhn, Die Struktur wissenschaftlicher Revolutionen, Frankfurt a. M. 1989; Ludwig Fleck, Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv. Mit einer Einleitung hrsg. v. L. Schäfer u. Th. Schnelle, Frankfurt a. M. 1980. 9 Schon Aristoteles (Analytica Posteriora, Cambridge 1960, hrsg. Übers. H. Treddenick, 71a1) weist darauf hin, dass alles Lehren und Lernen aus verfügbarem Wissen folge: „Πᾶσα διδασκαλία καὶ πᾶσα μάθησις διανοητικὴ ἐκ προϋπαρχούσης γίνεται γνώσεως“; dazu Mathias Gutmann, Leben und Form, Berlin 2017; zum Anfangsproblem aus konstruktiver Sicht Janich (Fn. 3), Phil.Naturw. 10 Unterstellt man diese streng, dann gibt es keine „Vertrautheit mit dem entsprechenden Darstellungsbereich“ (Gernot Böhme, Idee und Kosmos, Frankfurt 1996, 57), außerhalb der wissenschaftlichen Theoriebildung selber (auf die resultierenden Probleme weist Andreas Bartels, Bedeutung und Begriffsgeschichte, Paderborn 1994) etwa am Beispiel des Elektrons hin; Ernst Cassirer, Philosophie der symbolischen Formen. Bd. 1 Die Sprache (1923), Darmstadt 1988, Bd. 2 Das Mythische Denken (1924), Darmstadt 1987, Bd. 3 Phänomenologie der Erkenntnis (1929), Darmstadt 1990, betont die Eigenständigkeit des wissenschaftlichen Symbolprozesses – gleichwohl in steter Interaktion mit anderen Symbolprozessen; zum Problem der Hypothesengebundenheit der Datenanalyse s. Martin Carrier, Wissenschaftstheorie zur Einführung, Hamburg 2017; zum Zusammenhang von Hypothesen- und Theoriebildung etwa K. Popper, Logik der Forschung, Gesammelte Werke (hg. von Herbert Keuth), Tübingen 2005. 11 Unabhängig von der Triftigkeit des Ansatzes können solche Abhängigkeiten bis zur ‚Inkommensurabilitätsthese‘ oder stark holistischen Bedeutungstheorien weitergeführt werden (etwa Kuhn (Fn. 8), wissenschaftl. Revol.; Paul Feyerabend, Wider den Methodenzwang, Frankfurt a. M. 1993; zur Übersicht aktuellerer Debatten Bartels (Fn. 10), Begriffsgeschichte). 12 S. etwa Ian Hacking, Einführung in die Philosophie der Naturwissenschaften. Aus dem Englischen übersetzt von J. Schulte, Stuttgart 1996; Nancy Cartwright, Nature’s Capacities and their measurement, Oxford 1989; oder Hans-Jörg Rheinberger, Experimentalsysteme und epistemische Dinge. Eine Geschichte der Proteinsynthese im Reagenzglas, Göttingen 2001, der das Konzept des Experimentalsystems als Bezugsort für „epistemische Dinge“ etabliert. 6
15
16
Marcus Elstner / Mathias Gutmann / J ulie Schweer
wie der Theoriearbeit, der formalen und mathematischen13 Explikation. Schließlich darf auch die historische Dimension der „Entwicklung“ von Bedeutung nicht übergangen werden, was den wissenschaftlichen Prozess auf unterschiedliche Weise thematisch werden lässt.14 Wir wollen – unter bewusster Absehung von diesen Problemlagen – in der folgenden Rekonstruktion des Temperaturbegriffes einige Besonderheiten wissenschaftlicher Begriffsbildung verdeutlichen, wie etwa deren eigentümlich undingliche Referenz, die sich aus dem Zusammenhang experimenteller, formaler und mathematischer Aspekte ergeben und die leicht aus dem Blick geraten, wenn man sich zu sehr von der wissenschaftlichen Praxis entfernt; die rätselhaft bleiben, wenn man sich ihr ganz und gar überantwortet. In dieser distanzierenden Annäherung vollzieht sich die Rekonstruktion in drei Schritten, beginnend mit einer Vorverständigung über den Begriff ‚Begriff ‘, die wir exemplarisch an der Semantik des begrifflich verwendeten Ausdruckes ‚Zeit‘ entwickeln. Es schließt sich eine kurze Explikation der logischen Strukturen metrischer Begriffe an. Beides wird auf den Ausdruck ‚Temperatur‘ angewendet, wobei wir skizzierend die Momente der lebensweltlichen und vorwissenschaftlichen Operationalisierung ebenso rekonstruieren, wie die formalen und mathematischen des wissenschaftlichen Temperaturbegriffes. Abschließend ziehen wir die systematischen Konsequenzen des Konzeptes von Maßbegriffen und deren Rolle im Rahmen von Erklärungen und Beschreibungen. 2.
Woher kommt die Bedeutung wissenschaftlicher Ausdrücke?
‚Bedeutung‘ wird auf vielerlei Weise ausgesagt – dies gilt auch lebensweltlich, z. B. wenn wir jemandem ‚etwas bedeuten‘, indem wir auf eine Krähe zeigen um von ‚Vögeln‘ zu sprechen; oder ihn auf eine Sachlage aufmerksam machen und diese mithin an-deuten; die Bedeutsamkeit des Amtes des Bundespräsidenten betonen oder schließlich die Frage, was ‚bachelor‘ bedeute, mit ‚Junggeselle‘, ‚unverheirateter Mann‘ oder ‚erster universitärer Studienabschluss‘ beantworten. Während die beiden ersten Beispiele eine gegenständliche Funktion suggerieren, verweist das dritte auf performative Aspekte und das vierte auf mehr oder minder rein sprachliche. Doch kennen wir schon lebensweltlich Fälle, in denen keine dieser Formen der Einführung recht passt – man denke exemplarisch an die Bedeutung von Ausdrücken wie ‚das Thermometer‘ im Gegensatz zu ‚einem‘ oder ‚diesem‘ Thermometer. Während nämlich das Thermometer weder mit Wasser noch mit Quecksilber gefüllt ist, weder Beide sind, wie später zu sehen, nicht identisch; benötigt wird für die physikalische Theoriearbeit indes beides. Der Zusammenhang zur experimentellen Praxis ist zudem unabdingbar. 14 Exemplarisch seien hier David L. Hull, Science as a Process, Chicago 1988, und Ernst Cassirer, Substanzbegriff und Funktionsbegriff (1910), Darmstadt 1980, angeführt. 13
„Für sich bestehende Undinge“?
eine Celsius- noch eine Réaumur-Skala aufweist und weder für medizinische noch meteorologische Zwecke eingesetzt wird, kann dies jeweils bei einem wie bei diesem Thermometer zutreffen. Zwar mag man darauf verweisen, dass das Thermometer eben etwas ‚abstraktes‘ sei und vermutlich einen Begriff bezeichne, dieses da einen konkreten und ein Thermometer einen besonderen15 Gegenstand, also ein Exemplar. Doch auch diese Strategie versagt bei der Klärung so wohlvertrauter Ausdrücke wie ‚Raum‘, ‚Zeit‘ oder ‚Kraft‘. Schon Augustinus (Confessiones, XI, 17) weist auf die eigentümlich paradoxale Situation hin, in welche wir bei dem Versuch einer Bestimmung oder gar Definition geraten mögen. Denn auf die selbstgestellte Frage „quid est ergo tempus?“ reagiert er bekanntermaßen wie folgt: „si nemo ex me quaerat, scio; si quaerenti explicare uelim, nescio“ – was ihn von ihrer Beantwortung gleichwohl nicht abhält. Zunächst ist die Vielfalt von ‚Bedeutung‘ in gewissem Umfang der Verwendung einer natürlichen Sprache geschuldet (das Englische etwa erlaubt schon auf der lebensweltlichen Ebene andere Differenzierungen wie ‚meaning‘, ‚sense‘, ‚significance‘, ‚importance‘ etc.). Doch auch ein Blick in die Wissenschaft erbringt nur bedingt Klarheit, wenn wir nach der Bedeutung dort verwendeter, z. T. als Grundbegriffe fungierender Ausdrücke fragen – wie etwa Temperatur, Energie oder Masse. Vor dem Hintergrund dieser Probleme unterbreitet uns einer der Gründungsväter der Physik einen interessanten Vorschlag für den Umgang mit den Grundbegriffen seiner Theorie, der zudem die Paradoxie des Augustinus zu vermeiden scheint: I do not define time, space, place, and motion, as being well known to all. Only I must observe, that the common people conceive those quantities under no other notions but from the relation they bear to sensible objects.16
Die Begründung – dass jeder wisse, was das Erfragte sei – kontrastiert mit der scharfen Unterscheidung zwischen ‚gemeinen‘ und ‚mathematischen‘ Begriffen von Raum, Zeit, Bewegung etc. Doch ist mit der Charakterisierung als mathematisch weniger die Tatsache gemeint, dass mithilfe mathematischer Prozeduren z. B. die Beschleunigung bewirkenden Kräfte berechnet werden sollen; vielmehr zielt Newton auf Eigenschaften ab, die sich als solche in empirischen Zusammenhängen eben nicht finden: I. Absolute, true, and mathematical time, of itself, and from its own nature, flows equably (aequabiliter fluit, d. A .) without relation to anything external, and by another name is called duration: relative, apparent, and common time, is some sensible and external (whether accurate or unequable) measure of duration by the means of motion, which is commonly used instead of true time; such as an hour, a day, a month, a year.17
15 16 17
Zu Details dieser Unterscheidung s. Gutmann (Fn. 9), Leben u. Form. Isaac Newton, Philosophiae Naturalis Principia Mathematica (1952), Encyclopaedia Britannica, 1713, 8. Newton (Nn. 16, 8).
17
18
Marcus Elstner / Mathias Gutmann / J ulie Schweer
„True“ oder „mathematical time18“ sei zudem auch dann relevant für die physikalische Betrachtung, wenn gelte: For the natural days are truly unequal, though they are commonly considered as equal, and used for a measure of time; astronomers correct this inequality that they may measure the celestial motions by a more accurate time. It may be, that there is no such thing as an equable motion, whereby time may be accurately measured.19
Das Paradox erscheint nun gleichsam gespiegelt, denn einerseits sollen Grundbegriffe wie Zeit undefiniert bleiben, andererseits weiß Newton aber offenkundig, dass mathematische20 Zeit distinkte Eigenschaften hat – die selbst dann vorlägen, wenn keine tatsächliche Messung diesen Ansprüchen genügte. Hier lohnt also ein näherer Blick auf die ‚Bedeutung‘ von Ausdrücken. 3.
Ein Anfang: Ausdruck und Begriff
Die Schwierigkeiten mit der Bedeutung von Ausdrücken, die sowohl Augustinus wie Newton zu ihren paradoxalen Verhaltungen führten, beginnen genau genommen schon bei der Verwendung von ‚Begriff ‘ – dass es sich dabei um etwas ‚abstraktes‘ handele, bedarf keiner Einrede, doch wenn der Zusammenhang zwischen einem Begriff und seiner Bedeutung hergestellt wird, die dieser nach üblichem Verstand haben soll, geraten wir in eine gewisse Verlegenheit. Denn nicht nur führt die Annahme, es gebe neben dem Unterschied eines sprachlichen Zeichens von seiner Bedeutung noch eine weitere Schicht der ‚Begriffs-Bedeutung‘ zu Schwierigkeiten, wenn dann das Verhältnis beider Bedeutungen zueinander bestimmt werden soll. Auch legt die Rede von einer Begriffen zugehörigen Bedeutung nahe, dass Bedeutungen etwas seien, das jenseits unserer Redepraxis bestehe und mehr oder minder erfolgreich freigelegt werden könne.21 Wir wollen daher im Weiteren den Überlegungen von Janich22 folgen, und den Ausdruck ‚Begriff ‘ als Anzeige metasprachlicher Rede über Wörter verstehen. ‚Begriff ‘ ist dann die Bedeutung eines Ausdruckes, die durch Regeln der Verwendung desselben festgelegt wird – Ausdrücke ‚haben‘ also keine Bedeutung,23 sie erhalten sie aber, in-
18
sei.
Die ‚absolute‘ Zeit ist also nicht identisch mit der ‚korrigierten‘ Zeit, auch wenn diese „more accurate“
Newton (Nn. 16, 9). Newton selbst tendiert zu einem realistischen Verständnis der Mathematik (dazu im Detail Max Jammer, Das Problem des Raumes, Darmstadt 1960; Ernst Cassirer, Das Erkenntnisproblem, Bd. 2, Darmstadt 1922). 21 Wobei zu fragen wäre, wie man sich eine solche Freilegung vorzustellen habe. 22 Janich (Fn. 3), L.-p. Prop., 125 ff. 23 Bedeutung – im Sinne von praktischer Relevanz – haben allerdings u. a. Maße, die für die Festlegung von Bedeutungen – im Sinne der Verwendung von Ausdrücken – eingesetzt werden. 19 20
„Für sich bestehende Undinge“?
dem die Art ihrer Verwendung innerhalb eines Sprachspieles bestimmt wird.24 Wissenschaftliche Begriffe bilden dabei keine Ausnahme, wiewohl die Ansprüche an den Sprachaufbau hinsichtlich etwa Eindeutigkeit, Lückenlosigkeit und Zirkelfreiheit höher sind, als im lebensweltlichen Zusammenhang. Dies wird deutlich, wenn wir die einleitend nur kursorisch angesprochenen Verfahren etwas genauer betrachten; denn wir führen auch lebensweltlich exemplarisch Ausdrücke durch Beispiele und Gegenbeispiele ein, wobei uns typische ‚einstellige‘ Verwendungen von Prädikaten wiederbegegnen, die aufgrund ihrer starken Kontextgebundenheit in der Regel keine oder nur eine sehr eingeschränkte Quantifizierung ermöglichen – etwa wenn wir einen ‚schweren‘ von einem ‚leichten‘ Gegenstand unterscheiden. Die exemplarische Einführung ist gleichwohl so vertraut, dass wir sie in vielen Kontexten einsetzen, z. B. wenn die Verwendung neuer Ausdrücke erlernt werden soll (dies ist ein Erlenmeyerkolben, kein Becherglas etc.), was üblicherweise durch explizite Beschreibung der Gegenstände begleitet wird, die unter den Begriff fallen. Dies erfolgt mit unterschiedlicher Strenge, etwa im Rahmen von DIN-Normen in der Technik (ein Weithalserlenmeyer folgt Norm A, ein Enghalserlenmeyer Norm B), hat aber auch in der Wissenschaft seinen Platz, wie die Verwendung von Typenexemplaren in Naturkundemuseen lehrt.25 Doch ist dieses Verfahren – schon lebensweltlich – ungeeignet, uns Auskunft über solch eigentümliche Gegenstände wie ‚Zeit‘ zu geben, denn weder hätten wir etwas, worauf wir verweisen könnten, noch ließe sich ‚nicht-Zeit‘ als Gegenbeispiel vorführen.26 Auch die Definition, die wir als Verwendungsregel für Ausdrücke verstehen können, wie das obige Beispiel von ‚Junggeselle‘ zeigte,27 hilft für die Bestimmung von ‚Zeit‘ nicht weiter. Dieser von Ludwig Wittgenstein, Philosophische Untersuchungen (Frankfurt 1990), 1958, bekannte Zug findet seine für unsere Überlegungen relevante Fortsetzung u. a. in ‚inferentialistischen‘ wie in ‚konstruktivistischen‘ Ansätzen (etwa Robert B. Brandom, Making it explicit, Cambridge 1994; Paul Lorenzen, Lehrbuch der konstruktiven Wissenschaftstheorie, Mannheim 1987; Peter Janich, Protophysik der Zeit, Frankfurt 1980; P. Janich, Zeit, Bewegung, Handlung, in: Studien zur Zeitabhandlung des Aristoteles, hg. von E. Rudolph, Stuttgart 1988; Dirk Hartmann, Naturwissenschaftliche Theorien, Mannheim, Wien, Zürich 1993; zur kritischen Diskussion der zugrundeliegenden Abstraktionstheorien s. Schlaudt (Fn. 4), Messung als Handlung). 25 Zum Typusproblem Ilse Jahn, Geschichte der Biologie, Hamburg 1998; Mathias Gutmann, Die Evolutionstheorie und ihr Gegenstand – Beitrag der Methodischen Philosophie zu einer konstruktiven Theorie der Evolution, Berlin 1996. 26 Dies veranlasst Georg W. F. Hegel, Phänomenologie des Geistes (Frankfurt 1985), 1807, 82 ff., zu seiner ironischen Schilderung der „sinnlichen Gewissheit“ im Umgang mit „hier“ und „jetzt“. 27 Auch in der Wissenschaft ist die Definition ein gängiges Mittel, wenn wir z. B. Sätze der Form betrachten, „eine Endonuklease ist ein Enzym, welches bestimmte Bindungen innerhalb einer Nukleotidkette auflöst“ (Georg Löffler / Petro E. Petrides (Hrsg.), Biochemie und Pathobiochemie, Berlin, Heidelberg 2003, 164), oder „Seesterne sind Deszendenten von Chordatenvorläufern“ (nach Wolfgang F. Gutmann, Die Hydroskelett-Theorie. Aufsätze u. Red. senckenb. naturf. Ges. 21; 46 ff.). In beiden Fällen kommt es auf das Zutreffen des Definiens nicht an; dies ändert sich, versteht man die erste Aussage als Funktionsbestimmung von ‚Endonuklease‘ und die zweite als evolutionsbiologisches Urteil über die ‚Antezedenten von Asteroidea‘. Wir sehen daran zugleich, dass ein Satz, in Abhängigkeit vom Kontext, unterschiedliche Funktionen haben kann. 24
19
20
Marcus Elstner / Mathias Gutmann / J ulie Schweer
Immerhin könnten wir versuchen, sie als das zu definieren, was eine Uhr anzeigt. Dieser verlockende Zug löst zwar ein gewisses messpraktisches Bedürfnis, denn wir vermögen es nun, willkürlich eine Uhr auszuwählen und diese Festsetzung der zeitlichen Organisation unserer Tätigkeiten zugrunde zu legen. Doch stehen diesem Vorgehen ernsthafte Bedenken entgegen, die mit der trivialen Feststellung beginnen, dass wir doch wohl nur eine ungestörte Uhr wählen würden, was uns zur Angabe von Funktionsnormen zwänge – womit das Problem der Auswahl des Standards wiederkehrte. Dieses Vorgehen führt also leicht in zirkuläre Argumentationen: Wir können nicht wissen, daß ein Vorgang streng periodisch ist (d. h., dass es sich um jeweils zueinander gleichmäßige Perioden handelt, d. A .), wenn wir nicht schon eine Methode zur Bestimmung gleicher Zeitintervalle haben!28
Der Verweis auf Uhren ist allerdings insofern hilfreich, als sie Geräte zu sein scheinen, die etwas dem Mensch erfahrungsgemäß nur schlecht Zukommendes vermögen, nämlich Zeit zu messen. Sehen wir genauer hin, entpuppt sich aber auch diese Rede als uneigentlich, da ‚messen‘ eine menschliche Tätigkeit bezeichnet und es mithin ein Mensch ist (sei es eine Wissenschaftlerin oder ein Bäcker), der Zeit misst, indem er eine Uhr zuhilfe nimmt. Worin aber die eigentümliche Tätigkeit von Zeitmessungen besteht, wird deutlicher, wenn wir uns einer aristotelischen Bestimmung bedienen, dergemäß Zeit das „Maß (Zahl) der Bewegung gemäß dem Früher und Später“ sei.29 Der entscheidende Gedanke liegt darin ‚Zeit‘ als eine Verhältnisbestimmung von Bewegungen – allgemeiner von Vorgängen – zu verstehen. Schon lebensweltlich unterscheiden wir ja das, was ‚früher‘ geschieht von dem ‚späteren‘ mit Blick auf etwas, das sich verändert. Dies gilt ganz allgemein – sei es für die Blüte die durch Knospe und Frucht abgelöst wird, sei es für den einen Läufer, der vor dem anderen ins Ziel kommt; in jedem dieser Fälle zeichnen wir zudem Invarianten aus, bezüglich derer wir die Differenz als zeitliche bestimmen. Im ersten Fall wäre die Invariante der Ort des Gestaltwandels (auch im größeren Kontext der Konstanz des Blüte/Knospe/Frucht tragenden Stielendes), im zweiten wäre es der gemeinsame Start-(Zeit-)Punkt. Wir etablieren also ein semantisches Netz, das uns weitere Inferenzen liefert – wir kommen auf diesen Aspekt des ‚Apriorischen‘ noch zurück.30 Der Bezug auf menschliches Handeln ist dabei durchaus explikativ relevant, denn zeitliche Ordnungen ergeben sich u. a. in Referenz auf Handlungsschritte (zuerst ging ich zu A, dann zu B). Auch die – für Physik immanent nicht relevante – Akteurskausa-
Rudolf Carnap, Einführung in die Philosophie der Naturwissenschaften, Frankfurt a. M. 1986, 86. „(…) τοῦτο γάρ ἐστιν ὁ χρόνος, ἀριθμὸς κινήσεως κατὰ τὸ πρότερον καὶ ὕστερον“. (Physik, 219b 2). So kann ich nicht ‚A später B‘, oder ‚C zugleich mit D‘ akzeptieren und ‚B früher A‘ oder ‚D zugleich mit C‘ zurückweisen – zumindest in üblichen Redekontexten. 28 29 30
„Für sich bestehende Undinge“?
lität hat diese Form, denn auch die Schemata von Substanz, Kausalität oder Wechselwirkung ergeben sich daraus.31 Führen solche ordinalen Aspekte zu Reihen (etwa von Zuständen), lässt sich daran sogleich auch der durative Aspekt erläutern.32 Eine Dauer wäre dann z. B. das, was einen Abschnitt des Vorganges vom nächsten trennt. Insofern bilden Zeitpunkte die Grenzen von Dauern. Der modale Aspekt hingegen ist in dieser – primär an den Ansprüchen der Wissenschaft orientierten – Darstellung ohne Relevanz, da es Vergangenheit, Gegenwart und Zukunft überhaupt nur für menschliche Akteure gibt.33 ‚Zeit‘ wird so zur Anzeige der kategorialen Organisation unserer Rede über – im genannten Sinne – ‚zeitliche‘ Aspekte von Vorgängen, Handlungen oder Zuständen. Vor dem Hintergrund dieser Klärungen können wir den Ausdruck ‚Zeit‘ im wissenschaftlichen Zusammenhang als Reflexionsterminus34 einführen. Dieser bezieht sich nicht auf einen Gegenstand, sondern auf eine Liste zeitlicher Ausdrücke. Das dingliche Moment, das ‚die Zeit‘ mit ‚dem Tisch‘ in einen verständig-abstraktiven Zusammenhang bringt, erweist sich also als (wiewohl notwendiger) Schein. Ausgehend von diesen Vorklärungen können wir uns nun wieder dem Problem der ‚Zeitmessung‘ widmen, die wir ja als Ausgangspunkt für unsere Darstellung gewählt hatten. Dabei ist die Rolle von Uhren immer noch ungeklärt. 4.
Messung und Konstruktion
Die Tätigkeit des Messens ist lebensweltlich sosehr vertraut, dass sie der Erläuterung kaum bedarf – sind wir doch ständig mit Messungen von Zeitpunkten, Dauern, Längen oder Temperaturen konfrontiert. Legen wir dies zugrunde, dann ist die Aussage, dass z. B. Zeit oder Wärme dasjenige seien, was die jeweiligen (ungestörten) Messinstrumente anzeigen, nicht unplausibel. Es scheint also ein Gegenstand oder Zustand ‚in der Natur‘ zu existieren, den selber oder dessen Eigenschaften man durch Messung identifizieren kann. Wenn wir unsere an Aristoteles orientierten Überlegungen zur Semantik zeitlicher Rede zugrunde legen, dann stehen dieser Vermutung aber
Dazu Immanuel Kant, Kritik der reinen Vernunft, Werke in sechs Bänden (hg. von W. Weischedel), Bd. 2, Darmstadt 1956, B 218 ff.; zur systematischen Deutung s. etwa Sebastian Rödl, Kategorien des Zeitlichen, Frankfurt 2010. Das heißt nicht, dass nicht auch der Physiker gelegentlich als Akteur auftritt und von der resultierenden Kausalität etwa seines experimentellen Handelns Gebrauch machte. Diese bleibt aber als solche außerhalb der physikalischen Formalisierung und Mathematisierung; dazu unten mehr (s. auch Holm Tetens, Experimentelle Erfahrung, Frankfurt a. M. 1987). 32 Wir folgen für die Unterscheidung von ordinalen, durativen und modalen Aspekten im wesentlichen Janich (Fn. 3, 24). 33 Die Stufung ist weder homogen noch sukzessiv – wenn gilt, dass der Mensch ein geschichtliches Wesen ist, dann entfällt die (physikalische) Illusion des aequabiliter fluit (s. Gutmann (Fn. 9), Leben u. Form). 34 S. Janich (Fn. 3, 24). 31
21
22
Marcus Elstner / Mathias Gutmann / J ulie Schweer
mindestens zwei Argumente entgegen; denn zum einen geht jeder Versuch fehl, den Referenten des Ausdruckes ‚Zeit‘ anders zu bestimmen als mit Blick auf Vorgänge.35 Zum anderen weist Newton selber explizit auf ‚nicht-empirische‘ Aspekte von ‚Zeit‘ hin, was durch die Identifikation von ‚wahrer‘ und ‚mathematischer‘ Zeit unterstrichen wird. Nur ein sehr starkes, ontologisches Verständnis von Mathematik erlaubte es mithin, in Zeit einen ‚Einrichtungsgegenstand‘ der Natur zu sehen. Den eigentümlichen Status von Raum und Zeit adressiert Kant daher als apriorisch36 – sei doch weder das eine noch das andere „irgend von einer Erfahrung abgezogen worden“.37 Raum und Zeit komme vielmehr zugleich „empirische Realität“ und „transzendentale Idealität“38 zu, was sich exemplarisch bei der Zeit in Analogie zu einer (gezogenen) Linie wie folgt ausdrücke: Die Zeit ist nichts anders, als die Form des innern Sinnes, d. i. des Anschauens unserer selbst und unsers innern Zustandes. Denn die Zeit kann keine Bestimmung äußerer Erscheinungen sein; sie gehöret weder zu einer Gestalt, oder Lage etc., dagegen bestimmt sie das Verhältnis der Vorstellungen in unserm innern Zustande. Und, eben weil diese innre Anschauung keine Gestalt gibt, suchen wir auch diesen Mangel durch Analogien zu ersetzen, und stellen die Zeitfolge durch eine ins Unendliche fortgehende Linie vor, in welcher das Mannigfaltige eine Reihe ausmacht, die nur von einer Dimension ist, und schließen aus den Eigenschaften dieser Linie auf alle Eigenschaften der Zeit, außer dem einigen, daß die Teile der erstern zugleich, die der letztern aber jederzeit nach einander sind.39
Mit der Linie, welche „ins Unendliche fortgehe“ ist aber ein weiterer Aspekt angesprochen, der bei der Bindung von Zeit an die Form menschlicher Anschauung leicht übersehen werden kann. Es handelt sich nämlich um einen ‚idealen‘ Gegenstand, welcher mathematisch ausgezeichnete Eigenschaften aufweist – erst dadurch kommt das von Kant hervorgehobene apriorische Moment von Erfahrung40 zustande. Kant41 grenzt sich dabei sowohl gegen die „mathematischen Naturforscher“ ab, die Raum und Zeit zu „für sich bestehende(n) Undinge(n)“ machten, als auch gegen die „metaphysischen Naturlehrer“, für welche diese von „der Erfahrung abstrahiert(e)“ seien; dabei komme den ersteren die Einsicht in die Apriorität von Raum und Zeit zu, während die letzteren das (auch bei Newton zu findende) Verständnis derselben als absolute zurückwiesen. Die argu-
Aristoteles fasst den Begriff der Veränderung sehr viel weiter, als die Rede von κίνησις nahelegt (s. Gutmann (Fn. 9), Leben u. Form). 36 Dies geschieht auch mit Blick auf semantische Aspekte ‚räumlicher‘ und ‚zeitlicher‘ Rede (s. etwa Rödl (Fn. 31), Kateg. Zeitl.). 37 Kant (Fn. 31), KrV, B 46. 38 Kant (Fn. 31), KrV, B 44; B 52. 39 Kant (Fn. 31), KrV, B 49 f. 40 An dieser Stelle ist das ‚Saturnbeispiel‘ besonders instruktiv, wegen der Nutzung von Geometrie im Rahmen astronomischer Erfahrung (Kant (Fn. 31), KrV, B 69 f.). 41 Vgl. Kant (Fn. 31), KrV, B 56 f. 35
„Für sich bestehende Undinge“?
mentativen Kosten sind für Kant bei beiden aber zu hoch, zu welchen im ersten Fall die Reifizierung von Begriffen gehört, im zweiten die Unmöglichkeit von „mathematischen Lehren a priori“ mit den entsprechenden Folgen für deren Verwendung in der Physik.42 Selbstverständlich kann die Form dieses Apriori unterschiedlich verstanden werden – für unseren Zugang ist zunächst nur der ‚mathematische‘ Aspekt des Schemas von Interesse, das Kant der Rede von Zeit unterlegt. Das Fortgehen der Linie „ins Unendliche“ hat dabei Eigenschaften, welche sich in der Erfahrung nicht finden lassen, wie jene Isotropie im Sinne von Gleichmäßigkeit, Stetigkeit, kontinuierlicher Teilbarkeit etc.43 Ein handlungstheoretisches Verständnis solcher apriorischer Eigenschaften als ‚idealer‘ führt Janich durch die Rekonstruktion jener Funktionsnormen vor, die die Unterscheidung nicht nur von gestörten und ungestörten, sondern auch von besseren und schlechteren Uhren gestatte. Der wesentliche Gedanke besteht in der zunächst lapidaren Einsicht, dass Geräte zwischen den (u. a. als Wissenschaftler) handelnden Menschen und den Gegenstand seiner Handlung treten. Wenn wir daher ‚Messen‘ nicht als Eigenschaft von Geräten sondern als menschliche Tätigkeit verstehen, dann erhalten wir eine andere Bestimmung von ‚Uhr‘, als es die vertraute Rede von einem Instrument zur Zeitmessung nahelegt. Uhren dienten nämlich zunächst weder dem Vergleich von Dauern oder Zeitpunkten, sondern der Erzeugung von – möglichst gleichmäßigen – Vorgängen. Diese Anforderung kann technisch unterschiedlich gelöst werden, wie wir lebensweltlich durch die Vielzahl von Uhrentypen wissen, deren Konstruktion auf verschiedensten technischen Prinzipen basiert. Aus den Herstellungsnormen für die so erzeugten geregelten Vorgänge sollten sich aber zugleich die Funktionsnormen für den Betrieb der Geräte ergeben – die Funktionsfähigkeit ist also das Resultat der Realisierung eben jener Zwecke, die in den Bau der Uhren schon investiert wurden. Vergleichen wir die von mehreren solcher Apparate bereitgestellten Vorgänge, dann kann ein Homogenitätsprinzip definiert werden, über welches auch die Rede von ‚gleichförmig‘ einzuführen ist: Entsprechend den methodologischen Erörterungen (…) muß jetzt noch ein Ideationsverfahren angegeben werden. Zu diesem Zweck wird das chronometrische Homogenitätsprinzip aufgestellt: sεv ∧ s'εv ∧ a(s, v) ➝ a(s', v)
Sein eigenes transzendentales Projekt soll also die Stärken beider kritisierten Positionen wahren, ohne deren Fehler zu reproduzieren. 43 Damit ist eine Unterscheidung eingefordert, die Newton konfundiert, nämlich jene von Euklidizität und Absolutheit. Die Erzwingung ‚euklidischer‘ Eigenschaften von Messinstrumenten (u. a. Uhren) ist nicht verbunden mit der Absolutheit des (Euklidischen) Raumes. Das erste hebt auf Eigenschaften der Euklidischen Geometrie im mathematischen Zusammenhang ab (etwa Ernst Cassirer, Ziele und Wege der Wirklichkeitserkenntnis, in: Ders., Nachgelassene Manuskripte und Texte, (hg. von Köhnke, K. C. & Krois), Bd.2, Hamburg 1999), das zweite auf die physikalische Auszeichnung des Bezugssystems. Erst mit der Behauptung der Euklidizität des Erfahrungsraumes ist die Verbindung naheliegend (dazu im Detail Peter Janich, Euklids Erbe, München 1989). 42
23
24
Marcus Elstner / Mathias Gutmann / J ulie Schweer
D. h. zwei Stellungen s und s'aus dem Vorgang v (im Gerät G) sind ununterscheidbar, „a“ sind dabei Aussagen, in denen keine freien Variablen vorkommen dürfen, wohl aber unter Quantoren gebundene. Durch eine in diesem Sinne zulässige Ersetzung von a durch eine Aussage, die mithilfe des Vokabulars der uhrenfreien Kinematik möglich ist, entsteht aus dem Homogenitätsprinzip (H) der Homogenitätssatz H. Beschränkt man sich dann auf diejenigen Aussagen A, die aus H logisch folgen, spricht man also invariant bezüglich Realisierungsmängeln über gleichmäßige Vorgänge, so soll zur terminologischen Kennzeichnung dieses Übergangs an die Stelle von „gleichmäßig“ der Ideator „gleichförmig“ treten. (…) Ein Gerät, an dem sich ein Punktkörper (Zeiger) gleichförmig bewegt, heiße Uhr.44
Wir sehen daran, dass die „Gleichmäßigkeit“ von Vorgängen technisch erzwungen wird, wobei die dafür investierten Normen die Grundlage der ‚Idealisierung‘ bilden.45 Die eigentliche Messung ist im Weiteren als Vergleich von Vorgängen mit den durch die Uhr realisierten zu verstehen, hinsichtlich der interessierenden Aspekte – gemäß unserer obigen Unterscheidung also etwa der Identifikation von Zeitpunkten, Zeitfolgen oder Dauern. Zugleich wird daran deutlich, dass zwischen dem, was und dem womit gemessen werden soll, zu unterscheiden ist. Schlaudt46 verweist auf diese Notwendigkeit in der Differenz von Größe einerseits, dem Maß dieser Größe andererseits – eine Differenz, die als Unterscheidung von „Größe und ihrem numerischen Ausdruck“ aufzufassen sei.47 5.
Messung und Ordnung
Messen hieße unseren Überlegungen zufolge, vergleichen – wenn auch auf eine besondere Weise. Für die angesprochenen zeitlichen Aspekte von Vorgängen ist das unmittelbar einsichtig, denn erst der Vergleich in den jeweils interessierenden Hinsichten der durch eine Uhr hervorgebrachten Vorgänge ermöglicht es uns, den gesetzten Messzweck zu realisieren – also etwa Dauern oder Zeitpunkte festzulegen. Der weitere Aufbau des Maßbegriffes erfordert allerdings noch einige formale Strukturen, damit eine metrisierte Zeitmessung erfolgen kann. Ausgehend von einer grundlegenden Differenzierung in klassifikatorische, komparative und quantitative Begriffe, beginnt Car-
Janich (Fn. 24), Protophysik, 202. Zur Diskussion der Eindeutigkeit solcher Prinzipien und ihrer Beweise durch verschiedene Vertreter der Protophysik s. die eingehende Rekonstruktion bei Schlaudt (Fn. 4), Messung als Handlung. 46 Schlaudt (Fn. 4), Messung als Handlung, 139 ff. 47 In Vielem können wir der detaillierten Analyse des Größenbegriffes von Schlaudt zustimmen (insbesondere der lesenswerten Explikation des Maßstabs als Erkenntnismittel, Schlaudt (Fn. 4), Messung als Handlung, 327 ff.). Dabei scheint aber der Bezug auf Bestimmungen innerhalb einer wissenschaftlichen Theorie – hier der Thermodynamik – zu kurz zu kommen. Wir wollen dem Rechnung tragen, indem wir explizit zwischen operationalem und theoretischen Temperaturbegriff unterscheiden; s. u. 44 45
„Für sich bestehende Undinge“?
nap den Aufbau einer Metrik mit einfachen klassenbildenden Ausdrücken wie etwa ‚warm‘, und ‚kalt‘, ‚leicht‘ und ‚schwer‘. Mit komparativen Begriffen werden sogleich Relationen eingeführt, die angeben, in welchem Verhältnis ein Gegenstand zu anderen steht. Insofern dies zutrifft, geht also auch bei Carnap die lebensweltliche der wissenschaftlichen Rede voraus, denn auf der Grundlage z. B. von ‚warm/kalt‘ und ‚wärmer/ kälter‘ kann die Rede von ‚höherer‘ und ‚niederer‘ Temperatur eingeführt werden.48 Explizit aber würden erst die durch Wissenschaften eingeführten Begriffe die Bedeutung eines Ausdrucks festlegen, wie das Beispiel von ‚schwerer‘ zeigt: Strenggenommen können wir eigentlich noch nicht sagen, daß ein Gegenstand „größeres Gewicht“ hat als ein anderer, denn wir haben ja noch nicht den quantitativen Begriff des Gewichtes eingeführt; aber man kann doch eine derartige Redeweise benützen, auch wenn noch keine Methode für die numerische Auswertung des Begriffes zur Verfügung steht.49
Dies ähnelt dem Umgang Newtons mit ‚wahrer‘ Zeit, Bewegung etc. und führt letztlich in dieselbe zirkuläre Argumentation.50 Carnap geht diesen Weg allerdings weiter, indem nun unter Auszeichnung einer konkreten Messform, etwa einer Balken- oder Federwaage, die Äquivalenz ‚Gewichtsgleichheit‘, sowie für den Fall der „sich senkenden“ Waagschale die Relation ‚schwerer als‘ operativ eingeführt werden. An diesen Eingangszug schließt sich die Erstellung von Quasiordnungen an, die ihre Bezeichnung von der noch fehlenden Metrisierung im engeren Sinne haben. Dies geschieht, indem Carnap der komparativen Rede zwei Relationen unterlegt, nämlich eine transitive und symmetrische (gleichschwer) sowie eine transitive und asymmetrische (schwerer als), mit deren Hilfe wir uns nun an die Arbeit des Vergleiches aller möglicher Gegenstände machen können. Es ergeben sich (im Prinzip beliebig viele) „Schichten“ von Gegenständen, die untereinander vertauschbar gleichschwer sind, wobei zwischen diesen Schichten die Relation ‚schwerer als‘ gilt. Da die asymmetrische Relation ebenfalls transitiv ist, lässt sich auch über mehrere Schichten springen etc.51
Dies ist mindestens missverständlich, denn der Übergang von einstelliger zu zweistelliger Verwendung ist weder notwendig noch naheliegend. Geht man weniger von „Arten“ von Begriffen, als vielmehr von Formen der Verwendung von Ausdrücken aus, legt also auf den Unterschied von Ausdruck und Begriff Wert, dann ist zunächst weder die ein- noch die zweistellige Verwendung privilegiert. Allerdings scheint der Ausgang von konträren Paaren (wärmer/kälter) sehr viel näher zu liegen. 49 Carnap (Fn. 28), Einf. Phil. Naturw. 61. 50 Im Grunde ist es unerheblich, ob Übereinstimmung mit „robustem Alltagsrealismus“ (Bartels (Fn. 10), Begriffsgeschichte, 21) oder grundsätzliche Differenz dazu angenommen wird – das Anfangsproblem lässt sich weder auf die eine noch auf die andere Weise lösen. 51 Für die unter der Quasiordnung stehenden Gegenstände formuliert Rudolf Carnap (Fn. 28), Einf. Phil. Naturw., 65, explizit in Anlehnung an Hempel, die Einführung zweier Relationen (G und K) wie folgt: „1. G muß eine Äquivalenzrelation sein. 2. G und K müssen einander ausschließen. Es kann keine zwei Gegenstände geben, die gleich schwer sind und gleichzeitig in der Beziehung ‚kleineres Gewicht‘ zueinander stehen. 3. K muß transitiv sein. 4. Für zwei beliebige Gegenstände a und b muß einer der drei folgenden 48
25
26
Marcus Elstner / Mathias Gutmann / J ulie Schweer
Wir sehen an diesem Beispiel, was es heißen soll, dass die Bedeutung eines Ausdruckes sein Begriff ist: die hier explizierten Regeln der Verwendung sollen nämlich nichts anderes sein, als die Bedeutung des Ausdruckes ‚schwerer als‘ in einer, wissenschaftlichen Ansprüchen genügenden Form. Für die Zeitmessung ergibt sich im Grundsatz derselbe Aufbau, werden doch ebenfalls unter Auszeichnung einer Uhr z. B. ‚längere‘ von ‚kürzeren‘ Dauern unterschieden. Wir sehen zugleich daran, was der von uns oben angedeutete logische Aspekt bezeichnet, nämlich ein Set von Regeln, deren Geltung rein formal aus der Verwendung bestimmter Ausdrücke folgt (hier also die Transitivität des Maßes). Der zweite, konventionale Aspekt kommt ins Spiel, wenn die Ordnung eine metrische Struktur erhalten soll. Für Carnap ist damit die Aufgabe der Begriffsbildung im Wesentlichen abgeschlossen; entsprechend sind quantitative Begriffe nicht fundamental von komparativen unterschieden, sondern durch die Zuordnung von numerischen Werten, die sich aus den Regeln des jeweiligen Messprozesse ergeben, wofür wir im Falle der Temperatur ein Thermometer52 benötigen: Der erste wichtige Punkt, den wir klar verstehen müssen, ist, daß wir Regeln für den Meßprozeß haben müssen, um Ausdrücken wie „Länge“ und „Temperatur“ einen Sinn zu geben. Diese Regeln sollen uns mitteilen, wie man eine gewisse Zahl einem bestimmten Körper oder Vorgang zuordnen soll, damit wir sagen können, daß diese Zahl den Wert der Größe für jenen Körper darstellt.53
Während die beiden ersten Regeln mit denen für komparative Begriffe identisch sind, zeichnet die dritte einen „leicht erkennbaren und manchmal auch leicht reproduzierbaren Zustand“54 aus,55 der es erlaubt, einer Größe einen numerischen Wert so zuzuordnen, dass auf diesen alle weiteren Werte bezogen werden können (etwa den Nullpunkt für die Celsiusskala mit dem Übergang von Wasser aus der flüssigen in die feste Phase). Damit werden die – von uns gleich näher zu behandelnden – Probleme des Instrumentenbaues letztlich zum Gegenstand von Konventionen und Festlegungen.56 Die vierte Regel wendet dieselbe Operation an, indem nun ein weiterer Wert einem weiteren signifikanten Punkt zugeordnet wird (etwa der Übergang von Wasser aus der flüssigen in die gasförmige Phase), während die fünfte Regel die eigentliche Skala mit Kriterien für die Differenzen von Wertepaaren festlegt. Auf diese Weise glaubt Carnap
Fälle gelten. (…) a) G gilt zwischen zwei Gegenständen a und b. b) K gilt zwischen a und b. c) K gilt zwischen b und a.“ 52 Wir werden unten sehen, dass dies nur einen operativen Temperaturbegriff ermöglicht – nicht einen physikalischen. Für Carnap (Fn. 28), Einf. Phil. Naturw., 74 ist hingegen das wesentliche Auswahlkriterium für die Wahl einer Skala, dass sie „zu der größten Vereinfachung der thermodynamischen Gesetze führt“. 53 Carnap (Fn. 28), Einf. Phil. Naturw., 69. 54 Carnap (Fn. 28), Einf. Phil. Naturw., 71. 55 Zum Problem der Referenzpunkte s. u. 56 Letztlich handelt es sich dabei um die zu vermeidende Identifikation von Maß und Größe – s. o.
„Für sich bestehende Undinge“?
das Eichproblem von Thermometern lösen zu können, denn durch konventionelle Entscheidungen ließen sich nun – im gegebenen Fall – Volumendifferenzen (z. B. der Quecksilbersäule im Glasrohr) Temperaturdifferenzen zuordnen, sodass sich Folgendes ergibt: Wenn d(a, b) = d (c, d), dann T (a) – T (b) = T(c) – T (d)57
Im Grundsatz gilt dasselbe auch für andere Messgrößen – durch die Festlegung der Differenzenäquivalenzen und der entsprechenden Einheiten wird der Übergang von den oben geschilderten Quasiordnungen zu echten metrischen Ordnungen vollzogen. Für die Temperaturmessung sind allerdings die genannten Regeln notwendig, während für rein extensive Größen wie etwa ‚Länge‘ oder eben ‚Dauer‘ drei genügten, nämlich jene der Gleichheit, der Additivität und der Einheit. Für die Temperatur reichten diese nicht hin, weil sie als intensive Größe nicht additiv sei – was sie z. B. mit der Tonhöhe oder dem Härtegrad teile.58 Genau genommen haben wir – wie der Vergleich mit der protophysikalischen Rekonstruktion zeigt – auf der Grundlage der von Carnap vorgeschlagenen Formalisierung gerade noch keine Begriffe erreicht, sondern lediglich am konkreten Messen deskriptiv gewonnene59 Begriffsschemata, deren jeweilige Bedeutung sich erst ergibt, wenn wir genau jene Anfangsbestimmungen in Anspruch nehmen, die wir zusammenfassend als vorwissenschaftlich bezeichnen können. Wir haben damit zwar ein Maß, aber noch keine Größe bereitgestellt. Der eigentümliche methodische Status des Ausdruckes ‚Temperatur‘ zeigt sich an der Bemühung Carnaps, diesen einerseits auf extensive Größen und deren Messung zurückzuspielen – und der sie deshalb explizit als beobachtbare Größen bezeichnet – wenn auch im erweiterten Sinne indirekter Messung.60 Andererseits wird aber konzediert, dass die Unterscheidung von O- und T-Termen61 keine „scharfe Trennungslinie“ erlaube, sondern die Wahl „einer solchen Trennungslinie (…) etwas willkürlich“ sei.62 Die Verbindung zwischen den beiden Ebenen (von Beobachtung und Theorie) erfolge daher über Zuordnungsregeln, die im Rahmen der Carnapschen Rekonstruktion eines Ramsey-Satzes wichtig werden, sodass sich auch für die abstrakten T-Terme eine gewisse ‚Welthaltigkeit‘ ergäbe – im Unterschied zur Mathematik:
Carnap (Fn. 28), Einf. Phil. Naturw., 72. Carnap (Fn. 28), Einf. Phil. Naturw., 81. Das unterstreicht den primär deskriptiven Ansatz bei Carnap, für den Vorschriften im Prinzip keine Rolle spielen. 60 Carnap (Fn. 28), Einf. Phil. Naturw., 225 ff. 61 Mit „O“ für Beobachtungs- und „T“ für theoretische Terme (Carnap (Fn. 28), Einf. Phil. Naturw., 246 ff.). 62 Vgl. Carnap (Fn. 28), Einf. Phil. Naturw., 225. 57 58 59
27
28
Marcus Elstner / Mathias Gutmann / J ulie Schweer
Ein Axiomen-System in der Physik kann nicht wie mathematische Theorien völlig von der Welt isoliert sein. Die Begriffe seiner Axiome – „Elektron“, „Feld“ und so weiter – müssen durch Zuordnungsregeln interpretiert werden, welche diese Begriffe mit beobachtbaren Erscheinungen verbinden.63
Diese Zuordnungsregeln werden letztlich nur deshalb benötigt, weil unseres Erachtens der Zusammenhang von Vorwissen, Konvention, technischer Präparation und Formalisierung nicht weit genug entwickelt wurde64 – was paradoxerweise auf die Beziehung zwischen Empirie und Mathematik durchschlägt, der damit ein besonderer Status als Erkenntnismittel im Rahmen wissenschaftlicher Theoriebildung nicht mehr zukommt: Theoretische Gesetze verhalten sich zu empirischen Gesetzten ungefähr so, wie die empirischen Gesetze sich zu den Einzeltatsachen verhalten.65
Tatsächlich ist die Rolle der Mathematisierung aber grundlegender, was sich am Temperaturbegriff besonders gut aufweisen lässt.66 Wir wollen daher im Folgenden zeigen, wie sich das Konzept des Maßbegriffes für die Temperaturmessung soweit entwickeln lässt, dass einerseits die Verbindung von logischer und daran anschließend mathematischer Form deutlich wird, andererseits das benötigte vorwissenschaftliche Wissen als ein Wissen um Dispositionen seinen methodischen Ort erhält. 6. Temperatur
Lebensweltliches und vorwissenschaftliches Wissen über Eigenschaften, Stoffe und Verläufe spielt eine entscheidende Rolle, um Anfänge für eine Messpraxis zu gewinnen. Wenn wir uns im Weiteren auf die Temperatur konzentrieren, ist dies zunächst der schlichten Tatsache ihrer Relevanz für den Aufbau der Thermodynamik geschuldet. Zugleich aber ist Temperatur ein gutes Beispiel für das Konzept des Maßbegriffes, zumal hier das Zusammenspiel technischer, formaler, konventionaler und mathematischer Aspekte wesentlich komplexer ist, als etwa für die schon behandelte Zeit.
Carnap (Fn. 28), Einf. Phil. Naturw., 237. Carnap behandelt Messinstrumente letztlich als bloße Modelle allgemeiner Theorien; auch in aktuellen modelltheoretischen Ansätzen wird das gegenstandskonstitutive Moment von Messung regelmäßig übersehen (im Detail s. Schlaudt (Fn. 4), Messung als Handlung). 65 Carnap (Fn. 28), Einf. Phil. Naturw., 229. 66 Es geht eben keinesfalls nur um die Erzeugung einer der „überschaubaren Muster“ von empirischen Tatsachen analogen Ordnung der „einzelnen, getrennten empirischen Gesetze“ (Carnap (Fn. 28), Einf. Phil. Naturw., 229) auf der Metaebene. 63 64
„Für sich bestehende Undinge“?
6.1
Substantialismus und vorwissenschaftliche Strukturierung
Vor der eigentlichen Messung stand lebensweltlich eingeübtes Know-how um die gezielte Herstellung von warmen und kalten Körpern. An das Erwärmen von Stoffen bis hin zum Erz für die Eisenherstellung wäre hier zu denken, aber auch an das Mischen, was im Namen „Temperatur“ noch anklingt; so schlug etwa Galen eine Einteilung der „Säfte“ in acht Grade inklusive der gleichmäßigen Mischung vor.67 Bis zur Etablierung der heute geläufigen Skala durch Celsius wurden die unterschiedlichsten Einteilungen aufgrund verschiedener Kriterien vorgeschlagen, teilweise auch durch numerische Werte quantifiziert. Der Wärme wurde (wie gelegentlich auch der Kälte)68 zunächst eine stoffliche Form zugeschrieben, wobei die zentrale Annahme darin bestand, dass Körper von einem (Wärme-) Stoff, dem Kalorikum, erfüllt sind, welcher sich in ihnen bei Erwärmung anreichert oder beim Abkühlen von ihnen abgegeben wird.69 Diese stoffliche Vorstellung von Wärme wollen wir als Substantialismus adressieren, womit hier – in Anlehnung an Cassirer70 – keine historische,71 sondern eine systematische Auffassung der Redeform gemeint ist.72 Der Gegensatz des „Funktionalismus“ verzichtet auf die Unterstellung dinglicher Referenz und betont hingegen den formalen Zusammenhang von Gegenstand und Prädikat im jeweiligen Redekontext. Das funktionalistische Verständnis von Größen bildet eine Voraussetzung von Experiment und Mathematisierung, indem Größen durch ihre Abhängigkeit von Parametern und deren (experimentell kontrollierter) Veränderung eingeführt werden.73
Jahn (Fn. 25), Geschichte der Biologie, 78. Plutarch, The Principle of Cold, in: Ders. Moralia, Bd. XII, (hg. Von Cherniss, H & Hembold, W. C.), Cambridge, 1984. 69 Hierzu historisch im Detail Hasok Chang, Inventing temperature: Measurement and scientific progress, New York 2004, 64 ff., systematisch Holm Tetens, Natur und Erhaltungssätze: Exemplarische Überlegungen am Beispiel des Energieerhaltungssatzes, in: Naturauffassungen in Philosophie, Wissenschaft und Technik, (hg. von Schäfer, L. & Ströker, E.), Bd. III, 1995, 13 ff. 70 Ernst Cassirer (Fn. 14), Substanzbegriff. 71 Im Gegensatz zur historischen Betrachtung versteht die systematische die Unterscheidung analytisch. Es ist danach sinnvoll substantialistische von funktionalistischen Aspekten zu unterscheiden, wobei sich regelmäßig beide in Theorien vorfinden. Wie der Gegensatz von „vorwissenschaftlich und wissenschaftlich“ handelt es sich also nicht um Bestände von Theorien, sondern um die Anzeige der Transformation derselben. 72 Die Prädikation (z. B. ‚x ist warm‘) lässt sich unterschiedlich verstehen; erlauben wir den Übergang von ‚x ist warm‘ zu ‚x ist ein Warmes‘ dann kann dies zum reifizierenden Verständnis der einstelligen Verwendung führen. 73 Mit ‚funktional‘ ist daher einerseits die nicht-dingliche Auffassung der Prädikation gemeint; hinzu kommt andererseits das funktionelle Verständnis solcher Prädikate im experimentellen Zusammenhang, bezogen auf von bestimmten Parametern abhängige Größen. Schließlich ist damit die Darstellung solcher experimentell kontrollierter Abhängigkeiten in mathematischer Form gemeint (eben als Funktion, etwa T = f(p, V)). 67 68
29
30
Marcus Elstner / Mathias Gutmann / J ulie Schweer
Substantialistische Verständnisse erlaubten durchaus die Erklärung zentraler mit Wärme verbundener Phänomene: So ließ sich der geschilderte ‚Ausgleich‘ zwischen Körpern im Wärmekontakt mit dem Strömen des Kalorikums aus Bereichen dichten in Bereiche geringeren Vorkommens verbinden. Die Wärmeausdehnung konnte wiederum direkt als Wirkung des dicht gepackten Kalorikums interpretiert werden, welches zur Volumenveränderung des gesamten Körpers führen sollte. Schließlich wurde sogar die Funktionsweise von Wärmekraftmaschinen74 durch das Prinzip erklärt, dass der Wärmestoff auf seinem Weg vom warmen zum kalten Körper die Maschine durchströme und dort Arbeit verrichte, was analog zum Wasser erscheint, welches ein Wasserrad antreibt.75 Ausgehend von solchen Vorstellungen kann Temperatur als das Maß einer Substanz verstanden werden, die hier als Größe auftritt; genauer als „(…) ein Maß der Verdichtung des Kalorikums, angezeigt in Graden mit einem Thermometer“.76 Obwohl die stoffliche Vorstellung von Wärme der Erklärung zentraler Wärmephänomene also durchaus nicht entgegenstand und eine plausible Beschreibung von ‚Wärmezuständen‘77 zuließ, zeigten sich auch die mit diesem Denken verbundenen Einschränkungen: Nicht nur konnte man den Wärmestoff selber nicht nachweisen, vielmehr stellten darüber hinausgehende Phänomene wie etwa die latente Wärme bei Phasenübergängen eine erhebliche Herausforderung dar. 6.2
Operationalisieren und Quantifizierung: Thermometerbau
Da unstrittig das subjektive Wärmeempfinden unterschiedlich ist, besteht der Reiz, Wärmeänderungen auf technische Vorrichtungen – letztlich auf Maschinen – zu beziehen, gerade darin, von subjektiven Maßen unabhängig zu werden.78 Im Rahmen dieses
Immerhin beginnt noch Sadi Carnot, Betrachtungen über die bewegende Kraft des Feuers, Thun, Frankfurt a. M. 1824, seine Überlegungen zur Optimierung der Arbeitsweise von Wärmekraftmaschinen und die darauf gegründete Einführung der Entropie mit solchen ‚substantialistischen‘ Vorstellungen (s. auch Chang (Fn. 68), Invent. temp., 178 ff.). 75 So kann man nach Carnot (Fn. 68), 17 f., die „bewegende Kraft der Wärme“ mit der des „fallenden Wassers“ vergleichen. Während im Falle des Wassers die bewegende Kraft von seiner Höhe und Menge abhänge, komme es bei der Wärme auf die Menge des „angewendeten Wärmestoffes“ sowie den „Temperaturunterschied der Körper, zwischen denen der Austausch des Wärmestoffes stattfindet“ an (Hervorhebung d. A.). 76 Zitiert nach J. A. Smorodinskij & P. Ziesche, Was ist Temperatur? Begriff, Geschichte, Labor und Kosmos, 1. Auflage, Frankfurt am Main 2000. 77 An späterer Stelle wird sich zeigen, dass die Rede von ‚Zuständen‘ auch in der Thermodynamik von zentraler Bedeutung ist – wenngleich der Zustand dort ‚nur‘ abstrakt durch die Bildung von Äquivalenzklassen gefasst werden kann. 78 Vgl. Schlaudt (Fn. 4), Messung als Handlung, 121. 74
„Für sich bestehende Undinge“?
‚Entsubjektivierungsprozesses‘ tritt das Thermometer an die Stelle der Wärmeempfindung und soll79 den Wärmezustand stabil und reproduzierbar anzeigen. Allerdings ist der Bau und die Verwendung von Thermometern möglich, ohne auf das Kalorikum überhaupt erklärend Bezug zu nehmen, benötigen wir dazu doch letztlich nur die technische Beherrschung genau jener Dispositionen, über die wir qualitativ im Rahmen des Lebensweltlichen schon verfügen. Dabei zielen die technischen Bemühungen wesentlich darauf ab, die Wärmeveränderung durch den Bezug auf die Wärmeausdehnung messbar zu machen. Damit dies erreicht werden kann, muss die Wärmeausdehnung in einen technischen Zusammenhang eingebracht werden, der die Quantifizierung erlaubt; anstatt auf das bloße Phänomen zu verweisen, soll also eine definierte Veränderung der Ausdehnung als Maß der Veränderung der Wärme etabliert werden.80 Ohne den historischen Gang des Thermometerbaus im Einzelnen nachzuzeichnen, wollen wir im Folgenden die systematischen Probleme herausarbeiten, die zu lösen waren, um eine objektive Messgröße zu etablieren. Ein solcher Übergang von lebensweltlicher in vorwissenschaftliche Praxis ist dann möglich, wenn der Zweck der Bereitstellung eines objektiven Maßes z. B. durch die immer weitergehende technische Kontrolle der Bedingungen der Veränderung des Volumens der jeweiligen Messsubstanzen realisiert wird. Jedoch wird dabei das Wissen darüber vorausgesetzt, dass die Erwärmung nicht notwendig zu einer Expansion führt, die sich bei konstantem Volumen (etwa im Kolben eines einfachen Gasthermometers) nämlich auch als Drucksteigerung zeigen kann. Nur bei weitgehender Konstanthaltung des Drucks ist die Volumensteigerung aussagekräftiger Indikator der ‚Wärmezufuhr‘. Dies zeigt zugleich, dass es nicht auf die Dispositionen81 alleine ankommt, sondern eben auf deren Einbindung in technische Arrangements. Es handelt sich dabei letztlich um eine jener ingenieurstechnischen Problemlösungen,82 mit denen wir allgemein die experimentelle Basis der Funktionsform moderner Wissenschaften charakterisieren können.83 Wir wollen diesen Vorgang, bestimmten Dispositionen eine experimentell handhabbare Form zu verleihen, als Operationalisierung bezeichnen. Diese hat einen eigentümlich medialen Charakter, da die
Es handelt sich also explizit um eine Zwecksetzung der Temperaturmessung (dazu Gerd Hanekamp, Protochemie: vom Stoff zur Valenz, Würzburg 1997). 80 Maß und Größe beginnen also auseinanderzutreten – verdeckt wird diese Differenz u. a. durch das Überwiegen der unstrittig komplexen technischen Probleme. 81 Dispositionelle Ausdrücke sind also mehrstellig, wobei eine Stelle durch den Bezug auf die verfügbaren Mittel belegt wird. ‚x ist z-lich‘ ist mithin ebenfalls elliptisch. 82 Dies zeigt sich exemplarisch daran, dass auf diese Weise der Unterschied zwischen Barometer (konstante Temperatur) und Thermometer (konstanter Druck) technisch etabliert werden kann. 83 Cassirer (Fn. 14), Substanzbegriff, zeichnet den Übergang von Substanz- zu Funktionsbegriffen als eine Grundbewegung moderner Wissenschaften nach. Der von uns verwendete Maßbegriff ist ein Beispiel für diesen argumentativen Zug. 79
31
32
Marcus Elstner / Mathias Gutmann / J ulie Schweer
Disposition sich einerseits erst in ihrer experimentellen, handlungsrelativen Fassung als verlässliches Wissen von Wirklichkeit erweist, andererseits aber dasjenige, was sich als Disposition – etwa der Wärmeausdehnung – zeigt, nicht dem handelnden Zugriff einfachhin zuzuschreiben ist. Auf der Grundlage solcher experimental zwar nicht erzeugter, aber präparierend zugänglich gemachter ‚Widerständigkeit‘ ist es u. E. überhaupt erst möglich, Maßbegriffe zu bilden. Wir werden im weiteren nachzeichnen, wie durch Formalisierung und Mathematisierung experimentell präparierter Dispositionen diese Widerständigkeit gleichsam funktionell ‚aufbewahrt‘ wird. 6.3
Grenzen der Operationalisierung
Während die technische Beherrschung lebensweltlich vertrauter Dispositionen den methodischen Anfangspunkt der Etablierung von Temperaturbegriffen bildet, scheitert ein ausschließlich empirisches Vorgehen daran, Temperatur als eine verfahrens- und situationeninvariante Größe auszuweisen – und zwar ausdrücklich unabhängig von der Tatsache, dass ein solches Vorgehen die Etablierung nützlicher Skalen erlaubt. Allerdings dehnen sich verschiedene Materialien bei gleicher Wärmezufuhr unterschiedlich stark aus, was eine einheitliche Definition der Temperatur anhand der Volumenänderung unmöglich macht. Erschwerend kommt hinzu, dass die Volumenänderung von der Temperatur selbst abhängig ist. Auch wenn diese Unterschiede bei verdünnten Gasen weniger ausgeprägt sind, verhindern sie dennoch zum einen die Definition einer absoluten Temperatur, zum anderen ergeben sich nicht eliminierbare Genauigkeitsgrenzen der Temperaturbestimmung, die in praktischen Anwendungen relevant sind.84 Neben der Bauart ist also auch das Material ein zu kontrollierender Aspekt – eine gewisse Willkür in der Geschichte der Definition der Temperatur kann daher nicht überraschen. Für eine einheitliche Skala benötigt man nämlich – wie bei Carnap gesehen – einheitliche Referenzpunkte zur Eichung, woraus sich notwendig der Vergleich ergibt, den wir oben als mehrstellige Struktur rekonstruiert hatten. Erst die Referenzpunkte erlauben die Normierung der Wärmeausdehnung eines Stoffes, die dann als Maß für die Temperatur eines Körpers verwendet werden kann.85 Bei gleichem apparativen Aufbau und Füllmaterial sind mithin Thermometer herstellbar, die übereinstimmende Anzeigen der Wärmeänderung erlauben. Obwohl uns die Operationalisierung also verlässliche und im Rahmen vor- wie wissenschaftlicher Verwendung stabile Messmöglichkeiten für Temperaturdifferenzen
84 85
Vgl. Max Planck, Vorlesungen über Thermodynamik, Leipzig 1897, § 4–9. Technisch ist das im Prinzip handhabbar, aber keinesfalls trivial (siehe Chang (Fn. 68), Invent. temp.).
„Für sich bestehende Undinge“?
liefert, bleibt dies systematisch unbefriedigend, da sich wiederum einer jener Zirkel86 einstellt, denen wir oben bei Carnap schon begegneten. Selbst wenn aber Messsubstanzen ausgemacht werden können, die hinsichtlich ihrer Ausdehnung bei Erwärmung zueinander hinreichend ähnlich sind, bleibt gleichwohl die Frage bestehen nach der ‚internen‘ Gleichförmigkeit, danach also, ob die Ausdehnung einer thermometrischen Substanz auf jedem Temperaturniveau gleich ist. Nach Schlaudt87 ist ein Homogenitätsprinzip für Messsubstanzen der Temperatur durch eine Kontrolle ihrer Ausdehnung alleine nicht zu erhalten: Um gemessene Temperaturdifferenzen von Körpern auf unterschiedlichen Temperaturniveaus mithilfe einer Beschreibung ihrer Ausdehnung als gleiche auszuweisen, muss nämlich ein Kriterium zur Prüfung dieser Gleichheit schon in Anspruch genommen werden; es müsste letztendlich vorausgesetzt werden können, dass mit gleicher Erhöhung des Volumens die gleiche Zunahme der Temperatur einhergeht.88 Um diese Überlegung zu veranschaulichen, ist die Form einer Gleichung näher anzusehen, durch welche im Rahmen der Thermodynamik die genannte Temperaturabhängigkeit der Ausdehnung beschrieben wird: dV = a(T) dT.
(1)
dV ist die Volumenveränderung eines Körpers (Gas, Flüssigkeit oder Festkörper) bei Temperaturveränderung um dT. a(T) ist ein Koeffizient, der die Volumenveränderung mit der Temperaturveränderung angibt, welche bei Gasen am größten ist, gefolgt von Flüssigkeiten und Festkörpern. In dieser Formel wird deutlich, dass Ausdehnungskoeffizient eben nicht nur vom Material sondern seinerseits von der Temperatur abhängt. Wollte man daher die obige Gleichung als Ausgangspunkt für die Einführung von Temperatur als physikalische Größe wählen, benötigte man schon ein Maß dessen, was eigentlich erst etabliert werden soll. Denn im Zuge des operationalistischen Verständnisses geschieht die Einführung der Temperatur, wie wir gesehen haben, über die Zuordnung zu einem Volumen, dessen Veränderung beobachtet und das über den Koeffizienten a(T) in eine Temperatur umgerechnet werden kann. Soll nun Temperatur als Maß für den Wärmezustand von Körpern erfasst werden, geht man davon aus, dass letztere ihre Wärmezustände ‚selbst anzeigen‘ – doch worin diese Wärmezustände ihrerseits bestehen, bleibt weiterhin unklar. Auch wenn zusammenfassend der Bau von Thermometern, die Wärmeänderungen vergleichbar anzeigen können, in einem gewissen Umfang operativ gelingt, so haben wir eben nicht das erreicht, was wissenschaftlich (!) bezweckt war. Denn die Frage nach
Die beständige Auseinandersetzung mit den verschiedenen, in der Geschichte der Thermometrie und bei der wissenschaftlichen Begriffsbestimmung aufkommenden Zirkeln, prägen in weiten Teilen die Geschichte der Thermodynamik. (s. Chang (Fn. 68), Invent. temp., 221 f.). 87 Vgl. Schlaudt (Fn. 4), Messung als Handlung, 131 ff. 88 S. Schlaudt (Fn. 4), Messung als Handlung, 133. 86
33
34
Marcus Elstner / Mathias Gutmann / J ulie Schweer
der Universalität einer Größe innerhalb einer Theorie (und nicht nur für ingenieurstechnischen Verwendungen) hebt auf das grundlegende Problem ab, ob sich Beschreibungen finden lassen, die die Einführung physikalischer Größen gestatten, welche nicht von Materialkonstanten oder technischen Zurichtungen abhängen. An dieser Stelle ist der Vergleich mit der ‚Härte‘ instruktiv, deren Maß im Grundsatz auf die gleiche Weise eingeführt wird, die wir für die Temperatur skizziert hatten.89 Entsprechend gibt es verschiedene Definitionen von Härte, je nach dem technischen Verfahren, mit dem sie gemessen wird, wie etwa durch den Druck eines anderen Gegenstands, oder durch Reiben an demselben. Tatsächlich gelingt also auch hier die Operationalisierung ebenso wie die Quantifizierung, sodass der Härtegrad wie die Temperatur für die jeweiligen Messverfahren zu indizieren wäre. Daher spielen dann die oben angeführten Normierungen eine wichtige Rolle, legen wir doch durch technische Normen (z. B. DIN) genau solche Verfahren prozedural und rechtlich fest, nach welchen die Beurteilung gewisser Eigenschaften etwa durch einen Gutachter zu geschehen habe. Auch wenn nun im Zuge der Operationalisierung spezifiziert wird, wie Temperatur – analog zur Härte – auf verschiedene Weise gemessen werden kann, ist also nach wie vor nicht klar, ob die Messung jeweils auf dieselbe physikalische Größe referiert. In einem strengen Sinne ist Universalität in empirischen Kontexten allerdings nur durch Abstraktion und Idealisierung zu erreichen. Dies geschieht, wie wir sehen werden, bei der Temperatur in zwei Schritten, die wir als Formalisierung und Mathematisierung bezeichnen wollen. 6.4
Formalisierung und Mathematisierung: der Übergang zur Theorie
Der erste Schritt bezeichnet eine Abstraktion, eingeführt über technisch beherrschte Situationen (genauer Situationstypen), an welchen sich eine Idealisierung anschließt. Damit wird die Rede von einem ‚gemeinsamen Zustand‘, in dem sich zwei oder mehrere Körper nach Wärmeaustausch befinden, motiviert. Sind nämlich zwei Körper in thermischem Kontakt, werden sie also so zusammengebracht, dass Wärme zwischen ihnen ‚fließen‘ kann, so stellt sich nach einer gewissen Zeit (der sog. Relaxationszeit, s. Abb. 1) ein ‚Ausgleich‘ – thermisches Gleichgewicht genannt – ein, der sich als ‚gemeinsamer Zustand‘ beschreiben lässt und von den jeweiligen Zuständen der einzelnen Körper abhängt. Die so ausgezeichneten Zustände lassen sich im nächsten Schritt technisch immer weitergehend realisieren, was ihre formale Spezifikation durch Idealisierung erlaubt. In diesem Zusammenhang können wir nun von der besonderen Form der Körper abstrahieren und zur Rede von Systemen übergehen. Verstehen wir die in Wärmekon-
89
Darauf macht auch Carnap aufmerksam – s. o.
„Für sich bestehende Undinge“?
takt stehenden Systeme als ‚ideal realisiert‘, indem wir vollständige adiabatische Isolation, diatherme Durchlässigkeit, homogene Materialien, Messgase etc. unterstellen90 und fassen diese Systeme hinsichtlich ihres Zustandes als ausschließlich durch ihre Drücke und Volumina charakterisiert auf – die wir mechanisch kontrollieren können –, dann sähe ein idealer Versuch zur Beschreibung des Gleichgewichts etwa wie folgt aus: Drei gasgefüllte und mit einem beweglichen Kolben ausgestattete Zylinder werden in (idealen) diathermen Kontakt gebracht und dabei (ideal) adiabatisch von ihrer Umgebung isoliert. Über eine gewisse Zeit hinweg werden sich die Volumina der gekoppelten Zylinder verändern und schließlich bei bestimmten Werten stabilisieren. Entfernen wir anschließend den mittleren und bringen die beiden äußeren in Koppelung, so sollte sich keine Veränderung der Volumina ergeben.91
Abb. 1 (a) zeigt drei Zylinder A, B und C, die untereinander durch diatherme Wände verbunden und als Gesamtsystem adiabatisch von ihrer Umgebung isoliert sind. Komprimiert man einen der Zylinder, ändern sich die Volumina aller drei Zylinder und erreichen nach einer Relaxationszeit stabile Werte. Entfernt man, wie in Bild (b) dargestellt, den mittleren Zylinder und bringt A und C in diathermen Kontakt, ändern sich die Volumina nicht mehr.
Insofern sich die im idealisierten Versuchsaufbau beschriebenen Systeme (Zylinder) hinsichtlich ihrer Drücke und Volumina gegenseitig beeinflussen und nach einer Weile des Wärmekontakts ins Gleichgewicht kommen, das sich, wenn es zwischen zwei Systemen A und B sowie zwischen B und C besteht, auch zwischen A und C zeigt, können wir formulieren, dass es in diesem thermischen Gleichgewicht funktionale Abhängigkeiten zwischen den relevanten Variablen aller drei Systeme gibt.92 Wir können im Vergleich zu solchen Systemen Realisate derselben als potentiell gestört auffassen; dies erlaubt die immer weitergehende Realisierung jener (idealen) Bedingungen, nach deren Maßgabe die ‚wirklichen‘ Systeme konstruiert werden. 91 Wir reden hier unabhängig von jederzeit zu konstatierenden Mängeln der jeweiligen Realisierung. Die Transitivität des thermischen Gleichgewichts gilt also streng genommen nur für ideale Systeme. Nicht folgt daraus aber die Tatsache, dass wir in hinreichend gut präparierten Systemen genau diese Transitivität auch finden. 92 Genau dies beschreibt der 0. Hauptsatz der Thermodynamik; s. Marcus Elstner, Physikalische Chemie I: Thermodynamik und Kinetik, 2017. 90
35
36
Marcus Elstner / Mathias Gutmann / J ulie Schweer
Damit ist der zweite der angekündigten Schritte, die Mathematisierung, möglich, da sich recht einfach zeigen lässt, wie die vier Variablen von je zwei Systemen, p1, V1 sowie p2, V2, im thermischen Gleichgewicht voneinander abhängen. Ändert man z. B. p1, so wird sich auch in System 2 p2 oder V2 ändern. Diese Abhängigkeit findet man jeweils für die Systeme 1 und 2 sowie 2 und 3, womit die Forderung der Transitivität, die empirisch nachprüfbar ist, zu einer entsprechenden Abhängigkeit auch für die Systeme 1 und 3 führt. Das resultierende Gleichungssystem, das man aus diesen Verhältnissen gewinnt, ist mathematisch überbestimmt und erlaubt den Schluss auf die mathematische Existenz einer eindeutigen Funktion T(p, V), die wir Temperatur nennen, für welche gilt:93 T1 = f1(p1, V1) = T2 = f2(p2, V2) = T3 = f3(p3, V3)
(2)
Die Transitivität des Gleichgewichts führt also zu einer Zustandsgröße, die für die Systeme im thermischen Gleichgewicht übereinstimmt, sodass sich jedem thermischen Gleichgewicht eine Funktion eindeutig zuordnen lässt. Weist man dieser Funktion die intensive physikalische Größe Temperatur zu, und verwendet als Referenzsystem, z. B. System B in Abb.1, ein beliebiges Material, können – nach entsprechender Eichung – beliebige thermische Gleichgewichte quantifiziert werden, indem dessen Volumen als Maß des thermischen Zustands dient. Eine allgemeine Charakterisierung von Substanzen durch (materialspezifische) Zustandsgleichungen p(V, T) finden wir beispielsweise schon bei Planck,94 wobei es sich dort um eine empirische Relation handelt, die durch die ideale Gasgleichung95 ausgedrückt wird, welche diesen Zusammenhang für ein idealisiertes Modellsystem mit p = nRT/V formuliert. Allerdings kann auf diese Weise, wie oben beschrieben, immer nur eine für ein Material spezifische Temperaturskala ausgezeichnet werden, eine „(…) von den Eigenschaften einzelner Körper völlig unabhängige Definition, gültig für alle Wärme- und Kältegrade (…)“96 ist so nicht zu erhalten. Eine solche Einführung einer eindeutigen Funktion – der Temperaturfunktion – für alle Systeme im thermischen Gleichgewicht gelang schließlich Carathéodory, dessen Axiomatisierung unseres Erachtens auch das oben genannte immanente epistemische Interesse physikalischer Theoriebildung befriedigt, welches seinen Ausdruck in der Explikation des Zusammenhanges der Temperatur mit den anderen thermodynamischen Größen findet.97
Für eine detaillierte Darstellung s. Elstner (Fn. 92), Physik. Chemie I, 30 f. Planck (Fn. 83), Vorl. Thermodynamik, § 8–9. Diese gestattet es wirkliche Gase mit sehr geringer Dichte (wodurch von der Ausdehnung und gegenseitigen Anziehung der Moleküle abstrahiert werden kann) als Instantiierung des idealen Zusammenhanges zu verstehen. 96 Vgl. Planck (Fn. 83), Vorl. Thermodynamik, § 5. 97 Siehe Constantin Carathéodory (1909), Untersuchungen über die Grundlagen der Thermodynamik, Math. Ann. 67. 93 94 95
„Für sich bestehende Undinge“?
6.5
Der Übergang zur Zustandsgleichung und Temperatur als Maßbegriff
Obgleich unsere Darstellung der Entwicklung des Temperaturbegriffes mit der Wärme begann, tritt diese bei den Schritten, die zur Bestimmung von Temperatur als Funktion von p und V führen, nicht mehr auf. Die Wärme ist selbst nicht als Funktion des Zustands darstellbar,98 wohl aber andere zentrale Zustandsgrößen wie die innere Energie U(p, V) oder die Entropie S(p, V). Eine wesentliche Errungenschaft der Charakterisierung von Zustandsgrößen wie T, U und S besteht darin, dass sich ihre Abhängigkeit zu anderen grundlegenden Größen der Thermodynamik auf allgemeine Weise mathematisch beschreiben lässt. Diese Bestimmung von T als Zustandsgröße auf der Grundlage der skizzierten Mathematisierung markiert unseres Erachtens zwei zentrale methodische Elemente der begrifflichen Konstruktion: 1. Mit der funktionalen Einführung von ‚T‘ als Größe T = f(p, V) ist neben dem Zugriff auf einen dispositionellen Zusammenhang – die Wärmeausdehnung – ein definitorischer Schritt getätigt. Dies mag überraschen, wird doch mit ‚Definition‘ häufig, wie oben gesehen, ein konventionelles (und insofern willkürliches) Moment verbunden. Da sich T aber auf einen explizit physikalischen Vorgang bezieht, ist dieser nicht willkürlich, gleichsam frei gewählt – im Gegensatz zu seiner mathematischen Form.99 Hier zeigt sich nun die Relevanz funktioneller Darstellungen dispositioneller Abhängigkeiten, denn in dieser Form erhalten sie Eingang in die mathematische Struktur der physikalischen Theorie, hier also der Thermodynamik. Die Definition von T ist daher ein gutes Beispiel für einen theoriegestützten Term (und repräsentativ für die anderen Zustandsgrößen), da in der Zustandsgleichung mit der Temperatur eine Größe ins Spiel kommt, deren Abhängigkeit von p und V nicht selbst ‚direkt beobachtbar‘ ist; sie dient vielmehr der Charakterisierung des thermischen Zustandes. Die Temperatur, d. h., die Charakterisierung des Zustands, ‚zeigt‘ sich selbst an dem Verhalten der Dinge, an ihrer ‚Reaktion‘ auf eine Erwärmung. 2. Durch die mathematische Darstellung als Funktion des Zustands aber, bleibt der ontologische Status der Zustandsgrößen unbestimmt. War die Temperatur in einer substantialistischen Auffassung ein Maß für die Menge eines
Während vorher (z. B. Planck (Fn. 83), Vorl. Thermodynamik, § 160 ff.) die absolute Temperatur über den Entropiebegriff eingeführt wurde, welcher aber selbst von der Temperatur abhängt (und damit eine zirkuläre Begründungsstruktur darstellt), kann nun der thermodynamische Zustand direkt mit einem absoluten Temperaturmaß in Verbindung gebracht werden. 99 Konventionell ist zum einen die Wahl der (Kelvin-) Skala, welche in dem Gasgleichung pV=nRT durch die Gaskonstante R spezifiziert ist. Zudem aber, und darauf macht Born (1921) aufmerksam, handelt es sich schlicht um die einfachste Darstellung eines Zusammenhangs von Zustand und Temperatur. Man hätte die Temperatur auch anders definieren können, z. B. über eine beliebige andere Form T =(pV/nR)2 oder T = log (pV/nR). 98
37
38
Marcus Elstner / Mathias Gutmann / J ulie Schweer
Wärmestoffs, wird die Referenz der Zustandsgrößen nicht explizit in der Formalisierung thematisiert. Dies kann als eine direkte Folge der operationalen Definition verstanden werden, da T sich in der Volumenänderung zeigt, der Grund für diese Änderung aber nicht mehr in materiellen Vorgängen oder Eigenschaften, sondern in der Darstellung als Funktion gefunden wird. Insofern trägt der oben skizzierte Ausweis der Existenz einer Funktion T(p, V) durch Carathéodory nichts zu einer physikalischen Bestimmung der Temperatur bei, sondern definiert die Zustandsgrößen als Funktionen in einem mathematischen Raum.
Abb. 2 p-V-Diagramm, in welchem eine isotherme Zustandsänderung durch eine Linie im mathematischen Zustandsraum exemplarisch beschrieben wird. Die Isotherme markiert eine Zustandsänderung bei konstanter Temperatur. Jedem Punkt (p, V) in diesem mathematischen Raum kann eine Funktion T(p, V) zugeordnet werden. Analoges gilt für U und S.
Die epistemologischen Konsequenzen lassen sich in Abb. 2 verdeutlichen. Nur durch den Bezug auf den mathematischen Raum kann sinnvollerweise von der „Existenz“ der Zustandsgrößen gesprochen werden. Die drei Hauptsätze der Thermodynamik, von denen wir hier nur den 0. ten detailliert diskutiert haben, sind im Prinzip Existenzaussagen, die die Darstellung der Größen T, U und S als Funktionen des Zustands, also als Funktionen der Größen p und V, ermöglichen. Da aber nur die prinzipielle (mathematische) Existenz behauptet wird, ist jede empirische Realisierung von p(V, T) als Approximation100 an die mathematische Idealität verstehbar. Wir vermeiden damit sowohl ein realistisches Verständnis jener Funktionen, mit welchen wir die Zustandsgrößen darstellen, als auch ein nur operationales, das wir für die Härte in Anspruch nehmen können. Denn für diese gilt gerade nicht, dass sie sich allgemein als Funktion eines physikalischen Zustands darstellen lässt. Die Spezifizierung eines Gleichgewichts – das
Wir nähern uns also nicht einer mathematisch verfassten Realität an, sondern können nun sagen, dass wir die Beschreibung des Verhaltens realer Materialen als Approximationen an ideale mathematische Funktionen auffassen. So wie das ideale Gas eine Approximation an die reale Gasgleichung ist, und diese als Taylorentwicklung 2. Ordnung aus der (unbekannten) Funktion p(V, T) hervorgeht (Elstner (Fn. 92), Physik. Chemie I, 37). 100
„Für sich bestehende Undinge“?
dem thermischen entspräche – kann man zwar auch im zuvor thematisierten Fall der Härte unternehmen und Äquivalenzklassen gleich harter Gegenstände etablieren, um auf diese Weise ein Maß zu konstruieren. Der Unterschied besteht aber darin, dass der Vorgang selber – das Einstellen des ‚Gleichgewichtes‘ – von der Bauart des Messgerätes abhängig bleibt. Im Gegensatz zum Wärmezustand im thermischen Gleichgewicht gibt es keinen Härtezustand im Härtegleichgewicht. 7.
Erklären und Beschreiben
Nicht selten stößt man auf die Erwartung, die Einführung wissenschaftlicher Grundbegriffe könne eine Erklärung grundlegender Dispositionen liefern, in dem hier betrachteten Fall die der Ausdehnung von Körpern bei ihrer Erwärmung. Dies spiegelt sich auch in der verbreiteten Redeweise wieder, dass etwa die Ausdehnung eines Gegenstandes herrühre vom Ansteigen seiner Temperatur. Unserer Skizze der Rekonstruktion des wissenschaftlichen Temperaturbegriffs zeigt allerdings, dass der Verweis auf die Temperatur eines Körpers alleine nicht nur keine Erklärung der Dispositionen erlaubt, sondern vielmehr umgekehrt das Vorwissen über das Verhalten solcher Körper schon in Anspruch nimmt.101 So ist etwa der in Abschnitt 6.4. dargestellte, idealisierte Versuchsaufbau zur Beschreibung des thermischen Gleichgewichtzustands zwischen Körpern gerade darauf angewiesen, dass nicht nur Wissen um die Struktur grundlegender Dispositionen, sondern auch um deren technische Beherrschung verfügbar ist: Dass Körper sich bei Erwärmung ausdehnen und untereinander Wärme austauschen, kann beobachtet und beschrieben werden; dies aber ist in Bezug auf den genannten Versuchsaufbau viel eher (materiale) Gelingensbedingung zu dessen Herstellung102 und Anfang für die Etablierung von Temperatur als physikalischer Größe denn mögliches Explanandum. Während sich im substantialistischen Denken die Wärmeausdehnung als Wirkung des angereicherten Kalorikums auffassen ließe und damit noch als Gegenstand von Erklärungen in Frage käme, markiert die Hinwendung zu einem materialübergreifenden und schließlich universalen Maß eine ‚Verschiebung‘ der Rolle der Dispositionen: Statt auf eine Erklärung zentraler Phänomene richtet sich der Fokus nun darauf, letztere im Rekurs auf vorwissenschaftlich verfügbares Wissen über die Struktur der DisOhne in eine intensive Diskussion der Bestimmung von Naturgesetzen, der Unterscheidung von Laborgesetzen, ihrem jeweiligen Status etc. eintreten zu können, scheint es uns vor dem Hintergrund unserer Rekonstruktion angebracht, auf dem funktionalen Charakter der Formalisierung und Mathematisierung der Gasgleichung zu bestehen. Dies hat seinen Grund in dem Bemühen, einem kausalen Verständnis von ‚Naturgesetzen‘ zu entgehen – welches dazu (ver-)führen mag, eine beobachtbare Regelmäßigkeit von Vorgängen oder die Abhängigkeit der verschiedenen Merkmale von Gegenständen als Wirken von Naturgesetzen zu beschreiben. 102 Stellt sich etwa heraus, dass die Wände der einzelnen Gefäße keinen Wärmeaustausch zulassen, so würde dies nicht zu einer Revision der Vorannahmen, sondern zur Attestierung einer Fehlfunktion führen. 101
39
40
Marcus Elstner / Mathias Gutmann / J ulie Schweer
positionen gezielt technisch zu kontrollieren, um quantitative Beschreibungen warmer und kalter Körper zu ermöglichen. Diese Überlegung können wir im Lichte unserer funktionalistischen Darstellungen verschärfen, denn moderne Wissenschaften sind durch eine radikale Neuorientierung des Fragens und Antwortens gekennzeichnet, die sich schematisch durch den – schon oft bemerkten – Übergang von Fragen des ‚warum‘-Typs zu jenen des ‚wie‘-Typs charakterisieren lässt. Die grundlegenden physikalischen103 Gleichungen, wie die oben behandelte ideale Gasgleichung V = nRT/p oder die Newtonsche Kraftgleichung, F = G mM r2 , geben eben keinen ‚Mechanismus‘ an, der erklärte, warum sich Gase ausdehnten oder Massen anzögen.104 Vor diesem Hintergrund steht auch die anfänglich mit dem Verweis auf Augustinus aufgezeigte irritierende – und keineswegs auf alltägliche Zusammenhänge beschränkte – Erfahrung, bei der Klärung gleichsam vertraut erscheinender Grundbegriffe in Schwierigkeiten zu geraten, in einem gewissen Einklang mit den Ergebnissen der vorherigen Abschnitte. Denn die Herausbildung des theoretischen Temperaturbegriffs ist zwar anfänglich durchaus von der Bemühung geprägt, Ordnung in die Welt der Gegenstände zu bringen, die lebensweltlich als kalt oder warm durch Berühren erfahrbar sind. Auf diesen Anfang ist der wissenschaftliche Temperaturbegriff aber keinesfalls reduzierbar. Mehr noch scheinen u. a. die zentralen Dispositionen bei der Herausbildung des wissenschaftlichen Temperaturbegriffs unerklärt zu bleiben – was nicht ausschließt, sie ihrerseits zum Gegenstand nachgelagerter Beschreibungen zu machen. Es verwundert vor diesem Hintergrund nicht, dass die Thermodynamik ein vielbeachteter Kandidat ist, wenn es um philosophische Bemühungen zur Theorienreduktion geht; in deren Rahmen etwa erörtert wird, inwiefern ‚Temperatur‘ reduziert werden könne auf die mittlere kinetische Energie der Teilchen in diesen Systemen. Nicht selten sind solche reduktivistischen Bemühungen von explanatorischen ‚Hoffnungen‘ getragen: Könnte man nicht Temperatur oder das, worauf wir mit ‚Temperatur‘ Bezug nehmen, besser (und eben nicht nur anders) verstehen, wenn sich zeigen ließe, dass die Gleichungen, in denen sich die Abhängigkeit der Temperatur zu anderen Größen ausdrückt, aus einer mikroskopischen Beschreibung von Gasen ableitbar sind?105
Tatsächlich gilt das auch für andere Wissenschaften, etwa die Biologie (s. Mathias Gutmann, Peter Nick, Modellbildung, in: Modellorganismen (hg. von P. Nick u. a.), Berlin 2019). 104 Ernst Cassirer, Wahrheitsbegriff und Wahrheitsproblem bei Galilei (1969), in: Ders., Aufsätze und kleine Schriften (hg. von W. Krampf) Frankfurt 1937, 90 ff.; Ernst Cassirer, Galileo Galilei: Eine neue Wissenschaft und ein neues wissenschaftliches Bewußtsein (1969), in: Ders., Aufsätze und kleine Schriften (Hg. von W. Krampf), Frankfurt 1942, 115 ff. weist darauf hin, dass Galilei nicht nur neue wissenschaftliche Einsichten einführte, sondern eine neue Art Wissenschaften zu betreiben. Genau das sehen wir hier, wenn Galilei und Newton zwar formale Strukturen entwickeln, die den freien Fall (Fallgesetze) oder die Gravitationskraft mathematisch darstellen. Sie erklären damit aber nicht, warum Körper fallen, bzw. sich anziehen. 105 Für eine prominente Thematisierung der Theorienreduktion siehe etwa Ernest Nagel, The Structure of Science: Problems in the Logic of Scientific Explanation, New York 1961. 103
„Für sich bestehende Undinge“?
Während den Fragen nach dem Gelingen reduktivistischer Ansätze an dieser Stelle nicht weiter nachgegangen werden kann, so ist doch interessant, dass offenbar eine ‚Leerstelle‘ empfunden wird, die mit dem wissenschaftlichen Verständnis von Temperatur nicht gefüllt werden kann. Gleichwohl ermöglicht es die Konstruktion des wissenschaftlichen Begriffs ‚Temperatur‘, der Rede von ‚wärmer als‘ oder ‚kälter als‘ Präzision und kontextübergreifende Geltung zu verleihen. Genau genommen erlaubt es überhaupt erst die wissenschaftliche Begriffskonstruktion, situationsinvariante Geltungsansprüche bei der Verwendung der genannten Ausdrücke in mehrstelligen Prädikaten zu qualifizieren: Durch die Bestimmung von Temperatur als Maß abstrakt gefasster Wärmezustände und damit als einer eindeutigen Größe im mathematischen Zustandsraum können wir die Geltung von Feststellungen wie die, dass ein Gegenstand – entsprechend seiner Temperatur – wärmer oder kälter als ein anderer ist, von konkreten Messsituationen und -geräten abstrahierend verteidigen. 8. Schluss
Der Ausgangspunkt unserer Überlegungen war die Frage nach der Art und Weise der Herausbildung wissenschaftlicher Grundbegriffe. Im Zuge der Operationalisierung der Temperatur konnte bereits ein wichtiges Ziel messpraktischer Bemühungen erreicht werden – und zwar der (in begrenztem Ausmaß) zuverlässige Vergleich der Wärmeausdehnung von Körpern. Gleichwohl – dies der zentrale Punkt unserer Überlegungen – blieb doch auf dem Stand der Operationalisierung ein weiteres, spezifisch wissenschaftliches Bedürfnis offen, dasjenige nämlich nach der Ausweisung einer Größe, die diesen Systemen invariant zu partikularen Messsubstanzen oder -verfahren zuzusprechen sei, sowie daran anschließend deren Verhältnis zu anderen Größen auf allgemeine Weise in einem Theorierahmen (hier der Thermodynamik) zu artikulieren. Dies konnte eingeholt werden durch die Entwicklung des funktionalen Zusammenhanges der Zustandsgrößen p und V mit dem auf die Formalisierung von Systemen zurückgehenden, mathematisch beschreibbaren Gleichgewicht, was Temperatur als thermodynamische Zustandsgröße bestimmte. Der Status dieser Größe innerhalb der Theorie ist damit funktional bestimmt und unabhängig von der Operation und dem Material, mit dem T gemessen wird. ‚T‘ wird auf diese Weise als theoretische Größe ausgezeichnet, die ihren eindeutigen Platz im mathematischen Zustandsraum findet (vgl. Abb. 2). Es handelt sich also nicht um eine nachträgliche Konzeptualisierung eines vortheoretischen Gegenstandes; vielmehr wird ‚Temperatur‘ erst in der Theorie als Maßbegriff konstituiert und konstruiert.106 Da wir die hier für die Physik relevanten Dispositionen als Ausdruck experimenteller Prä-
106
Beide Aspekte sind für den wissenschaftlichen Sprachaufbau bedeutsam – wie gesehen.
41
42
Marcus Elstner / Mathias Gutmann / J ulie Schweer
paration von Widerständigkeitserfahrungen eingeführt haben, ist damit weder bloßer konventioneller Willkür noch dem realistischen Appell an den „myth of the given“, um es mit Sellars zu sagen, das Wort geredet. Kommen wir abschließend zurück zu der eingangs beschriebenen Herausforderung der Semantik wissenschaftlicher Begriffe, dann zeigt sich die Analogie zu anderen physikalischen Grundbegriffen: Bei der Quantifizierung und mathematischen Begriffsbildung gehen lebensweltliche und vorwissenschaftliche Bedeutungen verloren. Auch kann, wenn T über die Bestimmung von Gleichgewichtszuständen als Funktion im Zustandsraum gefasst wird, die formale Bedeutung von Temperatur nicht reduziert werden auf die operationale.107 Wenngleich wir in der wissenschaftlichen Begriffskonstruktion die Rede von Gegenständen zuschreibbaren, von subjektiven Maßen unabhängigen Zuständen wieder aufgreifen konnten, so ist doch der thermische Zustand nun letztendlich abstrakt als Äquivalenzklasse verstanden, mithin als Eigenschaft, die zwar allen solchen Systemen unter Bedingungen zukommt, welche sich spezifizieren und ausweisen lassen, die es aber nicht erlaubt, die grundlegenden Dispositionen108 selber unter dem Rekurs auf den bedingten ‚Zustand‘ zu erklären. Danksagung
Die Autoren danken Vega Pérez Wohlfeil für die Anfertigung der Abbildungen. Marcus Elstner
Universität Karlsruhe, Institut für Physikalische Chemie, Theoretische Chemische Biologie, Geb. 30.44, Kaiserstr. 12, 76131 Karlsruhe Mathias Gutmann
Universität Karlsruhe, Institut für Philosophie, Douglasstr. 24, 76133 Karlsruhe Julie Schweer
Universität Karlsruhe, Institut für Technikfolgenabschätzung und Systemanalyse (ITAS), Postfach 3640, 76021 Karlsruhe
Hier wird zugleich ein weiterer Unterschied zur Zeit deutlich: Sie ist, mit Carnap gesprochen, kein T-Term und es gibt keine Zustandsgleichung der Zeit. 108 Schon Josef König, Bemerkungen über den Begriff der Ursache (1949), in: Ders., Vorträge und Aufsätze, (hg. von G. Patzig), 1978, 122 ff., weist auf das Missverständnis solcher Erklärungen hin, die er auf die Verwechslung praktischer und theoretischer Ursachen zurückführt. Unser Vorschlag erlaubt zudem aber die Explikation des Zusammenhanges von Operationalisierung, Formalisierung und Mathematisierung. 107
Funktionen des Verstehens Zur Logik von Erklären und Verstehen in den Wissenschaften
BENJAMIN RATHGEBER
Abstract: In den Ausdrücken „Verstehen“ und „Erklären“ lassen sich zwei grundlegende Modi le-
bensweltlichen und wissenschaftlichen Erkennens zusammenfassen. Ideengeschichtlich sind sie häufig dazu genutzt worden, die verschiedenen Vorgehensweisen in den Geistes- und den Naturwissenschaften hervorzuheben. Naturwissenschaftliches Erklären habe dabei den Anspruch, die jeweiligen Ursachen, Mechanismen oder Gesetze von Sachverhalten offenzulegen, wohingegen geisteswissenschaftliches Verstehen die leitenden Gründe, Funktionen oder Motive aufzeige. Diese Unterscheidung findet sich bis heute in diversen wissenschaftstheoretischen Ausformungen und Interpretationen. In den folgenden Überlegungen soll gezeigt werden, wie diese beiden Ausdrücke zueinander in Verhältnis stehen und welche semantischen Geltungsansprüche mit Ihnen verbunden sind. Es werden sowohl Gemeinsamkeiten als auch Asymmetrien zwischen beiden Konzepten verdeutlicht. Das Ziel der Überlegungen ist, genauer zu explizieren, wie Verstehen und Erklären im wissenschaftlichsystematischen Kontext semantisch aufeinander bezogen sind.
1. Einleitung
Verstehen und Erklären gelten als zwei grundlegende Begrifflichkeiten in den Geistesund Naturwissenschaften.109 Allgemein werden in ihnen diejenigen Aussagen zusammengefasst, bei denen es um die Beantwortung der Frage geht, warum etwas der Fall ist. Beispielsweise: „Warum hat am 20. Juni 1948 eine Währungsreform in Deutschland
Vgl. z. B. Thomas Haussmann, Erklären und Verstehen. Zur Theorie und Pragmatik der Geschichtswissenschaft, 1991; sowie Schurz, Gerhard (Hg.), Erklären und Verstehen in der Wissenschaft, 1990. 109
44
Benjamin Rathgeber
stattgefunden?“ – Antwort: „Um u. a. eine leistungsstärkere marktwirtschaftliche Basis in den drei westlichen Besatzungszonen zu ermöglichen.“ „Warum hat es geblitzt?“ – „Weil in einem elektrischen Feld zwischen negativ geladenen Wolken und positiv geladener Erde eine elektrische Entladung stattgefunden hat.“ Hinsichtlich der Art und Weise, wie diese Warum-Fragen beantwortet werden, lässt sich klassischerweise folgende Unterscheidung treffen. Erklärungen zielen auf Ursachen, Mechanismen oder Gesetze eines zu erläuternden Sachverhalts. Demgegenüber sind Verstehensprozesse auf Gründe, Funktionen oder Motive ausgerichtet, warum etwas getan worden ist.110 Dieser systematischen Differenz liegt die im 19. Jahrhundert getroffene Unterscheidung zugrunde, dass die Naturwissenschaften prinzipiell gesetzmäßige Erklärungen liefern, wohingegen Geistes- und Geschichtswissenschaften mehrheitlich auf Verstehensprozesse ausgerichtet sind.111 Allerdings ist diese klare Distinktion nicht so eindeutig, wie sie zunächst erscheint. Die in Verstehensprozessen gewonnenen Gründe dienen als Erklärungen für bestimmte Zusammenhänge (z. B. für die kausale Rekonstruktion eines bestimmten Tathergangs). Umgekehrt müssen die genutzten Erklärungen bereits verstanden worden sein, um überhaupt als Erklärung in Frage zu kommen. Hier liegt also ein wechselseitiges Bedingungsverhältnis vor. Dennoch scheint diese Wechselseitigkeit den terminologischen Unterschied nicht prinzipiell zu unterlaufen. Sie berührt nicht den grundsätzlichen Gegensatz, dass Erklärungen auf dahinterliegende Tatsachen verweisen, die als objektivierbare Gesetzmäßigkeiten bestehen und gerade nicht subjektabhängig sein sollen. Das Verstehen drückt demgegenüber Netzstrukturen motivationaler Verflechtungen und subjektiver Perspektiven aus, die nicht notwendig – um verstanden zu werden – auf eine dahinterliegende, objektive Struktur verweisen müssen. Um das kurz zu fassen: Erklären zielt auf objektiv und ursächlich auszuweisende Regel- bzw. Gesetzmäßigkeiten, Verstehen auf subjektiv und intentional bestimmbare Zusammenhänge. Dies trifft allerdings bei genauerer Betrachtung auch nicht (ausnahmslos) zu. Donald Davidson hat in seinem prominenten Aufsatz „Actions, Reasons, and Causes“112 dafür argumentiert, dass gerade subjektiv-intentionale Handlungen kausal zu rekonstruieren seien, insofern sie einen Anspruch auf Rationalität einlösen sollen. Die Rationalität des Handelns könne nur über einen kausal bestimmbaren Erklärungsgrund ausgewiesen und verstanden werden. Nur wenn wir einen handlungserklärenden „Primärgrund“ als Ursache für eine spezifische Handlung bestimmen können, lässt sich die Handlung als rational begreifen. Dieser Ansatz ist als „kausalistische Handlungs-
Beispielsweise: „Warum hast Du Dich für dieses Buch entschieden?“ – „Weil ich mich für Kognitionswissenschaften interessiere und es mir einen Einblick in die Grundlagen des Denkens vermittelt.“. 111 Vgl. Manfred Riedel, Verstehen oder Erklären? Zur Theorie und Geschichte der hermeneutischen Wissenschaften, 1978. 112 D. Davidson, Actions, Reasons, and Causes, in: Journal of Philosophy 60, 1963, 685–700 110
Funktionen des Verstehens
erklärung“ in die Handlungstheorie eingegangen und gilt bis heute in der analytischen Philosophie als Standardmodell von Handlungserklärungen.113 Demgemäß lässt sich mindestens eine überzeugende Theorie angeben, die eine eindeutige Trennung zwischen Erklären und Verstehen hinterfragt. Ich möchte deshalb im Folgenden dafür argumentieren, dass Verstehen und Erklären im wissenschaftlichsystematischen Kontext aufeinander bezogen bleiben sollten. In Anlehnung an Kants berühmte Formulierung werde ich für die These argumentieren,114 dass wissenschaftliches Verstehen ohne Erklären unpräzise bleibt, Erklären ohne Verstehen demgegenüber unklar. Um dies zu verdeutlichen, werde ich im Folgenden zunächst die logische Struktur des Verstehens rekonstruieren, um daran das Verhältnis zum wissenschaftlichen Erklären genauer bestimmen zu können. 2.
Zur Logik des Verstehens
Klassischerweise kann Verstehen als vierstelliges Prädikat „Person P versteht etwas als x im Kontext K“ rekonstruiert werden. Betrachten wir dieses Prädikat genauer, lassen sich unterschiedliche Relationen auszeigen. Die erste Relation betrifft die Formulierung „etwas als x“.115 Diese gibt an, dass etwas nur dadurch identifizierbar ist, wenn es durch einen (zumeist symbolisch vermittelten) Zweck x bestimmt worden ist.116 Zweitens muss diese Relation in ein Verhältnis zu „P“ gestellt werden. Verstehen ist eine Relation zwischen dem zu verstehenden Gegenstand und derjenigen Person, welche diesen als x begreift. In diesem Verhältnis zwischen Person und Gegenstand kann erst die genaue Funktion, was mit x genau gemeint ist, ermittelt werden. P stellt also den Bezugspunkt her, von dem „etwas als x“ präziser bestimmt wird. Diese Relation muss drittens noch erweitern werden, indem die verschiedenen „Kontexte K“ (d. h. die Umstände, Bedingungen und weiteren Verhältnisse) miteinbezogen werden, in denen eine Person etwas versteht. Diese Kontexte lassen sich als verschiedene Bezugsbereiche auf immer umfangreichere Ebenen ausweiten. Dementsprechend wäre das Verstehen ein gradueller Prozess, der nicht abschließbar wäre, insofern immer neue kontextuelle EbeHandlung und Grund werden nicht als unmittelbar zusammenhängende und untrennbare Einheit begriffen, sondern in ein kausales Verhältnis gestellt, wobei der eigentliche Handlungsgrund (bei Davidson als „Primärgrund“ bezeichnet) als Ursache für das zu vollziehende Handlungsereignis herangezogen werden muss. Dadurch wird die saubere Trennung zwischen einem intentionalen Verstehen und einem kausalen Erklären aufgelöst. 114 So heißt es bei Immanuel Kant in der „Kritik der reinen Vernunft“: „Gedanken ohne Inhalt sind leer, Anschauungen ohne Begriffe sind blind.“ (Immanuel Kant, Kritik der reinen Vernunft, Werke (hg. Von W. Weischedel), 1974, V AA 48). 115 Das als wird in der Hermeneutik als „hermeneutisches Als“ bezeichnet. 116 Der Zweck x gibt die Perspektive bzw. die Funktion an, wie etwas zu verstehen ist und wozu etwas spezifisch gebraucht oder gemacht wird. Unabhängig von x ist der zu verstehende Gegenstand dementsprechend nicht eindeutig bestimmt oder eindeutig spezifiziert. 113
45
46
Benjamin Rathgeber
nen miteinbezogen werden können. Der Verstehensprozess vollzieht sich also komparativ mit dem Anspruch, etwas (immer) besser verstehen zu wollen. Allerdings bildet dies nur die Oberflächengrammatik des Ausdrucks ab. Die tiefengrammatische Struktur tritt dann hervor, wenn der Ausdruck „Verstehen“ nicht allein als prädikatives Verhältnis – d. h. als eine mehrstellige Funktion – rekonstruiert wird, sondern als ein modales Verhältnis. Im Unterschied zur Prädikation, bei der einem Subjekt (z. B. einer Person) bestimmte Eigenschaften zu- oder abgesprochen werden, muss noch die Art und Weise berücksichtigt werden, wie etwas selbst verständig vollzogen bzw. ausgeführt wird (z. B., wenn behauptet wird, dass „x etwas verständig tut“ – beispielsweise „verständig Klarinette spielen kann“). Dazu bedarf es ein Wissen um den eigenen Vollzug und die richtige Ausführung.117 Hier steht nicht mehr allein das Subjekt-Objekt-Verhältnis im Vordergrund, sondern der Modus der Ausführung selbst. Dieser Modus muss selbst Teil des Verstehens werden können, um einen umfassenden Verstehensprozess zu ermöglichen. An Sprechhandlungen lässt sich dies genauer erläutern. Bei einer Sprechhandlung vollziehen wir nicht nur einen „illokutionären Akt“118, sondern wir wissen immer zugleich auch, dass wir dies tun (z. B., dass wir eine Behauptung tätigen, eine Frage stellen, einen Wunsch äußern oder eine Aufforderung aussprechen). Gerade dieses Wissen zeichnet den Sprechakt als Sprechhandlung überhaupt erst aus.119 Das Besondere dabei ist, dass es sich nicht um zwei Ereignisse handelt: ein Sprechen und noch ein Wissen über dieses Sprechen. Es handelt sich auch nicht einfach um die Aufstufung verschiedener Ebenen: von der Objektebene über die Metaebene zur Meta-Metaebene etc. Vielmehr erleben wir das Wissen in der Performanz des Sprechens: das Wissen vollzieht sich im Sprechen selbst. Fehlt dieses Wissen,
Dieser verständige Vollzug von Handlungen wäre gleichbedeutend mit „Wissen, was man tut“. Es lässt sich mit G. Ryles Unterscheidung von „knowing how“ und „knowing that“ präzisieren, insofern entweder die genaue performative Kenntnis des Handlungsvollzugs oder aber die propositionale Struktur des Wissens herausgestellt wird. In beiden Fällen tun wir nicht nur etwas rein mechanisch, sondern wissen auch darum: einmal stärker im Sinne des Wie, einmal stärker im Sinne des Was (vgl. Gilbert Ryle, The Concept of Mind, 1949). 118 Vgl. John Searle, Speech Acts: An Essay in the Philosophy of Language, 1969. 119 Während ich also schreibe und diese Worte formuliere, weiß ich zugleich, dass ich diese Worte schreibe und wie ich sie formuliere – und kann sie dadurch auch frei kontrollieren und modifizieren. Und darüber hinaus weiß ich nicht nur, was und wie ich etwas tue, sondern weiß auch, dass ich es weiß etc. Diese Aufstufung kann beliebig weitergeführt werden. Allerdings kommt ab der dritten Stufe in der Regel nichts prinzipiell Neues mehr hinzu. Dennoch ist dieser Prozess nicht überflüssig, insofern er 1.) bewusst macht, dass Verstehen nicht einfach abschließbar ist (nicht abzuschließender Regress). 2.) werden in der Aufstufung die Grenzen des Verstehens unscharf. Wenn ich immer weiter frage und das Wissen selbst als Wissen noch einmal begreifen möchte, verliert sich die Schärfe des Verstehens und löst sich in einer merkwürdigen Irritation auf. Das Verstehen wird selbst unverständlich und verwandelt sich unmerklich in ein Nicht-Verstehen. Es entsteht etwas Schwebendes, Unscharfes und Unbegreifliches. Konzeptionell-systematisch ist dieser Auflösungsprozess insofern von Interesse, weil er verdeutlicht, dass jedes Verstehen immer auch ein Nicht-Verstehen enthält und in dieser Aufstufung an die eigenen Grenzen des Verstehens stößt. 117
Funktionen des Verstehens
liegt gerade keine Sprechhandlung vor, sondern nur die Anwendung automatisierter Verhaltensprozesse, die rein reflexartig ablaufen. Um zu einer echten Sprechhandlung zu werden, müssen diese Prozesse vielmehr reflexiv werden. Nur dann sind die Bedingungen erfüllt, um sinnvoll von echten Sprechhandlungen auszugehen. Erst darin verstehen wir uns selbst als Sprechende. Dieses Selbstverhältnis des Sprechens ist jeweils in einen übergreifenden Bezugsrahmen eingebettet. Es umfasst Bereiche, die selbst schon bereits verstanden worden sind, sodass Wissen immer ein bereits Gewusst-Haben voraussetzt, Verstehen immer schon ein Verstanden-Haben bedingt.120 Diese einfließenden Bereiche sind bereits gelernte, implizit verinnerlichte oder explizit eingeübte Regeln, Konventionen, sozial gelernte Bräuche, kontextuelle Einbettungen, individuelle und gesellschaftliche Umstände, Grundsätze und Ideen etc. In ihnen drücken sich die allgemeinen Prinzipien aus, wie wir individuell handeln können. Wenn wir also etwas verständig tun, (z. B. über etwas verständig diskutieren), dann fließen implizit diese Prinzipien in die konkreten Sprechhandlungen ein. Die Relation zwischen den allgemeinen Prinzipien und den konkreten Handlungen darf hierbei nicht unterbunden werden, um den Verständnisprozess aufzulösen. Dies lässt sich am Beispiel des Beispiels verdeutlichen. Wenn wir ein konkretes Beispiel geben, dann verstehen wir daran etwas Allgemeines. Ein gutes Beispiel ist gerade dadurch ausgezeichnet, dass es einen allgemeinen Zusammenhang – einen allgemeinen Punkt – verdeutlicht. Der ganz konkrete Fall ist also eine Exemplifizierung des allgemeinen Zusammenhangs, der sich in diesem konkreten Fall zeigt. Wird diese Relation aufgelöst, löst sich auch das Verständnis des Beispiels auf. Es verliert seine Funktion als Beispiel, da es nichts mehr (auf-)zeigt. Allgemeines und Besonderes sind in diesem Sinne also nicht zwei voneinander abgetrennte Bereiche oder Ebenen, sondern eine in Relation stehende Bedeutungseinheit: das Allgemeine zeigt sich im Besonderen, wobei das Besondere das Allgemeine ausdrückt. Übertragen wir das generell auf das Verstehen, so lässt es sich als Modus begreifen, in welchem das Verhältnis zwischen einer konkreten Handlung bzw. einem konkreten Gegenstand (d. h. dem Besonderen) und dem ihn einbettenden übergreifend-allgemeineren Zusammenhang (dem Allgemeinen) ausgedrückt wird. Dieses Verhältnis zwischen dem Allgemeinen und dem Besonderen darf nicht voneinander abgetrennt werden, sondern kann nur als Relation bestimmt werden.121 Es bildet die Bedingung, um etwas sinnvoll begreifbar zu machen. Löst sich diese Bedingung auf, wird auch die Möglichkeit unterbunden, etwas verstehen zu können. Wird in einem nächsten Schritt diese Bedingung selbst noch einmal explizit mitgedacht und in das Bedingungsverhältnis miteinbezogen, kommt eine weitere Ebene Allerdings müssen diese Voraussetzungen und Bedingungen weder immer bewusst noch explizit sein. Allerdings ist dieser Prozess nicht abschließbar: Es lassen sich immer neue Relationen auszeichnen, insofern immer allgemeinere oder andere Verhältnisse zu dem zu verstehenden Phänomen bestimmt werden können. 120 121
47
48
Benjamin Rathgeber
des Verständnisprozesses zum Tragen. Insofern Verstehen nicht nur ein Verstehen von etwas ist, sondern als Selbstverhältnis den Anspruch erhebt, die eigenen Bedingungen als Teil des Verstehens selbst zu berücksichtigen, müssen diese Bedingungen ebenfalls offengelegt werden können. Sie müssen als Teil des Verstehens selbst verstanden worden sein. Erst dadurch wird nicht nur eine bestimmte Handlung verständig vollzogen, sondern ein Verständnis erreicht, das seine eigenen Bedingungen als explizites Wissen von sich begreift, in denen verständiges Handeln ermöglicht wird. Erst auf dieser Ebene wird ein umfassendes reflexives Selbstverständnis erreicht. Zusammenfassend lässt sich also Verstehen auf unterschiedlichen Ebenen begreifen: Wir können zwar verständig etwas tun, wenn wir eine bestimmte Fähigkeit beherrschen, z. B. eine bestimmte Kette von Einzelschritten erfolgreich durchführen können. Wirklich verstanden haben wir aber etwas erst dann, wenn wir es in einen allgemeinen Bezugsrahmen einbetten können und diese allgemeinen Bedingungen selbst als Teil eines voll entfalteten Verstehensprozesses begreifen. Erst darin eröffnet sich die Tiefengrammatik des Verstehens. Eine Logik des wissenschaftlichen Verstehens muss sich all dieser komplexen, reflexiv ineinandergreifenden Ebenen und Zusammenhänge durchaus bewusst sein und sie in den jeweiligen wissenschaftlichen Erkenntniszusammenhängen (mit-)berücksichtigen. 3.
Das Verhältnis von Verstehen und Erklären
Geht es also beim wissenschaftlichen Verstehen um die wechselseitige kontextuelle Einbettung von allgemeinen und besonderen Bedeutungseinheiten, ist demgegenüber das wissenschaftliche Erklären auf dahinterliegende allgemeine Mechanismen und Gesetzmäßigkeiten ausgerichtet, aus denen die zu erklärenden Phänomene abgeleitet werden. In diesem klassischen Modell des Erklärens – dem sogenannten HempelOppenheim-Schema (bzw. dem deduktiv-nomologischen Modell) – wird daher zwischen dem erklärenden Sachverhalt x (d. h. dem Explanandum) und der erklärenden Gesetzesaussagen y (dem Explanans) unterschieden, wobei x aus y erklärt werden soll.122 Eine Erklärung ist in diesem Modell dann erfolgreich abgeschlossen, wenn aus den Gesetzesaussagen y (mit einer Anzahl weiterer Bedingungen) deduktiv der Sachverhalt x logisch abgeleitet werden kann. Vergleicht man diese Methode des Erklärens mit der Logik des Verstehens, lassen sich sowohl gemeinsame als auch unterschiedliche Aspekte herausstellen: Wie in der Logik des Verstehens sind in wissenschaftlichen Erklärungen jeweils Formen der VerLogisch lässt sich in diesem Modell das Prädikat Erklären als zweistelliger Prädikator („y erklärt x“) rekonstruieren, wobei in y neben den Gesetzesaussagen noch weitere Bedingungen einfließen (vgl. hierzu C. G. Hempel / P. Oppenheim, Studies in the Logic of Explanation, in: Philosophy of Science 15, 1948, 135–175). 122
Funktionen des Verstehens
allgemeinerung zentral. Zielt jedoch die wissenschaftliche Erklärung auf gesetzliche Verallgemeinerungen, in denen Einzelereignisse als Token eines übergeordneten Gesetzes deduktiv ableitbar sind, vollzieht sich das Verstehen demgegenüber als ein Ineinandergreifen von allgemeinen und besonderen Sinneinheiten, die immer wieder neu ausgehandelt werden müssen. Verstehen wäre in diesem Sinne nicht abschließbar und nur graduell, wohingegen wissenschaftliches Erklären den Anspruch erhebt, durch Gesetzesaussagen einen zu explizierenden Sachverhalt schlussendlich zu erklären. Selbstverständlich nutzen jedoch wissenschaftliche Verstehensprozesse immer auch Erklärungen, um darin als Gründe für kausale Strukturierung und Funktionalisierung von Zusammenhängen zu dienen.123 Das wissenschaftliche Verstehen sichert in diesen erklärenden Gründen seinen Anspruch auf größtmögliche Eindeutigkeit, die eine Klarheit und Konsistenz in den zu verstehenden Zusammenhängen sicherstellen soll. Die Deutung gewinnt dadurch erst an durchschlagender Überzeugungskraft und Präzision. Umgekehrt müssen jedoch – wie bereits oben formuliert – wissenschaftliche Erklärungen, um überhaupt als Erklärung zweckmäßig zu fungieren, selbst verstanden worden sein. Sie müssen in die kontextuellen und interpretativen Rahmenbedingungen eingebettet sein, in denen sie als wissenschaftliche Erklärung sinnvoll zu verstehen sind. Erst dann lassen sich die jeweiligen nomologischen Schemata überzeugend und zielgerichtet anwenden. Erst dann können die zu verstehenden Phänomene so kausalgesetzlich spezifiziert werden, dass ein bestimmtes Phänomen als Token eines übergeordnet gesetzartigen Types deduktiv herleitbar ist. Lassen sich allerdings die zu erklärenden Phänomene in diese Schemata nicht einbetten, beginnt erneut die Suche nach entsprechenden verallgemeinerbaren Rahmenbedingungen. Die Phänomene müssen unter diesen Umständen neu interpretiert werden, um eine wissenschaftliche Erklärung gelingend zu finden. Die hierdurch entstehende Zirkelbewegung wird so lange durchlaufen, bis sich die zu erklärenden Phänomenbereiche in überzeugende Erklärungsschemata überführen lassen. Erst dann ist die wissenschaftliche Erklärungsprozess (bis auf Weiteres) erfolgreich abgeschlossen. Jede wissenschaftliche Erklärung ist deshalb sicherlich eine Form des wissenschaftlichen Verstehens, aber nicht jedes Verstehen ein wissenschaftliches Erklären. Benjamin Rathgeber
Universität Karlsruhe, Department für Philosophie, Douglasstr. 24, 76133 Karlsruhe
Um z. B. ein geschichtliches Ereignis – z. B. die Ermordung J. F. Kennedys – umfassend zu verstehen, kann auf unterschiedliche Erklärungen (z. B. ballistische und forensische Erklärungen) zurückgegriffen werden. 123
49
Law french? Das kommt mir spanisch vor Zum schwierigen Verhältnis zwischen dem allgemein-gesellschaftlichen und dem speziell-juristischen Diskurs
SEBASTIAN A. E. MARTENS
Abstract: Das Recht und das System seiner Institutionen sind auf Interaktion mit der sozialen Wirk-
lichkeit angelegt. Der juristische Diskurs kann daher nicht gänzlich unabhängig vom allgemeingesellschaftlichen Diskurs geführt werden. Die Intensität des gegenseitigen Austauschs kann aber sehr unterschiedlich sein. So haben etwa die englischen Juristen über Jahrhunderte für ihre Zwecke mit dem Law french sogar eine eigene Sprache kultiviert, während umgekehrt in Deutschland und den USA die Verfassungen zum heute wichtigsten Argumentationsarsenal in der allgemeinpolitischen Auseinandersetzung geworden sind, so dass die Juristen ihre Deutungshoheit über diese wichtigsten Texte der Rechtsordnungen (teilweise) verloren haben. Die normative Kraft des Faktischen und die allgemeinen Wertvorstellungen fließen stets in die juristische Normbildung ein, die umgekehrt freilich auch auf die Gesellschaft zurückwirkt.
1. Einleitung
Recht dient der Prävention und der Lösung von sozialen Konflikten. Das Recht kann daher kein für sich völlig abgeschlossenes System bilden. Zwar können sich auch innerhalb des Rechtssystems Konflikte ergeben, die nach den Regeln des Rechts zu lösen sind. Aber solche inneren Konflikte sind doch stets in dem Sinne parasitär, dass sie letztlich immer auf sozialen Konflikten beruhen, die zumindest in einer wesentlichen Hinsicht (zB. Akteur, Gegenstand) einen außerrechtlichen Bezug haben. Die Juristen müssen sich also regelmäßig auf die außerjuristische Welt beziehen und diese mit ihrem eigenen System abstimmen. Dabei lassen sich theoretisch zwei Extrempositionen identifizieren: Erstens kann der juristische Diskurs eine ganz eigene Sprache herausbilden. Alle realen Konflikte müssen dann in dieser juristischen Sprache be-
52
Sebastian A. E. Martens
schrieben werden. Soweit es für das Recht auf sprachliche Äußerungen der außerjuristischen Welt ankommt, müssen diese Äußerungen in die juristische Sprache übersetzt werden.1 Zweitens kann der juristische Diskurs aber auch ganz auf eine eigene Sprache verzichten und sich als (spezialisierten) Teil des allgemein-gesellschaftlichen Diskurses präsentieren. Im Folgenden soll anhand dreier Beispiele untersucht werden, welche Positionen zwischen den beiden Extremen ein Rechtssystem der europäischen Tradition2 tatsächlich einnehmen kann und welche Auswirkungen dies jeweils hat. 2.
Law French: eine eigene Sprache der Juristen?
Eine in dieser Form wohl einmalige Eigenständigkeit hat die Rechtssprache im mittelalterlichen England entwickelt und sich dort bis in das 18. Jahrhundert bewahrt. Die Entwicklung zeigt dabei die Möglichkeiten und Grenzen eines abgeschlossenen juristischen Diskurses auf. Aufstieg und Niedergang des sogenannten Law French sind eng mit der Genese und Entwicklung des englischen Common Law verbunden. In der Schlacht von Hastings 1066 hatten die Normannen nicht unter Wilhelm dem Eroberer, sondern unter Wilhelm dem legitimen Erben über einen Usurpator der englischen Krone gesiegt. Diese Deutung entsprach zumindest der offiziellen Propaganda, mit der sich Wilhelm nicht nur die Unterstützung des Kaisers und des Papstes gesichert, sondern auch viele seiner Kämpfer erfolgreich geworben hatte. Der Sieg über Harald und den ihm treuen angelsächsischen Adel sollte kein neues Staatswesen auf der Insel begründen, sondern nur die rechtmäßigen Verhältnisse im Land wiederherstellen. Das gute alte überkommene englische Recht sollte unverändert bleiben, wie Wilhelm selbst und seine Nachfolger wiederholt verkündeten.3 Selbst wenn Wilhelm es gewollt hätte, so wäre er doch gar nicht in der Lage gewesen, die staatlichen Strukturen Englands ganz neu aufzubauen und das angelsächsische Recht durch ein normannisches Recht zu ersetzen. Bei seinem Feldzug war Wilhelm nur von wenigen tausend Normannen begleitet worden. Ihnen standen gut 2,5 Millionen Inselbewohner gegenüber.4 Wilhelm war deshalb auf die Kooperation der alten Eliten angewiesen. Er konnte nur vergleichsweise wenige Führungspositionen neu be-
Zur Übersetzungsmetapher ausführlich Sebastian Martens, Rechtliche und außerrechtliche Argumente, Rechtstheorie 42 (2011), 153 ff. 2 Damit soll weder gesagt werden, dass die Beobachtungen nicht auch Relevanz für außereuropäische Rechtssysteme haben können, noch, dass die Beobachtungen Relevanz für außereuropäische Rechtssysteme hätten. Es wird lediglich davon ausgegangen, dass die europäischen Rechtssysteme einen gewissen historisch kontingenten Kern an Gemeinsamkeiten aufweisen, der nicht ohne weiteres als universal gültig unterstellt werden kann. 3 J. H. Baker, An Introduction to English Legal History, 4. Aufl. 2002, 12; John Hudson, The Oxford History of the Laws of England – Volume II 871–1216, 2012, 487 ff. 4 Karsten Kerber, Sprachwandel im Englischen Recht, 1997, 25. 1
Law french? Das kommt mir spanisch vor
setzen. Die normannische Führungsschicht bildete einen kleinen Kreis, der im fremden Land zusammenhalten musste. Dieser Zusammenhalt wurde vor allem durch zwei Faktoren gefördert: Erstens hatten die Normannen ihre eigene Sprache in Form eines französischen Dialekts mitgebracht. Zwar lernten bald viele Normannen, die auf ihren über das Land verstreuten Gütern lebten, die Sprache der Eingeborenen und vielfach sprach schon die zweite Generation nur noch die Sprache ihrer angelsächsischen Mutter wirklich sicher.5 Aber am Königshof, dh. dem Zentrum der Macht, hielt sich das Französisch als Umgangssprache und wirkte so identitätsstiftend und -bewahrend.6 Der zweite wichtige einigende Faktor war das vom Kontinent mitgebrachte, aber erst in England streng durchgeführte Lehenssystem. Wilhelm war nach seinem Sieg bei Hastings in der Lage, tatsächlich nahezu das ganze Königreich als Lehen neu zu vergeben und so die Idee der Lehenspyramide in einem Maße praktisch umzusetzen, wie dies auf dem Kontinent nie möglich gewesen wäre. Der König und seine cour(t) wandten viel Zeit und Mühe zur Lösung von Streitigkeiten auf, die sich aus dem Lehenssystem ergaben. Dabei war der König eigentlich nur insoweit zuständig, als es um Streitigkeiten zwischen ihm und seinen unmittelbaren Vasallen bzw. zwischen diesen Vasallen untereinander ging. Die Funktionsfähigkeit des Gemeinwesens und damit the king’s peace waren indes darauf angewiesen, dass die Grundsätze des entstehenden Lehensrechts auch auf den weiteren Stufen der Lehenspyramide eingehalten und durchgesetzt wurden. Es gelang den Königen, die Zuständigkeit ihrer curia regis zunächst in Lehensfragen und dann auch in immer mehr anderen Fällen auszuweiten. Bereits Ende des 12. Jahrhunderts hatte sich die curia regis aus einem allgemeinen Beratergremium zu einer Reihe von institutionell verfassten Gerichten entwickelt, die stetig an praktischer Bedeutung gewannen.7 Die Richter dieser frühen englischen Gerichte hatten nicht die Aufgabe, neues Recht zu schaffen, sondern sollten das bestehende Recht durchsetzen. Für die meisten alltäglichen Konflikte konnten sie hier ohne weiteres auf das überkommene angelsächsische Recht zurückgreifen. Keine einheimischen Regeln gab es allerdings in zwei wichtigen Gebieten. Zum einen hatten die Angelsachsen kein vergleichbar differenziertes und technisch entwickeltes Lehenswesen wie die Normannen gekannt und daher auch keine entsprechenden Normen entwickelt. Zum anderen war das zentrale Rechtsprechungsorgan der Angelsachsen ein Rat der Weisen, der witenagemot, gewesen, der durch die curia regis des Königs und die aus ihm entstandenen Gerichte ersetzt wurde. Die Verfahrensregeln des witenagemot passten nicht für diese königlichen Gerichte, für die sich neue Gepflogenheiten herausbildeten, die sich bald zu starren Bestimmungen verfestigten. Kerber (Fn. 4), 25 f. Peter M. Tiersma, Legal Language, 1999, 20 geht dagegen davon aus, dass Französisch weiter die allgemeine Sprache der Aristokratie war. 7 Baker (Fn. 3), 17 ff. 5 6
53
54
Sebastian A. E. Martens
Da die Alltagssprache am Königshof das normannische Französisch war, liegt es nahe, dass auch die Mitglieder der curia regis bei ihren Beratungen französisch sprachen und Formulierungen für ihre Lösungen von Problemen der Verfahren in dieser Sprache fanden. Das sich herausbildende Verfahrensrecht der königlichen Gerichtshöfe entwickelte seine Fachbegriffe jedenfalls ganz natürlich im normannischen Französisch. Im Bereich des Lehenswesens wiederum hatten die Normannen nicht nur die grundlegenden Ideen, sondern auch die zentralen Begriffe über den Kanal nach England mitgebracht. Auch hier schien es selbstverständlich, bei der Fortbildung des Lehenswesens keine andere Sprache zu verwenden, sondern beim Französischen zu bleiben und dessen Begrifflichkeit auszubauen. Zwar sind naturgemäß keine mündlichen Äußerungen aus dem England des 11. und 12. Jahrhunderts überliefert und die schriftlichen Aufzeichnungen dieser Zeit wurden auf Latein vorgenommen. Doch eben diese frühen schriftlichen Quellen belegen, dass die wichtigsten technischen Begriffe des englischen Prozess- und Lehensrechts sich bis Ende des 12. Jahrhunderts auf Französisch herausgebildet hatten. So finden wir in Henri de Bractons „De Legibus et Consuetudinibus Angliae“ diese Begrifflichkeit in latinisierten Formen, ohne dass man sich die Mühe gemacht hätte, echte lateinische Entsprechungen zu finden.8 Bracton beschränkte sich freilich nicht auf das Lehensrecht, sondern wollte in seinem Werk das Bild eines umfassenden englischen Rechtssystems zeichnen, wie es dem kontinentalen Standard der Zeit entsprach, der durch das in Bologna rezipierte römische Recht geprägt worden war.9 Soweit er vergleichbare Regeln im englischen Recht fand, gab er diese wieder und griff dabei teilweise auch auf die angelsächsischen Ausdrücke zurück, ohne sie zu übersetzen. Sein grundsätzlich auf Latein geschriebenes, aber auch durch angelsächsische und französische Begriffe durchzogenes Werk bildet daher den Zustand des Rechts in England zu seiner Zeit ab, da die Konzentration der Rechtsdurchsetzung an den königlichen Gerichtshöfen noch nicht vollständig abgeschlossen war. In dem Maße, wie die zentralen königlichen Gerichte die lokalen Gerichte verdrängten, gewann indes ihr Verfahrensrecht an Bedeutung, während das alte materielle angelsächsische Recht zwar fortbestand, aber immer mehr an praktischer Bedeutung verlor, da es meist nur noch ein Aspekt war, der von der Jury bei ihrem finalen Urteilsspruch zu beachten war. Zum (all-)gemeinen Recht, dh. zum Common Law Englands wurde stattdessen das law of actions, dh. das Recht, welches die Verfahren vor den königlichen Gerichtshöfen regelte.10 Die Beratungen in der curia regis und den aus ihnen entstandenen Gerichten wurden allerdings auf Französisch geführt. Gespräche mit den Parteien und Zeugenvernehmungen hätten zwar in vielen Fällen nur auf Englisch erfolgen können, aber die Struktur des Verfahrens erforderte regelmäßig gar 8 Dies übersieht Tiersma (Fn 6), 21. 9 Reinhard Zimmermann, Der europäische Charakter des englischen Rechts, ZEuP (1993), 13 ff. 10 Hudson (Fn. 3), 853 ff.; Baker (Fn. 3), 53 ff.
Law french? Das kommt mir spanisch vor
keinen solchen unmittelbaren Kontakt der königlichen Richter mit den Protagonisten der von ihnen zu regelnden Streitigkeiten. Denn die Verfahren vor den Gerichten in London dienten überwiegend nur dazu, die Streitfrage (issue) herauszuarbeiten, die dann später im eigentlichen Prozess, meist von einer Jury, zu beantworten war. Die Diskussionen um die richtigen bzw. zulässigen pleas der Parteien waren hochtechnisch und wurden ohne Beteiligung der Parteien nur von Spezialisten geführt, die sich selbstverständlich des Französischen bedienten.11 Schon die frühesten Aufzeichnungen dieser Diskussionen in den ersten Year books aus dem späten 13. Jahrhundert zeigen eine hoch entwickelte technische Sprache mit einer strengen Begrifflichkeit von großer Präzision. Unter der Herrschaft Heinrichs III. (1216–1272) und noch zu Beginn der Regierungszeit seines Sohnes Eduard I. (1272–1307) kam es zu einer verstärkten Nachwanderung normannischer Adliger nach England, in deren Folge die französische Sprache allgemein noch einmal an praktischer Relevanz gewann.12 Für das Recht war dies freilich weniger bedeutsam, da sich vor den königlichen Gerichten, wie gezeigt, längst Französisch als Arbeitssprache etabliert hatte. Zumindest die technischen Rechtsbegriffe wären wohl ohnehin weiter in dieser Sprache gebildet worden. Die Dominanz des Französischen als Rechtssprache wurde aber sicherlich durch seinen allgemeinen Bedeutungszuwachs unterstützt, der wahrscheinlich auch ein Grund dafür war, dass um die Wende vom 13. zum 14. Jahrhundert nicht nur die Year books auf Französisch verfasst wurden, sondern auch erste Monographien in dieser Sprache erschienen und selbst in der Gesetzgebung das Lateinische zunehmend vom Französischen verdrängt wurde. Dieser Wechsel der Schriftsprache war weitgehend unproblematisch, da alle technischen Begriffe ohnehin nur latinisierte Formen der eigentlich französischen Begriffe gewesen waren, sodass man sich fortan bloß die Mühe einer Pseudoübersetzung sparte. Zu Beginn des 14. Jahrhunderts war die kurzzeitige Blüte des Französischen im Alltagsleben freilich schon wieder vorbei.13 Bereits 1295 hatte Eduard I. Unterstützung für einen Feldzug gegen Philipp den Schönen, König von Frankreich, beim englischen Klerus gesucht, indem er Philipp unterstellte, die englische Sprache von der Erde vertilgen zu wollen.14 Die von Eduard I. adressierten nationalistischen Gefühle wuchsen, als 1337 tatsächlich der dann hundertjährige Krieg ausbrach und die Einheit Englands immer stärker im Gegensatz zum feindlichen Französischen konstruiert wurde. Schließlich führten wohl auch die Pestepidemien des 14. Jahrhunderts dazu, dass das Englische als allgemeine Verkehrssprache stark an Bedeutung gewann. Denn die stärker betroffene englischsprachige einfache Bevölkerung gewann gerade aufgrund ihrer 11 12 13 14
Baker (Fn. 3), 76 ff. Kerber (Fn. 4), 46 ff. Tiersma (Fn. 6), 22 f. mwN.; aA. Kerber (Fn. 4), 53 ff. Risto Hiltunen, Chapters on Legal English: Aspects Past and Present of the Language of the Law, 1990, 29.
55
56
Sebastian A. E. Martens
Dezimierung an ökonomischer Relevanz und damit an Einfluss. Schon gegen Mitte des 14. Jahrhunderts beherrschte offenbar nur noch eine kleine Gruppe am Königshof das Französische sicher. Die wichtigste Interaktion dieser Gruppe mit der übrigen Bevölkerung fand im Rahmen der von den königlichen Gerichtshöfen administrierten Judikative statt. Die Sprachbarriere wurde auch von der französischsprachigen Elite selbst als Problem erkannt, wie sich vor allem an der Statute of Pleading von 1362 zeigt, in der beklagt wurde, dass das Recht für die Bevölkerung unverständlich sei.15 Die Gerichtsverhandlungen seien für die Parteien nicht nachvollziehbar und die Bürger könnten die Gesetze nicht lernen, da diese in einer für sie fremden Sprache geschrieben seien. Das Parlament ordnete daher an, dass die Gerichtssprache fortan Englisch sein solle. Diese Anordnung blieb allerdings ohne einen erkennbaren praktischen Effekt; vielleicht auch deshalb, weil die Statute of Pleading selbst auf Französisch verfasst war, das wohl tatsächlich nur noch von (zu) wenigen verstanden wurde. Die Beharrungskräfte des Rechtssystems erwiesen sich jedenfalls stärker als der gesetzgeberische Wille. Der professionelle Diskurs an den königlichen Gerichtshöfen und den Inns of Court hatte sich Mitte des 14. Jahrhunderts so stark gefestigt, dass ein substantieller Eingriff von außen nicht mehr möglich war. Zu einer Reform sollte es erst im 17. Jahrhundert kommen, als die Verwendung des für alle fremd gewordenen Französisch von den Juristen selbst als anachronistischer lästiger Zwang empfunden wurde. Mitte des 14. Jahrhunderts sprach die Elite am Königshof indes wohl auch im Alltag noch überwiegend Französisch. Dies änderte sich aber während des andauernden Krieges mit Frankreich,16 bis 1417 mit Heinrich V. sogar der König selbst die sprachlichen Verbindungen mit seiner normannischen Verwandtschaft kappte und sich entschloss, wichtige Dokumente künftig auf Englisch abzufassen.17 Als allgemeine Umgangssprache war das normannische Französisch spätestens ab dem Regierungsantritt Heinrichs VI. gestorben, dessen Muttersprache Englisch war. Französisch existierte nur noch als Arbeitssprache des juristischen Diskurses und war im Übrigen eine tote Sprache.18 Für den juristischen Diskurs war dies aus zwei Gründen problematisch: Erstens konnten die Juristen nicht mehr einfach auf die Alltagssprache zurückgreifen, um neue soziale Probleme zu beschreiben, für die sie juristische Lösungen finden mussten. Sollte das Law French als voll- und eigenständige Sprache erhalten bleiben, hätten die Juristen nicht bloß, wie bislang, die notwendigen neuen technischen Begriffe erfinden, sondern ihre Sprache auch sonst umfassend fortbilden und am Leben erhalten müssen. Zweitens war das Law French als professionelle Arbeitssprache auch für Juristen insofern eine Fremdsprache, als sie sich im Alltag auf Englisch unterhiel15 16 17 18
J. H. Baker, Manual of law French, 1989, 2. Tiersma (Fn. 6), 23. Baker (Fn. 3), 146 ff. Baker (Fn. 15), 2.
Law french? Das kommt mir spanisch vor
ten. Englisch war ihre Muttersprache und Law French mussten sie erst mühsam in der juristischen Ausbildung lernen. Der aufgezeigte mit dem Gebrauch des Law French verbundene Aufwand sollte sich auf die Dauer als zu groß erweisen. Als tatsächlich in der Konversation vor Gericht verwendete Sprache starb das Law French wohl recht schnell einen stillen Tod. Gesprochen wurden in vollständigen Sätzen auf Law French schließlich nur noch die pleas, deren formelhafter Status so noch deutlicher hervorgehoben wurde.19 Im Übrigen blieb das Law French einstweilen vor allem als Schriftsprache der reports und juristischer Monographien erhalten.20 Freilich wandelte sich das Law French auch dort. Denn man griff immer häufiger ganz ungeniert auf das Englische zurück, wenn man gerade keine passenden französischen Wörter fand. Zudem gab man sich immer weniger Mühe mit der Grammatik und Rechtschreibung und lernte nur noch so viel vom Law French, wie unbedingt nötig war. Das Law French verkam, abgesehen von seinen technischen Begriffen, immer mehr. Nicht unbedingt repräsentativ, aber doch auch nicht ganz ungewöhnlich für den Zustand des Law French im 17. Jahrhundert ist der report eines Verfahrens von 1631, wo es heißt: Que puis son condemnation ject un Brickbat a le dit Justice que narrowly mist, & pur ceo immediately fuit Indictement drawn per Noy envers le prisoner, & son dexter manus ampute & fix al Gibbet sur que luy mesme immediatement hange in presence de Court.21
Der report selbst stammt aus dem Jahr 1688. Er zeigt, dass Law French gegen Ende des 17. Jahrhunderts zwar durchaus noch in Gebrauch war, obwohl das Parlament durch statute vom 22. November 1650 bestimmt hatte, dass Law reports künftig nur noch auf Englisch veröffentlicht werden dürften.22 Wie schon dreihundert Jahre zuvor ließ sich die Juristenprofession ihre Sprache nicht vorschreiben, aber sie ging doch sehr pragmatisch und wenig liebevoll mit ihrem Law French um und ihr Widerstand gegen den Wandel war weder ernsthaft noch dauerhaft. Es war offensichtlich ineffizient und unverhältnismäßig, die Infrastruktur einer eigenständigen Arbeitssprache der Juristen aufrechtzuerhalten. Tatsächlich benötigten die Juristen nur verhältnismäßig wenige eigene technische Begriffe und keine vollständige Sprache.23 In der Praxis verwendete man immer häufiger nur noch die technischen Fachausdrücke des Law French und nutzte im Übrigen die Hilfsverben, Füllwörter usw. des Englischen. Eine statute von 1731, in der das Parlament den Gebrauch von Französisch und Latein vor Gericht verbot, konnte schließlich nach allgemeiner Ansicht de facto den Tod des Law French nur noch feststellen, aber nicht mehr herbeiführen.24
19 20 21 22 23 24
J. H. Baker, The Oxford History of the Laws of England – Volume VI 1483–1558, 336 f. Baker (Fn. 15), 3. Dyer’s Reports, 1688, 188b. Baker (Fn. 15), 5. Vgl. die Bestandsaufnahmen des Law French bei Tiersma (Fn. 6), 28 ff. Baker (Fn. 15), 6.
57
58
Sebastian A. E. Martens
Tatsächlich war das Law French keineswegs gestorben, sondern die Sondersprache der Juristen hatte sich nur weiterentwickelt und lediglich die Elemente durch englische Wörter ersetzt, die keinen besonderen juristischen Zweck erfüllen mussten. Juristisch betrachtet war es unerheblich, ob „le prisoner ject un Brickbat a le dit Justice“ oder „the prisoner threw a brickbat at the aforesaid justice“. Wichtig waren nur bestimmte Begriffe wie „prisoner“ und „justice“ mit rechtlich fixierten Inhalten. Diese Begriffe blieben auch nach 1731 erhalten und wurden größtenteils bis heute nicht ersetzt.25 Die Rechtssprache in England wurde und wird weiterhin nur von Spezialisten beherrscht und ist den meisten Laien unverständlich. Das Law French hat in seinem juristisch bedeutsamen Kern überlebt. Englisch ist an der Rechtssprache in England in vielen Bereichen weiterhin nur das, was keine besondere rechtliche Bedeutung hat. 3.
Eigentum: Ein Konzept zwischen Recht und Politik?
Die Diskrepanz zwischen Rechts- und Alltagssprache ist in England besonders deutlich bei dem, was wir in Deutschland als Grundeigentum bezeichnen würden. Denn das law of real property geht heute immer noch davon aus, dass alles Land eigentlich der Krone gehört, es also königliches26 Eigentum ist. Die Bürger können nur ein Lehen, meist ein sogenanntes fee simple, an einem estate halten.27 Diese juristische Konstruktion hat sich freilich schon vor langer Zeit den tatsächlichen Verhältnissen anpassen müssen, da Inhalt und Reichweite der Berechtigungen an Land schon im Mittelalter politisch neu bestimmt wurden und das Lehensverhältnis weitgehend in der modernen Form eines absoluten dinglichen Rechts des tenant aufging. Dennoch hat das Common Law bis heute keinen den kontinentalen Rechtsordnungen vergleichbaren allgemeinen Begriff des Eigentums entwickelt. Abstrakte Definitionen des Eigentums findet man in England eher bei Rechtsphilosophen, die ihrerseits häufig an Diskussionen der politischen Philosophie anknüpfen. Auch das römische Recht kam ohne einen abstrakt definierten Eigentumsbegriff aus. In der frühen Republik setzte das ius die Rechte der römischen Bürger voraus und beschränkte sich weitgehend auf Regelungen ihrer Durchsetzung. Kam es zum Streit zwischen zwei Bürgern, wem von ihnen eine Sache zustand, verlangte die Gemeinschaft, dass sie diesen Streit in formalisierten Verfahren mittels sogenannter legis Peter M. Tiersma, A history of the languages of law, in: The Oxford Handbook of Language and Law, hg. von Peter M. Tiersma / Lawrence M. Solan, 2012, 22. 26 Bezeichnend ist, dass die Etymologie des Ausdrucks „real property“ umstritten ist. Nach herrschender (und wohl zutreffender) Ansicht leitet sich der Ausdruck von den Klagen (real actions) her, mit denen die entsprechenden Rechte an Land durchgesetzt werden konnten. Eine Mindermeinung vertritt dagegen eine Herkunft aus dem Wortstamm „rex“ bzw. „reg-“ und sieht so einen Verweis auf das eigentlich königliche Grundeigentum. 27 Vgl. nur Edward H Burn / John Cartwright, Cheshire and Burn’s Modern Law of Real Property, 2011, 12 f. 25
Law french? Das kommt mir spanisch vor
actiones öffentlich austrugen und, soweit wie möglich, unter Ausschluss von Gewalt zu einer friedlichen Lösung brachten.28 Die Struktur dieser Verfahren bedingte, dass stets nur festgestellt wurde, wer von den beiden Streitparteien relativ besser berechtigt war. Es wurde nicht nach einer absoluten Rechtsposition gefragt, die sich auch im Verhältnis zu allen anderen Bürgern hätte durchsetzen müssen. Aus dieser Struktur seiner Durchsetzung darf freilich nicht auf die Natur des zugrundeliegenden Rechts geschlossen werden.29 Es gibt keine Anhaltspunkte dafür, dass ein römischer Bürger im 5. Jahrhundert v. Chr. seinen Bauernhof nicht in demselben absoluten Sinne als seinen Hof angesehen hätte wie ein bayerischer Bauer heute. Für eine solche grundsätzlich gleiche Vorstellung der Berechtigung spricht zudem, dass der Rechtsschutz des römischen Rechts stets ausgebaut wurde, wenn er als defizitär empfunden wurde, dh. die vorausgesetzten (absoluten) Rechte nicht hinreichend schützte. Das Recht hatte für die römischen Bürger die Aufgabe, ihre Rechte zu schützen. Welche Rechte dies waren, wurde dagegen regelmäßig im politischen Prozess geregelt und ausgehandelt, ohne dass die Römer sich insoweit der Sachlogik abstrakter Definitionen unterworfen hätten. Besonders deutlich zeigte sich die stetige Anpassung des Rechts an die politischen Veränderungen der gesellschaftlichen Eigentumsverhältnisse im Hinblick auf das im Rahmen der römischen Expansion dazugewonnene Land. Dieses Land blieb regelmäßig als ager publicus in öffentlicher Hand und wurde den Bürgern nur in Erbpacht (als ager vectigalis) oder zur unentgeltlichen Besitzergreifung (als ager occupatorius) überlassen. Die Bürger sahen die von ihnen auf dem ager publicus errichteten Höfe aber als ihre Höfe an und forderten einen entsprechenden Rechtsschutz ein, wenn sie in ihrem ungestörten Besitz beeinträchtigt wurden. Der römische Prätor reagierte, indem er sogenannte Interdikte gewährte, die Besitzern in bestimmten Fällen einen Schutz boten, als wenn sie Eigentümer der Grundstücke gewesen wären.30 Die normative Kraft des Faktischen führte mit der Zeit dazu, dass die Erbpacht am ager publicus teilweise tatsächlich wie normales Eigentum behandelt wurde bzw. zu solchem normalen Eigentum erstarkte. Provinzialgrundstücke blieben dagegen zwar auch in der Kaiserzeit rechtlich privateigentumsunfähig. Aber diese Sonderstellung hatte keine praktische Bedeutung, da der Prätor sich wiederum den gesellschaftlichen Bedürfnissen beugte und den berechtigten Besitzern von Provinzialgrundstücken einen analogen Schutz wie Eigentümern gewährte.31
Sebastian Martens, Actio, action, Anspruch und Recht – Zum Verhältnis des Rechts zu seiner Durchsetzung, Juristenzeitung 2016, 1022 ff. 29 So wohl auch Max Kaser, Über ‚relatives Eigentum‘ im altrömischen Recht, Savigny Zeitschrift für Rechtsgeschichte, Romanistische Abteilung, 102 (1985), 1–39. 30 Max Kaser, Das Römische Privatrecht – Erster Abschnitt, 1971, 387. 31 Max Kaser / Rolf Knütel / Sebastian Lohsse, Römische Privatrecht, 2017, § 22 Rn. 10. 28
59
60
Sebastian A. E. Martens
Die vielfältigen und nicht immer nur im Detail unterschiedlichen Rechtsbehelfe zum Schutz von Berechtigungen an Gegenständen machten es unmöglich, einen einheitlichen abstrakten Begriff des Eigentums zu bilden und dessen Eigenschaften allgemein zu bestimmen. Stattdessen kannten die Römer ursprünglich eine Reihe von Wörtern, mit denen sie Positionen beschrieben, die deutsche Rechtswissenschaftler heute als absolute subjektive Rechte bezeichnen würden. Diese Wörter, wie familia, manus, patria potestas, dominium oder proprietas, beschrieben teilweise den Gegenstand der Berechtigung (familia), häufiger indes die Macht des Berechtigten. Schon die Vielfalt der Ausdrücke zeigt, dass diese Macht nicht immer gleich verstanden wurde, sondern sich (jedenfalls ursprünglich) je nach Verhältnis unterschied. Gemeinsam war diesen Machtpositionen jedoch, dass ihre Inhaber Schutz vom Recht erwarten konnten und dass sie innerhalb ihrer Machtsphäre eine Freiheit genossen, die grundsätzlich keiner rechtlichen Kontrolle unterlag.32 Das Recht ermöglichte es etwa dem Inhaber eines dominium an einer Sache also, sich mit Rechtsbehelfen gegen alle zu wenden, die ihn in seiner Herrschaft über die Sache beeinträchtigten. Rechtlich ungeregelt war aber grundsätzlich, was der Inhaber eines dominium mit seiner Sache machen durfte. Die Herrschaftssphäre des Berechtigten war ein prinzipiell rechtsfreier Raum; die res publica griff hier nur punktuell durch Gesetze ein, wenn und soweit ihre Interessen berührt waren. Nach der Wiederentdeckung der römisch-rechtlichen Digesten im 11. Jahrhundert interpretierten und bearbeiteten die sogenannten Glossatoren ihre Quellen mit den wissenschaftlichen Methoden ihrer Zeit. Sie und ihre Nachfolger, die Kommentatoren, gingen davon aus, dass diese Quellen ein widerspruchsfreies System bildeten, in dem zudem Begriffe in derselben Weise verwendet wurden, wie sie es selbst gewohnt waren. Unter diesen Voraussetzungen formten sie auch das römische dominium um. So finden wir bereits bei Bartolus (ca. 1313–1357) eine Definition, die weitgehend mit der Eigentumsdefinition des heute in Deutschland geltenden § 903 BGB übereinstimmt: Quid ergo est dominium? Responde, ius de re corporali perfecte disponendi nisi lege prohibeatur.33
Das Eigentum ist für Bartolus das Recht, mit einer Sache umfassend disponieren zu können, soweit es nicht durch Gesetz verboten ist. Die bei den Römern zentrale Funktion, andere von der Nutzung ausschließen zu können, stellt für Bartolus offensichtlich nur einen Unterfall der allgemeineren und umfassenden Nutzungsfunktion dar. Diese Nutzungsfunktion wiederum war für die Römer keine rechtliche Eigenschaft des dominium, sondern ein faktisches Element bzw. die Konsequenz der durch das Recht geschützten Freiheitssphäre des Eigentümers. Ähnlich Martin J. Schermaier, Dominus actuum suorum, Savigny Zeitschrift für Rechtsgeschichte, Romanistische Abteilung, 134 (2017), 95 ff. 33 Das Zitat in seinem Kontext wiedergegeben bei Schermaier (Fn. 32), 77. 32
Law french? Das kommt mir spanisch vor
Die moderne Definition des Eigentums bei Bartolus entfernte sich nicht nur weit vom antiken römischen Recht, sondern hatte auch wenig mit den tatsächlichen Verhältnissen des Mittelalters zu tun, dessen Recht vor allem durch das Lehenswesen geprägt war. Die Lehensverhältnisse ließen sich schon nicht sinnvoll in die Strukturen von persönlichen und dinglichen Rechten einordnen, wie sie die römischen Juristen entwickelt hatten. Noch weniger passte das dargestellte neue abstrakt-allgemeine Eigentumskonzept, um die gestuften Berechtigungen in einer Lehenspyramide angemessen zu beschreiben. Auch die Juristen erkannten, dass es ihr dominium plenum in der Praxis so nicht gab, und entwickelten mit der Unterscheidung eines dominium directum des Lehensherrn/Grundherrn und eines dominium utile seines Vasallen/ Grundholden einen dualistischen Eigentumsbegriff.34 Das Ideal eines einzigen umfassenden Eigentums war mit der Erfindung des dominium plenum freilich in der Welt und sollte fortan auch politisch im Kampf gegen das Lehenswesen genutzt werden. Es ist hier nicht Raum, die wechselvolle Dogmen- und Ideengeschichte des Eigentums nachzuzeichnen.35 Wichtig ist vor allem, dass das Eigentum sich in der Rechtswissenschaft mit der Zeit zum Paradigma eines absoluten dinglichen Rechts herausbildete und so ein Kernbegriff des Privatrechts wurde. Eine ebenso zentrale Stelle nahm das Eigentum nicht nur in der politischen Philosophie John Lockes36 ein, sondern es gewann im 19. Jahrhundert als wichtigstes Freiheitsrecht einen nahezu heiligen Status bei der Abgrenzung einer bürgerlich-privaten von der staatlich-öffentlichen Sphäre, wobei diesen beiden Sphären wiederum die Rechtsgebiete des Privat- und des Öffentlichen Rechts zugeordnet wurden. Schon Art. 17 der déclaration des droits de l’homme et du citoyen von 1789 hatte das Eigentum als „un droit inviolable et sacré“ bezeichnet und Hegel erkannte in ihm das notwendige Element der äußeren Freiheitssphäre einer Person, das es dieser erst ermöglichte, „als Idee zu sein“.37 Eine solche existentielle Bedeutung hat das Eigentum heute zwar nicht unbedingt für jeden, aber seine herausgehobene Stellung lässt sich doch nur durch den ideen- und dogmengeschichtlichen Hintergrund begreifen.38 Das Eigentum als zentraler juristischer und politischer Begriff kann heute im juristischen Diskurs nicht losgelöst vom politischen und gesellschaftlichen Diskurs genutzt und fortentwickelt werden. Dies liegt in Deutschland schon darin begründet,
Anton Friedrich Justus Thibaut, Über dominium directum und utile in: ders., Versuche über einzelne Theile der Theorie des Rechts, Bd. 2, 1798, 71 ff.; Hans-Rudolf Hagemann, Stichwort „Eigentum“, Handwörterbuch zur deutschen Rechtsgeschichte, Bd. 1, 2008, 1274 f. 35 Einführend Hans Hattenhauer, Grundbegriffe des Bürgerlichen Rechts, 2000, 129 ff.; Peter Garnsey, Thinking about Property – From Antiquity to the Age of Revolution, 2007. 36 Zu Lockes sogenannter Arbeitstheorie des Eigentums etwa Schermaier (Fn. 32), 52 ff., der die Grundlage der Lockeschen Ideen in der scholastischen Handlungslehre sieht (ebd., 60); grundlegend Manfred Brocker, Arbeit und Eigentum, 1992, 125 ff. 37 Georg Wilhelm Friedrich Hegel, Grundlinien der Philosophie des Rechts, 1820, § 41. 38 Näher Marietta Auer, Der privatrechtliche Diskurs der Moderne, 2014, S. 91 ff. 34
61
62
Sebastian A. E. Martens
dass Eigentum durch Art. 14 Abs. 1 GG verfassungsrechtlich geschützt wird. Art. 14 Abs. 1 GG bildet allerdings in seiner Formulierung die schwierige Verbindung des rechtlichen und des gesellschaftlich-politischen Diskurses ab, indem einerseits das Eigentum gewährleistet wird, andererseits Inhalt und Schranken durch die Gesetze bestimmt werden sollen. Das Eigentum erscheint somit als etwas dem Recht Vorgegebenes und zugleich durch das Recht Geformtes.39 In der öffentlichen Debatte hat sich dabei das von Bartolus formulierte Ideal eines vom Individuum gedachten, absoluten umfassenden Eigentums durchgesetzt, wonach ein Eigentümer das Recht hat, seine Sache grundsätzlich nach Belieben zu nutzen, und jede Beschränkung dieses Rechts als Eingriff oder gar Verletzung wahrgenommen wird. 4.
Das Grundgesetz: Was ist unsere Verfassung?
Das Grundgesetz und mit ihm der Art. 14 wurden am 24. Mai 2019 siebzig Jahre alt. Das ist ein stolzes Alter, das keine gesamtdeutsche Verfassung zuvor erreicht hatte. Das Grundgesetz scheint zudem auch gut gealtert und in seinen besten Jahren: Obwohl es 1949 von einer kleinen Gruppe von Politikern und Juristen geschrieben wurde und man kaum sagen kann, dass das Deutsche Volk sich das Grundgesetz kraft seiner verfassungsgebenden Gewalt gegeben hätte, wie es die Präambel vollmundig behauptet, so trifft es wohl doch zu, dass sich dieses Volk sein Grundgesetz über die Jahre zu eigen gemacht hat. Denn das Grundgesetz hat es wie kein anderer Rechtstext in Deutschland geschafft, sich im allgemeingesellschaftlichen Diskurs zu etablieren. Seine Popularität zeigte sich etwa in einer Sendereihe des Deutschlandfunks aus Anlass des Jubiläums mit dem Titel „Mein Grundgesetz – Meine Meinung“, in der Anrufer sich einen Artikel des Grundgesetzes auswählen und zu diesem Artikel ihre Meinung äußern konnten. Über Monate kam jeden Werktag ein Anrufer zu Wort. Professoren äußerten sich zur Freiheit der Lehre nach Art. 5 Abs. 3, Frauen zur aus ihrer Sicht trotz Art. 3 Abs. 1 fortbestehenden Diskriminierung des weiblichen Geschlechts und Schüler waren stolz auf Art. 1, dessen Menschenwürdegarantie jedes Schubladendenken ausschließen soll. Vielfach wurde das Grundgesetz aber auch als Argument zur richtigen, und das heißt aus Sicht der Anrufer: verfassungsmäßigen, Lösung spezifischer Probleme genutzt, welche die Anrufer ganz persönlich beschäftigen. In der Sendung vom 10. April etwa wählte sich Herr Jakob Zankl den Art. 11 Abs. 1 GG aus.40 Dort heißt es: „Alle Deutschen genießen Freizügigkeit im ganzen Bundesgebiet“. Herr Zankl hielt die Auflagen für Arbeitslose, täglich ihren Briefkasten kontrollieren und geDazu etwa O. Depenheuer / J. Froese, Art. 14, in: v. Mangoldt/Klein/Starck – Grundgesetz – Kommentar, hg. von Peter M. Huber / Andreas Voßkuhle, Bd. 1, 2018, 1375 Rn. 30 ff. 40 https://www.deutschlandfunk.de/grundgesetz-artikel-11-alle-deutschen-geniessen.3770.de.html? dram:article_id=445893 (zuletzt abgerufen am 06.03.2023). 39
Law french? Das kommt mir spanisch vor
gebenenfalls ihrer lokalen Arbeitsagentur zur Verfügung stehen zu müssen, für unvereinbar mit dieser Bestimmung des Grundgesetzes und deshalb für verfassungswidrig. Im vorliegenden Zusammenhang ist es unerheblich, ob diese Bewertung von Herrn Zankl zutrifft bzw. nach welchen Maßstäben sich dies eigentlich bemessen würde. Wichtig ist vielmehr, dass Herr Zankl selbst ganz ohne irgendwelche anderen Maßstäbe als eben Art. 11 Abs. 1 GG auszukommen meinte. Er beanspruchte einen unmittelbaren Zugang zu dem Text seiner Verfassung und lehnte offenbar jede vermittelnde Autorität ab. Insbesondere kam Herr Zankl ohne den fachlichen Beistand von Juristen aus. Vielleicht hatte Herr Zankl allerdings bloß keine Zeit, sich auch auf das Bundesverfassungsgericht zu berufen, und vielleicht hat er bereits eine Verfassungsbeschwerde eingelegt. Denn das Bundesverfassungsgericht genießt nach der Polizei nach wie vor mit das höchste Vertrauen aller staatlichen Institutionen. Jedes Jahr erwarten deshalb auch ca. 6000 Personen, dass ihnen das Bundesverfassungsgericht in allerletzter Instanz endlich zu ihrem Recht verhilft, wie sie selbst es dem Grundgesetz entnehmen. Regelmäßig mehr als 98 Prozent von ihnen werden allerdings in dieser Erwartung enttäuscht.41 Es gibt keine Untersuchungen darüber, wie diese 98 Prozent auf ihre Niederlage vor dem Bundesverfassungsgericht reagieren. Wahrscheinlich werden viele von ihnen aber nicht von ihrem Glauben an das Grundgesetz abfallen, sondern nur ihr Vertrauen in das Bundesverfassungsgericht verlieren. So erhielt ich beispielsweise im März 2019 einen Brief von einem gewissen Horst Mahler mit damals gesichertem Aufenthalt in Brandenburg:42 In diesem Brief legte Herr Mahler auf fünf Seiten dar, inwiefern das Bundesverfassungsgericht Art. 5 GG missachte, indem es die Strafbarkeit der Holocaust-Leugnung fälschlich für verfassungsgemäß erkläre. Nun ist Herr Mahler zwar ein sehr gut ausgebildeter Jurist43 und auch sein Schreiben hält die Methodik des juristischen Diskurses ein. Aber dies mag zum einen den Adressaten, dh. Juraprofessoren, geschuldet sein und darf zum anderen nicht darüber hinwegtäuschen, dass Horst Mahler seine Deutungskompetenz über das Grundgesetz nicht aus seiner Eigenschaft als Jurist ableitet, sondern sie als Deutscher beansprucht, dessen Verfassung das Grundgesetz ist. Ein praktisch bedeutsamerer Fall der Aneignung des Grundgesetzes durch die Bürger ereignete sich 2019 auch in Berlin, wo das Volk mit Art. 15 GG eine Norm für sich entdeckt hatte, die im juristischen Diskurs längst ad acta gelegt worden war. Art. 15 GG lautet: „Grund und Boden, Naturschätze und Produktionsmittel können zum Zwe-
Statistiken veröffentlicht das Bundesverfassungsgericht jährlich auf seiner Homepage (https://www. bundesverfassungsgericht.de/DE/Verfahren/Jahresstatistiken/jahresstatistiken_node.html;jsessionid= 53C806A6DC6E25CCDCF69BDC3E663A86.2_cid393, zuletzt abgerufen am 27.08.2019). 42 Brief an den Autor vom 20. Februar 2019. 43 Zum Studium und der Förderung durch die Studienstiftung des Deutschen Volkes ausführlich Alexander Gallus (Hg.), Meinhof, Mahler, Ensslin – Die Akten der Studienstiftung des Deutschen Volkes, 2016, 145 ff. 41
63
64
Sebastian A. E. Martens
cke der Vergesellschaftung durch ein Gesetz, das Art und Ausmaß der Entschädigung regelt, in Gemeineigentum oder in andere Formen der Gemeinwirtschaft überführt werden. Für die Entschädigung gilt Artikel 14 Abs. 3 Satz 3 und 4 entsprechend.“ Eine Initiative startete 2019 ein Volksbegehren mit dem Titel „Deutsche Wohnen & Co. enteignen“, das den Berliner Senat dazu bringen soll, den Wohnungsbestand bestimmter größerer Unternehmen in öffentliches Eigentum zu überführen.44 Abgesehen von ihrer politischen Dimension ist diese Initiative vor allem deshalb so interessant, weil der Inhalt von Art. 15 GG auch für Juristen noch vergleichsweise unbestimmt ist. Zwar hat sich in der Literatur zu zentralen Fragen eine herrschende Meinung herausgebildet. Aber es ist erstens nicht sicher, dass diese herrschende Meinung sich auch vor den Gerichten durchsetzen würde, und zweitens würden sich bei einem solch großen Projekt wie der Änderung des Eigentums an einigen hunderttausend Wohnungen auch zahlreiche, zur Zeit noch gar nicht absehbare neue Fragen stellen, für die dann auch neue Antworten gefunden werden müssten. Bereits jetzt zeigt sich der juristische Diskurs dabei zumindest teilweise offen, da einige Staatsrechtslehrer, darunter der ehemalige Präsident des Bundesverfassungsgerichts Papier,45 ihre Meinungen zu den Zielen des Volksbegehrens nicht nur im juristischen Diskurs, sondern öffentlich kundgegeben haben. In methodischer Hinsicht ist dabei zu beobachten, dass sich die Rechtswissenschaftler ganz den Bedingungen des allgemeinen öffentlichen Diskurses unterwerfen. Ihre Beiträge heben vor allem die jeweilige zentrale Aussage hervor, für die allenfalls eine recht oberflächliche Begründung gegeben wird. Besonderes Gewicht können diese Aussagen daher nur durch die Autorität ihrer Urheber erhalten. Diese Autorität wiederum kann kaum auf größerer fachlicher Kompetenz oder überlegenem fachlichen Wissen beruhen. Denn zum einen wird das Grundgesetz verbreitet eben nicht als Text angesehen, der nur Spezialisten zugänglich ist. Und zum anderen erwecken die teils gegensätzlichen Aussagen der juristischen Spezialisten den Eindruck, dass ihre Meinungen auch nicht mehr als eben bloße Meinungen sind, die keinen qualitativen Unterschied zu den Meinungen anderer Bürger aufweisen und daher auch keinen Vorrang für sich beanspruchen können. Die Aneignung des Grundgesetzes durch die Bürger erfolgt nicht nur durch spontane Akte der Selbstermächtigung, sondern ist zumindest teilweise auch politisch gewollt und wird entsprechend gefördert. Seit dem Inkrafttreten des Grundgesetzes vor siebzig Jahren hat sich die tatsächliche Konstitution der deutschen Gesellschaft grundlegend verändert. Restaurierte man in den fünfziger Jahren noch einmal vermeintlich traditionelle gemeinsame Ideen zu Ehe, Familie, Arbeit und Kirche, so lösten diese sich doch im Laufe der Zeit immer mehr in individuellen Vorstellungen www.dwenteignen.de; dazu etwa Michael Kloepfer, Die Sozialisierung von Wohnungsunternehmen und die Verfassung, Neue Juristische Wochenschrift 2019, 1656–1662; Benedikt Wolfers / Kai-Uwe Opper, Vergesellschaftung von Grund und Boden in Berlin: Zulässig?, DVBl 2019, 542–552. 45 Interview in der „Welt“ v. 20.4.2019. 44
Law french? Das kommt mir spanisch vor
auf, so dass schließlich außer der deutschen Sprache kaum noch etwas Verbindendes übriggeblieben schien. Auf der Suche nach einer deutschen Identität ist vielfach das Grundgesetz ins Spiel gebracht worden.46 Mit der Betonung fundamentaler Freiheiten im Grundrechtskatalog und der demonstrativ vorangestellten und unantastbaren Menschenwürde enthält es nun in der Tat zentrale Werte, auf deren Geltung die meisten Deutschen sich einigen könnten. Zudem wurde das Grundgesetz vom Parlamentarischen Rat bewusst als Gegenentwurf zum Dritten Reich formuliert, so dass auch dieser dunkle Teil des Deutschen gewissermaßen als Negativ in ihm enthalten ist. Es soll hier aber nicht um die inhaltliche Angemessenheit einer aus dem Grundgesetz gewonnenen deutschen Leitkultur, sondern um die Auswirkungen gehen, die eine solche neue Verwendung des Grundgesetzes auch für die juristische Bedeutung dieses Textes hätte. Das Grundgesetz enthält zwar 198 Artikel, von denen sich die meisten aber mit der Organisation des Staates und seiner Institutionen beschäftigen. Für eine Leitkultur enthalten daher vor allem die Grundrechte der Art. 1 bis 19 und Art. 20 mit seinen wichtigen Aussagen zu den Grundlagen des Staates bedeutsame Aussagen. Die Grundrechte waren freilich ursprünglich als Freiheitsrechte der Bürger gegen den Staat gedacht. Werden nun die Bürger auf die Grundrechte als Leitkultur verpflichtet, so kehrt sich deren Schutzrichtung zumindest teilweise um: Der Staat fordert Solidarität von den Bürgern ein, indem sie sich seine Werte zu eigen und diese in gewisser, näher zu bestimmender Weise aktiv als Leitkultur im sozialen Alltag mit Leben erfüllen sollen. Die neue gemeinschaftsbildende Funktion der Grundrechte würde freilich nur einen Funktionswandel verstärken, der im verfassungsrechtlichen Diskurs schon seit Jahrzehnten zu beobachten ist. Bereits 1958 hat das Bundesverfassungsrecht in seinem sogenannten „Lüth-Urteil“47 in den Grundrechten eine „objektive Wertordnung“ erkannt, die zwar nicht direkt die Bürger verpflichtet, die aber bei der Auslegung und Anwendung jeder einfachgesetzlichen Regel zu beachten ist und auf diese Weise auch im Verhältnis der Bürger untereinander Wirkungen entfaltet. Diese sogenannte mittelbare Drittwirkung der Grundrechte hat zu einer verfassungsrechtlichen Aufladung des einfachen Rechts geführt.48 Die Grenzen zwischen einfachem Recht und Verfassungsrecht sind schwer zu bestimmen, da sich methodisch korrekt heute jede Rechtsfrage (zumindest auch) als Frage des Verfassungsrechts formulieren lässt. Öffnet man vor
Siehe nur beispielhaft die Beiträge Pro und Contra von Christoph von Marschall und Ariane Bemmer zur Frage „Taugt die Verfassung als Leitkultur für Deutschland?“ in „Der Tagesspiegel“ v. 23.5.2017 (https:// www.tagesspiegel.de/politik/tag-des-grundgesetzes-taugt-die-verfassung-als-leitkultur-fuer-deutschland/ 19840468.html, zuletzt abgerufen am 06.03.2023); anders etwa Josef Isensee, Integration mit Migrationshintergrund, Juristenzeitung 2010, 317–327, 320. 47 BVerfGE 7, 198 ff.; dazu etwa Thomas Darnstädt, Die Suche nach dem richtigen Weg – Die Auslegung des Grundgesetzes durch das Bundesverfassungsgericht, NJW 2019, 1580–1586, 1584 ff. 48 Claus-Wilhelm Canaris, Wandlungen des Schuldvertragsrechts. Tendenzen zu seiner „Materialisierung“, Archiv für die civilistische Praxis 200 (2000), 273–364 46
65
66
Sebastian A. E. Martens
diesem Hintergrund den verfassungsrechtlichen Diskurs für die Bürger, können diese folglich zu jeder Rechtsfrage mit ihrer Deutung des Grundgesetzes Stellung beziehen. Eben dies hat der bereits erwähnte Herr Zankl im Deutschlandfunk getan und Ähnliches ist in allen Kommentarforen der großen Leitmedien regelmäßig zu beobachten. Unterstützt wird diese allgemeine Verwendung der Verfassung nicht zuletzt durch die Politik, in der gegnerische Positionen regelmäßig als verfassungswidrig diskreditiert werden. Beliebt ist dabei insbesondere ein argumentatives Foulspiel, indem mit der Menschenwürde der höchste Trumpf gezogen wird, der jede weitere Diskussion unmöglich macht. Die allgemeine Verwendung der Verfassung und ihre Emanzipation von der Herrschaft der Juristen ist kein Zufall, sondern gewissermaßen durch ihre Natur und Herkunft bedingt. Die moderne Idee eines Verfassungstexts ist erst im 18. Jahrhundert entstanden. Noch die Frühe Neuzeit kannte nur verschiedene leges fundamentales, welche Fragen der politischen Organisation des Gemeinwesens beantworteten und vor allem das Verhältnis von Herrscher und Ständen regelten.49 Diese leges fundamentales bildeten aber kein geschlossenes und umfassendes System. Selbst die ursprüngliche amerikanische constitution von 1787 regelte nur das Staatsorganisationsrecht und wurde erst 1791 durch einen Grundrechtsteil ergänzt, der seinerseits die englische Bill of Rights von 1689 zum Vorbild hatte. Die amerikanische constitution und die constitutions der französischen Revolution dienten fortan ihrerseits als Vorbilder für alle künftigen Verfassungen. Von entscheidender Bedeutung für die Idee solcher Verfassungstexte war insbesondere Montesquieu, der 1748 wegweisende Gedanken zum „Esprit des loix“ veröffentlicht hatte. Montesquieu hatte u. a. gefordert, dass die Gesetze dem ihnen unterworfenen Volk angemessen sein müssten. Die Gesetze müssten dem Klima, der Vegetation, den Ressourcen usw. angepasst sein, kurz: Sie müssten der Verfassung des Volks entsprechen, für das sie Geltung beanspruchen sollten.50 Für die amerikanischen und französischen Revolutionäre lag es nun nahe, diese Verfassung ihrer Völker nicht bloß als Grundlage ihrer übrigen Gesetzgebung zu nehmen, sondern sie selbst zum Gegenstand der Gesetzgebung zu machen und so ihr Staatswesen neu zu formen. In ihren Verfassungstexten kodifizierten sie daher umfassend alle Regeln für die so verstandene Verfassung ihrer Gemeinwesen. Die modernen Verfassungstexte haben zwar die Form einfachgesetzlicher Kodifikationen wie etwa das BGB, das StGB oder die ZPO. Diese Form ist aber für ihren Gegenstand und ihre Funktion nur bedingt geeignet. Die Verfassungstexte sollen die
Heinz Mohnhaupt, Stichwort „leges fundamentales“, Handwörterbuch zur deutschen Rechtsgeschichte, Bd. 3, 2016, Sp. 693 ff. 50 Montesquieu, The Spirit of the Laws, hg. von Anne M. Cohler / Basia C. Miller / Harold S. Stone, 1989, 231 (Buch 14, Kapitel 1: „If it is true that the character of the spirit and the passions of the heart are extremely different in the various climates, laws should be relative to the differences in these passions and to the differences in these characters“). 49
Law french? Das kommt mir spanisch vor
angemessenen grundlegenden Regeln für die staatlich verfasste Gemeinschaft, eben ihre Verfassung, enthalten. Wie die Gesellschaft verfasst sein sollte, ist freilich stets die zentrale politische Frage. Sie kann jedenfalls nicht in derselben Weise abschließend beantwortet werden wie Entscheidungsfragen zur Lösung konkreter isolierter Sachprobleme ohne allgemein-gesellschaftliche Relevanz. Welche Fragen eine solche allgemeine, die Verfassung der Gesellschaft berührende Bedeutung haben, lässt sich wiederum nicht abstrakt bestimmen, sondern muss im politischen Diskurs ausgehandelt werden. Vor diesem Hintergrund ist es nicht erstaunlich, dass es zum einen im verfassungsrechtlichen Diskurs bis heute nicht gelungen ist, (1.) verfassungsrechtliche von einfachgesetzlichen Fragen zu unterscheiden und (2.) verfassungsrechtliche von politischen Argumenten klar zu scheiden. Zum anderen kann auch nicht verwundern, dass die Gesellschaft bei der Frage ihrer Verfassung mitreden will und keine Bevormundung durch eine elitäre Juristenaristokratie akzeptiert. 5.
Schluss und Ausblick
Das Rechtssystem interagiert stets mit der sozialen Wirklichkeit.51 Es kann deshalb seinen Diskurs nicht losgelöst von dieser Wirklichkeit führen. Für die Möglichkeit einer eigenen Sprache des Rechts bedeutet dies, dass eine doppelte Übersetzung notwendig wäre: Zumindest muss das Recht die sozialen Konflikte, die es lösen soll, stets in seine eigene Sprache und seine eigenen Entscheidungen der Konflikte wiederum in die Sprache der an dem Konflikt Beteiligten übersetzen. Wie das Beispiel des Law French gezeigt hat, wäre eine für Außenstehende gänzlich unverständliche Juristensprache aber auch bei einer solchen doppelten Übersetzungsleistung in modernen westlichen Gesellschaften nicht akzeptabel. Juristen haben ihre Rolle als Experten für das Recht zwar bislang erfolgreich verteidigen können. Aber es wird doch heute vielfach eine Allgemeinverständlichkeit des Rechts bzw. der Handlungen seiner Institutionen verlangt. Gerichtsurteile müssen offen begründet werden; Gesetze sollen (möglichst) auch dem Bürger verständlich sein, der sich an sie halten soll; die Verfahren der Gesetzgebung sollen transparent sein, usw. Besonders weit geht die Emanzipation der Bürger von der Herrschaft juristischer Experten, wie gezeigt, im Bereich des Verfassungsrechts. Wer den Inhalt der Regeln für das Zusammenleben in der Gemeinschaft bestimmen kann, ist eine Machtfrage. Es besteht keine natürliche Notwendigkeit, dass sich eine Klasse von Juristen herausbilden müsste, die hier eine Vorrangstellung hat. Soweit eine solche Gruppe von Spezialisten des Rechts existiert, ist sie regelmäßig auf eine gewisse Akzeptanz der übrigen Rechtsunterworfenen angewiesen, damit die Regeln des Rechts praktische Wirksamkeit entfalten können. Diese Akzeptanz setzt wiederum,
51
Grundlegend Niklas Luhmann, Das Recht der Gesellschaft, 1993, 440 ff.
67
68
Sebastian A. E. Martens
zumindest in modernen westlichen Gesellschaften, voraus, dass das Rechtsystem und seine Äußerungen für die Bevölkerung hinreichend verständlich sind. Zudem müssen die Handlungen der Juristen den Anforderungen genügen, welche die Bevölkerung an diese Handlungen stellt. Eine vor kurzem erschienene Doktorarbeit hat versucht, die Regeln korrekter juristischer Methodik aus eben solchen Erwartungen der Bevölkerung an die Juristen zu entwickeln.52 Dieser Versuch vermag zwar kaum zu überzeugen, da er von unrealistischen Annahmen über die Vorstellungen der Bevölkerung von juristischer Arbeit ausgeht. Aber es trifft doch sicher zu, dass die Erwartungen der Rechtsunterworfenen die Handlungen der Juristen (mit-)beeinflussen. Dies gilt allerdings nicht nur hinsichtlich der Form, dh. vor allem der Sprache, sondern sogar noch stärker hinsichtlich der konkreten Inhalte des Rechts. Insbesondere die Urteile der Strafgerichte werden nicht nur von der Bildzeitung trotz der Erfahrungen des Dritten Reichs auch heute noch regelmäßig am gesunden Volksempfinden gemessen. Die allgemeinen Wertvorstellungen können aber auch auf die Begriffsbildung der Juristen Einfluss haben bzw. ihrerseits von den juristischen Konzeptionen beeinflusst werden, wie das Beispiel des Eigentumsbegriffs gezeigt hat. Der juristische Diskurs und seine Umwelt stehen also in einer komplexen Beziehung. Zwar fällt es schwer, die normative Kraft der faktischen Umweltbedingungen für das Recht zu erklären, da seit David Hume eigentlich klar ist, dass aus einem Sein nie ein Sollen gefolgert werden kann. Die juristische Praxis geht über diese Schwierigkeiten der Theorie aber regelmäßig hinweg und verkündet ihre Urteile ganz ungeniert „Im Namen des Volkes!“ Sebastian A. E. Martens
Universität Passau, Lehrstuhl für Bürgerliches Recht, Römisches Recht, Europäisches Privatrecht und Europäische Rechtsgeschichte, Universität Passau, Innstraße 39, 94032 Passau
52
Jannis Lennartz, Dogmatik als Methode, 2017.
Schichten und Felder* Wissen in der Rechtswissenschaft
OL AF MUTHORST
Abstract: Der Text will einen Beitrag zur Gegenstandsbestimmung der Rechtswissenschaft leisten
durch eine mehrdimensionale Strukturierung rechtlichen Wissens, und zwar einerseits anhand der zwei Achsen Praxis – Theorie der Praxis – Theorie sowie deskriptiv – de lege lata – de lege ferenda, andererseits anhand der Grenzflächen, die bei Subsumtion unter Fragekontexte erkennbar werden; schließlich mit dem Index der Zeit und dem des Ortes. Der dieser Strukturierung zugrundeliegende disziplinäre Rechtsbegriff konstituiert das Forschungsfeld unabhängig vom methodischen Paradigma und unabhängig von legitimatorischen Strategien als Wissen über die Anwendung, Systematik und Geltung, deskriptiv und normativ verstanden, in Bezug auf durch ihren spezifischen Geltungsanspruch ausgezeichnete Normen.
Aus der Binnenperspektive eines Rechtswissenschaftlers ist die Rechtswissenschaft stärker und dringlicher als andere Fächer in einen reichhaltigen Diskurs über Gegenstand und Methode verwickelt. Er kreist um die Fragen „was ist Recht?“1 und „kann man Recht wissenschaftlich behandeln?“2 und begleitet die Rechtswissenschaft, seit sie aus der Pragmatik heraus in den Fokus der Theorie getreten ist.3 Er hat nicht nur unmittelbare justiz- und wissenschaftspolitische Implikationen – erwähnt seien nur die immerwährende Reform der Juristenausbildung und die Aufgabenteilung zwischen Universitäten und Fachhochschulen –, sondern er hat auch unmittelbare Rück-
Herrn wiss. Mit. Moritz Hien danke ich herzlich für die Durchsicht des Materials. Statt vieler vgl. Immanuel Kant, Die Metaphysik der Sitten, Werke (hg. von W. Weischedel), Bd. 8, 1977, 336 f. 2 Vgl. Olaf Muthorst, Grundlagen der Rechtswissenschaft, 2019, 1 ff., 5 ff. mit weiteren Nachweisen. 3 Namentlich ist die Zeit der großen Privatrechtsdogmatiker Savigny und Puchta zu nennen, vgl. HansPeter Haferkamp, Georg Friedrich Puchta und die „Begriffsjurisprudenz“, 2004, 118 ff. * 1
70
Olaf Muthorst
wirkungen auf die Anschlussfähigkeit des fachlichen Handelns der Juristinnen und Juristen. Diesen Zusammenhang nimmt der folgende Beitrag zum Anlass für eine Strukturierung des fachlichen Handelns der Juristinnen und Juristen anhand eines mehrdimensionalen Begriffs von Wissen in der Rechtswissenschaft, um daraus umgekehrt Konsequenzen für eine Gegenstandsbestimmung derselben zu ziehen. Im Folgenden sollen zunächst die Prämissen eines solchen Strukturierungsversuchs aufgewiesen werden (I.), bevor eine horizontale und vertikale Struktur vorgeschlagen und kritisch abgesichert wird (II.). Dabei soll – entsprechend der Zielsetzung der Tagung – herausgestrichen werden, in welchen Strukturbereichen sich das Wissen auf Fragen bezieht, die innerhalb der Rechtswissenschaft als zulässig/einschlägig erscheinen und deren Beantwortung mit den Mitteln der Wissenschaft erwartet werden kann (1. Fragekontext), in welchen Strukturbereichen sich das Wissen auf Fragen bezieht, die innerhalb der Wissenschaft zwar gestellt werden und deren grundsätzliche Beantwortbarkeit erwartet werden kann, indes nicht unter ausschließlicher Nutzung der von der jeweiligen Wissenschaft bereitgestellten Mittel (2. Fragekontext) und an welchen Grenzflächen die Übergänge liegen zu Fragen, die nicht nach einschlägigen empirischen oder formalen Methoden innerhalb der jeweiligen Wissenschaft beantwortbar sind (3. Fragekontext).4 Schließlich werden als Konsequenz dieser Strukturierung Elemente eines disziplinären Rechtsbegriffs formuliert, der den Gegenstand der Rechtswissenschaft sachhaltig, aber so voraussetzungslos wie möglich bestimmt (III.). 1. Prämissen
Eine Arbeit, die nach Wissen in der Rechtswissenschaft fragt, setzt mancherlei voraus, unter anderem, dass es „die Rechtswissenschaft“ überhaupt gibt und dass es sinnvoll ist, in ihrem Zusammenhang von „Wissen“ zu sprechen. Rechtswissenschaft ist historisch eher an Dualismen von Recht und seiner wissenschaftlichen Bearbeitung – ius civile, ius gentium; gemeines Recht, partikulares Recht; weltliches Recht, kanonisches Recht; Rechtsdogmatik, Grundlagenfächer – denn an einer Identität ausgerichtet. In der Gegenwart dürfte überdies die Beobachtung einer rasant fortschreitenden Spezialisierung und Ausdifferenzierung zu der herrschenden Vorstellung von miteinander nur noch lose verbundenen und unter einander kaum noch sprechfähigen Subdisziplinen führen. Dieser Befund soll hier nicht in Frage gestellt, aber anders akzentuiert werden. Die Prämisse lautet demnach nicht, es gebe nur „die eine“ Rechtswissenschaft.5 Sie geht vielmehr dahin, dass es eine Rechtswissenschaft im Sinne eines geteilten wissenschaftlichen Projektes gibt, das aus verschiedeVgl. zur Vorstellung der Fragekontexte das Einführungskapitel, S. 7 f. Statt von der Rechtswissenschaft von Rechtswissenschaften schreibt etwa Matthias Jestaedt, Perspektiven der Rechtswissenschaftstheorie, in: Rechtswissenschaftstheorie, hg. von M. Jestaedt / O. Lepsius, 2008, 185, 4 5
Schichten und Felder
nen Richtungen, aus verschiedenen Erkenntnisinteressen und unter verschiedenen methodischen Paradigmen betrieben wird und dem doch eine einheitliche Wissensstruktur zugrunde liegt.6 Wenn dabei – zweitens – der Begriff des „Wissens“ vorausgesetzt ist, so geht es allerdings nicht um die Frage, unter welchen Voraussetzungen von der Wahrheit oder Unwahrheit einer rechtswissenschaftlichen Aussage gesprochen werden kann. Es geht mit anderen Worten nicht um die Frage, was Rechtswissenschaft wissen kann oder wie rechtswissenschaftliches Wissen möglich ist.7 Hier interessiert allein, wie sich das – angebliche, wirkliche oder vermeintliche – rechtswissenschaftliche Wissen strukturieren lässt. 2. These
Die hier vorgeschlagene Strukturierung beruht auf der Unterscheidung zweier Achsen, auf denen sich Wissen allgemein – und damit auch: rechtswissenschaftliches Wissen – verortet. Eine erste Achse spannt sich auf zwischen dem Pol des Wissens in Bezug auf die Praxis in einem Gegenstandsbereich auf der einen, dem des Wissens in Bezug auf den Gegenstandsbereich in theoretischer Hinsicht auf der anderen Seite. Auf dieser Achse lässt sich als ein Übergangsbereich dasjenige Wissen abtragen, das sich auf die Theorie der Praxis in diesem Gegenstandsbereich bezieht. Eine zweite Unterscheidung lässt sich quer dazu danach anbringen, ob es sich um Wissen handelt, das sich auf den Gegenstandsbereich in seiner realen Gestalt bezieht, also in Anspruch nimmt, den Gegenstandsbereich empirisch zu rekonstruieren, oder um Wissen, das Aussagen über die mögliche(n) Gestalt(en), d. h. normative Rekonstruktionen im jeweiligen Gegenstandsbereich betrifft. Auch auf dieser Achse lässt sich ein Übergangsbereich zwischen empirischer und normativer Rekonstruktion identifizieren. Diese Differenzierungen seien für den Gegenstandsbereich des Rechts expliziert.
195 ff. Nach hier vertretener Auffassung stellen einzelne Subdisziplinen jedoch nicht die Möglichkeit eines einheitlichen disziplinären Rechtswissenschaftsbegriffs in Frage. 6 Als Stimme für einen methodologischen Pluralismus in der Rechtswissenschaft vgl. Christopher McCrudden, Legal Research and the Social Sciences, L. Q. R. 122 (2006), 632 (642 ff.). Schon Karl Larenz, Methodenlehre der Rechtswissenschaft, 1991, 189 f. fasste die einzelnen Teildisziplinen (Rechtsphilosophie, -theorie, -soziologie, -geschichte und Jurisprudenz) als Erscheinungsweisen „des Rechts“ mit lediglich unterschiedlicher Perspektive auf diesen Gegenstand auf: „[…] das Recht [ist] ein überaus komplexes Phänomen […], das sich auf verschiedenen Ebenen des Seins, in jeweils verschiedenen Zusammenhängen zeigt.“ 7 Vgl. in diesem Sinne das spekulative Programm der Erkenntnistheorie seit Immanuel Kant, Kritik der reinen Vernunft, Werke (hg. von W. Weischedel), Bd. 3/4, 1974, 58 ff., 62 ff., 677.
71
72
Olaf Muthorst
2.1 Schichten
Bezogen auf den Gegenstandsbereich des Rechts liegt der ersten Achse die Beobachtung zugrunde, dass rechtliches Wissen in den drei verschiedenen Zusammenhängen der Praxis, der Theorie und der Dogmatik besteht. Der erste, primäre, Zusammenhang ist als Wissen über die Anwendung von Recht konstituiert durch diejenigen, die sich als Unterworfene des Rechts auf jenes beziehen, sowie durch diejenigen, durch die sie darauf bezogen werden. Dies sind jene, für deren Verhalten in der Lebenswirklichkeit das Recht Maßstäbe der Orientierung und der Kontrolle artikuliert. In entwickelten Gesellschaften sind in diesen Zusammenhang von den Betroffenen unabhängige Rechtsanwender als Entscheider einbezogen sowie im Weiteren rechtskundige Fürsprecher als Parteivertreter. Letztlich ist es die forensische Szenerie. In ihr wird Recht auf Lebenssachverhalte angewendet, d. h. es wird darüber gestritten und darüber entschieden, was das Recht für diesen oder jenen gedachten oder realen Lebenssachverhalt bedeutet. Das Wissen darüber ist Wissen über die Anwendung von Recht.8 Die Frage nach der Anwendung von Recht auf Lebenssachverhalte stellt sich strenggenommen nur in den zweifelhaften Fällen – und in gewisser Hinsicht ist wiederum jeder Fall ein zweifelhafter Fall –, wo sie sich stellt, ist sie aber eine Frage, die innerhalb der Rechtswissenschaft als zulässig und einschlägig erscheint und deren Beantwortung mit den Mitteln der Wissenschaft erwartet werden kann (1. Fragekontext) oder deren grundsätzliche Beantwortbarkeit zwar erwartet werden kann, indes nicht unter ausschließlicher Nutzung der von der Rechtswissenschaft bereitgestellten Mittel9 (2. Fragekontext; dabei ist mit der letztgenannten Konstellation nicht die Aufklärung des individuell-konkreten Lebenssachverhalts angesprochen, die für die Subsumtionsentscheidung vorausgesetzt ist, sondern die Verfügbarmachung desjenigen Weltwissens, das notwendig ist, um die generell-abstrakte Rechtsnorm so weit sinnentnehmend zu erfassen, dass über die Subsumtion als Anwendung dieser Norm entschieden werden kann.). Demgegenüber konstituiert sich der zweite, theoretische Wissenszusammenhang durch die Frage nach dem Geltungsgrund des Rechts, mithin nach dem Richtigkeitskriterium für das Wissen des ersten Zusammenhanges. Es ist zugleich die Frage nach dem Rechtsbegriff in ihrer legitimatorischen Richtung.10 Wissen auf dieser Ebene bezieht sich nicht auf die Anwendung des Rechts als Maßstab der Orientierung und KonVgl. zum Anwendungsbezug und zur Unterscheidung von Theorie und Praxis nach Hans-Georg Gadamer bei Stefan Kirste, Einführung in die Rechtsphilosophie, 2018, 28 f. 9 Vgl. Bernd Rüthers / Christian Fischer / Axel Birk, Rechtstheorie, 2022, 194 f. 10 Vgl. für die Wertbezogenheit des Rechtsbegriffs insbesondere Gustav Radbruch, Gesetzliches Unrecht und übergesetzliches Recht, SJZ 1946, 105, 107; ders., Rechtsphilosophie, 1973, 119 ff. Anders umfasst das System Recht Recht und Unrecht, vgl. Niklas Luhmann, Rechtssystem und Rechtsdogmatik, 1974, 35, und die Rechtswissenschaft befasst sich seitjeher mit Recht und Unrecht, vgl. Ulpian, libro secundo regularum, D. 1.1.10.2. 8
Schichten und Felder
trolle, sondern auf die Gewinnung eines solchen Maßstabs. Ebenso wie das erstere ist es Wissen über den Gegenstandsbereich Recht, aber es ist theoretisches rechtliches Wissen.11 Oberhalb dessen verbindet sich Wissen über Recht mit Wissen über jeden anderen Gegenstand und ist damit nicht mehr spezifisch rechtlich. Demgemäß lassen sich Fragen oberhalb der Frage nach dem Geltungsgrund nicht mehr mit den einschlägigen empirischen oder formalen Methoden innerhalb der Rechtswissenschaft beantworten und sind damit dem Fragekontext des 3. Typs zuzuordnen. Ob die Frage nach dem Geltungsgrund selbst als innerhalb der Rechtswissenschaft beantwortbar eingeschätzt wird, hängt davon ab, ob man auf diese Frage mit einer internen oder externen Argumentationsstrategie antwortet. Im letztgenannten Fall würde man den Geltungsgrund des Rechts auf der Grundlage außerrechtlicher Prämissen formulieren, eine interne Argumentationsstrategie würde die Geltung des Rechts aus sich selbst heraus begründen. Hier ist nicht entscheidend, welche dieser Strategien die einsichtigere Argumentation verspricht. Wichtig ist nur, dass die Entscheidung zwischen einer internen und einer externen Argumentationsstrategie auch dann, wenn sie zugunsten einer internen Argumentationsstrategie ausfällt, ihrerseits kein Gegenstand der Rechtswissenschaft ist, sondern zum 3. Fragekontext gehört: Auch sie liegt oberhalb der Frage nach dem Geltungsgrund. In einer systemtheoretischen Sprechweise könnte man sagen, die Anforderungen, die an eine Geltungsargumentation gestellt werden und anhand derer sich entscheidet, ob eine interne oder eine externe Argumentationsstrategie verfolgt werden kann oder muss, gehören aus Sicht der Rechtswissenschaft zur System-Umwelt.12 Selbst eine interne Argumentationsstrategie führt deshalb nicht dazu, dass die Frage nach dem Geltungsgrund des Rechts dem 1. Fragekontext zugeordnet werden könnte, denn eine Antwort kann niemals unter ausschließlicher Nutzung der von der Rechtswissenschaft selbst bereitgestellten Mittel formuliert werden. Das gilt unabhängig davon, wie weit der Begriff der Rechtswissenschaft verstanden werden soll. Eine Antwort auf die Frage nach dem Geltungsgrund setzt immer einen Ausgangspunkt außerhalb der Rechtswissenschaft voraus. Die Frage nach dem Geltungsgrund des Rechts ist bei einer internen Argumentation daher dem 2. Fragekontext, bei einer externen dem 3. Fragekontext zuzuordnen. Der dritte Zusammenhang ist – auf der mittleren Ebene zwischen Anwendungs- und Theoriewissen – als Wissen in Bezug auf die Theorie der Praxis konstituiert durch die
In anderen Worten sind Meta-Aussagen über die Rechtssatzbehauptungen nicht Teil der Rechtsdogmatik, vgl. Günther Jahr, Zum Verhältnis von Rechtstheorie und Rechtsdogmatik, in: Rechtstheorie, hg. von ders., 1971, 308. Vgl. auch Jacquess Derrida, Gesetzeskraft, 1991, 28 f. 12 Vgl. Niklas Luhmann (Fn. 10), 20 f.: „Übersetzt man diesen Gedanken in eine moderne, systemtheoretische Sprache, dann kann man sagen, daß Gerechtigkeit als Perfektion der Einheit des Systems sich auf die gesamtgesellschaftlichen Anforderungen an Recht bezieht und daß die Dogmatik die rechtssysteminterne Ebene darstellt, auf der diese Anforderungen respezifiziert und operationalisiert werden. Dogmatik ist danach die systeminterne Fassung einer Komplexität, die als Einheit nur vorstellbar wird, wenn man das Rechtssystem auf seine gesellschaftliche Umwelt bezieht.“ 11
73
74
Olaf Muthorst
systematische Iteration von Anwendungen.13 Sie ist Folge des Umstandes, dass sich jede einzelne Anwendung von Recht auf andere Anwendungen diachron wie synchron bezieht, denen sie sich anschließt oder von denen sie sich abgrenzt. Sich auf diese Iteration beziehendes Wissen ist von Wissen in Bezug auf die Geltung ebenso wie von solchem über die Anwendung zu unterscheiden, wiewohl Geltungsgrund und Anwendungspraxis ihrerseits mitkonstitutiv für die Systematik sind. Das aus der systematischen Iteration konstituierte Wissen bezieht sich aber selbst nicht auf Geltungsgrund und Anwendungspraxis, sondern bringt beides nur mit ihrem systematischen Gehalt zum Ausdruck, es ist dogmatisches Wissen. Fragen nach der Theorie der Praxis sind Fragen, die dem 1. oder 2. Fragekontext zuzuordnen sind. Sie können dann nicht unter ausschließlicher Nutzung der von der Rechtswissenschaft bereitgestellten Mittel beantwortet werden, wenn das zugrunde liegende theoretische Modell die Einbeziehung außerrechtlichen Wissens voraussetzt. In diesem Bereich liegt allerdings ein – aus Sicht des hier vertretenen Modells – fließender Übergang, insofern die Grenzlinie zum außerrechtlichen Wissen nicht aus der Struktur rechtlichen Wissens abgeleitet werden kann. Beispielsweise können Fragen der empirischen Methoden als Fragen der Rechtswissenschaft verstanden werden, weil sie sich auf die (empirische) Beschreibung ihres Gegenstands beziehen, sie können aber auch als Fragen der Sozialwissenschaften oder der Mathematik verstanden werden, wenn nicht der Gegenstandsbezug, sondern der methodische Zusammenhang, in dem sie sich stellen, in den Fokus genommen wird. Aufs Ganze gesehen verbindet die anhand dieser Zusammenhänge explizierte Achse drei verschiedene Ebenen rechtlichen Wissens, die jeweils aufeinander aufbauen – Anwendungswissen, Dogmatikwissen, Geltungswissen –, so dass es angemessen erscheint, hier von Wissens-Schichten zu sprechen. 2.2 Felder
Demgegenüber ist die zweite Achse, die rechtliches Wissen strukturiert, durch die Unterscheidung zwischen deskriptiven und normativen Aussagen konstituiert. Jede Beschreibung eines Gegenstands kann deskriptiv ansetzen oder sich affirmativ oder kritisch in Beziehung setzen zu hypothetischen Alternativen, auf diese Weise also einen normativen Ansatz artikulieren. Aus diesen Perspektiven erzeugtes oder zu erzeugendes Wissen ist deskriptives bzw. normatives Wissen. Diese Unterscheidung lässt sich auf jede der genannten Schichten anwenden, ist von der Charakterisierung als Anwendungs-, Dogmatik- oder Geltungswissen also unabhängig. In jeder Schicht lässt sich Von „Wissenschaft in Praxis“ spricht Matthias Jestaedt, Wissenschaft im Recht, JZ 2014, 1, 5 ff. Grundsätzlich zum schwer einzuordnenden Begriff der Rechtsdogmatik als Theorie der Praxis vgl. Christian Bumke, Rechtsdogmatik, 2017, 186 ff.; ders. Rechtsdogmatik, JZ 2014, 641 ff.; Christian Waldhoff, Kritik und Lob der Dogmatik, in: Was weiß Dogmatik?, hg. von G. Kirchhof / S. Magen / K. Schneider, 2012, 17 ff. 13
Schichten und Felder
daher ein Feld deskriptiven Wissens von einem Feld normativen Wissens unterscheiden. Zwischen diesen Feldern liegt jeweils ein Feld deskriptiv (empirisch) begründeten normativen Wissens. Dabei bedeutet „deskriptiv begründet“, dass die normative Alternative, zu der der Gegenstand in Beziehung gesetzt wird, aus der Übereinstimmung mit dem geltenden Recht begründet wird (de lege lata), nicht aus der Übereinstimmung mit einem zu schaffenden, künftigen Recht (de lege ferenda). In jeder Schicht lässt sich daher unterscheiden, ob das rechtliche Wissen deskriptiver Natur ist, ob es sich auf das geltende Recht bezieht oder auf ein erst zu schaffendes künftiges Recht.14 Mit anderen Worten kann Anwendungswissen auf die Frage antworten, wie das Recht auf einen konkreten Sachverhalt angewendet wird (deskriptiv), darauf, ob diese Anwendung der geltenden Rechtslage entspricht (de lege lata), oder darauf, wie sich das Recht auf einen konkreten Sachverhalt beziehen sollte (de lege ferenda). Entsprechend kann sich dogmatisches Wissen auf die Anwendung deskriptiv beziehen und damit seinerseits deskriptives Wissen sein, auf die Anwendung de lege lata oder auf die Anwendung de lege ferenda.15 Schließlich kann auch die Frage nach dem Geltungsgrund des forensisch und dogmatisch Gewussten deskriptiv beantwortet werden, d. h. mit einer empirischen Rechtstheorie, die Geltung als faktische Geltung versteht. Auch diese Frage kann aber ebenso de lege lata oder de lege ferenda beantwortet werden, also vor dem Hintergrund des geltenden oder eines zu schaffenden künftigen Rechts, also mit einem juridischen Geltungsbegriff. Dabei kennzeichnet der Begriff des „Feldes“16 zutreffend, dass sich diese drei Perspektiven analytisch klar trennen lassen, d. h. eine Perspektive ist entweder deskriptiv oder normativ und sie wird entweder aus der Richtung des geltenden oder des künftigen Rechts eingenommen. Zwischen diesen Perspektiven lassen sich aber gleichwohl Wechselwirkungen beobachten, so dass die Feld-Metapher auch insoweit das Richtige trifft. Deskriptive und normative Perspektive sind nur jeweils bezogen aufeinander sinnvolle Standpunkte mit Blick auf den geteilten Gegenstand „Recht“.
14 Vgl. Robert Alexy, Theorie der juristischen Argumentation, 1978, 308 f., der eine deskriptiv-empirische, logisch-analytische und normativ-praktische Dimension der Rechtsdogmatik unterscheidet. Vgl. entsprechend in der Lehrbuchliteratur etwa Bernd Rüthers / Christian Fischer / Axel Birk (Fn. 9), 208; Stephan Kirste, Einführung in die Rechtsphilosophie, 2018, 38. Eine vergleichbare Dreiteilung „of the whole of legal science“ findet sich bei Hermann U. Kantorowicz / Edwin W. Patterson, Legal Science, Columbia Law Review 28/6 (1928), 679 (691): constructive, empirical, deontological. Dazu und ihrer neukantianischen Grundlage vgl. Marietta Auer, Zum Erkenntnisziel der Rechtstheorie, 2018, 20 ff. Für eine Zweiteilung – jedenfalls der Rechtsdogmatik – Ralf Dreier, Was ist und wozu Allgemeine Rechtstheorie?, 1975, 14 f. 15 Dem widerspricht nicht, dass die Rechtsdogmatik im engeren Sinne als die „Lehre vom geltenden Recht“ verstanden wird, vgl. etwa Karl Riesenhuber, Normative Dogmatik des Europäischen Privatrechts, in: Privatrechtsdogmatik im 21. Jahrhundert, hg. von M. Auer / H. C. Grigoleit / J. Hager / C. Herresthal / F. Hey / I. Koller / K. Langenbucher / J. Neuner / J. Petersen / T. Riehm / R. Singer, 2017, 182 f. mit weiteren Nachweisen. 16 Bernd Rüthers / Christian Fischer / Axel Birk (Fn. 9), 208 sprechen von „Bereichen“; Stefan Kirste (Fn. 8), 38 spricht von „Dimensionen“.
75
76
Olaf Muthorst
Wird die Frage nach der Anwendung des Rechts deskriptiv gestellt, ist sie mit den Mitteln der Rechtswissenschaft beantwortbar. Gleiches gilt für die dogmatische Frage nach der Systematik der Anwendung. In deskriptiver Perspektive sind beide Fragen daher dem 1. Fragekontext zuzuordnen. Im Übrigen ist die Zuordnung zu einem der genannten Fragekontexte nach den oben geschilderten Überlegungen aber unabhängig davon, ob die Frage aus deskriptiver oder normativer Perspektive gestellt wird. Eine deskriptive Perspektive kann ebenso wie eine normative Perspektive je nach zugrunde liegenden Prämissen bei Fragen der Anwendung, Dogmatik oder Geltung auf Mittel angewiesen sein, die nicht von der Rechtswissenschaft bereitgestellt werden. 2.3 Matrix
Mit der sich daraus ergebenden Matrix ist eine Strukturierung rechtlichen Wissens vorgeschlagen, die die Zusammenhänge näher bestimmt, in denen rechtliches Wissen gewonnen wird, und zwar einerseits anhand der zwei Achsen Praxis – Theorie der Praxis – Theorie sowie deskriptiv – de lege lata – de lege ferenda, andererseits anhand der Grenzflächen, die bei Subsumtion unter die drei Fragekontexte erkennbar werden. Zusätzlich ist diese Matrix mit dem Index der Zeit und dem des Ortes versehen, d. h. Wissen in Bezug auf Anwendung, Dogmatik und Geltung ist sowohl deskriptiv wie normativ gültig immer nur als Wissen in Bezug auf eine gegebene Zeit und einen gegebenen Ort. Umgekehrt führen weder die Geschichtlichkeit des Rechts noch die lokale Gebundenheit von Recht zu jenseits von Anwendung, Dogmatik oder Geltung liegenden deskriptiven oder normativen Wissensbeständen. 3. Konsequenzen
Hält man eine derartige Strukturierung des in der Rechtswissenschaft thematischen Wissens für plausibel, bietet das einerseits die Möglichkeit, konkrete Forschungsfragen systematisch zu verorten und ihren fachsystematischen Status dadurch zu bestimmen. Das erhöht potentiell die Transparenz wissenschaftlicher Diskurse und erlaubt andererseits die gezielte Erweiterung des jeweiligen Forschungsprogramms auf bislang nicht abgedeckte Felder der Matrix. Diese nach innen gerichtete Verwendung ist aber nicht der Zweck des hier entfalteten Modells, sondern motiviert ist es durch das Interesse an Konsequenzen für eine Gegenstandsbestimmung der Rechtswissenschaft.17 Das ist einerseits auch eine interne
In negativer Hinsicht ist es das nämliche Interesse, mit dem Julius von Kirchmann den Streit um die Wissenschaftsfähigkeit der Rechtswissenschaft ausgelöst hat, vgl. Julius von Kirchmann, Die Wertlosigkeit 17
Schichten und Felder
Verwendung, weil die Gegenstandsbestimmung der Selbstvergewisserung dient, aber es ist vor allem eine externe Zielrichtung, weil sie auf eine sachhaltige, aber möglichst voraussetzungslose Abgrenzung des Gegenstands der Rechtswissenschaft aus ist.18 Dabei bedarf allerdings zunächst der Begriff des „Gegenstands der Rechtswissenschaft“ einer näheren Bestimmung. Wenn sich eine Wissenschaft durch ihren Gegenstand und ihre Methode(n) konstituiert, die freilich ihrerseits als Gegenstand der Wissenschaft zur Sprache kommen können und umgekehrt vom Gegenstand abhängen können, ist der Gegenstand der Objektbereich, auf den die innerhalb dieser Wissenschaft als zulässig angesehenen Methoden angewendet werden, um die innerhalb der jeweiligen Wissenschaft als einschlägig angesehenen Fragen zu beantworten. Die Antworten, die auf diese Fragen gegeben werden, konstituieren das fachliche Wissen, Wissen ist also mit anderen Worten der Begriff des Gegenstandes. Die entfaltete Struktur des rechtswissenschaftlichen Wissens ist also insofern die des Gegenstands der Rechtswissenschaft.19 Der dieser Struktur zugrunde liegende Begriff des Rechts ist ein disziplinärer Rechtsbegriff20, d. h. er konstituiert das Forschungsfeld unabhängig vom methodischen Paradigma und unabhängig davon, welche Antworten auf die Frage nach der Geltung des Rechts für plausibel gehalten werden.21 Für einen solchen disziplinären Rechtsbegriff22 lässt sich eine erste Schlussfolgerung aus der These gewinnen, dass die Fragen nach der Anwendung von Recht auf Sachverhalte und nach der Systematik dieser Anwendung deskriptiv gestellt zum 1. Fragekontext gehören, während mit der normativen Perspektive dieser Fragen der 1. und 2. Fragekontext angesprochen wird; der 2. deshalb, weil Weltwissen verfügbar zu machen ist, um die generell-abstrakte Rechtsnorm so weit sinnentnehmend zu erfassen, dass über die Subsumtion als Anwendung dieser Norm entschieden werden kann.
der Jurisprudenz als Wissenschaft (1848), Nachdruck 1990, und der immer wieder und bis heute die Neubestimmung des Begriffs der Rechtstheorie befördert, vgl. Auer (Fn. 14), 28 ff. 18 Ein strukturierender Rechtswissenschaftsbegriff trägt jedenfalls „zur äußeren Ordnungsbildung“ bei, vgl. Bumke (Fn. 13), 215 f. 19 Sprachtheoretisch gesprochen ist die Bedeutung des Begriffs der Rechts-Wissenschaft der disziplinäre Begriff des Rechts, mithin ihr Gegenstand als Formalobjekt. Vgl. Gottlob Frege, Über Begriff und Gegenstand, in: Vierteljahrsschrift für wissenschaftliche Philosophie 1892, 192 ff.; Ludwig Wittgenstein, Tractatus logico-philosophicus, in: Werke (Suhrkamp), Bd. 1, 1984, 19 f., 34 ff. (3.2; 4.122 ff.) 20 Einen ganz anderen Ansatz vertritt Alexander Somek, Rechtliches Wissen, 2006, 32 ff.: Gegenstand der Rechtswissenschaft sei nicht „das Recht“, sondern rechtliches Wissen. Vgl. dazu Muthorst (Fn. 2), 15. 21 Der disziplinäre Rechtsbegriff liegt nach Marietta Auer „quer zum neukantianischen Trialismus“, mithin der Achse der Deskription und Normativität und erfordere von der Rechtswissenschaft (umgekehrt), „ihre pluralen Erkenntniszugänge in ihrer gesamten Breite“ zu nutzen, Auer (Fn. 14), 24. 22 Einen Metabegriff „multidisziplinärer Rechtswissenschaft“ formulierte jüngst Auer (Fn. 14), 50 ff. Im Zusammenhang damit formuliert sie eine „neue Rechtstheorie“, die den „Zwischenraum zwischen Rechtsdogmatik und juristischen Grundlagenfächern zu kartographieren“ (S. 10) und auszufüllen versucht. Die Bestrebungen nach einer multi- bzw. interdisziplinären, „universellen rechtswissenschaftlichen Theorie“ sind freilich nicht neu, sondern etwa von systemtheoretischer Seite bereits formuliert worden, vgl. Niklas Luhmann, Ausdifferenzierung des Rechts, 1982, 192.
77
78
Olaf Muthorst
Wenn die These plausibel ist, dass es Weltwissen gibt, das im Rahmen der Anwendung generell-abstrakter Normen unverzichtbar, aber nicht selbst Gegenstand der Rechtswissenschaft ist, folgt daraus, dass der Gegenstand der Rechtswissenschaft umgekehrt die besagten generell-abstrakten Normen und ihre Anwendung sind, soweit sie nicht den Zugriff auf Wissensbestände voraussetzen, die außerhalb der Rechtswissenschaft angelegt und erschlossen werden. Mit anderen Worten: Rechtliches Wissen der Anwendung oder ihres systematischen Zusammenhanges ist, dass ein Arzt den Patienten entsprechend dem medizinischen Standard zu behandeln hat. Das macht aber die Frage, mit welcher Methode ein Knochenbruch zu therapieren ist, nicht zu einer Rechtsfrage. Eine zweite Schlussfolgerung geht von der oben erläuterten These aus, dass sich die Frage nach dem Geltungsgrund des Rechts weder in deskriptiver noch in normativer Perspektive dem 1. Fragekontext zuordnen lässt. Das Richtigkeitskriterium für das Wissen über die Anwendung und ihre Systematik ist selbst entweder überhaupt kein rechtliches Kriterium (wenn die Geltung als Frage des 3. Kontextes verstanden wird) oder hängt jedenfalls von dem außerrechtlichen Postulat eines allein rechtlichen Kriteriums ab (so dass die Geltung dem 2. Fragekontext zuzuordnen wäre). Entsprechend ist in der Geschichte der Rechtswissenschaft auf sehr unterschiedliche Weise versucht worden, die Geltung des Rechts zu begründen,23 und wenn bestimmte Begründungsstrategien auch heute nicht mehr verfolgt werden, besteht doch noch immer eine große Bandbreite unter den favorisierten Begründungen.24 In dieser Frage Partei zu ergreifen, ist nicht die Aufgabe eines disziplinären Rechtsbegriffs, sondern er muss Anschlussfähigkeit für eine Vielzahl möglicher Deutungen des Rechtsbegriffs gewährleisten. Die Gegenstandsfrage wird daher hier nicht als Frage nach den konstituierenden Merkmalen des Rechtsbegriffs gestellt. Ein disziplinärer Rechtsbegriff kann nur unabhängig von diesem Richtigkeitskriterium formuliert werden.25 Das, was Recht „als Recht“ auszeichnet, kann also nicht das sein, was für die Geltung des „als Recht“ Ausgezeichneten bürgt, sondern es kann nur darin bestehen, dass diese Geltung beansprucht wird (andernfalls müsste vertreten werden, die Frage nach der Geltung sei für das Recht als Ganzes irrelevant). Für Recht als Gegenstand der Rechtswissenschaft
Vgl. statt vieler zur Debatte um die Geltung des Rechts: Hans Kelsen, Vom Geltungsgrund des Rechts, in: Völkerrecht und rechtliches Weltbild, hg. von F. A. Heydte / A. Verdross, 1960, 157 ff.; H. L. A. Hart, Der Begriff des Rechts, 1973, 170 ff.; Robert Alexy, Begriff und Geltung des Rechts, 1992; Norbert Hoerster, Wirksamkeit, Geltung und Gültigkeit von Normen, in: Das Naturrechtsdenken heute und morgen, hg. von D. MayerMaly / P. Simons, 1983, 585 ff.; ders., Was ist Recht?, 2006, 48 ff. 24 Vgl. den kompakten Überblick bei Röhl/Röhl, Allgemeine Rechtstheorie, 2008, §§ 37, 38. 25 Es handelt sich insofern nicht um einen Begriff des (richtigen) Rechts, sondern des Rechts als Formalobjekt des Begriffs der Rechtswissenschaft. Insoweit anders als G. Radbruch (Fn. 10), wobei Radbruch durchaus erkennt, dass jedenfalls die Rechtsdogmatik als Wissenschaft vom geltenden Recht, nicht auf das richtige Recht beschränkt ist, vgl. 205. 23
Schichten und Felder
wäre damit der Anspruch einer Geltung „als Recht“ charakteristisch, unabhängig davon ob dieser Anspruch anerkannt oder gar eingelöst wird. Gemeinsamer Bezugspunkt, der der hier vorgeschlagenen Strukturierung zugrunde liegt, wäre demnach ein disziplinärer Rechtsbegriff, der sich auf die ihre Geltung als Recht beanspruchenden generell-abstrakten Normen bezieht. Rechtliches Wissen ist Wissen über die Anwendung, Systematik und Geltung, deskriptiv und normativ verstanden, in Bezug auf Normen dieses spezifischen Geltungsanspruchs. Anders gewendet: Wenn sich Fragen und Antworten in der Rechtswissenschaft so strukturiert, dass Wissen über die Anwendung, Systematik und Geltung, deskriptiv und normativ verstanden, Rechtswissenschaft konstituiert, dann ist ein disziplinärer Rechtsbegriff plausibel, der das Recht als Normenbestand mit spezifischem Geltungsanspruch charakterisiert. Damit ist zugleich erkennbar, dass die weitere Entfaltung eines disziplinären Rechtsbegriffs diesen Geltungsanspruch näher beschreiben müsste. Ebenfalls erkennbar ist aber, dass die Strukturierung rechtlichen Wissens dazu schon deshalb nichts Erhellendes beitragen kann, weil sie keine Abgrenzung von Normsystemen verschiedener Geltungsansprüche leistet, so dass diese Aufgabe an anderer Stelle angegangen werden muss. Olaf Muthorst
Freie Universität Berlin, Fachbereich Rechtswissenschaft, Professur für Bürgerliches Recht, Verfahrens- und Insolvenzrecht, Van’t-Hoff-Straße 8, 14195 Berlin
79
Epistemologie des Kirchenrechts Fragen und Antworten in der Kanonistik
BURKHARD JOSEF BERKMANN
Abstract: Die Frage-Antwort-Zusammenhänge in der Kanonistik werden anhand eines theoreti-
schen Zugangs, der sich am jeweiligen Rechtsverständnis orientiert, sowie anhand der faktischen Fragestellungen, die in kanonistischen Forschungsarbeiten bearbeitet werden, erläutert. Unter den drei vorgestellten Strömungen der Kanonistik finden sich auf der einen Seite positiv-normative Theorien, die ihren Bezugspunkt in der Rechtswissenschaft verorten, andererseits sakramental-kerygmatische Ansätze, die sich auf die Theologie beziehen, sowie mittlere Positionen, die beide Perspektiven miteinander verbinden. Die Analyse der faktischen Fragestellungen basiert auf empirischer Auswertung von 25 kanonistischen Forschungsarbeiten. Anhand dieser Forschungsarbeiten werden die Methoden kanonistischer Arbeiten und der Erkenntnisprozess ausführlich dargestellt und erörtert. Schließlich werden beide thematisierten Zugänge in einer Gesamtschau verglichen und hinsichtlich der Art der Fragestellungen bewertet.
1.
Einleitung
1.1
Was ist Kirchenrecht?
Als Kirchenrecht wird die interne Rechtsordnung einer Kirche bezeichnet, mit der sie ihre eigenen Angelegenheiten regelt. Der Regelungsbereich erstreckt sich vor allem auf die Organisationsstruktur, Ämter und Leitungsorgane, Rechtsstellung der Gläubigen, Verkündigung des Glaubens, Feier der Gottesdienste, Vermögensverwaltung, (Straf-) Sanktionen und Prozesse. Ansätze zu einer rechtlichen Ordnung der Jerusalemer Urgemeinde und der von Paulus gegründeten Gemeinden finden sich bereits im Neuen Testament. Schon ab dem 1. Jahrhundert entstanden Rechtssammlungen wie die Didache oder die Apos-
82
Burkhard Josef Berkmann
tolischen Konstitutionen.1 Die Einzelbestimmungen wurden und werden häufig als „Canones“ bezeichnet. Dieser Name leitet sich vom altgriechischen „κανών“ ab, was im ursprünglichen Sinn „Rohrstab“ und im übertragenen Sinn „Maßstab“ oder „Richtschnur“ heißt. Die Kirchenrechtswissenschaft wird deswegen auch als „Kanonistik“ bezeichnet und ihre Fachleute werden „Kanonisten“ beziehungsweise „Kanonistinnen“ genannt. Als wissenschaftliche Disziplin entstand die Kanonistik bereits im Hochmittelalter, also lange bevor sich das Spektrum der heute bekannten Wissenschaften entwickelte. Sie war die erste Spezialdisziplin, die sich aus der Theologie herauslöste. Infolge der konfessionellen Spaltung innerhalb der Christenheit besitzen die verschiedenen christlichen Gemeinschaften heute jeweils eigene rechtliche Ordnungen, so dass es beispielsweise orthodoxes, katholisches, anglikanisches und evangelisches Kirchenrecht gibt. Dem Fachbereich des Verfassers entsprechend beschränkt sich der vorliegende Beitrag auf das katholische Kirchenrecht. Das Recht der katholischen Kirche ist zu einem erheblichen Teil kodifiziert. Der „Kodex des kanonischen Rechts“ (CIC) von 1983 gilt für die lateinische Kirche, während der „Kodex der Kanones der orientalischen Kirchen“ (CCEO) von 1990 für die katholischen Ostkirchen gilt. Die beiden Gesetzbücher umfassen den Kern des kirchlichen Rechtsbestandes. In vielen Bereichen stellen sie aber nur ein Rahmenrecht dar, das näherer Konkretisierung oder Ergänzung bedarf. Diese erfolgt auf drei hierarchischen Ebenen: Das gesamtkirchliche Recht gilt weltweit. Auf der unteren Ebene befindet sich der Rechtsbestand der einzelnen Diözesen. Auf der Zwischenebene, die meist eine Nation umfasst, ist das Recht zu nennen, das von Bischofskonferenzen oder von Partikularkonzilien erlassen wird. 1.2
Zwischen Theologie und Jurisprudenz
Die erkenntnistheoretische Beschäftigung mit der Kanonistik ist deswegen von besonderem Interesse, weil sie im Schnittbereich von Theologie und Jurisprudenz liegt. Zu diesen beiden Wissenschaften hat sie enge Bezüge. Professuren für Kirchenrecht finden sich sowohl an juristischen als auch an theologischen Fakultäten. An manchen Universitäten – wie etwa in Leuven oder an den meisten päpstlichen Universitäten in Rom – bestehen überdies eigene kanonistische Fakultäten. Die unterschiedlichen Ansätze bezüglich ihrer Arbeitsweise und die Kontroversen um ihren Status neigen entweder mehr dem einen oder dem anderen Bezugspunkt zu. Das gilt auch für die epistemologische Frage, was eine kanonistische Erkenntnis auszeichnet und wie sie erlangt wird.
1
Vgl. Georg May, Kirchenrechtsquellen I, in: TRE 19 (1990), 1–44, 3.
Epistemologie des Kirchenrechts
Die Existenzberechtigung des Kirchenrechts wurde in den letzten hundert Jahren immer wieder in Frage gestellt, sei es durch den evangelischen Kirchenrechtler Rudolph Sohm,2 sei es durch eine antijuridische Haltung im Umfeld des Zweiten Vatikanischen Konzils oder einfach durch universitätspolitische Präferenzen. Das rief seitens der Kanonistik eine vertiefte Beschäftigung mit ihren eigenen Grundlagen und ihrem Selbstverständnis hervor, woraus verschiedene Schulen hervorgegangen sind. Im Zuge dieser Auseinandersetzung wurden auch epistemologische Fragen diskutiert, doch standen sie keineswegs im Mittelpunkt und nur wenige Arbeiten erhoben die kanonistische Erkenntnistheorie zu ihrem Hauptthema. Daher ist die Gelegenheit willkommen, bestimmte Fragen der Wissenschaftstheorie mit Blick auf die Kanonistik innerhalb eines breiten Spektrums anderer wissenschaftlicher Disziplinen zu diskutieren. Die Zwischenstellung zwischen Theologie und Jurisprudenz macht es keineswegs einfacher, den wissenschaftstheoretischen Status der Kanonistik zu klären, sind doch beide Bezugsdisziplinen in wissenschaftstheoretischer Hinsicht selbst in Diskussion. Die Wissenschaftlichkeit3 der Theologie wird in Frage gestellt, wenn subjektiver Glaube, wertbezogene Überzeugungen und göttliche Offenbarung nicht für wissenschaftsfähig gehalten werden.4 Dass Theologie den Glauben zum Gegenstand hat, bedeutet jedoch nicht, dass ihre Vorgangsweise nicht rational wäre. Gemeinhin wird Theologie als Glaubenswissenschaft verstanden, welche die christliche Botschaft zum Gegenstand argumentativer Verständigung macht und im vernünftigen Diskurs zu begründen versucht.5 Theologie strebt wie jede Wissenschaft nach dem Erwerb von Wissen, indem „überlegt und planmäßig vorgegangen [wird], damit der Erkenntnisprozess intersubjektiv kommunizierbar, nachvollziehbar und überprüfbar ist“6. Vorausgesetzt ihr Wissenschaftscharakter wird bejaht,7 treten indessen Meinungsver-
Rudolph Sohm, Kirchenrecht I. Die geschichtlichen Grundlagen, Leipzig 1892, 1: „Das Kirchenrecht steht mit dem Wesen der Kirche in Widerspruch. […] Das Wesen der Kirche ist geistlich; das Wesen des Rechts ist weltlich.“ 3 Wie Schärtl darlegt, betrachten selbst manche Theologen die Theologie eher als Kunst oder als Kunstfertigkeit, vgl. Thomas Schärtl, Theologie und Wissenschaft. Kriterien theologischer Spekulation, in: Stile der Theologie. Einheit und Vielfalt katholischer Systematik in der Gegenwart, hg. v. M. Dürnberger / A. Langenfeld / M. Lerch / M. Wurst, Regensburg 2017, 13–42, 20 f. 4 Zu den verschiedenen Formen von Infragestellung vgl. Christoph Böttigheimer, Lehrbuch der Fundamentaltheologie: die Rationalität der Gottes-, Offenbarungs- und Kirchenfrage, Freiburg 22012, 34 und 43 f.; Jürgen Werbick, Einführung in die theologische Wissenschaftslehre, Freiburg 2010, 9 und 33; Erwin Dirscherl / Josef Wolmuth, Theologie als Wissenschaft? in: Katholische Theologie heute: eine Einführung in das Studium, hg. v. J. Wohlmuth, 71–87, 73. 5 Vgl. Böttigheimer (Fn. 4), 41 f. 6 Martin H. Jung, Einführung in die Theologie (Theologie kompakt), Darmstadt 2004, 75. 7 Vgl. Markus Knapp, Fundmentaltheologie als wissenschaftstheoretische Grundlegung der Theologie. Stellungnahme zu Jürgen Werbick, in: Wozu Fundamentaltheologie? Zur Grundlegung der Theologie im Anspruch von Glaube und Vernunft, hg. v. J. Meyer zu Schlochtern / R. A. Siebenrock, Paderborn 2010, 275 f.: Wissenschaft sui generis. 2
83
84
Burkhard Josef Berkmann
schiedenheiten über ihren Gegenstand und ihre Methode zutage,8 die hinsichtlich der einzelnen theologischen Teildisziplinen durchaus unterschiedlich sein können.9 Es wäre zu einfach, zu versuchen, diesen Schwierigkeiten durch den Hinweis zu entgehen, dass die einzelnen theologischen Teildisziplinen ihre Wissenschaftlichkeit von der jeweiligen „profanen“ Bezugsdisziplin beziehen, also etwa die Bibelexegese von der Philologie, die Kirchengeschichte von der allgemeinen Geschichte und das Kirchenrecht von der Rechtswissenschaft.10 Denn auch die Wissenschaftlichkeit der Jurisprudenz steht in Frage. Wenn nach dem aristotelischen Verständnis nur das Allgemeine und Notwendige Gegenstand von Wissenschaft ist, fällt das Recht heraus, weil es kontingent und durch den Gesetzgeber leicht veränderbar ist.11 Ein anderer Angriff, der die Jurisprudenz und die Theologie gleichermaßen trifft, kommt von Seiten derer, die nur das Faktische, aber nicht das Normative als Gegenstand von Wissenschaft anerkennen.12 Vorausgesetzt der Wissenschaftscharakter wird bejaht, treten sogleich Meinungsverschiedenheiten über die wissenschaftstheoretische Einordnung der Jurisprudenz auf: Ist sie eine Sozialwissenschaft13 oder eine normative Disziplin14? Für Neumann ist sie in erster Linie eine begründende Wissenschaft, in der es nicht um die Erkenntnis von etwas Vorgegebenem geht, sondern um die Erarbeitung einer angemessenen Lösung.15 Wie ist das Verhältnis zwischen Rechtsdogmatik, Rechtsso-
Junge Theologinnen und Theologen wenden sich ohnehin gegen das Ideal einer uniformen Theologie und bekennen sich stattdessen zur faktischen Pluralität systematisch-theologische Ansätze, vgl. Vorwort, in: Dürnberger/Langenfeld/Lerch/Wurst (Fn. 3), 9–11, 10. 9 Vgl. Jung (Fn. 6), 29. Zur Methode der so genannten praktischen Theologie, zu der Jürgen Werbick auch das Kirchenrecht zählt, vgl. ders., Theologische Methodenlehre, Freiburg 2015, 497. Wohlmuth rechnet das Kirchenrecht in seinem Sammelband hingegen zur systematischen Theologie. Walf bestätigt dies im entsprechenden Kapitel und legt Inhalt sowie Methode des Kirchenrechts dar (Knut Walf, Kirchenrecht, in: Wohlmuth [Fn. 4], 288–297, 290 bzw. 293–295). 10 Vgl. Knapp (Fn. 7), 277. 11 Vgl. Hubert Rottleuthner, Rechtswissenschaft als Sozialwissenschaft, in: Handbuch Rechtsphilosophie. Philosophische Grundfragen des Rechts, hg. v. Jan C. Hilgendorf, Stuttgart 2017, 251–254, 251; Ulfrid Neumann, Wissenschaftstheorie der Rechtswissenschaft, in: Einführung in die Rechtsphilosophie und Rechtstheorie der Gegenwart, hg. v. W. Hassemer / U. Neumann / F. Saliger, Heidelberg 92016, 351–364, 352 f.: „Sofern sie sich mit Rechtsordnungen befasst, die dem historischen Wandel unterworfen sind, kann sie nach diesem Wissenschaftsbegriff nur als Kunst (techne, ars) oder als Klugheit (phronesis, prudentia) verstanden werden“. 12 Vgl. Rottleuthner (Fn. 11), 251. 13 „Das Programm einer Verwissenschaftlichung der Jurisprudenz im Sinne einer theoretisch distanziert verfahrenden Sozialwissenschaft, die auf empirische Prüfung zielt, ist gescheitert.“ vgl. ebd., 252. 14 Vgl. Matthias Jestaedt, Rechtswissenschaft als normative Disziplin, in: Hilgendorf (Fn. 11), 254–262, 254; Neumann (Fn. 11), 361. 15 Neumann (Fn. 11), 358. Ulfried Neumann ist aber nicht zu folgen, wenn er dies als Unterschied gegenüber dem Kirchenrecht betrachtet, das nur eine allenfalls schwache Begründungspflicht kenne, vgl. ders., Juristische Argumentationstheorie, in: Hilgendorf (Fn. 11), 234–240, 235. Urteile sind unbestreitbar begründungspflichtig (cc. 1611° 3 und 1622° 2 CIC). Dekrete müssen wenigstens summarisch begründet werden (c. 51 CIC). Das ist eine zu Recht kritisierbare abgeschwächte, aber doch eine Begründungspflicht. Die faktische Länge etwa von Urteilen der Römischen Rota lässt keinen Zweifel, dass Entscheidungen tatsächlich umfangreich begründet werden. 8
Epistemologie des Kirchenrechts
ziologie, Rechtsgeschichte, Rechtsphilosophie und so weiter?16 Ähnlich wie die Theologie umfasst auch die Rechtswissenschaft eine Reihe von Teildisziplinen, so dass sie als „disziplinäres Cluster“17 bezeichnet werden könnte. Die verschiedenen Weisen, wie Rechtswissenschaft betrieben werden kann, spiegeln sich im Kirchenrecht wider. 1.3
Forschungsskizze für diese Studie
Das Kirchenrecht steht im Spannungsfeld zwischen Theologie und Jurisprudenz, Glaube und Vernunft, Kunst und Wissenschaft. Eine umfassende Wissenschaftstheorie der Kanonistik müsste zuerst alle diese strittigen Punkte klären. Vor allem aber müsste als Erstes verdeutlicht werden, was unter Wissenschaftlichkeit verstanden wird, denn ob Theologie und Jurisprudenz als Wissenschaften gelten, hängt hauptsächlich vom zugrundeliegenden Wissenschaftsbegriff ab und darüber besteht heute keineswegs Einigkeit. All dies kann und muss der vorliegende Beitrag nicht leisten. Vielmehr soll und darf er sich gemäß dem Generalthema auf Frage-Antwort-Zusammenhänge in der Kanonistik beschränken. Zur Behandlung dieses Themas werden zwei Zugänge gewählt. Der erste liegt auf der theoretischen Ebene. Er geht von der Hypothese aus, dass die Erkenntnisweise unter anderem vom Gegenstand abhängt, oder konkret auf die Kanonistik bezogen: dass die grundsätzliche Fragestellung unter anderem davon abhängt, was überhaupt unter Recht verstanden wird.18 Zu diesem Zweck werden drei unterschiedliche Rechtsverständnisse vorgestellt, die verschiedenen gegenwärtig vertretenen kanonistischen Schulen zugrunde liegen. Ziel ist es herauszufinden, welchem Rechtsverständnis welche Erkenntnisweise entspricht und worin folglich die fundamentale Forschungsfrage besteht. Der zweite Zugang liegt auf der faktischen Ebene. Hier wird untersucht, welche Fragen in kanonistischen Forschungsarbeiten tatsächlich gestellt und welche Antworten darauf gegeben werden. Diese werden dann in die drei Fragekontexte eingeordnet: 1) Fragen, die innerhalb der Wissenschaft als zulässig/einschlägig erscheinen und deren Beantwortung mit den Mitteln der Wissenschaft erwartet werden kann; 2) Fragen, die innerhalb der Wissenschaft zwar gestellt werden und deren grundsätzliche Beantwortbarkeit erwartet werden kann, indes nicht unter ausschließlicher Nutzung der von der jeweiligen Wissenschaft selbst bereitgestellten Mittel; 3) Fragen, die nicht beantwortbar sind. Hierunter fallen auch Scheinprobleme. Vgl. Rottleuthner (Fn. 11), 259. Jestaedt (Fn. 14), 259. Vgl. Carlos J. Errázuriz Mackenna, Il diritto e la giustizia nella chiesa. Per una teoria fondamentale del diritto canonico, Mailand 2000, 240.
16 17 18
85
86
Burkhard Josef Berkmann
Schließlich sollen die Ergebnisse des ersten und des zweiten Zugangs verglichen werden. Welche Rolle spielen die theoretischen Konzepte im tatsächlichen Forschungsbetrieb? Welche Arten von Fragen werden darüber hinaus gestellt? 2.
Gegenwärtige epistemologische Ansätze
Dieser Abschnitt widmet sich dem ersten Zugang, der auf der theoretischen Ebene liegt. Es werden drei unterschiedliche, in der gegenwärtigen Kanonistik vertretene Verständnisse von Recht vorgestellt, denen jeweils eine bestimmte Erkenntnisweise und eine typische Fragestellung entsprechen. 2.1
Den Normtext interpretieren
Das erste hier zu behandelnde Rechtsverständnis wird von jenen kanonistischen Strömungen vertreten, die sich nahe an der gängigen weltlichen Jurisprudenz orientieren, obwohl dies auch in der weltlichen Rechtstheorie keineswegs das einzige Modell ist. Diesem Verständnis zufolge ist Recht – vereinfacht gesagt – das, was im Normtext steht. Die Methode, die zur Erkenntnis des Rechts führt, besteht daher hauptsächlich in der Interpretation des Normtexts. Die zentrale Fragestellung lautet: Was ordnet das Gesetz (oder eine andere Rechtsnorm) an? beziehungsweise: Was entspricht dem Willen des Gesetzgebers? Dieses Rechtsverständnis ist normativistisch, weil es das Recht in der Norm verortet. Es ist ferner positivistisch, weil es den Bereich des Rechts auf das positiv gesetzte Recht beschränkt. Meistens ist es darüber hinaus mit einer voluntaristischen Konzeption verknüpft, insofern der Ursprung der Norm im Willen des Gesetzgebers gesehen wird. Im Hinblick auf das Kirchenrecht kann sich diese Auffassung auf die in c. 17 CIC ausdrücklich festgelegten Interpretationsregeln berufen: Kirchliche Gesetze sind zu verstehen gemäß der im Text und im Kontext wohl erwogenen eigenen Wortbedeutung; wenn diese zweifelhaft und dunkel bleibt, ist zurückzugreifen auf Parallelstellen, wenn es solche gibt, auf Zweck und Umstände des Gesetzes und auf die Absicht des Gesetzgebers.
Nach diesem Rechtsverständnis ist es ausgeschlossen, sich zur Erkenntnis des Rechts auf äußere Faktoren zu stützen wie etwa die soziale Wirklichkeit oder theologische Lehren. Ein solches Verständnis wird von einigen kanonistischen Schulen und Strömungen vertreten – wenngleich in unterschiedlichem Ausmaß und mit je eigenen Schwer-
Epistemologie des Kirchenrechts
punkten und Besonderheiten. Zu nennen sind die italienische Laienkanonistik19, die in Deutschland verankerte „korrekte Kanonistik“ und die Schule der Enttheologisierung20 des Kirchenrechts. Die korrekte Kanonistik lehrt beispielsweise: Vorzuziehen sind korrekte, d. h. in gehorsamer Anwendung der vorgeschriebenen Methoden erzielte und daher höchstwahrscheinlich zutreffende Gesetzesauslegungen.21
Charakteristisch für diese Auffassung ist, dass der Kodex von 1983 die Lehren des Zweiten Vatikanischen Konzils übertrumpft und im Konfliktfall diesen vorgeht.22 Im Folgenden soll aber der Ansatz Gherris, der mit der Schule der Enttheologisierung sympathisiert,23 näher vorgestellt werden, weil er sich in jüngerer Zeit direkt mit epistemologischen Themen befasst hat. Gherris Erkenntnislehre differenziert zwischen drei Ebenen: der Wissenschaft24, der Philosophie und der Theologie. Das kanonistische Wissen ordnet er in dieses dreiteilige Schema ein. Auf der wissenschaftlichen Ebene besteht Kanonistik im technisch-exegetischen Studium des normativen Textes.25 Da er das jedoch als ungenügend betrachtet, nimmt er neben der wissenschaftlichen Dimension („scienza“) noch eine „weisheitliche“ („prudenza“, vgl. „Jurisprudenz“) an, insofern sich die Kanonistik auf die Lebenswirklichkeit beziehen muss.26 Sobald es sich aber nicht mehr um die Formulierung des Texts, die Kommentierung der einzelnen Norm und ihre systematische Einordnung in den Kontext handelt, sondern um die Leitprinzipien, die zugrundeliegenden Werte und die institutionellen Grundlagen, geht die Kanonistik von der
Dieser Schule lehnt die theologische Hermeneutik für die Kanonistik zwar nicht gänzlich ab, sucht den eigentlichen Schlüssel zum Verständnis des Kirchenrechts aber in der Rechtswissenschaft, vgl. Salvatore Berlingò, Il concetto di diritto canonico nella scuola laica italiana, in: Il concetto di diritto canonico. Storia e prospettive, hg. v. C. J. Errázuriz Mackenna / L. Navarro, Milano 2000, 47–71, 63. 20 Neophyte Edelby / Teodore Jiménez-Urresti / Peter Huizing, Kirchenrecht und Theologie, Concilium 1 (1965), 625–626, 626: „Ohne die Substanz der göttlichen Konstitution der Kirche in Frage zu stellen und um ihr zu dienen, mochte dieses Concilium-Heft den Theologen bei der „Entjuridizierung“ der Theologie, den Kanonisten bei der „Enttheologisierung“ des Kirchenrechtes helfen.“ 21 Vgl. Norbert Lüdecke / Georg Bier, Das römisch-katholische Kirchenrecht. Eine Einführung, Stuttgart 2012, 33. Dabei wird die Relevanz anderer Interpretationsvorschläge durchaus gesehen, die darauf hinweisen, dass die Vorstellung, jedem Wort komme genau eine fixierbare Bedeutung zu, hermeneutisch naiv sei. Das blieben aber reine Vorschläge und verbindlich sei allein die vom Gesetzgeber selbst angeordnete Interpretationsmethode (vgl. ebd. 32). 22 Vgl. ebd., 40. 23 Vgl. Paolo Gherri, Canonistica e questione epistemologica: l’apporto di T. Jimenez Urresti a 40 anni dall’Editoriale di Concilium, Apollinaris (2005), 527–578, 534. 24 Zu beachten ist, dass der italienische Wissenschaftsbegriff „scienza“ enger ist als der deutsche. 25 Paolo Gherri, Canonistica e questione gnoseologica, Ius Canonicum 83 (2002), 195–218, 203; ders., Teologia del Diritto canonico: identità, missione e statuto epistemologico, Apollinaris 80 (2007), 333–380, 368: Die kanonische Norm, soweit sie Ausdruck eines spezifischen theologischen Inhalts oder einer theologischen Konzeption in der Zeit ist, muss vor allem verstanden werden gemäß der Absicht des Urhebers, die in der Formalisierung der ursprünglichen normativen Anordnung objektiv festgelegt und enthalten ist. 26 Gherri (Fn. 25), Canonistica, 214. 19
87
88
Burkhard Josef Berkmann
wissenschaftlichen auf die philosophische Ebene über.27 Gherri ist sich bewusst, dass in der Kanonistik gewöhnlich auch noch die dritte Ebene einbezogen wird, nämlich die Rechtstheologie. Dies ist in seinen Augen aber gar nicht möglich, weil die Theologie ein anderes Formalobjekt und ein anderes Erkenntnisprinzip hat, zumal sie die „Ordnung des Mysteriums“ rational untersucht.28 Eine Theologie des Kirchenrechts ist ihm zufolge allenfalls dann möglich, wenn als Formalobjekt nicht die gesamte kirchliche Rechtsordnung, sondern nur das positive göttliche Recht, das geoffenbart ist, herangezogen wird.29 2.2
Die theologische Grundlage verstehen
Als Zweites wird nun jenes (Kirchen-)Rechtsverständnis erläutert, das sich stark am anderen Bezugspunkt orientiert, nämlich an der Theologie. Kirchenrecht ist dieser Auffassung zufolge geronnene beziehungsweise in Rechtsnormen gegossene Theologie. Kirchenrecht ist eine Anordnung des Glaubens. Die korrekte Erkenntnis des Kirchenrechts beruht folglich auf dem richtigen Verständnis der zugrunde liegenden theologischen, insbesondere ekklesiologischen, kerygmatischen und sakramententheologischen Wahrheiten. Das epistemologische Prinzip ist der Glaube. Die zentrale Fragestellung lautet: Welche rechtlichen Normen und Institutionen ergeben sich aus den kirchlichen Grundvollzügen beziehungsweise aus den Glaubenslehren? Diese Position kann sich auf Äußerungen von Päpsten stützen, unter denen der Kodex von 1983 erarbeitet wurde. Paul VI. mahnte 1973: Mit dem II. Vatikanischen Konzil ist jene Zeit endgültig vorbei, da sich gewisse Kanonisten weigerten, den theologischen Aspekt der von ihnen vertretenen Disziplinen oder der von ihnen angewandten Gesetze in Betracht zu ziehen.30
Johannes Paul II. sagte im Zusammenhang mit dem Inkrafttreten des CIC/1983: Ich zitiere gern Paul VI., weil er für die Kanonisten ein Meister des Denkens, ein Theologe des Rechts gewesen ist; es war sein Wunsch, daß sich in der Betrachtung des einzigartigen Geheimnisses der Kirche theologische Wissenschaft und Wissenschaft vom Kirchenrecht aufs neue vereinigen sollten […].
Ebd., 215. Ebd., 216. Korrekt ist, dass Kanonistik und Rechtstheologie nicht miteinander verwechselt werden dürfen. Die Rechtstheologie betrachtet das Recht schlechthin, also nicht speziell das Kirchenrecht, als eine menschliche Wirklichkeit, die dem Menschen vom Schöpfer wesenhaft eingestiftet wurde. 29 Ebd., 217. Gherri (Fn. 25), Teologia, 362. 30 Paul VI., Ansprache vom 17. September 1973 an die Teilnehmer des II. Kongresses für Kanonisches Recht in Mailand, AfkKR 142 (1973), 463–471, 464. 27 28
Epistemologie des Kirchenrechts
Das Verhältnis von Kirchenrecht und Theologie spiegelt sich im Verhältnis zwischen dem Kodex von 1983 und dem Zweiten Vatikanischen Konzil wider. Die Promulgationskonstitution „Sacrae disciplinae leges“31 stellt diesbezüglich klar: Wenn es auch unmöglich ist, das von der Lehre des Konzils gezeichnete Bild der Kirche vollkommen in die kanonistische Sprache zu übertragen, so muss sich der Kodex doch immer auf dieses Bild wie auf das vorrangige Beispiel beziehen, dessen Züge er in sich soweit möglich gemäß seiner Natur ausdrücken muss.32
Coccopalmerio verdeutlichte, als er Präsident des Päpstlichen Rats für die Gesetzestexte war, dass die Kodizes, sofern sich darin im Vergleich zur Lehre des Konzils Widersprüche oder Lücken ergeben, im Hinblick auf die Position des Zweiten Vatikanums interpretiert oder aber auch ergänzt werden müssten.33 Das oben prototypisch skizzierte Verständnis von Kirchenrecht findet sich in unterschiedlichen Abwandlungen bei verschiedenen Kirchenrechtsgelehrten, in ihrer intensivsten Form aber in der so genannten „Münchener Schule“. Ihr Vater Klaus Mörsdorf betonte, dass das Kirchenrecht eine theologische Grundlage hat, die er in den Grundvollzügen der Kirche, nämlich in der Verkündigung des Wortes Gottes und in den Sakramenten erblickte. Deshalb heißt dieser Ansatz sakramental-kerygmatisch. Sowohl das Wort34 als auch das Sakrament35 weisen in seinen Augen bereits per se eine rechtliche Struktur auf. Infolgedessen ist die Kanonistik für ihn eine theologische Disziplin, die aber mit juristischer Methode arbeitet. Dem Kanonisten ist damit eindeutig eine theologische Aufgabe gestellt. Der theologische Ort seines Schaffens liegt in der Ebene der sakramentalen Zeichenhaftigkeit der Kirche, auf welcher er mit dem Einsatz der von ihm erwarteten juristischen Arbeitsweise seinen
Johannes Paul II., Promulgationskonstitution: Sacrae disciplinae leges (25.1.1983), AAS 75 II (1983), VII–XIV; vorausgegangenes Zitat: Ansprache vom 21. November 1983, AfkKR 152 (1983), 517–520, 519. 32 Vgl. dazu Salvatore Berlingò, Giustizia e carità nell’economia della Chiesa. Contributi per una teoria generale del diritto canonico, Torino 1991, 38; Graulich Markus, Unterwegs zu einer Theologie des Kirchenrechts. Die Grundlegung des Rechts bei Gottlieb Söhngen (1892–1971) und die Konzepte der neueren Kirchenrechtswissenschaft, Paderborn u. a. 2006, 390. 33 Francesco Coccopalmerio, Die kirchliche communio, in: Der Kirchenaustritt im staatlichen und kirchlichen Recht, hg. v. Elmar Güthoff / Stephan Haering, Freiburg 2011, 90–123, 92. 34 Klaus Mörsdorf, Zur Grundlegung des Rechtes der Kirche, in: ders., Schriften zum Kanonischen Recht, Paderborn 1989, 21–45, 26: „Der vom Herrn für sich und seine Botschaft erhobene Geltungsanspruch ist rechtlicher Art, weil er sich von der in der Menschwerdung sichtbar und greifbar gewordenen Sendung durch den Vater herleitet.“ 35 Ebd., 27: „Die rechtliche Struktur des Sakramentes beruht indessen nicht darauf, daß die Gemeinschaft der Kirche in ein bestimmtes Zeichenverständnis hineingewachsen ist und dieses als verbindlich und wirksam anerkennt, sondern darauf, daß der Herr den von ihm auserwählten Zeichen ihre sakramentale Sinnbildlichkeit und Wirkmächtigkeit eingestiftet hat.“ 31
89
90
Burkhard Josef Berkmann
Teil dazu beitragen soll, die Kirche als das für alle Menschen aufgerichtete Zeichen des Heiles glaubwürdig zu erhalten und die Identität der Kirche Jesu Christi zu bewahren.36
Mörsdorfs Schüler Corecco rückte das Kirchenrecht noch mehr der Theologie zu, indem er es als theologische Disziplin bezeichnete, die mit theologischer Methode arbeitet.37 Während die kirchliche Tradition das Recht gemäß Thomas von Aquin als ordinatio rationis [Anordnung der Vernunft] betrachtete, bezeichnet Corecco das Kirchenrecht im Unterschied zum weltlichen Recht als ordinatio fidei [Anordnung des Glaubens]. Das kanonische Gesetz sei als ordinatio fidei zu definieren,38 weil es nicht von irgendeinem menschlichen Gesetzgeber erlassen wird, sondern von der Kirche, deren entscheidendes epistemologisches Kriterium nicht die Vernunft, sondern der Glaube ist.39 Während Thomas die Grundlage des Rechts in der Gerechtigkeit erblickte, identifiziert Corecco die Grundwerte des kirchlichen Rechts mit den theologischen Tugenden des Glaubens, der Hoffnung und der Liebe.40 Für Rouco Varela, einen weiteren Schüler Mörsdorfs, bezweckt die Kanonistik in erster Linie, „die theologische Substanz, den Hintergrund des ‚ius divinum‘ durchscheinen zu lassen, der sich hinter der positiven kanonischen Norm und deren Implikationen im Blick auf die Kirche als Heilssakrament verbirgt“41. Der Prozess der im Glauben erfolgenden Erkenntnis und der intellektuellen Erfassung des kanonischen
Ders., Kanonisches Recht als theologische Disziplin, AfkKR 145 (1976), 45–58, 57 f. Mörsdorfs Schüler Aymans gelangte zu einer differenzierteren Formel. Ihm zufolge ist die Kanonistik eine „theologische Disziplin, die gemäß den Bedingungen ihrer theologischen Erkenntnisse mit juristischer Methode arbeitet“, vgl. Winfried Aymans, Die wissenschaftliche Methode der Kanonistik, in: Fides et ius. Festschrift für Georg May zum 65. Geburtstag, hg. von Winfried Aymans / Anna Egler / Joseph Listl, Regensburg 1991, 59–74, 74. 37 Eugenio Corecco, Theologie des Kirchenrechts. Methodologische Ansätze, Trier 1980, 98: „Die kanonistische Wissenschaft muß mit Strenge die theologische Methode anwenden und der juristischen – so wie sie von der modernen Rechtswissenschaft erarbeitet wurde – nur die Rolle einer Hilfswissenschaft überlassen, weil die Verbindung zwischen göttlichem und menschlich-kanonischem Recht nur innerhalb der dem Glauben eigenen Logik und Methodologie festgesetzt werden kann.“ Die Problematik der These Coreccos wird besonders deutlich, wenn sie zum Beitrag Müller-Schauenburgs im vorliegenden Band in Beziehung gesetzt wird, der die These des Wissenschaftsrats von 2010 aufgreift. Demnach habe die Theologie keine eigenen Methoden, sondern jede theologische Teildisziplin wende die Methode der jeweiligen nichttheologischen Schwesterdisziplin an. Wenn es aber keine eigene theologische Methode gibt – was allerdings durchaus diskutabel ist –, dann kann auch die Kanonistik keine theologische Methode anwenden, sondern nur die juristische wie die weltliche Rechtswissenschaft selbst. 38 Ders., „Ordinatio rationis“ oder „ordinatio fidei“. Anmerkungen zur Definition des kanonischen Gesetzes, in: ders., Ordinatio fidei. Schriften zum kanonischen Recht, hg. v. Libero Gerosa / Ludger Müller, Paderborn 1994, 17–35, 33 f. 39 Ebd., 35. Zur Kritik an dieser Auffassung vgl. Adrian Loretan, Klärung des Rechtsbegriffs, in: Menschenrechte in der katholischen Kirche. Historische, systematische und praktische Perspektiven, hg. v. M. Baumeister / M. Böhnke / M. Heimbach-Steins / S. Wendel, Paderborn 2018, 41–54, 44. 40 Eugenio Corecco, Theologie des Kirchenrechts, in: ders., (Fn. 38), 3–16, 14. 41 Antonio María Rouco Varela, Die ontologische und epistemologische Stellung des kanonischen Rechts. Bemerkungen zu einer Theologie des kanonischen Rechts, in: ders., Schriften zur Theologie des Kirchenrechts und zur Kirchenverfassung, Paderborn 2000, 141–164, 163. 36
Epistemologie des Kirchenrechts
Rechts spielt sich ihm zufolge in drei Phasen ab: (1) sapientiale, spekulative Phase (Grundprinzipien und -strukturen); (2) historische Phase (Entwicklungen bis heute im hic et nunc); (3) wissenschaftliche und praktische Phase (geltende Gesetzgebung, welche die heilsbringenden Imperative der Kirche, die sich aus ihrem theologischen ‚Nährboden‘ ergeben, im Heute der christlichen Existenz festlegt und verwirklicht).42 2.3
Erkennen, was gerecht ist
Das dritte Rechtsverständnis nimmt eine Mittelposition ein, was die Verortung der Kanonistik zwischen Theologie und Jurisprudenz betrifft.43 Recht ist demnach das, was gerecht ist, beziehungsweise das, was ein Subjekt einem anderen aufgrund der Gerechtigkeit schuldet. Dies gilt sowohl für das weltliche als auch für das kirchliche Recht. Der Rechtsbegriff ist also in beiden Bereichen einheitlich.44 Lediglich die Güter, um deren gerechte Verteilung es geht, sind teilweise andere. So sind etwa die Verkündigung des Glaubens und die Spendung der Sakramente spezifisch kirchliche Güter, während das materielle Vermögen sowohl im kirchlichen als auch im staatlichen Bereich ein Gut darstellt. Epistemologisch besteht die Erkenntnis des Rechts folglich darin, das Gerechte zu entdecken und vom Ungerechten zu unterscheiden.45 Sowohl der von einem Gesetzgeber erlassene Normtext als auch die zugrunde liegenden theologischen Einsichten stellen nur Hilfen dar, um zu dieser Erkenntnis zu gelangen.46 Die zentrale Fragestellung lautet erwartungsgemäß: Was ist gerecht? beziehungsweise speziell für das Kirchenrecht: Was ist die gerechte Ordnung im Volk Gottes?47 Diese Theorie kann sich auf einen Rechtsbegriff stützen, dessen Wurzeln sowohl in der antiken Philosophie und in der europäischen Rechtstradition (römisches Recht) als auch in der kirchlich-theologischen Tradition liegen. Für Aristoteles ist alles Gesetzliche im weitesten Sinn etwas Gerechtes.48 Der bedeutende römische Rechtsgelehrte Ulpian bezeichnete das Recht als die Kunst des Guten und Gerechten.49 Unter Gerechtigkeit verstand er den unwandelbaren und dauerhaften Willen, jedem sein Recht zu gewähren.50 Die Verbindung von Recht und Gerechtigkeit findet sich nicht nur im römischen Recht, sondern ging ebenso in den kirchlichen Rechtsbereich ein.
42 43 44 45 46 47 48 49 50
Ebd., 162. Vgl. Errázuriz Mackenna (Fn. 18), 241. Vgl. Gaetano Lo Castro, Il mistero del diritto. I. Del diritto e della sua conoscenza, Turin 1997, 222. Vgl. Javier Hervada, Coloquios propedéuticas sobre el derecho canónico, Pamplona 22002, 109. Vgl. Errázuriz Mackenna (Fn. 18), 242 f. Vgl. Javier Hervada (Fn. 45), 105. Aristoteles, Nikomachische Ethik, V, 3. „Ius est ars boni et aequi.“ Dig. I.1.1. „Iustitia est perpetua et constans voluntas ius suum unicuique tribuendi.“ Dig. I,1,10.
91
92
Burkhard Josef Berkmann
Von Gratian ist der Satz überliefert: „Recht wird es genannt, weil es gerecht ist.“51 Thomas von Aquin betrachtet das Recht als Gegenstand der Gerechtigkeit.52 Das Gesetz ist ihm zufolge eine Anordnung, welche von der Vernunft ausgeht [ordinatio rationis], das Gemeinwohl zum Zwecke hat und von dem, der das Gemeinwesen vertritt, promulgiert ist.53 Als Recht bezeichnet Thomas die gerechte Sache selbst [„ipsam rem iustam“],54 weshalb diese Richtung „rechtsrealistisch“55 genannt wird.56 Innerhalb der Kanonistik wird diese Theorie vor allem von der so genannten Schule von Navarra vertreten, die auf Pedro Lombardía und Javier Hervada zurückgeht. Sie brachte Werke hervor, die sich direkt mit der kanonistischen Erkenntnislehre befassen. Wenn Gerechtigkeit darin besteht, jedem sein Recht zu geben, dann bedeutet Rechtserkenntnis, zu wissen, wer etwas geben muss, was zu geben ist und wem.57 Der Glaube spielt eine Rolle, um die spezifisch kirchlichen Güter adäquat zu verstehen.58 Er ersetzt die Vernunft aber nicht, sondern muss im Einklang mit dieser stehen.59 Die rein natürlichen Güter, die es auch in der Kirche gibt, sind dem menschlichen Verstand ohnehin zugänglich.60 Für Hervada ist die Kanonistik in dem Sinn theologisch, als die Vernunft durch den Glauben erleuchtet wird, aber sie ist juristisch aufgrund ihres Formalobjekts (‚sub ratione iusti‘) und aufgrund ihrer Methode.61 Da es im Kirchenrecht sowohl geistliche als auch natürliche Rechtsgüter gibt, kann die Kanonistik nutzbringend nicht nur mit den theologischen Disziplinen, sondern auch mit den Humanwissenschaften zusammenarbeiten.62 Dies ist bedeutsam für Fragen des oben genannten zweiten Fragenkontexts, denn es ist bereits im Gegenstand der Kanonistik angelegt, dass sie Fragen stellen kann, die sie nicht unter ausschließlicher Nutzung der von ihr selbst bereitgestellten Mittel beantwortet.
„Ius autem est dictum, quia iustum est.“ D 1, 2. „Unde manifestum est quod ius est obiectum iustitiae.“ STh II–II, q. 57, a. 1. STh Ia-IIae qu. 90 art. 4. STh IIa-IIae q. 57 a. 1 ad 1. Nicht zu verwechseln mit dem modernen Rechtsrealismus amerikanischer oder skandinavischer Prägung. 56 Vgl. Hervada (Fn. 45), 33. Der rechtsrealistische Ansatz setzt freilich voraus, dass der Mensch überhaupt die Wirklichkeit erkennen kann, vgl. Eduardo Baura, La realtà disciplinata quale criterio interpretativo giuridico della legge, in: Ius Ecclesiae 24 (2012) 705–718, 713. Papst Benedikt XVI. ließ eine gewisse Sympathie für diesen Ansatz erkennen, als er hermeneutische Wege kritisierte, die auf den theologischen Grundlagen oder auf pastoralen Anliegen beruhen, und stattdessen eine realistische Perspektive vorschlug, die das Recht als Ausdruck der Gerechtigkeit betrachtet und die Regelungen im Licht der Wirklichkeit auslegt, vgl. Benedikt XVI., Ansprache anlässlich der Eröffnung des Gerichtsjahres des Gerichtshofes der Römischen Rota (21.01.2012), in: AAS 104 (2012) 103–107. 57 José G. Buzzo Sarlo, La estructura del saber jurídico y su relevancia en el ámbito canónico, Rom 2005, 11. 58 Errázuriz Mackenna (Fn. 18), 243; Buzzo Sarlo (Fn. 57), 183. 59 Vgl. Errázuriz Mackenna (Fn. 18), 255. 60 Vgl. ebd. 61 Vgl. Hervada (Fn. 45), 191–195. 62 Vgl. Errázuriz Mackenna (Fn. 18), 248 f. und 255: z. B. Ethik, Linguistik, Psychologie. 51 52 53 54 55
Epistemologie des Kirchenrechts
Ferner unterscheidet die Schule von Navarra zwischen der Kanonistik als Wissenschaft („scienza“) und als Fertigkeit („prudenza“).63 Die kanonistische Fertigkeit bezieht sich unmittelbar auf die gerechte Handlung – etwa wenn es um die Feststellung geht, was in einem bestimmten Einzelfall die gerechte Lösung ist. Dabei geht es nicht um die Anwendung abstrakter Normen auf einen Fall, sondern darum, herauszufinden, was in der konkreten Wirklichkeit gerecht ist.64 Die kanonistische Wissenschaft beschäftigt sich hingegen mit dem, was im Allgemeinen gerecht ist, mit Begriffen, Prinzipien und Regeln, letztlich mit den Gerechtigkeitsbeziehungen in der Kirche.65 Diese Zusammenhänge erläutert Errázuriz am Beispiel der Ehe.66 Auf der Ebene der Wissenschaft wird gefragt, was die Ehe im rechtlichen Sinne ist und was zu ihrer Gültigkeit im Allgemeinen erforderlich ist. Auf der Ebene der Fertigkeit wird gefragt, ob eine ganz bestimmte, reale Ehe gültig ist. Zu dieser Erkenntnis können andere Wissenschaften wie die Psychologie beitragen. Nur solche Wissenschaften heranzuziehen und die wissenschaftliche Ebene der Kanonistik auszublenden, würde aber zu Pseudoargumentationen führen. Nicht mehr auf dem Boden der Wissenschaftlichkeit wäre es, wenn zur Beurteilung der Gültigkeit einer Ehe politische Argumente oder Empfindungen für oder gegen die Betroffenen zugelassen würden. 3.
Faktische Fragestellungen in kanonistischen Forschungsarbeiten
3.1
Ausgewählte Forschungsarbeiten
Während der vorausgegangene Teil dieser Studie auf der theoretischen Ebene erklärt hat, welches Rechtsverständnis mit welcher Erkenntnisweise und mit welchen Forschungsfragen verbunden ist, untersucht der folgende Teil nun, welche Fragen in konkreten kanonistischen Forschungsarbeiten faktisch gestellt werden. Zu diesem Zweck wurden 25 kanonistische Forschungsarbeiten untersucht, die in der Dekade 2009–2018 im deutschen Sprachraum entstanden sind und bereits publiziert wurden. Ausgewählt wurden lediglich Doktoratsarbeiten, Habilitationsschriften und drittmittelgeförderte Projekte, weil es sich dabei um Forschungsleistungen handelt, die in irgendeiner Form begutachtet werden und folglich erwarten lassen, dass sie dem wissenschaftlichen Standard entsprechen. Ferner erfolgte eine Beschränkung auf Monographien, weil diese eine durchdachte Fragestellung und einen ausgearbeiteten Forschungsbogen bis hin zur Beantwortung der Fragen vermuten lassen. Aus Kapazitätsgründen musste der Umfang noch weiter reduziert werden, wobei aber um 63 64 65 66
Vgl. Buzzo Sarlo (Fn. 57), 233, 242 und 249. Vgl. Errázuriz Mackenna (Fn. 18), 263. Vgl. ebd., 248 und 260. Vgl. ebd., 258.
93
94
Burkhard Josef Berkmann
der Diversität willen darauf geachtet wurde, dass die Auswahl nicht zu Lasten von Autoren weiblichen Geschlechts und/oder mit außereuropäischem Hintergrund erfolgt. Die Werke des Verfassers blieben wegen Befangenheit außer Acht. So ergab sich die folgende Liste als Basis für die Untersuchung:67 Habilitationen 1. Hahn, Judith, Das kirchliche Richteramt. Rechtsgestalt, Theorie und Theologie, Essen 2017. 2. Meckel, Thomas, Konzil und Codex. Zur Hermeneutik des Kirchenrechts am Beispiel der christifideles laici, Paderborn 2017. Dr. iur. can. 3. Arakkal, Mons K., Conferences and synods in the Indian Church, St. Ottilien 2018. 4. Heckel OSB, Noach, Das Allgemeine Dekret der Deutschen Bischofskonferenz zum Kirchenaustritt vom 15. März 2011. Der Kirchenaustritt in Deutschland aus Sicht des katholischen Kirchenrechts, St. Ottilien 2018. 5. Kapfelsperger, Toni, Staatsleistungen an die Katholische Kirche in Bayern. Grundlagen, Entwicklung seit 1919 und mögliche Ablösung, St. Ottilien 2016. 6. Kingata, Yves, Das päpstliche Gesandtschaftswesen und die Nuntiatur in der Demokratischen Republik Kongo. Zugleich ein Beitrag zum Staat-Kirche-Verhältnis in der Demokratischen Republik Kongo, St. Ottilien 2013. 7. Ortner, Max, Die Entwertung des Gesetzlichkeitsprinzips und des Analogieverbotes durch die Generalnorm des Kanon 1399 CIC/1983, Hamburg 2017. 8. Stier, Peter G., Die Leitung der Windesheimer Kongregation der AugustinerChorherren. Eine rechtsgeschichtliche Studie, Paring 2016. Dr. iuris utriusque 9. Kapfelsperger, Vitus, Eheverfahren und Eheprozesse in Staat und Kirche. Eine rechtsvergleichende Betrachtung, Frankfurt a. M. 2015. Dr. theol. (mit kanonistischer Arbeit) 10. Adam Schwartz, Michèle, Pfarrei und Kirchgemeinde. Verhältnisbestimmung für die deutschsprachige Schweiz unter spezifischer Berücksichtigung rechtshistorischer Aspekte, Münster 2012. 11. Gallegos Sánchez, Katrin, Rahmenbedingungen kirchlicher Kommunikation. Eine kanonistisch-kommunikationswissenschaftliche Untersuchung, Münster 2015. 12. Ganster, Susanne, Religionsverschiedenheit als Ehehindernis. Eine rechtshistorische und kirchenrechtliche Untersuchung, Paderborn 2013.
Die Liste kann also nicht den Anspruch erheben, alle Fragen zu enthalten, die in der Kanonistik gestellt werden, aber alle, die sie enthält, werden in der Kanonistik gestellt. 67
Epistemologie des Kirchenrechts
13.
Hahn, Judith, Mitbestimmung in kirchlichen Einrichtungen zwischen deutschem Verfassung- und Europäischem Gemeinschaftsrecht, Essen 2009. 14. Häring, Scholastika, Einander Geschwister sein … Communio Internationalis Benedictinarum (CIB). Studie zur rechtlichen Entwicklung der Beziehungen benediktinischer Frauengemeinschaften untereinander und zur Confoederatio Benedictina (1965–2009), Sankt Ottilien 2016. 15. Heidl, Sabine, Psychische Störungen und ihre Begutachtung im Ehenichtigkeitsprozess, Frankfurt a. M. 2009. 16. Jäggi, Christian, Doppelte Normativitäten zwischen staatlichen und religiösen Geltungsansprüchen – am Beispiel der katholischen Kirche, der muslimischen Gemeinschaften und der Baha’i-Gemeinde in der Schweiz, Berlin 2016. 17. Petrat, Nils, Wer gehört wirklich zur katholischen Kirche? Kirchenzugehörigkeit zwischen Kanonistik und Dogmatik, Paderborn 2018. 18. Röck Sarah M., Zeit der Taufe. Canon 856 CIC 1983 im Nexus von Kirchenrecht, Theologie und der ‚Philosophie der symbolischen Formen‘, Wien 2015. 19. Sachs, Caroline I., Verantwortete Elternschaft und Ehewille. Neue Perspektiven für den Ehenichtigkeitsgrund „Ausschluss der Nachkommenschaft“, Essen 2013. 20. Thull, Philipp, „Zeichen der Gemeinschaft und der Einheit der Kirche in Christus“. Der theologische und kirchenrechtliche Ort der neuen geistlichen Gemeinschaften und kirchlichen Bewegungen, St. Ottilien 2017. 21. Vogel, Benjamin, Der Ausschluss des Gattenwohls als Ehenichtigkeitsgrund, Würzburg 2017. 22. Zinkl, Gabriele, Zwischen Heilsakrament und Management. Die Ämterstruktur der katholischen Kirche aus der Perspektive des Kirchenrechts und der Organisationslehre, Regensburg 2011. Drittmittelprojekte 23. Böhnke, Michael, Kirche in der Glaubenskrise. Eine pneumatologische Skizze zur Ekklesiologie und zugleich eine theologische Grundlegung des Kirchenrechts, Freiburg i. Br. 2013. 24. Böhnke, Michael / Schüller, Thomas, Zeitgemäße Nähe. Evaluation von Modellen pfarrgemeindlicher Pastoral nach c. 517 § 2 CIC, Würzburg 2011. 25. Hahn, Judith / Schüller, Thomas / Wode, Christian, Kirchenrecht in den Medien, Konstanz 2013. 3.2
Allgemeine Beobachtungen
Wider Erwarten zeigt sich, dass Forschungsfragen am Anfang der Arbeit oft nicht deutlich hervorgehoben werden. Die Forschungsfrage kann explizit in Form von – direkten oder indirekten – Fragen, oder implizit durch Angabe von Zielen formuliert
95
96
Burkhard Josef Berkmann
werden.68 Von den untersuchten Arbeiten geben nur zwölf explizit Fragen an,69 dreizehn hingegen lediglich implizit. Selbst bei den expliziten Fragen muss festgestellt werden, dass sie keineswegs immer das Haupterkenntnisziel der betreffenden Arbeit zum Ausdruck bringen, sondern sich oft nur auf Teilbereiche beziehen oder überhaupt nur als Beispiele für einzelne Aspekte angegeben werden, um Interesse zu wecken. Das bedeutet, dass häufig nicht nur eine Frage, sondern eine Mehrzahl von Fragen gestellt wird, die jedoch nicht unbedingt in einem systematischen Zusammenhang miteinander stehen, aus dem etwa ein Forschungsprogramm ersichtlich würde. Wenn aber am Anfang keine Frage oder nicht die eigentliche Forschungsfrage gestellt wird, fällt es schwer, am Ende festzustellen, ob und wie sie beantwortet wird. Das Ideal bestünde darin, eine übergreifende Forschungsfrage zu stellen und diese in Unterfragen zu unterteilen, die eine logische Abfolge ergeben und in den einzelnen Kapiteln beantwortet werden.70 Ein positives Beispiel hierfür bietet Sachs. Sie versucht die Frage zu klären, „welche Bedeutung die Hinordnung auf Elternschaft für einen intakten Ehewillen nach geltendem Recht besitzt“71. Diese Untersuchungsfrage fächert sie in drei Teilfragen auf: (1) Welche Bedeutung kommt der Elternschaft im Eheverständnis des CIC/1983 zu – welche Pflicht kann daraus abgeleitet werden? (2) Welche Rolle spielt die Hinordnung auf Elternschaft für den Ehewillen – welche Willenshaltung hinsichtlich der Elternschaft ist von den Nupturienten gefordert? (3) Welche Bedeutung hat die Hinordnung auf Elternschaft für die Bestimmung von Wesenselementen der Ehe – welche Willenshaltung bezüglich der Elternschaft beschädigt den Konsens?72 Am Ende greift sie ihre Kernfrage – leicht umformuliert – tatsächlich wieder auf73 und gibt die Antwort, dass das Wesenselement bezüglich der Nachkommenschaft aus dem Konzept der verantworteten Elternschaft zu gewinnen ist.74 Eine schöne Aufgliederung in Teilfragen liefert außerdem Heckel.75 Er kommt auch zu einer klaren – wenngleich unbequemen – Antwort:
Vgl. Mohamed Chaabani, Die Forschungsfrage in wissenschaftlichen Arbeiten. Bei einem Werk steht die Frage schon im Titel: Nils Petrat, Wer gehört wirklich zur katholischen Kirche? Kirchenzugehörigkeit zwischen Kanonistik und Dogmatik, Paderborn 2018. 70 Vgl. Matthias Karmasin / Rainer Ribing, Die Gestaltung wissenschaftlicher Arbeiten: Ein Leitfaden für Facharbeit/VWA, Seminararbeiten, Bachelor-, Master-, Magister- und Diplomarbeiten sowie Dissertationen, Wien 92017, 25. 71 Caroline I. Sachs, Verantwortete Elternschaft und Ehewille. Neue Perspektiven für den Ehenichtigkeitsgrund „Ausschluss der Nachkommenschaft“, Essen 2013, 10. 72 Ebd. 73 Ebd., 189. 74 Vgl. ebd., 190. 75 Vgl. Noach Heckel OSB, Das Allgemeine Dekret der Deutschen Bischofskonferenz zum Kirchenaustritt vom 15. März 2011. Der Kirchenaustritt in Deutschland aus Sicht des katholischen Kirchenrechts, St. Ottilien 2018, 4 f.
68 69
Epistemologie des Kirchenrechts
Daher verstößt das Allgemeine Dekret der DBK – im Hinblick auf die Summe der angeordneten Sanktionen – insoweit gegen c. 1318 HS 2 CIC und damit gegen höherrangiges Recht, was dessen Ungültigkeit gemäß c. 135 § 2 HS 2 CIC nach sich zieht.76
Obwohl die Fragestellung und die damit verknüpfte Methode die Basis für das gesamte Forschungsprogramm bilden sollten, werden sie innerhalb des Einleitungskapitels oft nur kurz und ohne besondere Hervorhebung erwähnt. Sie führen nicht selten ein Schattendasein neben der Darstellung der eigenen Motivation, der Aktualität und Relevanz des Themas sowie einem inhaltlichen Überblick über die folgenden Kapitel. Die Verfasser und Verfasserinnen dürften eher die Einstellung haben, ein Thema zu behandeln, anstatt eine Frage zu beantworten oder ein Problem zu lösen. Das Streben nach neuen Erkenntnissen, das die Wissenschaft antreibt, wird damit weniger sichtbar. Aber das ist in den Geisteswissenschaften bis zu einem gewissen Grad durchaus berechtigt, denn es ist legitim, einfach ein bestimmtes, bislang vernachlässigtes, Rechtsgebiet systematisch aufzuarbeiten, ohne damit eine konkrete Fragestellung zu verfolgen. Der Nutzen für die Fachwelt liegt dann darin, umfassende Informationen zu einem bestimmten Thema zu erhalten. In diesem Sinne behandelt T. Kapfelsperger die Staatsleistungen an die Katholische Kirche in Bayern. Bei der Beschäftigung damit stellen sich dann sehr wohl Fragen, wie etwa die nach der Möglichkeit einer Ablösung für diese Staatsleistungen. Eine andere Möglichkeit besteht darin, das, was sonst in Form einer Frage formuliert wird, als Ausgangshypothese voranzustellen, deren Stichhaltigkeit im Laufe der Arbeit zu prüfen ist. In Hahns Habilitationsschrift lautet eine solche Annahme, „dass die richtertheoretischen Grundannahmen, die die jeweiligen rechtlichen Konzeptionierungen konturieren, Gemeinsamkeiten aufweisen“77. 3.3
Entsprechungen zwischen Frage und Antwort
Gelegentlich passiert es, dass am Ende mehr beantwortet wird, als zu Beginn gefragt worden ist.78 Bei Hahn/Schüller/Wode werden präzise Fragen und Hypothesen bezüglich des empirischen Forschungsteils aufgestellt.79 Diese lassen jedoch nicht vermuten, dass sich an die Medienanalyse noch ein Kapitel anschließt, das den kir-
Ebd., 576. Judith Hahn, Der kirchliche Richteramt. Rechtsgestalt, Theorie und Theologie, Essen 2017, 1. Bei Judith Hahn / Thomas Schüller / Christian Wode, Kirchenrecht in den Medien, Konstanz 2013, 31–39 werden präzise Fragen und Hypothesen bezüglich des empirischen Forschungsteils aufgestellt. Diese lassen nicht vermuten, dass sich an die Medienanalyse noch ein Kapitel anschließt, das den kirchenrechtlichen Hintergrund der Themen erläutert, die in den Medien aufgeworfen wurden. 79 Hahn/Schüller/Wode (Fn. 78), 31–39. 76 77 78
97
98
Burkhard Josef Berkmann
chenrechtlichen Hintergrund der Themen erläutert, die in den Medien aufgeworfen wurden. Heidl gibt zu Beginn als Ziel ihrer Arbeit an, „die Hilfe des psychologischen oder psychiatrischen Gutachters, die er dem kirchlichen Richter in kanonischen Ehenichtigkeitsprozessen mit dem Klagegrund der psychischen Eheunfähigkeit gemäß c. 1095 geben kann, darzustellen“80. Sie stellt zwei Fragen: 1. Wer kann vom Gericht bestellter Gutachter sein? Was ist seine Aufgabe? Wie hat er dabei vorzugehen? […] 2. Was ist der Inhalt, über den er sein Gutachten erstellen muss?81
Am Ende erblickt sie das Ziel ihrer Studie aber zuerst darin, „relevante psychische Störungen auf ihre Auswirkungen auf die Ehefähigkeit zu untersuchen“ und erst anschließend „darzustellen, welche konkreten Aufgaben der psychiatrische/psychologische Gutachter im Ehenichtigkeitsprozess hat, damit das Sachverständigengutachten dem Richter als hilfreiches Beweismittel bei der Urteilsfindung dienen kann“82. Die Bearbeitung des ersten der hier rückblickend genannten Ziele nimmt in der Tat einen großen Teil der Studie ein. Bedenklich ist es, wenn Forschungsziele mit Resultaten verwechselt werden. Ein Beispiel dafür wäre: Ziel der Arbeit ist zuvorderst, mittels strafrechtsdogmatischer Analyse der norma generalis des c. 1399 CIC/1983 aufzuzeigen, dass diese Generalnorm sowohl das strafrechtliche Gesetzlichkeitsprinzip (c. 221 § 3 CIC/1983) – unter der Annahme, dass darin das Legalitätsprinzip zum Ausdruck kommt – als auch das strafrechtliche Analogieverbot (c. 19 CIC/1983) aushöhlt und den von diesen Prinzipien zu leistenden Rechtsschutz der Gläubigen faktisch unmöglich macht.83
Was in diesem Satz formuliert wird, ist in Wirklichkeit das Forschungsergebnis beziehungsweise die Antwort. Die zugehörige Frage darf aber nicht bereits das Ergebnis vorwegnehmen, weil sonst der Eindruck eines interessegeleiteten, tendenziösen Forschens entsteht, das schon von vornherein weiß, was am Ende herauskommen soll.84 Das Forschungsziel kann nur darin bestehen, nachzuweisen, ob [nicht: dass!] c. 1399 CIC dem Gesetzlichkeitsprinzip und dem Analogieverbot widerspricht.
Sabine Heidl, Psychische Störungen und ihre Begutachtung im Ehenichtigkeitsprozess, Frankfurt a. M. 2009, 11. 81 Ebd., 12. 82 Ebd., 197. 83 Max Ortner, Die Entwertung des Gesetzlichkeitsprinzips und des Analogieverbotes durch die Generalnorm des Kanon 1399 CIC/1983, Hamburg 2017, 7. 84 Vgl. von Karmasin/Ribing (Fn. 70), 25. 80
Epistemologie des Kirchenrechts
3.4
Fragestellung und Forschungsstand
Die Forschungsfrage weist auf einen Erkenntnismangel hin, der durch die Beantwortung getilgt werden soll. Es brächte keinen Nutzen, einer Frage nachzugehen, die schon zufriedenstellend beantwortet ist. Das Stellen einer aussichtsreichen Frage hängt daher eng mit dem gegebenen Forschungsstand zusammen.85 Fragen in der Kanonistik beziehen sich auf Wissenslücken, das heißt auf Gebiete, die noch nicht bearbeitet worden sind, oder auf Wissenszweifel, das heißt auf Gebiete mit unklarer Rechtslage oder widersprüchlichen Meinungen in der Lehre. Beispiele für Ersteres sind die Arbeiten von Häring, Kingata und Stier. Beispiele für Zweiteres sind die Arbeiten von Ortner und Sachs. 3.5
Typen von Forschungsfragen im Kirchenrecht
Es würde den Rahmen dieser Arbeit sprengen, alle Fragen, die in den untersuchten Arbeiten gestellt werden, zu rekapitulieren. Stattdessen sollen sie verallgemeinert und in Gruppen zusammengefasst werden, die für die Kanonistik typisch sind. Die meisten Arbeiten behandeln mehrere dieser Fragen. Vergangenheitsorientierte Fragen Forschungsfrage
Forschungsziel
1.
Wie veränderte sich die Rechtslage im Laufe der Zeit?
Rechtsentwicklung durch die Geschichte
2.
Wie entstand der Text dieser Norm?
Textgenese nachvollziehen
Gegenwartsorientierte Fragen Forschungsfrage
Forschungsziel
3.
Was gilt?
gegenwärtige Rechtslage (Methode: Rechtsdogmatik, Exegese, Systematisierung)
4.
Was ist x?
Beschreibung eines Begriffs/Rechtsinstituts
5.
Wer muss / darf was?
Befugnisse, Rechte, Pflichten von Subjekten
Zukunftsorientierte Fragen Forschungsfrage
Forschungsziel
6.
Was wird sich wahrscheinlich in Zukunft verändern?
Prognose, was zu erwarten ist
7.
Wie könnte die Regelung verbessert werden?
Vorschläge de lege ferenda
85
Michael Trimmel, Wissenschaftliches Arbeiten in Psychologie und Medizin, Wien 2009, 16.
99
100
Burkhard Josef Berkmann
Anwendungsorientierte Fragen Forschungsfrage
Forschungsziel
8.
Was bedeutet das für einen bestimmten Fall?
Falllösung, Erarbeitung von Lösungs vorschlägen (Anwendung)
9.
Wieweit wird das Recht tatsächlich angewandt?
gelebtes Recht in der sozialen Wirklichkeit (Umsetzung)
10.
Wie soll das Recht am besten angewandt werden?
Hilfestellung für die Praxis
Kohärenz innerhalb der Rechtsordnung Forschungsfrage
Forschungsziel
11.
Ist ein bestimmter Einzelakt rechtmäßig?
Widerspruch mit allgemeinem Recht
12.
Ist Norm a mit Norm b kompatibel?
Widerspruch zwischen allgemeinen Rechtsnormen
Außenperspektive Forschungsfrage
Forschungsziel
13.
Was gilt in anderen Rechtsordnungen?
Gemeinsamkeiten und Unterschiede (vergleichende Methode)
14.
Stimmt das Recht mit der Theologie überein?
theologische Legitimierung
15.
Wie sehen andere Disziplinen kanonische Normen?
Blick von anderen Disziplinen auf das Kirchenrecht
Wissenschaftstheoretische Metareflexion Forschungsfrage
Forschungsziel
16.
Was ist Kanonistik und wie ist sie zu betreiben?
Klärung des Selbstverständnisses, Einordnung in den Fächerkanon
17.
Wie ist das Kirchenrecht theologisch zu begründen?
Klärung der theologischen Grundlegung
3.5.1
Vergangenheitsorientierte Fragen
Vergangenheitsorientierte Fragen kommen häufig vor. Die Frage 1 betrifft die chronologische Abfolge von Regelungen zu einer bestimmten Materie, die zu ihrer Zeit in Kraft standen, während die Frage 2 die Entwicklung und Diskussion von Textentwürfen betrifft, bevor die endgültige Fassung in Kraft getreten ist. Die Frage 1 findet sich in neun, die Frage 2 in zwölf der untersuchten Arbeiten.86 Für dezidiert rechtshistorische
Gezählt sind nur die Arbeiten, die explizit diese Fragen stellen. Rechtsgeschichtliche und textgenetische Aspekte kommen auch darüber hinaus vor. 86
Epistemologie des Kirchenrechts
Arbeiten wie jene von Häring und Stier versteht sich das von selbst. Darüber hinaus überrascht es aber, wenn man bedenkt, dass die traditio canonica, auf die sich die Frage 1 bezieht, nur eine subsidiäre Verständnishilfe darstellt (c. 6 § 2 CIC), und die Absicht des Gesetzgebers, die das Erkenntnisziel der Frage 2 sein kann, nur dann zur Auslegung heranzuziehen ist, wenn Text und Kontext zweifelhaft und dunkel bleiben (c. 17 CIC). Abgesehen davon, dass hinter diesen Fragen ergiebige, wenngleich mühsame Betätigungsfelder stehen, verdankt sich das große Interesse daran womöglich dem Gespür, dass sich die gegenwärtige Rechtslage unabhängig von kodifizierten Auslegungsregeln nur unter Beachtung ihrer Entstehung vollständig verstehen lässt. 3.5.2
Gegenwartsorientierte Fragen
Die gegenwartsorientierten Fragen beziehen sich auf die aktuelle Rechtslage. Rechtsnormen sind keine empirischen Tatsachen, sondern gehören zum Bereich des Sollens. Ihre spezifische Existenzweise ist die der Geltung. Die klassische und zentrale Frage lautet daher in der Rechtswissenschaft wie in der Kanonistik ganz schlicht: Was gilt (Frage 3)? Es ist die Frage nach der Rechtslage, wie sie zurzeit in Kraft steht. Die Methoden, die zu einer Antwort führen, sind vor allem die Auslegung (Exegese) von Rechtsnormen, ihre rechtsdogmatische Analyse und ihre Systematisierung.87 Es verwundert nicht, dass fast alle der untersuchten Arbeiten in erster Linie oder zumindest sekundär die Frage nach der geltenden Rechtslage stellen. Keine derartige Bedeutung hat diese Frage freilich in Arbeiten, die eine theologische Metareflexion des Kirchenrechts vornehmen, wie bei Böhnke (Kirche in der Glaubenskrise) und Meckel (soweit er das Verhältnis von Konzil und Codex behandelt). Neben der Frage 3 gibt es noch speziellere Fragen zur aktuellen Rechtslage. Frage 4 ist eine Vorfrage hinsichtlich der Begriffe oder Rechtsinstitute, die in geltenden Rechtsnormen vorkommen. So fragt Hahn nach dem kirchlichen Richteramt als Rechtsinstitut.88 In Frage 5 wird die objektive Rechtslage auf bestimmte Rechtssubjekte heruntergebrochen. Beispielsweise fragt Zinkl: Wer kann im Sinne der katholischen Kirche und auf der Grundlage des Kirchenrechts Leitung auf der Ebene der Pfarrei wahrnehmen? Welche Befugnisse müssen etwa dem ‚Priesterlichen Leiter‘ oder der ‚Pfarreibeauftragten‘ unbedingt zukommen, welche Dienste können im Sinn des sakramentalen Grundauftrags von Kirche sinnvoll und rechtmäßig von anderen übernommen werden?89
Vgl. Neumann (Fn. 11), 362: normbeschreibend, normdeskriptiv. Vgl. Hahn (Fn. 77), 2 f. Gabriele Zinkl, Zwischen Heilssakrament und Management. Die Ämterstruktur der katholischen Kirche aus der Perspektive des Kirchenrechts und der Organisationslehre, Regensburg 2011, 6. 87 88 89
101
102
Burkhard Josef Berkmann
Soweit Meckel die Rechtsstellung der Laien behandelt, fragt er ebenfalls nach deren Rechten und Pflichten. 3.5.3
Zukunftsorientierte Fragen
Darüber hinaus werden in der Kanonistik zukunftsorientierte Fragen gestellt. Dabei ist zu unterscheiden, ob gefragt wird, wie sich die Rechtslage in Zukunft (wahrscheinlich) tatsächlich entwickeln wird (Frage 6), oder wie sie sich wünschenswerterweise entwickeln soll (Frage 7).90 Fragen des Typs 6 kommen eher selten vor. Hahn fragt mit Blick auf das EU-Arbeitsrecht, „welche Rechtsentwicklungen zukünftig zu erwarten sind und in welchem Umfang sie voraussichtlich den kirchlichen Bereich berühren werden“91. Fragen des Typs 7 kommen hingegen häufiger vor, nämlich in zehn der untersuchten Arbeiten. So geht es bei Kingata um die zukünftige Regelung des Staat-Kirche-Verhältnisses in der Demokratischen Republik Kongo, bei Petrat um eine präzisere Fassung des Gliedschaftsrechts92 und bei Thull um die Schaffung der bislang fehlenden Normen für die Neuen Geistlichen Gemeinschaften und Kirchlichen Bewegungen. Ganster plädiert für eine stärkere Differenzierung zwischen religions- und konfessionsverschiedenen Ehen.93 Mehrere Arbeiten fragen nach besseren Lösungen für künftige Pfarrstrukturen (Adam Schwartz, Schüller/Böhnke, Zinkl). Eine besondere Position nimmt die Frage 7 in der Arbeit von V. Kapfelsperger ein, weil er untersucht, wie das kirchliche und das staatliche Recht gegenseitig voneinander lernen und damit verbessert werden könnten.94 3.5.4
Anwendungsorientierte Fragen
Dass das Kirchenrecht auch eine praktische Disziplin ist, zeigt sich in den anwendungsorientierten Fragen. Dabei sind folgende Fragen zu unterscheiden: die Anwendung allgemeiner Rechtsnormen auf einen bestimmten Fall (Frage 8), die empirische Untersuchung, wie weit die Rechtsnormen in der sozialen Wirklichkeit faktisch überhaupt angewandt werden (Frage 9), und schließlich Hinweise für die Praxis, wie die
Vgl. Neumann (Fn. 11), 362: normvorschlagend, normpropositiv. Judith Hahn, Mitbestimmung in kirchlichen Einrichtungen zwischen deutschem Verfassungs- und Europäischem Gemeinschaftsrecht, Essen 2009, 7. 92 Petrat (Fn. 69), 369–379 legt eine ganze Reihe möglicher Optionen vor. 93 Susanne Ganster, Religionsverschiedenheit als Ehehindernis. Eine rechtshistorische und kirchenrechtliche Untersuchung, Paderborn 2013, 336. 94 Vitus Kapfelsperger, Eheverfahren und Eheprozesse in Staat und Kirche. Eine rechtsvergleichende Betrachtung, Frankfurt a. M. 2015, 291–301. 90 91
Epistemologie des Kirchenrechts
Normen angewandt werden sollen (Frage 10).95 Die Schule von Navarra würde die Frage 8 weniger der Wissenschaft als vielmehr der Fertigkeit zuordnen – es handelt sich um die gewöhnliche Tätigkeit der Gerichte und Verwaltungsbehörden – und außerdem nicht von der Anwendung der Norm auf einen Fall sprechen, sondern vom Finden des Gerechten in einer konkreten Situation. Frage 8 kann aber sehr wohl auf der wissenschaftlichen Ebene behandelt werden, wenn etwa erforscht wird, welche Lösungen die Rechtsordnung für ein bestimmtes Problem bietet oder wenn die Einzelfallentscheidungen in Rechtsprechung und Verwaltung selbst zum Gegenstand der Untersuchung gemacht werden. Heidl untersucht, was c. 1095 CIC für konkrete psychische Störungen bedeutet, Kingata wendet die Normen betreffend Staaten auf den Fall Kongo an und Thull erforscht die Anwendung der (mangelhaften) Rechtslage in konkreten geistlichen Gemeinschaften. Eine eingehende Analyse der Rechtsprechung nimmt Vogel vor.96 Frage 9 reicht in das Gebiet der Rechtssoziologie hinein, weshalb die Kanonistik dazu Instrumente der Sozialforschung zu Hilfe nimmt. Es geht um die Frage, welche Auswirkungen das Recht auf die soziale Wirklichkeit – insbesondere in der Kirche – hat (oder nicht hat). Schüller und Böhnke untersuchen „die Anwendung der durch den c. 517 § 2 CIC ermöglichten Form der Gemeindeleitung in den Pfarrgemeinden in Deutschland“97. Sie stellen die zentrale Frage: „Wie beeinflusst die Transformation in der Wahrnehmung der Gemeindeleitung die religiöse und kirchliche Praxis in den Gemeinden?“98 Gallegos Sánchez stellt die Frage in den Vordergrund, „ob und wie durch [kanonische] Normen Einfluss auf Kommunikation [in der Kirche] stattfinden kann“99. Hahn möchte neben der vorgeschriebenen und der idealen Rolle des Richters auch „die Gerichtsrealität und Erfahrungsdimension des Gerichtsalltags“ erforschen, stützt sich dazu aber auf keine empirische Forschung, sondern auf den Berufskodex der Canon Law Society of America.100 Während dieser Ansatz auf eine Beschreibung der Rechtswirklichkeit abzielt, geht es bei Frage 10 darum, wie das Recht am besten angewandt werden soll. Um derartige Hinweise für die Praxis bemühen sich vor allem Heidl, Sachs, Vogel und Zinkl.
Das schließt eine Bewertung der Rechtspraxis anhand normativer Standards ein, vgl. Neumann (Fn. 11), 97. 96 Vgl. Benjamin Vogel, Der Ausschluss des Gattenwohls als Ehenichtigkeitsgrund, Würzburg 2017, 54–78. 97 Michael Böhnke / Thomas Schüller, Zeitgemäße Nähe. Evaluation von Modellen pfarrgemeindlicher Pastoral nach c. 517 § 2 CIC, Würzburg 2011, 5. 98 Projektbeschreibung Deutsche Forschungsgemeinschaft (DFG) – Projektnummer 36186262, at: http:// gepris.dfg.de/gepris/projekt/36186262. 99 Katrin Gallegos Sánchez, Rahmenbedingungen kirchlicher Kommunikation. Eine kanonistisch-kommunikationswissenschaftliche Untersuchung, Münster 1015, 34. 100 Hahn (Fn. 77), 26. 95
103
104
Burkhard Josef Berkmann
3.5.5
Kohärenz innerhalb der Rechtsordnung
Fragen bezüglich der Kohärenz der Rechtsordnung setzen voraus, dass die Rechtsordnung ein in sich logisch aufgebautes und widerspruchsfreies System ist. Das Aufdecken von Widersprüchen muss daher in die Aufforderung münden, die Rechtslage oder die Rechtsanwendung zu ändern. Es ist zu unterscheiden, ob der Widerspruch zwischen einem Akt der Rechtsanwendung (z. B. Verwaltungsakt, Urteil) und dem allgemeinen Recht (Frage 11) oder zwischen allgemeinen Rechtsnormen besteht (Frage 12). Ortner und Heckel gehen einer Frage des Typs 12 nach. Ortner prüft eine Unvereinbarkeit zwischen verschiedenen Canones des CIC/1983, nämlich zwischen c. 1399 einerseits und den cc. 18 und 221 andererseits. Heckel prüft und bejaht einen Verstoß von Partikularrecht (Allgemeines Dekret der Deutschen Bischofskonferenz) gegen universalkirchliches Recht (c. 1318 CIC).101 3.5.6 Außenperspektive Dass das Kirchenrecht sich nicht nur mit sich selbst beschäftigt, zeigen jene Forschungsfragen, die in irgendeiner Weise eine Außenperspektive einbeziehen. An erster Stelle sind die vergleichenden Forschungsprojekte zu erwähnen, die das Kirchenrecht einer anderen Rechtsordnung gegenüberstellen, sei es das staatliche Recht oder das Recht einer anderen Religionsgemeinschaft (Frage 13). Eine dezidiert rechtsvergleichende Arbeit erstellte V. Kapfelsperger, der durchgehend das kirchliche und das staatliche Eheprozessrecht miteinander vergleicht, diesen Vergleich auswertet und daraus Anregungen für die Rechtsentwicklung ableitet. Eine mehrfache Rechtsvergleichung unternimmt Jäggi, weil er nicht nur religiöses und weltliches Recht gegenüberstellt, sondern innerhalb des religiösen Rechts auch noch einen Vergleich zwischen dem katholischen Kirchenrecht, der Shar’ia und dem Baha’i-Recht anstellt.102 Vergleichende Teilaspekte zwischen kirchlichem und staatlichem Recht finden sich ferner bei Adam Schwartz und in den beiden Arbeiten Hahns (Mitbestimmung und Richteramt). Eine weitere Methode, wie die Kanonistik über die Grenzen des Kirchenrechts im engeren Sinn hinausgeht, liegt vor, wenn sie Rechtsvorschriften auf ihre Übereinstimmung mit theologischen Grundlagen untersucht (Frage 14). Eine zentrale Stellung nimmt diese Frage in der Arbeit Petrats ein, der eine Diskrepanz zwischen der dogmatisch-theologischen und der kanonistischen Gliedschaftslehre feststellt.103 Röck
Ebd., 576. Christian Jäggi, Doppelte Normativitäten zwischen staatlichen und religiösen Geltungsansprüchen. Am Beispiel der katholischen Kirche, der muslimischen Gemeinschaften und der Baha’i-Gemeinde in der Schweiz, Berlin 2016, 14 f. 103 Vgl. Petrat (Fn. 69), 369. 101 102
Epistemologie des Kirchenrechts
zeigt das Zusammenspiel zwischen Theologie und Kirchenrechtswissenschaft auf,104 während Meckel ganz grundsätzlich die Frage nach dem Verhältnis von Theologie und Kirchenrecht stellt. Die theologische Perspektive spielt außerdem bei Böhnke/Schüller, T. Kapfelsperger, Ortner und Thull eine wichtige Rolle. Auf radikalste Weise nehmen Kanonisten und Kanonistinnen eine Außenperspektive ein, wenn sie gleichsam die Brille anderer Wissenschaften aufsetzen und von da aus auf das Kirchenrecht blicken (Frage 15). Es könnte bezweifelt werden, ob es sich dabei noch um eine kanonistische Fragestellung handelt, doch lässt sich die Außenperspektive jedenfalls mit einer solchen verknüpfen. So stellt sich Röck auf den Standpunkt der Cassirerschen Philosophie, um das Sakrament der Taufe zu betrachten,105 Gallegos Sánchez blickt durch eine human- und sozialwissenschaftliche Brille auf die kirchliche Kommunikation106 und Hahn/Schüller/Wode analysieren mit einem empirischen Instrumentarium, wie das Kirchenrecht in den Medien vorkommt.107 3.5.7
Wissenschaftstheoretische Metareflexion
Schließlich kann die Kanonistik eine wissenschaftstheoretische Metareflexion anstellen, sei es dass sie sich allgemein ihres Standorts im Wissenschaftsbetrieb vergewissert (Frage 16) oder dass sie speziell ihr theologisches Fundament ergründet (Frage 17). Unter die Frage 16 fällt die vorliegende Studie. Aspekte der Frage 17 finden sich bei Hahn108 und Meckel109. Böhnke hat sich die theologische Grundlegung in seiner Arbeit „Kirche in der Glaubenskrise“ direkt zum Ziel gesetzt. Die oben aufgestellte Liste an kanonistischen Fragestellungen erhebt keineswegs den Anspruch, erschöpfend zu sein, sie zeigt aber, wie vielfältig kanonistisches Forschen ist. Jedem Fragetyp entspricht ein anderer Weg, um zu einer Antwort zu gelanVgl. Sarah M. Röck, Zeit der Taufe. Canon 856 CIC 1983 im Nexus von Kirchenrecht, Theologie und der ‚Philosophie der symbolischen Formen‘, Wien 2015, 364. 105 Vgl. ebd., 39. 106 Vgl. Gallegos Sánchez (Fn. 99), 32. 107 Vgl. Hahn/Schüller/Wode (Fn. 78), 26. 108 Hahn (Fn. 77), 1: „Nachkonziliares Denken erfordert mithin, kirchliche Rechtsinstitute wie das Richteramt nicht als staatsanaloge Reproduktionen gesellschaftlicher Organisationsmechanismen wahrzunehmen, sondern ihr theologisches Begründungsmoment zu entdecken: Als theologisches Begründungsprojekt erweist sich das richterliche Amt in der Kirche als ein kirchliches Proprium, das sich aufgrund seines theologischen Grunds gegenüber der säkularen Schwesterstruktur abgrenzt.“ 109 Thomas Meckel, Konzil und Codex. Zur Hermeneutik des Kirchenrechts am Beispiel der christifideles laici, Paderborn 2017, 241: „Diese Untersuchung möchte damit einen Beitrag zu einer Hermeneutik des Kirchenrechts leisten, die weder zu einer Theologisierung des Kirchenrechts noch zu einem reinen Rechtspositivismus führt, der die theologische Ebene ignoriert und damit das Kirchenrecht seines genuin theologischen Orts und seiner theologischen Begründung enthebt. So würde es nämlich Gefahr laufen, kein wirksames Instrument für die Verwirklichung der Sendung der Kirche zu sein, in deren Dienst das Kirchenrecht steht und sich so als theologisch grundgelegtes Recht erweist.“ 104
105
106
Burkhard Josef Berkmann
gen, das heißt eine andere Methode.110 In den untersuchten Arbeiten werden die historische, die exegetische, die rechtsdogmatische, die systematische, die hermeneutische, die analytische, die vergleichende und andere Methoden erwähnt. Diese Methodenvielfalt macht deutlich, wie verkürzt die binär codierte Frage wäre, ob die (einzige) Methode der Kanonistik juristisch oder theologisch sei.111 Auch die juristische und die theologische Bezugswissenschaft kennt mehr als eine Methode.112 Die Methodenkontroverse gibt in binärer Denkweise vor, es sei nur eine von zwei Alternativen möglich. Das führt in eine ähnliche Aporie wie die Frage, ob Licht Welle oder Teilchen ist. Indessen muss die Methode vor allem zur Fragestellung passen. Fragen zur geltenden Rechtslage werden eher mit juristischen Methoden, Fragen zur Grundlage des Kirchenrechts eher mit theologischen Methoden bearbeitet werden können. 3.6
Die drei Fragekontexte
Schließlich sind die untersuchten Arbeiten nun den drei oben erwähnten Fragenkontexten zuzuordnen. 1. Fragekontext: Fragetypen Nr. 2, 3, 4, 5, 6, 7, 8, 10, 11, 12, 16, 17; 2. Fragekontext: Fragetypen Nr. 1 (soweit historische Methode), 9 (Rechtssoziologie), 13 (Lehre des jeweils anderen Rechts), 14 (Theologie), 15 (die jeweils andere Disziplin). Erwartungsgemäß fallen die meisten Fragen in den ersten Frage-Antwort-Zusammenhang. Es handelt sich um Fragen, die innerhalb der Kanonistik zulässig und meist auch einschlägig sind und zu deren Beantwortung die Mittel der Kanonistik ausreichen. Da dies keine weiteren Probleme aufwirft, soll das Hauptaugenmerk im Folgenden auf die anderen beiden Kontexte gelegt werden. Dem dritten Kontext wurden keine der oben aufgelisteten Fragetypen zugeordnet. Dies zu tun, hieße ja, dass der entsprechende Fragetyp nicht zum Bereich der Kanonistik gehört, denn in den dritten Fragekontext fallen jene Fragen, die für die Kanonistik nicht beantwortbar sind. Behandelt wurden aber nur Fragetypen kanonistischer Art. Dennoch ist es sinnvoll, sich zum Zweck der Abgrenzung mit dem dritten Fragekontext zu beschäftigen.
Vgl. Jestaedt (Fn. 14), 259. Libero Gerosa, der in der Münchener Schule verwurzelt ist, versucht, das Problem zu lösen, indem er sagt, die Kanonistik habe ihre eigene Methode, nämlich die kanonistische, vgl. ders., Theologische Grundlegung des Kirchenrechts und das Recht anderer Religionen, in: Hat religiöses Recht eine Existenzberechtigung in säkularer Gesellschaft, hg. v. Burkhard J. Berkmann, Berlin 2019 [erscheint demnächst]. 112 Vgl. Pree, Rechtscharakter, 69. Da sich gegenstandsbezogene Nuancierungen der Methode ergeben können, räumt Pree die Möglichkeit ein, von einer kanonistischen oder von einer juristisch-kanonistischen Methode zu sprechen, vgl. ebd. 110 111
Epistemologie des Kirchenrechts
3.6.1
Der zweite Fragekontext
Der zweite Fragekontext betrifft Fragen, die innerhalb der Kanonistik zwar gestellt werden und deren grundsätzliche Beantwortbarkeit erwartet werden kann, jedoch nicht unter ausschließlicher Nutzung der kanonistischen Methoden. In der Tat zeigen nicht wenige Arbeiten eine Neigung, sich auch der Methoden anderer Disziplinen zu bedienen. Konkret sind dies die Psychologie und Psychiatrie (Heidl), die Betriebswirtschaftslehre (Zinkl), die Philosophie113 (Röck), Human- und Sozialwissenschaften (Gallegos Sánchez), die empirische Sozialforschung (Böhnke/Schüller und Hahn/ Schüller/Wode), die Religionswissenschaft ( Jäggi) sowie die Geschichte (Häring). Dabei drängen sich zwei Fragen auf: (1) Wie lässt sich die Hinzuziehung dieser Disziplinen und ihrer Methoden kanonistisch begründen? (2) Worin gründet die Kompetenz, um derartige Methoden anzuwenden? Beide Fragen werden in den Arbeiten nur selten reflektiert. Auf die erste Frage gibt Zinkl eine wohlbegründete Antwort. Sie beruft sich auf das Kirchenverständnis des Zweiten Vatikanischen Konzils, wonach die Kirche eine einzige komplexe Wirklichkeit ist, die aus menschlichem und göttlichem Element zusammenwächst, eine mit hierarchischen Organen ausgestattete Gesellschaft und zugleich eine geistliche Gemeinschaft.114 Da die Kirche demgemäß auch unter sozialen und politischen, historischen und geographischen Bedingungen existiert, folgert Zinkl: Kirche kann deshalb mit theologischer, ekklesiologischer, rechtlicher Rationalität durchdacht werden, aber auch mit institutioneller, struktureller, organisatorischer Rationalität.115
Dadurch dass sich die Kanonistik mit dem rechtlichen Aspekt der Kirche befasst, kann sie mit Disziplinen zusammenarbeiten, die sich auf verschiedene irdische Aspekte der Kirche beziehen. Die zweite Frage wird von Gallegos Sánchez ausdrücklich thematisiert: Gleichzeitig aber führt die Interdisziplinarität in ein Dilemma: Es ist schwierig mehrere Disziplinen zugleich umfangreich zu überblicken, in alle gleich tief einzusteigen und in diesem Sinne fachgerecht einzuordnen oder zu bewerten.116
Sie versucht, diesem Problem zu entgehen, indem sie die Methode und die Auswahlkriterien offenlegt.117 Kein Problem besteht selbstverständlich, wenn die forschende Persönlichkeit selbst in mehreren Disziplinen kundig ist. So betrieb Wode ein StuDamit ist wohlgemerkt nicht die Rechtsphilosophie gemeint, sondern die Philosophie der symbolischen Formen Cassirers. 114 Lumen Gentium, Art. 8. 115 Zinkl (Fn. 89), 4. Auffallend ist, dass die rechtliche Rationalität hier zum göttlichen Element gerechnet wird. 116 Gallegos Sánchez (Fn. 99), 33. 117 Vgl. ebd. 113
107
108
Burkhard Josef Berkmann
dium „Medien und öffentliche Kommunikation“118 und Jäggi ist promovierter Ethnologe. Sofern es sich nicht um Qualifikationsarbeiten handelt, die von nur einer Person verfasst werden, empfiehlt sich freilich die interdisziplinäre Zusammenarbeit zwischen den einschlägigen Fachleuten. 3.6.2
Erster oder zweiter Fragekontext?
Bezüglich des zweiten Fragekontexts ist noch zu überlegen, ob ihm auch Arbeiten zuzuzählen sind, welche die Theologie oder die weltliche Jurisprudenz einbeziehen. Da diese beiden Wissenschaften die nächsten Bezugsdisziplinen der Kanonistik sind, sind viele der untersuchten Arbeiten davon betroffen. Hinsichtlich der Theologie sind es die Werke von Arakkal, Petrat –Dogmatik–, T. Kapfelsperger, Thull, Jäggi, Böhnke –Ekklesiologie–, Meckel –Ekklesiologie– und Hahn (Richteramt). Was die weltliche Rechtswissenschaft betrifft, handelt es sich um folgende Arbeiten: Ortner, Kingata, Heckel, Adam Schwartz, Jäggi, Hahn (Mitbestimmung; Richteramt) und V. Kapfelsperger. In den zweiten Fragekontext fallen die entsprechenden Fragestellungen dann, wenn sie nicht allein mit Mitteln der Kanonistik beantwortet werden können. Damit hängt also die Streitfrage zusammen, ob die Kanonistik der theologischen beziehungsweise der juristischen Methode folgt, oder ob diese Methoden als etwas von außen Hinzukommendes zu betrachten sind. Dass dies innerhalb der Kanonistik strittig ist, wurde oben bereits erwähnt, und diese Kontroverse kann und muss hier nicht gelöst werden. Es sind zwei verschiedene Dinge, ob genuin kanonistische Fragen mit juristischer Methode behandelt werden, oder ob ein größeres Thema Teilthemen umfasst, die in den Bereich des weltlichen Rechts fallen und daher selbstverständlich mit juristischer Methode bearbeitet werden. Bei den eben genannten Arbeiten geht es um Letzteres und das entsprechende gilt für jene Arbeiten, die ein theologisches Teilthema umfassen. Die entsprechenden Themenstellungen könnten also zu Recht dem zweiten Fragekontext oder zumindest einen Zwischenbereich zwischen den Fragekontexten 1 und 2 zugeordnet werden. Bei gewissen Fragen hängt die Zuordnung zum ersten oder zweiten Fragekontext vom jeweiligen Rechtsverständnis ab. Bei einem positivistischen Rechtsverständnis Kelsenianischer Prägung fallen die Fragen nach dem gelebten Recht und der Rechtswirklichkeit (vgl. Fragetyp 9) nicht in den Gegenstandsbereich der Rechtswissenschaft, sondern der Soziologie. Anders wird die Beurteilung hingegen unter der Annahme ausfallen, dass der konkrete Lebenskontext selbst schon rechtliche Aspekte aufweist.119 https://www.uni-muenster.de/FB2/personen/ikr/wode.html. Pree, Rechtscharakter, 70: „Es muss eine Entsprechung hergestellt werden. Diese vollzieht sich dadurch, dass die Norm mit Wirklichkeit, die Wirklichkeit (der Fall) mit Normativität angereichert wird.“ 118 119
Epistemologie des Kirchenrechts
3.6.3
Der dritte Fragekontext
Die Fragen, die in den untersuchten Arbeiten gestellt werden, betreffen den engeren oder weiteren Bereich der Kanonistik und fallen folglich nicht in den dritten Fragekontext. Dennoch sind manche Arbeiten in dieser Hinsicht aufschlussreich, weil sie sich bewusst von Fragen abgrenzen, die sie nicht beantworten können. T. Kapfelsperger macht deutlich, dass die Vereinbarkeit von Staatsleistungen mit dem Auftrag der Kirche eine „theologisch-politische Frage“120 ist. Die Kanonistik kann aber keine politischen Entscheidungen treffen, sondern allenfalls Handlungsalternativen aufzeigen. Wenn für Petrat klar ist, dass Kirchengliedschaft und Heilsbesitz nicht einfach zusammenfallen,121 sagt er damit indirekt, dass die Kanonistik keine Aussage über den Heilsbesitz treffen kann. Schwieriger ist die Einschätzung der Arbeit Böhnkes zum Thema „Kirche in der Glaubenskrise“, weil sie zum größeren Teil theologischer und nur zum kleineren Teil kirchenrechtlicher Art ist. Eine Frage, die ihn in der Einleitung beschäftigt, nämlich ob die Gotteskrise Ursache für die Kirchenkrise ist oder umgekehrt,122 ist auf keinen Fall eine kanonistische. Ebenso wenig kanonistisch ist die für ihn „entscheidende Frage“: Wie kann […] die Kirche ‚Zeichen und Werkzeug‘ des Heils für diejenigen sein, die unter Berufung auf den Namen Gottes und der Kirche von kirchlichen Amtsträgern missbraucht und gedemütigt worden sind?123
Sehr wohl kanonistisch ist aber sein Ziel einer pneumatologischen Grundlegung des Kirchenrechts.124 Dies fällt unter den Fragetyp 17. Es ist hinreichend klar geworden, dass es Aufgabe der Kanonistik ist, kanonische Normen zu interpretieren, aber ist es auch ihre Aufgabe, Normen zu schaffen, oder handelt es sich dabei um ein Scheinproblem, das in den Fragekontext drei fällt?125 Die Antwort auf diese Frage hängt vom jeweiligen Rechtsverständnis ab. Die korrekte Toni Kapfelsperger, Staatsleistungen an die Katholische Kirche in Bayern. Grundlagen, Entwicklung seit 1919 und mögliche Ablösung, St. Ottilien 2016, 2. 121 Petrat (Fn. 69), 19. 122 Michael Böhnke, Kirche in der Glaubenskrise. Eine pneumatologische Skizze zur Ekklesiologie und zugleich eine theologische Grundlegung des Kirchenrechts, Freiburg i. Br. 2013, 14. Kanonistisch ist diese Fragestellung schon deswegen nicht, weil die Themen „Gotteskrise“ und „Kirchenkrise“ nicht in den Gegenstandsbereich der Kanonistik fallen, sondern eher in jenen der Pastoraltheologie oder -soziologie. Kanonistisch ist sie aber auch deswegen nicht, weil die Kanonistik ebenso wenig wie die weltliche Jurisprudenz eine Kausalwissenschaft ist, die Kausalbeziehungen zwischen zwei Phänomenen auf der Seinsebene erforscht, vgl. Jestaedt (Fn. 14), 255. Zentral ist für sie vielmehr der Zusammenhang zwischen Tatbestand und Rechtsfolge, der die Sollensebene berührt. Das schließt freilich nicht aus, dass die Kausalität auf der Sachverhaltsebene etwa im Schadensersatz- und Strafrecht oder bei psychischen Ursachen einer Eheführungsunfähigkeit (c. 1095 Nr. 3 CIC) von Bedeutung ist. 123 Böhnke (Fn. 122), 16. 124 Ebd., 260. 125 Zur parallelen Frage in der weltlichen Rechtswissenschaft vgl. Jestaedt (Fn. 14), 259. 120
109
110
Burkhard Josef Berkmann
Kanonistik würde diese Frage eindeutig verneinen, denn wenn das Interpretationsergebnis unbefriedigend ist, dürfen Kanonisten und Kanonistinnen nicht so tun, als ob die eigene Wunschvorstellung bereits geltendes Recht wäre, indem sie auf unzulässige Interpretationsmethoden zurückgreifen.126 Es bleibt ihnen nur die Möglichkeit, Desiderate de lege ferenda an den Gesetzgeber zu formulieren (vgl. Fragetyp 7).127 Dieser und nicht die Kanonistik ist für die Normschöpfung zuständig. Nach einem anderen Rechtsverständnis ist jeder die Rechtsnormen korrigierende, interpretierende und anwendende Akt mehr oder weniger auch rechtsetzend.128 So kommt den bei der Rechtsanwendung heranzuziehenden Flexibilisierungsinstrumenten eine „evolutive Funktion“129 zu. Auch nach dieser Auffassung kann die Kanonistik aber nicht die Stelle der Gesetzgebung einnehmen. Das schützt vor der falschen Erwartung, die Kanonistik solle das geltende Kirchenrecht ändern. 4.
Zusammenschau der theoretischen und der faktischen Ebene
Kapitel 2 des vorliegenden Beitrags betrachtete aktuelle epistemologische Ansätze auf der theoretischen Ebene, während Kapitel 3 auf der faktischen Ebene die in kanonistischen Forschungsarbeiten tatsächlich gestellten Fragen untersuchte. Wie hängen die beiden Ebenen nun miteinander zusammen? Auf den ersten Blick scheint es, dass die konkreten Forschungsarbeiten sich direkt auf ihr Thema stürzen, ohne die theoretische Diskussion zur Kenntnis zu nehmen, und dass umgekehrt die theoretischen Ansätze vorwiegend konzeptionell-deduktiv vorgehen und sich wenig darum kümmern, wie die Kanonistik tatsächlich betrieben wird. Die reduktionistische Kontroverse, ob die Methode der Kanonistik theologisch oder juristisch ist, relativiert sich sehr stark, sobald zur Kenntnis genommen wird, welche Methodenvielfalt, die selbst bei entfernteren Disziplinen Anleihen macht, faktisch besteht. Tendenziell ließe sich möglicherweise feststellen, dass Ansätze, die den Normtext in den Fokus nehmen, eher die Fragen 3–5 stellen, während Ansätze, welche die theologische Grundlage hervorheben, Vgl. Georg Bier, Die Rechtsstellung des Diözesanbischofs nach dem Codex Iuris Canonici von 1983, Würzburg 2001, 22. 127 Ebd. Gehören Forschungsprojekte, die auf Reformen de lege ferenda abzielen, zum ersten oder zum zweiten Fragekontext? Muthorst teilt sie in seinem in diesem Band abgedruckten und auf die Rechtswissenschaft bezogenen Beitrag teils dem ersten und teils dem zweiten zu. Was die Kanonistik betrifft, ist festzustellen, dass Desiderate de lege ferenda meist aus der inneren Inkohärenz der kirchlichen Rechtsordnung oder aus der fehlenden Übereinstimmung mit den theologischen Grundlagen abgeleitet werden. In diesem Fall geht es um den ersten Fragekontext. Wenn die Desiderate jedoch aus dem Vergleich mit einer anderen – z. B. einer staatlichen – Rechtsordnung oder aus Erkenntnissen einer anderen Disziplin wie z. B. der Betriebswirtschaftslehre gewonnen werden, handelt es sich um den zweiten Fragekontext. 128 Helmuth Pree, Le tecniche canoniche di flessibilizzazione del diritto. Possibilità e limiti ecclesiali di impiego, Ius Ecclesiae 12 (2000), 375–418, 388. 129 Ebd. 126
Epistemologie des Kirchenrechts
eher die Fragen 14 und 17 stellen. Die untersuchten Arbeiten machen aber deutlich, dass eine schematische Zuordnung solcher Art scheitert. Wenn festgestellt wird, dass die Kanonistik im Schnittbereich von Theologie und Jurisprudenz liegt, dann soll das weder bedeuten, dass sie ohne eigenständiges Profil in diesen beiden Wissenschaften aufginge noch dass ihr Verhältnis zu den beiden Bezugswissenschaften von derselben Art wäre. Vielmehr betrifft das Verhältnis zur Theologie eher die kirchenrechtlich geregelten Inhalte – nämlich die kirchlichen Vollzüge –, während das Verhältnis zur Rechtswissenschaft eher die Form der Regelung betrifft, zumal es sich eben um eine rechtliche Regelung handelt. In manchen Arbeiten findet sich durchaus eine Methodenreflexion, die auf die Ansätze der verschiedenen Schulen Bezug nimmt. Das gilt nicht nur für die Arbeiten von Böhnke (Kirche) und Meckel, deren Haupterkenntnisinteresse ja gerade darin besteht, das Verhältnis zwischen Kirchenrecht und Theologie zu klären. Vielmehr gilt es auch für Röck130 und Adam Schwartz131, die sich beide mit der Frage auseinandersetzen, wie weit theologische Lehren zur Interpretation kanonischer Normen herangezogen werden können. Die Kontroverse zwischen der korrekten Kanonistik und der Münchener Schule wird vor allem in der deutschsprachigen Kanonistik ausgetragen. Sie fand in recht begrenztem Ausmaß Niederschlag in den untersuchten Arbeiten. Die Schule von Navarra ist hingegen stark auf die spanisch- und italienischsprachige Kanonistik fokussiert. Möglicherweise wäre sie deutlicher zum Vorschein gekommen, wenn auch Arbeiten aus diesem Raum einbezogen worden wären. Die Betonung der Gerechtigkeit im Recht, welche diese Schule kennzeichnet, findet sich in den untersuchten Arbeiten kaum. Auch in dieser Hinsicht bildet Adam Schwartz wieder eine Ausnahme, wenn sie schreibt: Das Recht der Kirche als sichtbar verfasste Gemeinschaft (vgl. c. 204 CIC/1983) steht, genau wie das Recht im Staat, unter dem Anspruch der Gerechtigkeit im rechtsphilosophischen Sinne des Wortes, d. h. es garantiert die Rechtssicherheit, den Schutz der Grundrechte, insbesondere der Gleichheit vor dem Gesetz, die Wahrung des Rechtsfriedens und der fundamentalen Freiheiten der Person.132
Allerdings bringt sie den Begriff der Gerechtigkeit an dieser Stelle weder mit der Rechtslehre des Thomas von Aquin noch mit der Schule von Navarra in Verbindung. Jedenfalls ist in diesem Beitrag deutlich geworden, dass sich die Zwischenstellung der Kanonistik zwischen Jurisprudenz und Theologie auch in der Art ihrer Fragestellungen zeigt. Manche Fragen neigen eher der einen, manche eher der anderen Bezugswissenschaft zu. So liefert die Kanonistik ein interessantes Beispiel für einen SchnittVgl. Röck (Fn. 104), 40. Vgl. Michèle Adam Schwartz, Pfarrei und Kirchgemeinde. Verhältnisbestimmung für die deutschsprachige Schweiz unter spezifischer Berücksichtigung rechtshistorischer Aspekte, Münster 2012, 2 f. 132 Ebd., 3. 130 131
111
112
Burkhard Josef Berkmann
bereich innerhalb des universitären Fächerspektrums. Das Spannungsverhältnis, in dem die Kanonistik steht, belebt sie mit neuen Ansätzen. Die Reduktion auf die eine oder andere Seite würde sie hingegen verarmen lassen. Das Studium des Kirchenrechts ist sowohl ein theologisches als auch ein rechtswissenschaftliches Unternehmen.133 Burkhard Josef Berkmann
Klaus-Mörsdorf-Studium für Kanonistik, Ludwig-Maximilians-Universität, Geschwister-Scholl-Platz 1, 80539 München
133
Vgl. Russell Sandberg, Law and Religion, Cambridge 2011, 179.
Von der Offenbarung zur Erklärung? Jüdische und christlich-theologische Konzeptionen des Verstehens
BRITTA MÜLLER-SCHAUENBURG CJ
Abstract: Die Autorin beginnt die epistemologische Analyse ihres Faches Theologie mit einem Blick
auf eine biblische Passage zur „Wahrheit“ und deren Auslegung im Blick auf den Wahrheitsbegriff von Theologie, vor dem Hintergrund der Frage, inwieweit sich Theologie als echte Wissenschaft beweisen kann. Theologie ist eine Auslegungswissenschaft. Der Erkenntnisprozess des Theologen beginnt in der Auslegung und dem Verstehen der Offenbarung. Das Verstehen ist religiöses Verstehen. Die Autorin benennt vier religiöse Konzeptionen des Verstehens (Sinnbildung, Vernunftkritik, Liebespraxis und Streitkultur), und erklärt die eigentümliche Form der Binnengliederung der Disziplin in Teildisziplinen als Konsequenz daraus. Der Fragenkatalog der Theologie ist, in seiner Beschränkung auf den „Gegenstand Gott“, in spezifischer Weise unbegrenzt, entgrenzt. Die sich daraus ergebenden Unschärfen als Vermittlungsbereiche bilden das Zentrum inter- und transdisziplinärer Produktivität von Theologie.
1.
„Was ist Wahrheit?“
Da ging Pilatus wieder in das Prätorium hinein, ließ Jesus rufen und fragte ihn: Bist du der König der Juden? Jesus antwortete: Sagst du das von dir aus oder haben es dir andere über mich gesagt? Pilatus entgegnete: Bin ich denn ein Jude? Dein Volk und die Hohepriester haben dich an mich ausgeliefert. Was hast du getan? Jesus antwortete: Mein Königtum ist nicht von dieser Welt. Wenn mein Königtum von dieser Welt wäre, würden meine Leute kämpfen, damit ich den Juden nicht ausgeliefert würde. Nun aber ist mein Königtum nicht von hier. Da sagte Pilatus zu ihm: Also bist du doch ein König? Jesus antwortete: Du sagst es, ich bin ein König. Ich bin dazu geboren und dazu in die Welt gekommen, dass ich für die Wahrheit Zeugnis ablege. Jeder, der aus der Wahrheit ist, hört
114
Britta Müller-Schauenburg CJ
auf meine Stimme. Pilatus sagte zu ihm: Was ist Wahrheit? Nachdem er das gesagt hatte, ging er wieder zu den Juden hinaus und sagte zu ihnen: Ich finde keine Schuld an ihm.1
„Was ist Wahrheit?“ Die Grundlagenfrage aller Fragen wird im biblischen Kontext nicht einmal als Frage bezeichnet. „Nachdem er das gesagt hatte“, fährt der Text stattdessen fort, nicht: „nachdem er das gefragt hatte“. Eine Antwort hat Pilatus ebenfalls nicht abgewartet. Ein Verhör ist auch kein Gelehrtengespräch, wo das Fragenstellen edelster Motor des Vorangehens ist – und dennoch: Im Verlauf des Hin und Her hatten die Fragen zunehmend zwischen Verhör und echten Wissensfragen changiert. Bei der berühmten Pilatusfrage handelte es sich bereits um die sechste wechselseitige Rückfrage der Gesprächspassage. Interessant ist, dass beide, der Jude Jesus und der Römer Pilatus, Fragen und Gegenfragen formulieren. Jesus hat – gemäß der Darstellung des Evangeliums – in diese letzte Frage nicht mehr in Worten, sondern mit seinem Leben bzw. seinem Tod beantwortet. Ob Pilatus Gott als den Adressaten seiner Frage zumindest ahnend identifizierte, bleibt offen. Theologen mühen sich seit Jahrhunderten um eine Antwort auf die Frage nach der Wahrheit mit ihren Worten, aber etwas von der ambivalenten Offenheit ist, aus der Perspektive von Außenstehenden, der Theologie eigen geblieben: Existiert Gott?2 Oder richtet sich die Theologie ohne jedes „subject“ ins Nichts? Ist Gott gar als Akteur, als „Vater“, „Sohn“ und „Heiliger Geist“, selbst an der Theologie beteiligt?3 Spätestens seit der Aufklärung hat die Frage, ob Theologie als ernstzunehmende Wissenschaft zu betrachten sei, Stoff für zunehmend hitzige Debatten geliefert.4
Joh 18,33–38 (die Bibel wird im vorliegenden Beitrag zitiert nach der Einheitsübersetzung 2016). Das war lange die Frage der „Gottesbeweise“, vgl. z. B. Joachim Bromand, Gottesbeweise von Anselm bis Gödel, Berlin: Suhrkamp 2011, und dazu gesellte sich die Analysis-Fidei-Lehre, vgl. hierzu einführend mit Literatur: Walter Kasper, Einführung in den Glauben, Mainz 31983, 61–70. 3 Diese Beteiligung am Verstehen formuliert die Dogmatische Konstitution über die Offenbarung Dei Verbum (DH Nr. 4210): „[Die] Überlieferung, die von den Aposteln stammt, entwickelt sich in der Kirche unter dem Beistand des Heiligen Geistes weiter: Es wächst nämlich das Verständnis der überlieferten Dinge und Worte sowohl aufgrund des Nachsinnens und des Studiums der Gläubigen, die sie in ihrem Herzen erwägen, als auch aufgrund der inneren Einsicht in die geistlichen Dinge, die sie erfahren, sowie aufgrund der Verkündigung derer, die mit der Nachfolge im Bischofsamt die sichere Gnadengabe der Wahrheit empfangen haben. Denn die Kirche strebt im Lauf der Jahrhunderte ständig der Fülle der göttlichen Wahrheit entgegen, bis sich an ihr die Worte Gottes erfüllen.“ 4 „Geht man von dieser Regel [die Zensur des Theologen in der Wissenschaft einzuschränken] ab so muss es endlich dahin kommen, wo es schon sonst (zum Beispiel zur zeit des Galilei) gewesen ist, nämlich dass der biblische Theolog, um den Stolz der Wissenschaften zu demütigen und sich selbst mit denselben die Bemühung zu ersparen in […] andere Wissenschaften Einbrüche wagen […] und alles um sich her in Wüstenei verwandeln, alle Versuche des menschlichen Verstandes in Beschlag nehmen dürfte“: Immanuel Kant, Die Religion innerhalb der Grenzen der bloßen Vernunft, BA XV. Erst in jüngster Zeit wurde jedoch die Frage als selbst wissenschaftlich interdisziplinär zu untersuchende Frage angegangen. Zwei 2011 und 2012 gestartete DFG-Graduiertenkollegs mit federführender Beteilung der Theologien in Tübingen und Frankfurt ebenso wie eine Emmy Noether Nachwuchsgruppe in Bochum bieten zu dieser Frage in ihrer aktuellen Debatte einen differenzierten Einblick: https://uni-tuebingen.de/forschung/forschungsschwerpunkte/ 1 2
Von der Offenbarung zur Erklärung?
Im Folgenden wird weder die Frage nach der Wahrheit noch die nach der Wissenschaftlichkeit von Theologie direkt gestellt oder beantwortet. „Fragen und Antworten – Erklären und Verstehen in den Wissenschaften“ lautete das Thema der Tagung, für die der vorliegende Text entstand gemäß dem Auftrag, für „die Theologie“ zu diesem Thema zu sprechen. Aus Gründen, die hoffentlich am Ende des Textes deutlicher geworden sein werden, ist „die Theologie“, befragt nach ihrem „Erklären und Verstehen“, ein sperriger Gesprächspartner. Wenn man das Ganze der Theologie in den Blick nimmt – und nicht nur ein Segment (z. B. ein „theologisches Fach“, und dies ggfs. nur strikt in seiner akademisch-universitären Form) – und versucht, Theologie einmal wie ganz neu so anzusehen, als sei hierzu die Antwort nicht längst vielfach formuliert und diese Formulierungen gutgehütet unter dem Druck, sich als „normale“ Wissenschaft zu beweisen, fallen mehrere Phänomene ins Auge, die im Grunde interessant sind. Aber sie sind, auch für Selbstbeschreibung der Theologie, d. h. für Theologinnen und Theologen, nicht Teil des Standards. Theologie beschreibt sich so normalerweise nicht.5 Was hier folgt, ist also in gewisser Weise ein Experiment. Das Ergebnis ist vorläufig und streitbar. Es wird deutlich werden, dass zwei Phänomene die Theologie als eine Wissenschaft sperrig machen. Erstens: Die Theologie ist im tiefsten Grunde eine Angelegenheit von Praxis und Handeln, denn – um es kurz thetisch vorwegzunehmen – Gottes Wort kann nur erklärt und verstanden werden dadurch, dass einer es tut. Zweitens: Theologie ist „eine“ Wissenschaft, d. h. Singular, nur in sehr spezieller Weise, was zu beschreiben sein wird. In einem ersten Schritt werde ich eine viergliedrige Schematisierung religiösen „Verstehens“ als Auslegung von Offenbarung darstellen. Der Zugang ist sicherlich nicht der einzig denkbare Zugang. Aber er bringt die Probleme besonders effektiv ans Licht. So, d. h. über das Phänomen religiösen Verstehens, Theologie als Wissenschaft erfassen zu wollen, mag allerdings noch mehr provozieren als die – an sich areligiöse – Frage nach der Wissenschaftlichkeit von Theologie. Kann Wissenschaft, was immer sie re-
graduiertenkollegs/gk-religioeses-wissen/ (Tübingen) (zuletzt abgerufen 16.08.2019), http://www.theologieals-wissenschaft.de/ (Frankfurt am Main), http://www.kath.ruhr-uni-bochum.de/ph-th/forschung/emmynoether-nachwuchsgruppe/index.html.de (Bochum) (zuletzt abgerufen 16.08.2019). Siehe auch: Benedikt Paul Göcke u. a. (Hg.), Die Wissenschaftlichkeit der Theologie, 3. Bde. (Studien zur systematischen Theologie, Ethik und Philosophie 13), Münster: Aschendorff 2018–2019. 5 Diejenigen Leserinnen und Leser, die dem Fach Theologie angehören, werden die folgenden Überlegungen oft als zu kurz und thetisch empfinden, als teilweise unnötig langatmig im allgemein Bekannten, an anderen Stellen wiederum dringend mehr begründungsbedürftig. Die Form verdankt sich der Situation, in kurzer Zeit etwas zur gesamten Disziplin zu sagen, das mit den Selbstbeschreibungen der anderen – nichttheologischen – Fächer korrespondieren und reagieren bzw. interagieren und ins Gespräch kommen kann, als Gesprächsanstoß. Ob darauf das „Kleingeld herausgegeben“, d. h. in genauerer Argumentation das Dargestellte auch fachintern so dargestellt werden kann, dass es akzeptabel ist, wird im Beitrag selbst nicht dargestellt. Mich interessierte aber sehr, was Fachkollegen dazu an Fragen oder Einwänden formulieren würden.
115
116
Britta Müller-Schauenburg CJ
flektieren mag, selbst religiös bedingt sein? Besteht nicht vielmehr die größtmögliche Annäherung von Wissenschaft an Religiosität darin, Elemente religiöser Traditionen (religiöse Begriffe, Objekte und Verhaltensweisen etc.) mit Hilfe von nichtreligiösen Untersuchungs- und Reflexionsmethoden zu „beforschen“? In der klassischen Aufgabenverteilung zwischen Theologie und Religionswissenschaft ist das nicht selbst religiöse Verstehen von Religion der Religionswissenschaft zugeordnet. Die Theologie hingegen reflektiert Religion aus der Perspektive des religiösen Standpunktes. Das bedeutet, dass Theologie nicht nur die – gut objektiv beschreibbaren – „Vorstellungen von Gott“ behandelt, sondern sich, in unterschiedlichen Weisen, „Gott selbst“ zuwendet. „Gott“ aber ist nicht ein Gegenstand wie andere. In einem zweiten Schritt werde ich deshalb religiöses Verstehen als Bedingung und Form des theologischen Wahrheitsfragens und seiner Besonderheiten herausarbeiten. Theologie sammelt, um es vorwegzunehmen, von jeher Erfahrung damit, einen eigenen Gegenstand nur benennen, nicht aber eingrenzen zu können, nie einen wirklich sicheren Stand als Wissenschaft zu besitzen und, schließlich, die Einheit ihrer Disziplin selbst nicht mehr formulieren zu können – und dennoch vernünftig und ertragreich zu arbeiten. Diesem „Gewinn“ wird am Ende, in einem kurzen dritten Schritt, noch eine Überlegung gewidmet. 2.
Verstehen ist Auslegung von Offenbarung
2.1
Offenbarung als Sinnbildung
Sowohl Judentum als auch Christentum sehen als historischen und sachlichen Anfang des Verstehens konkrete Erfahrungen, die als Gotteserfahrungen gedeutet werden: Begebenheiten, Gegebenheiten, „Gaben“, d. h. „Data“ Gottes, immer aufgefasst als etwas, das gedeutet werden will und muss, gemeinsam mit anderen Menschen, einem „Volk“.6 Religiöses Verstehen ist so weniger befasst mit der Beantwortung der Frage, woher etwas kommt, als vielmehr konzentriert auf den Sinn, den das, was ist, für die Deutenden besitzt. Ob ein „Israel“ historisch wirklich aus Ägypten durchs Rote Meer gezogen ist oder eher nicht, ist eine wichtige Frage, um zu beurteilen, in welchem Maße historische Daten dieses Gegebene ausmachen.7 Dass diese „Exodus“-Erzählung vom AusDie politische Dimension ist theologisch umstritten und auch problematisch, vgl. hierzu klassisch: Johann Baptist Metz, Glaube in Geschichte und Gesellschaft. Studien zu einer praktischen Fundamentaltheologie, Mainz: Grünewald 51992, 136–151. Die Rede vom „Volk Gottes“ ist eine bereits im Alten Testament etablierte Redewendung: „Beim HERRN ist die Hilfe. Auf deinem Volk ist dein Segen“ (Ps 3,9) u. v. m. 7 Der Methodenkanon der historisch-kritischen Exegese führt die Beantwortung dieser Frage als „Begriffs- und Motivgeschichte“ bzw. „Religionsgeschichte“, wo mit Hilfe von außerbiblischen Texten und Belegen auch der ereignisgeschichtliche Hintergrund biblischer Erzählungen zu erhellen gesucht wird, siehe z. B. Kreuzer, Siegfried / Vieweger, Dieter, Proseminar I Altes Testament, Stuttgart 1999. 6
Von der Offenbarung zur Erklärung?
zug aus Ägypten als Befreiungserfahrung an den Anfang der Gemeinschaftsgeschichte gestellt wird, ist aber, von der Antwort auf diese Frage unabhängig, ein Faktum. Die Interpretation beginnt nicht erst als „Bibel-Auslegung“ jenseits der Bibel. Sie ist Teil des heiligen Textes. Die Bibel besteht aus Erzählung und aus Deutung – nicht nur von schönen Erfahrungen und nicht nur von Erfolgsgeschichten, aber alles, das Dunkle und das Helle, wird ausgelegt als von Gott Gegebenes.8 Auslegung und Verstehen gehören also de facto zu dem, was „Heilige Schrift“ ist. Der so aus Erfahrungen und ersten Deutungen zusammengesetzte Text wird dann weiter, in einem prinzipiell nicht abschließbaren Prozess des Verstehens, von jeder Generation, in jeder Situation, ja jeden Tag immer wieder gelesen und je neu verstanden, immer wieder neu ausgelegt, gleichsam als das „Gegebene zweiter Ordnung“. Eines bleibt: Man legt dabei nicht nur den Text aus. Man legt immer auch den Kontext des Deutens aus: die Situation, den Tag. Und genau in dieser Wechselwirkung ist die Auslegung der Bibel die Grundform jüdischen und von da ausgehend christlichen Verstehens. Sie impliziert – von Anfang an – die hilflose Unmöglichkeit der „sauberen“ Eingrenzung des eigenen Gegenstandes.9 Um ein guter Ausleger zu sein, muss man also den Text und die Situation kennen. Man muss idealerweise immer das gesamte Universum des Textes präsent haben, um Bezüge zu entdecken bzw. herstellen zu können. Der erste Akt des Verstehens besteht also darin, den Text zu lernen und sich vertraut zu machen mit diesem „Datum Gottes“. Der englische Ausdruck „learning by heart“ (oder frz. „par cœur“) impliziert, was schon die jüdische Bibel dazu sagt: das Gesetz ist auf das Herz des Menschen geschrieben.10 Ordnen lässt sich dabei allerdings, in gewisser Weise, auch das prinzipiell offene Feld. Und es lassen sich Regeln aufstellen darüber, wie auszulegen ist – wenn auch immer nur vorläufig, so doch nicht vergeblich und sinnlos. Jede Regel, die gilt, verknappt die Möglichkeiten im Unbegrenzten und eröffnet so neu die Möglichkeit einer Auslegungsgemeinschaft, die an bestimmten Stellen „zusammenkommt“ (wörtl. Übersetzung von ‚Synagoge‘).
Ps 13, 2–3: „Wie lange noch, Herr, vergisst du mich ganz? Wie lange noch verbirgst du dein Angesicht vor mir? Wie lange noch muss ich Sorgen tragen in meiner Seele, Kummer in meinem Herzen Tag für Tag? Wie lange noch darf mein Feind sich über mich erheben?“ Sogar der christlich in der Osterliturgie positiv gelesene Text Ps 139,11–12 dokumentiert ursprünglich ein ambivalentes Gefühl, Gottes Urteil nicht entrinnen zu können: „Würde ich sagen: Finsternis soll mich verschlingen und das Licht um mich soll Nacht sein! Auch die Finsternis ist nicht finster vor dir, die Nacht leuchtet wie der Tag, wie das Licht wird die Finsternis.“ 9 Zum sogenannten Vierfachen Schriftsinn vgl. den aus derselben Forschungsgruppe hervorgegangenen Tagungsband, insbesondere: Christian Ströbele, Die Vier Ursachen in der theologischen Hermeneutik. Klassische Anwendungen und systematische Ausblicke, in: Verena Klappstein / Thomas A. Heiß: „als bis wir sein Warum erfasst haben“. Die Vierursachenlehre des Aristoteles in Rechtswissenschaft, Philosophie und Theologie, Stuttgart: Franz Steiner 2017, 119–141. 10 Dtn 6,6; Spr 4,4. 8
117
118
Britta Müller-Schauenburg CJ
2.2.
Offenbarung als Konkretion des Vernünftigen
Beginnend etwa im 11. Jahrhundert, wurde speziell in der christlichen Theologie eine Weise des Verstehens kultiviert, die auf einer prinzipiellen Unterscheidung von ‚Autorität‘ (auctoritas) einerseits und ‚Vernunft‘ (ratio) andererseits beruht. Diese Unterscheidung scheidet das dem Verstehenden zum Verstehen Vorgelegte stärker vom Verstehensprozess. Das Verstehen und Erklären soll, so der Anspruch, allein durch die Vernunft geschehen, und auf Vernunft soll gestützt werden können, was zunächst auf Autorität gestützt worden war. Ein prominenter Name und Motor dieser Entwicklung für die christliche Theologie ist Anselm von Canterbury. In seinem vielleicht bekanntesten Werk Cur Deus homo („Warum wurde Gott Mensch?“) wird nicht (nur) erzählt, dass und wie Gott Mensch wurde, und dargelegt, was das für sein „Volk“ bedeutet, sondern argumentiert, warum Gott notwendigerweise, d. h. hier: vernünftig zwingend, Mensch werden musste. Das historische Ereignis, das Datum Gottes, wird also als ein nicht Zufälliges angesehen, sondern vielmehr als etwas, das einer Vernunft folgt. Denkt man das – einige Stufen – weiter, können sowohl Offenbarung als auch Natur als eine Art konkretisierendes Bilderbuch für (noch) nicht des Lesens voll fähige Personen wahrgenommen werden, denen Gott schon auf eine für sie leitende und hilfreiche Weise gegeben hat, was sie bei genügendem Vernunftgebrauch eines Tages auch selbst aus den Kräften der Vernunft erkennen können.11 Gott gibt ein Gesetz als Autorität und setzt menschliche Autoritäten ein, bis der Vernunftgebrauch so weit vorangeschritten ist, dass jeder Mensch die Dinge selbst einsieht und sich selbst führt – eine Perspektive auf Religion, die die Aufklärung und eine Reihe ihrer philosophischen Rezeptionsformen geprägt hat, und sich dabei von Theologen wie Anselm von Canterbury natürlich meilenweit entfernte. Grundvoraussetzung ist ein Vernunftvertrauen, das zum einen Gott und Vernunft weitgehend identifiziert, und zum anderen Vernunft als universal versteht, d. h. als etwas grundsätzlich allen Gemeinsames, das in die Lage versetzt, nicht nur religions-
Mehr als Konkretion des durch die Vernunft nur abstrakt Gott erfassenden Begriffes sieht es die Tradition mit Duns Scotus, vgl. Knut Wenzel, Offenbarung – Text – Subjekt. Grundlegungen der Fundamentaltheologie, Freiburg im Breisgau: Herder 2016, 55–57. Die christliche Tradition hat die Lehre der visio beatifica entwickelt, die, gestützt auf 1 Joh 3,2, besagt, dass in der Ewigkeit die geretteten Seelen Gott sehen werden „wie er ist“. Zur biblischen Offenbarung als eine Art „erste Version“, der im Laufe der Erfahrungsund Erzählzeit eine Vertiefung der Vernunft zuteil wird, siehe insbes. Georg Wilhelm Friedrich Hegel, Phänomenologie des Geistes, Werke, Band 3, Frankfurt a. M. 1979, anders etwa 30 Jahre später Friedrich Wilhelm Joseph Schelling, Philosophie der Offenbarung, hg. und eingeleitet von Manfred Frank, Frankfurt am Main: suhrkamp 1993. Und noch einmal anders, Offenbarung strikt narrativ-prozessual auffassend, entwicklet es Paul Ricoeur in Gestakt seiner Hermeneutik der Idee der Offenbarung, siehe hierzu Wenzel, Offenbarung – Text – Subjekt, 2016, 57–107. Zum „Buch der Natur“ (liber naturae) als Chiffrenschrift Gottes: Martin Gessmann, Artikel Buch der Natur, in: Ders. (Hrsg.): Philosophisches Wörterbuch, 23. Auflage, Stuttgart 2009, 96; Erich Rothacker: Das „Buch der Natur“. Materialien und Grundsätzliches zur Metapherngeschichte, Bonn: Herbert Grundmann 1979. 11
Von der Offenbarung zur Erklärung?
unabhängig alle Menschen, sondern auch alle Menschen prinzipiell mit aller Welt verstehend zu verbinden.12 2.3
Offenbarung als Liebe „des Menschen“
Gerade, wo die Vernünftigkeit religiösen Verstehens herausgestrichen wird, wird umso deutlicher, dass jedenfalls in den hier verhandelten Traditionen religiösen Verstehens, jüdisch und christlich, im Letzten nicht intellektuelle Spekulation zum Verstehen führt – auch nicht dort, wo von „Theoria“, d. h. spiritueller Gottesschau, die Rede ist – sondern es um Handeln geht, um Verstehen und Erklären durch Verhalten, insbesondere durch soziales Verhalten, kurz „Leben“, das in einem wesentlichen Teil ein Tun ist.13 Was das Ganze soll bzw. Gottes Wort will, versteht – gemäß der Offenbarung – ein Mensch nur, indem er das Wort „tut“.14 Oder nochmal anders: Es geht gemäß der christlichen Tradition ganz explizit um den logos, aber nicht um Logik im Sinne von kohärenter und schlüssiger Argumentation. „Wahrheit“ wird beurteilt und geprüft an Praxis.15 Gerade in dieser Pragmatik, der die jüdische und die christliche Tradition verbindet, liegt der Grund dafür, dass jüdische Studien die Bezeichnung „Theologie“ auch für die reflexiven akademischen Teildisziplinen für sich als unpassend empfinden und disziplinär eher mit politischer Philosophie und mit Rechtswissenschaften zusammengehen. Die Halacha, vielleicht die Kerndisziplin traditioneller jüdischer Studien und jedenfalls zentrale Reflexionsform, beschäftigt sich mit menschlicher Handlung und Handlungsregelung. Aber in derselben Pragmatik liegt – und das wird Theologen be-
Die Auseinandersetzungen zwischen Juden und Christen in den hoch- und spätmittelalterlichen Religionsgesprächen drehten sich nicht nur darum, ob und wie allegorische Schriftauslegung legitim sei, sondern auch darum, ob eine den Ansprüchen der vernünftigen Argumentation genügende Erklärung hinreicht, um die Wahrheit Gottes zu prüfen, vgl. M. Müllerburg / B. Müller-Schauenburg / H. Wels: „‚Und warum glaubst du dann nicht?‘ Zur ambivalenten Funktion der Vernunft in Religionsdialogen des 12. Jahrhunderts“, in: Integration und Desintegration der Kulturen im europäischen Mittelalter, hg. von M. Borgolte / J. Dücker / M. Müllerburg / B. Schneidmüller (Europa im Mittelalter 18), Berlin 2011, 261–324. 13 Und dabei ist „Tun“ nicht ein ausschließlich aktives Unterfangen, sondern mindestens ebenso ein Erleiden, Ertragen, Dulden, siehe auch: Metz, Glaube in Geschichte und Gesellschaft, 142. 14 Metz, Glaube in Geschichte und Gesellschaft, 143: „Die Frage nach dem Preis der Orthodoxie ist nicht nur eine Frage des angewandten Christentums, der nachträglichen moralischen Bewährung und Bestätigung des Christentums, oder des Praktischwerdens der Kirche in Liebe, sondern: ein Stück Konstitution von Kirche, Entfaltung von Orthodoxie! Hier ist der kirchliche und theologische Sinn der vielstrapazierten Rede von „Orthopraxie“ zu suchen“. 15 Dabei ist zwischen „Vollzug“ und „Handeln“ im Sprachgebrauch eine unterschiedliche, in extremen Spielarten gelegentlich geradezu entgegengesetzte Pragmatik im Blick: Der „korrekte“ (rite) Vollzug vorgeschriebener Handlungen gegenüber der „gerechten“ (juste) Übertretung von Regeln im Einzelfall, nach Maßgabe der Liebe, ist schon biblisch gleichermaßen als „Jesu Wahrheit“ ausgewiesen: Mt 3,13–16 und Mt, 5,18 vs. Mt 12,1–14. 12
119
120
Britta Müller-Schauenburg CJ
fremdlich anmuten, denn so kontextualisiert man es für gewöhnlich nicht und es kann leicht missbräuchlich und vorgeschoben wirken – der sachliche Anknüpfungspunkt für die Pflicht eines Nachweises eines katholischen Lebenswandels zur Erlangung der Lehrbefugnis an katholischen Fakultäten.16 Was hat das Privatleben eines Menschen mit der Güte seiner Lehre zu tun, so fragt man normalerweise skeptisch diese Regelungen an. Tatsächlich lassen sich die Kriterien, nach denen hier geurteilt wird, überprüfen, nicht aber im Einklang mit der Offenbarung an dem pragmatischen Fundament des religiösen Verstehens rütteln: Die Wahrheit versteht, wer die Wahrheit tut. Ist religiöses Verstehen somit eher eine Kunst als eine Wissenschaft, oder gar ein Handwerk? Vor allem byzantinisch-christliche Theologen haben es immer wieder so gesehen,17 und so hat es, folgt man der Überlieferung des Neuen Testaments, auch Jesus gesehen18 mit vielen Glaubensgenossen: Gotteslob19 ist die einzig wahre Theologie. Gottes Wort kann nur erklärt und verstanden werden dadurch, dass einer „es“, nämlich die Liebe, tut. 2.4
Offenbarung als Streit zwischen Menschen
Folgt man der pragmatischen Spur innerhalb jüdischer Reflexivität noch ein Stück weiter, gelangt man zu jenem rabbinischen Textcorpus, das sich hervorragend mit Hilfe von rechtswissenschaftlichen Instrumentarien erschließen lässt, was auch bereits erprobt wurde, wohl relativ gesehen mehr als für christlich-theologische Texte.20 Kurz gesagt: In der rabbinischen Literatur schlägt sich, noch deutlicher als in den Grundgattungen christlich-theologischer Literatur, auch z. B. mehr als in den sogenannten „Religionsdialogen“, eine Kultur des Dissenses nieder, die die intersubjektive Aushandlungspraxis des Richtigen zum Hauptgegenstand ihres Diskurses macht. Mishna, Tosefta und Talmud dokumentieren im Grunde eine lange Reihe von Diskussionen Siehe Katholische Theologie und Kirchliches Hochschulrecht. Einführung und Dokumentation der kirchlichen Rechtsnormen, hrsg. vom Sekretariat der Deutschen Bischofskonferenz (Arbeitshilfen 100), Bonn 22011, 86–87, hier 86: „Zu den Voraussetzungen für die Aufnahme einer Lehrtätigkeit an einer Kirchlichen Fakultät gehört […], dass sich der Dozent durch ein vorbildliches Leben, Zuverlässigkeit der Lehre und Pflichtbewusstsein auszeichnet, so dass er wirksam dazu beitragen kann, die besondere Zielsetzung der Kirchlichen Fakultät zu erreichen.“ 17 Siehe Vladimir Lossky, Die mystische Theologie der morgenländischen Kirche, Styria, Graz, 1961. Diese Pragmatik ist auch der Kern der „Energienlehre“ des Gregorios Palamas, vgl. Britta Müller-Schauenburg, Religiöse Erfahrung, Spiritualität und theologische Argumentation. Gotteslehre und Gottebenbildlichkeit bei Gregorios Palamas, Forum Systematik 43, Stuttgart: Kohlhammer 2011. 18 Vgl. zum Verstehen des „Tuns“ z. B. Joh 5,20; Mt 7,21. 19 Gotteslob differenziert sich gemäß der kirchlichen Tradition in die drei praktischen Vollzügen Liturgia, Diakonia und Martyria. 20 Siehe Ronen Reichman, Die abduktive Argumentation im talmudischen Rechtsdiskurs, Tübingen 2006; Karl-Heinz Ladeur / Ino Augsberg (Hg.), Talmudische Tradition und moderne Rechtstheorie, Tübingen: Mohr Siebeck 2013. 16
Von der Offenbarung zur Erklärung?
zwischen Rabbinen (oder von Rabbinen mit ihren Schülern), verbunden mit kleinen Erzählungen oder auch einfach beginnend mit einer Sachfrage. Die Fragen betreffen konkrete Rechtsfälle,21 die gerichtlichen Kompetenzen einzelner Amtspersonen22 und Ableitungs- und Entscheidungsregeln23. Die „Geschichte vom Ofen des Achnai“ aus dem Talmud ist relativ bekannt.24 Sie berichtet, wie Rabbi Eliezer zum Beweis einer These, in einer Situation, wo die ihm Widersprechenden all seine Argumente ablehnen, einen Rekurs auf ein Wunder macht: „Wenn sich die Halacha nach mir richtet [d. h.: Wenn ich recht habe mit meiner Auslegung – Verf.], soll es der Johannisbrotbaum beweisen.“ Tatsächlich, der Baum wechselt seinen Platz um etliche Ellen. Was tun die Gesprächspartner? Statt zu staunen und zu glauben, erwidern sie trocken: „Man bringt keinen Beweis von einem Johannisbrotbaum.“ Der Wunderbeweis wird als nicht akzeptable Methode abgelehnt. Trotzdem geht es einige Male in ähnlicher Weise hin und her. Ein Wasserarm ändert seinen Flußlauf, und die Wände des Lehrhauses neigen sich so weit, dass sie einzustürzen drohen, aber ein anderer Rabbi schreit die Wände an, was es sie anginge, wenn die Gelehrten sich in Fragen der Halacha bekämpften – und die Wände fielen nicht ein, wegen der Ehre dieses Rabbis, aber richteten sich auch nicht wieder auf, wegen der Ehre Rabbi Eliezers und stehen seither geneigt. Dann bezieht sich Rabbi Eliezer umittelbar auf den Himmel: „Wenn sich die Halacha nach mit richtet, so mögen sie dies aus dem Himmel beweisen!“ Es erklingt die Himmelsstimme und gibt Rabbi Eliezer recht. Und nun? Gott hat gesprochen. Was sagt der Gesprächspartner? Er sagt: „Sie [die Halacha – Verf.] ist nicht im Himmel.“ Rabbi Eliezer fragt zurück, was das bedeuten solle, und das Gegenüber, sich auf Schriftstellen beziehend,25 stellt fest, Gott habe sie am Sinai in die Hand der Menschen gelegt – abgegeben, und ab hier sei nach der Mehrheit zu entscheiden, nicht nach einer Himmelstimme. Später trifft das Gegenüber noch einen Rabbi, der zu diesem Zeitpunkt der Auseinandersetzung bereits im Himmel war, und fragt ihn, wie Gott auf diese Sache reagiert habe. Er erhält die Antwort: „Er schmunzelte und sprach: Meine Kinder haben mich besiegt, meine Kinder haben mich besiegt.“26 Die in dieser Passage zum Ausdruck kommende Eigenständigkeit rabbinischer Entscheidungen gegenüber dem Religionsgesetz ist ein Charakteristikum der halachi-
Z. B. Talmudtraktat bBM 36a: Jemand hat ein Gut, welches ihm vom Besitzer zur Aufbewahrung anvertraut war, zur vorübergehenden Aufbewahrung einem Dritten übergeben, und dort kommt es zu Schaden: Durfte er es übergeben, und wer haftet für den Schaden. 22 Vgl. Mishna, Avot 4,8 23 Z. B. Talmustraktat bBB 130b. 24 Talmudtraktat bBM 59b. 25 Dtn 30,12 und Ex 23,2. 26 Ronen Reichman, Grenzen theokratischer Orientierung in der halachischen Tradition, in: Kai Trampedach / Andreas Pečar (Hg.), Theokratie und theokratischer Diskurs. Die Rede von Gottesherrschaft und ihre politisch-sozialen Auswirkungen im interkulturellen Vergleich, Tübingen 213, 143–163, hier 149. 21
121
122
Britta Müller-Schauenburg CJ
schen Tradition. Das auch im Judentum bekannte, im Christentum aber relativ verbreitetere charismatische Modell religiöser Wahrheit, bei dem die Entscheidung einer Autorität als göttlich inspiriert zu verstehen und folglich von allen Anwesenden anzunehmen ist, wird zugunsten eines anderen Modells zurückgestellt, bei dem der Streit um die Wahrheit zwischen Menschen nicht als defizitäre Form, sondern zentraler Teil der Offenbarung angesehen wird. Es wird also – und darin liegt der springende Punkt – nicht die triviale Einsicht betont, dass Wahrheit normalerweise strittig bleibt, und somit alle Verstehensbemühungen sich als defizitär und vorläufig erweisen. Es wird der Dissens als die, verglichen mit der Einstimmigkeit, höhere Form des Erkenntnisstandes betrachtet. „Nicht die Einstimmigkeit, sondern die Uneinigkeit, eingebettet im Medium der Argumentation, verbürgt die Richtigkeit einer Entscheidung.“27 Die Spitze dieses Prinzips bildet eine Verfahrensregel der Mishna, die festlegt, dass eine einstimmige Schuldigsprechung bei einem Vergehen, auf welches die Todesstrafe steht, nicht möglich ist. Eine Gegenstimme ist notwendig, damit das Urteil gültig gefällt werden kann.28 Ein Urteil muss sich ergeben im Austausch der Argumente. Die sozial prekäre Dimension der Wahrheitsfindung, die das Zusammenlegen verschiedener Stimmen erfordert, könnte schärfer wohl nicht unterstrichen werden.29
Ronen Reichman, Aspekte des Entscheidungsfindungsprozesses im halachischen Diskurs, in: K.-H. Ladeur / I. Augsberg, Tamudische Tradition und moderne Rechtstheorie, 2013, 139–151, hier 148. Beim Kriterium „Mehrheit“, das gegen Rabbi Eliezer angeführt wurde, hätte man zunächst noch meinen können, es gehe doch zumindest um intendierte Einstimmigkeit, der eine Mehrheit eben möglichst nahe kommt. Aber das ist gerade nicht der Fall. 28 Ebd., 150. Eine ähnliche, weniger dramatische Version dieses Prinzips kommt zum Tragen in einer Regel, die festlegt, dass in dem Fall, wo sich ein Richter bei Stimmengleichheit enthält, das Gremium so lange ergänzt wird, bis sich eine klare Mehrheit bildet, aber auch, wenn sich ein Richter bei einer einstimmigen Entscheidung der restlichen Anwesenden enthält, das Gremium erweitert wird – in der Hoffnung, dass eventuelle gegenteilige Meinungen die anderen überzeugen und zum Umdenken führen könnten. Da zeigt sich die „Einsicht, dass eine Mehrheitsmeinung, die sich ohne Opposition gebildet hat, zu einer falschen Entscheidung führen kann“, siehe: Reichman, Aspekte, 149. 29 Beim „Zusammenlegen von Stimmen“, von der einfachen Sprachhandlung über die intersubjektive (im Blick auf „Objektivität“ geübte) Bearbeitung von Gegenständen in der Wissenschaft bis hin zur institutionalisierten Demokratien geht es mindestens verdeckt immer um die Frage, wer eine „Stimme“ zu haben berechtigt wird, d. h. wessen Stimme „gehört“ wird. Keine Stimme hatten im alten Orient Witwen und Waisen, und die jüdische Bibel mahnt viele Male, ihre Perspektive zur Sprache zur bringen. Z. B. Jes 1,17: „Lernt, Gutes zu tun! Sucht das Recht! Schreitet ein gegen den Unterdrücker! Verschafft den Waisen Recht, streitet für die Witwen!“ (u. v. m.). Das ist gewissermaßne die „biblische Grundlegung“ der Diskurstheorie, wie sie Michel Foucault vorangetrieben hat. Vgl. etwa Michel Foucault, Die Wahrheit und die juristischen Formen, Frankfurt am Main: Suhrkamp 2003; Michel Foucault, Dispositive der Macht, Berlin: Merve Verlag 1978. 27
Von der Offenbarung zur Erklärung?
3.
Von der Offenbarung zur Erklärung
3.1
Überschreitung von Grenzen innerhalb des Endlichen
Was folgt aus der beschriebenen, sowohl inhaltlich als auch methodisch spezifischen, Bezugnahme auf eine bestimmte soziale Kontextualisierung für Theologie? Die Theologie – und dass hier im zweiten Teil ausschließlich von katholischer Theologie gesprochen wird, soll nicht bedeuten, dass für andere Theologien etwas anderes gilt, sondern nur, dass zu ihnen die Kompetenz der Autorin zu gering ist, in der Kürze und der thetischen Form ein Urteil zu wagen – zeigt als akademische Disziplin eine Reihe von Eigentümlichkeiten. Die erste Merkwürdigkeit besteht darin, dass die Theologie nicht in der selben Weise wie andere Disziplinen in Teildisziplinen untergliedert ist. Sie besitzt zwar ebenfalls eine ausgeprägte Binnengliederung in Teilfächer. Aber sie bildet mit ihrer Art der Teildisziplinarität eigentlich eine eigene kleine Universität. Die Teildisziplinen widmen sich wesentlich nicht, wie die Teildisziplinen z. B. der Medizin, die verschiedene Funktionen des menschlichen Körpers behandeln, zueinander etwa gleichartigen Bereichen, z. B. verschiedenen Ausschnitten der Bibel, also etwa eine Teildisziplin dem Buch Jona und eine andere Teildisziplin den Psalmen. Sondern innerhalb der Theologie gibt es eine eigene, als theologische Teildisziplin betriebene Geschichtswissenschaft (Alte, Mittlere und Neurere „Kirchengeschichte“ und „Einleitungswissenschaft“), eine eigene Philosophie („Grundfragen der Philosophie“), eigene Literaturund Textwissenschaft („Exegese“, „Dogmatik“), mehrere eigene Sozialwissenschaften („Pastoraltheologie“, „Christliche Gesellschaftslehre“) und eine eigene rechtswissenschaftliche Disziplin. Alle diese Teildisziplinen arbeiten mit den Methoden, die ihre nichttheologischen Schwesterdisziplinen verwenden (z. B. die Kirchenhistoriker mit den Methoden der Geschichtswissenschaften) oder haben jedenfalls diesen Anspruch und bemühen sich darum, und für jede dieser Teildisziplinen könnte man die Fragen und Antworten aufzählen, die in der Art denen gleichen, die in der Schwesterdisziplin akzeptiert werden. In der Kirchengeschichte wird etwa gefragt, was nach der Reformation mit den katholischen Brauchtümern wie etwa dem Fronleichnamsumzug in den ersten Jahren genau passierte und welche Gruppen der Bevölkerung hier wie votierten und welche Rolle spielten bei der Durchsetzung von Prozessionen oder ihrer Abschaffung, usw. Im Kirchenrecht wird gefragt, welche Normen zu einem bestimmten Bereich, etwa der Leitung eines bestimmten diözesanen Gremiums, vorliegen, und ob es Gesichtspunkte gibt, die unbeachtet bleiben in den Normen und in den praktischen, die Normen anwendenden Rechtsentscheidungen. Die Dogmatik fragt zum Beispiel nach dem implizit und explizit formulierten Kirchenbild, die Religionspädagogik etwa nach Lehr- und Lernmodellen für Religionsbildung bei Migrantenkindern zwischen dem zweiten und dem vierten Lebensjahr in weltanschaulich gemischten Kindergärten, etc. So sind zwar alle Teildisziplinen durch den kirchlichen Kontext und durch
123
124
Britta Müller-Schauenburg CJ
die fakultäre Struktur verknüpft. Davon abgesehen verläuft der Diskurs aber gegeneinander weitgehend unabhängig. Im Alltag des wissenschaftlichen Betriebes haben die theologischen Teildisziplinen oft mehr Verbindung mit ihren nichttheologischen bzw. anderskonfessionellen Schwesterdisziplinen als mit den Disziplinen, mit denen sie die Fakultät teilen. Die enge Anbindung an die nichttheologischen Disziplinen (und das bedeutet letztlich in den konkreten kleinen Forschungsprojekten auch: nichttheologische Fragen und Antworten) führt dazu, dass die Theologie als Wissenschaft durch „ihre“ Methode doch regelmäßig in Distanz zu religiösen Vollzügen tritt, weil sie sie wie von außen betrachtet und zu verstehen sucht. Sie schaut mit den Augen des Außen auf die Vollzüge, und sucht das religiöse Verstehen zu verstehen. Aber sie sucht es auch zu klären, wachsamer und genauer zu machen, zu schulen, anschlussfähig zu machen.30 Will man allerdings „die Theologie“ als Fach in einen interdisziplinären Verbund einbeziehen, wird man, unter den gängigen Regeln einer solchen Kooperation, mit sehr hoher Wahrscheinlichkeit scheitern. Denn „die Theologie“ ist – abgesehen von der institutionell legalen Möglichkeit der ordentlichen Vergabe eines akademischen Abschlusses – ein extrem heterogener Fächerverbund. Welches theologische Fach wählt man für die Kooperation? Und dieser Gestalt von Theologie als einer Miniatur einer Universität liegt zugrunde ihre spezifische, umfassende Einbindung in eine Sozialstruktur (Kirche), die wiederum auf ihrer Pragmatik beruht. Die zweite Eigentümlichkeit besteht darin, dass katholische Theologie „gesetzlich“ regelmäßig zur Transdisziplinarität bzw. genau genommen sogar zur „Transwissenschaftlichkeit“ gezwungen wird: Eine Theologin bzw. der Theologe muss sich nicht nur der wissenschaftlichen Schwesterndisziplin und auch nicht nur den anderen theologischen Disziplinen verständlich machen, sondern auch einer nichtwissenschaftlichen (nicht rein und auch nicht primär wissenschaftlich ausgerichteten) Institution erklären, nämlich: der Kirche.31 Die Theologin und der Theologe müssen sich und ihre Thesen, grundsätzlich, vor der (Welt-)Kirche verantworten. Auf eine bestimmte Weise ist das oft ein transkultureller Prozess. Und es kann ein hartes Ringen sein, weit härter als in einem „nur“ disziplinär extrem diversen Forschungsverbund – aus vielen Gründen. Ist diese „Transition“ nur nichtwissenschaftlich, oder ist sie „unwissenschaftDer soziologische Begriff der Anschlussfähigkeit hat sich zu einem omnipräsenten Leitbegriff der Selbstevaluation theologischer Diskurse entwickelt, z. B.: „Dabei hat es sich herausgestellt, dass die Theologie überaus anschlussfähig an den Gabe-Diskurs ist und dieser für jene extrem fruchtbar zu sein scheint“, siehe: https://www.ku.de/thf/fundamentaltheologie/forschung/forschungsprojekt-gabe/ (abgerufen am 16.08.2019); Rebekka A. Klein, Hat die Theologische Ethik eine interdisziplinäre Verfassung? Zeitschrift für evangelische Ethik 62 (2018), 308; u. v. m. 31 Zum einen gibt es, für katholische Theologie, so das kirchliche Hochschulrecht vor, das über das Instrument des Nihil Obstat (u. a.) erzwingt, dass theologische Arbeit dem „ordentlichen Lehramt“ sich verständlich und plausibel gemacht hat, und zum anderen ist der „Resonanzraum“ für Theologie nicht unbedingt eine, wie es so schön heißt, „wissenschaftlich interessierte Öffentlichkeit“, sondern das sind Gemeinden aus allen sozialen Schichten, Bildungsstufen, politischen Ausrichtungen und Weltgegenden, mit ihren eigenen sozialen „Gesetzmäßigkeiten“. 30
Von der Offenbarung zur Erklärung?
lich“? Lange Zeit galt es als restlos rückständig, und anders kontextualisierte Wissenschaft als vergleichsweise frei. Angesichts der Debatte um politische und akademische Abhängigkeiten im prekären Bereich des wissenschaftlichen Personals, insbesondere des Nachwuchses, kann man fragen, ob die Bindungsverhältnisse der Theologie durch ihre explizite Transparenz und Formalität sogar einen Vorteil haben könnten, wenn es gelingt, sie zeitgemäß und transparent zu gestalten. Die dritte Merkwürdigkeit liegt darin, dass die Methoden der Theologie sogar sämtlich von anderen Fächern „geliehen“ sind. Sie sind nicht speziell theologische. Das hat mit dem oben dargestellten – der Offenbarung geschuldeten – nicht sekundären, sondern primären Außenbezug bzw. Alteritätsbezug der Theologie zu tun. Sie arbeitet nicht nur nicht ausschließlich unter Nutzung der „von der jeweiligen Disziplin selbst bereitgestellten Mittel“, sondern regelmäßig ausschließlich unter Nutzung von anderen Disziplinen bereitgestellter Mittel. Theologie hat von jeher weniger die Aufgabe, Kenntnis von Gott zu „produzieren“, als vielmehr das jeweilig etablierte Verstehen Gottes ins Gespräch mit dem je vorhandenen Wissen anderer Art zu bringen, es daran zu überprüfen und vor allem die eigene Sprache und die Formulierungen zu überprüfen und ggfs. neu zu produzieren.32 Sie wendet sich zwar, ihrem Selbstverständnis nach, dem praktischen Leben speziell von Christen zu, spricht also, konfessionell gesprochen, nach „Innen“. Der Weg, den sie dafür beschreitet, ist aber der kontinuierliche Dialog mit ihrem eigenen „Außen“. So erzwingt es der Vernunftanspruch, so will es die missionarische, karitative und soziale („liebende“) Intention. Theologie erklärt die Offenbarung in allen Fremdsprachen, derer sie habhaft werden kann, eignet sich auf diesem Wege Sprachen an,33 und überprüft in diesem Prozess die eigene Sprache mit fremden Augen. Die Autorität der fremden Augen geht soweit, dass der Wissenschaftsrat 2010 feststellte: „Theologie hat keine eigenen Methoden“.34 Diese Formulierung war nicht eine Provokation, sondern eine – sicherlich auch in der Freude über die öffentliche Anerkennung ehrliche – von der katholischen Theologie selbst mitgetragene Deskription. Theologie hat „eigene“ und „nicht eigene“ loci theologici (loci proprii und loci alieni).35 Aber sie hat für den Umgang mit denselben keine speziellen In ihren historischen Anfängen begann Theologie vor allem in Auseinandersetzung mit philosophischen Begriffsfortschritten, später machte sie enorme Fortschritte mit der Entwicklung der akademischen Text- und Geschichtswissenschaften, und schließlich gewann sie im Gespräch mit den Sozialwissenschaften. Vgl. z. B. Dirk Ansorge, Kleine Geschichte der christlichen Theologie. Epochen, Denker und Weichenstellungen, Regensburg: Verlag Erich Pustet 2017. 33 Eine eindrückliche, ambivalente Polemik gegen die deplatzierte „Erklärungswut“ im Kontext der Liturgie, nicht der Theologie, im Kontext und Nachgang des Zweiten Vatikanischen Konzils ist: Alfred Lorenzer, Das Konzil der Buchhalter. Die Zerstörung der Sinnlichkeit – eine Religionskritik, 1979. 34 Siehe: https://www.wissenschaftsrat.de/download/archiv/9678-10.pdf (zuletzt abgerufen 16.08.2019). 35 Insbesondere Max Seckler hat hier betont, dass die Loci strukturell (und die Frage wäre, ob damit doch auch semi-methodisch) das theologische Denken in besonderer Weise als communio-Denken fügen: Max Seckler, Die Communio-Ekklesiologie, die theologische Methode und die Loci-theologici-Lehre Melchior Canos, in: Theologische Quartalschrift 187 (2007/1), 1–20; Max Seckler, Die ekklesiologische Bedeu32
125
126
Britta Müller-Schauenburg CJ
Methoden, auch nicht nach Selbstauskunft – will man einmal verneinen, dass z. B. Gebet, Gehorsam und geistliche Unterscheidung als Praktiken zur Theologie als Wissenschaft gehören.36 Die vierte Eigentümlichkeit besteht darin, dass die Fragen, die innerhalb der Theologie als einschlägig gelten, im Grunde nicht limitiert sind. Die Organisatoren der Tagung hatten nach einem „Fragenkatalog“ gefragt, im Sinne einer Zusammenstellung der Fragen, die innerhalb der Disziplin als einschlägig gelten und als mit den eigenen Methoden, fremden Methoden oder als gar nicht beantwortbar angesehen werden, und zunächst hatte ich diese Frage auch für die Theologie als normale beantwortbar gehalten. Bei genauerem Hinsehen aber zeigte sich, dass auch hier eine interessante, spezifische „Grenzenlosigkeit“ besteht. Der Fragenkatalog der einzelnen theologischen Teildisziplinen ist jeweils in gewisser Weise gegeneinander abgegrenzt. Aber der Fragenkatalog der Theologie als Ganzer ist unbegrenzt, insofern die Fragen so formuliert sind, dass sie die Gottesfrage mindestens implizit berühren. Formal könnte man zwar sagen, es sind „ausschließlich“ die Fragen, die – nicht unbedingt in ihrer Terminologie, aber der Sache nach – auf den Gegenstand der Theologie bezogen sind. Aber das führt gerade zu jener Unbegrenztheit: Gegenstand der Theologie sind Gottes Sein und Handeln (beides gemeinsam als „Offenbarung“), zudem der Glaube (als Antwort auf die Offenbarung) und schließlich Offenbarung und Glaube in ihrem jeweiligen Verhältnis zur Vernunft, außerdem Menschen als Geschöpfe und die Kirche in ihrer speziellen Kommunalität. Was bleibt da außen vor? Jeder Versuch, daraus einen klar limitierten Fragenkatalog abzuleiten, erweist sich als zu kurz gegriffen, so überzeugend er im ersten Moment in irgendeiner Limitation auch aussehen mag. Alles und jedes „Ding“ kann Gegenstand theologischen Fragens werden. Freilich: Wenn ein Auto nicht anspringt, wird man es nicht in die Theologie bringen zur Klärung der Ursache. Aber trotzdem – alles, was dabei geschieht, d. h. die menschlichen, die physischen und die metaphysischen Ursachen und Wirkungen sowohl des Nichtfunktionierens als auch des Instandsetzens, kann Gegenstand theologischer Reflexion werden. Es gibt zwar faktisch Moden, d. h. Themen mit Hochkonjunktur und unbehandelte Themen. Aber prinzipiell ist keine Frage ausgeschlossen. Es gibt sogar eine Art Einschränkungstung des Systems der ‚loci theologici‘. Erkenntnistheoretische Katholizität und strukturale Weisheit, in: W. Baier u. a., Weisheit Gottes – Weisheit der Welt (FS J. Ratzinger), St. Ottilien 1987, 37–65. 36 Es gibt seit 1998 die Arbeitsgemeinschaft für Theologie der Spiritualität (AGTS), die dieser Verbindung ausdrücklich im Interesse der Vernunftreflexion (‚intellectus‘) nachgeht, und differenzierter urteilt. „Dieser ‚intellectus‘, dessen christliche Spiritualität bedarf, ist näher betrachtet die ‚diakrisis‘, die discretio, die ‚Unterscheidung‘. Spirituelle Theologie darf sich nicht mit einer Beschreibung von Phänomen und Erfahrungen begnügen. Vielmehr geht es um die ‚kritische‘ Betrachtung dieser Erfahrungen – im Sinn der Unterscheidung der Geister. Als Reflexion der ‚Praxis‘ geistlichen Lebens hat die spirituelle Theologie eine Nähe zur geistlichen Begleitung, die ja Unterscheidung (und Entscheidung) in konkreten Situationen als Ziel hat. Das Instrumentarium der „Unterscheidung der Geister“ ist nötig, nicht nur um spirituelle Erfahrungen zu interpretieren, sondern auch um z. B. konkrete Formen des Weltengagements zu prüfen“, siehe: https://theologie-der-spiritualitaet.de/ueber-uns/spiritualitaet/ (letzter Aufruf 2.3.2023).
Von der Offenbarung zur Erklärung?
verbot. Mit Blick auf den Gottesbegriff und die Aufgabe der Theologie darf diese ihren Gegenstand letztlich gar nicht beschränken, abgesehen von der paradoxen Weise eines Beschränkungsverbotes. Sie muss Raum haben für Gottes unendlichen „Ideenreichtum“, der sich in dem Phänomen „Leben“ entfaltet. Sie folgt nicht einer deduktiven Hermeneutik. Sie hat, selbst gegenüber der Heiligen Schrift, immer auch die kreative Aufgabe, abduktiv die Situation zu erfassen, zu der ein Gegebenes der Offenbarung, ein „Befund“, die passende „Regel“ ist, so dass das „Leben“ so, wie es ist, von der Heiligen Schrift geformt und genormt werden kann. Limitiert sind nicht die Fragen, sondern die Fundstellen für Argumente, d. h. in gewisser Weise die Antworten. In der katholischen Theologie werden diese „Fundstellen“ traditioneller Weise als ‚loci theologici‘ bezeichnet. Am Maßstab von Offenbarung, Glaube und Vernunft wird die Richtigkeit von Antworten überprüft.37 Und vor allem müssen alle Antworten – obwohl das nun in keinem Prüfungskatalog festgehalten ist, vielleicht, weil unzumutbar erscheint, welch ein wissenschaftstheoretisch seltsames Axiom die Theologie als Fach zusammenhält – einem einzigen Satz entsprechen: Gott ist Liebe.38 Ich kenne keine einzige theologische Aussage, die in dem Moment, wo der Gegensatz zu diesem Satz nachgewiesen werden könnte, auf Dauer weiter haltbar wäre so, wie der theologische Diskurs – und diese Bezeichnung trifft hier nun im klassisch-foucaultschen Sinne zu – real stattfindet und geführt wird. Was für ein Lieben gemeint ist, das führen viele andere Sätze weiter aus.39 Aber dieser eine Satz, so scheint mir jedenfalls, ist der eine uneingeschränke, durch nichts gezähmte und unter Bedingungen gesetzte Satz, von dem her alle anderen auszulegen und zu verstehen sind – jede Deutung, die daran vorbeigeht, geht fehl. Alle Fragen sind einschlägig, und alle Antworten richtig, die diesem Axiom entsprechen. Noch einmal: das ist ein Kriterium, das so nirgends „steht“. Das ist eine persönliche Einschätzung aus Beobachtung und Erfahrung. Aber m. E. lautet so die Regel, die von allen Diskursteilnehmern beachtet wird. Bei weitem nicht immer
37 Die loci theologici in ihrer heute gängigen Fassung sind vollständig: Heilige Schrift, Tradition, Lehramt, Theologie und Glaubenssinn der Gläubigen. Vgl. zur Geschichte der Loci-Lehre: Bernhard Körner, Ortes des Glaubens – loci theologici. Studien zur theologischen Erkenntnislehre, Würzburg: Echter 2014, 93–127. 38 Vgl. 1 Joh 4,8 (Wer nicht liebt, hat Gott nicht erkannt; denn Gott ist Liebe); 1 Kor 13 (Wenn ich in den Sprachen der Menschen und Engel redete, hätte aber die Liebe nicht, wäre ich dröhnendes Erz oder eine lärmende Pauke.) 39 Biblisch z. B. Joh 3.18: „Wenn jemand die Güter dieser Welt hat und sein Herz vor dem Bruder verschließt, den er in Not sieht, wie kann die Liebe Gottes in ihm bleiben? Meine Kinder, wir wollen nicht mit Wort und Zunge lieben, sondern in Tat und Wahrheit“; 1 Kor 13.4–8a: „Die Liebe ist langmütig, die Liebe ist gütig. Sie ereifert sich nicht, sie prahlt nicht, sie bläht sich nicht auf. Sie handelt nicht ungehörig, sucht nicht ihren Vorteil, lässt sich nicht zum Zorn reizen, trägt das Böse nicht nach. Sie freut sich nicht über das Unrecht, sondern freut sich an der Wahrheit. Sie erträgt alles, glaubt alles, hofft alles, hält allem stand. Die Liebe hört niemals auf “; aber auch Ex 34,14: „Du darfst dich nicht vor einem anderen Gott niederwerfen. Denn der Herr, der Eifersüchtige ist sein Name, ein eifersüchtiger Gott ist er“ – und unzählige theologische Traktate, zunehmend (nur) implizit.
127
128
Britta Müller-Schauenburg CJ
entspricht Theologie faktisch diesem Kriterium. Aber das ist normal: Die Differenz von Falschem und Richtigem muss sich innerhalb einer Wissenschaft abbilden lassen. Zusammenfassend kann man also sagen, dass eine Besonderheit der Theologie darin besteht, dass eine Reihe von Abgrenzungen, die für Wissenschaft jedenfalls typisch sind, gerade nicht „sauber“ oder anders funktionieren. 3.2
Überschreiten als Rühren an die Grenzen des Endlichen
Das auffällige, geradezu empörende Nichtabgrenzen der Theologie hat einen Grund, der dem Gegenstand in seiner spezifischen Verfassung geschuldet ist. Der Gegenstand Gott ist nicht „in“ der Welt wie andere Gegenstände. Er ist auch nicht „die Welt“. Er ist, in räumlichen Kategorien, „größer“, wenngleich in jeder Weise, also auch kleiner usw. Auch umfasst er die Vernunft, ist aber nicht identisch mit ihr. Zwar ist die Theologie eine Disziplin menschlichen Verstehens, und dies ist selbst endlich, aber durch die Bindung an ihren „Gegenstand“ bleibt sie stets gebunden an einen Horizont, der unendlich ist.40 Dieser Horizont bleibt sowohl thematisch als auch funktional in der Theologie. Funktional bleibt er in dem Sinne, in dem Theologie in ihrem eigenen Vorgehen dem Axiom „Gott ist Liebe“ folgt, das theologisch ist, aber als solches im Grunde nicht diskutiert wird.41 Thematisch bleibt er, indem es eine ganze Reihe prominenter Fragen gibt, die nach einschlägigen empirischen oder formalen Methoden innerhalb der wissenschaftlichen Sprachspiele nicht beantwortbar sind, aber in der Theologie Karriere gemacht haben. Zu diesen Fragen gehören zum Beispiel die Theodizeefrage und die Frage nach der Existenz vs. Nichtexistenz Gottes, aber auch die Frage, wie die menschliche Freiheit und Gottes vollkommenes Vorherwissen vereinbar sind. Und damit kommen wir auch noch an die Fragen des erbetenen „Fragenkatalogs“, die innerhalb der Disziplin als nicht beantwortbar angesehen werden. Die genannten Fragen (Theodizee, Existenz Gottes) haben gemeinsam, nicht trivialen Denkfehlern geschuldet zu sein. Aus einer gewissen Sicht sind sie zwar Scheinprobleme, da sie als die Möglichkeiten menschlichen Denkens übersteigend zu klassifizieren sind. Theologie hat sich ihnen aber dennoch oder gerade deshalb gewidmet, denn: Theologie widmet sich der rationalen Analyse und den ethischen Implikationen an den Grenzen des Denkbaren. Heute allerdings sucht katholische Theologie diese Fragen allermeistens nicht mehr, „direkt“ und einfachhin zu beantworten. Sie klärt stattdessen die
Vgl. theoretisch besonders präzise hierzu: Wolhard Pannenberg, Metaphysik und Gottesgedanke, Göttingen: Vandenhoeck 1988, 20–33. 41 In seinen Kapiteln zu „christlichem Humor“ und „Kirchlichkeit des Glaubens“ stellt Walter Kasper Traditionen dar, die das in gewisser Weise doch thematisieren, indem sie das systematische eigene Öffnen und „nicht ganz dicht sein“ (Verf.) reflektieren: Kasper, Einführung in den Glauben, 116–133. 40
Von der Offenbarung zur Erklärung?
Bedingung der Möglichkeit der „Rede von (x)“.42 Insbesondere in den spekulativen theologischen Teildisziplinen, die sich dieser Art Fragen widmen, ist das der Fall. Teildisziplinen wie Kirchengeschichte, Praktische Theologie oder Kirchenrecht widmen sich diesen Fragen in dieser Weise meist gar nicht. 4.
Theologie als Überschreitung menschlichen Wahrheitsverstehens
Indem die Theologie zu unbeantwortbaren Fragen eine ganz besondere Beziehung hat, hat sie eine Aufgabe, die sie wie keine andere – gerade mit Blick auf die ihr, noch einmal etwas anders als der Philosophie, eigentümliche Miniatur einer Universität – im Reigen der wissenschaftlichen Disziplinen erfüllen kann. Die Aufgabe besteht darin, die Frage unverkürzt wach zu halten, mit der dieser Text begonnen hat – die Frage des Pilatus: Was ist Wahrheit. Pilatus, ein Nichtjude, stellt diese – heute eher als naiv, sinnlos und sehr missbrauchsanfällig klassifizierte – Frage in Konfrontation mit Jesus, dem Juden, in einem Kontext, in dem es ums Ganze des Lebens geht. Ebenso hält, kurz gesagt, gute Theologie, wenn sie zur Konfrontation gezwungen, akzeptiert und genutzt wird, den Horizont menschlichen Wahrheitsverstehen offen – nicht nur als abstrakte „Gottesfrage“, sondern als Ort des Aufganges eines Lichts, dessen Strahlen an einer bestimmten Stelle des Horizonts hervorleuchten und ihn glühen lassen.43 Kann Theologie in dieser Funktion genutzt werden? Sie ist zwar – eben im Unterschied zu Religionswissenschaft – die dezidiert bekenntnisgebundene Reflexion einer religiösen Tradition, und gerade als solche ist sie 2010 vom Wissenschaftsrat als Wissenschaft in Deutschland neu unterstrichen und erwünscht worden. Und m. E. ist noch offen, ob sie aus pragmatischen oder aus intellektuellen Gründen gewünscht wird. Damit ist gemeint: Zunächst ist das Interesse an ihrer zivilisierenden Wirkung auf religiöse Diskurse offensichtlich. Es gibt nicht nur das theologieinterne Interesse
Thomas Schärtl, Theo-Grammmatik. Zur Logik der Rede vom trinitarischen Gott, Regensburg: Pustet 2003; Karsten Kreutzer / Magnus Striet / Joachim Valentin (Hg.), Gefährdung oder Verheißung? Von Gott reden unter den Bedingungen der Moderne, Mainz: Grünewald 2007; Eberhard Blank, Systemtheoretische Einführung in die Theologie, Marburg: Tectum 2014. 43 Karl Rahner, Grundkurs des Glaubens. Einführung in den Begriff des Christentums, Freiburg im Breisgau: Herder 1984, 208: „. Die transzendentale Christologie ruft einen Menschen an, der, wie wir wissen, mindestens aus der im Christentum reflektierten allgemeinen Offenbarung in Gnade, schon (mindestens unthematisch) auf die Selbstmitteilung Gottes hin durch diese selber finalisiert und dynamisiert ist. und fragt ihn, ob er nicht in Freiheit selbst und aus seiner iimeren Erfahrung heraus, die wenigstens unthematisch zu seiner transzendentalen Verfassung gehört, diese Ausgerichtetheit sich zu eigen machen könne“; Ronen Reichman, Gottesbezug des Rechts im halachischen Rechtsdiskurs: Inwiefern kann die „theophanische“ Dimension des Rechts mit der institutionellen Autorität einhergehen? in: Britta Müller-Schauenburg (Hg.), Formen und Funktionen des Rechts in den Theologien. Dialog-Paper (Online-Publikation): www. theologie-als-wissenschaft.de/files/grk_1728_-_formen_und_funktionen_des_rechts.pdf (zuletzt abgerufen 16.08.2019), 64–82, hier 65–66. 42
129
130
Britta Müller-Schauenburg CJ
an Theologie, sondern auch ein öffentliches Interesse an der Affizierung religiöser Diskurse von Wissenschaftlichkeit und der dazugehörenden kritischen Rationalität. Aber sollen umgekehrt die Wissenschaften von Religion affiziert werden? Solange Theologie tatsächlich dieselben Fragen stellt und Methoden verwendet, die je nichttheologische Schwesterdisziplinen stellen und verwenden, ist nicht leicht darstellbar, worin der wissenschaftliche – d. h. nicht nur gesellschaftspolitische – Mehrwert besteht, der entsteht. Braucht es Theologen für die Erklärung frühneuzeitlicher Gemälde in ihrer theologischen Symbolik, oder könnten diese Kompetenzen nicht Kunstgeschichtler mit einer entsprechenden Ausbildung erwerben? Braucht es Theologen zur Erklärung religiöser historischer Wissensbestände – heiliger Texte und ihrer Auslegung, ethischer Grundbegriffe aus dem mittelalterlichen monastischen Diskurs, der Geschichte einer bestimmten Institution? Warum reichen dafür nicht entsprechend gebildete Historiker?44 Die mögliche Aufgabe der Theologie ist eine andere: die dauernde, systematische Überschreitung und „Verunreinigung“ säkularer Disziplinen und ihrer sauberen Arbeit durch die Reflexion sub specie aeternitatis.45 Die Theologie, die selber Diskurse der „sauber“ arbeitenden Disziplinen systematisch überschreitet und Grundprobleme thematisiert, die sich mit Blick auf das Ganze des Lebens ergeben,46 hält diesen Horizont in ihrer und durch ihre Miniatur einer Universität in Kontakt mit der „sauberen“ Arbeit der Schwesterdisziplinen. Auf ähnliche Weise wie Pilatus mit Jesus können so die nichttheologischen Disziplinen, unabhängig von der klaren eigenen religiösen Positionierung gegenüber der Gottesfrage, in Begegnung mit der Theologie Fragen bemerken, die sie ohne diese Begegnung nicht stellen würden. Zwar unternimmt Theologie den Transfer zwischen dem Unbegreiflichen und der exakten oder hermeneutisch sauber arbeitenden Wissenschaft im Moment manchmal unbeholfen. Aber sie besitzt für die Reflexion und die Integration dieser Unbeholfenheit, wo sie sich der Sache, d. h. der Offenbarung Gottes, verdankt, eine immense Erfahrung. Das bedeutet, dass (noch) unklare Stellen nicht kaschiert oder eliminiert, sondern in ihrer Offenheit ins Zentrum des Interesses gestellt werden. Dabei bleibt das Menschliche des Wahrheitsverstehens auch der Theologie. Doch es wird als solches, als Menschliches in den Blick genommen, als Ganzes mit seinen Grenzen erkundet, „überschritten“ so, wie einer eine Landschaft durchwandert und
Zu dieser Frage auch: Hubert Jedin, Kirchengeschichte als Theologie und Geschichte, in: Theologisches Jahrbuch (1984), 24–33; Klaus Schatz, Ist Kirchengeschichte Theologie? in: Theologie und Philosophie 4 (1980), 481–513; Walter Brandmüller, Geschichtliche Kirche – kirchliche Geschichte, in: Theologie und Glaube 75 (1985), 402–420; und als jüngere Sammelpublikation: Wolfram Kinzig u. a. (Hg.), Historiographie und Theologie. Kirchen- und Theologiegeschichte im Spannungsfeld von geschichtswissenschaftlicher Methode und theologischem Anspruch (Arbeiten zur Kirchen- und Theologiegeschichte 15), Leipzig 2004. 45 Dieser Ausdruck („sub specie aeterminatis“, d. h. unter dem Gesichtspunkt der Ewigkeit resp. Gottes) könnte cum grano salis vielleicht für den Horizont-Blick einsetzen. 46 Das Ganze schließt ein auch den für Liebe in Kauf genommenen Tod und damit den Sinn des Lebens in einer Weise, die auch durch das Wort „Glück“ nicht mehr umfasst ist. 44
Von der Offenbarung zur Erklärung?
dabei Unebenheiten, Unwegbarkeiten und Abgründe aus der Nähe und in ihren Konsequenzen erkundet. Es müssen beide Richtungen bzw. „Funktionen“ der Theologie vollzogen werden: der Transfer des Transzendenzhorizonts hinein in die Fremdsprachen der anderen Fächer, und zugleich der Gegentransfer des „Außen“ als Schärfung des theologischen Fragens und Prüfens hinein ins „Innen“ der Gottesfrage. Wie die Selbstbeschreibung und die institutionelle Einbindung von Theologie aussehen müsste, damit Theologie diese Funktion erfüllen kann, ist wohl noch eine offene Frage. Sie muss jedenfalls – alleine schon aus praktischen Gründen, weil es keine äquivalente nichtkirchliche globale Organisation von Hochschulen gibt – seitens der Kirche entschieden werden, aber mit vielen, unterschiedlichen Partnern, d. h. Staaten und NGOs, die als Gesprächspartner auch an dieser Stelle möglicherweise die entscheidenden Impulse geben können. Theologie soll heilsam sein,47 aber nicht nur praktisch, sondern auch theoretisch,48 indem sie Selbstreflexivität nicht als ein Teilobjekt, sondern als organisatorischen Rahmen auffasst.49 Deshalb ist der sozial-praktische Lebensbezug axiomatisiert. Er ist nicht sozusagen aposteriori „Anwendung“, sondern Axiom der Theologie. Alle vier oben genannten religiösen Konzeptionen des Verstehens (Sinnbildung, Vernunftkritik, Liebespraxis und Streitkultur) werden durch die institutionelle Formation der Theologie irreduzibel integriert. Nicht andere Methoden werden verwendet als in anderen Disziplinen, aber Beziehungs- und Sozialstrukturen (konkret: die Kirche) anders eingebunden. Religiöses Verstehen in den vier Formen ist eine Weise, in der „sich“ Offenbarung in eine nicht nur von Gläubigen verstehbare Erklärung zu transformieren sucht. Dass Jesus die Frage des Pilatus wortlos mit seinem Leben beantwortet, ist im tiefsten Sinne des Begriffes „paradigmatisch“ für religiöses Verstehen. Es geht in der Theologie, in all ihren Disziplinen, um die (Selbst-)Reflexion ewigen, gemeinsamen Lebens eines sozialen Körpers hin auf seine prinzipielle, nicht „nur“ systemische, Grenze und Begrenztheit. Britta Müller-Schauenburg CJ
Maria-Ward-Strasse 17, 80638 München
Das ist der „letzte Punkt“, an dem sich „linke“ und „rechte“ Theologien noch einig sind, bevor die Differenz zwischen einheitsmetaphysischen und alteritätsbezogenen Ansätzen ihre Wege trennt. Ob Wunden heilen, wenn man sie verdeckt oder wenn man sich ihnen aufmerksam zuwendet, ist aus der Sicht der Krankenpflege eine falsch gestellte Frage – tatsächlich führt beides nicht zur Heilung, wenn man es nicht im richtigen Rhythmus kombiniert (worin die Kunst besteht). Die Vermutung liegt nahe, dass dies für „Wunden“ im metaphorischen Sinne ebenso ist, auch wenn das nach Unentschiedenheit im Kampffeld klingt. 48 Dies ist dem spezifischen Selbstverhältnis des Subjekts geschuldet, und damit nicht in jeder Weise ein Kontrapunkt zur Moderne, vgl. Wolfhard Pannenberg, Metaphysik und Gottesgedanke, 50–51. 49 Das sich erzählende Subjekt, aufgefasst als transzendental aktiv ausgreifendes und passiv geprägtes Wesen, ist dabei im Singular und im Plural entscheidend, vgl. Karl Rahner, Grundkurs; Knut Wenzel, Offenbarung – Text – Subjekt. 47
131
‚Fragen & Antworten‘ in der Islamischen Theologie* Eine Untersuchung am Beispiel des Problems der Willensfreiheit in der Koranexegese FARID SULEIMAN
Abstract: Ob eine Frage relevant ist, und wenn ja, auf welcher Grundlage man sie zu beantwor-
ten versucht, hängt von den Vorannahmen ab, vor deren Hintergrund man die Frage in den Blick nimmt. Die islamische Geistestradition ist unter anderem deswegen so vielfältig, weil die muslimischen Denkschulen sich bereits bezüglich dieser Vorannahmen erheblich voneinander unterscheiden. Der Artikel versucht dies am Beispiel der Frage zu erläutern, wie der Koran zur menschlichen Willensfreiheit steht. Drei muslimische Strömungen und ihre jeweiligen Vorannahmen werden hierzu in den Blick genommen – mit folgendem Ergebnis: Nur für zwei der drei Strömungen ist die Frage nach der Willensfreiheit überhaupt relevant, und nur eine von diesen beiden geht davon aus, dass sie aufbauend auf dem Koran zu klären ist. Ausgehend von dieser Untersuchung kritisiert der Artikel, mit welcher Selbstverständlichkeit in der Forschungsliteratur angenommen wird, dass der Koran das Problem der Willensfreiheit behandelt. Denn es sind philosophische Voraussetzungen, die die Frage nach der Willensfreiheit ermöglichen, der Koran jedoch ist kein philosophischer Text.
1. Einleitung
Der vorliegende Artikel greift die These auf, die von der Herausgeberin und dem Herausgeber des Sammelbandes aufgeworfen wurde, dass sich in den Wissenschaften „trotz all ihrer Unterschiede dennoch drei immer wiederkehrende Typen von FrageDieser Artikel ist im Rahmen des AIWG Longterm-Forschungsprojekts ‚Normativität des Korans im Zeichen gesellschaftlichen Wandels‘ entstanden, das gemeinsam durchgeführt wird von der Friedrich-Alexander-Universität Erlangen-Nürnberg, der Eberhard Karls Universität Tübingen und der Akademie für Islam in Wissenschaft und Gesellschaft (AIWG) an der Goethe-Universität Frankfurt. *
134
Farid Suleiman
Antwort-Zusammenhängen“ identifizieren lassen. Demnach gibt es Fragen, die zulässig sind und deren Beantwortung innerhalb der Disziplin erwartet werden kann; Fragen, die zulässig sind, aber aus fächerübergreifender Perspektive bearbeitet werden müssen; und schließlich Fragen, die, da sie sich z. B. als Scheinprobleme herausstellen, nicht beantwortet werden können. Die Sortierung des Materials einer jeden Wissenschaft „erlaubt einen Einblick in die für ihre disziplinäre Identität konstitutiven Zusammenhänge“. Nun ist jedoch anzumerken, dass die 2010 in Deutschland entstandene akademische Disziplin der Islamischen Theologie keine wirklich greifbare Identität herausgebildet hat. Das liegt wohl aber nicht an dem Umstand, dass sie noch sehr jung ist. Denn die Islamische Theologie begreift sich selbst als eine Disziplin, die an das nun fast 1400-jährige muslimisch-theologische Denken anknüpft. Dieses Denken aber hat sich, wenn man Theologie gemäß dem wörtlichen Sinn auf sehr weitläufige Weise als jedes Zur-Sprache-Kommen Gottes versteht und keine von der griechischen Philosophie herrührenden Voraussetzungen anführt, in der islamischen Geistesgeschichte in sehr unterschiedlichen Traditionen, die oftmals voneinander getrennt existier(t)en, manifestiert. Einheits- oder identitätsstiftende Elemente können da nur schwer gefunden werden; und es lässt sich mit Sicherheit feststellen, dass sich die Fragen, die in den jeweiligen Traditionen für dringlich erachtet wurden, oftmals stark voneinander unterscheiden. Damit soll jedoch nicht gesagt sein, dass sich die Islamische Theologie von anderen universitären Disziplinen unterscheidet, denn jede Wissensproduktion, auch die in den Naturwissenschaften, unterliegt historisch-kontingenten Triebkräften und Voraussetzungen, sodass sie mehr durch Wandel als durch Kontinuität charakterisiert ist. Nach Thomas Kuhns wissenschaftstheoretischer Konzeption der Naturwissenschaften gilt, dass die Annahme eines neuen Paradigmas oft eine neue Definition der entsprechenden Wissenschaft erfordert. Manche alte Probleme können an eine andere Wissenschaft abgegeben werden, oder für völlig „unwissenschaftlich“ erklärt werden. Andere wieder, die vorher nicht existierten oder völlig unbedeutend waren, können mit einem neuen Paradigma geradezu ein Haupttypus wichtiger wissenschaftlicher Leistung werden.1
Des Weiteren ist zu berücksichtigen, dass keine Einigkeit darin besteht, ob es sich bei den Geisteswissenschaften im Allgemeinen und bei der (Islamischen) Theologie im Speziellen überhaupt um Wissenschaften handelt.2 Dies unter anderem deswegen, weil Wissenschaftlichkeit vermehrt am Maßstab wirtschaftlicher Verwertbarkeit und Nützlichkeit gemessen wird. Es ist zu erwarten, dass der dadurch entstehende Druck auch den Aufbau und die Entwicklung der Islamischen Theologie beeinflussen wird, Thomas S. Kuhn, Die Struktur wissenschaftlicher Revolutionen, übers. v. Kurt Simon, 21976, 116. Siehe hierzu meinen Aufsatz: „Ist Islamische Theologie eine Wissenschaft?“, in: Bildungskulturen im Islam. Islamische Theologie lehren und lernen, hg. von A. Poya / B. Weineck / F. Suleiman, 2022, 43–72. 1 2
‚Fragen & Antworten‘ in der Islamischen Theologie
und zwar sowohl hinsichtlich der Fragestellungen, die man in ihr als relevant erachtet, aber auch hinsichtlich der Ergebnisse, die man erarbeiten wird. Der vorliegende Artikel geht von der Annahme aus, dass fast jede beliebige Frage, die in der (Islamischen) Theologie/Philosophie (oder vielleicht gar in jeder anderen Disziplin) aufgeworfen wird, grundsätzlich allen der oben genannten drei Typen von Frage-Antwort-Zusammenhängen zugeordnet werden kann. Welcher der drei Kategorien eine bestimmte Frage in einem spezifischen Fall zugeteilt wird, ja ob die bestimmte Frage überhaupt aufgeworfen wird, hängt nicht zuletzt von den Vorannahmen des Forschers bzw. der Forscherin ab. Im vorliegenden Artikel soll dies anhand des Problems der menschlichen Willensfreiheit aufgezeigt werden, und zwar mit Bezug auf die Debatten, die in koranexegetischen Werken stattgefunden haben. Zu diesem Zweck sollen zuerst drei verschiedenen Denktraditionen, nämlich die falsafa, der kalām sowie die der ahl al-ḥadīṯ, vorgestellt und deren ontologische, epistemologische und hermeneutische Vorannahmen, die für die islamtheologischen Debatten zur menschlichen Willensfreiheit eine Rolle spielen, skizziert werden. Es wird sich dabei zeigen, dass es von diesen Vorannahmen abhängt, ob man (a) die Frage nach der Willensfreiheit in einem philosophisch-theologisch abstrakten Sinne überhaupt aufwirft und, falls man dies tut, ob sie (b) im Rahmen der Koranexegese besprochen wird. Es wird sich zeigen, dass nur eine der drei Denktraditionen von Vorannahmen ausgeht, sodass (a) und (b) erfüllt sind. Auf dieser Tradition, in der es Befürworter und Verneiner der Willensfreiheit gab, soll der Fokus in den Folgekapiteln liegen. In einem ersten Schritt sollen die Ansichten zweier prominenter Vertreter, die sich in der Frage nach der Willensfreiheit konträr positioniert haben, nachgezeichnet und dann in einem zweiten Schritt an zwei beispielhaft ausgewählten Koranversen illustriert werden, wie die Debatte innerhalb der Koranexegese geführt wurde. Im letzten Teil des Artikels wird der Versuch gemacht, das Problem der Willensfreiheit als ein Scheinproblem zu entlarven, das entweder aufzulösen oder aber zu modifizieren ist. Unabhängig davon, ob dieses Vorhaben als gelungen betrachtet werden darf oder nicht, hat der vorliegende Artikel zumindest den Anspruch, gezeigt zu haben, dass es von den Vorannahmen der TheologInnen und KoranexegetInnen abhängt, welchem Fragetypus sie das Problem der Willensfreiheit zuordnen. 2.
Für die Debatte zur Willensfreiheit ontologisch, epistemologisch und hermeneutisch relevante Vorannahmen
In der islamischen Geistesgeschichte haben sich eine Vielzahl von intellektuellen Traditionen herausgebildet. Zu den wichtigsten zählen die falsafa, der kalām sowie die Tradition der ahl al-ḥadīṯ. Alle drei Ausdrücke haben keine zufriedenstellende deutsche Entsprechung. In der Forschung übersetzt man erstgenannten Ausdruck üblicherweise mit ‚Philosophie‘, zweitgenannten mit ‚rationaler Theologie‘ und letzt-
135
136
Farid Suleiman
genannten mit ‚Traditionalisten‘. Bei aller Vielfalt, die es innerhalb dieser Denktraditionen gegeben hat, lassen sich paradigmatische Strukturen erkennen, die sich über die Zeiten hinweg aufrechterhalten haben. Diese sollen im Folgenden, soweit sie für die Themenstellung des Artikels relevant sind, in den Blick genommen werden. Besonders die falsafa und zu einem geringeren Grad auch der kalām wurden von der griechischen Philosophie beeinflusst. Platon hat in der Philosophie den Weg gesehen, sich an Gott anzugleichen soweit das möglich ist (homoíosis theō katà tò dynatón).3 Diese Angleichung findet auf der intellektuellen und auch der moralischen Ebene statt, wobei diese Ebenen, anders als heute üblich, vor dem Hintergrund des griechischen Verständnisses von Tugend (aretḗ) und Glückseligkeit (eudaimonía) nicht unbedingt voneinander getrennt werden können. Die platonische Sicht auf Philosophie baut auf der Annahme, dass die Struktur unserer Welt und alle in ihr vorhandenen Zusammenhänge einem göttlichen Intellekt entspringen, der sich nur graduell, aber nicht substanziell vom menschlichen Intellekt unterscheidet. Letzterer ist zwar nur einer von mehreren Teilen der menschlichen Seele, aber der wichtigste, denn durch ihn kann die Welt so geschaut werden wie Gott dies tut. Aristoteles erhebt die intellektuelle Schau, theōria genannt, zum Zielpunkt der Philosophie, und der Ausdruck gibt einen Hinweis darauf, wie sehr das griechische Denken auch noch das Weltbild der modernen Wissenschaften prägt.4 Vertreter der falsafa wie z. B. Abū Bakr ar-Rāzī (gest. 925 oder 935) oder al-Fārābī (gest. 950–1) definierten demgemäß die Philosophie bzw. ihr Ziel als Angleichung an Gott im Rahmen der menschlichen Möglichkeit (at-tašbīh bi-llāh bi-ḥasab aṭ-ṭāqa alinsāniyya). In späteren Zeiten trugen manche herausragende Philosophen, der bekannteste unter ihnen ist Suhrawardī (gest. 1168), den Beinamen ‚der gottähnliche Weise‘ (al-ḥakīm al-mutaʾallih).5 In der Tradition der falsafa dachte man also nicht nur, dass es möglich ist, mittels der Vernunft (aber auch anderen Erkenntnisinstrumenten bzw. -weisen) die Gottesperspektive auf die Wirklichkeit einzunehmen, sondern erhob dies zum eigentlichen Ziel der Philosophie. So weit sind die sogenannten muslimischen Rationaltheologen, also die Vertreter des kalām, nicht gegangen. Dennoch haben auch sie mit es Verweis auf die Vernunft als möglich erachtet, gesicherte Aussagen über Gott und Seine Attribute, die Entstehung und den Aufbau der Welt, die Willensfreiheit und viele weitere philosophisch-theologische Themen zu machen. Auch war man der Meinung, dass die Offenbarungstexte so zu interpretieren sind, dass sie mit (den im kalām vertretenen) Vernunftwahrheiten übereinstimmen. Denn allein die Vernunft, so argumentierte man, vermag mit objektiver Gültigkeit die Wahrheit des Islams zu erkennen. Würde man die OffenbarungstexTheaitetos, 176b. Hierzu mehr bei Georg Picht, Wahrheit, Vernunft, Verantwortung. Philosophische Studien, 1969, 11–35. Siehe Christel Hein, Definition und Einteilung der Philosophie. Von der spätantiken Einleitungsliteratur zur arabischen Enzyklopädie, 1985, 118 f.
3 4 5
‚Fragen & Antworten‘ in der Islamischen Theologie
te auf vernunftwidrige Weise interpretieren mit dem Verweis darauf, dass die Vernunft fehlbar sei und daher kein Kriterium darstelle, müsste man auch zugeben, dass die Vernunft darin geirrt haben könnte, den Islam als wahr auszuweisen, womit wiederum die Offenbarungstexte an sich ihre Geltung verlören. Die Offenbarung der Vernunft vorzuziehen bedeutet demnach, beide zu verneinen; beide zu bejahen macht hingegen notwendig, die Offenbarung im Lichte der Vernunft zu deuten. Die Gelehrten des kalām gingen davon aus, dass der Koran die von ihnen vorgebrachten Vernunftbeweise zur Untermauerung der islamischen Theologie zumindest implizit enthält.6 Der theologiegeschichtlich äußerst bedeutsame Gelehrte Abū al-Ḥasan al-Ašʿarī (gest. 935), auf den sich die sogenannte ašʿaritische Schule innerhalb des kalām gründet, meinte gar, dass der Prophet komplizierte ontologische Lehren wie die von dem atomaren Aufbau der Welt gekannt und vertreten habe und lediglich deshalb nicht darüber redete, weil er dazu nicht befragt worden sei bzw. weil es keinen Anlass dazu gegeben habe.7 Nun gibt es aber auch Stellen im Koran, die im Widerspruch zu den im kalām vertretenen Vernunftwahrheiten zu stehen scheinen, u. a. geht es hier um als anthropomorph erachtete Beschreibungen Gottes und um das Spannungsfeld zwischen göttlicher Vorherbestimmung und menschlicher Willensfreiheit. Zur Auflösung dieser Problematik bediente man sich einer Unterscheidung zwischen zwei Arten von Koranversen, die bereits im Koran selbst vorgebracht wird, jedoch erst durch die Tradition des kalām eine theologische Aufladung erfuhr. Man findet diese Unterscheidung im Koranvers 3:7, der sowohl hinsichtlich der Begrifflichkeit als auch der syntaktischen Struktur einen hohen Interpretationsspielraum zulässt. Die folgende Übersetzung berücksichtigt die vielen Mehrdeutigkeiten nicht, sondern gibt ihn auf eine Weise wieder, die für den Zweck des vorliegenden Artikels ausreichend ist:8 Er [d. h. Gott] ist derjenige, Der auf dich [d. h. den Propheten Muḥammad] das Buch (kitāb) herabsandte. Zu ihm gehören Verse, welche eindeutig (muḥkam) sind – diese sind die Grundlage des Buches (umm al-kitāb) – und andere, welche mehrdeutig (mutašābih) sind. Diejenigen nun, die in ihren Herzen Krankheit (zayġ) haben, folgen dem, was von ihm [d. h. dem Buch] mehrdeutig ist im Verlangen nach Zwietracht und im Verlangen nach seiner tiefgehenden Interpretation (taʾwīl). Doch niemand kennt seinen taʾwīl außer Gott und die Gelehrten. Sie [d. h. die Gelehrten] sagen: ‚Wir sind von seiner Wahrheit fest überzeugt, es stammt alles von unserem Herrn.‘ Doch nur die Einsichtigen lassen sich ermahnen.
Siehe die Übersetzung von al-Ašʿarīs Traktat al-Ḥaṯṯ ʿalā al-baḥṯ bei Abū al-Ḥasan al-Ašʿarī, al-Ashʿarī’s vindication of kalām, übers. von R. McCarthy, in: Islamic Theological Themes. A Primary Source Reader, hg. von J. Renard, 2014, 152 ff. 7 Siehe ebd., 152 und 158. 8 Für eine ausführliche Behandlung des Verses und seiner Bedeutung für die Theologie siehe Farid Suleiman, Ibn Taymiyya und die Attribute Gottes, 2019, 178–197. 6
137
138
Farid Suleiman
Mit Rückbezug auf diesen Vers haben die kalām-Gelehrten die koranischen Stellen mit dem Prädikat mutašābih belegt, von denen sie der Meinung waren, dass die Bedeutung, die beim Lesen dieser Verse zuerst in den Sinn kommt, im Widerstreit zu unumstößlichen Vernunftwahrheiten steht. Dadurch sahen sie sich legitimiert, die naheliegende Bedeutung zu verwerfen und zu einer allegorischen Interpretation dieser Verse überzugehen. Im kalām ging man also davon aus, dass der Koran philosophisch-theologische Fragestellungen nicht nur kennt, sondern sie auch im Einklang mit den im kalām vorherrschenden Vernunftwahrheiten bespricht. Ein anderes Verständnis von den Offenbarungstexten hatte man hingegen in der falsafa. Demgemäß manifestiert sich die höchste Form von Wahrheit in der Philosophie, die ihren Abschluss im Denken von Aristoteles gefunden hat. Die philosophische Wahrheit ist aber für die Masse nicht nur unzugänglich, sondern sogar schädlich und verwirrend. Die gemeinen Leute können jedoch auch einen Zugang zur Wahrheit finden, nämlich durch die Lehre eines Philosophen, der in der Lage ist, diese in einer für sie verständlichen Symbolsprache auszudrücken. Prophet zu sein bedeutet demnach genau dies. Aus Sicht der falsafa geht die Religion der Philosophie zeitlich, die Philosophie der Religion jedoch ontologisch vorher. Letzteres deshalb, weil die Philosophie der Ort der puren Wahrheit ist, die Religion nur der massentaugliche Abglanz davon. In der falsafa findet sich daher der Verweis auf den Koran viel seltener als im kalām. Zu der Frage der menschlichen Willensfreiheit hat man sich in beiden Traditionen positioniert, wobei es den kalām-Theologen im Gegensatz zu den Gelehrten aus der falsafa wichtig war, ihre Ansichten koranisch zu untermauern. Wissenschaftliches Wissen (epistēmē) von einer Sache zu haben bedeutet nach Aristoteles ihre Ursache, aufgrund derer sie besteht und nicht anders sein kann, zu kennen.9 Spätestens bei Aristoteles findet sich auch die Idee vom systematisch-axiomatischen Aufbau des Wissens und damit verknüpft der Anspruch auf Letztbegründung, der sich durch die aristotelische Substanzontologie absichern lässt. Dieser Wissensbegriff hat einen großen Einfluss auf die Denktraditionen der falsafa und des kalām ausgeübt. Dass beide Traditionen folgende Aussage zu einem unumstößlichen Vernunftprinzip erhoben hatten, steht in einem engen Zusammenhang zu dem eben beschriebenen Wissensbegriff: ‚Eine Bevorzugung [der Existenz eines kontingenten Dinges gegenüber ihrer Nichtexistenz] ohne ein die Bevorzugung erwirkendes Element ist unmöglich‘ (tarǧīḥ bi-lā muraǧǧih muḥāl). Dieses Vernunftprinzip lässt sich mit dem Satz vom zureichenden Grunde gleichsetzen, der sich ebenfalls bei Aristoteles (und auch schon vor ihm) finden lässt.
9
An. post. I.2 71b9–13.
‚Fragen & Antworten‘ in der Islamischen Theologie
Ein weiterer Zusammenhang zu diesen eben beschriebenen Überzeugungen besteht zu der in der falsafa gehaltenen (nicht-aristotelischen) Ansicht, dass die innerweltlichen Vorgänge kausal determiniert sind. So liest man bei dem bekannten Vertreter aus der falsafa Ibn Sīnā (Avicenna): Wenn es einem Menschen möglich wäre, alle zeitlichen Ereignisse, die sich auf der Erde und im Himmel vollziehen, sowie ihre Natur zu kennen, würde er die Art und Weise von allem, was sich zukünftig ereignen wird, verstehen.10
Nach Ibn Sīnā sind die Welt und alle in ihr stattfindenden Ereignisse die sich notwendigerweise ergebenden Produkte von Ursachen, wobei jede Ursachenverkettung ihren Anfang bei Gott, oder wie Ibn Sīnā sagt, bei dem ‚Ersten Prinzip‘ (al-mabdaʾ al-awwal) findet. Im kalām ergibt sich ein ähnliches Bild, auch wenn man dort zum einen andere Vorstellungen von Kausalität vertrat, zum anderen der Notwendigkeit den göttlichen Willen entgegengesetzte und man sich darüber hinaus auch nicht einig war, ob Gott wirklich am Anfang jeder Ursachenkette steht. Ohne die gewichtigen Unterschiede zwischen der falsafa und dem kalām zu ignorieren, lässt sich sagen, dass zwischen beiden eine große paradigmatische Nähe besteht, die dadurch bedingt ist, dass beide Traditionen stark von der griechischen Philosophie beeinflusst wurden. In einem starken Gegensatz hierzu stehen die sog. Traditionalisten (ahl al- ḥadīṯ), deren Denken nun im Folgenden auf seine relevanten paradigmatischen Elemente hin beleuchtet werden soll. Der alles bestimmende Leitgedanke bei den ahl al- ḥadīṯ besteht darin, dass man sich – neben dem Koran – nach der Sunna zu richten hat, d. h. nach den Überlieferungen, die auf den Propheten Muhammad, auf seine Gefährten und auf die frühen Gelehrten des Islams zurückgehen. Davon abzuweichen oder aber auch nur etwas hinzuzufügen, was darin nicht bereits enthalten ist, bedeutet einen Irrweg (ḍalāl) einzuschlagen und/oder unerlaubte Neuerungen (Sing.: bidʿa) in die Religion einzuführen. So liest man in dem um 900 entstandenen Werk Šarh as-Sunna (Die Erläuterung der Sunna), das von einem überzeugten Anhänger der ahl al-ḥadīṯ verfasst wurde, folgendes: Der Islam ist die Sunna, und die Sunna ist der Islam. […] So prüfe – möge Gott mit dir barmherzig sein – jeden von den Leuten besonders deiner Zeit, dessen Rede du hörst. Sei nicht voreilig und nimm daran [d. h. an Diskussionen] nicht teil, bis du fragst und prüfst: ‚Haben darüber auch schon die Gefährten des Gesandten Gottes gesprochen oder jemand von den Gelehrten [der Frühzeit des Islams]?‘ Wenn du etwas Überliefertes findest, das auf sie zurückgeht, dann klammer dich daran fest, und gehe [inhaltlich] nicht
Abū ʿAlī Ibn Sīnā, The Metaphysics of the Healing. Aš-Šifāʾ: al-Ilāhiyāt ‚übers. von M. Marmura, 2005, X.1 363.4–5, in der engl. Übers. 363.7–9. 10
139
140
Farid Suleiman
darüber hinaus und wähle nicht etwas, was dazu im Gegensatz steht, denn ansonsten wirst du in die Hölle stürzen.11
Die ahl al-ḥadīṯ sahen sich als die Bewahrer der Religion, die sie der Gefahr ausgesetzt sahen, durch das spekulative Denken der Anhänger des kalām und des falsafa verfälscht zu werden. Nur sehr selten, und dann sehr spärlich, kommt es vor, dass die ahl al-ḥadīṯ ihren Widerwillen gegen jedwede rationale Spekulation erörtern und argumentativ abzusichern versuchen. So besteht eine Vielzahl ihrer Werke lediglich aus dem Anführen von Überlieferungen, ohne dass der Autor eigene Worte beisteuert. Zum Beispiel stellt das Traktat, das einem der führenden Gelehrten unter den ahl al-ḥadīṯ, nämlich Aḥmad Ibn Ḥanbal (gest. 855), zugeschrieben wird, und als Widerlegung bestimmter Anhänger des kalām betitelt wird, eine bloße Aneinanderreihung von Koranversen dar.12 Es gibt plausible Gründe anzunehmen, dass in der Generation vor Ibn Ḥanbal gar die Meinung vertreten wurde, man dürfe Koranverse nicht weiter erläutern, sondern müsse sie unkommentiert lassen.13 Sicher ist, dass sich über Jahrhunderte (und gar bis heute) die Ansicht gehalten hat, zur Erläuterung des Korans dürften nur die Aussagen der Gelehrten innerhalb der ersten drei Generationen des Islams herangezogen werden.14 Freilich konnten die ahl al-ḥadīṯ diese rigide Haltung nicht aufrechterhalten und auch wenn sie grundsätzlich ihre feindliche Haltung zum kalām niemals aufgaben, so hat er sie doch sehr beeinflusst.15 Dennoch gilt für die meisten Werke der ahl al-ḥadīṯ, in denen die Autoren über das bloße Anführen von Überlieferungen hinausgehen, dass sie durch die folgenden Eigenschaften gekennzeichnet sind: Erstens, Ausdrücke werden nicht philosophisch oder rationaltheologisch, sondern gemäß der alltagssprachlichen Bedeutung verwendet. Zweitens, es wird nicht der Versuch unternommen, ein philosophisches oder theologisches System zu entwickeln; auch fehlen ontologische oder epistemologische Ausführungen. Und schließlich drittens, wenn Themen behandelt werden, die im kalām von Wichtigkeit waren, dann nur widerwillig und mit dem Ziel, die Gelehrten des kalām zu widerlegen bzw. als Vertreter unerlaubter Neuerungen in der Religion zu desavouieren. Al-Barbahārī (oder Ġulām Ḫalīl), Sharh as-Sunna, hg. von Ḫ. ar-Ridādī, 1993, 67 und 69. In der Forschung besteht Uneinigkeit darüber, ob es sich bei dem Verfasser um Ġulām Ḫalīl (gest. 888) oder um al-Barbahārī (gest. 941) handelt. Für den Zweck der Darstellung ist dies unerheblich. 12 Das Traktat ist zu finden bei ʿAbdallāh Ibn Aḥmad, Kitāb as-Sunna‚ hg. von M. al-Qaḥṭānī, Bd. 2, 1986, 512–520. 13 Siehe die Besprechung der Thematik und die angeführte Sekundärliteratur bei Fred Leemhuis, Origins of the tafsīr Tradition, in: Approaches to the History of the Interpretation of the Qurʾān, hg. von A. Rippin, 1988, 16–19. 14 Siehe hierzu Farid Suleiman, Ibn Taymīyas Theorie der Koranexegese, in: Koranexegese als „Mix and Match“, hg. von A. Poya, 2017, 24–32. 15 Die Entwicklung der ahl al-ḥadīṯ wird nachgezeichnet bei Farid Suleiman, Ibn Taymiyya und die Attribute Gottes, 2019, 60–84. 11
‚Fragen & Antworten‘ in der Islamischen Theologie
Wenn nun in den zwei Folgekapiteln Positionen und koranexegetische Ausführungen zur Frage nach der Willensfreiheit in den Fokus rücken, soll nur die Tradition des kalām Beachtung finden, nicht aber die der falsafa und die der ahl al-ḥadīṯ. Dies deswegen, weil, wie oben ausgeführt, in der falsafa die Thematik zwar diskutiert wurde, aber typischerweise, ohne dabei auf den Koran Bezug zu nehmen,16 und die Anhänger ahl al-ḥadīṯ sich nur karg und widerwillig zur Thematik äußerten und Koranverse nur anführten, ohne sich darüber hinaus exegetisch mit diesen auseinanderzusetzen.17 Vor dem Hintergrund, dass die Tradition des kalām viele verschiedene Strömungen beherbergt, die in diesem Artikel nicht alle besprochen werden können, ist eine weitere Einschränkung vorzunehmen. Der Blick soll daher ausschließlich auf die rivalisierenden kalām-Strömungen der Muʿtaziliten und der Ašʿariten gerichtet werden, die wiederum beide so inhomogen sind, dass lediglich jeweils einer ihrer bekanntesten Vertreter zu Wort kommen sollen. Für erstere wird das al-Qāḍī ʿAbd al-Ǧabbār sein (gest. 1025), für letztere Faḫr ad-Dīn ar-Rāzī18 (gest. 1210). 3.
Kurze Übersicht über die die wichtigsten Positionen in der Debatte zur Willensfreiheit
Der Ausdruck Willensfreiheit (ḥurriyyat al-irāda) ist der islamischen Theologie fremd, nicht aber die Fragestellung, ob der Mensch die Entscheidungsmacht hat, eine bestimmte Handlung auszuführen oder zu unterlassen. Die in den theologischen Werken diskutierten Begriffe lauten daher auch nicht Wille (irāda) oder Freiheit (ḥurriyya), sondern Entscheidung (iḫtiyār) und Macht (qudra, auch: Kraft, Vermögen).19 Den Ašʿariten war es wichtig, Gottes Allmacht und seine Eigenschaft, Schöpfer zu sein, als göttliche Alleinstellungsmerkmale zu betonen, und so argumentierten sie dafür, dass nicht der Mensch seine Handlungen erschafft, sondern Gott. Die Problemstellung
Die Ansichten zweier wichtiger Vertreter, nämlich Ibn Sīnā (Avicenna) und Ibn Rušd (Averroes), zur Willensfreiheit werden inklusive einer kritischen Besprechung der Sekundärliteratur dargestellt bei Catarina Belo, Chance and Determinism in Avicenna and Averroes, 2007, z. B. 15 f. und 226 ff. Nach Belo haben beide Denker keinen Raum für die Willensfreiheit gelassen. 17 Siehe beispielhaft die Behandlung der Thematik der göttlichen Vorherbestimmung bei Abū Bakr alḪallāl, Kitāb as-Sunna, hg. von ʿAṭiyya az-Zahrānī, Bd. 1, 1989, 526–562, z. B. die Überlieferung mit der Nummer 926 auf S. 552. Das Vorherwissen und die Vorherbestimmung anzuerkennen, sich ihr aber nicht fatalistisch auszuliefern, sondern aktiv zu handeln, ohne diesen vermeintlichen Widerspruch philosophisch oder theologisch auflösen zu wollen, erscheint mir die vorherrschende Position unter den betont handlungsorientierten ahl al-ḥadīṯ zu sein. Siehe hierzu auch die Überlieferung mit der Nummer 924 auf S. 551. 18 Er ist nicht zu verwechseln mit dem oben angeführten Philosophen Abū Bakr ar-Rāzī. 19 Oft werden die Ausdrücke Entscheidung und Wille austauschbar verwendet und so heißt es in einer durch Mānkdīm Šašdīw annotierten Fassung eines Werkes von al-Qāḍī ʿAbd al-Ǧabbār: „Entscheidung und Wille sind ein und dasselbe.“ Mānkdīm Šašdīw, [Taʿlīq] Šarḥ al-Uṣūl al-Ḫamsa, hg. von A.-K. ʿUṯmān, 1996, 464 (fälschlicherweise als ein Werk al-Qāḍī ʿAbd al-Ǧabbārs veröffentlicht). 16
141
142
Farid Suleiman
der Willensfreiheit diskutierten sie daher in der Regel unter der Überschrift ‚Die Erschaffung der Handlungen des Menschen (durch Gott)‘ (ḫalq afʿāl al-ʿibād). In dieser Schule haben sich mehrerer Handlungstheorien herausgebildet, die zueinander sehr ähnlich sind und von denen die meisten einen kausalen Determinismus vertreten, die keinen Platz für eine Willensfreiheit im oben angeführten Sinne lassen.20 Ihre vornehmlichen Gegener in dieser Sache waren die sogenannten Muʿtaziliten. Sie vertraten die Meinung, dass der Mensch sehr wohl der Schöpfer seiner Handlungen ist. Für diese Art der Schöpfung prägten sie den Begriff der Erzeugung (tawlīd/ tawallud).21 Auch sie verstanden Gott als allmächtig und als einzigen Schöpfer im Sinne, dass allein Gott dazu in der Lage ist, einen Körper von der Nicht-Existenz in die Existenz zu bringen. Bei der Schöpfung im Sinne der Erzeugung ist jedoch ihrer Ansicht genau das nicht der Fall. Den Muʿtaziliten war es wichtig, Gottes Gerechtigkeit zu betonen, was nach ihnen bedeutet, dass Gott den Menschen nur dann Gebote auferlegen (taklīf) und für die Einhaltung dieser verantwortlich machen darf, wenn der Menschen sich frei entscheiden kann, die Gebote entweder zu befolgen oder zu brechen. Das Problem der Willensfreiheit behandelten die Muʿtaziliten daher in der Regel im Zuge ihrer Ausführungen zu den Themenfeldern tawlīd/tawallud und taklīf. Im Folgenden sollen nun, wie gesagt, die Ansichten des Gelehrten al-Qāḍī ʿAbd al-Ǧabbār in den Fokus rücken, dem bekanntesten Vertreter der muʿtazilitischen Denkschule. Hernach werde ich die deterministische Position skizzieren, und zwar am Beispiel des Ašʿariten Faḫr ad-Dīn ar-Rāzī. Nach ʿAbd al-Ǧabbār hat Gott den Menschen mit einer Kraft (qudra) ausgestattet, die dieser dazu benutzen kann, eine bestimmte Handlung zu begehen oder aber zu unterlassen. Die Kraft selbst ist nicht mehr als ein Instrument, sagt ʿAbd al-Ǧabbār, und vergleicht sie mit der menschlichen Hand, die man für schlechte Dinge verwenden kann, indem man z. B. jemanden schlägt, oder aber für gute, indem man z. B. Almosen gibt. So wie in der Hand selbst nicht bereits angelegt ist, auf welche Weise sie benutzt werden wird, gilt dies auch für die von Gott im Menschen geschaffene Kraft zu handeln.22 Die
Al-Bāqillānī (gest. 1013) und vor allem Abū Isḥāq al-Iṣfarāyīnī (gest. 1027) sind Beispiele für ašʿaritische Denker, die den Anteil des Menschen an seinen Handlungen stärker zu gewichten versuchten, als dies sonst innerhalb ihrer Schule üblich ist. Siehe Faḫr ad-Dīn ar-Rāzī, al-Maṭālib al-ʿāliya, hg. von A. H. as-Saqqā, Band 9, 1987, 10 f. und zu al-Bāqillānī speziell Jan Thiele, Conceptions of Self-Determination in Fourth/ Tenth-Century Muslim Theology: al-Bāqillānī’s Theory of Human Acts in Its Historical Context, Arabic Sciences and Philosophy 26 (2016). 21 Erzeugt im Sinne des tawlīd sind Handlungen wie z. B. das Wollen, das Meinen und das theoretische Nachdenken (naẓar), die der Mensch unvermittelt allein aufgrund seiner Handlungskraft ausführt. Handlungen, die hingegen nur vermittelt über eine ihr vorhergehende Handlung entstehen, erzeugt der Mensch im Sinne des tawallud. Dazu gehört die Handlung der Wissenserkenntnis, die durch die Handlung des spekulativen Nachdenkens entsteht. Siehe Al-Qāḍī ʿAbd al-Ǧabbār, al-Muġnī fī abwāb at-tawḥīd wa-l-ʿadl, hg. von I. Maḏkūr u. a., 1960–5, Bd. 9, 400, 408, 411 f. 22 Al-Qāḍī ʿAbd al-Ǧabbār, al-Muḫtaṣar fī Uṣūl ad-Dīn, in: Rasāʾil al-ʿadl wa-t-tawḥīd, hg. von Muḥammad ʿAmāra, 1988, 189–282, hier 246. 20
‚Fragen & Antworten‘ in der Islamischen Theologie
Existenz der Kraft geht der Existenz der Handlung zeitlich voraus und entsteht nicht erst bei Beginn der Handlung, so wie das die Ašʿariten vertraten. Handlungen, die bei vollem Bewusstsein ausgeführt werden, womit z. B. das Schlafwandeln ausgeschlossen wird, geht eine Handlungsmotivation (dāʿin) vorher und begleitet sie. Die Motivation, eine bestimmte Tat zu begehen oder zu unterlassen, besteht darin, über ein objektives Wissen oder subjektives Meinen zu verfügen, dass diese Tat nützlich bzw. schädlich ist. Ist eine bestimmte Motivation stark ausgeprägt und stehen ihr keine anderen Motivationen entgegen, dann wird der Mensch unweigerlich ihr gemäß handeln. So ist es zum Beispiel im Regelfall nicht möglich, Selbstmord zu begehen, obwohl man die Handlungskraft dazu hat. Folgerichtig wird man in diesem Fall von Gott auch nicht für das Nichtbegehen des Selbstmordes belohnt, denn Belohnung und Bestrafung setzen voraus, dass man auch anders hätte handeln können. ʿAbd al-Ǧabbār antizipiert den Einwand, dass eine derartige Motivation einem mit Notwendigkeit verursachenden Grund (ʿilla mūǧiba) gleichkommt, die Handlung des Menschen also doch determiniert ist.23 Er versucht diesen Einwand wie folgt zu entkräften: Während eine Motivation in ihrer Stärke abnehmen oder aber durch aufkommende entgegenstehende Motivationen in ihrer Wirksamkeit eingeschränkt werden kann, zieht der mit Notwendigkeit verursachende Grund immer seine Wirkung nach sich. Im oben angeführten Beispiel kann die Motivation, die verhindert, dass man Selbstmord begehen kann, dadurch geschwächt werden, dass man zu der Meinung gelangt, dass der Selbstmord doch auch nützlich sein kann. ʿAbd al-Ǧabbār verweist hier auf entsprechende Überzeugungen, die er den Hinduisten zuschreibt. Verfügt ein Mensch hinsichtlich einer bestimmten Handlungsoption über zwei oder mehr Motivationen, die zueinander im Gegensatz stehen, ist er frei darin, sich für oder gegen die Durchführung der Handlung zu entscheiden. Sollten manche Motivationen stärker sein als die, die ihnen entgegenstehen, ist die mit den stärkeren Motivationen in Einklang stehende Handlungsweise wahrscheinlicher, aber keineswegs notwendig.24 Die Entscheidung zum Selbstmord oder aber auch zu jeder anderen Tat, die man begehen oder unterlassen kann, ist also in dem Falle, dass man über mehr als eine Handlungsmotivation verfügt, eine freie Entscheidung, für die man dann auch gerechterweise von Gott am Jüngsten Tag zur Rechenschaft gezogen werden wird. Der muʿtazilitische Gelehrte al-Qāḍī ʿAbd al-Ǧabbār legt also ein deutliches Bekenntnis zur Willensfreiheit ab, auch wenn diese in manchen wenigen Fällen stark eingeschränkt oder gar aufgehoben sein kann. Nicht weniger deutlich vertritt der ašʿaritische Gelehrte ar-Rāzī die Ansicht, dass der Mensch keinen Anteil an der Erschaffung seiner Handlungen hat, dass diese also Im muʿtazilitischen Denken wird der Begriff der ʿilla mūǧiba ausschließlich in der sogenannten Theorie von den Zuständen (naẓariyyat al-aḥwāl) gebraucht, nicht also im Themenfeld menschlicher Willensfreiheit. 24 Al-Qāḍī ʿAbd al-Ǧabbār (Fn. 22), Bd. 11, 98. 23
143
144
Farid Suleiman
durch göttlichen Zwang (ǧabr) – das theologische Äquivalent zum Ausdruck Determinismus in der Willensfreiheitsdebatte – dem Menschen vorherbestimmt sind. Dennoch ist es ar-Rāzī wichtig zu betonen, dass es Unterschiede gibt zwischen den in der Natur stattfindenden Vorgängen und dem Handeln des Menschen. Die Notwendigkeit, mit der ein Mensch also eine bestimmte Handlung ausführt ist nicht wie die, mit der ein Baum sich im Wind bewegt oder ein Stein, der fallengelassen wird. Dies aus zwei Gründen:25 Zum einen erlebt der Mensch seine Handlungen bewusst und führt diese willentlich aus. Er ist demnach, anders als der Baum oder der Stein, „ein Gezwungener im Gewande eines Entscheidenden (muḍṭarr fī ṣūrat muḫtār)“.26 Zum anderen handelt der Mensch gemäß der Motivationen, die in ihm aufkommen. Diese können über die Lebenszeit hinweg sehr unterschiedlich ausfallen, sodass er sich in gleichartigen Situationen nicht immer auf die gleiche Weise verhalten wird. Bäume oder Steine hingegen können ihr ‚Verhalten‘ niemals ändern. Sieht man von diesen Unterschieden ab, lässt sich jedoch letztlich feststellen, dass nach ar-Rāzī menschliche Handlungen genauso determiniert sind wie Naturereignisse. Folgendes Prinzip, das auch schon weiter oben angesprochen wurde, ist ar-Rāzīs Fundament seiner deterministischen Position: ‚Eine Bevorzugung ohne ein die Bevorzugung erwirkendes Element ist unmöglich‘ (tarǧīḥ bi-lā muraǧǧih muḥāl). Wie bereits gesagt wurde, lässt sich dieses Prinzip auf den Satz vom zureichenden Grunde zurückführen. Ar-Rāzī argumentiert, dass die menschliche Kraft zu handeln die Möglichkeit schafft, eine bestimmte Handlung durchzuführen. Genauso möglich ist es die Handlung zu unterlassen. Beide Möglichkeiten halten sich die Waage und es ist ein Element nötig, dass den Ausschlag dafür gibt, welche der beiden Möglichkeiten eintritt. Mit anderen Worten: Es muss einen Grund dafür geben, dass Person x Handlung y durchführt, ansonsten würde das gegen obiges Prinzip verstoßen.27 Da die Muʿtaziliten grundsätzlich von der Gültigkeit des Prinzips überzeugt sind, wirft ar-Rāzī ihnen vor, hier inkonsistent zu sein. Aber selbst dann, wenn man über diese Inkonsistenz hinwegsehen würde, kann man gar nicht anders, so ar-Rāzī, als einen Determinismus zu vertreten. Denn nach ar-Rāzī gibt es nur zwei Möglichkeiten:28 Entweder sagt man im Einklang des Prinzips, dass die menschlichen Handlungen einen Grund haben (z. B. einen menschlichen Willen), dann muss aber auch die Existenz des Grundes wieder durch einen vorhergehenden Grund erklärt werden usw. Ob man die Ursachenkette nun ad infinitum laufen lässt oder aber bei Gott einen Anfang setzt ist unerheblich, denn in beiden Fällen muss der Mensch als fremdgesteuert gelten. Die zweite Mög-
Siehe ar-Rāzī (Fn. 21), Bd. 9, 26. Diesen Ausdruck, der die Position ar-Rāzīs konzise zusammenfasst, bringt ar-Rāzī an vielen Stellen so oder so ähnlich vor. Hier ist er entnommen aus ebd., Bd. 3, 60. 27 Dieser Gedanke zieht sich durch die Werke ar-Rāzīs, die sich mit der Thematik der Willensfreiheit befassen. Siehe z. B. ebd., Bd. 9, 27 f. 28 Siehe ebd., 13 f. 25 26
‚Fragen & Antworten‘ in der Islamischen Theologie
lichkeit besteht darin, das Prinzip zu verletzen und die menschliche Entscheidung, eine bestimmte Handlung zu begehen oder zu unterlassen, auf etwas zurückgehen zu lassen, was sich grundlos ereignet hat (z. B. das grundlose Entstehen eines menschlichen Willens). Nimmt man beispielhaft einen grundlos entstandenen Willen an, so ist es offensichtlich reiner Zufall, ob dieser Wille sich auf das Durchführen oder auf das Unterlassen der Handlung richtet. Denn gäbe es einen Grund für das eine oder das andere, dann wäre auch der Wille nicht grundlos entstanden. In diesem Fall wäre der Mensch der Spielball eines reinen Zufalls, den ar-Rāzī allerdings nur arguendo anführt, da er seine Existenz im Einklang mit obigem Prinzip ausschließt. Laut ar-Rāzī macht der Mensch notwendigerweise das, worauf sich seine Handlungsmotivationen richten, natürlich unter der Bedingung, dass der Mensch überhaupt über die für die Handlung nötige Kraft verfügt. Die Kraft existiert nicht vor der Handlung, wie das von al-Qāḍī ʿAbd al-Ǧabbār vertreten wurden, sondern erst mit Beginn der Handlung. Die Handlungsmotivationen bestehen aus dem subjektiven Empfinden oder dem Wissen, dass das Durchführen bzw. das Unterlassen einer Handlung nutzvoller ist als das jeweilige Gegenteil. Denn der Mensch ist von seiner Natur (ṭabʿ) und seiner ihm anerschaffenen Konstitution (fiṭra) darauf ausgerichtet, Nutzen und Glückseligkeit anzustreben sowie Schaden und Kummer zu vermeiden. Eine Handlung wird dann und nur dann notwendigerweise durchgeführt, wenn der Handelnde meint, dass ihre Durchführung mehr Nutzen bringt bzw. mehr Schaden beseitigt als ihre Unterlassung.29 Wo man diesen Nutzen zu finden glaubt und worin er besteht, hängt vom Wissenstand des Menschen ab. So kann z. B. jemand, der z. B. große Schmerzen und Trauer empfindet, in der Beendigung seines Lebens einen größeren Nutzen sehen als im Weiterleben. Sollte das so sein, wird diese Person notwendigerweise Selbstmord begehen.30 Die Muʿtaziliten hätten hier den Selbstmord nur als wahrscheinlicher erachtet, aber ar-Rāzī lehnt das mit Verweis auf das Prinzip des tarǧīḥ bi-lā muraǧǧih muḥāl ab.31 Gott ist demnach immer das bevorzugende Element (muraǧǧih) zwischen gleichwertigen Möglichkeiten sowie der Schöpfer aller Komponenten, aus der sich eine menschliche Handlung von ihrer Entstehung bis zu ihrem Abschluss zusammensetzt. 4.
Das Problem der Willensfreiheit in der Koranexegese
Der Koran ist, so sind sich die Muslime einig, eine Botschaft der Rechtleitung für alle Menschen, und zwar zu allen Zeiten und allen Orten. Die Erwartungshaltung an den Koran, die Muslime mit dieser Vorstellung verknüpfen, fällt hingegen sehr 29 30 31
Siehe ebd., Bd. 3, 21 ff. Ebd., 25. Ebd., 55.
145
146
Farid Suleiman
unterschiedlich aus. Der Koran selbst scheint sich hierzu nicht zu positionieren. Der Minimalkonsens besteht darin, dass der Koran einen spirituell-moralischen Lebensweg aufzeigt, welcher zur Glückseligkeit im Jenseits führt. Die Einigkeit endet bei der Frage, ob die koranische Botschaft darüber hinausgeht, also z. B. philosophische und/ oder naturwissenschaftliche Themen erörtert, wie z. B. die Theodizee-Problematik32 oder die embryonale Entwicklung im Mutterleib.33 Dass Gott im Koran bewusst viele (philosophisch-theologische) Fragen offenlässt, könnte man an dem Vers ablesen, in dem es heißt: „Er [d. h. Gott] wird nicht nach Seinem Handeln befragt, aber ihr [Menschen] sehr wohl nach eurem!“34 Auf der anderen Seite, und u. a. hierauf stützen sich Verfechter der Position, im Koran seien alle lebensrelevanten Fragen zumindest implizit vorhanden, heißt es im Koran: „Wir sandten auf dich das Buch herab, um alles klarzulegen.“35 Da es also keineswegs selbstverständlich ist, dass der Koran die Problematik menschlicher Willensfreiheit aufwirft, verwundert es sehr, dass in weiten Teilen der muslimischen Denkgeschichte und gar auch in der säkularen Islamwissenschaft vielfach versucht wurde, herauszufinden, ob der Koran die Existenz eines freien Willens bestätigt oder verneint. Die Islamwissenschaft ist sich wie die muslimische Tradition einig darin, sich uneinig zu sein, wie die Antwort darauf auszusehen hat. So schreibt einer der führenden Vertreter der westlichen Islamwissenschaft, Josef van Ess, Folgendes: Fatalismus war seit dem Koran nicht mehr möglich. Das war der Fortschritt, den die Offenbarung gebracht hatte; der Mensch ist nicht mehr Spielball eines anonymen Geschicks. Vor diesem Hintergrund war es eigentlich folgerichtig, wenn die Qadariten36 die koranische Botschaft so verstanden, daß Gott das Gute, das der Mensch tut, selber bestimmt, ihn dagegen allein läßt, wenn dieser sich in Böses verstrickt.37
Zu einer gegenteiligen Einschätzung kommt Alexander Treiger, wenn er im erst kürzlich veröffentlichten Oxford Handbook of Islamic Theology schreibt, dass der Koran die
Siehe hierzu Farid Suleiman, Gut und Böse – Der Ursprung des Bösen und die Theodizee – (k)ein Thema für die islamische Theologie?, in: Grundlagen muslimischer Seelsorge – Die muslimische Seele begreifen und versorgen, hg. von T. Badawia / G. Erdem / M. Abdallah, 2020, 187–205. 33 Die sogenannte naturwissenschaftliche Auslegung (tafsīr ʿilmī) hat sich seit Beginn des 20. Jahrhunderts zu einem verbreiteten, aber doch auch bis heute stark umstrittenen Zweig in der Disziplin der Koranexegese entwickelt; siehe hierzu Rotraud Wielandt, Exegesis of the Qurʾān: Early Modern and Contemporary, in: Encyclopaedia of the Qurʾān, hg. von J. D. McAuliffe (Online-Ausgabe; Abschnitt „2. The so-called scientific exegesis of the Qurʾān“). 34 Koran 21:23. 35 Koran 16:89. 36 Hierbei handelt es sich um einen Sammelbegriff für all diejenigen, die die Meinung vertraten, dass Gott zumindest manche menschlichen Handlungen nicht vorherbestimmt hat. 37 Josef van Ess, Theologie und Gesellschaft im 2. und 3. Jahrhundert Hidschra: eine Geschichte des religiösen Denkens im frühen Islam, 1991–7, Bd. 4, 491 f. 32
‚Fragen & Antworten‘ in der Islamischen Theologie
in der Spätantike verbreitete Vorstellung eines allumfassenden Determinismus nicht aufhebt, sondern nur modifiziert, insofern dieser nun nicht mehr non-theistisch gedacht wird.38 Einen Mittelweg scheint Dmitry V. Frolov beschreiten zu wollen, wenn er schreibt: „While the general message of the Qurʾān seemed to downplay the role of the individual and to attribute to God complete and total power, particular qurʾānic passages provided fertile ground for arguments in support of and against human free will.“39 Alle drei Autoren sind sich aber offensichtlich darin einig, und damit folgen sie wie gesagt einem üblichen Weg in der Islamwissenschaft, dass der Koran zum Thema der Willensfreiheit auch Stellung bezieht. Eine Rechtfertigung dieser Annahme sucht man vergebens, sie wird einfach stillschweigend vorausgesetzt. Sowohl die Muʿtaziliten (Verfechter der Willensfreiheit) als auch die Ašʿariten (Verneiner der Willensfreiheit) sind davon ausgegangen, dass die ihr jeweilig entgegenstehende Position auf Prämissen fußt, die mit denen im Widerspruch stehen, die man benötigt, um die Existenz Gottes auf rationalem Wege zu beweisen.40 Im Einklang mit der im ersten Unterkapitel des Artikels beschriebenen Herangehensweise an den Koran sahen sich beide Denkströmungen nun berechtigt, die Koranverse, die ihrer eigenen Position innerhalb der Debatte um die Willensfreiheit entgegenzustehen scheinen, auf metaphorische Weise zu deuten. Im Folgenden soll nun an zwei beispielhaft ausgewählten Versen dargelegt werden, wie die Debatte im Bereich der Exegese geführt wurde. In einem Vers, der von denen, die die Existenz der Willensfreiheit negieren, besonders häufig herangezogen wird, heißt es: „[…] Er (d. h. Gott) hat alles (wörtlich: jede Sache) erschaffen und dieses genau bestimmt (qaddarahu taqdīran).“41 Ar-Rāzī verwendet diese Stelle in seinem voluminösen Korankommentar als einen Aufhänger dafür, seine Position in der Debatte der Willensfreiheit zusammenfassend darzustellen und auch die Kritik an seinen Widersachern zu formulieren. Der Hintergrund ist klar: Wenn Gott alles erschaffen hat, dann muss Er auch die Taten des Menschen sowie die ihnen vorausgehenden Handlungsmotivationen geschaffen haben. Der Mensch ist determiniert durch die Schöpfungstätigkeit Gottes, der alles, so versteht ar-Rāzī das Verb qaddara, im Einklang mit seinem urewigen Schöpfungsplan (qaḍāʾ) in die Existenz bringt.42 Nach dem muʿtazilitischen Gelehrten al-Qāḍī ʿAbd al-Ǧabbār hingegen zielt dieser Vers nicht
Alexander Treiger, Origins of Kalām, in: The Oxford Handbook of Islamic Theology, hg. von S. Schmidtke, 2016, 36. 39 Dmitry V. Frolov, Freedom and Predestination, in: Encyclopaedia of the Qurʾān, hg. von J. D. McAuliffe (Online-Ausgabe). 40 Siehe für die Muʿtaziliten al-Qāḍī ʿAbd al-Ǧabbār (Fn. 22), Bd. 9, 438 f. und für die Ašʿariten ar-Rāzī (Fn. 21), Bd. 9, 15 f. Eine Auseinandersetzung ar-Rāzīs mit den Argumenten der Muʿtaziliten, nach denen das Verneinen der Willensfreiheit dazu führt, dass die Existenz Gottes nicht mehr rational bewiesen werden kann, findet sich bei ebd., 119 ff. 41 Koran 25:3. 42 Ar-Rāzī, Mafātīḥ al-ġayb, 1934–64, Bd. 24, 46 f. 38
147
148
Farid Suleiman
darauf ab, Gottes Schöpfungstätigkeit lediglich zu beschreiben, sondern sie zu loben. Lobenswert ist sie aber nur dann, wenn sie sich nicht auch auf die Sünden, den Unglauben und sonstige Schlechtigkeiten der Menschen bezieht. Der Ausdruck „alles“ bezieht sich also allgemein auf die Himmel und die Erde, ohne die menschlichen Handlungen miteinzuschließen.43 Nun zu dem zweiten Beispiel: An einer anderen Stelle des Korans, die von den Verfechtern der Willensfreiheit angeführt wird, heißt es: Diejenigen, die Vielgötterei betreiben, werden sagen: ‚Hätte Gott gewollt, so hätten weder wir noch unsere Vorväter Vielgötterei betrieben und wir hätten auch nichts als verboten erklärt [was nicht von Gott selbst als verboten erklärt wurde].‘ Auf diese haben schon Generationen zuvor [die Wahrheit der prophetischen Botschaften] als Lüge bezeichnet, bis sie dann Unsere Strafe kosteten […].44
Darin sehen die Verfechter der Willensfreiheit einen Beweis für ihre Position, denn wären die Handlungen der Menschen gottgewollt und durch Seine Schöpfungstätigkeit determiniert, dann hätten die Polytheisten ja Recht mit ihrer Aussage, die der Koran offensichtlich nicht zitiert, um sie zu bestätigen, sondern um sie zu tadeln.45 ArRāzīs Antwort auf dieses Argument fällt recht knapp aus und läuft darauf hinaus, das er menschliche Schuldfähigkeit und fehlende Willensfreiheit als miteinander vereinbar beschreibt. So sagt er, dass der Vers nicht die Aussage tadelt, dass wir nicht anders handeln können, als Gott es uns vorherbestimmt hat (denn genau so ist es ja nach ar-Rāzī), sondern dass man die Vorherbestimmung als ein Argument gegen die Sinnhaftigkeit von göttlichen Ge- und Verboten und dem Entsenden von Propheten anführt. Gott handelt, wie Er will und ordnet das an, was Er anordnen möchte, und die Schöpfung hat nicht das Recht, dagegen Einspruch einzulegen.46 5.
Auswege aus der jahrtausendealten Debatte
Ar-Rāzī hatte, wie wir gesehen haben, dafür argumentiert, dass, wie auch immer man es durchspielt, eine Willensfreiheit rational nicht aufrechterhalten werden kann. Denn die Motive, die zu einer Handlung führen, sind entweder (1) verursacht, wobei die Ursachenkette entweder (a) anfangslos ist oder (b) bei der ersten Ursache (Gott) beginnt, oder aber die Motive sind (2) ohne Ursachen entstanden und damit ein Produkt eines reinen Zufalls. Für ar-Rāzī ist nur Variante 1b wahr, so zählt er die Alternativen Siehe al-Qāḍī ʿAbd al-Ǧabbār, Tanzīh al-Quʾrān ʿan al-Maṭāʿin, 289, ders. (Fn. 20), Bd. 9, 439 und 442, sowie ders., Tafsīr al-Qāḍī ʿAbd al-Ǧabbār al-Muʿtazilī, hg. von R. as-Sayyid, 2009, 299. 44 Koran 6:148. 45 Siehe al-Qāḍī ʿAbd al-Ǧabbār (Fn. 22), Bd. 62, S. 246 f. und Šašdīw, (Fn. 20), 476 f. 46 Ar-Rāzī (Fn. 43), Bd. 13, 227. 43
‚Fragen & Antworten‘ in der Islamischen Theologie
nur deswegen auf, weil er zu argumentieren versucht, dass damit alle theoretischen Möglichkeiten erschöpfend dargestellt sind und sie alle der menschlichen Willensfreiheit entgegenstehen. In der westlichen Philosophie finden sich bis zum heutigen Tage viele Philosophen, die die Nicht-Existenz einer Willensfreiheit durch diesen Beweisgang abzusichern versuchen. In der englischsprachigen Literatur ist er gar unter dem Namen „Standard argument against free will“ bekannt geworden.47 Ein prominenter Anhänger dieses Arguments ist C. D. Broad (gest. 1971), der als Moralphilosoph über zwanzig Jahre an der Universität Cambridge wirkte. Die Philosophin und Wittgenstein-Schülerin G. E. M. Anscombe hingegen bezeichnet das Argument, das sie am Beispiel der Ausführungen Broads bespricht, „as a naive mistake in the philosophy of mind.“48 Aber auch kompatibilistische Positionen, die zum einen menschliche Handlungen als kausal prädeterminiert erachten und zum anderen die Moralität des Menschen aufrechterhalten wollen, lehnt sie ab, da sie ihr entweder als reines Geschwafel (gobbledegook) erscheinen oder aber darin versagen, eine wie auch immer geartete Freiheit, die den menschlichen Handlungen zukommen soll, überzeugend als etwas Wirkliches auszumachen. Im Folgenden werde ich, inspiriert durch Wittgenstein und andere, dafür argumentieren, dass es sich bei dem Problem der Willensfreiheit um ein Scheinproblem handelt, das, wie sehr sich auch unser Wissenstand noch vergrößern möge, nicht gelöst, sondern entweder aufgelöst oder aber modifiziert werden muss. Diesen Gedanken findet man bereits bei Nietzsche, der sich übrigens einer Wortwahl bedient, die sehr an die Wittgensteins erinnert.49 Bevor ich mit meinen Ausführungen beginne, seien noch zwei Dinge angemerkt: Erstens, ich habe nicht den Anspruch Wittgensteins Position in der Debatte nachzuzeichnen. In der Sekundärliteratur wird er von manchen als Kompatibilist beschrieben (gar in einem Atemzug mit Kant), insofern er davon ausgegangen sein soll, dass unser Handeln kausal determiniert ist und wir einen freien Willen haben.50 Andere ForscherInnen sind der Meinung, dass Wittgenstein das Problem der Willensfreiheit als ein auf Sprachverwirrungen bestehendes Pseudoproblem ansah und folglich auch kei-
Siehe Bob Doyle, Free Will: The Scandal in Philosophy, 2011, Kapitel 4. Anscombe, Metaphysics and the Philosophy of Mind, 1981, 145. Siehe Friedrich Nietzsche, Jenseits von Gut und Böse. Zur Genealogie der Moral, 1980, 34–36 (Abschnitte 20 f.). 50 Siehe im Sammelband Das Sprachspiel der Freiheit, hg. von Wilhelm Lütterfelds, 2008, den Beitrag des Hrsg., Willensfreiheit – ein praktischer Glaube der Vernunft? – Zur Kritik an der Neurophilosophie der Willensfreiheit, 15, sowie den Beitrag von Michael Pauen, Wittgensteins Vorlesungen über die Willensfreiheit und die gegenwärtige Willensdebatte. Dafür, dass Wittgenstein kein Kompatibilist war, argumentieren A. D. Carter, Freedom and fatalism in Wittgenstein’s „Lectures on Freedom of the Will“, 2015, 8 ff. und Stuart G. Shanker, The Nature of Willing, in: Wittgenstein’s Intentions, hg. von J. V. Canfield et al., 1993, 219 ff. 47 48 49
149
150
Farid Suleiman
nem der Lager, die sich innerhalb der Debatte befinden, zugeordnet werden kann.51 Auch ich verstehe Wittgenstein auf diese Weise, ziele aber in meinen folgenden Ausführungen nicht darauf ab, einen Beitrag zu der eben beschriebenen Kontroverse in der Sekundärliteratur zu bieten. Zweitens, bereits vor mir hat man sich ebenfalls mit Bezug auf Wittgenstein dafür ausgesprochen, dass die Fragestellung nach der Willensfreiheit ein Pseudoproblem ist. Der prominenteste Vertreter dieser Ansicht ist Moritz Schlick, dessen Beitrag C. A. Campbell zu einer Gegenrede veranlasste.52 Hervorheben möchte ich jedoch den Artikel von Peter Westen mit dem Titel „Getting the Fly out of the Bottle: The False Problem of Free Will and Determinism“, da er sich für die Ausarbeitung des vorliegenden Unterkapitels als besonders hilfreich erwiesen hat.53 Das Problem der Willensfreiheit, so wie es traditionellerweise diskutiert wird, besteht meines Erachtens zu einem großen Teil auf einer Sprachverwirrung. Es ist ein Ausläufer des Leib-Seele-Problems, in der es um das Verhältnis zwischen der körperlichen und geistigen Ebene des Menschen geht. So zum Beispiel wird gefragt, in welcher Relation ein Schmerz, den ich empfinde, zu der Wunde an meinem Körper steht. Diese und ähnliche Fragen haben eine lange Tradition in der Philosophie und es wurden verschiedene Antwortmodelle ausgearbeitet. Die Wittgensteinsche Lösung des Problems besteht in der Auflösung der Fragen, indem deutlich gemacht wird, dass Wörter wie ‚Schmerz‘ zwar auf reale Erfahrungen weisen (denn den Schmerz spüre ich ja deutlich), nicht aber auf Gegenstände, so wie das bei den Wörtern ‚Haus‘, ‚Tasse‘ und ‚Buch‘ der Fall ist.54 Es ist die Sprache, die uns eine Falle stellt, und wenn wir in sie hineintappen, ergeben sich philosophische Probleme, die sich bei einem korrekten Verständnis von der Art und Weise, wie Sprache funktioniert, nicht mehr stellen. Die Debatte um die Willensfreiheit ist, wie gesagt, ein Ausläufer des LeibSeele-Problems, insofern hier ebenso unser Innenleben und unsere Handlungen in Gegenstände vereinzelt werden.55 Damit ist der erste Schritt getan, und dieser, so sagt es Wittgenstein,
Doyle (Fn. 47); Westen, Getting the Fly out of the Bottle: The False Problem of Free Will and Determinism, Buffalo Criminal Law Review 8:101–54 (2005). 52 Moritz Schlick, Wann ist der Mensch verantwortlich?, in: Lebensweisheit. Versuch einer Glückseligkeitslehre. Fragen der Ethik, hg. von M. Iven, 2006, Kap. VII; und C. A . Campbell, Is ‚Freewill‘ a Pseudo-Problem?, Mind 60 (1951). 53 Siehe Westen (Fn. 52). 54 Siehe hierzu Hans Julius Schneider, Reden über Inneres. Ein Blick mit Ludwig Wittgenstein auf Gerhard Roth, in: Hirn als Subjekt? Philosophische Grenzfragen der Neurobiologie, hg. von H.-P. Krüger, 2007, 223–240. 55 Siehe hierzu auch Ralf Stoecker, „Wir fühlen uns sozusagen für die Handlung verantwortlich“ – Hilfreiche Anregungen Wittgensteins für die moderne Handlungstheorie, in: Sprachspiele verstrickt – oder: Wie man der Fliege den Ausweg zeigt. Verflechtungen von Wissen und Können, hg. von S. Tolksdorf et al., 2010, 283–300. 51
‚Fragen & Antworten‘ in der Islamischen Theologie
ist der ganz unauffällige. Wir reden von Vorgängen und Zuständen und lassen ihre Natur unentschieden! […] (Der entscheidende Schritt im Taschenspielertrick ist getan, und gerade er erschien uns unschuldig.)56
Im nächsten Schritt werden die verdinglichten Entitäten unseres Innenlebens wie Wille, Motivation, Wunsch, Wissen zu voneinander sauber getrennt existierenden Antezedensbedingungen für eine ebenso dinglich reale Handlung erklärt. Die einen versuchen, sie in ein kausal ausgerichtetes Beziehungsgefüge zu bringen, andere vermeiden den Begriff der Kausalität, zumindest den der natürlichen Kausalität. So oder so, das philosophische Problem ist nun geschaffen ohne dabei zu reflektieren, ob denn noch über tatsächliche vorhandene Dinge in der Außenwelt gesprochen wird oder nicht. Der Ausweg daraus, ist sich wieder darauf zu besinnen, wie wir Ausdrücke wie z. B. „wollen“ in der Sprache verwenden und sie nicht in substantivierter Form und fernab vom Sprachgebrauch so zu denken, als verwiesen sie auf Gegenstände in der Welt.57 Eine weitere Falle besteht darin, dass regulative Ideen unserer Weltbilder bzw. tiefengrammatische Elemente unserer Sprachspiele, in diesem Fall diejenigen, die die Praxis ‚Naturwissenschaft‘ sowie ‚Moralphilosophie‘ ausmachen, nicht mehr als solche erkannt, sondern zu strukturimmanenten Bestandteilen der Welt, so wie sie an sich ist, erklärt werden. Wenn gesagt wird „Der Wind war so stark, dass der Baum umfallen musste“, ist damit dann eine irgendwie geartete metaphysische Notwendigkeit oder eine kausale Determiniertheit impliziert in der Beziehung zwischen dem Wind und dem Umfallen des Baumes an? Das entspricht sicherlich nicht dem Sprachgebrauch des Wortes „müssen“. Es kann mehrere Gründe geben, wieso man einen solchen Satz sagt. Vielleicht möchte man damit nur zum Ausdruck bringen, dass man sich nicht darüber wundern sollte, dass der Baum umgefallen ist, es sich also um ein Ereignis handelt, das zu erwarten war. Das Konzept des kausalen Determinismus, mit dem eine ihm eigene Gebrauchsmöglichkeit von „müssen“ im Sinne einer metaphysischen Notwendigkeit entsteht, entstammt nicht unserem Sprachgebrauch, sondern ist vielmehr als eine regulative Idee in den Naturwissenschaften zu begreifen, und zwar nicht in jeder der möglichen Naturwissenschaften, sondern in der historisch gewachsenen Form heutiger Naturwissenschaften. Das will heißen, dass man als Naturwissenschaftler/in auch ohne diese regulative Idee auskommen könnte. Tatsächlich hat die Naturwissenschaft ja nicht aufgehört zu existieren, nachdem man zu der Ansicht gekommen ist, dass die regulative Idee von der kausalen Determiniertheit auf der Ebene der Quantenphysik unbrauchbar ist. Die regulative Idee der kausalen Determiniertheit ist selbst auch durch nichts zu beweisen, sie selbst bildet ein Element des Weltbildglaubens mo-
56 57
Ludwig Wittgenstein, Philosophische Untersuchungen, 1953, § 308; runde Klammern im Original. Siehe hierzu die Überlegungen Wittgensteins zum Ausdruck „wollen“ in ebd., § 611 ff.
151
152
Farid Suleiman
derner Wissenschaften.58 Denn auch dann, wenn es möglich wäre, den Ist-Zustand der Welt zu kennen und darauf aufbauend zukünftige Ereignisse vorherzusagen, wäre der kausale Determinismus nicht bestätigt. Auch würde dies nicht beweisen, dass es keinen freien Willen geben kann. Denn alle zukünftigen Ereignisse inkl. der menschlichen Handlungen vorhersagen zu können, ist kein Beweis dafür, dass es eine metaphysische Notwendigkeit gibt, mit der die zukünftigen Ereignisse eintreten. Mit der Rede vom kausalen Determinismus kann sinnvollerweise nichts anderes als der Anspruch auf die Möglichkeit ausgesagt werden, Zukünftiges vorherzusagen. Aus diesem Anspruch folgt aber, wie gesagt, nicht, dass sich das Zukünftige mit Notwendigkeit vollzieht. Auf den guten Engel, den wir nach Wittgenstein selbst beim Betreiben der Mathematik benötigen,59 muss also auch die allwissende Person bei der Vorhersage der Zukunft vertrauen. Die historisch gewachsene regulative Idee von einem kausalen Determinismus, der wie ein allesdurchdringender Herrscher die Welt mit dem Säbel der Notwendigkeit regiert, mag Naturwissenschaftler/innen zu mehr Herzensruhe verhelfen, als dies der eben besagte Engel vermag, jedoch als Grundlage dafür, Existenzaussagen über ein anderes metaphysisches Konzept zu machen, nämlich das der Willensfreiheit, geht es über das, was es leisten kann, hinaus. Erweitert man das Begriffsinventar physikalischer Theorien aufbauend auf den Entwicklungen in der Quantenphysik um den des „absoluten Zufalls“, so hat man nur eine weitere regulative Idee eingeführt, die sich von der Art und Weise, wie wir das Wort ‚Zufall‘ gebrauchen, unterscheidet. Ich weiß, was jemand meint, wenn er sagt, er habe seinen Freund zufällig in der Stadt getroffen. Was aber genau ist gemeint, wenn gesagt wird, dass der Zerfallsvorgang eines Atomkerns auf zufällige Weise vonstattengeht? Gibt es irgendwo einen Zufall, der auf den Atomkern einwirkt, oder möchte man damit eigentlich nicht mehr sagen, als dass wir keine Vorhersage über den genauen Ablauf des Zerfalls geben können, genauso wie derjenige, der seinen Freund durch Zufall in der Stadt getroffen hatte, keine dem Treffen vorausgehende Erwartung hatte, dem Freund zu begegnen? Sollte mehr hinter dem absoluten Zufall liegen, so erscheint mir auch das wieder lediglich in den Bereich abstrakter Konstrukte zu fallen, die wir vielleicht zur Ordnung unserer Weltbilder brauchen, die aber in die Irre führen, wenn man sie als Entitäten einer Welt, so wie sie an sich ist, ansieht. Den Ursachen und dem Zufall werden nachgesagt, sie regierten dieses oder jenes und doch beschreiben wir damit nichts anderes als uns selbst, insofern wir der Meinung sind, ein bestimmtes Ereignis mit Bestimmtheit vorhersagen zu können oder nicht.
Zum Begriff des Weltbildglaubens bei Wittgenstein siehe Wilheim Lütterfelds, Wittgensteins Weltbild-Glaube. Ein vorrationales Fundament unserer Lebensform?, in: Wittgenstein und der Wiener Kreis, hg. von J. P. Gálvez et al., 1998, 115–152. 59 Ludwig Wittgenstein, Bemerkungen über die Grundlagen der Mathematik, hg. von von Wright et al., 1956, 171 (V, 13). 58
‚Fragen & Antworten‘ in der Islamischen Theologie
Was für den kausalen Determinismus und den absoluten Zufall gilt, lässt sich ebenso auf den Begriff des freien Willens münzen. Zumindest dann, wenn wir den Ausdruck aus den gebräuchlichen Verwendungsweisen herausnehmen und ihn zu einem abstrakt-philosophischen Konzept erheben. Wenn ich in mein Testament schreibe, dass alles, was darinsteht, Ausdruck meines freien Willens ist, ist das sehr wohl verständlich. So möchte ich z. B. damit verneinen, dass ich die Wünsche eines Erbberechtigten nur deshalb im Testament festgehalten habe, weil dieser mir zum Zeitpunkt des Abfassens eine Pistole an meinen Kopf gehalten hat. Wenn nun der Philosoph Robert Kane die menschliche Willensfreiheit mit der Indeterminiertheit einer Entscheidung vor dem Hintergrund verschiedener, sich widersprechender Handlungsmotivationen beschreibt, und dies dann in Analogie mit der Indeterminiertheit von Quantenpartikeln setzt, bevor diese einer Messung unterzogen werden, dann ist hier offensichtlich der Ausdruck Willensfreiheit auf eine Weise verwendet worden, die mit keiner unserer sonstigen Verwendungsweisen in der Sprache in Einklang zu bringen ist.60 So wie der kausale Determinismus und die metaphysische Notwendigkeit, mit der er einhergeht, eine regulative Idee historisch gewachsener Naturwissenschaften ist, ist eine Konzeption von Willensfreiheit, wie sie z. B. Kane erarbeitet, nicht mehr als eine regulative Idee einer historisch gewachsenen Moralphilosophie, die die Willensfreiheit als Voraussetzung für Schuldfähigkeit erachtet. Vergisst man, dass es sich lediglich um regulative Ideen handelt, mag die Willensfreiheitsdebatte als etwas erscheinen, dass sich auf in der Wirklichkeit befindliche Gegenstände bezieht, womit dann verschleiert wird, dass sie lediglich auf der Unvereinbarkeit der Tiefengrammatiken der Sprachspiele ‚Naturwissenschaft‘ und ‚Moralphilosophie‘ besteht. Nun ist es jedoch so, dass wir gute Gründe darin sehen, Bäume nicht zur Rechenschaft zu ziehen, Menschen aber schon. Besteht daher ein substanzieller Unterschied zwischen der Aussage, „der Baum musste umfallen“, und der Aussage, „der Räuber musste die Bank ausrauben (z. B. im Sinne, dass die Gelegenheit so günstig war, dass der Berufskriminelle nicht widerstehen konnte)“? Erst einmal ist darauf zu antworten, dass diese Unterscheidung zwischen dem Baum und dem Räuber hinsichtlich der Befähigung zu Moralität keine notwendige oder in der Natur der Sache liegende Angelegenheit ist. So wurden in früheren Zeiten sehr wohl nichtmenschliche Lebewesen in Gerichtsprozessen verurteilt und entsprechend bestraft. Zum anderen liegt es mit Sicherheit nicht daran, dass wir dem Baum einerseits zuschreiben, Spielball metaphysischer kausaldeterminierender Kräfte zu sein, dem Menschen andererseits einen freien Willen (ebenfalls im metaphysischen Sinne) zuerkennen. Vielen Kulturen haben weder von dem einem, noch von dem anderen entsprechende Konzepte, unterscheiden jedoch nicht anders als wir zwischen dem ‚Verhalten‘ von Bäumen und dem von Menschen.
60
Robert Kane, The Significance of Free Will, 1996, 125–130.
153
154
Farid Suleiman
Zusammenfassend lässt sich sagen, dass die Debatte zur Willensfreiheit aus mindestens zwei Gründen ein Scheinproblem ist, das nicht gelöst, sondern nur aufgelöst werden kann oder aber zumindest modifiziert werden muss. Es ist von seiner Struktur her ähnlich dem des Leib-Seele-Problems, das ebenso als Scheinproblem zu entlarven ist. Das Willensfreiheitsproblem entsteht dann, wenn man Begriffe wie Wille, Motivation, Handlung usw. verdinglicht und miteinander in eine Beziehung zu setzen versucht, die durch regulative Ideen bzw. tiefengrammatische Sprachspielelemente wie der kausalen Determiniertheit, dem absoluten Zufall oder dem freien Willen strukturiert wird. Dann geschieht das, was vor 700 Jahren der muslimische Gelehrte Ibn Taymiyya (gest. 1328), dessen Denken erstaunliche Ähnlichkeiten zu dem von Wittgenstein aufweist, über die Philosophen zu sagen wusste: Zweifellos gibt es einen Unterschied, zwischen dem, was sich in den Köpfen [als bloß Gedachtes] befindet und dem, was [in der Welt] an Einzeldingen existiert. Genau an diesem Punkt vervielfachen sich ihre [d. h. der Philosophen] Fehler, denn sie stellten sich Dinge in ihrem Kopf vor und meinten, dass diese so auch in der Welt als Dinge existieren.61
6. Schluss
Seit etwas mehr als einem Jahrhundert gibt es in der muslimischen Auslegungstradition ein neues Genre, nämlich die sogenannte naturwissenschaftliche Exegese (tafsīr ʿilmī). Die Verfahrensweise dort ist wie folgt: Man versucht herauszufinden, welche Positionen der Koran bezüglich naturwissenschaftlicher Fragestellungen einnimmt und vergleicht diese mit dem Forschungsstand in den modernen Naturwissenschaften, um dann in der Regel zu dem (wenig überraschenden) Ergebnis zu kommen, dass diese sich decken. Der Gedanke dahinter ist, dass Gott als der Schöpfer der Welt, der das Diesseits den Menschen dienstbar gemacht hat und mit seiner Offenbarung Menschen aller Bildungsgrade ansprechen will, es nicht versäumt haben kann, auch naturwissenschaftliche Fragestellungen im Koran zu thematisieren. Weite Teile der muslimischen Gelehrsamkeit stehen diesem Genre ablehnend gegenüber und in der nichtmuslimischen Welt wird er als eine Absurdität belächelt. Das Genre kann als ein Auswuchs des mit dem Kolonialismus in die muslimischen Länder hereindrängenden Wissenschaftsglaubens gesehen werden, aber auch als eine Nachahmung missionarischer Strategien, die in christlich-fundamentalistischen Kreisen verbreitet sind. Aus dieser Perspektive betrachtet, ist dieses Genre eine Pseudoexegese, insofern es dem Koran fälschlicherweise den Anspruch zuschreibt, Fragestellungen zu beantworten,
Ibn Taymiyya, Minhāǧ as-sunna an-nabawiyya fī ar-radd ʿalā aš-šiʿa al-qadariyya, hg. von M. R. Sālim, 2003, Bd. 1, 401. 61
‚Fragen & Antworten‘ in der Islamischen Theologie
die z. B. in der der Embryologie, der Geologie und der Atomphysik aufgeworfen werden.62 Aus meiner Sicht, und das habe ich mit dem vorliegenden Artikel zu untermauern versucht, ist die eben beschriebene Zuschreibung nicht an sich einleuchtender oder absurder, nicht an sich rationaler oder irrationaler, als dem Koran zuzuschreiben, dass er den Anspruch habe Problemstellungen wie z. B. das der Willensfreiheit zu diskutieren und zu beantworten. Ich stimme damit überein, dass die sogenannte naturwissenschaftliche Koranexegese ein Auswuchs der sich globalisierenden Wissenschaftsideologie ist, meine aber dann mit demselben Recht sagen zu können, dass eine Exegese, die den Koran hin auf seinen Standpunkt zur Willensfreiheit befragt, lediglich ein Auswuchs der immens wirkmächtigen Art des Philosophierens griechischer Prägung ist. Die muslimische Rationaltheologie und auch die nichtmuslimische Islamwissenschaft befinden sich beide in einer intellektuellen Tradition, die stark durch das griechische Denken geprägt ist. Die Selbstverständlichkeit, mit der in der Rationaltheologie und in der säkularen Islamwissenschaft Abhandlungen über den koranischen Standpunkt zur Willensfreiheit verfasst werden, ist nicht weniger problematisch als die Selbstverständlichkeit, mit der man in der ‚naturwissenschaftlichen Exegese‘ den Koran Antworten auf z. B. Fragen der Biochemie zu entlocken versucht. Wenn man davon überzeugt ist, dass das Problem der Willensfreiheit eine für die Theologie wichtige Fragestellung ist, so wie das bei manchen vom griechische Denken beeinflussten kalām-Gelehrten und heutigen Orientalisten der Fall ist, dann wird man viele Traktate und Aufsätze zu der Frage schreiben, welche Position der Koran hierbei vertritt. Wenn man die Fragestellung hingegen als ein Pseudoproblem ansieht, das aufgrund fragwürdiger Vorannahmen die Theologie über Jahrhunderte beschäftigt hat, dann wird man die koranischen Stellen, die die Thematik der Willensfreiheit angeblich behandeln, in einem ganz anderen Lichte lesen können. Der Koran selbst sagt an keiner Stelle, dass er die Frage, ob der Mensch einen freien Willen hat oder nicht, aufwerfen und beantworten möchte. Zwar spricht der Koran an vielen Stellen vom Gezwungensein oder vom Wollen. So heißt es z. B., dass wer gezwungen wird (fa-man ukriha), Gott zu lästern und dies dann tut, ohne das aus Überzeugung zu tun, so soll darin keine Sünde sein.63 Dasselbe gilt für den, der aus Not(-wendigkeit) heraus (fa-man iḍṭurra) verbotene Speisen zu sich nimmt, weil er etwa sonst verhungern würde.64 An anderer Stelle heißt es im Koran, wer auch immer den Islam annehmen will (fa-man šāʾa), so soll er dieses tun, und wer auch immer den Islam ablehnen will, so soll er eben jenes tun.65 An keiner Stelle jedoch verwendet der Koran Wörter wie
62 63 64 65
Siehe oben, Fn. 34. Koran 2:173. Koran 16:106. Koran 18:29.
155
156
Farid Suleiman
Zwang, Notwendigkeit oder Wille auf abstrakte Weise, so wie das in der philosophischen Debatte zur Willensfreiheit der Fall ist. Die Selbstverständlichkeit, mit der innerhalb der islamischen Theologie, aber auch innerhalb der säkularen Islamwissenschaft dem Koran zugeschrieben wird, sich zur philosophischen Problemstellung der menschlichen Willensfreiheit geäußert zu haben, ist ein Ausdruck davon, dass die Voraussetzungen dieser Zuschreibung nicht oder nicht ausreichend reflektiert wurden. Farid Suleiman
Theologische Fakultät, Universität Greifswald, Am Rubenowplatz 2/3, 17489 Greifswald
Causa finalis Sind biologische Erklärungen Teil der Naturwissenschaft?
PETER NICK
Abstract: Der Beitrag befasst sich mit der Frage, wie biologische Erklärungen strukturiert sind und
inwiefern sich dies von anderen Naturwissenschaften unterscheidet. Dies wird am Beispiel der Entstehung von biologischen Innovationen (sogenannter Makroevolution) exemplarisch betrachtet.
1.
Worin Biologie anders ist
Wenn wir beschreiben und erklären, setzen wir uns mit der Welt auf wissenschaftliche Weise auseinander. Wir stellen dann einen Bezug zwischen einem Phänomen der empirischen Welt (dem Explanandum) und einer nicht-empirischen Denkfigur (dem Explanans) her. Wir führen das Phänomen auf eine oder mehrere Ursachen zurück, begründen also, warum es uns in dieser Form entgegentritt. Aristoteles hat vier Formen solcher Erklärungen vorgeschlagen, die entweder den Stoff (causa materialis), die Gestalt (causa formalis), die Wirkung (causa efficiens) oder den Zweck (causa finalis) in den Mittelpunkt stellen. Während in den anderen Naturwissenschaften eigentlich nur noch die causa materialis und die causa efficiens herangezogen werden, um Erklärungen anzufertigen, sind in der Biologie die causa formalis (die hier nicht behandelt werden soll) und die causa finalis (worum es hier gehen soll) sehr gängige Formen der Erklärung. Dies geschieht bezeichnenderweise auf der Basis eines deterministischen und vor allem grundsätzlich materialistischen Weltbilds. Während die hier entstehende Diskrepanz im 19. Jahrhundert durchaus empfunden und auch kontrovers ausgetragen wurde (vor allem in der Entwicklungsbiologie an der Grenze zum 20. Jahrhundert), hat man sich in der Biologie inzwischen daran gewöhnt, die causa finalis zwar ständig im Munde zu führen, aber nur selten darüber nachzudenken, dass diese Begründung eigentlich aus dem üblichen naturwissenschaftlichen Erklärungsschema herausfällt.
158
Peter Nick
Die moderne Biologie definiert sich gerne als eine erweiterte und komplexere Variante der Physikochemie, benutzt aber dennoch die causa finalis als zentrale Ursache, um lebende Organismen zu beschreiben und zu erklären. Eigentlich eine milde Form von Schizophrenie, die durchaus eine nähere Betrachtung wert ist. Zunächst wird, stellvertretend für viele andere Fälle, an der Blüte eines Fingerhuts kurz erläutert, in welcher Form hier alle vier aristotelischen Ursachen zur Erklärung eingesetzt werden (Nick und Gutmann 2019): Auf der Unterlippe des Fingerhuts sind sogenannte Saftmale zu finden, pigmentierte Flecken, die ein Staubblatt vortäuschen und einem Bestäuber (in der Regel intelligente Hautflügler wie Bienen oder Hummeln) signalisieren, dass es hier Pollen (eine sehr attraktive Nahrungsquelle) zu holen gibt. Wenn der Bestäuber landet, wird er durch Duftsignale dann zu den Nektardrüsen gelotst und nimmt auf dem Weg den Pollen auf. Der Pollen wird von diesen intelligenten Bestäubern nicht gefressen, sondern „verschont“, weil der Nektar als Belohnung hinreichend ist (Nektar ist für eine Pflanze billiger, da sie aufgrund der Photosynthese in Zucker „schwimmt“, während Pollen als proteinreiches Produkt den für Pflanzen sehr begrenzt vorhandenen bioverfügbaren Stickstoff in Form von Aminogruppen bindet). An diesem Beispiel lassen sich alle vier Aristotelischen Ursachen aufzeigen: die causa formalis, da die Gestalt der Pigmentierung (einem Staubblatt ähnelnd) während der Entwicklung von der Pflanze gesteuert werden muss; die causa materialis, da das Pigment, Anthocyan, aufgrund seiner stofflichen Beschaffenheit grünes Licht absorbiert, rotes Licht jedoch reflektiert, so dass die Saftmale rot erscheinen; die causa efficiens, da Anthocyan über einen komplexen Stoffwechselweg aus der Aminosäure Phenylalanin synthetisiert wird, woran mehrere Enzyme beteiligt sind, die in koordinierter Weise von den entsprechenden Genen gebildet werden müssen; und die causa finalis, da dieses Phänomen den Zweck erfüllt, Bestäuber anzulocken und auf diese Weise den Pollen zur nächsten Blüte zu transportieren. Da Pflanzen selbst unbeweglich sind, nutzen sie – man beachte diese ebenfalls teleologische Redeweise – andere Organismen, um ihre Eigenzwecke (hier die Fortpflanzung) verfolgen zu können. 2.
Causa finalis – Darwins Trick
Lebewesen erscheinen, zumindest auf den ersten Blick, offensichtlich zweckmäßig organisiert. Dies schlägt sich in der typisch biologischen Redeweise nieder, wobei häufig formuliert wird, dass eine bestimmte Struktur oder ein bestimmter Vorgang entstanden sei, „um“ irgendeine Funktion zu erfüllen. „Die Saftmale auf der Unterlippe des Fingerhuts ahmen Staubblätter nach, um so Bienen anzulocken, die dann den Pollen auf andere Individuen übertragen“, „Der Pilzkörper der Honigbiene ist entstanden, um eine Vielzahl von Farben, Mustern und Gerüchen verarbeiten und sich so sehr effizient Blütennektar als neue Nahrungsquelle erschließen zu können“. Solche Formulierungen sind in der Biologie üblich und legen nahe, dass hier eine causa finalis am Werke sei.
Causa finalis
Wenn man einen Biologen auf diesen Punkt hinweist, würde er das übrigens vehement abstreiten – nur um im nächsten Satz in dieselbe Redeweise zurückzufallen. Charles Darwin, der, übrigens nicht als Erster, auf die Zweckmäßigkeit von Lebewesen aufmerksam geworden war, fand hier eine interessante Erklärungsstruktur, indem er die causa finalis gleichsam auf den Kopf stellte und so zu einer causa efficiens machte. Dieser Trick, den er an der Taubenzucht entwickelte (diese Tauben gibt es tatsächlich und lassen sich in London im Museum of Natural History besichtigen), geht so: alle Tauben sind leicht unterschiedlich – manche haben einen ausgeprägteren Kropf, andere einen leichten Schopf, die dritten einen größeren Schweif (Darwin 1859a, 1868). Wenn nun der Züchter zwei Tauben mit einem ausgeprägten Kropf verpaart, werden beide diese Eigenschaft an die nächste Generation weitergeben, so dass die Nachkommen, allesamt etwas ausgeprägtere Kröpfe entwickeln, auch wenn sie dieses Merkmal wieder in unterschiedlichem Grad aufweisen. Werden nun unter diesen Nachkommen wiederum die Individuen mit dem größten Kropf verpaart, wird dieses Merkmal über die Generationen hinweg immer stärker werden. In der Tat belegen Darwins ausgestopfte Tauben im Museum of Natural History, dass schon nach vier Generationen Tauben herauskamen, die von der Ursprungsform völlig verschieden waren. Darwin verallgemeinerte nun dieses Beispiel auf „die Natur“. Die „Zuchtwahl“ (selection) wurde nun eben nicht bewusst von einem Züchter vollzogen, sondern auf natürliche Weise durch die Umweltbedingungen. Diejenigen Individuen, die besser mit den jeweiligen Bedingungen zurechtkommen, sind gleichsam diejenigen, die von „der Natur zur Züchtung zugelassen“ werden und dann die Eigenschaft, die für dieses bessere Überleben relevant ist, weitergeben und über die Generationen hinweg verstärken. Das Geniale an dieser Denkfigur war, dass man die causa finalis nun durch eine causa efficiens (die Umweltbedingungen bewirken, dass nur bestimmte Individuen zur Paarung kommen, weil sie die anderen, weniger gut angepassten, ausmerzen) ersetzt hatte. Darwin war ja durchaus nicht der Erste, der die Artkonstanz (Arten sind von Gott geschaffen und ändern sich nicht) in Frage gestellt hatte – das war schon 50 Jahre zuvor von Jean Baptiste Lamarck in seiner Philosophie Zoologique (1809) formuliert worden. Freilich musste Lamarck noch auf eine causa finalis, den Vervollkommnungstrieb zurückgreifen, um die Veränderung der Arten zu erklären. Der Enthusiasmus, den Darwins Denkfigur auslöste, ist verständlich – damit war die Biologie in den Schoß der Naturwissenschaften zurückgeführt und die Zweckmäßigkeit ohne Zuhilfenahme metaphysischer Kräfte erklärbar und dies auf sehr elegante Weise auf der Grundlage von nur drei Annahmen: (1) Individuen sind nicht einheitlich, (2) Diese Verschiedenheit wird vererbt, (3) Abhängig davon, wie gut diese Verschiedenheit in die jeweilige Umwelt „hineinpasst“ (fit in) ist der Erfolg der Fortpflanzung und damit die Reproduktion der jeweiligen Verschiedenheit mehr oder weniger ausgeprägt. Diese Denkfigur funktioniert selbst dann sehr gut, wenn man keine Ahnung von den zugrundeliegenden Mechanismen hat. Weder wusste Darwin etwas von Mutationen und sexueller Rekombination, mit denen die Verschiedenheit inzwischen
159
160
Peter Nick
erklärt wird, noch hatte er eine korrekte Vorstellung vom Vorgang der Vererbung (in der Tat folgte Darwin lamarckistischen Vorstellungen). Ebensowenig wusste er etwas von Genen oder gar von DNS. Interessanterweise wurde die Darwinsche Erklärung hundert Jahre lang erfolgreich eingesetzt, ohne dass diese Fragen auch nur ansatzweise geklärt waren. Daran kann man sehen, dass diese Art von Erklärung von den Details vollkommen abgekoppelt werden kann und dennoch sehr gut funktioniert. 3.
Makroevolution – Darwins blinder Fleck
Darwins Erklärung ist stark von der Denkschule des Gradualismus geprägt, vermutlich durch den Einfluss seines Geologen-Freunds Charles Lyell, der betonte, dass die Natur keine Sprünge mache, und dass jede Veränderung darum in kleinen Schritten erfolge. Auch in der Biologie galt Linnaeums Satz „natura non facit saltús“ (1751) als unumstritten. Auch wenn dieser Satz sich auf auf die Unveränderbarkeit von Arten bezog, was ja von Darwin gerade in Frage gestellt wurde, verstand Darwin den Artwandel als kontinuierliche Veränderung, die sich in kleinen Schritten, also ohne Sprünge vollziehe: „I have called this principle, by which each slight variation, if useful, is preserved, by the term of Natural Selection, in order to mark its relation to man’s power of selection“ (Darwin 1859b). Genau hier liegt Darwins blinder Fleck: Zwar lässt sich über kleine Schritte durch Variation und Zuchtwahl ein hypertropher Taubenkropf aus einem solchen normaler Größe ableiten, wie aber ein Taubenkropf als neue Struktur entsteht, wird so nicht verständlich. Egal, ob es sich um ein neues Organ handelt, einen neuen Stoffwechselweg oder eine neue Art von Verhalten – es ist schwer zu verstehen, wie dies durch zufällige Variation quasi aus dem Nichts entstanden sein und von Anfang an einen selektiven Vorteil gebracht haben soll. Und ohne selektiven Vorteil wäre das Neue nicht beibehalten worden, sondern sogleich wieder verschwunden. Ebensowenig lässt sich verstehen, wie eine vorhandene Struktur sich in kleinen Schritten in eine neue Struktur mit völlig anderer Funktion umwandeln lassen sollte. Darwin fühlte dieses Manko durchaus und forderte daher die Existenz sogenannter missing links, die als Mosaik noch alte und schon neue Merkmale beinhalten sollten. Das Fossil des Urvogels Archaeopteryx, 1874 von dem Bauer Achim Niemeyer in Eichstätt entdeckt und für eine Kuh im Werte von 150 Goldmark eingetauscht, wurde aus eben diesem Grund zu einer Ikone der Evolutionsbiologie: Hier fanden sich neue Merkmale (Federn) gemeinsam mit alten (ein Maul mit Zähnen). Freilich wirft dieses missing link mehr Fragen auf als es beantwortet – eine Feder ist ja selbst schon eine außerordentlich komplexe Struktur, die erst entstanden sein muss, bevor ein Nutzen dieser Feder für die neue Bewegungsart des Fliegens überhaupt vorstellbar war. Welche Selektionsvorteile haben also diese Vorformen der Feder begünstigt und stabil gehalten? Für 150 Goldmark ist die Absolution von Darwins blindem Fleck also nicht zu bekommen.
Causa finalis
Das Problem wird noch zugespitzt, wenn eine Struktur, die in sehr vollkommener Weise eine bestimmte Funktion erfüllt, sich so umwandelt, dass sie nun eine andere Funktion, auf ebenso vollkommene Weise, ausüben kann, wenn sich also die causa finalis verschiebt. Hier muss es Zwischenformen geben, die hinsichtlich der ursprünglichen Funktion nicht besser, sondern schlechter sind. Hat hier die Evolution dann „wegen Umbau geschlossen“? Natürlich nicht. Jeder einzelne Schritt des Übergangs muss nicht nur in sich selbst funktional bleiben, sondern seine Funktion auch noch so erfüllen, dass in der Summe ein Selektionsvorteil herausspringt. Für diesen, vielleicht etwas abstrakt anmutenden, Fall gibt es zahlreiche Beispiele. Herausgegriffen sei eines, was den Autor während seiner Studienzeit sehr beschäftigte, weil er darauf von einer Koryphäe der Evolutionsbiologie, Prof. Osche in Freiburg, nur oberflächliche und ausweichende Antworten bekam: es geht um das Halteorgan des Schiffhalterfisches, ein sehr komplexes Gebilde mit vielen kleinen Knochenbälkchen und Hautlappen, die durch Kontraktion der Muskeln ein Vakuum erzeugen, so dass dieser Fisch sich an großen Vehikeln wie Haien, Walen oder später Schiffen, anheften und so über große Strecken wandern kann ohne dafür auch nur die geringste Energie aufwenden zu müssen. Der Selektionsvorteil liegt also auf der Hand. Weniger auf der Hand liegt der Weg, wie dieses komplexe Organ in kleinen Schritten entstanden sein soll; denn der Ausgangspunkt ist die Rückenfinne der Stammform des Schiffhalters, der Goldmakrele, die mit dieser Rückenfinne außerordentlich wendig und schnell den Attacken von Räubern ausweichen kann. Eine Goldmakrele, deren Rückenfinne verkürzt wäre, wäre daher sehr bald eine tote Goldmakrele, ihre Gene trügen also nicht zur Abstammungslinie des Schiffhalters bei. Wie haben es also diese Übergangsformen, die weder gut schwimmen, noch gut saugen konnten, durch dieses selektive Interregnum geschafft? Es sind genau solche Fälle, wo eine Komplexität als „nicht reduzierbar“ erscheint, bei denen Darwins Erklärung nicht gut funktioniert. Genau in diese wunde Flanke der Darwinschen Theorie zielen die intellektuell daherkommenden Versionen des Kreationismus, die als sogenanntes Intelligent Design nicht nur in den USA immer mehr Anhänger finden. Solche Fälle „nicht reduzierbarer“ Komplexität werden in dieser Denkschule im Sinne von „nicht auf eine Erklärung reduzierbar“ dargestellt und als sogenannte intelligence marks eines absichtsvollen Schöpfungsaktes gedeutet. Die Auseinandersetzung mit Anhängern des Intelligent Design ist außerordentlich mühsam. Zum einen sind Halbwahrheiten deutlich schwerer zu widerlegen als blanke Lügen, zum andern treffen hier Sichtweisen aufeinander, die komplementär sind. Letztendlich ist es ein Setzungsakt, ob man versuchen will, das Problem der Makroevolution auf der Grundlage der Evolutionstheorie zu erklären, oder ob man dieses Problem als Beleg dafür heranzieht, dass die Evolutionstheorie hier nicht funktioniert. Wir bewegen uns hier also auf der dritten Ebene der Erklärung, wo man allenfalls versuchen kann, Inkonsistenzen in der Argumentationskette von Intelligent Design sichtbar zu machen (die gibt es durchaus, die gibt es leider aber auch auf der Seite der Darwinschen Theo-
161
162
Peter Nick
rie). Überzeugen lässt sich ein eingefleischter Anhänger des Intelligent Design nicht, ebensowenig wie man Wunder wissenschaftlich beweisen oder widerlegen kann. Es ist weit fruchtbarer, den Kernpunkt des Intelligent Design, die Makroevolution, nicht verschämt unter den Teppich zu kehren, wie es in der Evolutionsbiologie gerne geschieht, sondern Intelligent Design als Stachel im Fleische der Darwinschen Theorie zu begreifen und nach Wegen zu suchen, wie man „nicht reduzierbare Komplexität“ zwar nicht reduzieren, aber doch im Einklang mit der Darwinschen Erzählung erklären kann. 4.
Die Rede von der Präadaptation
Was ist das eigentliche logische Problem der Makroevolution? Das Problem besteht darin, dass ein Merkmal entsteht und stabil bleibt, obwohl es (noch) gar keinen Selektionsvorteil bringt. Dieser entsteht erst Generationen später, wenn andere Strukturen oder Funktionen hinzutreten und so dem schon vorhandenen Merkmal „einen Sinn verleihen“. Für dieses Phänomen wurde von dem französischen Zoologen und Genetiker Lucien Cuénot (1901) der Begriff „préadaptation“ geprägt. Dieser Begriff trägt eine stark teleologische Färbung, weshalb Gould und Vrba (1982) hierfür den weniger belasteten Term Exaptation vorschlugen, der sich aber nicht wirklich durchgesetzt hat. Der Begriff Präadaptation legt nahe, dass ein Merkmal gewissermaßen eine „Voranpassung“ an etwas ist, was erst in der Zukunft Wirklichkeit werden wird und impliziert daher, dass hier eine causa finalis am Werke sei. Freilich ist das nicht zwingend, wie schon Darwin selbst am Beispiel der Fissuren des Säugetierschädels diskutiert The sutures in the skulls of young mammals have been advanced as a beautiful adaptation for aiding parturition, and no doubt they facilitate, or may be indispensable for this act; but as sutures occur in the skulls of young birds and reptiles, which have only to escape from a broken egg, we may infer that this structure has arisen from the laws of growth, and has been taken advantage of in the parturition of the higher animals (Darwin 1859c).
In diesem Beispiel ist die Struktur (the sutures in the skulls) zunächst einmal eine Konsequenz der „laws of growth“, womit gemeint ist, dass eine Schädelstruktur, die noch wachsen muss, nicht vollständig verknöchert sein kann. Die noch lange flexibel bleibenden Fissuren des Vertebratenschädels stehen hier also im funktionellen Kontext der von einem wachsenden Organ benötigten Flexibilität. Später, im funktionellen Kontext der Säugetier-Geburt bringt diese Flexibilität noch einen weiteren Vorteil, wenn der Schädel des Jungtiers sich leichter an den engen Geburtskanal anpassen kann. Diese „Präadaptation“ war natürlich bei Reptilien und Vögeln noch nicht „vorgesehen“. Präadaptation hängt also mit einem Funktionswechsel zusammen und hat also mehr mit dem Kontext einer Lebensform zu tun als mit ihrer genetischen Konstitution. Ein- und dieselbe Struktur kann also unterschiedliche Zwecke erfüllen, je nach
Causa finalis
dem, in welchen funktionellen Kontext diese Struktur gerückt wird. Dieser Punkt wird unten noch einmal thematisiert werden. Um auf das anfängliche Beispiel des Fingerhuts zurückzukommen, erscheint hier die Synthese des anlockenden Farbstoffs Anthocyan als ein Fall von „nicht-reduzierbarer Komplexität“. Wie soll man sich erklären, dass ein solch komplexer Weg schrittweise entstanden sein sollte, wenn er ohne die Existenz einer Blüte (ebenfalls eine komplexe Struktur) den Zweck der Bestäubung gar nicht erfüllen kann? Die Denkfigur der Exaption lässt sich jedoch auch auf dieses Beispiel sehr gut anwenden: die Anthocyane entstehen nämlich als Endprodukte des sogenannten Flavonoidwegs. Flavonoide sind Sekundärstoffe, die sehr gut UV-Licht absorbieren können, stellen also eine Art „Sonnenbrille der Pflanze“ dar. Als vor etwa 500 Millionen Jahren die ersten Pflanzen das feste Land eroberten (und damit übrigens auch für unsere Lebensform, die Tiere, zugänglich machten), war die UV-B Strahlung ein schwerwiegendes Problem, weil sie Zellschäden (unter anderem Veränderungen der DNS-Sequenz) auslöst. Die Bildung von UV-absorbierenden Substanzen stellte daher einen großen Selektionsvorteil dar. Wenn solche Flavonoide mit den durch UV-B entstandenen reaktiven Sauerstoffspezies interagieren, können sie zu größeren Ringmolekülen abreagieren, den Anthocyanen. Die Rotfärbung war also gleichsam ein „Abfallprodukt“, das beim Abfangen von UV-Licht entstand. Die Keimzellen wurden durch einen besonders hohen Gehalt an solchen Flavonoiden geschützt – der Selektionsvorteil liegt auf der Hand; ein solcher Schutz verbessert die Qualität des Vererbungsprozesses. Aus diesem Grund verfärbt sich vor allem auch das Gewebe in der Nähe der Keimzellen besonders schnell und stark rot. Nun kommt der Funktionswechsel: in dem Augenblick, da ein nahrungssuchendes, primitives Insekt (vermutlich ein Käfer) durch diese rote Färbung angelockt wurde und hier auf eine attraktive Nahrungsquelle (Pollen) traf, änderte sich der funktionelle Kontext des Anthocyans. Aus einem Abfallprodukt des UV-Schutzes verwandelte es sich zum entscheidenden Faktor für die Anlockung von Bestäuberinsekten. Genetisch ist hier nicht viel passiert – die Veränderung liegt eigentlich außerhalb der Pflanze selbst, nämlich in einer neuen Wechselwirkung mit ihrer Umwelt (dem bestäubenden Käfer). Da beide Seiten von dieser neuen Wechselwirkung profitieren (der Käfer hat eine neue Nahrungsquelle erschlossen, die seinen Mitkäfern nicht zur Verfügung steht), entsteht nun eine gemeinsame evolutionäre Geschichte, wobei auf der Seite der Pflanzen der „teure“ Pollen durch „billigen“ Nektar ersetzt wird, während auf der Seite der Insekten die „tumben“ Käfer durch „intelligente“ Hautflügler ersetzt werden, die eine Vielzahl von Formen und Farben unterscheiden und sich so exklusive Nahrungsquellen erschließen können (die Salbeiblüte ist so geformt, dass nur noch Hummeln und Bienen an den Nektar gelangen – die Fähigkeit, eine Salbeiblüte zu erkennen, bringt also einen handfesten Fortpflanzungsvorteil). Für das oben genannte Beispiel des Schiffshalters ließ sich das Problem des Verfassers übrigens ebenfalls durch einen solchen Funktionswechsel erklären: In einem Schweizer Museum wurde 2008 ein Fossil des Fisches Opisthomyzon entdeckt, der
163
164
Peter Nick
vor etwa 30 Millionen Jahren lebte und eine Übergangsform auf dem Weg von der Rückenflosse der Goldmakrele zum Halteorgan des Schiffshalters aufweist (Britz und Johnson 2012): Hier ist eine Strebe der Rückenfinne zu einem Dorn ausgebildet. Man vermutet, dass diese Zwischenform sich mit diesem Dorn an Trägerfischen festhaken und so „per Anhalter“ mitreisen konnte. Damit verschob sich der funktionelle Kontext der Rückenflosse, der ursprüngliche Selektionsdruck (optimale Steuerung des freien Schwimmens) wich einem neuen Selektionsdruck (festere und steuerbare Anheftung an einen Trägerfisch). Genetisch lässt sich eine solche hypertrophe Strebe leicht erklären – es genügt, dass durch eine Mutation in einer Steuersequenz (Promotor) eines am Knochenwachstum beteiligten Gens dieses Gen für negative Regulatoren (die das Längenwachstum begrenzen) weniger empfindlich wird, weil der entsprechende Regulator weniger gut binden kann. Das hätte zur Folge, dass diese Strebe ungebremst weiterwächst, wodurch ein Dorn entstünde. Die Denkfigur der Exaptation rückt also die Makroevolution in die Sphäre des funktionellen Zusammenhangs einer Lebensform mit ihrer Umwelt. Wenn sich die Umwelt ändert, ändert sich dieser Zusammenhang, auch wenn sich die genetische Konstitution der Lebensform wenig oder gar nicht ändert. Damit entfällt auch die Forderung, dass Makroevolution mit umfangreichen genetischen Änderungen einhergehen müsse. Muss sie nämlich gar nicht und tut sie zumeist auch gar nicht. Das Problem der „nichtreduzierbaren Komplexität“ verwandelt sich dadurch in ein Problem der „flexiblen Änderung von Funktionen“ und dieses Problem ist durchaus mit dem Werkzeugkasten der Biologie zu bewältigen. Es würde den funktionellen Kontext dieser Tagung sprengen, dies im Einzelnen auszuführen. Daher seien beispielhaft zwei Elemente dieses Werkzeugkastens herausgegriffen: Modularität und Basteln als wichtige Elemente evolutionären Wandels. 5.
Ausweg 1: Natur spielt LEGO
Makroevolution wird auch deshalb als schwer erklärbar gesehen, weil hier die implizite Annahme mitschwingt, dass große Veränderungen der Gestalt mit Änderungen in vielen Genen einhergehen müssten. Darwins Taubenzüchter müsste daher nicht nur die Variation ganzer Genkomplexe in die Zuchtwahl mit einbringen, sondern erst einmal auf solche günstigen Kombinationen zugreifen können. Da die Häufigkeit von bestimmten Kombinationen für mehrere Gene einer Binomialfunktion folgt und daher für zunehmende Genzahlen immer unwahrscheinlicher wird, gelangt man dann schnell zu dem Thomas Henry Huxley zugeschriebenen Bild des zufällig tippenden Affen (der Satz wurde so vermutlich nie gesagt): Six eternal apes, randomly striking the keys of six eternal typewriters with unlimited amounts of paper and ink would be able to produce Shakespearean sonnets, complete
Causa finalis
books, and the 23rd Psalm. In the same way, molecular movement, given enough time and matter, could produce Bishop Wilberforce himself, purely by chance and without the work of any Designer or Creator.
Diese implizite Annahme ist jedoch falsch und daher brauchen wir keinen „eternal ape“ – das Shakespearsche Sonnett besteht nämlich nicht aus zufällig zusammengestellten Einzelbuchstaben, sondern aus Worten, die als Ganzes reproduziert und dabei abgewandelt werden. Die Worte, um in der Metapher zu bleiben, sind Module, also in sich geschlossene und recht robuste Einheiten, die wiederholt und abgewandelt werden. Die Modularität alles Lebenden zeigt sich nicht nur auf struktureller Ebene, sondern auch auf der Ebene der Aktivität. Einige Beispiele: – Die gesamte Vielfalt von Arthropoden-Bauplänen lässt sich durch rhythmische Wiederholung und Abwandlung von Segmenten beschreiben, wobei an jedem Segment andere Anhängsel (etwa Beine, Antennen oder Mundwerkzeuge) ausgeformt sind. – Die gesamte Vielfalt von Wirbeltier-Gliedmaßen lässt sich durch rhythmische Wiederholung und Abwandlung von Fingergliedern beschreiben, die unterschiedlich stark ausgebildet werden – der Fledermausflügel entsteht so über eine Verlängerung der Finger, zwischen denen die Haut aufgespannt ist, der Flügel eines Flugsauriers gar nur über Verlängerung eines einzigen Fingers, der Pferdehuf über eine Verlängerung des Mittelfingers. – Die gesamte Vielfalt von Landpflanzen lässt sich durch rhythmische Wiederholung und Abwandlung modularer Bausteine (Telome) beschreiben, die jeweils aus einer verholzten Gefäßröhre bestehen, die von Grundgewebe umgeben und durch eine wasserdichte Epidermis abgeschlossen wird. – Die gesamte Vielfalt der Angiospermenblüten lässt sich durch rhythmische Wiederholung und Abwandlung von Blättern beschreiben, die in Wirteln angeordnet und unterschiedlich ausdifferenziert sind. Genetisch sind hier nur drei Genschalter, die sogenannten ABC-Gene, von Belang, die kombinatorisch festlegen, welches Blütenorgan sich aus einer auswachsenden Blattanlage entwickeln kann. – Die Entstehung dieser modularen Bausteine ist wiederum die Manifestation rhythmischer Aktivität: die Insektensegmente entstehen durch Gradienten von Transkriptionsfaktoren (Proteinen, die Gene aktivieren können), wodurch wiederum die Entstehung neuer Gradienten bewirkt wird, ähnlich wird die unterschiedliche Ausprägung von Blättern zu Blütenorganen durch ein zeitliches Muster von ähnlichen Genschaltern geregelt (Gutmann und Nick, 2019). Die Details tun in diesem Zusammenhang nichts zur Sache – viele sind auf molekularer Ebene schon recht gut verstanden, andere weniger. Wichtig ist dabei, dass mit
165
166
Peter Nick
relativ geringen und „unspektakulären“ genetischen Veränderungen relativ große und „spektakuläre“ Veränderungen des Bauplans erzeugt werden können. Ob ein Insekt mit sechs oder ein Krebs mit zehn Beinen entsteht, hängt davon ab, wie oft eine solche modulare Aktivität wiederholt wird und dies hat häufig damit zu tun, wie schnell und wie stark das entsprechende Schalterprotein gebildet wird. Selbst einzelne Punktmutationen können hier relevant werden, weil dadurch die Bindung von steuernden Proteinen an die Steuerregion solcher Proteine verändert wird. Durch die Modularität (die rhythmische Wiederholung von Aktivitäten) lässt sich also mit recht wenig Genetik sehr viel Morphologie erzeugen. Wenn nun die zeitliche Ordnung solcher Aktivitäten wiederum neue morphogenetische Aktivitäten bedingen, kann sogar eine leichte Verschiebung von zwei Entwicklungsvorgängen zu drastisch veränderten Phänotypen führen (sogenannte Heterochronie). Bekannte Beispiele sind der Axolotl (eigentlich ein vorzeitig geschlechtsreif gewordener Amphibienembryo), die Entstehung von Lilienblüten durch vorzeitige Aktivierung der BGene oder der als zunächst als neue Art beschriebene Skye-Ökotyp der Modellpflanze Arabidopsis thaliana, der später als heterochrone „Makromutante“ erkannt wurde. Hier führten zwei sehr unscheinbare Mutationen in zwei Genen, die den Blühzeitpunkt bestimmen, dazu, dass die Entwicklung von Blattrosetten (sonst bei der Induktion der Blüte inaktiviert) weiterläuft, so dass ein monströses Gebilde entsteht, bei dem kleine Tochterpflänzchen über sogenannte Viviparie in den Achseln der Blütenknospen auswachsen und später abfallen, was im kurzen Sommer der Äußeren Hebriden ein entscheidender Selektionsvorteil ist (Grbić and Bleecker, 1996). Das grundlegendste biologische Modul ist die Zelle. Wie von dem Botaniker Matthias Schleiden (1838) gemeinsam mit seinem Freund, dem Zoologen Theodor Schwann (1839) erkannt und als sogenannte Zelltheorie formuliert, sind alle Lebensformen aus Zellen aufgebaut, die sich in vielen Eigenschaften ähneln. Die rhythmische Folge von Wachstum, Verdopplung der DNS und deren symmetrische Verteilung auf zwei sich trennende Tochterzellen wird so zur modularen Aktivität schlechthin, aus der alle Lebensformen hervorgehen. Die Natur spielt also LEGO durch rhythmische Wiederholung robuster (und genetisch konservierter) Aktivitätsmuster, die zeitlich gegeneinander verschoben oder auch während ihrer Ausprägung abgewandelt werden können. Diese Verschiebungen oder Abwandlungen sind eigentlich das Gegenteil genetischer Kontrolle, vielmehr ist die genetische Kontrolle hier eher permissiv und greift lediglich in Form einer recht lockeren Kanalisierung in Selbstorganisationsprozesse ein. Damit wird die ganze Vorstellung einer sehr komplexen und sehr streng auszuführenden genetischen Kontrolle, die natürlich nur schwer in Darwinschen kleinen Schritten zu haben ist, auf den Kopf gestellt: Makroevolution entsteht also eher aus zu wenig, nicht aus zu viel Genetik.
Causa finalis
6.
Ausweg 2: L’evolution – c’est bricolage
Es ist also gerade das Nicht-Bestimmte, das „Wackelnde“ modularer Aktivität, was die Evolution neuer Baupläne durch veränderte zeitliche Muster erlaubt. Dieses „evolutionäre Wackeln“ zeigt sich auch auf der Ebene der Funktion. Biologische Strukturen sind nämlich nicht auf eine einzige Funktion hin entstanden, sondern können in der Regel unterschiedliche Funktionen ausüben. Die causa finalis muss also durch mehrere und teilweise recht diverse causae ersetzt werden. Biologische Strukturen sind also gewöhnlich eierlegende Wollmilchsäue und damit fast immer weiter entfernt von einer optimalen Beziehung zwischen Struktur und Funktion, was Jacob in seinem sehr lesenswerten und tiefgründigen Aufsatz „Nature as Tinkerer“ eindrücklich ausgeführt hat: „It is always a matter of using the same elements, of adjusting them, of altering here or there, of arranging various combinations to produce new objects of increasing complexity. It is always a matter of tinkering.“ ( Jacob 1977). Das Geschick eines Bastlers wird durch zwei Fähigkeiten bestimmt: 1. Wie innovativ ist er dabei, Vorhandenes auf neue Weise zu verbinden? 2. Wie organisch und bündig kann er den Raum zwischen den kombinierten Elementen verfugen? Hier kommt nun die Multi-Funktionalität aller durch Evolution entstandenen Strukturen zum Tragen: da viele, teilweise sogar widersprüchliche Selektionsdrücke herrschen, ist eine biologische Struktur immer ein Kompromiss aus verschiedenen Anforderungen. Es gibt zahlreiche, auch auf molekularer Ebene verstandene, Beispiele für „evolutionäres Gebastel“. So akzeptieren viele Enzyme neben ihrem „angestammten“ Substrat auch andere, ähnliche, Moleküle, freilich mit geringerer Effizienz. Unter Normalbedingungen wird also eine, die „angestammte“, Reaktion vorherrschen, wenn jedoch aufgrund veränderter Umstände, konkurrierende Substrate die Oberhand gewinnen, kann diese „Schattenfunktion“ des Enzyms plötzlich an die Stelle der „angestammten“ Reaktion treten. Das so erzeugte veränderte Produkt kann dann wiederum die stromab wirkenden Enzyme dazu führen, ebenfalls bislang nicht beobachtete „Schattenfunktionen“ zu entfalten. Vor allem beim pflanzlichen Sekundärstoffwechsel (der unter anderem für die eingangs erwähnte Fingerhutblüte relevant ist) ist es ein häufiges Phänomen, dass eine kleine genetische Veränderung in einem bestimmten Enzym ein ganzes Bouquet neuartiger, vorher in dieser Pflanze nicht gefundenen, Stoffe hervorbringt. Man spricht in solchen Fällen von „moonlighting“ (engl. für Schwarzarbeit). Inzwischen finden sich immer mehr Fälle, wo Proteine, denen man nie so richtig eine klare Funktion zuordnen konnte, die also notorische „Schwarzarbeiter“ sind, abhängig von ihren unterschiedlichen Bindepartnern völlig unterschiedliche Funktionen ausüben können. Hier hat man also das molekulare Korrelat der wandelbaren Fügemasse, die für erfolgreiches Basteln unverzichtbar ist. Eine evolutiv entstandene Struktur ist also nie wirklich für eine einzige Funktion optimiert, sondern immer nur für eine Gemengelage mehrerer Funktionen. Sie oszilliert dabei immer um dieses Optimum, erreicht es aber nie vollständig – weil lebende
167
168
Peter Nick
Organismen eben dynamische Systeme in einer dynamischen Umwelt sind. Genau diese Oszillation schafft das „Spiel“ (im Sinne des mechanischen Spiels einer schlecht sitzenden Schraube), welches das Basteln erleichtert. Es ist gerade das Unvollkommene lebender Systeme, was sie zum erfolgreichen Basteln prädestiniert. Vollkommenes ist nicht verwandelbar, Verwandlung ist aber der Kern von allem, was lebt. Genetischer Determinismus, also die Vorstellung, dass „die Gene“ haarklein alle Details einer Lebensform bestimmen, ist daher nicht nur aus ökonomischen Gründen keine sehr überzeugende Idee, sondern seinem Wesen nach zutiefst „unbiologisch“ – hier wären wir vermutlich wieder bei der dritten Ebene von Erklärung angelangt. 7.
Epilog: Daimler gegen Tinguely – oder: warum Ingenieure Biologie nicht verstehen
In seinem Buch La pensée sauvage (1962) stellt Claude Lévi-Strauss den ingenieur dem bricoleur entgegen. Während der ingenieur ausgehend von einem rational durchdachten Plan de novo nach rationalen Überlegungen vorgeht, arbeitet der bricoleur mit dem, was er vorfindet und fügt dies improvisierend zusammen und zwar bezeichnenderweise so, dass diese Bausteine ihrem ursprünglichen Zweck entrückt und in einen neuen Funktionszusammenhang gestellt werden. Diese Metapher des bricoleur, von Lévi-Strauss zur Erklärung der unterschiedlichen Sichtweisen westlicher und „primitiver“ Kulturen entwickelt, prägte Jacobs Vorstellung, dass Natur über Gebastel funktioniere. Diese Metapher ist sehr fruchtbar – ein de novo kann es in der Evolution ja nicht geben, jede Übergangsform muss, wie oben ausgeführt, funktional sein und sich gegenüber der Selektion behaupten, dies wird dadurch ermöglicht, dass die Module, aus denen Baupläne entstehen (diese Module sind wohlgemerkt eigentlich rhythmisch wiederholte Aktivitäten, die auf den Raum projiziert werden) in sich selber funktional bleiben, auch wenn sie in einen neuen funktionalen Kontext gerückt werden. Gleichzeitig lassen diese Module verschiedene Funktionen zu – weil eben diese Funktion erst aus dem jeweiligen Kontext entsteht. Die causa finalis existiert also nicht a priori, sondern sie entsteht als Emergenz aus modularer Struktur und Umweltbedingungen, also a posteriori. Genau an diesem Punkt unterscheidet sich die Biologie diametral vom Ingenieurwesen. Der Ingenieur versucht nämlich, auf rationale Weise und einem möglichst geraden Weg, einen zuvor entworfenen Plan (design) zu verwirklichen. Hier wirkt also eigentlich die causa finalis in reinster Form. Der evolutive Weg zu einer neuen biologischen Funktion ist dagegen weder rational, noch gerade, noch gibt es überhaupt ein design. Es ist sehr aufschlussreich, sich einmal die Soziologie des sogenannten Intelligent Design näher anzuschauen. Zwar finden sich in dieser Welt gelegentlich auch Biologen (in der Regel freilich nicht solche, die in der Welt der Biologie erfolgreich waren), vor allem aber viele Leute aus dem Bereich Ingenieurwesen oder Software-
Causa finalis
Entwicklung: Zum Beispiel entstand das 1999 gegründete Discovery Institute, das weltweit als Ideenschmiede für Intelligent Design gilt, auf Initiative eines Chemieingenieurs (Gene Axe), wird von einem ehemaligen Software-Entwickler bei Microsoft (Brendan Dixon) finanziert und speist sich aus Arbeiten eines ehemaligen Mathematikers (William Dembski), der von einem Professor des Ingenieurwesens (Robert Marks) als Postdoc für ein Evolutionary Informatics Labor angestellt wurde. In anderen Worten: Beim Intelligent Design handelt es sich offenbar um ein handfestes Missverständnis – der Versuch, das „Gebastel“ der Evolution über Ingenieurwesen erklären zu wollen. Auch hier bewegt man sich vermutlich wieder auf der dritten Ebene der Erklärung, wo eine diskursive Auseinandersetzung letztlich nicht zu einer Klärung führen kann, weil die eine Seite hier eine offensichtlich nicht-adäquate Setzung vorgenommen hat. Es scheint, dass der Schweizer Künstler Jean Tinguely das Wesen der biologischen Makroevolution weit besser erkannt hat. Seine oft aus zufälligen Fundstücken zusammengesetzten Maschinen sind ganz offensichtlich das Werk eines bricoleurs und Tinguely ironisiert die sonst für Maschinen übliche Zweckmäßigkeit, indem er diesen Maschinen entweder paradoxen (wie bei der Maschine, die sich 1960 publikumswirksam im New York Museum of Modern Art selbst zerstörte) oder bizzarren (etwa die Maschine Meta-Max-Utopia, gebaut 1987, deren Zweck darin besteht, einen überdimensionerten Gartenzwerg kopfüber in einem Bottich mit Wasser zu ertränken) zuführte. Weniger bekannt ist, dass Tinguelys ureigene Motivation die Schaffung von dynamischen Artefakten war (sogenannte Kinetische Kunst). Schon seine ersten Schaufensterinstallationen (1954) waren in sich selbst beweglich. Allem, was lebt, wohnt die Fähigkeit zur Veränderung (vielleicht besser Verwandlung) inne. Das unterscheidet biologische „Bausteine“ entscheidend von den Bauteilen des Ingenieurs. Es sei zum Schluss eine kühne These gewagt: Biologische „Bausteine“ bergen a priori ein gewisses Maß an Autonomie (Eigenzweck) und hier liegt vielleicht auch die eigentliche Wurzel, wo sich die causa finalis der Biologie von der causa finalis des Ingenieurs unterscheidet. 8.
Was zu diskutieren wäre: Erklärung oder Narrativ?
Es wäre vielleicht fruchtbar, sich anzuschauen, ob sich die Struktur der Evolutionstheorie als Erklärung von Erklärungen in anderen Wissenschaften unterscheidet. Dieser Struktur scheint eine andere Form von Zeitlichkeit anzuhaften. Vielleicht ist die Evolutionstheorie eigentlich keine Erklärung im strengen Sinne, sondern eher eine Art Narrativ?
169
170
Peter Nick
Quellenangaben
Britz R, Johnson GD (2012) Ontogeny and homology of the skeletal elements that form the sucking disc of remoras (Teleostei, Echeneoidei, Echeneidae). J Morphol 273, doi.org/10.1002/ jmor.20105 Cuénot L (1914) Théorie de la préadaptation. Scientia16, 60–73 Darwin C (1859a) Variation under domestication and under nature. In: On the Origin of Species By Means of Natural Selection. Kapitel 1, Murray, London Darwin C (1859b) Struggle for existence, natural selection, and divergence. In: On the Origin of Species By Means of Natural Selection. Kapitel 3, Murray, London Darwin C (1859c) Organs of little importance. In: On the Origin of Species By Means of Natural Selection. Kapitel 6, Murray, London Darwin C (1868) The Variation of Animals and Plants under Domestication, Murray, London Gould SJ, Vrba ES (1982) Exaptation – a missing term in the science of form. Paleobiol 8, 4–15 Grbić V, Bleecker AB (1996) An altered body plan is conferred on Arabidopsis plants carrying dominant alleles of two genes. Development 122, 2395–2403 Gutmann M, Nick P (2019) Modellbildung. In: Nick et al. Modellorganismen, Springer Spektrum, Berlin, pp 199–242 Jacob F (1977) Evolution and tinkering. Science 196, 1161–1166 Lamarck JB (1809) Dégradation et simplification de l’organisation d’une extrémité a l’autre de la Chaîne animale. In: Philosophie Zoologique, Buch 2, Kapitel VI, Musée d’Histoire Naturelle ( Jardin des Plantes), Paris Lévi-Strauss C (1962) La pensée sauvage. Éditeur Presses Pocket, Paris Linnaeus C (1751) Philosophia botanica in qua explicantur fundamenta botanica cum definitionibus partium, exemplis terminorum, observationibus rariorum, adjectis figuris aenesis. Kiesewetter, Stockholm Nick P, Gutmann M (2019) Biologie ist anders – warum? In: Nick et al. Modellorganismen, Springer Spektrum, Berlin, pp 3–37 Schleiden MJ (1838) Beiträge zur Phytogenesis. Arch Anat Physiol Wiss Med 13, 137–176 Schwann T (1839) Mikroskopische Untersuchungen über die Uebereinstimmung in der Struktur und dem Wachsthum der Thiere und Pflanzen. Sander, Berlin
Peter Nick
Molekulare Zellbiologie, Joseph Kölreuter Institut für Pflanzenwissenschaften, Karlsruher Institut für Technologie, Fritz-Haber-Weg 4, 76131 Karlsruhe
Veränderung erklären Überlegungen zu einer zentralen Herausforderung der Geschichtswissenschaft
JAN-HENDRYK DE BOER
Abstract: In den geschichtswissenschaftlichen Theoriediskussionen der letzten Jahrzehnte erschien
das Erklären nicht als zentrale Aufgabe der disziplinären Erkenntnisbildung. Der Beitrag argumentiert dagegen, dass Geschichtswissenschaft insbesondere mit der Erklärung von Veränderung und Dauer befasst ist. Dazu werden Ereignisse zeitlich und hinsichtlich der zwischen ihnen bestehenden Bedingungsverhältnisse, etwa als Ursache und Wirkung, geordnet. Historische Erklärungen zielen also darauf ab darzulegen, dass ein Sachverhalt durch das spezifische Gegebensein eines anderen bedingt ist, wobei der zeitliche Zusammenhang zwischen diesen Sachverhalten als erkenntnisrelevant angesehen wird. Wie geschichtswissenschaftliches Erklären in der Praxis aussieht, wird anhand von vier konkreten Beispielen der Geschichtsschreibung in der Mediävistik vorgestellt. Dabei erweist sich, dass insbesondere die Generalisierung der Erklärung von Veränderung und Dauer hin zu einer Erklärung von Kontinuität und Wandel nicht ohne Wissensbestände aus Nachbarwissenschaften auskommt. Nur so ist es möglich, eigene Erklärungen nicht nur zu plausibilisieren, sondern sie auch kritisch zu überprüfen.
Sieht sich der Historiker mit der Aufgabe konfrontiert darzulegen, welche Fragen innerhalb der eigenen Disziplin als zulässig erscheinen, welche nicht unter ausschließlicher Nutzung der eigenen disziplinären Mittel beantwortet werden können und welche nicht beantwortbar sind, wird er dazu neigen, einen fachspezifischen Kniff anzuwenden, um der grundsätzlichen Dimension zu entgehen, die mit dieser Anfrage verbunden ist. Er wird darauf verweisen, dass es für seine Disziplin charakteristisch ist, Begriffe und Problemstellungen zu historisieren. Dann wird er zunächst ausführen, dass sich nicht auf einer abstrakten Ebene bestimmen lasse, was in einer Wissenschaft sagbar sei und was nicht. Vielmehr gelte es, die Genese von Fragen und Antworten, von Versuchen des Erklärens und Verstehens im historischen Wandel herauszuarbeiten. In
172
Jan-Hendryk de Boer
der Folge würde nicht dargelegt, welche Fragen prinzipiell in der Geschichtswissenschaft beantwortbar wären und welche nicht, sondern es würden jene institutionellen, organisatorischen, personalen und ideologischen Konstellationen benannt, die regulierten, wie zu unterschiedlichen Zeiten darum gerungen wurde, welche Fragen als legitim zuzulassen seien, welche Versuche unternommen wurden, Beziehungen zu anderen Wissenschaften zu gestalten, und welche diskursiven Ausschließungsmechanismen eingesetzt wurden, um bestimmte Fragen und Problemstellungen aus dem Reich des Sagbaren auszuschließen, indem sie etwa als Scheinprobleme bezeichnet wurden. Die Antwort auf die Frage, welche Themen und Probleme unter welchen der drei von den Herausgebern benannten Fragehorizonte fielen, wäre demnach nur historisierend zu klären. Es wäre also zu untersuchen, wie die Antworten der Zeitgenossen in unterschiedlichen Phasen der Disziplingeschichte, in den verschiedenen Teilfächern und in verschiedenen nationalen oder regionalen Wissenschaftstraditionen ausfielen. Ungeachtet des Willens zum Historisieren, und das heißt zum Kontextualisieren und Unterscheiden, wird man doch feststellen, dass es in der europäisch-nordamerikanischen Tradition bis heute als eine der vorzüglichen Aufgaben der Geschichtsschreibung gilt, Veränderung zu erklären. Insofern erscheint es naheliegend, die drei in der Einleitung zu diesem Band formulierten Frage-Antwort-Zusammenhänge nicht gänzlich abstrakt zu beantworten und sie auch nicht auf ‚die Geschichte‘ als eine Totale zu beziehen, sondern sie darüber bewältigbar zu machen, dass sie anhand der Erklärung von Veränderung und Dauer in der Geschichtswissenschaft ausgefaltet werden. Dieser Weg wird im vorliegenden Beitrag beschritten, da es sich hierbei um eine zentrale Problemstellung des Faches handelt, anhand derer sich grundsätzliche Zusammenhänge erläutern lassen. Nun könnte man, gemäß dem eingangs skizzierten Ansatz, eine ideengeschichtliche Studie dazu vorlegen, wie Veränderung und Dauer zu verschiedenen Zeiten und in unterschiedlichen regionalen und nationalen Kontexten dargestellt und erklärt werden.1 Das würde nicht nur weit mehr Seiten beanspruchen, als zur Verfügung stehen, sondern führte – weit problematischer – in ein Dilemma: Was sich auf den ersten Blick als eleganter Ausweg anzubieten scheint, um sich der Herausforderung zu entziehen, Grundsätzliches über das eigene Fach auszusagen, stellt – genau betrachtet – zwar einen methodologisch legitimen, aber inhaltlich unbefriedigenden Lösungsversuch dar. Die Strategie, die Frage danach, wie Veränderung und Wandel, Dauer und Kontinuität zu erklären sind, dadurch zu beantworten, dass sie zusammen mit ihren Antworten historisiert wird, bedarf nämlich, um nicht in bloßer Deskription steckenzubleiben, ihrerseits eines Konzepts, wie Veränderung und Dauer erklärbar und darstellbar sind. Ein derartiger Versuch findet sich etwa in Dietmar Rothermund, Geschichte als Prozeß und Aussage. Eine Einführung in Theorien des historischen Wandels und der Geschichtsschreibung, München 1994, 65–136; vgl. auch zur Ideengeschichte des Kontinuitätsdenkens Thomas Schwietring, Kontinuität und Geschichtlichkeit. Über die Voraussetzungen und Grenzen von Geschichte, Konstanz 2005, 79–249. 1
Veränderung erklären
Andernfalls wird es nicht gelingen, die beobachteten Phänomene als gerichteten Zusammenhang zu erklären, statt sie lediglich in ihrem Vorhandensein zu beschreiben. Dementsprechend hat die eingangs entworfene Skizze einer historisierenden Bearbeitung der Problemstellung bereits mit theoretischen und begrifflichen Vorannahmen etwa über das Zusammenwirken sozialer und inhaltlicher Faktoren operiert, ohne dieses offenzulegen. Der vermeintlich verheißungsvolle Ausweg ist demzufolge keiner – weswegen im Folgenden, ganz ohne den Umweg über das Historisieren, am Beispiel der Darstellung und Erklärung historischer Veränderung die Möglichkeit einer grundsätzlichen Antwort darauf gesucht wird, welche Fragen die Geschichtswissenschaft mit eigenen Mitteln beantworten kann, für welche Probleme sie auf die Assistenz anderer Disziplinen angewiesen ist und welche Fragestellungen sie nicht zu beantworten vermag. Dabei werde ich in vier Schritten vorgehen: Zunächst wird im ersten Abschnitt eine analytische Unterscheidung zwischen Veränderung und Wandel sowie zwischen Dauer bzw. Stetigkeit und Kontinuität eingeführt. Im zweiten Abschnitt wird gezeigt, dass sich die neuere geschichtstheoretische Diskussion zumindest in Westeuropa und Nordamerika vor allem für das Erzählen interessierte, was zu einer theoretischen Vernachlässigung des Erklärens führte. Im ausführlicheren dritten Abschnitt wird mit Hilfe von vier Werken der mediävistischen Geschichtsschreibung gefragt, wie Veränderung und Dauer bzw. Kontinuität und Wandel in der darstellerischen Praxis plausibilisiert werden. Anhand dieser Studien wird auch nachvollziehbar, für welche Art geschichtswissenschaftlicher Probleme und Fragestellungen ein Import von Begriffen, Theorien und Wissensbeständen aus anderen Wissenschaften erforderlich scheint. Im Schlussabschnitt werden schließlich anhand der seit langem umkämpften Frage, ob es historische Gesetze gibt bzw. geben kann, erörtert, inwiefern die Geschichtswissenschaft epistemischen (Selbst-)Beschränkungen unterworfen ist bzw. sein sollte. 1.
Von der Beschreibung zur Erklärung: Veränderung und Dauer, Wandel und Kontinuität
Für Historiker, so schreibt Lutz Raphael, sei Veränderung selbstverständlich, da sie ständig mit historischem Wandel zu tun hätten. Allerdings gebe es inzwischen keine sicheren Modelle des Wandels mehr, weshalb auch die Gewissheit abgenommen habe, Neues erklären zu können.2 Jörn Rüsen will Geschichtsdenken anthropologisch herleiten aus der beständigen menschlichen Erfahrung von Störungen der Zeitordnung, was zu veränderten Deutungsleistungen führe, durch die Menschen versuchten, ihr Handeln wiederum sinnhaft zu orientieren. Historisches Denken versteht er als eine
Lutz Raphael, Jenseits von Strukturwandel oder Ereignis? Neuere Sichtweisen und Schwierigkeiten der Historiker im Umgang mit Wandel und Innovation, in: Historische Anthropologie 17, 2009, 110–120, hier 110 2
173
174
Jan-Hendryk de Boer
spezifische menschliche Operation, derartige Erfahrungen zu bearbeiten und Sinn zu generieren. Insofern hat Geschichte für Rüsen nicht nur Veränderungen zum Gegenstand, sondern entsteht aus aktuellen Veränderungserfahrungen.3 Die Einsicht, die Geschichtswissenschaft untersuche Veränderungen, ist ebenfalls in der vielfach mit leichten Abwandlungen geäußerten These beschlossen, Aufgabe der Disziplin sei es, vergangenes menschliches Tun zu erforschen. Wenn etwa Robin Collingwood erklärt, Gegenstand der Geschichte seien „res gestae: actions of human beings that have been done in the past“,4 gebraucht er nicht von ungefähr den Plural statt des Singulars. Es geht der Disziplin demzufolge nicht um eine einzelne isolierte Handlung, nicht um ein für sich bestehendes, individualisiertes Geschehen, sondern um eine Vielzahl vergangener Handlungen. Und dabei stellt sich unweigerlich die Frage nach Ähnlichkeiten und Unterschieden, also nach den Relationen der res gestae untereinander.5 Die Annahme von Veränderung bzw. Stetigkeit oder Dauer in der Zeit ist die bevorzugte Perspektive, unter der Historiker diese Relationen beobachten. Das heißt, dass die Feststellung, es hätten sich in der Vergangenheit bestimmte Handlungen zugetragen, Ereignisse stattgefunden oder Sachverhalte vorgelegen, immer die Anschlussfrage impliziert, wie die beobachtete Entität mit anderen vergangenen Entitäten synchron und diachron verknüpft gewesen sei.6 Elementar ist dabei festzustellen, dass etwas früher, später oder gleichzeitig mit bzw. zu etwas anderem geschehen sei. Erst wenn diese temporale Relation ermittelt worden ist, lassen sich sinnvoll Anschlussfragen etwa danach beantworten, ob das zeitliche Aufeinanderfolgen oder Zusammentreffen von Handlungen oder Ereignissen rein zufällig war oder ob ein Bedingungsverhältnis vorlag. Dieses kann wiederum in unterschiedlicher Weise konzipiert werden: kausal, indem Ereignis A als Ursache von Ereignis B, Handlung C als Ursache von Zustand D gedeutet wird; als Möglichkeitsbedingung, indem Zustand A oder Sachverhalt B in einem weiteren Sinne als soziale, diskursive oder personale Voraussetzung dafür gesehen wird, dass Ereignis C stattfand; als gestaltender Faktor, indem die konkrete Manifestation von Sachverhalt C oder Handlung D als durch das Vorliegen von Zustand A oder Handlung B bedingt angesehen wird, ohne dass A oder B zu den Existenzbedingungen von C und D gehörten; schließlich im negativen Sinne als Verhinderungsbedingung, wenn davon auszugehen ist, dass sich das erwartbare Ereignis C nicht ereignet hat (sondern möglicherweise Ereignis D), weil Zustand A vorlag oder Handlung B erfolgte. In der Praxis wird es eine historische Untersuchung, anders als in diesen abstrakten Beispielen, zumeist nicht nur mit zwei Elementen zu tun haben, die in eine eindeutige Jörn Rüsen, Historik. Theorie der Geschichtswissenschaft, Köln/Weimar/Wien 2013, 33 f. Robin G. Collingwood, The Idea of History. Revised Edition. With Lectures 1926–1928, Oxford/New York 2005, 9 5 Zur Rolle des Relationierens in der Geschichte vgl. auch Achim Landwehr, Die anwesende Abwesenheit der Vergangenheit. Essay zur Geschichtstheorie, Frankfurt am Main 2016, 118–148. 6 Die Erforschung derartiger Verknüpfungen (colligations) erscheint als Kern des historischen Erklärens bei Clayton Roberts, The Logic of Historical Explanation, University Park, Pa. 1996, bes. 105–133. 3 4
Veränderung erklären
Beziehung zueinander zu bringen sind, indem man sie etwa als Ursache und deren Wirkung deutet. Der Regelfall besteht darin, dass ein Ereignis auf ein Bündel von Ursachen und Faktoren zurückgeführt werden muss, die ihrerseits nicht nur temporal, sondern auch hinsichtlich eines Bedingungsverhältnisses geordnet werden können.7 Ein (historisches) Ereignis selbst ist dabei nicht als monolithisches Faktum zu verstehen. Nicht nur in der Theorie, sondern auch in der Forschungspraxis ist es sinnvoller und ertragreicher, ‚Ereignis‘ als Konzeptbegriff für eine „komplexe Sequenz von Handlungen verschiedener Akteure und Akteursgruppen“8 zu verwenden. Theoretisch wie darstellerisch lässt sich dann nämlich vergangenes Geschehen über Ereignisse erfassen, die inhärent dynamisch gedacht werden und auf diese Weise nahelegen, in Erzählungen über Veränderung und Dauer organisiert zu werden. Historiker untersuchen dann nicht einfach vergangenes Geschehen, sondern solches, das sich als Folge von Ereignissen deuten und darstellen lässt. Dabei stehen die Ereignisse nicht dekontextualisiert für sich, sondern werden immer als zeiträumlich situiert und damit als kontextbezogen verstanden. Andernfalls besitzen sie für historische Erkenntnisbildung keine Relevanz. Bei all den oben abstrakt formulierten Aussagen handelt es sich um mögliche historische Erklärungen von anhand der Überlieferung beobachteten Veränderungen. Erklärungen in der Geschichtswissenschaft bestehen darin, zwei oder mehr zeiträumlich situierte Objekte, worunter gleichermaßen vergangene Handlungen und deren Produkte sowie vergangene Sachverhalte und Zustände fallen, in eine Beziehung zu setzen, die als Bedingungsverhältnis verstanden wird. Eine Erklärung liegt dann vor, wenn dargelegt wird, dass ein Objekt in seinem Dasein und Sosein durch das spezifische Gegebensein eines anderen bedingt ist. Wenn ein Explanandum als Wirkung bzw. Resultat einer oder mehrerer Antecedensbedingungen aufgefasst wird, handelt es sich um eine Kausalerklärung.9 Gültig ist diese, wenn sie die relevanten Antecedensbedingungen anzugeben vermag. Inwiefern eine gültige Erklärung auch Gesetzesannahmen erfordert, wird uns später beschäftigen. Kausalerklärungen sind dabei nur eine – wenn auch zentrale – Form historischer Erklärungen.10 Darüber hinaus zielen historische Erklärungen, wie die obigen abstrakten Erklärungsansätze verdeutlichen sollen, auf wei-
Chris Lorenz, Konstruktion der Vergangenheit. Eine Einführung in die Geschichtstheorie, Köln/Weimar/ Wien 1997, 93–98 8 Andreas Suter, Manfred Hettling, Struktur und Ereignis. Wege zu einer Sozialgeschichte des Ereignisses, in: Struktur und Ereignis, hg. von Andreas Suter, Manfred Hettling, Göttingen 2001, 7–32, hier 23 9 Dass kausale Erklärungen in der Geschichtswissenschaft nicht im Widerspruch zur Annahme der Freiheit des menschlichen Willens und damit auch des Handelns stehen, wie etwa von Isaiah Berlin eingewandt, wurde bereits dargelegt von Karl-Georg Faber, Theorie der Geschichtswissenschaft, München 1978, 80–82; Edward Hallett Carr, Was ist Geschichte?, Stuttgart 1963, 90–97; vgl. Isaiah Berlin, Historical Inevitability, London 1955. 10 Anders etwa James Mahoney, Erin Kimball, Kendra L. Koivu, The Logic of Historical Explanation in the Social Sciences, Comparative Political Studies 42, (2008), 114–146.
7
175
176
Jan-Hendryk de Boer
tere Bedingungsverhältnisse zwischen Ereignissen, Handlungen und Zuständen, also auf alle temporalen Folgen, die nicht als rein zufällig aufzufassen sind. Die in einer historischen Erklärung in Beziehung gesetzten Objekte sind nicht einfach vorfindliche Elemente der vergangenen Wirklichkeit, die es lediglich aus den Quellen zu bergen gilt, sondern Deutungen vergangenen Geschehens. Historiker relationieren also in ihren Erklärungen nicht objektiv vorhandene vergangene Ereignisse, Handlungen und Zustände, sondern ihre begründeten Annahmen über diese. Diese Annahmen können unterschiedlich komplex sein: Sie reichen von bloßen Existenzannahmen (‚Person A hat zu diesem Zeitpunkt gelebt‘) über Statushypothesen (‚Person B hat diese Handlung als Bischof vollzogen‘) bis hin zu interpretativen Einschätzungen (‚Person C unternahm eine Seereise, um Gewinn zu erzielen‘). Insofern haben es, wie in der Geschichtstheorie der letzten Jahrzehnte immer wieder betont, historische Erklärungen nicht einfach nur mit Fakten zu tun, sondern immer mit interpretierten Fakten. Denn jegliche Aussagen über ein aus dem überlieferten Material ermitteltes Ereignis oder einen Zustand enthalten bereits interpretative Elemente. Daher gilt mit Edward Hallett Carr: „Der Glaube an einen festen Kern historischer Fakten, die objektiv und unabhängig von der Interpretation des Historikers bestehen, ist ein lächerlicher, aber nur schwer zu beseitigender Trugschluß.“11 Begnügt man sich nun nicht einfach damit, Listenwerke vergangener Ereignisse zu anzulegen, stellt sich, wie angedeutet, unweigerlich die Frage nach dem Verhältnis der Ereignisse zueinander. Geht man davon aus, dass Handlung A zu dem zuvor nicht vorhandenen Sachverhalt B führte, handelt es sich bereits um die Beschreibung einer Veränderung. Veränderungen festzustellen, bewegt sich auf der elementaren Ebene historischer Deutung: Aus schriftlichen Quellen und anderem Material wird mit Hilfe des methodischen Handwerkszeugs der Disziplin geschlossen, dass historische Akteure zu einer bestimmten Zeit, an einem konkreten Ort und unter spezifischen Umständen Handlungen vollzogen haben, die Folgen hatten. Neben Veränderung lässt sich auf der gleichen Analyseebene auch Dauer oder Stetigkeit feststellen: So kann man beispielsweise den Quellen entnehmen, dass eine Einrichtung oder ein Gebäude für einen gewissen Zeitraum existierte, bevor sich eine Veränderung ergab, eine Schwureinung für eine gewisse Zeit bestanden hat, eine Institution von diesem bis zu jenem Zeitpunkt Anerkennung fand. Sobald die ermittelten Phänomene in einen inhaltlichen Zusammenhang gebracht werden, der über reine Annalistik als Feststellung temporaler Reihung hinausgeht, liegen Darstellungen von Veränderungen oder Dauer vor. Wenn diese Darstellungen Warumfragen zum Beispiel in Bezug auf die unmittelbaren Auswirkungen einer Gewalttat, die Wirkung einer rituellen Handlung oder die Genese eines Rechtsaktes zu beantworten versuchen, stellen sie historische Erklärungen an. Derartige Erklärungen von Veränderung und Dauer kann die Geschichtswissen-
11
Carr (Fn. 9), 12
Veränderung erklären
schaft mit ihren eigenen Methoden geben. Die erforderlichen Begriffe kann sie aus dem Quellenmaterial oder der heutigen Alltagssprache gewinnen, wenn sie sie mit der gebotenen Sorgfalt einführt. Elementare Deutungen von Veränderungen als Folgeund Bedingungsbeziehungen lassen sich plausibel aus der Beobachtung von Handlungszusammenhängen, Zustandsveränderungen und neuartigen Sachverhalten entwickeln, ohne dass dafür eine zusätzliche theoretische Stützung erforderlich wäre. Der Vergleich mit analogen Zusammenhängen steht als ein zentrales Mittel der kritischen Prüfung der eigenen Thesenbildung bereit. Die historische Komparatistik erlaubt, Ähnlichkeiten festzustellen und auf diese Weise Erklärungen abzustützen: Handelt es sich um ähnliche Zusammenhänge auf der Phänomenebene, ist es plausibel anzunehmen, dass auch die Erklärungen dieser Zusammenhänge ähnlich sein müssen. Ist dies nicht der Fall, muss die Bestandsaufnahme ebenso überprüft werden wie die angebotenen Erklärungen.12 Allerdings besteht das Geschäft der Geschichte nicht nur darin, Veränderungen und Stetigkeit im genannten Sinne nachzuzeichnen. Geschichte tätigt auch Aussagen über Wandel und Kontinuität, also über komplexere Zusammenhänge von zeiträumlich situierten Ereignissen und Zuständen. Bei Aussagen über Veränderung und Dauer handelt es sich, wie ich zu zeigen versucht habe, um Feststellungen über die Beziehung vergangener Sachverhalte, Ereignisse und Handlungen zueinander. Primäres Strukturierungsmerkmal ist Zeitlichkeit, die um andere Merkmale wie etwa Kausalität ergänzt werden kann. Sie sind auf der phänomenalen Analyseebene angesiedelt, auf der festgestellt wird, dass etwas in der Vergangenheit der Fall war. Aussagen über Wandel bzw. Kontinuität sind einer anderen Analyseebene zugehörig. Im Normalfall beziehen sie sich nicht nur auf zwei Entitäten, sondern auf eine größere Menge. Wichtiger ist jedoch, dass hier verhältnismäßig lange Zeiträume in den Blick genommen werden, also eher Jahre und Jahrzehnte als Tage und Wochen. Schließlich wird bei der Feststellung von Wandel bzw. Kontinuität von einem gerichteten Zusammenhang ausgegangen, der nicht nur über zeitliche Sequenzierung strukturiert ist, sondern weitere Strukturierungsmerkmale besitzt. Während bei der Untersuchung von Veränderung und Stetigkeit zeitliche Sequenzierung darstellerisch und explanatorisch prioritär ist, gilt dies für Wandel und Kontinuität nicht: Hier wird Zeitlichkeit stets als Entwicklung, Prozess, Stabilität o. Ä. gedeutet. Aussagen über Wandel und Kontinuität interessieren sich also nicht vorrangig für die Rekonstruktion historischen Geschehens in seinem Die Diskussionen zum historischen Vergleich betonen vor allem sein Vermögen, neue Fragen zu entwickeln und Ähnlichkeiten bzw. Unterschiede zwischen verschiedenen historischen Situationen und Ereignissen herauszuarbeiten, weniger sein erkenntniskritisches Potential; vgl. etwa Heinz-Gerhard Haupt, Jürgen Kocka, Historischer Vergleich. Methoden, Aufgaben, Probleme. Eine Einleitung, in: Geschichte und Vergleich. Ansätze und Ergebnisse international vergleichender Geschichtsschreibung, hg. von Heinz-Gerhard Haupt, Jürgen Kocka, Frankfurt am Main/New York 1996, 9–45; Hartmut Kaelble, Der historische Vergleich. Eine Einführung zum 19. und 20. Jahrhundert, Frankfurt am Main/New York 1999; Ludolf Herbst, Komplexität und Chaos. Grundzüge einer Theorie der Geschichte, München 2004, 77–97. 12
177
178
Jan-Hendryk de Boer
zeitlichen Verlauf, sondern für die Deutung dieses Verlaufs. Der Vergleich spielt wiederum eine entscheidende Rolle, und zwar gleichermaßen bei der Formulierung von Hypothesen wie bei deren kritischer Überprüfung.13 Der Vergleich von ähnlich gelagerten oder ganz anderen Ereigniszusammenhängen und deren jeweiligen Kontexten erlaubt, die Spezifik des postulierten Zusammenhangs herauszupräparieren und diesem klare Konturen zu verleihen, indem vergleichend entschieden wird, welche Phänomene dem zu erklärenden Zusammenhang zuzurechnen sind und welche nicht. Vergleiche sind darüber hinaus argumentativ wichtig, um die Feststellung von Wandel oder Kontinuität zu rechtfertigen, indem auf analoge oder differente Entwicklungen und Prozesse verwiesen wird.14 Schließlich erlaubt der Vergleich der Erklärungen, diese kritisch auf ihre Plausibilität zu überprüfen. Wenn, wie oben gezeigt, bereits das Feststellen von Veränderung nicht streng vom Erklären ebendieser zu unterscheiden ist, da sich Historiker hierbei immer auf der Ebene der Relationierung von Interpretanten bewegen, sind Aussagen zu Wandel und Kontinuität immer Erklärungen. Denn sie setzen nicht einfach nur res gestae in zeitliche und kausale Beziehungen zueinander, sondern führen diese Relationen auf begrifflich fassbare Zusammenhänge zurück, die sich in der historischen Darstellung beispielsweise als Entwicklungen narrativieren lassen. Die Erklärung von Wandel und Kontinuität erfordert mithin über eine methodologisch saubere Rekonstruktion temporaler Ereignisfolgen hinaus eine geeignete Begrifflichkeit. Nur dann kann der interpretative Befund so gefasst werden, dass er mehr ist als die Addition rekonstruierter Ereignisse. Unerlässlich ist außerdem eine argumentative Begründung, warum der in der Darstellung postulierte Zusammenhang tatsächlich bestanden hat und inwiefern dieser adäquat erfasst worden ist. Erforderlich ist schließlich eine Darstellungstechnik, welche die Erklärung einem Publikum vermittelt. Sinnfragen sollten demzufolge nur auf der Analyseebene von Wandel und Kontinuität aufgeworfen werden, jedoch nicht auf derjenigen von Veränderung und Stetigkeit, da diesbezüglich allenfalls eine Vielzahl widerstreitender Postulate formuliert werden könnte, die nicht dem Vorwurf interpretativer Beliebigkeit zu entgehen vermögen. 2.
Verstehen, Erzählen und das explanatorische Defizit der Historie
In der geschichtswissenschaftlichen Selbstreflexion spielte ‚Erklären‘ eine wechselnde Rolle. Lange Zeit diente es vor allem in negativer Abgrenzung dazu, die Spezifik des eigenen Faches zu profilieren. Die historistische Geschichtsauffassung des 19. Jahrhunderts privilegierte das Verstehen gegenüber dem Erklären, indem sie die Disziplin auf Chris Lorenz, Comparative Historiography. Problems and Perspectives, History and Theory 38 (1999), 25–39 14 Zur Rolle des Vergleichs in Kausalerklärungen vgl. Lorenz (Fn. 7), 231–277. 13
Veränderung erklären
die sinnhafte Deutung vergangenen menschlichen Handelns festlegte. Im Zuge jener wissenschaftstheoretischen Debatten des späten 19. und frühen 20. Jahrhunderts, die fundamentale methodologische Differenzen zwischen Natur- und Geisteswissenschaften erkannten, verstärkte sich nicht nur in der fachinternen Diskussion die Vorstellung, historische Erkenntnis richte sich auf das Besondere, welches nicht durch Gesetze erklärbar sei.15 Vor allem Wilhelm Dilthey wurde immer wieder als Referenz für die Überzeugung angeführt, die Geisteswissenschaften im Allgemeinen sowie die Geschichte im Speziellen hätten es bei der Erforschung von Sachverhalten „mit dem Sinne und der Bedeutung zu tun, die sie durch das Wirken des Geistes erhalten haben“. Geschichte diene dementsprechend „dem Verstehen, das diese Bedeutung, diesen Sinn in ihnen erfaßt.“16 Friedrich Meinecke fasste die historische Individualität eines Gegenstandes als „Tendenz zum Guten, Schönen oder Wahren“17 auf, welche jenen für uns allererst bedeutsam mache. Nach Regularitäten oder gar Gesetzmäßigkeiten suchende historische Forschung musste aus dieser Perspektive notwendig ihr Ziel verfehlen – ein Einwand, der immer wieder gegen marxistische Geschichtsdeutungen ins Feld geführt wurde.18 Die selbstgewählte Aufgabe, das Besondere und nicht das Allgemeine zu behandeln, konnte der Historismus auch der positivistischen Wissenschaftstheorie entgegensetzen. In deren Außensicht bestand wissenschaftliches Erklären im Feststellen regelmäßiger kausaler Beziehungen zwischen Ursachen und Wirkungen. Eine gültige wissenschaftliche Erklärung liegt Carl Hempel zufolge dann vor, wenn die Ursache eines Ereignisses aufgrund von universalen Hypothesen und Anfangsbedingungen deduziert werde. Sie ziele darauf, die Frage zu beantworten, warum ein zu erklärendes Ereignis (das Explanandum) aufgetreten sei. Sie zeige, dass es das Resultat bestimmter Umstände oder Antecedensbedingungen und von Gesetzen sei. Zunächst war Hempel davon überzeugt, dass allgemeine Gesetze eine analoge Funktion in der Geschichtswissenschaft hätten wie in den Naturwissenschaften. Historisches Erklären müsse folglich darauf zielen zu ermitteln, dass Ereignisse vom Typ B immer Ereignissen vom Typ A zeitlich folgten und diese Beziehung nicht zufällig, sondern insofern kausal sei, als Ereignisse vom Typ B nicht aufträten, wenn Ereignisse vom Typ A nicht
Vgl. z. B. Gerhard Ritter, Wissenschaftliche Historie, Zeitgeschichte und ‚politische Wissenschaft‘, Jahresheft 1957/58 der Heidelberger Akademie der Wissenschaften, 3–23, hier 8. 16 Wilhelm Dilthey, Der Aufbau der geschichtlichen Welt in den Geisteswissenschaften, Frankfurt am Main 1981, 140 17 Friedrich Meinecke, Kausalitäten und Werte in der Geschichte, in: Zur Theorie und Philosophie der Geschichte, Werke, hg. von Eberhard Kessel, Bd. 4, Stuttgart 1959, 78; zu Meineckes Geschichtsbegriff vgl. Otto Gerhard Oexle, Meineckes Historismus. Über Kontext und Folgen einer Definition, in: Geschichtswissenschaft im Zeichen des Historismus. Studien zur Problemgeschichte der Moderne, hg. von ders. Göttingen 1996, 95–136. 18 Vgl. Georg G. Iggers, Geschichtswissenschaft im 20. Jahrhundert. Ein kritischer Überblick im internationalen Zusammenhang, Neuausgabe, Göttingen 2007, 75–78. 15
179
180
Jan-Hendryk de Boer
vorlägen.19 Später modifizierte Hempel seine Argumentation, indem er einräumte, in der Geschichte gebe es nur wenige Gesetze, die ohne Ausnahme gälten.20 Daher sei es möglich, historische Erklärungen auf Wahrscheinlichkeitsannahmen statt auf allgemeine determinierende Gesetze zu stützen. Insofern sei zu unterscheiden zwischen den deduktiv-nomologischen Erklärungen der Naturwissenschaften und den probabilistisch-statistischen Erklärungen, wie sie in der Geschichtswissenschaft verwendet würden. Zwar verwendeten Historiker zumeist lediglich Erklärungsskizzen, da die Antecedensbedingungen oder die allgemeinen Gesetze, auf die die Erklärung rekurriere, entweder nur unvollständig bekannt oder nicht vollständig dargelegt würden. Doch zumindest idealtypisch ließen sich diese Skizzen zu vollständigen Erklärungen erweitern. Derartige fachexterne Versuche, Historikern zu erklären, was historisches Erklären sei, wurden häufig mit Geringschätzung aufgenommen, konnten aber auch in die eigene Argumentation eingebaut werden, indem man darauf verwies, keine Erklärungen in jenem Sinne vorlegen zu können.21 Das schien wiederum zu belegen, dass geschichtliche Erkenntnis tatsächlich auf Verstehen statt auf Erklären ausgerichtet ist. Je stärker sich allerdings die Einsicht durchsetzte, dass es Aufgabe der Geschichte sei, das Singuläre und Besondere begrifflich und konzeptionell und damit im Hinblick auf ein Allgemeines zu erfassen, desto deutlicher erschien der Antagonismus von Individuellem und Allgemeinem als Scheingegensatz, der nicht dadurch zu überwinden war, dass emphatisch für einen Pol unter Ausschluss des anderen plädiert wurde.22 Dementsprechend verlor auch die Gegenüberstellung von Erklären und Verstehen sukzessive ihre Funktion als Grenzmarkierung historischer Erkenntnis gegenüber anderen Disziplinen. Nicht zuletzt der Aufstieg der Sozialgeschichte in Westeuropa und Nordamerika seit den späten 1960er Jahren drängte die emphatische Überhöhung des Individuellen zurück. Dagegen wurde die Erforschung struktureller Zusammenhänge aufgewertet und die Rolle begrifflicher Erkenntnis im Forschungsprozess sowie in der Darstellung hervorgehoben.23 Die letztgenannte Einsicht hat die sich seit den 1990er Vgl. Carl Hempel, The Function of General Laws in History, The Journal of Philosophy 39 (1942), 35–48; ähnlich argumentiert Ernest Nagel, Some Issues in the Logic of Historical Analysis, The Scientific Monthly 74 (1952), 162–169; einen Gegenentwurf zu Hempels Ansatz bildet William Dray, Laws and Explanation in History, London 1957. Dray geht davon aus, dass es keine Gesetze in der Geschichte gebe, sehr wohl aber Erklärungen formuliert würden. Diese hätten insbesondere auf Handlungsprinzipien zu rekurrieren, anhand derer erklärt werden könnte, warum eine Person in einer Situation auf bestimmte Weise gehandelt habe. 20 Carl Hempel, Explanation in Science and History, in: Frontiers of Science and Philosophy, hg. von R. G. Colodny, Pittsburgh 1962, 9–19; eine kritische Diskussion von Hempels Ansatz bietet Roberts (Fn. 6), 1–15 u. 55–88. 21 Eine kritische Zusammenfassung dieser Debatten findet sich bei Lorenz (Fn. 7), 65–69. 22 Faber (Fn. 9), 45–65 23 Vgl. etwa Jürgen Kocka, Sozialgeschichte. Begriff – Entwicklung – Probleme, Göttingen 21986; Hans-Ulrich Wehler, Historische Sozialwissenschaft und Geschichtsschreibung. Studien zu Aufgaben und Traditionen deutscher Geschichtswissenschaft, Göttingen 1980; als Leistungsschau der europäischen Sozialgeschichte präsentiert sich Encyclopedia of European Social History. From 1350 to 2000, hg. von Peter N. Stearns, 6 Bde., New York u. a. 2001; zum Aufstieg der Sozialgeschichte vgl. auch Iggers (Fn. 18), 65–74; Peter Burke, History and
19
Veränderung erklären
Jahren formierende Kulturgeschichte gewahrt, allerdings wertete sie gegenüber der älteren Sozial- und Strukturgeschichte wiederum das Einzelne auf, wobei dies jedoch nicht als Individuelles, das im Sinne Meineckes aus sich heraus Bedeutung trägt, überhöht wird.24 Stattdessen wird nach Handlungsweisen und Erfahrungen personaler historischer Akteure gefahndet,25 die miteinander in Beziehung gesetzt werden, indem sie als Ausdruck von Regelmäßigkeiten wie Routinen und Institutionsbildungen gedeutet werden. In diesem neuen Paradigma ist die klassische Dichotomie von Allgemeinem und Besonderem in der Geschichtswissenschaft nicht mehr länger forschungsleitend, wie auch eine schroffe Gegenüberstellung von Erklären und Verstehen nur noch selten verwendet wird, um die Erkenntnisziele und die Methode des eigenen Forschens zu profilieren. Als konsensual dürfte inzwischen die Formulierung von Ute Daniel gelten, wonach Erklären und Verstehen sich dann, wenn man sie von Bedeutungsüberfrachtungen befreit habe, „nicht nur durchaus als vereinbar [erweisen], sondern als nicht voneinander zu trennende Vorgehensweisen kulturwissenschaftlichen Arbeitens.“26 In den geschichtstheoretischen Debatten der letzten Jahrzehnte stand, anders als in den älteren Diskussionen um Verstehen und Erklären in der Geschichte, nicht mehr die explanatorische Leistung der Geschichtswissenschaft im Mittelpunkt. Viel stärker richtete sich das Augenmerk der Beteiligten auf die Rolle von Erzählen in der Geschichtsschreibung bzw. in der historischen Sinnbildung. Wegweisend war Arthur Danto in seinem Vorgehen, historisches Denken über die Sprache zu analysieren, mit der historische Ereignisse dargestellt werden. Er wies nicht nur die Verknüpfung von Organisation vergangener Zeitlichkeit und Dimensionen der Zeitlichkeit in der Sprache des Historikers nach, sondern zeigte obendrein, dass Ereignisse Bedeutung im historischen Sinne nur im Kontext einer story erhalten.27 Die von Historikern erzählten Geschichten orientierten sich Danto zufolge immer auch an den nichthistorischen Interessen eines möglichen Publikums. Sie seien ihrerseits zeitlich situiert, so dass historische Darstellungen nie das Ganze der Geschichte von einem geschichts-
Social Theory, Cambridge 1992, 14–17 u. 110–114; Chris Lorenz hat nicht ohne Grund behauptet, die Sozialgeschichte habe das historistische Verständnis von Erklären und Verstehen lediglich umgedreht, indem sie sich nun auf die Seite des Erklärens geschlagen habe, die konzeptionellen Grundlagen jedoch unangetastet gelassen; Chris Lorenz, Wozu noch Theorie der Geschichte? Über das ambivalente Verhältnis zwischen Gesellschaftsgeschichte und Modernisierungstheorie, in: Wozu Geschichte(n)? Geschichtswissenschaft und Geschichtsphilosophie im Widerstreit, hg. von Volker Depkat, Matthias Müller, Andreas Urs Sommer, Stuttgart 2004, 117–143, bes. 137–140. 24 Vgl. Peter Burke, Was ist Kulturgeschichte?, Frankfurt am Main 2005; Ute Daniel, Kompendium Kulturgeschichte. Theorien, Praxis, Schlüsselwörter, Frankfurt am Main 32002; Iggers (Fn. 18), 86–101. 25 Marian Füssel, Die Rückkehr des ‚Subjekts‘ in der Kulturgeschichte. Beobachtungen aus praxeologischer Perspektive, in: Historisierte Subjekte – Subjektivierte Historie. Zur Verfügbarkeit und Unverfügbarkeit von Geschichte, hg. von Stefan Deines, Stephan Jaeger, Ansgar Nünning, Berlin 2003, 141–159 26 Daniel (Fn. 24), 406 27 Arthur C. Danto, Analytische Theorie der Geschichte, Frankfurt am Main 1980, 27
181
182
Jan-Hendryk de Boer
enthobenen Standpunkt erfassen könnten, sondern Ereignisfolgen in Form von stories koordinierten.28 Kontinuität, so hat Hans Michael Baumgartner in Fortführung der Überlegungen Dantos gezeigt, ist Folge wie Bedingung des historischen Erzählens: Historisches Wissen ist so narrativ konstruierende Organisation von Ereignissen, die vergangen sind, in temporalen Strukturen, wodurch diese Ereignisse in einen Zusammenhang mit anderen Ereignissen einbezogen werden, der im Hinblick auf das zeitliche Verhältnis der Ereignisse untereinander als diskontinuierlicher Zusammenhang erscheint.29
Kontinuität ist in dem von Baumgartner formulierten Sinn nicht einfach ein darstellerisches Strukturprinzip oder ein Narrativ, sondern implizite Voraussetzung der historischen Erzählung, da nur die Annahme von Kontinuität Diskontinuität in der Folge der historischen Ereignisse sinnhaft macht. Man könnte umgekehrt auch sagen, dass die Annahme von Wandel in gleicher Weise Möglichkeitsbedingung historischen Erzählens ist, insofern das bloße Organisieren von Stetigkeiten nicht nur langweilig ist, sondern ebenfalls keinen präsentischen Sinn zu erzeugen vermag. Liegt die Bedeutung der Kontinuität für Baumgartner darin, dass sie sinnhaftes Erzählen über die Vergangenheit von der Gegenwart aus mit Blickrichtung auf die Zukunft ermöglicht, scheint die Bedeutung des Wandels darin zu bestehen, dass nur so die Beschäftigung mit der Geschichte von der Gegenwart aus relevant wird, da sich sonst in der Vergangenheit nur finden lässt, was entweder jetzt auch der Fall oder ganz anders ist oder überhaupt keinen informativen Zusammenhang mit der Gegenwart besitzt. Die Annahme von Kontinuität und Wandel in der Geschichte erweist sich also in epistemischer Hinsicht als regulative Idee, die begründet, warum Veränderung und Dauer erkennbar sind. In darstellerischer Hinsicht ermöglicht sie, die ermittelten Ereignisse, Handlungen und Sachverhalte zu erzählen, da sie längerwellige Zustände und Dynamiken anschaulich macht, in die jene eingeordnet werden können. So entsteht ein narrativer Zusammenhang, der dem einzelnen Ereignis seinen Ort im Plot zuweist, von dem aus es allererst darstellerische Signifikanz erhält. Baumgartners These von der Kontinuität als regulative Idee des historischen Erzählens ist nicht das letzte Wort in der Debatte geblieben. Angestoßen von der leidenschaftlichen Kritik, die postmoderne Theoretiker wie Michel Foucault oder Jacques Derrida am Ursprungsdenken und an der Suche nach Kontinuität und Linearität geübt haben,30 hat die historische Forschung in den letzten Jahrzehnten DiskontinuitäDanto (Fn. 27), 34 Hans Michael Baumgartner, Kontinuität und Geschichte. Zur Kritik und Metakritik der historischen Vernunft, Frankfurt am Main 1997, 295 30 Foucault entwickelte sein Konzept von Genealogie unter Bezugnahme auf Nietzsche in entschiedener Abgrenzung zur Historie, welche er durch die Suche nach dem Ursprung gekennzeichnet sieht; Michel Foucault, Nietzsche, die Genealogie, die Historie, in: Schriften II, 1970–1975, hg. von Daniel Defert, François Ewald, Frankfurt am Main 2002, 166–191. 28 29
Veränderung erklären
ten und Brüchen verstärkt Aufmerksamkeit geschenkt. Weiterführend war diese Verschiebung darin, dass weniger nach einem als Ursprung gedeuteten Zustand oder einer primordialen Tat gesucht wurde, von dem bzw. der ausgehend alles Übrige zu erklären sei. So lässt sich die Unterwerfung Amerikas durch die Europäer nicht befriedigend von der sogenannten Entdeckung Amerikas durch den Genueser Cristoforo Colombo am 12. Oktober 1492 her darstellen. Historisch wirksam wurde der ‚Tag von Guanahani‘ allererst durch das, was zuvor in Europa und Amerika geschehen war, durch die verschiedenen Folgehandlungen, die sich, je eigenen Absichten und Plänen folgend, an die ‚Entdeckung‘ anschlossen, durch die Kommunikation über dieses Ereignis und schließlich durch verschiedene Zufälle, die zu den Möglichkeitsbedingungen dafür gehörten, dass es den Europäern relativ leicht gelang, die mittel- und südamerikanischen Reiche zu unterwerfen.31 Die Hoffnung Dietmar Rothermunds, die Abkehr von „Kontingenzbewältigung und Diskontinuitätsleugnung“32 würde zur Erarbeitung überzeugenderer Theorien des historischen Wandels führen, hat sich allerdings nicht bewahrheitet. Das mag daran liegen, dass in der theoretischen Diskussion häufig nicht klar ist, auf welcher Ebene sich die Analyse bewegt und wo sinnvollerweise nach Diskontinuität/Kontinuität und Wandel/Brüchen gesucht werden kann. Nach dem oben Ausgeführten können diese Probleme nicht auf der Analyseebene von Veränderung und Dauer, sondern nur auf derjenigen behandelt werden, auf der es um größerflächige Zusammenhänge geht. Dann ist es aber wenig sinnvoll, argumentativ das vermeintliche ‚Gewimmel‘ der Ereignisse oder unbeabsichtigte Folgen intentionalen Handelns gegen Annahmen von Kontinuität und/oder Wandel in Stellung zu bringen. Obendrein wird es kaum genügen, Begriffe wie ‚Ursprung‘ aus der Diskussion zu verbannen, vielmehr bedarf es veränderter Darstellungstechniken, um Kontinuität und Wandel und Diskontinuität und Brüche nicht bloß theoretisch zu postulieren, sondern in ihrem Gegebensein und ihren Wirkweisen zu präsentieren.33 Während Danto den Wahrheitsanspruch geschichtswissenschaftlicher Aussagen ausdrücklich nicht suspendierte,34 verschob sich mit den Arbeiten Hayden Whites die Diskussion auf die Frage, wie faktuale und fiktionale Darstellungen überhaupt abgrenzbar seien, wenn Erzählen als konstitutives Element jeder geschichtswissenschaft-
Vgl. Stefan Rinke, Kolumbus und der Tag von Guanahani. 1492, ein Wendepunkt der Geschichte, Stuttgart 2013. 32 Rothermund (Fn. 1), 53 33 Vgl. dazu Stephan Jaeger, Geschichte als Wahrnehmungsprozess. Ihr selbstreflexiver Vollzug in der Geschichtsschreibung, in: Historisierte Subjekte – Subjektivierte Historie. Zur Verfügbarkeit und Unverfügbarkeit von Geschichte, hg. von Stefan Deines, Stephan Jaeger, Ansgar Nünning, Berlin 2003, 123–140; als derartiger Versuch lesen lässt sich Johannes Fried, Die Anfänge der Deutschen. Der Weg in die Geschichte, Neuausgabe, Berlin 2015. 34 Vgl. seine Kritik am ‚historischen Skeptizismus‘, Danto (Fn. 27), 147–194. 31
183
184
Jan-Hendryk de Boer
lichen Darstellung anzusehen sei.35 Dass die von White untersuchten Historiker des 19. Jahrhunderts Ereignisse mit quasiliterarischen Mitteln organisierten,36 wurde vielfach als Beleg dafür genommen, dass Geschichtsschreibung weniger Rekonstruktion, sondern vor allem Konstruktion sei, was sie insgesamt in die Nähe der Literatur zu rücken schien. Postmoderne Geschichtstheoretiker wie Frank Ankersmit lösten die Vergangenheit in eine anarchische Summe unabhängiger Einzelpunkte auf, erhoben den Text des Historikers zum Substitut für eine nicht präsente Vergangenheit und postulierten konsequenterweise „den Tod der Historiographie als Disziplin“.37 Andere wie Elizabeth Deeds Ermarth plädierten dafür, postmoderne Literatur zum Vorbild historischer Darstellungen zu nehmen, da man hier nicht zuletzt das Verschwinden von Zeit als erzählerischem Medium lernen könne.38 Dagegen erhob sich umgehend scharfer Widerspruch. Zahlreiche Historiker setzten zu flammenden Plädoyers für die Wahrheitsfähigkeit geschichtswissenschaftlicher Aussagen an.39 In diesem Zusammenhang wurde eine Dichotomie von Erzählen und Erklären konstruiert, die den Status der eigenen Disziplin als Wissenschaft sichern sollte, ohne dass der Frage, was historisches Erklären sei, immer die erforderliche Aufmerksamkeit geschenkt worden wäre.40 Die aufgeregten Debatten um den sogenannten linguistic turn wurden bezeichnenderweise vor allem auf der Ebene der Theorie geführt, ohne dass die Praxis der aktuellen Geschichtsforschung und Geschichtsschreibung in nennenswertem Maße in die Überlegungen einbezogen worden wäre.41 Dementsprechend verwundert es nicht, dass die Geschichtsschreibung und -forschung von diesen Theoriedebatten auffallend wenig beunruhigt worden zu sein scheinen. Die theoretische Debatte, ob die Geschichte etwas über eine vorfindliche Vergangenheit erhellen könne oder sie diese nicht immer erst durch ihre Forschung und die daraus erwachsenen Darstellungen konstruiere, wurde nur selten in der Geschichtsschreibung etwa dergestalt reflektiert, dass Unterscheidungen zwischen erfundenen Hayden White, Auch Klio dichtet oder Die Fiktion des Faktischen. Studien zur Tropologie des historischen Diskurses, Stuttgart 1986 36 Hayden White, Metahistory. The Historical Imagination in Nineteenth-Century Europe, Baltimore/London 1975 37 Frank R. Ankersmit, Historismus, Postmoderne und Historiographie, in: Geschichtsdiskurs Bd. 1: Grundlagen und Methoden der Historiographiegeschichte, hg. von Wolfgang Küttler u. a., Frankfurt am Main 1993, 65–84, hier 82 38 Elizabeth Deeds Ermarth, Beyond History, Rethinking History 5 (2001), 195–215 39 Vgl. etwa Richard J. Evans, Fakten und Fiktionen. Über die Grundlagen historischer Erkenntnis, Frankfurt am Main/New York 1999; Werner Paravicini, Die Wahrheit der Historiker, München 2010; Carlo Ginzburg, Die Wahrheit der Geschichte. Rhetorik und Beweis, Berlin 2001. 40 Eine Ausnahme bildet Lorenz (Fn. 7). 41 Eine Zusammenfassung der deutschen Debatten bietet Peter Schöttler, Wer hat Angst vor dem „linguistic turn“? Geschichte und Gesellschaft 23 (1997), 134–151; ders., Nach der Angst. Was könnte bleiben vom linguistic turn?, Internationales Archiv für Sozialgeschichte der deutschen Literatur 36 (2011), 136–151; Georg G. Iggers, Geschichtstheorie zwischen postmoderner Philosophie und geschichtswissenschaftlicher Praxis, Geschichte und Gesellschaft 26 (2000), 335–346. 35
Veränderung erklären
und wahren Aussagen bewusst unterlaufen wurden.42 Aus der Rückschau scheint die Bedeutung dieser Diskussionen für die Fachgeschichte zunächst darin zu liegen, naive Annahmen über historische Objektivität und eine strikte Referenzialität historischer Aussagen herausgefordert zu haben. Gerade weil deutlich wurde, dass das behandelte Problem nicht ausschließlich mit den Mitteln des eigenen Fachs zu lösen war, sondern Übernahmen aus den Literaturwissenschaften, der Linguistik, der philosophischen Erkenntnistheorie oder dem Sozialkonstruktivismus erforderlich waren, um nicht in fruchtlosen Grabenkämpfen zu verharren, hat sich auf der geschichtstheoretischen Ebene inzwischen eine gewisse Debattenmüdigkeit eingestellt. Heute boomende Ansätze wie die historische Praxeologie, die ihrerseits Anleihen insbesondere bei der Soziologie macht, verschieben die Diskussion von der Geschichtstheorie zur Methodologie,43 so dass sie weit stärker durch reflexive Schleifen die tatsächliche Forschungspraxis anzuleiten vermögen, als dies in den Debatten um Fiktionalität und Faktualität der Historie gelang. Der zweite wichtige Ertrag der geschichtstheoretischen Debatten der 1980er und 1990er Jahre liegt wohl in einem kritischeren und distanzierteren Umgang mit den sogenannten historischen Meistererzählungen, also jenen suggestiven Narrativen, welche großflächig historischen Wandel auf den Begriff zu bringen bemüht sind.44 Hierunter fallen etwa Erzählungen vom unvermeidlichen Aufstieg des Bürgertums, der zunehmenden Säkularisierung, Rationalisierung und Modernisierung des Westens sowie jene Narrative von Aufstieg, Blüte und Niedergang der Reiche und Kulturen, die spätestens seit Edward Gibbon in historischen Darstellungen regelmäßig erzählt wurden.45 An einem entscheidenden Punkt hat sich dagegen auffallend wenig geändert: Die meisten geschichtswissenschaftlichen Arbeiten explizieren nicht, nach welchen Prinzipien ihre Erklärungen angelegt sind und anhand welcher Kriterien ihre Gültigkeit geprüft werden kann. Die fachspezifische Begeisterung dafür, die eigene Arbeit im Archiv herauszustreichen und die schiere Masse des bewältigten Quellenmaterials zu präsentieren, füllt diese Lücke nur scheinbar, da sie nicht zu beantworten vermag, wie die auf methodisch regulierte Weise aus den Quellen gewonnenen Erkenntnisse über
Derartige Versuche, Spekulation und Imagination in die historische Darstellung zu integrieren, unternimmt Natalie Zemon Davis, The Return of Martin Guerre, Cambridge, MA 1983; dies., Women on the Margins. Three Seventeenth-Century Lives, Cambridge, MA 1995. 43 Vgl. Praktiken der Frühen Neuzeit. Akteure – Handlungen – Artefakte, hg. von Arndt Brendecke, Köln/ Weimar/Wien 2015; Historische Praxeologie. Dimensionen vergangenen Handelns, hg. von Lucas Haasis, Constantin Rieske, Paderborn 2015; Praxisformen. Zur kulturellen Logik von Zukunftshandeln, hg. von JanHendryk de Boer, Frankfurt am Main/New York 2019. 44 Vgl. Konrad H. Jarausch, Martin Sabrow, ‚Meistererzählung‘. Zur Karriere eines Begriffs, in: Die historische Meistererzählung. Deutungslinien der deutschen Nationalgeschichte nach 1945, hg. von Konrad H. Jarausch, Martin Sabrow, Göttingen 2002, 9–31; Frank Rexroth, Meistererzählungen und die Praxis der Geschichtsschreibung. Eine Skizze zur Einführung, in: Meistererzählungen vom Mittelalter. Epochenimaginationen und Verlaufsmuster in der Praxis mediävistischer Disziplinen, hg. von Frank Rexroth, München 2007, 1–22. 45 Vgl. Edward Gibbon, The History of the Decline and Fall of the Roman Empire, hg. von J. B. Bury, 7 Bde., London 1909–1914. 42
185
186
Jan-Hendryk de Boer
vergangene Ereignisse so in einen Zusammenhang gebracht wurden, dass kausale Erklärungen im oben beschriebenen elementaren Sinne vorliegen. Ausführliche methodische Erörterungen zu Quellenproblemen und der gewählten Form der Darstellung verschleiern ebenfalls häufig lediglich die fehlende Reflexion der eigenen explanatorischen Leistungen. Gleichwohl begnügen sich die meisten geschichtswissenschaftlichen Arbeiten nicht mit der bloßen Deskription, sondern bieten Erklärungen, die jedoch gleichsam narrativ verhüllt präsentiert werden. Thesenbildung erfolgt auf diese Weise über eine argumentative Plausibilisierung, die explanatorische Behauptungen einschließt, ohne sie sichtbar (und damit auch kritisierbar) zu machen. 3.
‚Veränderung und Wandel erklären‘ in der Praxis: Vier Blicke in die Geschichtsschreibung
Um darzulegen, wie in der Praxis Veränderung und Dauer bzw. Wandel und Kontinuität erklärt werden, werde ich im Folgenden vier Monographien aus meinem Forschungsbereich, der historischen Mediävistik, beispielhaft vorstellen, um verschiedene Deutungsschemata aufzuzeigen. Jedes Buch repräsentiert eines der Modelle, die historische Darstellungen des 20. und 21. Jahrhunderts meines Erachtens vorrangig verwenden, um Veränderung und Wandel plausibel darstellen und zumindest partiell erklären zu können. Zu unterscheiden ist ein monofaktorielles Vorgehen von multifaktoriellen Ansätzen. Ersteres führt die phänomenalen Beobachtungen von Veränderung und Dauer auf einen zugrundeliegenden Faktor zurück, der herangezogen wird, um jene in einen darstellerischen Zusammenhang zu bringen und darüber implizit oder explizit zu erklären. Damit ermöglicht dieses Modell ein hohes Maß darstellerischer und konzeptioneller Klarheit und erleichtert synchrone wie diachrone Vergleiche. Es tendiert aber dazu, hochgradig begründungspflichtig zu sein, da es gegen Kritik nur bestehen kann, wenn es den als grundlegend erkannten Faktor als verantwortlich für alle dargestellten Veränderungen und Stetigkeiten erweisen kann. Insofern ist es stärker als andere Modelle dazu gezwungen, Fälle auszublenden, die nicht plausibel mit dem gewählten Ansatz erklärt werden können. Die drei multifaktoriellen Modelle gehen von mehreren Faktoren aus, auf die Veränderung und Dauer zurückzuführen sind. Im Mengenmodell wird eine Sammlung derartiger Faktoren benannt, ohne dass diese durch Kausalitätsannahmen hierarchisiert oder anhand anderer Kriterien gewichtet werden. Veränderung und Dauer sind demnach immer situativ zu erklären, wobei für die jeweilige Situation ein Faktor oder ein Bündel von Faktoren ermittelt werden kann, die jene hervorbringen. Geschichte erscheint dann im Extrem als kontingenter Ereignisstrom, für den möglicherweise eine Fließrichtung angegeben werden kann, ohne dass diese aus den einzelnen beobachteten Bewegungen abgeleitet werden könnte. Wie ich zeigen werde, neigt gerade dieses Modell dazu, entweder der bloßen Beschreibung ein Übergewicht in der Darstellung
Veränderung erklären
zu gewähren oder aber Raum für einen Wiedereintritt der Meistererzählungen zu bieten, welche die partikularen postulierten Zusammenhänge auf der Ereignisebene in einen übergreifenden Zusammenhang integrieren sollen. Begründet liegt dies darin, dass das Mengenmodell zwar plausibel Veränderung und Dauer zu modellieren erlaubt, jedoch Wandel und Kontinuität nur eingeschränkt zu fassen vermag. Deshalb müssen diese entweder ausgeblendet oder durch andere darstellerische Instanzen wie die Meistererzählungen eingeholt werden. Das zweite multifaktorielle Modell geht anders vor: Es postuliert einen temporalkausalen Zusammenhang von verschiedenen für Veränderung und Dauer verantwortlichen Faktoren, so dass das Hervortreten eines Faktors die Umstände schafft, die die Wirkung des zeitlich und/oder kausal folgenden zu erklären vermögen. Veränderungen werden auf diese Weise zu Wandel, Dauer zu Kontinuität zusammengebunden. Jener konstitutive temporal-kausale Zusammenhang kann begrifflich und konzeptionell gefasst werden. Insofern er aber auf einer anderen Analyseebene als die Veränderung und Dauer auslösenden Faktoren liegt, sind diese nicht auf jenen reduzierbar, wie es im monofaktoriellen Modell der Fall wäre. Darstellerisch wird im Detail häufig offengelassen, ob es sich um eine temporale oder kausale Relation handelt, beantwortet wird diese Frage auf der Ebene des Emplotments. Das dritte multifaktorielle Modell geht ebenfalls von einem Zusammenspiel von Veränderung und Dauer auslösenden Faktoren aus, konzipiert dieses aber nicht linear, sondern netzförmig. Hier vollzieht sich Wandel dadurch, dass ein Faktor oder ein Faktorenbündel Veränderungen oder Dauer hervorbringen, die nicht lediglich situativ auftreten, sondern in ihren Wirkungen soziale, personale und ideologische Konstellationen derart ändern, dass neue Faktoren hervortreten, auf die weitere zu beobachtende Veränderungen zurückzuführen sind. Dieses Spiel wiederholt sich, so dass Entwicklungen entstehen, die ihre eigene Dynamik erzeugen und damit ihren Bestand sichern. So erwächst aus Wandel Kontinuität, die wiederum in Wandel überführt wird, wenn die Stabilisierungsleistung der konstitutiven Faktoren aufgrund von zunehmender zeitlicher, räumlicher, diskursiver oder sozialer Distanz abebbt. Strukturelle Analogien bei phänomenaler Wandelbarkeit ermöglichen bei Gebrauch dieses Modells diachrone Vergleiche ebenso wie Erzählungen von Entwicklungen, ohne durch dem Prozess externe Teleologien motiviert werden zu müssen. Als Klassiker der historischen Mediävistik darf Marc Blochs 1939/1940 erschienenes Werk La société féodale gelten.46 Bloch, einer der Mitbegründer der für die Sozialgeschichte wegweisenden Zeitschrift Annales, untersuchte hierin Entstehung und Struktur des Feudalsystems. Im Unterschied zu traditionellen Ansätzen beschrieb er Marc Bloch, Die Feudalgesellschaft, Stuttgart 1999; zu Bloch und La société féodale vgl. Peter Schöttler, Marc Bloch (1886–1944), in: Klassiker der Geschichtswissenschaft, Bd. 1: Von Edward Gibbon bis Marc Bloch, hg. von Lutz Raphael, München 2006, 232–250; Ulrich Raulff, Ein Historiker im 20. Jahrhundert: Marc Bloch, Frankfurt am Main 1995. 46
187
188
Jan-Hendryk de Boer
nicht den Aufbau des Lehnswesens als Rechtssystem oder Staatsform, sondern legte eine Analyse „einer Gesellschaftsstruktur in ihrem Zusammenhang“47 vor, die als Organisation sozialer Bindungen verstanden wird. Zunächst stellt die Monographie die Entstehung vielfältig miteinander verflochtener Abhängigkeitsbande dar, die auf allen sozialen Ebenen, von elementaren bis hin zu komplexen Zusammenhängen, von Familie und Freundschaft über die Vasallität bis zur Herrschaft, das menschliche Zusammenleben strukturierten. Diese Strukturierungsleistung erzeugte in der Rekonstruktion Blochs eine soziale Wirklichkeit, die gleichermaßen das Alltagsleben wie den Glauben, das Sprechen wie das Fühlen, das Erkennen wie das Handeln formte. So sei eine Feudalwelt als ein Gefüge gesellschaftlicher Klassen entstanden, das die Entwicklungen im Recht, der Wirtschaft wie der Staatsbildung bestimmt habe. Blochs Arbeit ist ein Musterbeispiel dafür, dass monofaktorielle Erklärungen nicht simplifizierend sein müssen. Denn Bloch entwirft ein komplexes Gesellschaftsbild, welches über die aus dem Quellenmaterial rekonstruierten sozialen Beziehungen organisiert ist. Diese werden als Handeln, Fühlen und Verstehen prägende Relationen konzipiert, die als Machtasymmetrien gesellschaftliche Zuständigkeiten, Verantwortlichkeiten und Handlungsspielräume bestimmten Personengruppen zuweisen. Letztere stehen in der von Bloch entworfenen Feudalgesellschaft nie für sich, sondern stets in einem strukturierten sozialen Gefüge, das über stabile Bande innerhalb der Gruppe sowie zu anderen Gruppen erzeugt wird. Kontinuität ist ein Resultat des Vorhandenseins stabiler gesellschaftlicher Ordnung, Phänomene der Dauer werden damit erklärt, dass das soziale Gefüge Mechanismen seiner eigenen Stabilisierung schuf, Veränderungen auf der Phänomenebene werden als Niederschlag von Verschiebungen in der sozialen Ordnung gedeutet. Historischer Wandel bzw. historische Kontinuität sind bei Bloch situiert auf der Ebene der Gesellschaftsstruktur, Veränderung und Dauer erscheinen als von dieser abhängig. Die Art dieser Abhängigkeit bleibt allerdings theoretisch unterbestimmt und darstellerisch unscharf. So werden Angehörige eines Standes zumeist typisiert dargestellt, um die Logiken ihres Tuns und ihrer Eingebundenheit in die Feudalgesellschaft aufzuzeigen, ohne dass jedoch immer darüber Rechenschaft abgelegt würde, warum der zugrundeliegende Fall als typisch und nicht als spezifisch anzusehen sei. Zu klären, warum innerhalb der Darstellung dann doch immer wieder einzelne Personen hervortreten oder bestimmte Quellenzeugnisse zitiert werden, während andere keine Erwähnung finden, ist zumeist der Verstehensleistung des Lesers überantwortet. Bloch differenziert in seiner Studie nicht zwischen den Analyseebenen von Veränderung und Dauer sowie Wandel und Kontinuität, sondern blendet diese beständig ineinander. So wird Veränderung Ausdruck von Wandel, Dauer Ausdruck von Kontinuität, Wandel erklärt Veränderung, Kontinuität erklärt Dauer. Die methodologischen Grundlagen dieses Vorgehens mag der Leser erschließen oder aus anderen Werken Blochs und von anderen
47
Bloch (Fn. 46), 19
Veränderung erklären
mit den Annales verbundenen Historikern kennen, expliziert werden sie jedoch in La société féodale nicht. Lediglich die Methode des Vergleichs als Weg der Erkenntnissicherung und Einordnung der Befunde tritt augenfällig hervor.48 Doch sie erlaubt lediglich, Aussagen über Zustände zu plausibilisieren, nicht aber, die Modellierung von Prozessen und Entwicklungen zu begründen. Die Plausibilität der Darstellung verdankt sich damit ebenso der Konsequenz ihrer Durchführung wie der Verhüllung des gewählten explanatorischen Ansatzes. Als Beispiel für das Mengenmodell historischer Veränderung bietet sich Bernd Roecks Geschichte der Renaissance an, die 2017 unter dem Titel Der Morgen der Welt erschienen ist.49 Das mag zunächst als überraschende Wahl erscheinen, da Roeck ein großes Fortschrittsnarrativ entfaltet, in welchem Europa sich seines Erbes bewusst wird, es für seine Ziele einzusetzen verstehen lernt und sich schließlich die Welt epistemisch, ökonomisch und politisch unterwirft. Doch ein genauerer Blick zeigt, dass die teils sehr kleinteilig, teils mit breiterem Pinsel gemalten Veränderungen auf der Ereignisebene wie auf derjenigen struktureller Konfigurationen zwar plausibilisiert werden, indem sie auf verschiedene Faktoren explanatorisch zurückgeführt werden, diese partiellen Erklärungen jedoch nicht auf gleicher Analyseebene miteinander in Beziehung gesetzt werden. Roeck entwirft Europa als einen Möglichkeitsraum, dessen einzigartige Entwicklung durch ein Zusammenspiel unterschiedlicher Faktoren hervorgebracht worden sei. Genannt werden günstige geographische und klimatische Bedingungen, ein hohes Maß an aus staatlicher Vielfalt resultierender politischer und kultureller Wandelbarkeit, die großen Handlungsmöglichkeiten der städtischen Mittelschichten, das kontinuierliche Zurückdrängen der Religion, eine ehrfürchtigen Autoritätsglauben ablösende kritische Auseinandersetzung mit antiker und arabischislamischer Philosophie und Wissenschaft seit dem Spätmittelalter, die durch die Erfindung des Buchdrucks ausgelöste Medienrevolution und schließlich Entwicklungen, die über sehr lange Zeiträume vonstattengingen. Wie diese Gemengelage von Faktoren zusammenhängt, bleibt weitgehend offen. Zwar sind Klima und Geographie zweifellos als Bedingungsfaktoren zu verstehen, welche das Hervortreten der übrigen günstig beeinflussen, ein klarer Kausalnexus wird jedoch nicht konstruiert. Insofern können die genannten Faktoren auch gleichermaßen zur Begründung von Wandel und Kontinuität angeführt werden, ohne dass der jeweilige Grund expliziert würde. Die postulierte europäische Neigung zur Religions- und Autoritätskritik wird beispielsweise als lineare Entwicklung entworfen, jedoch nicht auf andere Faktoren zurückgeführt oder ihrerseits konsequent als Bedingungs- oder Ermöglichungsfaktor für die Entwicklun-
Bloch hatte bereits 1928 die von ihm später immer wieder praktizierte Methode des Vergleichs konzeptionell umrissen; vgl. Marc Bloch, Für eine vergleichende Geschichtsbetrachtung der europäischen Gesellschaften, in: Alles Gewordene hat Geschichte. Die Schule der Annales in ihren Texten 1929–1992, hg. von Matthias Middell, Steffen Sammler, Leipzig 1994, 121–167. 49 Bernd Roeck, Der Morgen der Welt. Geschichte der Renaissance, München 2017 48
189
190
Jan-Hendryk de Boer
gen auf anderen Feldern präsentiert. Dementsprechend werden vermeintliche Rückschläge, etwa der konfessionelle Antagonismus im Gefolge der Reformation, erzählerisch wie argumentativ in die jeweilige Großerzählung nur unvollständig integriert. Roecks weitgespannter Blick richtet sich zunächst auf die griechische und die römische Antike, das lateinische Mittelalter und den islamischen Herrschaftsbereich, in denen Voraussetzungen geschaffen worden seien, die verschiedene parallel laufende Entwicklungen ermöglichten, die in der europäischen Renaissance gipfelten. Diese wiederum habe die Voraussetzungen bereitgestellt für jene politischen, ökonomischen, technischen und wissenschaftlichen Veränderungen, die die europäische Moderne hervorbrachten. An dieser groben Skizze wird bereits deutlich, dass Roeck die beobachteten Veränderungen auf verschiedenen Feldern zunächst narrativ in eine gemeinsame Dynamik zusammenschließt, um sie dann durch eine klassische Fortschrittserzählung zu plausibilisieren. Mag diese durch eingeschobene Erzählungen über Gewalt und Machtmissbrauch nach außen während der europäischen Unterwerfung der Welt und nach innen gegenüber Devianten und Andersdenkenden gedämpft sein, so ergibt sich doch eine Aufstiegsgeschichte, die in eine Prognose über den Fall in Gestalt eines schleichenden Bedeutungsverlustes Europas mündet. Roecks große Erzählung ist allerdings explanatorisch nicht aus der Menge von Faktoren entwickelt, auf welche er die verschiedenen beobachteten Veränderungen zurückführt, sondern scheint der jeweiligen Untersuchung immer schon als narrativer Deutungsrahmen vorauszuliegen, der genutzt werden kann, wenn die Vielgestaltigkeit von Veränderung und Stetigkeit nicht mehr erklärend zu bewältigen ist. Beispielhaft für die Verwendung des zweiten multifaktoriellen Modells, welches einen temporal-kausalen Zusammenhang der für Veränderung und Dauer verantwortlich gemachten Faktoren entwirft, ist Peter Moraws der deutschen Geschichte des Spätmittelalters gewidmete Studie Von offener Verfassung zu gestalteter Verdichtung.50 Moraw schildert die Entwicklung spätmittelalterlicher Staatlichkeit als Bewegung der Verdichtung, die verschiedene Lebensbereiche umgreift. Jene ist allerdings (wohl bewusst) theoretisch unterbestimmt und dient vor allem der Identifizierung analoger Prozesse. Parallele und gegenläufige Prozesse werden insgesamt als Komplexitätszunahme dargestellt, die aus dem Verdichten sozialer Tatsachen resultiere. Charakteristisch für Moraws Darstellung ist es, je zwei Elemente mittelalterlichen Lebens in eine spannungsreiche Beziehung zu setzen. So schreibt er von Land und Menschen, ländlichem Leben und Wirtschaften, Frömmigkeit und Kirche, Reich und König, Seuche und Agrarkrise, womit die Formel des Verfassungsdualismus vorbereitet ist, die ihm im letzten Abschnitt dazu dient, die Entwicklungen der letzten Jahrzehnte des 15. Jahrhunderts konzeptionell zu fassen. Zusammengenommen werden ‚Volk‘ und ‚Staat‘ als
Peter Moraw, Von offener Verfassung zu gestalteter Verdichtung. Das Reich im späten Mittelalter 1250 bis 1490, Berlin 1985 50
Veränderung erklären
zwei eng verbundene, jedoch nie deckungsgleiche Kräfte gesehen, deren Interagieren historischen Wandel verursacht. Moraw erzählt und erklärt also über das Entwerfen von Dualitäten, die als wechselseitige Bedingungsfaktoren gedeutet werden, um eine fundamentale Spannung als Movens der Geschichte zu profilieren. Aus dem spannungsreichen Zusammenwirken zweier Faktoren entsteht jeweils Dynamik auf einem Feld, die insgesamt zu einer linearprogressiven Entwicklung aggregiert wird. Dass zwischendurch immer wieder klassisch anmutende ereignisgeschichtliche Kapitel eingeschoben werden, ist allerdings nicht nur als Zugeständnis an die Konvention historischer Darstellungen für ein breiteres Publikum zu sehen, sondern auch als strukturelles Problem der Argumentation. Moraw vermag zwar innerhalb der postulierten Dualitäten, Veränderung und Dauer als Indizien für Wandel und Kontinuität zu begreifen und diese auch begrifflich in einer charakteristischen Mischung aus Quellensprache und modernen Konzeptbegriffen zu fassen. Hier finden jedoch zahlreiche Ereignisse, die für die spätmittelalterliche deutsche Geschichte signifikant zu sein scheinen, keinen adäquaten Ort. Deswegen können sie zwar in die von Moraw entworfene Geschichte einer linearen historischen Entwicklung darstellerisch integriert werden – und sei es in Form eines Exkurses –, ihr argumentatives Gewicht bleibt jedoch unklar. Der insgesamt postulierte und auch im Titel beschlossene Wandel ist in Moraws Buch also weniger als seine Teile, wodurch die Analyseebene von Veränderung und Dauer und diejenige von Wandel und Kontinuität unzureichend integriert bleiben. Als Beispiel für das dritte multifaktorielle Modell sei Frank Rexroths Studie Fröhliche Scholastik angeführt, die sich den Veränderungen im gelehrten Feld des 12. Jahrhunderts widmet.51 Rexroth untersucht die Herausbildung der Scholastik in einem weiteren Sinne: Es geht ihm nicht nur um die Entstehung eines spezifischen Denkstils, sondern um den Zusammenhang zwischen sozialen, habituellen und diskursiven Faktoren, die insgesamt die Scholastik konstituierten. In einem ersten Schritt wird das soziale Milieu der Schulen vor allem in Frankreich analysiert, für die intime Lehrer-Schüler-Verhältnisse charakteristisch gewesen seien. Diese hätten nicht nur die Weitergabe von Wissensbeständen und Arbeitstechniken gefördert, sondern auch der Einübung eines gelehrten Habitus gedient, der die Angehörigen der Schule für andere als solche erkennbar gemacht habe. Auf diese Weise sei eine Exklusivität der Schulen gegenüber ihrer Umwelt hergestellt worden, während sie untereinander häufig in Konkurrenzverhältnissen gestanden hätten, was erheblich zur intellektuellen Dynamik des 12. Jahrhunderts beigetragen habe. Diese Faktoren werden von Rexroth insgesamt als entscheidend für die Formierung eines gelehrten Denkstils gesehen, der seinerseits die Schulen gegenüber ihrer Umwelt differenziert habe. Die Schulen hätten nicht für sich existiert, sondern tradierte sowie neu entstehende Werthaltungen und Lebens-
51
Frank Rexroth, Fröhliche Scholastik. Die Wissenschaftsrevolution des Mittelalters, München 2018
191
192
Jan-Hendryk de Boer
modelle für ihre Zwecke adaptiert. Mit dem programmatischen Streben nach Wahrheit habe sich schließlich ein methodologisches Lob des Zweifels verbunden, was sich wiederum insgesamt dynamisierend ausgewirkt habe, zugleich jedoch auch innerhalb des gelehrten Feldes für Differenzbildungen genutzt worden sei. Paris wird als kongenialer Ort dieses Schulenmilieus dargestellt, das mit dem Lob des nutzlosen, nicht auf Verwertung zielenden Wissens eine Ideologie entwickelt habe, die den eigenen Wissenserwerb programmatisch gegenüber anderen Formen abschirmte. Die Formierung von personalen Netzwerken, die Habitualisierung des Gelehrtenlebens, die Entwicklung geeigneter Formen der Institutionalisierung, die Formulierung charakteristischer Prinzipien eines als distinkt wahrgenommenen Denkstils sowie dessen ideologische Immunisierung gegen externe Kritik sind in Rexroths Darstellung also in ihrer Verschränkung für die hochmittelalterliche Wissensrevolution verantwortlich. In Rexroths Studie wird jeweils die Genese eines der konstitutiven Faktoren der scholastischen Gelehrtenwelt herausgearbeitet, um dann das Vorliegen eines oder mehrerer jener Faktoren als Möglichkeitsbedingung eines weiteren aufzuzeigen, der wiederum die Genese weiterer Faktoren bedingt. Wandel und Kontinuität werden auf diese Weise nicht nur auf der Makroebene einer systemisch aufzufassenden Gelehrtenwelt verortet, sondern auch auf der Mesoebene der sie konstituierenden Faktoren, wobei zwischen diesen Ebenen ein dynamisches Bedingungsverhältnis angenommen wird. Insofern entwickelt Rexroth kein linearprogressives Modell, sondern organisiert die für die Gelehrtenwelt als konstitutiv angenommenen Faktoren netzartig, da er sie sich in unterschiedlichem Grade gegenseitig bedingen, ermöglichen und stabilisieren lässt. Ihr Zusammenwirken wird als ursächlich für fundamentalen Wandel gesehen, der mehr ist als die Summe von Veränderungen auf der Ereignisebene. Denn insgesamt bedeutet der intellektuelle Wandel im 12. Jahrhundert Rexroth zufolge einen fundamentalen gesellschaftlichen Wandel durch die Ausdifferenzierung des gesellschaftlichen Teilsystems Wissenschaft. Das Fortbestehen eines Faktors des Wandels garantiert neben den neu hinzutretenden erst diese autopoietische Selbstbewegung, die von der wechselseitigen Stabilisierungsleistung personaler, sozialer, habitueller und diskursiver Faktoren abhängig ist. Werden einzelne Faktoren getilgt, wie etwa die Begeisterung für nutzloses Wissen durch eine zunehmende Ökonomisierung der Hochschulen, büßt das System insgesamt an Dynamik ein und verändert sich fundamental, da die übrigen Faktoren notwendig ebenfalls betroffen sind. Die Dynamik der Wirkfaktoren der Autopoiesis und deren Beziehung zueinander werden sich dann ändern, so dass auch das System insgesamt verändert wird. Alle vier Monographien plausibilisieren ihre Annahmen über die Darstellung von Wandel und Kontinuität, indem die Kontingenz der dargestellten vergangenen Handlungen, Ereignisse und Zustände in einem Plot aufgehoben wird, der es erlaubt, neben konkret situierten Veränderungen einen größeren Zusammenhang zu narrativieren. Sie behaupten zwar keine Notwendigkeit der postulierten Entwicklungen und Prozesse, der Stabilitäten und Ordnungskonfigurationen, doch ihre Suggestivität
Veränderung erklären
liegt darin, dass historische Veränderung als in sich folgerichtig erzählt wird, so dass sie zu einer Erzählung des Wandels wird. In diesen werden mal in größerem, mal in geringerem Maße Phänomene der Dauer bzw. Kontinuität integriert. Sie alle treiben also Kontingenzbewältigung, indem realisierte historische Möglichkeiten durch die normative Kraft des Faktischen so organisiert werden, dass der Leser zu vergessen tendiert, dass jede Möglichkeit immer nur bestand, weil andere nicht realisiert wurden.52 Dieser darstellerisch notwendige Verzicht, historische Prozesse permanent auf Alternativen zu befragen, plausibilisiert das jeweilige Emplotment ebenso wie die gebotenen Erklärungen, indem den Rezipienten darstellungsökonomisch eine Geschichte und nicht eine Vielzahl möglicher und wirklicher Geschichten vorgelegt wird. Insbesondere bei Bloch und Rexroth wird historischer Wandel nicht nur mit den Mitteln der Narration plausibilisiert, sondern auch durch das Einflechten theoretischer Überlegungen bzw. den Rekurs auf Wissensbestände anderer Disziplinen erklärt. Um die epistemische Rolle derartiger Importe in die Geschichtswissenschaft deutlicher zu bestimmen, sei ein letzter Blick auf die Fröhliche Scholastik geworfen. Einen Erklärungsansatz, mit dem Rexroth die verschiedenen von ihm herausgearbeiteten Faktoren historischen Wandels miteinander kurzschließt, habe ich bislang unterschlagen: Ein Leitmotiv der Darstellung bildet das Reflexivwerden der Wissenschaft. Die zunehmende Selbstbeobachtung der Wissenschaft erlaubt ihr – in systemischer Hinsicht, nicht in Bezug auf personale Intentionen – Selbststeuerung. Sie lernt, sich als System in Differenz zu ihrer Umwelt zu beobachten, was es ihr ermöglicht, auf diese Umwelt zu reagieren – sei es durch Abschließung, sei es durch Ignoranz, sei es durch Herausforderung, sei es durch Übernahmen und Adaptionen systemexterner Wissensbestände und Habitus. Die Reflexivität der Scholastik stellt Rexroth als jenen Faktor dar, der die übrigen stabilisiert und organisiert. Damit erscheint sie als ein, wenn nicht der entscheidende Faktor für den historischen Wandel in Form der Herausbildung des scholastischen Wissenschaftssystems. Sie plausibilisiert schließlich die These, die übrigen Faktoren wirkten zusammen bei der Genese der scholastischen Gelehrtenwelt, indem sie als strukturierter Zusammenhang erklärbar sind. Das multifaktorielle Modell der netzartig einander bedingenden Faktoren historischen Wandels wird von Rexroth argumentativ also durch den Einbau systemtheoretischer Theoreme und Begrifflichkeiten gestützt. In analoger Weise funktioniert das von Bloch verwendete monofaktorielle Modell nicht nur darstellerisch, sondern auch argumentativ, weil soziologisches Wissen in seine Anwendung eingegangen ist. Man kann mit Danto durchaus der Meinung sein, Geschichte zu schreiben, bedeute, Informationen in stories zu organisieren. Allerdings hängt deren Plausibilität nicht nur
Zur Rolle des Möglichkeitssinns in der historischen Forschung vgl. Geoffrey Hawthorn, Die Welt ist alles, was möglich ist. Über das Verstehen der Vergangenheit, Stuttgart 1994.
52
193
194
Jan-Hendryk de Boer
von narrativen Techniken, sondern auch von den verwendeten Erklärungen ab. Wenn Wandel erklärt und nicht lediglich erzählt werden soll, genügt es nicht, die als ursächlich ausgemachten Faktoren zu benennen und sie über temporale Organisation in eine plausible narrative Folge zu bringen. Vielmehr bedarf es einer doppelten argumentativen Stützung: Zum einen ist es notwendig, gleichsam in horizontaler Orientierung zu erklären, wie bei multifaktoriellen Modellen die Faktoren tatsächlich zusammenwirkten bzw. wie beim monofaktoriellen Modell ein Faktor als ursächlich für den Wandel insgesamt angesehen werden kann. Zum anderen ist in vertikaler Perspektive zu erklären, inwiefern die beobachteten Veränderungen sowie Phänomene der Dauer in einen übergreifenden Zusammenhang zu stellen sind, der als Kontinuität oder Wandel präsentiert werden kann. Im ersten Fall wird das kontingente Zusammenwirken von Faktoren, im zweiten Fall die Rolle kontingenter Ereignisse in einem Zusammenhang plausibilisiert, dem Folgerichtigkeit zugesprochen wird. Diese liegt dann vor, wenn zeitliche Sequenzen als kausale Gefüge und kausale Gefüge als zeitliche Sequenzen erklärt und narrativiert werden können. Um die horizontale wie die vertikale Dimension des historischen Wandels, also einerseits die Verschränkung von ihn verursachenden Faktoren miteinander sowie andererseits die Integration der Analyseebene des Wandels mit derjenigen der Veränderung, erklären zu können, ist die Geschichtswissenschaft auf Importe aus anderen Wissenschaften angewiesen. Nur so vermag sie, das verwendete explanatorische Modell begrifflich konsistent für ihren Gegenstand einzusetzen, argumentativ zu plausibilisieren und in seiner Aussagekraft kritisch zu reflektieren. Geschichte kann mit ihren Mitteln Veränderung und Dauer narrativieren und erklären; auf sich gestellt kann sie historischen Wandel und Kontinuität jedoch lediglich narrativieren, aber nicht hinreichend erklären. Hierfür sind nämlich erstens begriffliche Instrumentarien nötig, die nicht aus den Quellen abgeleitet werden können, sondern reflexiv gewonnen werden müssen, nachdem aus der Rekonstruktion von Veränderung und Stetigkeit bereits erste Hypothesen über Wandel und Kontinuität aufgestellt worden sind. Andernfalls drohte nicht nur eine Vermischung der Analyseebenen; obendrein würde die Interpretationsleistung des Historikers invisibilisiert, da sie hinter der Quellensprache versteckt wird. Begriffliche Anlehnungen und Übernahmen aus anderen Wissenschaften sind ein Mittel, dieser Gefahr zu entrinnen. Zweitens ist eine argumentative Absicherung der Erklärung zumeist darauf angewiesen, aus den jeweiligen Nachbarwissenschaften Wissensbestände zu übernehmen, die die Rolle der als für Wandel oder Kontinuität ursächlichen Faktoren und deren Zusammenspiel auf einer allgemeineren Ebene zu erklären vermögen, um so die aus der Überlieferung gewonnenen Informationen argumentativ organisieren zu können. Dies können die Sozialwissenschaften sein, wenn es um die gesellschaftliche Ordnung geht; Linguistik, Soziologie und Philosophie, wenn diskursive und epistemische Strukturen erforscht werden; Literatur und Kulturwissenschaften oder Theologie, wenn Sinnbildung behandelt wird; Philosophie, Psychologie und Soziologie, wenn nach menschlichem Handeln, seinen Gründen und
Veränderung erklären
Wirkungen gefragt wird. Drittens ist eine kritische Prüfung des eigenen Erklärungsmodells auf seine Reichweite und Geltung erforderlich, was Konzepte von Erklären voraussetzt, die nicht disziplinimmanent gewonnen werden können, da auf diese Weise nicht die Spezifik historischen Erklärens relativ zu Erklärungen anderer Disziplinen erkannt werden kann. Dies gelingt nur, wenn historisches Erklären mit anderen Weisen des Erklärens verglichen wird. Der Rekurs auf fachexterne Wissensbestände kann also der begrifflichen und konzeptionellen Präzisierung und Plausibilisierung dienen und bewahrt zugleich davor, Zirkelschlüsse dadurch zu produzieren, dass die aus der Überlieferung gewonnenen Annahmen über das Vorliegen vergangener Handlungen und ihrer Ergebnisse sowie deren Relationen zueinander Aussagen über Wandel und Kontinuität legitimieren, die wiederum Veränderung und Dauer erklären. 4.
Der Schein des Problems: Historische Gesetze
Kommen wir abschließend noch einmal kurz auf jene Fragen zu sprechen, die in der Geschichte nicht beantwortet werden können. Wenn, wie eingangs beschrieben, das Historisieren als kennzeichnende Tätigkeit geschichtswissenschaftlichen Forschens anzusehen ist, kann die Formulierung historischer Gesetze kaum zu seinen Aufgaben gehören. Diese Überzeugung gehörte bereits zum Selbstverständnis des Historismus des 19. Jahrhunderts, der sich darüber von der Aufklärungshistorie absetzte. Der entschiedenste Widerspruch kam von Anhängern einer hegelianisch-marxistischen Geschichtsauffassung, aber auch außerhalb dieser ideengeschichtlichen Tradition gab es Geschichtsdenker und Historiker wie Oswald Spengler oder Arnold J. Toynbee, die von der Existenz historischer Gesetze überzeugt waren. Zumindest in Westeuropa und Nordamerika blieben derartige Stimmen jedoch – innerhalb der Disziplin – die Ausnahme.53 Spätestens mit dem von der westeuropäischen wie osteuropäischen Geschichtswissenschaft nicht antizipierten Zusammenbruch der kommunistischen Staaten Mittel- und Osteuropas seit 1989 besaß man überdies den nicht theoretisch erbrachten, aber praktischen Beweis, dass gute wissenschaftliche Praxis die historische Forschung nicht befähigt, in die Zukunft zu schauen. Prognostische Qualität eignet ihr ganz offensichtlich nicht, da in der Vergangenheit beobachtete Zusammenhänge nicht über die eigene Gegenwart hinaus anhand von Gesetzeshypothesen in die Zukunft verlängert werden können.54 Es scheinen vor allem Nichthistoriker zu sein, die darauf beharren, es müsse historische Gesetze geben, und dies Historikern zu beweisen suchen; vgl. neben Hempel (Fn. 19 u. 20) und Nagel (Fn. 19) etwa Wolfgang Stegmüller, Probleme und Resultate der Wissenschaftstheorie und Analytischen Philosophie, Bd. 1: Erklärung – Begründung – Kausalität. Studienausgabe, Teil C: Historische, psychologische und rationale Erklärung, verstehendes Erklären, Berlin u. a. 21983. 54 Stephen E. Toulmin, Voraussicht und Verstehen. Ein Versuch über die Ziele der Wissenschaft, Frankfurt am Main 1981 53
195
196
Jan-Hendryk de Boer
Dass die Annahme, es gebe historische Gesetze, heute innerhalb der Geschichtswissenschaft kaum noch Zustimmung findet, ist allerdings nicht nur historisch zu erklären. Vielmehr gibt es gute Gründe dafür, warum Historiker ihre Zeit lieber mit anderen Dingen verbringen, als mit der Suche nach Gesetzen. Diese erwiesen sich nämlich in der Praxis entweder als trivial und halfen damit nicht, komplexe Ereigniszusammenhänge zu erklären, oder man stieß auf zahlreiche Ausnahmen, was die explanatorische Relevanz der postulierten Gesetze erheblich einschränkte.55 Die Erklärung von Ereignissen über Antecedensbedingungen und Gesetzesannahmen verlief in der Praxis zumeist unbefriedigend, da faktisch keine allgemein akzeptierten, nichttrivialen historischen Gesetze bereitstanden, die man für historische Erklärungen nutzen konnte. Beobachtungen, ein Ereignis vom Typ B folge auf ein Ereignis vom Typ A, wobei dieses Folgen als Ursache-Wirkungs-Verhältnis zu deuten sei, ließen sich praktisch nicht in Gesetzeshypothesen überführen, nach denen dieses Folgeverhältnis immer bestünde. Es ist davon auszugehen, dass es sich bei der Suche nach (nichttrivialen) historischen Gesetzen um ein Scheinproblem handelt. Denn hier werden Erwartungen an Reichweite und Geltung von (natur-)wissenschaftlichen Erkenntnissen für die Geschichte übernommen, die diese nicht erfüllen kann. Die Charakteristik historischer Erkenntnis besteht darin, Ereignisse und Sachverhalte als situiert zu begreifen, diese also darstellerisch und explanatorisch in Kontexte einzubetten. Die Relationierung von Ereignissen, die oben als Kern historischen Erklärens dargestellt wurde, erfolgt nicht abstrakt, sondern bezogen auf einen bestimmten Kontext, weshalb ihr immer etwas Spezifisches eignet. Das schließt allerdings, wie bereits William Dray betont hat, Typisierungen nicht aus: Es ist möglich, jenseits allgemeiner Gesetze nach typischen Handlungsweisen, nach Handlungsprinzipien zu suchen, die das Tun von Akteuren in bestimmten Kontexten leiteten.56 Jede Erklärungsleistung der Geschichtswissenschaft basiert auf der Feststellung, dass etwas unter diesen und jenen Umständen der Fall sein konnte und tatsächlich war. Erst in zweiter Instanz relationiert sie mehrere Ereignisse oder Sachverhalte, wobei diese stets nicht nur relativ zueinander, sondern auch relativ zu einem Kontext erfasst werden. Daraus können Hypothesen entwickelt werden, inwiefern dieser Zusammenhang der beobachteten Möglichkeit von Ereignissen und Sachverhalten unter bestimmten Umständen insofern verallgemeinerbar ist, als unter ähnlichen Umständen das Vorliegen ähnlicher Ereignisse und Sachverhalte wahrscheinlich war und ist. Es gilt dann, anhand von synchronen und diachronen Vergleichen und einer methodisch regulierten Quellenauswertung die aufgestellten Hypothesen über Regelmäßigkeiten in der Formation historischer Ereignisse oder deren Fehlen zu überprüfen und gegebenenfalls zu modifizieren. Aus der eigenen Forschungserfahrung lernt man
55 56
Roberts (Fn. 6), 10–13 Dray (Fn. 19)
Veränderung erklären
übrigens, dass die historische Erkenntnis insbesondere in der Modifikation von Annahmen über regelmäßige Zusammenhänge besteht, da die Erforschung konkreter Fälle zumeist doch neben dem Ähnlichen und Analogen immer Besonderes und Abweichendes zutage fördert. Bei Hypothesen über Regelmäßigkeiten des Auftretens von Ereignissen und ihren Umständen handelt es sich nicht um Gesetze, da deren Reichweite und Geltung immer beschränkt bleibt. Insofern sind sie nur bedingt verallgemeinerbar. Ihre Reichweite kann in unterschiedlichem Maße temporal, lokal, sozial oder diskursiv beschränkt sein, so dass beispielsweise bestimmte Zusammenhänge, die für den lateinischen Westen des Hochmittelalters nachgewiesen wurden, nicht oder nur sehr eingeschränkt für andere Epochen oder Kulturräume gelten können. Was für bestimmte soziale Gruppen oder Milieus gilt, muss keinesfalls bei anderen Gruppen oder Milieus beobachtbar sein. Was für moderne westliche Staaten typisch ist, mag bei traditionalen Gesellschaften des Altertums keinerlei Entsprechung besitzen. Inwiefern und bis zu welchem Grade sich Aussagen über Zusammenhänge verallgemeinern lassen oder nicht, ist jeweils anhand der Überlieferung und durch den historischen Vergleich fallbezogen zu überprüfen. Die Geltung von Hypothesen über Regelmäßigkeiten ist beschränkt, da sie selbst als zeiträumlich, sozial und diskursiv situiert zu verstehen sind. Die heutige Geschichtswissenschaft historisiert nicht nur das Tun und Erleiden der historischen Akteure, die sie studiert, sondern muss sich auch selbst insofern historisieren, als sie ihre Aussagen als situiert begreift. Diese sind nach spezifischen diskursiven Regeln beispielsweise unter den Bedingungen der westeuropäischen und nordamerikanischen Moderne entstanden, was nicht heißt, dass ihre Geltung a priori und unaufhebbar auf ihren jeweiligen Entstehungskontext beschränkt sein muss, jedoch die regulative Annahme nahelegt, dass ihre Geltungsansprüche mit derartigen Beschränkungen zu kalkulieren haben. Historische Arbeiten müssen – wie jegliche Forschung – gute Gründe dafür formulieren, dass ihre Erkenntnisse und Thesen Akzeptanz finden. Je umfangreicher deren angestrebte Reichweite und Geltung in zeitlicher, räumlicher und kultureller Hinsicht ist, desto stärker sieht sich der Historiker herausgefordert, die eigenen Deutungen zu plausibilisieren. Dies kann nie nur abstrakt geschehen, sondern muss immer auch in Auseinandersetzung mit der jeweiligen Überlieferung, also ‚empirisch‘, erfolgen. Der Anspruch auf eine möglichst große Reichweite und Geltung geschichtswissenschaftlicher Thesen bedeutet allerdings auch, dass Veränderungen und Dauer nicht lediglich zu kartieren sind. Dies privilegierte Deskription gegenüber Erklärung und schränkte die Relevanz der eigenen Erkenntnisse entschieden ein. Denn das bloße Beschreiben und Ordnen von Phänomenen erlaubt nicht, Zusammenhänge über die jeweils untersuchte konkrete Situation hinaus zu identifizieren. Rein darstellerische Plausibilisierungen der eigenen Versuche, übergreifende Zusammenhänge wie Wandel und Kontinuität zu ermitteln, sind zwar heute in der Geschichtswissenschaft verbreitet, bergen aber verschiedene Risiken: Zum einen tendieren sie dazu, keine Krite-
197
198
Jan-Hendryk de Boer
rien abseits von klassischer Quellenkritik und anderem disziplinären Handwerkszeug zuzulassen, anhand derer sie falsifizierbar sind. Dann droht jedoch das wissenschaftliche Gespräch nicht nur mit anderen Fächern, sondern bereits innerhalb der Disziplin zum Austausch von ‚Privatmetaphysiken‘ (Bruno Latour) zu werden, was zwar ästhetisch bereichernd sein kann, aber wenig erkenntnisfördernd ist, wenn die Disziplin in ihrem Selbstverständnis auf mehr zielt als auf das Bereitstellen bloßer Informationen über die Vergangenheit. Zum anderen neigen derartige rein darstellerische Plausibilisierungsleistungen dazu, die Aufgabe der Sinn- und Kohärenzbildung nicht oder nur nachgeordnet mit explanatorischen, sondern vorrangig mit narrativen Mitteln zu erfüllen. Damit ist der Rückkehr der Meistererzählungen oder dem Formulieren neuer großer Narrative ein Raum gegeben, der methodologisch kaum kontrolliert wird. Insofern scheint es erforderlich, dass sich geschichtswissenschaftliche Studien auf beiden Analyseebenen – derjenigen von Veränderung und Dauer und derjenigen von Wandel und Kontinuität – bewegen. Beschränkt man sich auf die erste, sind die Untersuchungsergebnisse a priori in ihrer Reichweite erheblich begrenzt. Zugleich wird der explanatorische Gehalt der Darstellung gering sein. Bei der Analyse von Wandel und Kontinuität muss unweigerlich begrifflich und theoretisch gearbeitet werden, um Zusammenhänge zu ermitteln, die nicht nur in einer konkreten Situation bestanden haben. Akzeptiert man dies als Aufgabe für historische Forschung und Darstellung, ist offenkundig, dass sich die Geschichte nicht allein auf jene Fragen beschränken darf, die sie mit ihren eigenen Mitteln erforschen kann, da sie dann bei der Untersuchung von Veränderung und Dauer verharren muss. Zur Erklärung von Wandel und Kontinuität ist sie auf den Import von Begriffen, Konzepten und Theorien aus anderen Wissenschaften angewiesen, wenn sie nicht bloß berichten will, dass sich in der Vergangenheit mancherlei ereignet hat, sondern sich auch vornimmt zu erklären, warum dies geschehen ist. Jan-Hendryk de Boer
Universität Duisburg-Essen, Historisches Institut, Universitätsstraße 12, 45117 Essen, [email protected]
Was ist Chemie? Eine Skizze der Philosophie einer vermeintlich unphilosophischen Wissenschaft
KL AUS RUTHENBERG
Abstract: Im vorliegenden Kapitel versuche ich, einige aus meiner Sicht wesentliche systematische
Aspekte einer befriedigenden Chemiephilosophie zu umreißen. Ich gehe dabei davon aus, dass Geschichte und Philosophie einer Wissenschaft eine Einheit bilden. Deshalb beziehe ich mich explizit auf zentrale philosophierende Chemiker wie Frantisek Wald, Wilhelm Ostwald und Friedrich Paneth. Zweitens geht es mir insbesondere um eine positive Bestimmung der hier adressierten Naturwissenschaft, weshalb ich die in der modernen Chemiephilosophie (leider) weiterhin zentrale Reduktionismusdebatte nur hier und da streife.
1.
Definitionen (Einleitung)
Die Chemie ist die Wissenschaft des Verhaltens der Stoffe oder Substanzen. Der Stoffbegriff leitet sich aus dem Dingbegriff ab, wobei von zufälligen Aspekten wie der äußeren Form abgesehen wird. Viele Substanzen sind sinnlich erfahrbar, man kann sie sehen, spüren, ertasten, riechen und schmecken. Die Charakterisierung und die Individuation einzelner Stoffe erfolgt durch das Registrieren und den Vergleich des wechselseitigen Verhaltens von Stoffproben gegeneinander. Bei Aristoteles findet sich folgende Beschreibung der Stoffcharakterisierung (Meteorologie IV, 385 a): Alle diese Substanzen unterscheiden sich voneinander 1. dadurch, dass jede von den Sinneswerkzeugen als etwas Eigenes wahrgenommen wird und auf diese eine besondere Wirkung ausübt, – etwas ist weiß, wohl-riechend, tönend, süß, warm, kalt entsprechend der Art, wie es auf die Wahrnehmung wirkt, 2. durch speziellere Eigentümlichkeiten ihres passiven Verhaltens, z. B. die Fähigkeit zu schmelzen, sich zu verfestigen, sich biegen zu lassen und dergleichen mehr.
200
Klaus Ruthenberg
Diese sinnesorientierte Charakterisierung von chemischen Substanzen ist im Laufe der Jahrhunderte zunehmend zurückgedrängt worden, und – zumindest in der Wahrnehmung von modernen Chemikerinnen und Chemikern – durch einen Kompositionismus ersetzt worden. In dieser Grundhaltung betrachtet man Elemente (die Substanzen sind, die durch keine chemische Operation in einfachere Stoffe zerlegt werden können). Von diesen elementaren Grundbausteinen ausgehend werden dann Verbindungen (molekulare, ionische und metallische) dargestellt. Allein die zentrale Frage ist dieselbe geblieben: Was für ein Stoff ist das? Daran ändern auch die neuesten physikalischen Theorien nichts. In modernen Lehrbüchern findet man auch Chemiedefinitionen wie die folgende (Schmidt 1967): Chemie ist (…) die Wissenschaft, die sich mit den Kombinationsmöglichkeiten der bekannten 104 Elemente beschäftigt.
Eine solche Definition ist zunächst unabhängig von einer atomistischen Betrachtung, es gibt aber noch extremere Versionen (Römpps Chemie Lexikon 1972): Chemie ist die Wissenschaft, die sich mit den Ursachen und Wirkungen von Elektronenabgabe, -aufnahme oder -verteilung zwischen Atomen oder Molekülen und mit den Beziehungen zwischen den Energieniveaus solcher Elektronen innerhalb der Atome oder Moleküle befasst.
In derartigen Charakterisierungen kommen stoffliche Eigenschaften paradoxerweise gar nicht mehr vor. Wäre Chemie tatsächlich so wie beschrieben, dann wäre sie eher Mikrophysik oder Teilchenphysik. Dass dies nicht der Fall ist, zeigt bereits ein Blick in ein chemisches Anfängerpraktikum. Dort gibt es Gasentwicklungen, Farbumschläge, Flammenfärbung, Filtrationen, Destillationen, Fällungen, kochende Flüssigkeiten, Rauchentwicklung, Lösungsvorgänge, und dergleichen mehr. Elektronen, Atome und Moleküle kommen dort nur als sprachliche Gebilde vor, und kaum eines der genannten empirischen Ereignisse kann durch die Benutzung dieser sprachlichen Gebilde befriedigend erklärt oder vorausgesagt werden. Vermutlich ausgehend von dem hier angesprochenen zunehmend mikrophysikalischen Sprachgebrauch in den chemischen Wissenschaften fühlen sich viele Wissenschaftstheoretiker und analytische Philosophen ermutigt, einen essentialistischen Standpunkt bezüglich der Natur der chemischen Stoffe zu vertreten. In ihren Einlassungen wird dann beispielsweise die Kernladungszahl 79 zum Zentrum der Eigenschaften von Gold und die Summenformel H2O im Handstreich mit „Wasser“ identifiziert. Meist verdrängen diese Philosophen, dass derartige „ontologisierte“ Aussagen auch Messergebnisse sind, also aus experimentellen Handlungen stammen, und darüber hinaus, dass sie, wie alle anderen Messergebnisse, nur Teilaspekte des anvisierten Zusammenhangs adressieren.
Was ist Chemie?
Wenn es um den Gegenstand der Chemie geht, sind aus methodischer Sicht theorieneutralere Definitionen zu bevorzugen, wie etwa die folgende von Friedrich August Kekulé (1859): Chemie ist die Lehre von den stofflichen Metamorphosen der Materie. Ihr wesentlicher Gegenstand ist nicht die existierende Substanz, sondern vielmehr ihre Vergangenheit und ihre Zukunft. Die Beziehungen eines Körpers zu dem, was er früher war und zu dem, was er werden kann, bilden den eigentlichen Gegenstand der Chemie.
Mit derartigen Charakterisierungen deutet sich an, dass eine umfassende Beschreibung von Stoffen nicht statisch erfolgen kann, sondern prozessual verläuft. Um richtig zu verstehen, was etwa „Wasser“ ist, sind gezielte Erfahrungen und Experimente nötig, bei denen eine Probe der fraglichen Substanz geeigneten Bedingungen unterworfen wird und – insbesondere – auch mit anderen Stoffen in Kontakt gerät. Will man beispielsweise feststellen, ob zwei Proben der gleichen Art angehören, bringt man sie zusammen und prüft, ob die Beobachtungen an der Mischung dieselben sind wie die an den Teilproben. Durch die Sammlung derartiger Erfahrungen entsteht das netzwerkartige Bild eines Stoffes. Hierbei ist der Übergang von alltäglicher zu wissenschaftlicher Erfahrung fließend. 2.
Das Berthelot-Prinzip und der Waldsche Positivismus
Die zentrale Frage der Chemie ist die nach der Natur der Stoffe.1 In der philosophischen Literatur über natürliche Arten werden meist chemische Beispiele als Muster angeführt (z. B. Gold und Wasser) und essentialistische Haltungen herrschen vor. Völlig übersehen wird dabei häufig, dass die Chemie ihre eigenen epistemischen Objekte selbst macht. Man kann dieses Faktum das „Berthelot-Prinzip“ nennen (Berthelot 1876): La chimie crée son objet. Cette faculté creatrice, semblable à celle de l’art lui-même, la distingue essentiellement des sciences naturelles et historique.
Für Marcelin Berthelot (1827–1907) als Vertreter der organischen Chemie war dieses Vorherrschen des synthetischen Teils der Chemie etwas Naheliegendes. Schließlich blühte dieser Teil der Chemie im 19. Jahrhundert in unvorhergesehenem Maße auf.
1 Einige zeitgenössische Ansätze sind im folgenden Band versammelt: K. Ruthenberg & J. van Brakel (Eds.), Stuff-The Nature of Chemical Substances, 2008. Ich möchte an dieser Stelle festhalten, dass nicht alle in der Chemie behandelten Entitäten stofflichen Charakter haben. Dennoch ist die inhaltliche Aussage dieses Satzes berechtigt, da jedwede chemische Manipulation mit stofflichen Proben beginnt oder diese anderweitig benötigt.
1
201
202
Klaus Ruthenberg
Das Berthelot-Prinzip kann aber durchaus auch in einer erweiterten Form verstanden werden. Diese erweiterte Form, die über die synthetische Chemie im engeren Sinne hinausgeht, wurde vom böhmischen Chemiker František Wald (1861–1930) vertreten. Es lohnt sich im vorliegenden Zusammenhang, Walds Theorien näher darzustellen. In der ersten Phase seiner theoretischen Publikationstätigkeit hatte Wald sich mit Grundfragen der Thermodynamik auseinandergesetzt und unter anderem die Entropie als entwertete Energie beschrieben. In der mittleren Phase, in die unter anderem seine Beiträge für die vom Chemiker Wilhelm Ostwald herausgegebenen Annalen der Naturphilosophie fallen, versuchte er, ausgehend von der Gibbsschen Phasenlehre die chemische Stöchiometrie (die moderne Lehre von der Zusammensetzung der Stoffe) phänomenalistisch zu rekonstruieren. Als er bemerkte, dass die Annahme von präexistierenden2 stofflichen Komponenten, wie sie in der Gibbsschen Phasenregel (P + F = B + 2, mit P Anzahl der vorhandenen Phasen, F Anzahl der Freiheitsgrade und eben B Anzahl der Komponenten) vorausgesetzt werden, eine fundamentale Inkonsequenz seines Ansatzes darstellte, versuchte er in einer dritten Schaffensphase, sich von der Phasenregel und darüber hinaus grundsätzlich auch von der naiv-realistischen Annahme reiner Stoffe (Elementen, Verbindungen) zu lösen. Jetzt wollte er einen Weg der mathematisch-geometrischen Rekonstruktion zur Darstellung dieser (und anderer) Stoffe finden, ohne in einen theoretischen Zirkel zu geraten. Den Begriff „Phase“ allerdings behielt er bei und verwendete ihn als Oberbegriff, dem sich andere Begriffe wie „Stoff “ unterordneten. Sein Hauptwerk, das 1918 erst viele Jahre nach dem Beginn der Arbeiten erschien und den abschließenden Teil seines theoretischen Schaffens repräsentiert, nannte er folgerichtig „Chemie Fasi“, also „Chemie der Phasen“. Walds dritte Schaffensphase begann etwa in der zweiten Hälfte des ersten Jahrzehnts des 20. Jahrhunderts und endete mit seinem Tod. Im ersten Jahrgang der „Annalen“ publizierte Wald gleich drei Aufsätze, von denen der erste ein kurzer Überblick über den zweiten ist (beide tragen den Titel „Kritische Studie über die wichtigsten chemischen Grundbegriffe“), und der dritte ein Nachtrag zu den ersten beiden mit dem Titel „Über einen alten Denkfehler in der Chemie“.3 Im kurzen Überblick über seine „Kritische Studie“ behauptet er, dass das Aufkommen bestimmter Fragestellungen der Mischphasenthermodynamik in der Physikalischen Chemie dazu geführt habe, dass die unkritische Annahme der Atomhypothese4 und der „Structurlehren“ hinterfragt werden müsse. Weiterhin behauptet er: „Präexistierende“ Stoffe sind für Wald Stoffe, deren Existenz man unabhängig von der Beschreibung des operationalen Weges, auf dem man zu ihnen gelangt, als gegeben annimmt. 3 Vgl. František Wald, Kritische Studie über die wichtigsten chemischen Grundbegriffe, Annalen der Naturphilosophie 1 (1902) 15–19; ders., Kritische Studie über die wichtigsten chemischen Grundbegriffe, Annalen der Naturphilosophie 1 (1902) 182–216; ders., Über einen alten Denkfehler in der Chemie, Annalen der Naturphilosophie 1 (1902) 470–472 4 Es ist nützlich, sich zu vergegenwärtigen, dass im 19. Jahrhundert und bis zur Reifung der Elementarteilchenphysik und Quantenmechanik ab dem zweiten Viertel des 20. Jahrhunderts unter „Atomhypothe2
Was ist Chemie?
Während man chemische Elemente und Verbindungen gewöhnlich als fertige Bausteine der Naturstoffe, als Erzeugnisse eines Schöpfungsactes hinstellt, erscheinen sie bei unbefangener Betrachtung ihres Werdeprocesses als Kunstproducte, als Ergebnisse einer Reihe mühsamer chemischer Operationen, d. h. als Präparate – wie etwa ein Skelett oder eine Mumie.“5
Dies ist eine Variante der erwähnten Erweiterung des Berthelot-Prinzips. (An dieser Stelle will ich festhalten, dass Wald Berthelot zwar bisweilen nennt, aber keinen expliziten Zusammenhang zwischen seiner Auffassung und der des Franzosen herstellt.) Das von ihm erwähnte Präparieren hat Ähnlichkeiten mit dem Herstellen („Kochen“) von Speisen – also mit handwerklichen Tätigkeiten – und sollte dementsprechend nicht als das „Machen“ etwa eines platonischen Demiurgen missinterpretiert werden. Auch das Kochen geschieht ja nicht aus dem Nichts. Wenn also die Rede davon ist, dass in der Chemie die epistemischen Objekte „gemacht“ werden, ist eben dieses Präparieren gemeint. Und „bei unbefangener Betrachtung“ steht die Herstellung (oder Darstellung) von Proben von den nun so genannten Elementen tatsächlich und ohne Zweifel in einem Praxiszusammenhang. Dass bestimmte Elemente „in der Natur vorkommen“, wie etwa Gold oder Kohlenstoff (in Form von Diamanten) ist eigentlich ein Gemeinplatz, weil dies praktisch alle Elemente (und viele Verbindungen) tun. Für das chemische Arbeiten entnehmen und verarbeiten wir Dinge aus unserer Umgebung. Und die Geschichte und Theorie der Chemie nur vom Ende – den aktuellen Errungenschaften – her zu erzählen, heißt, die Erklärungen für den Einsatz bestimmter Methoden und das Weglassen anderer zu verbergen, zu missachten, zu verkennen, oder womöglich gar nicht zur Kenntnis zu nehmen. Die chemischen Elemente als Präparate: Kaum jemand hat jemals so radikal die Grundfesten der chemischen Wissenschaften angegriffen, und die positivistisch-operationalistische Methodologie so ernst genommen. Auf der Basis der empiriokritizistischen Grundgedanken von Ernst Mach betrachtete Wald alle homogenen Stoffe „als vollkommen gleichwerthige Gebilde“. Chemische Individuen, also Stoffe definierter Zusammensetzung wie Verbindungen und Elemente im herkömmlichen Sinn und Stoffe mit veränderlicher Zusammensetzung stellte er demnach zunächst auf die gleiche ontologische Stufe.6 Eine weitere Unerhörtheit äußerte er auch bereits in dem von ihm so genannten „Auszug“ aus der „Kritischen Studie“, in dem er seine aufkommenden Zweifel schilderte, „ob wir denn wirklich
se“ die Vorstellung von submikroskopischen, inerten materiellen Partikeln verstanden wurde, die sich rein mechanisch verhalten. Die heutigen Vorstellungen von „Atom“ haben sich von diesem mechanischen Bild weit entfernt und sind erheblich komplexer. 5 Wald (Fn. 3), Kritische Studie (kurz), 16, Hervorhebungen im Original. 6 Vgl. Wald, Was ist ein chemisches Individuum?, Zeitschrift für Physikalische Chemie 28 (1899), 13–16.
203
204
Klaus Ruthenberg
beim Anblick eines jeden Stoffes gezwungen sind nach seiner chemischen Zusammensetzung zu fragen“7. Betrachtet man die Chemie im Sinne Walds als die wissenschaftliche Untersuchung von den Stoffen (Phasen) und deren Umwandlungen, so sind stoffanalytische Manipulationen nur ein Teil ihres methodischen Instrumentariums und die eben zitierte Beurteilung betrifft nicht das Zentrum der chemischen Wissenschaften. Wird Chemie aber vorwiegend als die Wissenschaft von den Zusammensetzungen der Stoffe verstanden, so greift die Waldsche Problemstellung das Fundament der so charakterisierten wissenschaftlichen Unternehmung an. Eine eher phänomenalistische Definition (Lehre von den Stoffen und ihren Umwandlungen, siehe oben) hält offen, wie Stoffe charakterisiert werden. Beispielsweise ist es bei dieser Betrachtungsweise vorstellbar, dass die Reaktivität eines interessierenden Stoffes durch sein chemisches Verhalten, also durch die Untersuchung einer Schar von seinen Reaktionen erfasst wird. Hierbei sind die Operationen chemischer Analyse gegebenenfalls gar nicht nötig. Folglich verunsichert die zitierte skeptische Frage nur diejenigen, die die Analyse unhinterfragt als notwendige Voraussetzung chemischer Tätigkeiten ansehen. Interessant ist, dass der Autor der „Kritischen Studie“ zum Zeitpunkt des Erscheinens selbst als chemischer Analytiker in der Stahlindustrie tätig war. In der Kurzfassung der „Kritischen Studie“ geht František Wald mit seinen Forderungen an eine neue Chemietheorie allerdings noch weiter. Er kritisiert die abstrahierende Darstellung der Bildung von Reaktionsprodukten und nannte diese „oberflächlich“, weil unerwähnt bleibe, ob Mischungen entstünden und welche Trennungsoperationen benötigt würden. Weiter heißt es: Diese Idealisirung der Wirklichkeit ist nützlich, so lange nur eine erste Orientirung angestrebt wird, sie wird aber zum Hinderniß jeder genaueren Forschung, weil man gleich anfangs eine Fülle von Detailerscheinungen als nicht bestehend erklärt, und daher nachträglich ihre Existenz nicht zu fassen vermag.8
Demgegenüber stellt Wald eine strikt operationale Beschreibung der chemischen Prozesse in Aussicht. Diese gegenüber der bestehenden Theorie vorzuziehende Betrachtungsweise erläuterte er im ausführlichen Teil seiner „Kritischen Studie“ in den „Annalen“ näher. Hier findet sich beispielsweise eine nähere Charakterisierung des Stoffbegriffs, den er aus dem chemischen Körperbegriff ableitet. Chemische Körper sollen demnach bei chemisch interessanten Erscheinungen in unmittelbarer Berührung stehen, wobei ihre Größe und Form keine Rolle spielt. Wald bezeichnet „Stoff “ explizit als Abstraktion von „Körper“. Im gleichen Zusammenhang wiederholt er seine Thesen aus der Kurzfassung, insbesondere die Nicht-Notwendigkeit des Elementbe-
7 8
Wald (Fn. 3), Kritische Studie (kurz), 17, Hervorhebung im Original. Wald (Fn. 3), Kritische Studie (kurz), 18, Hervorhebung im Original
Was ist Chemie?
griffs in der Chemie, sowie, die Notwendigkeit der körperlichen Berührung bei chemischen Prozessen. Hierbei kommt er auf die Katalyse zu sprechen, und beschreibt das bisherige Bild der Stoffumwandlungen als unvollkommen, weil bei katalytischen Wirkungen Stoffe sich zwar berühren, der Katalysator aber unverändert aus dem Vorgang hervorgeht. Seine Wirkung wird in einer chemischen Gleichung daher nicht adäquat wiedergegeben, denn er taucht in dieser Gleichung höchstens als Nebenparameter, nicht aber als Teilnehmer der Reaktion auf. Das führt zu dem Widerspruch, dass die in einigen Fällen tatsächlich unabdingbare Anwesenheit des Katalysators gemäß dieser Darstellung für den Reaktionsverlauf nicht notwendig ist. Wald bemerkt dazu: Im Laufe der Zeit hat sich allerdings auch diese Abstraction als nicht consequent durchführbar erwiesen, weil sich zeigte, daß die Natur des Lösungsmittels (selbst wenn seine Menge durch die Reaction keine Aenderung erleidet) ja sogar oft schon Spuren gewisser Körper auf den Verlauf der Erscheinung von außerordentlichem Einflusse sind.9
Wald beschreibt den Umgang der zeitgenössischen Chemietheoretiker mit neuen Erfahrungen wie der Katalyse als ein „Aufpfropfen“ von Zusatzannahmen auf das bestehende Wissen und beurteilt dies als eine Entfernung vom „Weg zu jeder natürlichen Betrachtung“. Er geht sogar so weit, die folgende Behauptung aufzustellen: Es erscheint mir keineswegs gewagt, zu behaupten, dass die Atomhypothese in der Chemie gegenwärtig nur dazu dient, um die oberflächlichen Betrachtungen zu corrigiren, mit welchen jeder chemische Unterricht und jedes chemische Lehrbuch eingeleitet wird.10
Diese „oberflächlichen Betrachtungen“ findet man im Übrigen weiterhin in den chemischen Wissenschaften. In Lehrbüchern wird bisweilen ein naiv-realistisches Bild der theoretischen Entitäten der Naturwissenschaften vermittelt, wobei sich bei näherer Betrachtung zeigt, dass sich nicht nur das Hauptaugenmerk der Forschung und Lehre in den submikroskopischen Bereich verschoben hat, sondern auch die stillschweigend transportierte Ontologie. Reduzierende Definitionen der Chemie als Lehre vom Verhalten der Außenelektronen der Atome oder Ähnlichem sind – wie wir gesehen haben – durchaus keine Seltenheit. Dass es allerdings ein weiter Weg zu den aktuellen theoretischen Beschreibungen in der Chemie ist, den man nicht vernachlässigen darf, wenn man ein rundes Bild dieser Wissenschaft zeichnen möchte, hat František Wald eindrucksvoll dargelegt. Wenn er mit seinen Überlegungen die zeitgenössischen Wissenschaftler nicht wirklich erreichte, so lag dies sicher an der Schwierigkeit seines Vorhabens, aber auch an der Umständlichkeit seiner Darstellungen, und nicht zuletzt auch an dem gerade fulminant aufstrebenden Atomismus.
9 Wald (Fn. 3), Kritische Studie (lang), 198 10 Wald (Fn. 3), Kritische Studie (lang), 202.
205
206
Klaus Ruthenberg
3.
Ostwalds Prinzipien
Ein weiterer chemiephilosophisch relevanter Autor, der gegen Ende des langen 19. Jahrhunderts aktiv war, allerdings mit erheblich größerem (insbesondere wissenschaftlichem) Einfluss als Wald war Wilhelm Ostwald (1853–1932). Auch er suchte nach einem nichtatomistischen Zugang zu chemischen Phänomenen. Die Prinzipien der Chemie11 mit dem Untertitel Eine Einführung in alle chemischen Lehrbücher ist ein genauso umfangreiches (540 Seiten) wie ungewöhnliches Chemielehrbuch aus seiner Feder: Wegen seiner Ablehnung des Atombegriffs fehlt in diesem Werk jedwede formelhafte Darstellung, das heißt Ostwald verwendet selbst in dem Abschnitt Chemische Formeln (Ostwald 1907, 393–401) weder Summen- noch Strukturformeln. Folgerichtig sind auch keine Reaktionsgleichungen zu finden, wie überhaupt das Buch fast ohne Beispiele aus der praktischen Chemie auskommt. Dafür wird eine Fülle von ein- und zweidimensionalen Phasendarstellungen sowie herkömmlichen Phasendiagrammen verwendet. Es fehlen darüber hinaus auch die ansonsten üblichen Quellenverweise und Literaturangaben. Warum schreibt Ostwald dieses Buch? Zur Zeit seines Erscheinens ist er bereits seit einem Jahr nicht mehr Professor an der Universität Leipzig, wo er seit 1887 den weltweit ersten Lehrstuhl für Physikalische Chemie bekleidet hatte, überaus erfolgreich war und eine enorme Schar an Physikochemikern, auch und insbesondere aus anderen Teilen der Welt (Servos 1990), ausgebildet hatte. Es ist daran zu erinnern, dass Ostwald spätestens seit der Übernahme des Leipziger Lehrstuhls seine energetische Haltung entwickelte, wonach die Energie die oberste Priorität bei der Betrachtung und Untersuchung der Naturphänomene zu erhalten hat und die Materie sich ihr unterordnet. Aus dieser Einstellung heraus und unter dem Einfluss von Ernst Mach (1838–1916) bildet Ostwald bald – nach einer anfänglichen Phase als herkömmlicher Atomist – eine antiatomistische Grundhaltung heraus, die František Wald bereits seit einigen Jahren vorher vehement vertritt. Ostwald ist in seinem Antiatomismus und insbesondere seinem phasenorientierten Operationalismus deutlich von Wald beeinflusst. In seiner Autobiographie, den Lebenslinien, äußert sich Ostwald entsprechend deutlich:12 Wald hatte sich mit ähnlichen Grundfragen der Chemie beschäftigt, insbesondere mit dem Begriff des reinen Stoffes und näherte sich von seiner Seite aus dem gleichen Ziel, ohne es erreichen zu können. Und als es erreicht war, stellte sich heraus, wie erstaunlich einfach die Sache ist.
11 12
W. Ostwald, Prinzipien der Chemie, 1907. W. Ostwald, Lebenslinien (Band 2), 1927, 371–372.
Was ist Chemie?
Die Prinzipien sind eine Weiterentwicklung seiner Faraday-Vorlesung, die im Vorwort – zusammen mit Wald – auch explizit genannt wird. Ostwald übernimmt aber nicht einfach nur aus dem Stand die Gedanken Walds und arbeitet sie dann weiter aus. Während Wald mit seiner analytischen, gleichsam apriorischen theoretischen Chemie fast ausschließlich stöchiometrische Probleme behandelt, ist das hier angesprochene Werk der bis zum heutigen Tage im Ansatz umfassendste, breiteste Versuch der Ausarbeitung einer positivistisch-operationalistisch angelegten, also metaphysikarmen Theorie des gesamten zeitgenössischen chemischen Bereichs. Ostwald ist über mehrere Jahre hinweg gleichsam folgerichtig von der Lösung praktisch-wissenschaftlicher Probleme der Chemie mit physikalischen Methoden immer mehr dazu übergegangen, methodisch-philosophische Probleme der Wissenschaften, insbesondere der Chemie, zu bearbeiten. Er wächst also mit einer gewissen Konsequenz aus der praktischen Chemie heraus. Diese Konsequenz bildet sich auch in der Reihe seiner größeren chemischen Lehrbücher ab: der große Ostwald, das zweibändige Lehrbuch der allgemeinen Chemie von 1885–1887 ist noch ein Lehrbuch klassischen Zuschnitts mit ausgiebigem Bezug auf die chemische Wirklichkeit, der kleine Ostwald, Grundriss der allgemeinen Chemie (1889) hat bereits die auffällige Besonderheit, keine mathematischen Formeln zu enthalten und die Prinzipien von 1907 sind die hier untersuchte wissenschaftstheoretische Methodenlehre ohne direkte Bezugnahme auf den konkreten Erfahrungsbereich. Im historischen Verlauf betrachtet verfasst Ostwald diese Prinzipien also im Zuge der konsequenten Weiterentwicklung seiner weit reichenden philosophischen Interessen, angestoßen oder beschleunigt durch die Arbeiten von Frantisek Wald. Die vom Autor selbst angegebenen Gründe für die Abfassung der Prinzipien sind die folgenden:13 Neben der Aufgabe, durch neue Tatsachen und Erfahrungen das äußere Gebiet zu bereichern, hat jede Wissenschaft die nicht minder wichtige, wenn auch nicht so in die Augen fallende Aufgabe, die bereits bekannten Tatsachen in gegenseitige Beziehung und Ordnung zu setzen.
Für Ostwald hat der Naturforscher auch ein Naturphilosoph zu sein, und über das Alltagsgeschäft hinaus durch Begriffsanalyse allgemeingültige Zusammenhänge übergeordneter Art zu finden und zu formulieren. Er betrachtet Mathematik, Geometrie und Mechanik als Vorbilder oder Wegweiser für das richtige methodische Vorgehen auch in der Chemie, weil diese Disziplinen reifer seien und ihre jeweiligen fundamentalen Zusammenhänge schon früher geklärt hätten. Es sind offenbar ähnlich wie schon bei Kant die enorme theoretische Konsistenz und die gewisse Abgeschlossenheit, welche die genannten Disziplinen aufweisen, die Ostwald an dieser Stelle als Ziel für die Chemie vorschweben. Die Agenda für die Prinzipien lautet folgerichtig (Ostwald 1907, V):
13
Ostwald (Fn. 11), III.
207
208
Klaus Ruthenberg
Die vorliegende Arbeit hat somit den Zweck, die tatsächlichen Grundlagen der chemischen Wissenschaft so frei wie möglich von nicht zur Sache gehörigen Zutaten in ihrer Bedeutung und in ihrem Zusammenhange darzustellen.
Es ist auch die Prägung der Denk- und Arbeitsmethodik zukünftiger Chemiker, auf die Ostwald Einfluss zu nehmen hofft, worauf er auch die Wahl des Untertitels Eine Einleitung in alle chemischen Lehrbücher zurückführt. Damit sind auch einige wesentliche Stichpunkte zur Beantwortung der Frage benannt, weshalb gerade dieses Werk als chemiephilosophischer Untersuchungsgegenstand von besonderem Interesse ist: a) Ostwald betrachtet die Chemie als Bestandteil einer Naturphilosophie und die Prinzipien als Grundlegung dafür. b) Er unternimmt den Versuch einer phänomenologischen, metaphysikfreien Grundlegung der Chemie (unter Annahme des Energetikdogmas). c) Sein Ansatz ist anti-atomistisch und anti-materialistisch. d) Er strebt eine theoretische Geschlossenheit für die Chemie an, wie sie die Mathematik, die Geometrie, und die klassische Mechanik vor ihr erreichen konnten. e) Die Prinzipien sind das letzte große Werk zur Chemie, das Ostwald verfasst hat; es ist gleichsam der Abschluss seines Schaffens im Bereich Chemie. Im Folgenden gehe ich ausgewählten wissenschaftstheoretischen Problemstellungen, die sich aus der vorstehenden Liste ergeben, nach. Es werden zunächst kurz die Gründe für Ostwalds Anti-Atomismus behandelt, dann insbesondere sein Stoffbegriff. Die Frage nach der Triebkraft für chemische Vorgänge und die nach deren Verlauf, das bedeutet: die Frage nach der Reaktivität, wird gefolgt von der Darstellung der Kritik der Zeitgenossen und der modernen Chemiephilosophie an dem phänomenologischen Ansatz und den Prinzipien. Verbunden mit einer wertenden Zusammenfassung wird dann abschließend ein Versuch unternommen, herauszustellen, dass und wie die moderne Chemie, mindestens aber die Philosophie der Chemie von Ostwalds Ausführungen profitieren kann. In den Prinzipien behandelt Ostwald den Begriff Energie bereits im ersten Kapitel Körper Stoffe und Eigenschaften. Hier hält er fest, dass alle Eigenschaften der Körper als ihre Energiebetätigungen definiert werden. Es sind demnach auch stoffliche, d. h. chemische Eigenschaften ohne Ausnahme Energieerscheinungen und nicht etwa den Stoffen anhaftende sekundäre Merkmale. Nach Ostwald gibt es sogar eine eigene chemische Energieform, und er teilt das System der Wissenschaften nach den Arten der jeweiligen spezifischen Energie ein: Mechanik, Thermik, Elektrik, Magnetik, Optik und Chemie. Mischformen unter den genannten Energiearten mit korrespondierenden oder benachbarten Wissenschaftsfeldern gibt es auch und es kann aufgrund des Fortschreitens der Erkenntnisse nicht nur gemischte Wissenschaftsformen geben, sondern es können
Was ist Chemie?
sich durchaus, beispielsweise für die reinen Formen, auch reduktive Entwicklungen ergeben. Die aus dieser Sicht seinerzeit noch günstige Situation für die Chemie, was ihre wissenschaftliche Autonomie anbelangt, hätte sich demnach aus moderner Perspektive deutlich verschlechtert: Unter den fundamentalen Wechselwirkungen, die die Physik heute unterscheidet und die als energetische Erscheinungen aufgefasst werden können, kommen Gravitation sowie schwache und starke Wechselwirkung nicht für den chemischen Bereich in Frage, sondern nur die elektrostatische. Die Chemie ist also vereinfacht dargestellt aus heutiger physikalistischer Sicht betrachtet vielmehr ein Teil der Elektrizitätslehre als ein gesonderter energetischer Bereich. Wenn Materie ontologisch untergeordnet rangieren soll und Hypothesen für die wissenschaftliche Begriffsbildung nicht verwendet werden sollen, so folgt zwingend, dass auf die atomistische These – und eine solche war die Annahme des Atomismus zumindest zu Beginn der einschlägigen Aktivitäten Ostwalds immer noch – verzichtet wird. Über diesen theoretischen Aspekt hinaus gibt es für Ostwald ein weiteres, übergeordnetes Argument, das seine Motivation zum Nichtatomismus deutlich macht und das er in den Lebenslinien wie folgt darlegt:14 Insbesondere wurde mir klar, wie unverhältnismäßig viel fruchtbarer die Energetik war als die damals fast vollkommen steril gewordene kinetisch-atomistische Lehre, die nach einem kurzen, glänzenden Aufstieg in den sechziger Jahren des neunzehnten Jahrhundert in das Dickicht mathematischer Schwierigkeiten geraten war, das ihr die Bewegungsfreiheit genommen und ihre Anhänger von der Verfolgung neuer experimenteller Wege fast ganz zurückgehalten hatte.
Es ist also die erkenntnisleitende, heuristische Kraft der nicht-, oder antiatomistischen Energetik, die er zusätzlich postuliert. In den Prinzipien sucht man deshalb Aussagen, in denen Begriffe wie Atome oder Moleküle vorkommen, oder auch solche über diese Begriffe, nahezu vergeblich. Nach der zu Beginn der Prinzipien angegebenen klassifikatorischen Bestimmung ist die Chemie eine anorganische Naturwissenschaft, die sich mit den unbelebten Gegenständen (Körpern) der Außenwelt befasst. Die Bereiche der zeitgenössischen Chemie, die sich mit (Teilen von) lebenden Objekten beschäftigen, blendet der Autor aus. Als Körper beschreibt der Autor „… Gebiete des Raumes, die sich in bestimmter Weise anders verhalten als ihre Umgebung“ (Ostwald 1907, 1). Dieses typische Verhalten ist nach Ostwald durch bestimmte, der Alltagserfahrung zugängliche Eigenschaften gegeben, insbesondere Farbe, Glanz, Form und Gewicht. Er sagt (Ostwald 1907, 2):15 Somit bringt mir die tägliche Erfahrung das räumliche Zusammenbleiben bestimmter Eigenschaften entgegen und die Summe derartiger Erfahrungen wird im Begriffe des Körpers
14 15
Ostwald (Fn. 12), 178 Ostwald (Fn. 11), 2
209
210
Klaus Ruthenberg
zusammengefasst … Es ist also ein Naturgesetz, dass gewisse Eigenschaften so miteinander zusammenhängen, dass sie nicht unabhängig voneinander von Ort zu Ort bewegt werden können, sondern sich stets gleichzeitig bewegen.
Die durch wiederholte Beobachtung bewährte Erfahrungstatsache der regelmäßigen Koexistenz bestimmter Eigenschaften von Gegenständen – ja die Existenz der Körper – nennt Ostwald ein Naturgesetz. Er fasst sogar Begriffe (Wörter, Namen, Formeln) als Naturgesetze auf. Die nicht-absolute Gültigkeit dieser Naturgesetze ist ihm allerdings bewusst. Sie erscheinen ihm vielmehr als Wegweiser für die Erklärung von bekannten Tatsachen oder für die Verwirklichung gewünschter Ereignisse, und weiterhin:16 Ein Naturgesetz stellt sich demnach als die Erwartung eines Zusammenhangs zwischen möglichen Erfahrungen dar; diese Erwartung ist darauf begründet, dass in allen bisher beobachteten Fällen dieser Zusammenhang sich gezeigt hat.
Eine Falsifikation dieser Naturgesetze erscheint also grundsätzlich möglich, aber sehr unwahrscheinlich. Und Folgendes liegt auch auf der Hand: Je näher ein Naturgesetz wie das Körpergesetz (kein Ostwaldscher Begriff) an der Alltagserfahrung angegliedert ist, desto kleiner ist die unerwünschte Hypothetisierung oder desto größer ist die erwünschte ontologische Sparsamkeit (immer abgesehen vom Energetikdogma). Ostwald unterscheidet ähnlich wie Aristoteles arteigene und willkürliche Eigenschaften und gewinnt damit eine weitere Möglichkeit, die Chemie zu charakterisieren und sie von der Physik zu differenzieren (Ostwald 1907, 6): … mit den arteigenen oder spezifischen Eigenschaften beschäftigt sich die Chemie, während die willkürlichen Eigenschaften der Physik zugewiesen werden.
Als Beispiele für willkürliche Eigenschaften nennt er Temperaturwechsel, Beleuchtung mit farbigem Licht und Magnetisierung, die Menge und die äußere Gestalt. Diese Eigenschaften sind physikalische. Ein Problem der Ostwaldschen Argumentation ergibt sich durch den Vergleich der in den Prinzipien später gemachten Aussage, dass die Wissenschaften ihren eigenen Energiearten entsprechen. Die Frage stellt sich nämlich, wo genau die chemische Energieform zu suchen ist und welche Eigenschaften sie hat, wenn etwa thermische Größen, wie sie natürlich etwa auch in der chemischen Thermodynamik zentral sind, der Physik zugeordnet werden. Bindungs-, Dissoziations-, Hydratations-, und Verbrennungsenthalpien beispielsweise wären in dieser Art der Betrachtung physikalische Eigenschaften. Problematisch für die Autonomie der Chemie wird in dieser Hinsicht das gesamte Forschungsprogramm der physikalischen Chemie, die die Untersuchung chemischer Eigenschaften mit Hilfe von physikalischen
16
Ostwald (Fn. 11),4
Was ist Chemie?
Methoden betreibt. Diese physikalischen Methoden heben freilich auch auf willkürliche Eigenschaften ab und es bleibt zunächst offen, wie die arteigenen Eigenschaften in diesem Programm abgebildet werden. Für das Beispiel Silber gibt Ostwald eine Gruppe von Eigenschaften an, die diesem Material einzeln nicht genommen oder verändert werden können: den festen, typisch metallischen Zustand, hohe elektrische und Wärmeleitfähigkeit, die gute chemische Beständigkeit, die Löslichkeit in Salpetersäure. Und dann vollzieht er den Übergang zum Begriff Stoffe, den er aus dem des Körpers ableitet (Ostwald 1907, 7): Körper, die [ohne Rücksicht auf Menge und Form] in Bezug auf ihre spezifischen Eigenschaften betrachtet werden, nennt man Stoffe. Den Gegenstand der Chemie bilden also die Stoffe. Gleich nennt man solche Stoffe, welche übereinstimmende spezifische Eigenschaften haben.
Mit dem letzten Satz deutet Ostwald bereits das von ihm später eingeführte und so genannte Stoffgesetz an. Auch dieses ist für ihn ein Naturgesetz (und übrigens eines, das auch heute noch indirekt als gültig angenommen wird, dessen explizite Benennung oder gar Bezeichnung nach Ostwalds Vorschlag sich allerdings nicht eingebürgert hat). Der Autor definiert dieses Gesetz im dritten Kapitel Gemenge, Lösungen und reine Stoffe:17 (…) wenn bei zwei Körpern einige spezifische Eigenschaften übereinstimmen, dann erweisen sich auch alle anderen spezifischen Eigenschaften übereinstimmend.
Aus dem Stoffgesetz leitet sich eine operationale Handlungsanweisung für die Identifizierung von Stoffen ab. Wenn Einigung darüber besteht, welche Eigenschaften als spezifische zu behandeln sind, und wenn bei zwei Stoffproben mindestens zwei – das ergibt sich aus dem Wort einige – dieser Eigenschaften gleich sind, dann gehören die Stoffproben der gleichen Spezies an. Im Bereich der naturwissenschaftlichen Ausbildung und auch in der chemischen Forschung wird diese operationale Vorschrift damals wie heute kanonisiert angewandt (Bestimmung von Schmelz- oder Siedepunkt, Brechungsindex, spektrometrische Messungen etc.). Wie schon festgehalten, ist sich Ostwald über den grundsätzlich vorläufigen, induktiven Charakter der Ergebnisse der chemischen Forschung im Klaren. Weil immer die Möglichkeit besteht, dass neue Eigenschaften entdeckt werden und zu jeder Zeit auch neue Stoffe mit neuen Eigenschaften erzeugt werden können, kommt die Chemie nie zu einem Abschluss. Er sieht aber in der Erkennung etwa des Stoffgesetzes die Gelegenheit der Ökonomisierung der Forschung, eben weil nicht jede Eigenschaft eines untersuchten Stoffes erfasst werden muss, um ihn zu charakterisieren oder zu identifizieren. Bei der Charakterisierung oder Identifizierung neu hergestellter und
17
Ostwald (Fn. 11), 74–75
211
212
Klaus Ruthenberg
unbekannter Substanzen kann freilich auf einen Vergleich mit bereits vorliegenden Stoffproben nicht zurückgegriffen werden. Die Anwendung des Stoffgesetzes kann also im besten Fall zu einem relationalen Abgleich führen. Eine vollständige Erfassung der Stoffeigenschaften ist nicht möglich (s. die weiter unten diskutierte ontologische Unterbestimmtheit der chemischen Stoffe). Was geschieht nun aber, wenn man im Labor – und das ist der Normalfall – einer zunächst unbekannten Substanz begegnet, von der man nicht weiß, ob sie in reiner Form vorliegt? Ist diese Substanz beispielsweise eine Flüssigkeit, die aus zwei miteinander mischbaren flüssigen Komponenten zusammengesetzt ist, dann ändern sich die Eigenschaften, etwa der Siedepunkt, in Abhängigkeit von der Zusammensetzung in einem bestimmten Bereich. Ist der Siedepunkt als spezifische Eigenschaft festgelegt oder erkannt, so ergibt sich die Notwendigkeit, bei der Anwendung des Stoffgesetzes dafür zu sorgen, dass die Zusammensetzung der untersuchten Stoffprobe sich in dem erwünschten Bereich nicht ändert. Handelt es sich also um eine Lösung aus zwei Komponenten, so kann das Stoffgesetz nicht unmittelbar zur Anwendung kommen, es muss zunächst durch Anwendung geeigneter Trennverfahren sichergestellt sein, dass reine Stoffe vorliegen. Den Gemischen und den Trennungsmethoden schenkt Ostwald folgerichtig im dritten Kapitel einige Aufmerksamkeit. Stoffliche Spezies können verschiedene Aggregatzustände (in den Prinzipien: Formarten) annehmen. Den Wechsel einer Spezies von einem Zustand in einen anderen beschreibt Ostwald bereits als chemischen Prozess:18 Wir haben unserer allgemeinen Bestimmung gemäß einen solchen Übergang als einen chemischen Vorgang zu betrachten, weil bei ihm der eine Stoff das Gas, mit seinen Eigenschaften verschwindet und ein anderer Stoff, die Flüssigkeit, mit neuen Eigenschaften auftritt.
Bei der Kondensation eines Gases treten neue spezifische Eigenschaften auf – Ostwald nennt als Beispiel die Oberflächenspannung – und daher ist die flüssige Spezies streng genommen ein anderer Stoff als die gasförmige. Eis, flüssiges Wasser und Wasserdampf müssten auf diese Weise also als stofflich different bezeichnet werden. Wenn der Übergang in einen anderen Zustand bei gleichbleibender Temperatur (Schmelzpunkt, Siedepunkt, Phasenumwandlungspunkte) stattfindet, und die Zusammensetzung beider Stoffe gleichbleibt, so handelt es sich in der Regel um zwei Erscheinungsformen derselben Spezies, also um einen reinen Stoff. Hier findet ein weiteres Naturgesetz Anwendung, das Ostwald Stetigkeitsgesetz nennt und von dem er meint, dass es vielfach verwendet wird, ohne ausdrücklich genannt zu werden:19 Das Stetigkeitsgesetz besagt nun, dass solche Eigenschaften eines Dinges oder Vorganges, die in gegenseitiger Abhängigkeit stehen, gleichzeitig oder an derselben Stelle stetig oder unstetig sind.
18 19
Ostwald (Fn. 11), 95 Ostwald (Fn. 11), 275
Was ist Chemie?
Für das Beispiel Wasser bedeutet dieses Gesetz, dass beim Gefrieren sowohl die mechanischen Eigenschaften, als auch das Volumen, die Lichtbrechung, die Wärmekapazität und die anderen spezifischen Eigenschaften sprunghaft andere Werte annehmen oder – wie etwa Oberflächenspannung, Festigkeit und Härte – überhaupt erst definiert bzw. feststellbar sind. Dass es also beispielsweise einen definierten Schmelzpunkt für einen reinen Stoff gibt (wenn dieser Stoff unzersetzt in die flüssige Form übergehen kann), steht mit dem Stetigkeitsgesetz in sehr engem Zusammenhang, denn der Schmelzpunkt beschreibt genau eine solche spezifische Unstetigkeit. Gehen wir nun dem Konzept Phase nach, wie es in der Faraday-Vorlesung von Ostwald als „far more general than that of a substance“ propagiert wird. Wie behandelt er Phasen in den Prinzipien? Eingeführt wird der Begriff Phase im vierten Kapitel Umwandlung der Formarten und Gleichgewichte. Der Autor beschreibt die Kompression und Abkühlung eines Gases, die zunächst zur Kondensation und dann weiter zur Erstarrung führen. Alle möglichen stofflichen Varianten dieser Spezies werden durch diese Operation irgendwann auftreten. Letztlich wird aus einem homogenen (gleichteiligen) Gas ein homogener Feststoff. Und er fährt fort:20 Die Bestandteile der Gemenge, welche durch derartige Umwandlung entstehen können, nennt man Phasen. Phasen sind also die gleichteiligen Stoffe, die in Gemengen vorkommen. Sie können reine Stoffe oder auch Lösungen sein.
Diese Formulierung ist gewiss nicht besonders überzeugend. Mit „Bestandteile“ können hier nur die homogenen stofflichen Varianten gemeint sein, nicht etwa einzelne stoffliche Komponenten. Auch der zweite Satz dieser Passage ist mindestens irreführend. Homogene Stoffe als Phasen zu beschreiben, die Komponenten von Gemengen sind, dreht geradezu die Reihenfolge der Begriffe Phase und Stoff um, wie sie Ostwald selbst 1904 behauptet. Wenngleich am dritten Satz inhaltlich nichts auszusetzen ist, wünschte man sich doch insgesamt gerade in diesem Werk eine klarere Begriffsbestimmung eines derart zentralen Ausdrucks (zumal dem Autor die früheren, in diesem Punkt deutlich klareren Arbeiten František Walds bekannt gewesen sind). Im Folgenden führt Ostwald das Gibbssche Phasengesetz für den Fall eines Einstoffsystems ein und erläutert sehr plausibel und unter Verwendung von Beispielen seine Eigenschaften und seinen Anwendungsbereich. Es ist dieser Teil des Textes, in dem er auch die in der Chemie wichtigen Begriffe Allotropie und Metastabilität einführt. Für die Umwandlungen verschiedener Erscheinungsformen (den allotropen Formen) einer Substanz konstanter Zusammensetzung ineinander führt Ostwald an, dass hier eine Analogie zur Änderung des Aggregatzustands vorliegt. Allerdings sind diese Phasenumwandlungen mitunter gehemmt oder extrem langsam, so dass uns Stoffe auch bei Bedingungen begegnen, für die sie nach Einstellung des Gleichgewichts nicht sta-
20
Ostwald (Fn. 11), 117
213
214
Klaus Ruthenberg
bil sind (man denke nur an verharschten Schnee, der bei Temperaturen oberhalb des Gefrierpunktes liegen geblieben ist). Diese Zustände nennt auch die moderne Wissenschaft metastabil. Die bei der Umwandlung von allotropen Stoffen zu beobachtende Bildung bestimmter Produkte fasst Ostwald im von ihm als Erstem erfassten und so benannten Stufengesetz21: Von den möglichen Produkten wird zunächst nicht das thermodynamisch stabilste gebildet, sondern dasjenige, das auf der Stabilitätsleiter auf der nächst höheren Stufe liegt. Reine Stoffe beschreibt Ostwald als Grenzfälle von Lösungen. Bei den Phasenübergängen (Änderungen der Formart) verhalten sich Lösungen veränderlich, reine Stoffe nicht. Je reiner ein Stoff bei einer bestimmten Operation wird, desto weniger fällt diese Veränderlichkeit ins Gewicht, und letztlich erhalten wir die konstanten Messwerte bei der beobachteten Phasenumwandlung. Im Kapitel Elemente und Verbindungen formuliert der Autor das so (Ostwald 1907, 260): Definitionsgemäß nennen wir reine Stoffe solche, welche Änderungen der Formart, also Bildung neuer Phasen, bei konstanten Werten von Druck und Temperatur gestatten.
Wenn bei einer Phasenumwandlung die Zusammensetzung der entstehenden mit der der zurückbleibenden gleich ist, so bezeichnet Ostwald diese Umwandlung als hylotrop. Hylotropie kann bei reinen Stoffen und bei Lösungen auftreten, das Beständigkeitsgebiet der Hylotropie allerdings ist bei reinen Stoffen zwar begrenzt, erstreckt sich aber über ein größeres Gebiet als bei hylotropen Lösungen, die diese Eigenschaft nur bei einzelnen Punkten zeigen (Azeotrope, Eutektika). Es sei an dieser Stelle angemerkt, dass die offensichtlich erhellende Begriffsbildung Hylotropie von der chemischen Forschergemeinschaft nicht aufgenommen worden ist.22 Verlässt man das jeweilige energetische Beständigkeitsgebiet von reinen Stoffen unter Anwendung mehr oder minder extremer Bedingungen, so können mehrere andere reine Stoffe entstehen:23 Solche Vorgänge, bei denen aus gegebenen reinen Stoffen mehrere andere reine Stoffe entstehen, nennen wir chemische Vorgänge im engeren Sinne.
Wendet man dieses Verfahren wiederholt an, so gelangt man zu Stoffen, die sich mit den gegebenen Methoden nicht weiter in Gemenge oder Lösungen zerlegen lassen: den Elementen. Ostwald nennt diese bei ihrer Einführung auch „… einfache, besser unzerlegte Stoffe“24 (vgl. die Diskussion von Paneths Elementdefinition im folgenden Abschnitt). Und er gibt eine Definition:
Ostwald (Fn. 11), 142–145 Die von Joachim Schummer herausgegebene chemiephilosophische Fachzeitschrift Hyle trägt ihren Namen aus naheliegenden Gründen. 23 Ostwald (Fn. 11), 263 24 Ostwald (Fn. 11), 265 21 22
Was ist Chemie?
Darnach ist ein Element ein Stoff, welcher innerhalb des ganzen Gebietes der herstellbaren energetischen Beeinflussungen nie in einen nicht hylotropen anderen Stoff übergeführt werden kann. (Ostwald, 1907, p. 267)
In den Prinzipien zeigt uns der Autor also eine methodisch-operationalistisch begründete Möglichkeit, die irrige Vorstellung vorgebildeter Elemente, wie man sie sich in der heutigen Chemie, und leider auch der Didaktik der Chemie, nur zu gern angeeignet hat, zu verlassen und einen der wissenschaftlichen und technischen Wirklichkeit adäquateren Weg einzuschlagen. Um mit ihnen wirklich zu arbeiten, müssen Elemente, wie auch Wald betont hat, in einem gewissen Sinne gemacht oder präpariert werden. In anderen Worten: Elemente sind nicht der Beginn, sondern das Ergebnis chemischer Arbeit! In herkömmlicher Weise werden chemische Zusammenhänge eher statisch beschrieben. Statisch heißt, es wird dem Verlauf, der Temporalität der Prozesse, die mit der Veränderlichkeit der Stoffe wesentlich verbunden ist, keine Beachtung geschenkt (s. aber die zitierte Kekulé-Definition). Dies kann auf die seit Jahrhunderten andauernde, mit Mathematisierung und Physikalisierung einher gehende geistesgeschichtliche Strömung zurückgeführt werden, in der die Form höhere Priorität erhält als der Stoff,25 aber auch auf die nötig erscheinende systematische Unterteilung des Erkenntnisgebiets in kleinere, besser zu überschauende und zu beschreibende Bereiche. Bei dieser Unterteilung werden gemeinhin die Strukturbetrachtungen überbetont. Betrachtet man Chemie aber als wesentlich an temporalen Vorgängen, nämlich stofflichen Metamorphosen, interessierte Wissenschaft, so kann erwartet werden, dass jede grundlegende theoretische Chemie, und natürlich auch die Philosophie der Chemie, über die Frage nach der Reaktivität Rechenschaft ablegen. Von Interesse ist diese Frage im vorliegenden Zusammenhang, weil Ostwald einerseits als Vertreter der Energetik ganz grundsätzlich die Potenzialität der natürlichen Vorgänge zuvorderst im Auge hat, und diese und die Temporalität zwei verschiedene Betrachtungsweisen oder Herangehensweisen darstellen. Andererseits ist er, von der Entstehungsphase der Prinzipien her betrachtet, immerhin der spätere Nobelpreisträger für Chemie, und zwar in Anerkennung seiner Leistungen im Bereich der Katalyse, und diese gehört zum Bereich der chemischen Kinetik. Bei der Beschreibung der Umkehrbarkeit chemischer Reaktionen weist Ostwald auf eine Asymmetrie hin, die den chemischen Bereich grundsätzlich charakterisiert: Die Zerlegung zusammengesetzter Stoffe, also die Analyse, ist einfacher zu vollziehen als die Synthese. Das ist auch der Grund dafür, dass die frühere Bezeichnung für die Joachim Schummer hat die Vernachlässigung der stofftheoretischen gegenüber den formtheoretischen Interpretationen und damit die andauernde Vernachlässigung der Chemie in der allgemeinen Wissenschaftsphilosophie verschiedentlich kritisiert. Sehr empfehlenswert ist sein Grundriss der Chemiephilosophie in S. Lohse und Th. Reydon, Grundriss Wissenschaftsphilosophie, 2017, 229–251. 25
215
216
Klaus Ruthenberg
Chemie Scheidekunst lautete (im Niederländischen heute noch Scheikunde), was so viel bedeutet wie Kunst der Zerlegung der Stoffe. Eine aus heutiger Sicht nahe liegende und auch für Ostwald mögliche thermochemische Erklärung der genannten Asymmetrie – unter Verwendung entropischer Argumente – bietet er an dieser Stelle nicht. Diese würde etwa folgendermaßen klingen: Das Zerstören stofflicher Gebilde ist einfacher als der Aufbau derselben, weil es für die Zerlegung mehr Wege gibt, die zum gleichen Ziel führen, als für die Zusammensetzung. Bezüglich des chemischen Elementerhaltungssatzes, also dem Faktum, dass Elemente in messbarer Form bei allen Stoffumsetzungen erhalten bleiben, ist Ostwalds in den Prinzipien angebotener Standpunkt nicht besonders klar. Er gibt zwar einerseits zu, dass die Elemente in den Stoffen bei chemischen Operationen – gleichsam potenziell – erhalten bleiben und dass die Elementaranalysen zu undefinierten Ergebnissen führen würden, wenn das Gesetz von der Erhaltung der Elemente nicht gelten würde. Auf der anderen Seite sagt er im Zusammenhang der Diskussion von chemischen Formeln (gemeint sind hier Summenformeln) weiter unten aber (Ostwald 1907, 395): Indem die Zeichen der Elemente die Zeichen der Verbindungen zusammensetzen, rufen sie unwillkürlich den Gedanken hervor, dass die Elemente ebenso in den Verbindungen physisch noch vorhanden seien, wie ihre Zeichen im Zeichen der Verbindung. Andererseits ist es ja das Kennzeichen der chemischen Vorgänge, dass bei ihnen Stoffe verschwinden und andere mit anderen Eigenschaften in ihrer Stelle erscheinen … Der Ausdruck, dass zwar die Eigenschaften verschwunden seien, die Elemente nichtsdestoweniger aber ihrer „Natur“ nach noch vorhanden seien, ist zu unbestimmt, als dass er als wissenschaftlich gelten könnte.
Die Änderung der spezifischen Eigenschaften und das Verschwinden der Eigenschaften der elementaren Komponenten bei der Bildung einer chemischen Verbindung führt Ostwald dazu, das Fortbestehen der Elemente in der Verbindung zu bestreiten. Auch das Zugeständnis der Erhaltung der Masse, wodurch stöchiometrische Berechnungen möglich werden, und der eben diskutierten Reversibilität chemischer Prozesse, überzeugen ihn nicht. Zugeständnisse dieser Art würden Ostwald freilich in gefährliche Nähe zum Atomismus führen. Lieber führt er ein anderes Bild an: Geldbeträge, die in einer Bank eingezahlt werden, können jederzeit wieder abgehoben werden. Was in der Zwischenzeit mit dem eingezahlten Geld passiert ist, und ob man dieselben Münzen und Geldscheine wiedererhält, ist ungewiss.26 Diese seiner antiatomistischen Grundhaltung geschuldete Beschreibung ist zwar durchaus kreativ, aber doch nicht konsistent, insbesondere wenn die Masse berücksichtigt wird. Moderne Betrachter mögen Ostwald allerdings zugutehalten, dass ihm
26
Ostwald (Fn. 11), 396
Was ist Chemie?
unser Wissen über den Atomaufbau (Atomkern mit großer Masse und ihn umgebenden Elektronen) nicht zur Verfügung gestanden hat. Im neunten Kapitel Reaktionsgeschwindigkeit und Gleichgewicht behandelt Ostwald explizit die Temporalität des chemischen Geschehens. Hier gibt er eine Erklärung für den Unterschied und die unterschiedliche Behandlung von Potenzialiät und Temporalität (Ostwald 1907, 450–451): … Änderungen vorhandener Energien in Gestalt einer Verminderung ihrer Unterschiede sind das, worauf in letzter Analyse alles Geschehen hinausführt oder was mit allem Geschehen so unlöslich verbunden ist, dass es als das Wesen des Geschehens betrachtet werden muss.
Weil demnach Zustände angestrebt werden, die im Ergebnis zeitlich invariant sind, ist auch die wissenschaftliche Beschreibung dieser Zustände, soweit sie sich auf deren Ergebnis beziehen, gleichsam zeitlos. Der Zustand eines stofflichen Systems im Gleichgewicht ist, das können wir von Ostwald lernen, ausschließlich energetisch determiniert, denn die Zeit, in der das Gleichgewicht erreicht wird, ist unbestimmt.27 Die Reaktionsgeschwindigkeiten lassen sich sogar über weite Bereiche steuern, wenn Katalysatoren verwendet werden. In einer für Ostwald ungewöhnlich spekulativen Passage des Untertitels Ideale Katalysatoren erörtert er die Möglichkeit des Vorliegens einer allkatalytischen Wirkung in der Natur, das heißt, „… dass alle tatsächlich verlaufenden Reaktionen durch die Anwesenheit minimaler Mengen katalytisch wirksamer Fremdstoffe verursacht würden …“ (Ostwald 1907, 464) Mit dem Wort verursacht ist allerdings kritisch umzugehen. Wenn die Energetik die Priorität hat, und der Katalysator die Gleichgewichtslage des Vorgangs nicht verändert, kann nicht von einer kausalen Verursachung gesprochen werden, sondern besser von einer Auslösung. Dieser Begriff wird allerdings von Ostwald, seiner grundsätzlichen Haltung geradezu entgegenstehend, abgelehnt. Die Einstellung des chemischen Gleichgewichts beschreibt Ostwald über die Reaktionsgeschwindigkeiten, er benutzt den so genannten kinetischen Ansatz zur Einführung des sogenannten Massenwirkungsgesetzes (Ostwald 1907, 475). Dieser beruht auf der Gleichsetzung der Geschwindigkeiten der konkurrierenden Hin- und Rückreaktionen im Gleichgewicht. Vor der Einstellung des Gleichgewichts können die Reaktionen unterschiedlich schnell verlaufen (Ostwald 1907, 468): Durch diese Mannigfaltigkeit der Reaktionsgeschwindigkeiten, die zwischen Null und Unendlich variieren kann, entsteht nun auch für die chemischen Gebilde eine viel größere Mannigfaltigkeit, als unsere bisherigen Betrachtungen voraussehen ließen. Zustände, die an sich durchaus keine Gleichgewichtszustände sind, sich aber mit verschwindend kleinen Reaktionsgeschwindigkeiten ändern, können uns aus diesem Grunde als Gleichgewichtszustände erscheinen. 27
Ostwald (Fn. 11), 467
217
218
Klaus Ruthenberg
Den Ausdruck zwischen Null und Unendlich sollte man nicht wörtlich nehmen und eher als in weiten Bereichen variierend lesen. Das im letzten Satz dieses Zitats beschriebene Phänomen ist natürlich das bereits erwähnte der Metastabilität. Ostwald selbst verwendet diesen Begriff an dieser Stelle allerdings nicht. Auf die eigentlich von diesem Autor zu erwartende energetische Ableitung des Massenwirkungsgesetzes (über den Vergleich der chemischen Potentiale), die im Gegensatz zur kinetischen Ableitung allgemein gültig ist, verzichtet er interessanter Weise in den Prinzipien. 4.
Friedrich Paneth und die Elementdefinition
Bereits als sehr junger Pionier der Radiochemie veröffentlicht Friedrich Paneth (1887– 1958) Aufsätze über den Elementbegriff in der Chemie, beginnend mit „Über den Element- und Atombegriff in Chemie und Radiologie“.28 Paneth nimmt in der genannten Arbeit das Thema der atomistischen Definition des chemischen Elements auf, wie sie in der Neuzeit zunächst durch Robert Boyle (1627–1691) formuliert und dann durch John Dalton (1766–1844) nachhaltig vertreten worden ist. Die Hauptaussage dieser klassischen Definition ist, dass es ebenso viele chemische Elemente wie Atomarten gibt. Und diese Atome, setzte Dalton stipulativ fest, sollen alle das gleiche Gewicht aufweisen. Vor dem Hintergrund der seinerzeit aktuellen empirischen Ergebnisse, namentlich des Elementzerfalls (Rutherford/Soddy 1902), der Atomstruktur (Rutherford 1911/Bohr 1913) und der Isotopie (Soddy 1913) vieler Elemente stellt sich für Paneth die Frage „[…] ob der Satz von der gleichen Anzahl der Element- und Atomarten auch heute noch seine Gültigkeit behauptet […]“. In seinem geschichtlichen Abriss stellt er Antoine Laurent Lavoisiers (1743–1794) Ablehnung des Gedankens der spekulativen Begrenzung der Elementanzahl durch empedokleische oder lateinisch-alchemistische Vorstellungen sowie dessen von Boyle geprägte, operationale Elementdefinition dar. In dieser sind Elemente als Substanzen beschrieben, die durch keine bekannte (als ‚chemisch‘ anzusehende) Manipulation in einfachere Substanzen zerlegt werden können. Lavoisier meint dann weiter: „Sie wirken vor unseren Augen als einfache Körper und wir dürfen sie nicht eher für zusammengesetzt halten, als in dem Augenblick, wo Erfahrungen und Beobachtungen uns davon Beweise gegeben haben.“ Den Nachteil dieser streng empiristischen Auffassung sieht Paneth im „[…] vorläufigen Aufgeben eines Grundprinzips der Naturerklärung, [nämlich der] Zurückführung der Qualitäten auf Quantitäten […]“. Im Gegensatz zu Lavoisier hatte Boyle bereits früher genau dieses vor Augen: Mit Hilfe der in Gestalt, Größe und Bewegung unterscheidbaren Atome, die Leukipp und Demokrit entwor-
F. Paneth, Über den Element- und Atombegriff in Chemie und Radiologie, Zeitschrift für Physikalische Chemie 91 (1916), 171–198. Die Zitate bis zur nächsten Fußnote sind aus dieser Quelle. 28
Was ist Chemie?
fen hatten, erstrebte er die Zurückführung der stofflichen Qualitäten auf quantitative Unterschiede. Aber erst mit der Annahme von qualitativen Unterschieden der Atome, wie sie Dalton gegen 1808 einführte, konnte, so Paneth „[…] die Boylesche Definition des chemischen Elements ihre volle Fruchtbarkeit entfalten“. Und an gleicher Stelle fährt er fort: „Das Ziel universeller, philosophischer Welterklärung wurde dadurch zunächst beiseite gelassen, für die Chemie aber die Grundlage zu ihrer großartigen Entwicklung gelegt.“ Die Beobachtung des möglichen Elementzerfalls wurde mittels der Hypothese erklärt, dass die Atome eines radioaktiven Elements in Atome eines anderen Elements verwandelt werden. Die Entdeckung der Isotopie, also in moderner Sprechweise des Auftretens vieler chemischer Elemente in verschiedenen Atomkernsorten (Nukliden), bei denen allerdings ihre Art erhalten bleibt, gehört auch zu den wichtigen Entdeckungen, die nach Paneth einen Bezug oder Einfluss auf den Element- und den Atombegriff haben. Als dritten relevanten wissenschaftlichen Aspekt nennt Paneth das so genannte Moseley-Gesetz (1913). Bei der Untersuchung des Zusammenhangs zwischen der Frequenz der in einem Röntgenexperiment von dem elementaren Anodenmaterial ausgesandten Strahlung und seiner Stellung im Periodensystem der Elemente stellte Henry Gwyn Jeffreys Moseley (1887–1915) fest, dass die Annahme des Atomgewichts als Kriterium für die Elementstellung unrichtig ist. Es stellte sich heraus, dass die Kernladungszahl (später Ordnungszahl), besser gesagt ihr Quadrat, nicht aber das Atomgewicht, proportional zur Röntgenfrequenz ist (Z2 ~ n). Paneth hebt als Besonderheit der Arbeit von Moseley hervor, dass sie […] die Möglichkeit einer strengen Systematik der Elemente auf Grund ihrer Hochfrequenzspektren zeigte, und dadurch zugleich die Bedeutung der in der Zahl scharf begrenzten alten chemischen Typen gegenüber dem Schwarm der neu hinzugekommenen und sich täglich noch vermehrenden Radioelemente in helles Licht setzte. Der alte Elementbegriff erhält durch sie seine stärkste Stütze […].
Gegenüber dem linearen Aufbauprinzip, das sich aus dem Moseley-Gesetz ergibt, hat zudem das von Chemikern gefundene periodische Aufbauprinzip den enormen Vorteil, dass es neben den horizontalen (Perioden) auch die vertikalen (Gruppen) Zusammenhänge erschließen lässt. Paneth hält daher fest, dass das Periodensystem in seiner Vorhersagekraft dem linearen überlegen sei. Wie ist aber mit der Isotopie zu verfahren? Die Isotopie kollidiert mit dem oben erwähnten Stoffgesetz von Wilhelm Ostwald, das Paneth ausdrücklich als Regel bezeichnet. Dieses besagt, dass Stoffproben, die in einigen wenigen Eigenschaften übereinstimmen, dies auch in allen anderen Eigenschaften tun. Paneth behauptet, dass dieses Naturgesetz durch die Entdeckung der Isotopie ungültig geworden sei, und begründet dies mit den möglichen Schwankungen im Atomgewicht bei bestimmten Elementen. In der Diskussion dieses Sachverhalts kommt Paneth hier an die Kernstelle seiner Studie: Wie weit sollen wir bei der Elementdefinition gehen?:
219
220
Klaus Ruthenberg
Rein logisch betrachtet sind hier beide Wege möglich: Postulierung von absoluter Gleichheit aller Eigenschaften oder Zugestehen einer Schwankungsbreite für einige. Eine nähere Betrachtung wird uns aber zeigen, daß die erstere Alternative, die zunächst als die sinngemäßere erscheinen könnte, zu einer völligen Entwertung des Elementbegriffs für die Chemie führen würde.
Um diese Entwertung des Elementbegriffs zu vermeiden, betont Paneth in der untersuchten Studie die zweite Variante, die sich mit der Identifizierung der chemischen Eigenschaften begnügt und formuliert folgende Definitionen: Ein Element ist ein Stoff, der durch kein chemisches Verfahren in einfachere zerlegt werden kann. Stoffe, die dieser Definition genügen, gelten als ein und dasselbe Element, wenn sie, einmal miteinander gemischt, durch kein chemisches Verfahren wieder getrennt werden können. Atome sind jene Bausteine der Materie, bis zu denen die chemische Zerteilung vordringen kann, die selber aber bei allen chemischen Reaktionen unversehrt bleiben.
Beide Bestimmungen haben operational-empirischen Charakter, es sollte also grundsätzlich möglich sein, Verfahren anzugeben, um von realen Stoffproben ausgehend zu dem jeweils gewünschten Ergebnis zu gelangen. Die auch heute noch gängige Elementdefinition als „[…] Stoff, dessen sämtliche Atome gleiche Kernladung haben […]“, die im Übrigen sogar „offiziell“ ihm zugeschrieben wird, stellt Paneth wegen ihres notwendig hypothetischen Charakters – mit Atomen kann man schließlich nicht wirklich experimentieren – sowie der empirischen Schwierigkeiten bei der Bestimmung der Kernladungszahl im chemischen Zusammenhang (zunächst) zurück. Er nennt diese treffend auch eine theoretische Definition. In einem späteren Vortrag von 1931 bleibt Paneth bei einem Dualismus des Elementbegriffs und spricht von „einfachem Stoff “ und „Grundstoff “.29 Am Beispiel von Schwefel ist demnach das Beharrende in den Verbindungen dieses Elements der Grundstoff, das ist der Atomkern mit seiner definitiven Anzahl von Protonen. Der Grundstoff ist eigenschaftslos, also der Erfahrung nicht direkt zugänglich, ist aber dasjenige, was mit den Elementsymbolen des Periodensystems bezeichnet wird. Ein Vergleich der ersten drei „Elemente“ der 6. Hauptgruppe Sauerstoff, Schwefel und Selen, also Schwefel und seine beiden Gruppennachbarn, mag dies veranschaulichen: Bei Zimmertemperatur ist „Sauerstoff “ ein farbloses Gas, Schwefel ein gelber Feststoff, Selen auch fest, aber rot. Alle drei sind Nichtmetalle, und ihre Verbindungen weisen ähnliche Summenformeln auf. Ähnlichkeiten der Gruppenmitglieder, die historisch bei der Erstellung des „natürlichen Systems der Elemente“ aus dem Vergleich der Reaktivität, letztlich aus dem Vergleich der gebildeten Verbindungen, erschlossen worden sind, werden heute F. Paneth, Über die erkenntnistheoretische Stellung des chemischen Elementbegriffs, Schriften der Königsberger Gelehrten Gesellschaft 8, Heft 4, (1931), 101–125. Die folgenden Zitate in diesem Abschnitt stammen aus diesem Aufsatz. 29
Was ist Chemie?
auf strukturelle Merkmale im Atombau (insbesondere die Elektronenkonfiguration) zurückgeführt. Paneth meint, noch einmal Ostwald kritisierend: Der Fundamentalsatz der Chemie, daß die Elemente in den Verbindungen erhalten bleiben, bezieht sich nur auf die qualitätslosen Grundstoffe; in jedem andern Sinn ist die Behauptung unverständlich. Es ist kein Ausweg, den Satz mit Ostwald nur so zu verstehen, daß die ‚Möglichkeit‘ vorliegt, ‚das Element aus jeder seiner Verbindungen in unveränderter Menge wieder zu gewinnen‘, denn wenn wirklich nichts anderes ausgesagt werden sollte, dürfte man nicht von einem ‚Fortbestehen in den Verbindungen‘ sprechen.
Eine Reihe von Substanzen – Paneth nennt beispielhaft Natrium, Fluor und Radium – sind bereits als Grundstoffe angenommen worden, bevor sie operational darstellbar waren, weil Erfahrungen mit entsprechenden empirischen Stoffen dies nahelegten. Im Grunde ist die von ihm näher spezifizierte Dichotomie des Elementbegriffs also auch früher schon – freilich implizit – im Gebrauch gewesen. Der Zusammenhang zwischen der Erscheinungswelt und der transzendenten Welt, der bei der Erforschung der elementaren Stoffe für Paneth zentral ist, spielt auch bei der Beurteilung der Bedeutung des chemischen Stoffkonzepts eine herausragende Rolle. Der transzendentale Grundstoff – den man mit Kant als „überfliegend“ und nicht „einheimisch“ ansehen muss (s. KrV, A 643) – wird nun neuen, nicht-stofflichen Strukturen, den Molekülen und Atomen, zugeordnet. Diese „[…] sind freilich keine soliden Kugeln mehr, der ihnen zugeschriebene Raum ist nur von elektrischen Kräften erfüllt […]“. Damit hat der alte Materialismus ausgedient: Nun könnte man Protonen und Elektronen noch als letzte Reste des alten Stoffbegriffs auffassen, wenn nicht die moderne Quantenmechanik zu der Annahme gezwungen hätte, daß die Bewegungen dieser Teilchen gar nicht in dem uns vorstellbaren dreidimensionalen Raumerfolgen, sondern in Räumen viel höherer Dimension. Damit fällt die letzte Möglichkeit, in irgendeinem Sinne an dem uns vertrauten Stoffbegriff festzuhalten; jede Anschaulichkeit ist aufgegeben und gleichzeitig die Berechenbarkeit auf eine nie vorher erreichte Höhe gehoben.
Man könnte Paneth entgegnen, dass die Kernladungszahl als solche nicht wahrgenommen werden, aber dennoch einer Messung zugeführt werden kann. Auch ist die Masse von chemischen Stoffen wesentlich durch die Atomkerne determiniert und gleichzeitig messbar. Außerdem wird in der Literatur auch der Umstand kritisiert, dass die Grundstoffe gar keine Stoffe sind. Die Verschiebung der Atomkerne in den noumenalen Bereich ist also mindestens nur für die chemischen Wissenschaften verständlich, vielleicht muss man sie aber auch ganz verwerfen. Die Arbeiten Friedrich Paneths stehen historisch am Anfang der aktuellen Elementdefinition und systematisch immer noch im Zentrum der Diskussionen über Pluralismus in der Chemiephilosophie.
221
222
Klaus Ruthenberg
5.
Ontologische Unterbestimmtheit
Ein weiterer für die Chemie zentraler Aspekt ist die Unterbestimmtheit der Stoffe. Menschen haben bereits durch ihren natürlichen Stoffwechsel einen innigen, fast intimen Kontakt mit ihrer Umgebung. Vielerlei chemische Reaktionen finden statt bei der Atmung, sowie bei der Nahrungsaufnahme und -verarbeitung. Auch wenn die Folgen (für den Menschen und die Umgebung) nicht immer sicher vorhersagbar sind, sie bleiben doch meist – aber nicht immer – lokal. Zum natürlichen Stoffwechsel gesellt sich schon sehr lange etwas, das wir versuchsweise den technischen Stoffwechsel nennen können. Wir entnehmen Dinge aus der Umgebung, bearbeiten sie nach unseren Vorstellungen, und geben andere Dinge zurück in unsere Umgebung oder Umwelt. Synthetische Stoffe (s. das Berthelot-Prinzip) sind solche Dinge, und manche von ihnen gelangen fast unbemerkt in die Umgebung und entfalten dort mitunter überraschende, manchmal auch besorgniserregende Wirkungen. Letztere waren bekanntlich auch der Anlass für die Bildung des Begriffes Anthropozän. Wie wir schon gesehen haben, leitet sich der Stoffbegriff aus bestimmten Eigenschaften von Dingen durch Abstraktion, also das bewusste und gezielte Absehen von bestimmten Aspekten, wie etwa der äußeren Form, ab. Ida Freund (1863–1915), die erste Universitätsdozentin in Großbritannien (Cambridge), verortet die Chemie wie folgt:30 Chemistry deals with the properties which belong to certain kinds of matter and not to others, which characterise one kind of matter and differentiate it from all other matter“.
Es sind also spezifische Eigenschaften von materiellen Objekten, die in den chemischen Wissenschaften von zentralem Interesse sind (s. Aristoteles, Wald und Ostwald), nicht aber etwa die Frage nach der ultimativen Zusammensetzung der Materie.31 Letztere wird von der Physik bearbeitet (was zumindest teilweise ihre enorme philosophische Attraktivität erklärt.) Betrachten wir noch einmal das Edelmetall Gold, welches gediegen in der oberen Erdkruste vorkommt und daher den Menschen schon sehr früh, spätestens im 6. Jahrtausend v. Chr., aufgefallen ist. Bereits der Umstand des ungebundenen Vorkommens ist ein wichtiges Fragment des Wissens über diesen besonderen Stoff. Andere Wissensfragmente, wie die Schmelzbarkeit, Dichte, und Kaltformbarkeit, gesellten sich bald hinzu. Auch die Nichtlöslichkeit in den damals bekannten Flüssigkeiten ist eine Stoffeigenschaft, die zum Charakterisierungs-Kanon oder -Netz dieses Stoffes gehört – und natürlich zur Bezeichnung „Edelmetall“ beitrug. Während man die Begleiter oder „VerI. Freund, The Study of Chemical Composition, 1904 Wir dürfen „matter“ hier durchaus als „Stoff “, also etwa „dingliche Erscheinungsform“ oder aber „wägbare Substanz“ verstehen. Die hier vorliegende begriffliche Verlegenheit deutet bereits auf einen zentralen Problembereich der Chemiephilosophie hin. 30 31
Was ist Chemie?
unreinigungen“ des Goldes wie etwa Silber nach Bekanntwerden der Salpetersäure aus dem Gemisch (der Legierung) mit Gold entfernen konnte, ist Gold selbst bekanntlich nur im sogenannten „Königswasser“ löslich. Letzteres ist, wie wir heute wissen, ein Gemisch aus Salzsäure und Salpetersäure und wurde wohl im 8. Jahrhundert n. Chr. das erste Mal hergestellt und verwendet. Seit der Erstsynthese dieses Lösemittels hat Gold in unseren Augen – und eine andere Perspektive kennen wir nicht – ein anderes „Gesicht“. Im 20. Jahrhundert kam dann eine weitere „Eigenschaft“ zum angedeuteten Wissensnetzwerk dazu und hat die Darstellung im sogenannten Periodensystem der Elemente präzisiert: die Kernladungszahl.32 Wie ich an anderer Stelle ausführlich diskutiere, ist diese allerdings keine typisch chemische Eigenschaft. Mit dem Anwachsen des Wissens über einen bestimmten Stoff dürfen wir freilich nicht annehmen, dass dieser Stoff, nur weil wir etwas vielleicht Überraschendes über ihn erfahren haben, jetzt etwas völlig anderes wäre als vorher. Das Gold des Mittelalters wies mit Sicherheit dieselbe Kernladungszahl wie das heutige auf, auch wenn niemand sie damals gemessen hat. Jaap van Brakel, einer der Pioniere der neueren Chemiephilosophie, charakterisiert Stoffe wie folgt (van Brakel 1997, 253):33 (…) pure chemical substances are the relatively stable products of chemical analysis and synthesis: nodes in a network of chemical reactions.
Gold ist durch die genannten vernetzten Wissensfragmente also hinreichend präzise und sicher bestimmt. Es bleibt ontologisch über die Jahrhunderte hinweg dasselbe, wenngleich es epistemologisch unterschiedlich beschrieben wurde. Betrachten wir als weiteres Beispiel eine chemische Verbindung: die Salpetersäure. Sie ist mindestens seit dem frühen Mittelalter bekannt und wurde durch das Erhitzen von Salpeter mit Schwefelsäure gewonnen, also in einer Art „trockener“ Destillation. In reiner Form hat sie einen recht niedrigen Siedepunkt (84 °C), so dass die destillative Aufreinigung grundsätzlich möglich erscheint. Unter den realen historischen Bedingungen jedoch hatte man es mit verdünnter, wässriger Salpetersäure zu tun, und der Siedepunkt für diese Form (das Azeotrop) ist höher (er liegt bei 121 °C). Wenngleich die genaue Siedetemperatur im Mittelalter nicht gemessen werden konnte, war es dennoch bekannt, dass man unter Anwendung von Schwefelsäure die störende Feuchtigkeit verringern oder vermeiden konnte. Auf diesem Wege wurde das Produkt in mehr oder weniger reiner Form zugänglich. Das Wissen über diesen Herstellungsvorgang ergab, zusammen mit Kenntnissen über Farbe, Geruch, Geschmack und dem Verhalten (der Affinität) gegenüber anderen Stoffen ein ebenso sicheres dispositionales Netzwerk, wie wir es für Gold beschrieben haben. Auch hier läuft die Charakterisierung Diese beschreibt die Anzahl der Protonen in den Atomen der jeweiligen Elemente und wird auch Ordnungszahl genannt. Für Gold beträgt sie 79. 33 J. van Brakel, Chemistry as the Science of the Transformation of Substances, Synthese 111 (1997), 253– 282. 32
223
224
Klaus Ruthenberg
des Zielstoffes seiner mikrophysikalischen Beschreibung, wie etwa der Bestimmung der Summenformel (HNO3), voraus. Jedenfalls gilt unabhängig davon, ob wir bestimmte Eigenschaften oder Messergebnisse als besonders wichtig, notwendig oder gar essentiell betrachten, oder es bei einer beschreibenden Grundhaltung belassen wollen: Die Geschichte eines chemischen Stoffes ist niemals zu Ende erzählt. Der Begriff „Unterbestimmtheit“ wird in der Wissenschaftstheorie schon lange diskutiert. Zunächst einmal lässt sich feststellen, dass die in gewissem Sinn triviale Bedeutung des Fehlens einer abschließenden theoretischen Beschreibung für das betrachtete Phänomen nicht damit gemeint ist. Unterbestimmtheit bezieht sich auf das Verhältnis wissenschaftlicher Theorien zueinander. Der amerikanische Wissenschaftsphilosoph Larry Laudan bietet zwei Versionen einer Definition von Unterbestimmtheit an:34 For any finite body of evidence, there are indefinitely many mutually contrary theories, each of which logically entails that evidence.“,
und: Any theory can be reconciled with any recalcitrant evidence by making suitable adjustments in our other assumptions of nature“.
Mit Bezug auf die jeweiligen einschlägigen Philosophen nennt er die erste Version die „Humesche“, die zweite die „Quinesche“. Es geht in beiden um die verschiedenen Möglichkeiten der wissenschaftlichen Beschreibung eines ansonsten festen Bestandes an Erfahrungen (Beobachtungen, Messungen). Wegen der multiplen Varianten einer validen wissenschaftlichen Erklärung erscheint ein „experimentum crucis“, also ein entscheidendes Experiment, wie es sich etwa Karl Popper und seine Anhänger vorgestellt haben, ausgeschlossen (die sogenannte „Duhem-Quine-These“). Weil also die Geschichte eines chemischen Stoffes niemals zu Ende erzählt ist, bleibt die Suche nach der einzig richtigen wissenschaftlichen Beschreibung oder Erklärung seiner „Natur“ aussichtslos und der Vorhersagehorizont unscharf. Es ist allerdings ein anderer Gesichtspunkt, der mich hier besonders interessiert: Der Entwicklungsgedanke ist in diesen herkömmlichen Definitionen zwar nicht ausgeschlossen, wird aber gewissermaßen zurückgedrängt („any finite body of evidence“). Das bedeutet, dass Unterbestimmtheit implizit oder explizit auf einen ontologisch unveränderlichen Bezugsrahmen projiziert wird. Diese herkömmliche Art der Unterbestimmtheit nenne ich daher „epistemologisch“. Für die chemischen Stoffe trifft die Betrachtungsweise eines stabilen (stofflichen) Bezugsrahmens nicht zu.35 Aufgrund vor L. Laudan, Demystifying Underdetermination, in: Philosophy of Science (hg. von M. Curd, J. A Cover u. C. Pincock), 2013, 290 u. 295. 35 Selbst die Anzahl der Atome eines bestimmten Elements in einem Ausschnitt des Universums, z. B. der Erde, ist aufgrund der Radioaktivität nicht konstant. 34
Was ist Chemie?
allem menschlicher Aktivitäten entstehen nahezu täglich, absichtlich wie unabsichtlich, neue Stoffe. Und auch wenn bereits vorhandene Substanzen auf Reaktionspartner treffen, mit denen sie bisher noch keinen Kontakt hatten, können unvorhergesehene Dinge geschehen. Das Beispiel des Zusammentreffens von Königswasser mit dem Gold hat gezeigt, dass ganz neue Phänomene auftreten können, wenn bisher voneinander separierte Substanzen sich begegnen. Joachim Schummer meint:36 Beyond academic interest, the production of nonknowledge by the synthesis of new substances is of general concern if the new substances leave, through whatever door, the laboratories and become part of our material environment.
Diejenige Unterbestimmtheit, die durch eine Verschiebung im Bestand der realen epistemischen chemischen Objekte und deren Wechselwirkungen entsteht, nenne ich „ontologisch“. Damit beziehe ich mich auf die Ursache des Nichtwissens und versuche eine Abgrenzung von der herkömmlichen Auslegung, bei der es ausschließlich um die theoretische Interpretation geht. Ein epistemologischer Anteil an der Unterbestimmheit tritt immer zur ontologischen hinzu: Das diesbezügliche Nichtwissen, von dem Schummer spricht, ist aber grundsätzlich verschieden von dem Nichtwissen des Ergebnisses beispielsweise eines Handballspiels, in dem die Regeln feststehen. Es entspricht vielmehr dem Nichtwissen darüber, welches „Spiel“ überhaupt gespielt werden wird oder kann. Die folgenden Beispiele dienen der Illustration der chemischen Unterbestimmtheit anthropogenen Ursprungs. Nitroglycerin. Diese Flüssigkeit – sie trägt eigentlich die eher systematischen Namen Glycerintrinitrat oder Trisalpetersäureglycerinester – hat Berühmtheit erlangt als Bestandteil des Dynamits, ist aber darüber hinaus auch im medizinischen Einsatz als gefäßdilatierendes Mittel bei akuten Durchblutungsstörungen am Herzen. Obgleich seine Zusammensetzung, der Syntheseweg sowie viele andere seiner chemischen Eigenschaften schon fast 200 Jahre bekannt sind und chemieferne Essentialisten sich möglicherweise mit der Kenntnis der Summenformel, der Grundstruktur und Kernladung der insgesamt 20 Atome zufriedengeben würden, ist das „chemische Portfolio“ dieses Stoffes weiterhin offen. Unter dieses chemische Portfolio fallen natürlich auch die biologischen Wirkungen. Dies zeigt sich etwa bei einem Blick in die Liste der Maximalen Arbeitsplatzkonzentrationen (MAK). Der MAK-Wert ist eine empirisch begründete Einschätzung des Risikos eines Arbeitsstoffes durch eine Gruppe von Experten und Expertinnen. Nimmt man die Mitteilung 35 der Deutschen Forschungsgemeinschaft von 1999 zur Hand, so erfährt man, dass der MAK-Wert, also die am Arbeitsplatz bei normalem Arbeitsumfang zumutbare Belastung der Luft, bei 0,05 ppm lag. Dieser Wert ist in der Mitteilung 54, also etwa 20 Jahre später, auf 0,01
J. Schummer, Ethics of Chemical Synthesis, Hyle – International Journal for Philosophy of Chemistry 7 (2001), 103–124, hier 111 36
225
226
Klaus Ruthenberg
ppm korrigiert, was für Arbeitsstoffe zwecks Risikoverringerung nicht ungewöhnlich ist. Blättert man allerdings einige Spalten weiter, so erhält man die Information, dass für Glycerintrinitrat nun Anhaltspunkte für eine krebserzeugende Wirkung vorliegen, die jedoch zur Einordnung in eine Kategorie für höhere Gefährdung (noch) nicht ausreichen. Thalidomid. Auch dieser Wirkstoff ist nicht weniger berühmt, allerdings, zumindest im deutschsprachigen Raum, eher unter dem Namen Contergan. Kaum jemand der über 50-jährigen in Deutschland wird die Aktion Sorgenkind vergessen haben, die heute als Aktion Mensch als beliebte Lotterie weiterlebt. Jene Aktion Sorgenkind entstand 1964 als Reaktion auf die Nebenwirkungen des Thalidomids. Dieser Wirkstoff wurde – das ist jedenfalls die offizielle Version der Beteiligten – Mitte der 1950er Jahre in den Labors der Firma Grünenthal zuerst synthetisiert.37 Intern hatte der Stoff die Bezeichnung K17, er war demnach die 17. Substanz, die der Chemiker Dr. Kunz in einer mehr oder weniger systematischen Reihe von einfachen, kurzkettigen Peptiden herstellte. Wie die Synthese tatsächlich durchgeführt wurde, teilten die Beteiligten den Lesern des einzigen Fachbeitrags zu diesem Thema aus ihrem Labor (Kunz et al. 1956) allerdings nicht mit. In dem genannten Fachbeitrag wird allerdings behauptet, dass Thalidomid sehr wirksam als Schlafmittel eingesetzt werden kann. Gestützt wird diese Behauptung mit der vergleichenden Gegenüberstellung der Wirkung verschiedener Präparate auf Mäusegruppen, angeblich gewonnen aus dem sogenannten „Zitterkäfigversuch“. Kurzgefasst sieht dieser Versuch so aus: Jeweils 8 männliche Mäuse aus der gleichen Dosisgruppe werden zusammengesperrt und ihre Bewegungen über die elektrolytische Bildung von Wasserstoff erfasst, dessen Volumen als Maß ihrer Aktivität verwendet wird. Das Problem dieses Ansatzes ist, dass es nicht möglich ist, eine saubere Kalibrierung vorzunehmen, da in einer Mäusegruppe niemals alle Tiere gleichzeitig schlafen. In einer Tabelle dieser erstaunlichen Publikation schneidet Thalidomid kaum überraschend als Testsieger ab. Die Sensation: die schlafmachende Wirkung, die an Mäusen (auch später) nicht sicher festgestellt werden konnte (was dazu führte, dass US-amerikanische Firmen die Lizenz für das Herstellungsverfahren nicht gekauft haben), ist in dieser Tabelle vereint mit einer geradezu phantastischen Ungiftigkeit. Angegeben werden > 5000 mg/kg im Vergleich zu dem Konkurrenten Luminal: 300 mg/ kg. Der heute angenommene Wert, allerdings für Ratten, beträgt 113 mg/kg bei peroraler Gabe. Es bleibt dem heutigen Betrachter der bekannten Quellen weiterhin verborgen, woher die Grünenthal-Mitarbeiter in Wirklichkeit von der schlafmachenden Wirkung ihres Produkts am Menschen gewusst haben. Offengelegte klinische Untersuchungen Zu der Frühgeschichte des Thalidomids sowie einer ethischen Diskussion der Zusammenhänge s. K. Ruthenberg, About the Futile Dream of an Entirely Riskless and Fully Effective Remedy: Thalidomide, Hyle – International Journal for Philosophy of Chemistry 22 (2016), 55–77, sowie die darin angegebene Literatur. 37
Was ist Chemie?
dazu gibt es nicht. Dass das Wissen um diese Wirkung in der Firma recht früh vorhanden gewesen ist, beweist der tragisch-ironische Fall der Tochter eines Firmenmitarbeiters, die zu Weihnachten 1956 ohne Ohren geboren wurde – ein Jahr vor der Markteinführung des Medikaments. Der Mitarbeiter hatte den Wirkstoff seiner Frau in einer frühen Phase ihrer Schwangerschaft als Beruhigungsmittel gegeben. Hier dient uns die fatale Nebenwirkung der Missbildungen – die zu jener Zeit allerdings noch niemand mit dem Thalidomid in Verbindung brachte – als beweiskräftiges Indiz für die Tatsache, dass der fragliche Stoff das Labor – noch inoffiziell – bereits verlassen hatte. Viele Menschen – die Schätzungen erreichen mitunter die Zahl 10000 – haben aufgrund der zum Zeitpunkt der Markteinführung tatsächlich nicht bekannten Nebenwirkungen ein häufig leidvolles, eingeschränktes Leben als körperlich Behinderte führen müssen. Darüber hinaus muss man von einer um ein Vielfaches höheren Dunkelziffer von Totgeburten ausgehen, die das Thalidomid verursacht hat. Die Frage nach der Verantwortung für diese schreckliche Katastrophe sollte man nicht vorschnell beantworten. Jedenfalls ist es nicht der Stoff selbst, der natürlicherweise schlecht oder nur gefährlich ist. Bis heute wird Thalidomid erfolgreich eingesetzt, allerdings nicht mehr als vermeintlich ungefährliches Schlafmittel, sondern als Medikament gegen bestimmte Lepra-Erkrankungen, und weitere Anwendungen scheinen nicht ausgeschlossen. Auch heute noch sind Unglücke nicht ausgeschlossen.38 Jedenfalls ist auch diese spezifische Stoffgeschichte noch nicht zu Ende erzählt. Die teratogenen – also fruchtschädigenden – Nebenwirkungen, deren Herkunft sich trotz einer zunächst extrem verantwortungslosen Firmenpolitik gegen Ende der 1950er Jahre manifestierte, führten wenige Jahre später weltweit zu wesentlich verbesserten Regelungen der Arzneimittelzulassungen. Dass neue Wirkstoffe nun an mehreren Tierspezies toxikologisch untersucht werden müssen, ist die direkte Folge der Contergan-Katastrophe. Ein anderer – allerdings teuer erkaufter – für die Bundesrepublik nachweisbarer gesellschaftlicher Effekt ist der verbesserte, aufgeklärtere Umgang mit Behinderten seit den 1960er Jahren (s. Aktion Sorgenkind). FCKW. Die Fluorchlorkohlenwasserstoffe kommen, ähnlich wie die zwei zuvor behandelten Stoffe, nicht in der Natur vor. Es handelt sich um eine Gruppe von Chemikalien, die praktisch alle eine extrem geringe Humantoxizität aufweisen und auch deshalb in ihren Hauptanwendungen als Löse-, Treib- und Kühlmittel geradezu unschlagbar erscheinen. Wenn bei diesen Anwendungen nicht streng auf geschlossene Kreisläufe geachtet wird, gelangen diese leichtflüchtigen Substanzen in die Umgebung. Wenngleich die früheren Produktionsmengen von mehreren zehntausend Jahrestonnen zunächst viel erscheinen mögen, wurden in der Atmosphäre in den 1980er und 1990er Jahren dennoch recht kleine Konzentrationen gemessen. Diese lagen in
In Brasilien gelangte der Wirkstoff in die Hände von Schwangeren, die die Angaben auf der Verpackung als Hinweis auf eine kontrazeptive Wirkung missverstanden und missgestaltete Kinder zur Welt brachten. 38
227
228
Klaus Ruthenberg
mittleren nördlichen Breiten typischerweise in den Bereichen ppt bis ppb.39 Die vergleichsweise recht hohe chemische Stabilität (für die die geringe Toxizität ein Indiz ist) führt dazu, dass diese Stoffe die Tropopause in fast 10 km Höhe praktisch ungehindert passieren – während viele andere Stoffe unterhalb dieser Kühlfalle im „normalen“ Wettergeschehen verbleiben und meist in sogenannten Senken aus dem luftchemischen Geschehen verschwinden. Oberhalb der Tropopause wird der von Menschen beeinflusste Zusammenhang dann ebenso schwerwiegend wie schwer zu erkennen. Das „C“ in der Gruppenbezeichnung FCKW steht natürlich für Chlor. Atome dieses Elementes sind in den Molekülen dieser Stoffgruppe enthalten. Wie wir heute wissen, ist es vor allem das Chlor, das den Abbau von Ozon in der mittleren Atmosphäre katalysiert.40 In den FCKW sind die Chloratome nicht so fest gebunden wie die Fluoratome, sie werden also durch härteres Sonnenlicht abgespalten. Da sie zyklisch verläuft, und Katalysatoren letztlich unbehelligt aus einer Reaktion hervorgehen, kann diese Abbaukatalyse so weit gehen, dass ein einziges Chloratom für den Abbau von vielen Tausend Ozonmolekülen verantwortlich wird. Ein Extremfall dieses Ozonabbaus ist das sogenannte Ozonloch. Dieses Phänomen wurde Mitte der 1980er Jahre über der Antarktis entdeckt. Es findet im antarktischen Frühling, also im September, statt. Dabei werden große Mengen von Ozon, das aus der äquatorialen Region zu den Polen abfließt und im Mittel bei wenigen ppmV liegt, innerhalb weniger Tage abgebaut. In der Folge gelangt UV-Licht, das im günstigen Fall von Ozon absorbiert wird, in höherer Intensität auf die Erdoberfläche und erhöht das Risiko von Hauterkrankungen. Seit Ende der 1950er Jahre wird die Ozonkonzentration in der mittleren Atmosphäre von mehreren Standorten aus durchgehend gemessen. Seit das Ozonloch-Phänomen bekannt geworden ist, wird die Problematik extrem intensiv beforscht. 1995 erhielten Paul Crutzen, Mario Molina und F. Sherwood Rowland „wegen ihrer Arbeiten zur Chemie der Atmosphäre, insbesondere über Bildung und Abbau von Ozon“ den Nobelpreis für Chemie. Mittlerweile kann jeder im Ozone Mapping Centre der World Meteorological Organization die täglich aktualisierten globalen Ozondaten abrufen. Die FCKW werden seit Beginn der 1990er Jahre weltweit nicht mehr verwendet (bis auf einige, leider aktuelle Ausnahmen in der Volkrepublik China …), weshalb sich das Ozonloch deutlich erholt hat. Die Ozonabsenkung in bestimmten meteorologischen Phasen (etwa im antarktischen Frühling mit vorheriger extremer Abkühlung durch einen riesigen stabilen Luftwirbel) ist im Übrigen etwas ganz Natürliches. Dies liegt vor allem daran, dass das
Genauer: pptV und ppbV, also 1 Volumenteil auf 1 Trillion Volumenteile bzw. 1 Volumenteil auf 1 Milliarde Volumenteile; die weiter unten im Text verwendete Kurzformel „ppmV“ bedeutet 1 Volumenteil auf 1 Million Volumenteile. Alle atmosphärenchemischen Informationen entnehme ich aus Fabian 1987. 40 Es sind eine Reihe von katalytischen Abbau-Zyklen identifiziert worden, die ihre Bezeichnungen von der jeweiligen aktiven Teilchengruppe erhalten haben: HOx-, ClOx- NOx- Zyklus. 39
Was ist Chemie?
Chlormethan als natürliches Quellgas im Konzentrationsbereich ppmV vorkommt. Genau wie der Treibhauseffekt und der Saure Regen ist also auch das Ozonloch keine rein anthropogene Angelegenheit. Die Liste der Beispiele ließe sich problemlos fortsetzen.41 Interessant sind insbesondere auch natürlich vorkommende Substanzen, auf deren Bilanzen Menschen einen Einfluss haben, wie etwa das Kohlenstoffdioxid (CO2). Folgendes ist zur „chemischen“ Unterbestimmtheit zusammenfassend festzustellen: Niemand konnte vorhersehen, dass es jemals ein Lösemittel für Gold geben würde und wie dieses zusammengesetzt wäre; niemand hat absehen können, dass Nitroglycerin eine cancerogene Wirkung entfalten könnte; niemand konnte mit der fatalen Embryotoxizität des Thalidomids rechnen; niemand konnte ahnen, dass die ansonsten eher harmlosen FCKW ökotoxikologische Nebenwirkungen haben würden, wenn man sie aus der Laborkontrolle befreit. Die beschriebenen Phänomene kommen ähnlich wie Unglücke über uns. Um dieser Tatsache handelnd zu begegnen, könnte einem der Gedanke kommen, vollständig auf die Verwendung von und den Umgang mit chemischen Stoffen zu verzichten. Dann müsste man allerdings nicht nur den technischen, sondern auch den natürlichen Stoffwechsel völlig unterbinden, und das wäre natürlich widersinnig. Die ontologische Unterbestimmtheit in der Chemie kennt keine einfachen Lösungen. Jedenfalls erfordert es Aufmerksamkeit, Sorgfalt und Verantwortungsbewusstsein, um risiko- und konfliktvermindert mit Stoffen umzugehen. Allerdings: Überraschungen (natürlich auch positive …) können niemals ausgeschlossen werden. 6.
Die Dialektik von Analyse und Synthese
Auf den ersten Blick scheinen die genannten Begriffe in einem klar getrennten, gleichsam formal-logischen Verhältnis zu stehen: Analyse heißt in die Bestandteile zerlegen, Synthese heißt bestimmte Bestandteile zusammenfügen. Bei einem aufmerksamen Blick auf die chemische Realität aber wandelt sich diese scheinbare logische Klarheit in Unsicherheit. Nehmen wir ein Beispiel: Die Elektrolyse von Wasser. Vom Ergebnis her betrachtet, liefert diese berühmte Zerlegung des Wassers mittels Elektrizität die Formel H2O. Was aber geschieht in Wirklichkeit? Bei „unbefangener Betrachtung“, wie es Wald wohl ausgedrückt hätte, werden an den beiden Elektroden zwei Stoffe dargestellt, nämlich Sauerstoff und Wasserstoff. Diesen präparativen Schritt kann man als synthetisch bezeichnen, keinesfalls aber ist er analytisch. Wir können ihn auch „Her-
Die Kunststoffe beispielsweise, die sich als Plastiktüten im Meer wiederfinden, gehören in diese Diskussion auch ohne ein direktes Risiko aufgrund chemischer Reaktionen. 41
229
230
Klaus Ruthenberg
stellen“ oder „Machen“ nennen, in dem gleichen Sinne, wie man Speisen herstellt oder macht (vgl. meine Diskussion des Waldschen Ansatzes weiter oben). Es finden sich leicht weitere Beispiele, wie etwa die gravimetrischen „Analysen“, bei denen in einem gesteuerten Prozess Feststoffe hergestellt werden, deren Auswaage der Quantifizierung dient, oder die maßanalytischen Titrationen, bei denen die Herbeiführung und Kenntlichmachung des Endpunktes einer chemischen Reaktion zur Konzentrationsbestimmung verwendet wird. Sogar die zunächst unverdächtigen, weil vermeintlich rein instrumentellen spektrometrischen Messmethoden benötigen in diesem Sinn synthetische Teilschritte, beispielsweise bei der Skalierung von Messbereichen oder bei der Kalibrierung von Messreihen.42
Anhang: Zulässige und unzulässige Methoden/Fragen/Antworten
Frage-Antwort-Zusammenhänge (in Beispielen): Kontext 1 – Einschlägige, typische Fragen: - Welcher Stoff ist das? Hierzu gibt es, wie im vorstehenden Text behandelt, zwei Basisansätze, die physikalistischen (essentialistischen) und die deskriptivistischen (empiristischen) Methodologien. Die einen glauben an eine fundamentale, mikrophysikalische Verursachung des chemischen Verhaltens und bevorzugen strukturalistische Beschreibungen, die anderen betonen die Ergebnisse der stofflichen Umsetzungen und deren Interpretation. In der „chemischen Wirklichkeit“ koexistieren beide Ansätze. – Was sind Säuren? Auch für dieses Beispiel existiert eine grundsätzliche Polarität, nämlich die zwischen den Protonisten und den Elektronisten. Die einen stehen der klassischen Stoffchemie nahe, die anderen der physikalisch-theoretischen Interpretation. – Ist dieser Stoff herstellbar? Das ultimative Kriterium für die Beantwortung dieser Frage ist der praktische Erfolg der „systematischen Kunst“ Chemie. Kontext 2 – Über den disziplinären Rahmen hinausgehende Fragen: – Was ist ein Edelgas? In gewisser Hinsicht sind Edelgase chemische Gespenster, weil sie zwar stofflichen Charakter (Raumausfüllung und Masse) haben, aber nicht an chemi-
Zu diesem und einigen anderen hier genannten Aspekten vgl. meine Monographie „Chemiephilosophie“ (de Gruyter 2022). 42
Was ist Chemie?
schen Vorgängen teilnehmen. Daher waren zu ihrer Entdeckung physikalische Methoden (Spektrometrie) nötig. – Kann es eine Physik ohne Chemie geben? Diese bewusst ungewohnt verkehrt herum gestellte Frage (s. die vorherige) soll andeuten, dass für typisch physikalische Messmethoden öfter als häufig angenommen chemische Stoffe nötig sind. Beispielsweise ist für die Skalierung einer Messung im Massenspektrometer ein stofflicher Standard notwendig. – Warum ist eine chemische Bindung stabil? Zur Beantwortung dieser Frage ist die Hinzuziehung quantenphysikalischer Zusammenhänge praktisch konkurrenzlos. An solchen Grenzen verschwimmen die disziplinären Konturen. – Ist Leben chemisch erklärbar? Momentan erscheint eine plausible wissenschaftliche Antwort auf diese Frage ohne Einbeziehung chemischer Fakten schlecht möglich. Kontext 3 – Scheinfragen: – Ist ein Schmelzpunkt atomistisch erklärbar? – Kann Wasser auf einem fernen Planeten andere Eigenschaften haben? – Ist Wasser H2O? Klaus Ruthenberg
Hochschule Coburg, Friedrich-Streib-Straße 2, 96450 Coburg
231
Wissenschaftler:innen betreiben Wissenschaft. Diese Erkenntnis ist in Pandemiezeiten mehr denn je ins Bewusstsein der Gesellschaft gerückt. Ebenso vergegenwärtigt sie, dass unterschiedliche Wissenschaftler:in nen – derselben oder auch verschie dener Fachdisziplinen – bei gleichen Fragestellungen zu unterschiedlichen Antworten gelangen. Welche Grenzen haben unterschied liche Disziplinen, welches sind ihre spezifischen Gegenstände und Metho den, und wie können wechselseitige Anschlussflächen zu anderen Diszi plinen, auch sprachlich, geschaffen werden? Wie lassen sich die jeweiligen
ISBN 978-3-515-13480-4
9 783515 134804
disziplinären Methoden für die Be arbeitung der Forschungsgegenstände bestimmen? Und welche Stellung nimmt das jeweils daran beteiligte Subjekt ein? Kurzum: Was genau ist eigentlich wissenschaftliche Tätigkeit? Diesen Fragestellungen widmet sich „Erklären und Verstehen. Fragen und Antworten in den Wissenschaften“ aus interdisziplinärer Sichtweise. Einbe zogen werden Perspektiven aus den Geschichtswissenschaften, den Islam wissenschaften, der Philosophie, den Rechtswissenschaften, der Theologie sowie der Biologie, der Chemie und der Physik.
www.steiner-verlag.de Franz Steiner Verlag