Die Glaubwürdigkeit der Wissenschaft: Eine wissenschafts- und erkenntnistheoretische Analyse am Beispiel der Klimaforschung [1. Aufl.] 9783839419748

Die Klimaforschung steht als politisch relevante Wissenschaft unter dem Druck, schnell Resultate zu liefern. - Und wo di

252 87 1MB

German Pages 238 Year 2014

Report DMCA / Copyright

DOWNLOAD PDF FILE

Table of contents :
Inhalt
Überblick
1 Wissen und Glauben
1.1 Die Testimony-Debatte
1.2 Die credulistische Antwort: Glauben
1.3 Die reduktionistische Antwort: Prüfen
1.4 Glauben und Prüfen
1.5 Epistemische Arbeitsteilung
1.6 Das Expertenproblem
1.7 Wissen, Glauben und Glaubwürdigkeit
2 Die Glaubwürdigkeit von Wissenschaft
2.1 Innerwissenschaftliche und außerwissenschaftliche Glaubwürdigkeit
2.2 Außerwissenschaftliche Glaubwürdigkeit
2.2.1 Wissenschaft und Massenmedien
2.2.2 Das Konsens-Dissens-Dilemma
2.2.3 Wissenschaft und Politik
2.2.4 Pure Scientists und Honest Brokers
2.2.5 Experten, Intellektuelle und Expertenintellektuelle
2.2.6 Wissenschaftliche Glaubwürdigkeit, Ethik und Transparenz
2.2.7 Expertenintellektuelle in der Klimaforschung
2.3 Innerwissenschaftliche Glaubwürdigkeit
2.3.1 Pathologische Wissenschaft und Druck in der Gemeinschaft
2.3.2 Theoriebeladenheit der Beobachtung
2.3.3 Grenzen zwischen Theoriebeladenheit und Pathologie
2.3.4 Die Sonnenfleckentheorie
2.3.5 Wissenschaftsskepsis
2.3.5.1 Zu den Grundlagen skeptischer Einwände
2.3.5.2 Entgegnungen auf skeptische Einwände
2.3.5.3 Beispiele für Klimaskepsis in Deutschland
2.3.6 Wissenschaft und Werte
2.3.7 Wissenschaftliche Objektivität
3 Pluralismus als Lösung?
3.1 Die Debatte zwischen Philip Kitcher und Helen Longino
3.2 Der Beginn: Science as Social Knowledge
3.3 The Advancement of Science: Glaubwürdigkeit durch Autorität
3.4 Kritik am Advancement
3.5 The Fate of Knowledge: Glaubwürdigkeit durch Kritik
3.6 Das Kronkorkenargument
3.7 Probleme des Pluralismus
3.8 Wissenschaft und Demokratie
3.9 Das Ende der Debatte und ein großes Problem
4 Die Glaubwürdigkeitskrise der Klimaforschung
4.1 Glaubwürdigkeitsprobleme der Klimaforschung
4.2 Der Fehler im Vierten Sachstandsbericht
4.3 Diskussionen ums IPCC
4.4 Das Gutachten des IAC
4.5 Ein strukturelles Problem von Klimaprognosen
Fazit
Anhang: Emails der Klimaforscher von der UEA
Literaturverzeichnis
Index
Danksagung
Recommend Papers

Die Glaubwürdigkeit der Wissenschaft: Eine wissenschafts- und erkenntnistheoretische Analyse am Beispiel der Klimaforschung [1. Aufl.]
 9783839419748

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Anna Leuschner Die Glaubwürdigkeit der Wissenschaft

Anna Leuschner (Dr.) unterrichtet Philosophie an der Universität Bielefeld. Ihre Forschungsschwerpunkte liegen im Bereich der Wissenschaftstheorie und Erkenntnistheorie.

Anna Leuschner

Die Glaubwürdigkeit der Wissenschaft Eine wissenschafts- und erkenntnistheoretische Analyse am Beispiel der Klimaforschung

Dissertation, Universität Bielefeld

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © 2012 transcript Verlag, Bielefeld

Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagkonzept: Kordula Röckenhaus, Bielefeld Umschlagabbildung: 07Ja / photocase.com (Detail) Lektorat & Satz: Anna Leuschner, Alexander Masch Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-8376-1974-4 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]

Inhalt

Überblick 1 Wissen und Glauben 1.1 Die Testimony-Debatte . . . . . . . . 1.2 Die credulistische Antwort: Glauben . 1.3 Die reduktionistische Antwort: Prüfen 1.4 Glauben und Prüfen . . . . . . . . . . 1.5 Epistemische Arbeitsteilung . . . . . 1.6 Das Expertenproblem . . . . . . . . . 1.7 Wissen, Glauben und Glaubwürdigkeit

1

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

7 8 11 14 17 18 22 32

. . . . . . .

. . . . . . .

. . . . . . .

2 Die Glaubwürdigkeit von Wissenschaft 2.1 Innerwissenschaftliche und außerwissenschaftliche Glaubwürdigkeit 2.2 Außerwissenschaftliche Glaubwürdigkeit . . . . . . . . . . . . . . . 2.2.1 Wissenschaft und Massenmedien . . . . . . . . . . . . . . . . . 2.2.2 Das Konsens-Dissens-Dilemma . . . . . . . . . . . . . . . . . . 2.2.3 Wissenschaft und Politik . . . . . . . . . . . . . . . . . . . . . . 2.2.4 Pure Scientists und Honest Brokers . . . . . . . . . . . . . . . . 2.2.5 Experten, Intellektuelle und Expertenintellektuelle . . . . . . . . 2.2.6 Wissenschaftliche Glaubwürdigkeit, Ethik und Transparenz . . . 2.2.7 Expertenintellektuelle in der Klimaforschung . . . . . . . . . . . 2.3 Innerwissenschaftliche Glaubwürdigkeit . . . . . . . . . . . . . . . 2.3.1 Pathologische Wissenschaft und Druck in der Gemeinschaft . . . 2.3.2 Theoriebeladenheit der Beobachtung . . . . . . . . . . . . . . . 2.3.3 Grenzen zwischen Theoriebeladenheit und Pathologie . . . . . . 2.3.4 Die Sonnenfleckentheorie . . . . . . . . . . . . . . . . . . . . . 2.3.5 Wissenschaftsskepsis . . . . . . . . . . . . . . . . . . . . . . . 2.3.5.1 Zu den Grundlagen skeptischer Einwände . . . . . . . . . . . 2.3.5.2 Entgegnungen auf skeptische Einwände . . . . . . . . . . . . 2.3.5.3 Beispiele für Klimaskepsis in Deutschland . . . . . . . . . .

. . . . . . . . . . . . . . . . . .

35 . 36 . 39 . 39 . 47 . 52 . 57 . 62 . 67 . 73 . 77 . 77 . 83 . 87 . 88 . 93 . 93 . 99 . 106

2.3.6 Wissenschaft und Werte . . . . . . . . . . . . . . . . . . . . . . . . 110 2.3.7 Wissenschaftliche Objektivität . . . . . . . . . . . . . . . . . . . . . 123 3 Pluralismus als Lösung? 3.1 Die Debatte zwischen Philip Kitcher und Helen Longino . . . . 3.2 Der Beginn: Science as Social Knowledge . . . . . . . . . . . 3.3 The Advancement of Science: Glaubwürdigkeit durch Autorität 3.4 Kritik am Advancement . . . . . . . . . . . . . . . . . . . . . 3.5 The Fate of Knowledge: Glaubwürdigkeit durch Kritik . . . . 3.6 Das Kronkorkenargument . . . . . . . . . . . . . . . . . . . . 3.7 Probleme des Pluralismus . . . . . . . . . . . . . . . . . . . . 3.8 Wissenschaft und Demokratie . . . . . . . . . . . . . . . . . . 3.9 Das Ende der Debatte und ein großes Problem . . . . . . . . . 4 Die Glaubwürdigkeitskrise der Klimaforschung 4.1 Glaubwürdigkeitsprobleme der Klimaforschung . . 4.2 Der Fehler im Vierten Sachstandsbericht . . . . . . 4.3 Diskussionen ums IPCC . . . . . . . . . . . . . . 4.4 Das Gutachten des IAC . . . . . . . . . . . . . . . 4.5 Ein strukturelles Problem von Klimaprognosen . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . . . . . .

. . . . .

. . . . . . . . .

. . . . .

. . . . . . . . .

. . . . .

. . . . . . . . .

. . . . .

. . . . . . . . .

127 128 130 136 140 145 148 155 161 167

. . . . .

175 176 179 181 185 187

Fazit

195

Anhang: Emails der Klimaforscher von der UEA

201

Literaturverzeichnis

203

Index

219

Danksagung

225

Für Stefan

[Under the IPCC emission scenarios there will take place a] likely increase in global mean temperature of about 1°C above the present value by 2025 and 3°C before the end of the next century. [The predicted rise of global mean sea level will be] 65 cm by the end of the next century. [...] The most vulnerable human settlements are those especially exposed to natural hazards, e.g. coastal or river flooding, severe drought, landslides, severe wind storms and tropical cyclones. The most vulnerable populations are in developing countries, in the lower-income groups. 1. S ACHSTANDSBERICHT DES IPCC, AUGUST 1990

My scientists are telling me something very different. G EORGE H. W. B USH , O KTOBER 1990

Überblick

Inzwischen ist unter Wissenschaftstheoretikern und -soziologen weithin akzeptiert, dass Wissenschaft ein soziales Unternehmen ist. Aufgrund zeitlicher oder räumlicher individueller Begrenztheit ist jeder Mensch, jeder Forscher und auch jede Forschergruppe auf Wissen anderer angewiesen. Mertons Geschichte des Aphorismus vom Zwerg, der auf den Schultern eines Riesen steht, verdeutlicht, wie lange dies schon bekannt ist.1 Die Einsicht, dass sich daraus Probleme für das traditionelle Objektivitätsideal der Wissenschaft ergeben, dem eine wertfreie Ratio zugrunde gelegt worden war, hat sich allerdings erst im Laufe des 20. Jahrhunderts nach und nach entwickelt und etabliert sich nur langsam: Noch immer wird sie vielerorts abgelehnt, insbesondere von Naturwissenschaftlern selbst;2 aber auch in politischen Zusammenhängen oder in den Medien ist oft die Rede vom „neutralen Wissenschaftler“, der „objektives Wissen“ bereitstelle. Da jedoch in den meisten Fällen naturwissenschaftlicher Erkenntnis induktiv und nicht deduktiv verfahren wird, bestehen dort bestenfalls bestimmte Bestätigungsgrade, und so handelt es sich bei vielem, worunter man gemeinhin wissenschaftliches Wissen versteht, tatsächlich um mehr oder weniger gut bestätigte Meinungen, die nicht selten entscheidend von sozialen oder politischen Bedingungen geprägt sind. Doch was unterscheidet Wissen von Glauben? Um dies zu klären, ist eine epistemologische Begriffsklärung nötig (Kapitel 1). Nach Platon unterscheidet sich Wissen von bloßem Glauben durch Wahrheit und Begründung. Diese Definition verursacht allerdings Probleme, die seit Mitte des 20.

1 | Der älteste Beleg des Aphorismus stammt aus dem frühen 12. Jahrhundert von Bernhard von Chartres (vgl. Merton 1983, S. 43). 2 | Besonders gut ist das an der traditionell neutral gehaltenen Form wissenschaftlicher Publikationen zu erkennen, die auch dort Objektivität vorgibt, wo oftmals eine persönliche Haltung entscheidend gewesen ist.

2 | Die Glaubwürdigkeit der Wissenschaft

Jahrhunderts bis zur Gegenwart große philosophische Debatten entfachen. Es steht jedoch fest, dass von dem Großteil an Informationen, die wir eigentlich nur glauben, wiederum nur ein kleiner Teil auf eigener Erfahrung beruht. Das meiste, was wir glauben, glauben wir, weil es uns überliefert worden ist. Dennoch funktioniert unser alltägliches Leben überraschend gut, und die Wissenschaften haben sich über die Jahrhunderte erfolgreich entwickelt. Es tut sich daher die grundsätzliche Frage auf, wie eine Person entscheiden kann, ob sie einer Überlieferung glauben soll. Hierzu werden zwei mögliche Antworten diskutiert: eine credulistische, die auf Glauben, und eine reduktionistische, die auf Prüfung übermittelten Wissens basiert. Beide Varianten weisen Mängel auf, gerade hinsichtlich wissenschaftlicher Glaubwürdigkeit. Dies wird am sogenannten Expertenproblem deutlich, das im Verhältnis von Laien zu Experten liegt. Ich spreche hier von „außerwissenschaftlicher Glaubwürdigkeit“, was bedeutet, dass einer Wissenschaft in der Öffentlichkeit Glaubwürdigkeit beigemessen wird. Hierbei war meine Ausgangshypothese, dass gilt: Hypothese

Forschung wird genau dann zum Gegenstand öffentlicher Glaubwürdigkeitsdebatten, wenn epistemische Unsicherheiten auf politische, moralische, soziale oder ökonomische Interessen treffen.

Diese Annahme hat sich durch die Untersuchung bestätigt. Im Folgenden werde ich immer dieses Aufeinandertreffen von epistemischen Unsicherheiten und nichtepistemischen Risiken meinen, wenn ich von glaubwürdigkeitsrelevanter Forschung spreche.3 Im zweiten Kapitel werden zunächst die Situationen der in außerwissenschaftliche Glaubwürdigkeitsdebatten involvierten Parteien untersucht. Laien verfügen nur über begrenzte Prüfmöglichkeiten von wissenschaftlichen Ergebnissen. Zusätzlich problematisch ist, dass die Öffentlichkeit im Allgemeinen durch Massenmedien über wissenschaftliche Forschungsprojekte und neue Erkenntnisse informiert wird. Hier findet bezüglich glaubwürdigkeitsrelevanter Forschung häufig eine verzerrte Darstellung der Forschungswirklichkeit statt. Auch die Politik ist für glaubwürdigkeitsrelevante Forschung entscheidend: Sie kann durch regulative Maßnahmen die Forschung beschränken, umgekehrt ist sie von Expertisen abhängig. Dies weist Wissenschaft-

3 | Auch rein epistemisch relevante Wissenschaft kann natürlich Glaubwürdigkeitsrelevanz besitzen. Doch gerät sie nicht in dieselben umfangreichen Probleme wie solche Forschung, die zusätzlich öffentliche Interessen betrifft. Im Folgenden wird es um Wissenschaft gehen, die von politischer Bedeutung ist. Bedingungen innerwissenschaftlicher Glaubwürdigkeit werden dabei allerdings notwendigerweise auch untersucht (insbesondere in Abschnitt 2.3, z.T. auch in Kapitel 3).

Überblick | 3

lern eine besondere Form intellektueller Verantwortung zu, sobald sie ihre Ergebnisse öffentlich präsentieren. Der Grad dieser Verantwortung wird sichtbar, wenn man das Verhältnis zwischen epistemischen und wissenschaftsethischen Werten betrachtet. Ich komme hier zu dem Schluss, dass Wissenschaftler nur bei Einhaltung bestimmter moralischer Werte Glaubwürdigkeit für ihre Arbeit beanspruchen können. Und wie verhält es sich mit der innerwissenschaftlichen Glaubwürdigkeitszuweisung zwischen Experten? Wissenschaftler bauen ihre Arbeit in der Regel methodisch, theoretisch und instrumentell auf den Arbeitsergebnissen von Kollegen auf. Im Idealfall sprechen sie einander dabei mit guten Gründen Glaubwürdigkeit zu und erzielen schließlich einen Konsens. Diese Glaubwürdigkeitszuweisung ist jedoch nicht unproblematisch. Beispielsweise können bestimmte Theorien anderen aus nicht-epistemischen Gründen vorgezogen werden. Insbesondere hinsichtlich eines grundlegenden Problems wissenschaftlicher Erkenntnis, der Unterbestimmtheit von Theorien, ist dies, trotz sozialer und prozeduraler Selbstregulierungsmechanismen in wissenschaftlichen Gemeinschaften, heikel. Hierauf wird anhand der radikalsten Ausprägung der Theoriebeladenheit wissenschaftlicher Erkenntnis hingeführt: der pathologischen Wissenschaft. Dort ist der Fall eigentlich klar, da es tatsächlich schnell zur Isolation und zum Absterben pathologischer Ansätze kommt. Eine Gefahr dabei ist jedoch, dass neuartige Überlegungen als pathologisch abgetan und ignoriert werden können, obwohl sie Evidenz aufweisen. Dagegen lässt sich einwenden, dass eine solche Ignoranz ebenso wenig von Dauer sein könne wie falsche Theorien, die auf kurz oder lang falsifiziert werden. Philip Kitcher unterscheidet in diesem Sinne zwei Arten von Unterbestimmtheit, nämlich vorübergehende und dauerhafte, und widmet sich nur der zweiten, da die erste ohnehin unbedrohlich sei.4 Doch auch die Herausforderungen der zweiten Art hält er für lösbar – „in the long run“. Dies wird in der vorliegenden Arbeit anhand einiger möglicher skeptischer Einwände problematisiert. Zum einen ist vorübergehende Unterbestimmtheit (jedenfalls hinsichtlich nicht-epistemischer Aspekte) nicht unbedrohlich, zum anderen scheint es fraglich, ob der Einwand dauerhafter Unterbestimmtheit wirklich in Kitchers Sinne lösbar ist, ob also gezeigt werden kann, dass sich auf Dauer unbedingt „Wahrheit“ durchsetzt. Ich argumentiere, dass sich der Einfluss nicht-epistemischer Werte auf wissenschaftliche Erkenntnisverfahren prinzipiell nicht ausschließen lässt, was den traditionellen Begriff wissenschaftlicher Objektivität unterminiert und einen neuen erforderlich macht. Ein solch neuer Objektivitätsbegriff wird in Kapitel 3 begründet. Dazu widme ich zwei Ansätzen besondere Aufmerksamkeit: Philip Kitchers gemäßigtem Realismus

4 | Vgl. Kitcher 2001, S. 30-31.

4 | Die Glaubwürdigkeit der Wissenschaft

und Helen Longinos kontextualistischem Empirismus. Kitcher und Longino stehen bezüglich der Fragen nach wissenschaftlichem Fortschritt, wissenschaftlicher Wahrheit und Objektivität über viele Jahre hinweg in einem öffentlichen Austausch wechselseitiger Kritik, nähern sich einander jedoch mit der Zeit in entscheidenden Punkten an. Es ist interessant zu sehen, wie selbst der strenge Realist Kitcher in zunehmendem Maße anerkennt, dass soziale und moralische Werte in die Wissensproduktion integriert werden müssen, um verlässliches Wissen zu schaffen. Diese Entwicklung von Kitchers Standpunkt steht exemplarisch für eine Politisierung der Wissenschaftstheorie, die seit den 1980er Jahren zu beobachten ist; der Einfluss nicht-epistemischer Werte auf wissenschaftliche Erkenntnis wird dabei verstärkt untersucht. Alfred Nordmann stellt fest: Wir stehen somit nicht vor der altbekannten und vieldiskutierten Wahl zwischen [...] Relativismus und Realismus [...]. Unsere Entscheidungssituation ist neu und wird in ihrem spezifischen Charakter bisher kaum reflektiert. Nachdem uns von der Kulturwissenschaft erfolgreich vorgeführt wurde, inwieweit selbst wissenschaftliche Wahrheit gesellschaftlich konstruiert ist, kann ich sie entweder als bloßes Konstrukt entlarven und somit etwas Neues konstruieren, nämlich ihre Entwirklichung – oder ich kann der wissenschaftlichen Praxis folgen und mein Wissen um die Konstruiertheit des Wirklichkeitsbezugs zu seiner Rekonstruktion einsetzen, also praktische Gegenstrategien entwickeln, über die wir uns auf eine verbindliche Realität einschwören können.5 Hinsichtlich solch praktischer Gegenstrategien teile ich die Hoffnung, die zunehmend in wertepluralistische Verfahren gesetzt wird, sehe aber insbesondere im Zusammenbringen objektiver Standards mit pluralistischen Ansprüchen ein Problem, das Fall zu Fall-Entscheidungen erfordert. Überlegungen zu Deliberations- und Demokratisierungsverfahren in der Wissenschaft, die in den letzten Jahren stark zugenommen haben, liefern für solche Fallentscheidungen vielversprechende Ansätze. Ich beleuchte die einzelnen Probleme sowie die Herausforderungen, denen sich pluralistische Lösungsansätze stellen müssen, anhand von Beispielen aus der Klimaforschung. Dort besteht Pluralismus auf allen Ebenen. Auf Ebene der Forschergemeinschaft herrscht perspektivischer, methodischer und theoretischer Pluralismus, was eine Vielzahl an Veröffentlichungen über Erklärungs-, Vorhersage- und Problemlösungsansätze erzeugt. Zudem wird bei der Organisation des UN-Klimarats, des Intergovernmental Panel on Climate Change (IPCC), der die zentrale Instanz zwischen

5 | Nordmann 2002, S. 51.

Überblick | 5

Klimaforschung und Politik und die Autorität der Klimaforschung darstellt, perspektivischer Pluralismus bewusst gefördert. Indem darauf geachtet wird, dass Wissenschaftler aus Entwicklungs- und Schwellenländern ebenso vertreten sind wie Wissenschaftler aus Industrienationen und dass ebenso Literatur aus armen Ländern und von Nichtregierungsorganisationen in den Sachstandsberichten berücksichtigt wird, soll gewährleistet werden, dass die Interessen armer Länder (und Daten aus diesen Ländern) nicht vernachlässigt werden, so dass deren Regierungen Klimaschutzmaßnahmen nicht mit der Begründung ablehnen können, die Berichte seien allein von Industrienationen verfasst, deren Interessen entsprechend voreingenommen und deshalb nicht vertrauenswürdig. Durch soziale und epistemische Pluralität soll hier also zuverlässiges Wissen bereitgestellt und Glaubwürdigkeit geschaffen werden. Die öffentlichen Glaubwürdigkeitsdebatten über die Klimaforschung, die von Beginn an, und seit November 2009 („Climategate“) mit Verve, geführt werden, zeigen deutlich, wie schwer es ist, in einem pluralistischen, von Unsicherheiten durchsetzten und gesellschaftlich relevanten Forschungsfeld politische und wissenschaftliche Debatten auseinanderzuhalten. Ich argumentiere, dass eine solche Trennung oftmals gar nicht vollständig möglich ist. Dies hat Verunsicherungen in der Öffentlichkeit zur Folge, was von Interessengruppen aus Politik, Wirtschaft und Industrie ausgenutzt wird, die Wissenschaftler diskreditieren und sogenannte „Klimaskeptiker“ gezielt subventionieren. Abschließend wird ein Überblick über die in den Medien vielbeschworene „Glaubwürdigkeitskrise der Klimaforschung“ und ihre Ursachen gegeben (Kapitel 4). Als ich 2006 mit dieser Arbeit begann, zeichnete sich am Horizont schon die Glaubwürdigkeitskrise der Klimaforschung ab. Dass die Situation so eskaliert ist, wie es nach dem Kopenhagener Klimagipfel im Dezember 2009 der Fall war, war zwar damals noch nicht unbedingt zu erwarten, aber es war bereits erkennbar, dass hier einem gesellschaftlich und politisch äußerst wichtigen Forschungsbereich Probleme globalen Ausmaßes bevorstanden. Inzwischen kann man dies schön an einem Dienst von google erkennen, der die Häufigkeit der Referenzen von Nachrichten, die bestimmte Begriffe enthalten, anzeigt:

Abbildung 1: Klimaerwärmung im Trend.

6

6 | Die Glaubwürdigkeit der Wissenschaft

Die Eskalation dieser Probleme erscheint angesichts der Dringlichkeit, mit der internationale, wirksame Klimaabkommen zu treffen sind, alarmierend, und ich möchte mit der vorliegenden Arbeit zur Klärung der Ursachen dieser Probleme und ihrer Lösung beitragen. Ich bin häufig gefragt worden, ob sich die Ergebnisse meiner Arbeit auch auf andere Wissenschaften übertragen ließen. Das tun sie zum Teil. Einige Debatten sind durchaus ebenso wichtig für andere Forschungsbereiche, die politische oder moralische Relevanz aufweisen, die soziale, ökologische oder gesundheitliche Folgen haben können, in denen Risiken für Mensch oder Natur eingeschätzt und Grenzwerte festgelegt werden müssen. Die hier versammelten theoretischen Teildebatten stammen sogar größtenteils aus anderen Kontexten. Sie sind daher im Einzelnen oder in Clustern als theoretische Instrumentarien zur Analyse anderer Forschungsbereiche brauchbar. In den bekannten Beispielen, die gerade sozialepistemologische oder wissenschaftsethische Untersuchungen wählen, vereinigt die jeweilige Problematik jedoch nirgends so umfassend alle diese wissenschafts- und erkenntnistheoretischen Probleme in sich. Über die Stammzellenforschung gibt es beispielsweise große wissenschaftsethische Debatten, über Bereiche der klassischen medizinischen Forschung hinsichtlich gesundheitlicher Risiken, Profitinteressen von Pharmakonzernen und der Vor- und Nachteile von Patenten, über Nano- und Gentechnologien hinsichtlich der Risiken gesundheits- und umweltschädigender Wirkung in Abwägung gegen den erwartbaren Nutzen. Mir scheint aber nirgendwo sonst eine so komplexe Verwicklung sozialer, moralischer, ökonomischer und politischer Herausforderungen einerseits und solch gravierender epistemischer Unsicherheiten andererseits zu bestehen wie in der Klimaforschung.7

6 | Quelle: http://www.google.de/trends. 7 | Der einzige Fall, der möglicherweise auf eine vergleichbare Weise problematisch ist, ist interessanterweise kein naturwissenschaftlicher, sondern die Ökonomie. Darauf hat Holm Tetens in einem Vortrag an der Universität Bielefeld am 20. 10. 2010 verwiesen. Ökonomische Debatten, in denen widersprüchliche Prognosen vorgebracht werden, weisen laut Tetens oftmals ein ähnlich komplexes Zusammenspiel von moralischen und politischen Verwicklungen bei gleichzeitigen epistemischen Unsicherheiten auf wie Debatten im Bereich der Klimaforschung. Ebenso argumentiert auch Gregor Betz in seiner Dissertation (vgl. Betz 2006, S. 68-78).

1 Wissen und Glauben

All knowledge is in some degree doubtful, and we cannot say what degree of doubtfulness makes it cease to be knowledge, any more than we can say how much loss of hair makes a man bald. [. . . ] It is agreed that everything inferred from a piece of knowledge by a demonstrative argument is knowledge. But since inferences start from premises, there must be knowledge which is uninferred if there is to be any knowledge. B ERTRAND RUSSELL , H UMAN K NOWLEDGE

8 | Die Glaubwürdigkeit der Wissenschaft

1.1 Die Testimony-Debatte Zu Beginn der Arbeit soll eine für jede glaubwürdigkeitsrelevante Wissenschaft wichtige epistemologische Debatte umrissen werden, anhand derer sich die Begriffe „Wissen“ und „Glauben“ klären lassen: die sogenannte Testimony-Debatte. Nachdem Edmund Gettier 1963 seinen berühmten Aufsatz Is Justified True Belief Knowledge? veröffentlicht hatte, entflammte bekanntermaßen eine heftige Debatte über die traditionelle Konzeption von Wissen. Seit Platon hat sich die allgemeine Auffassung, dass Wissen wahre gerechtfertigte Meinung sei, unverändert gehalten. Gettier gliedert diese Definition nun in drei Komponenten: die Wahrheit der These (i), die Überzeugung der die Hypothese vertretenden Person, dass jene wahr sei (ii), und die Rechtfertigung dieser Überzeugung (iii): „(a) S knows that P IFF

(i) (ii) (iii)

P is true, S believes that P, and S is justified in believing that P.“1

Anschließend zeigt er anhand von zwei Fallbeispielen, weshalb diese drei Bedingungen nicht hinreichend definieren, was Wissen ist. Sein Argument funktioniert wie folgt: Da es möglich ist, dass eine Person S gerechtfertigterweise von einer falschen These P überzeugt ist und weiterhin aus P eine Ableitung Q folgern kann, die ihrerseits wahr ist, ist es durchaus möglich, von falschen Voraussetzungen zu wahren Überzeugungen zu gelangen. Eine so gewonnene Überzeugung stellt dann jedoch keinesfalls Wissen dar, obwohl Q wahr ist (i), S glaubt, dass Q wahr ist (ii), und S Glauben, dass Q wahr ist, gerechtfertigt ist (iii). Wenn auch Gettiers Aufsatz die moderne Diskussion um Glauben und Wissen erst ins Rollen gebracht hatte, hatte bereits Bertrand Russell 1948 in Human Knowledge am Beispiel einer stehen gebliebenen Uhr gezeigt, dass die weitläufige Konzeption von Wissen als wahrer Meinung falsch sei: Wenn Hans’ Wecker um 17:00 Uhr stehengeblieben ist, Hans davon aber nichts gemerkt hat und am folgenden Tag um 17:00 Uhr auf seinen Wecker sieht, hat er die gerechtfertigte wahre Meinung, dass es gerade genau 17:00 Uhr sei; niemand wird jedoch behaupten, dass Hans durch seinen stehengebliebenen Wecker Wissen darüber erworben hätte, dass es 17:00 Uhr sei.2 Die an Gettiers Aufsatz anknüpfende Diskussion ist in ihrer Größe und Komplexi-

1 | Gettier 1963, S. 121. 2 | Vgl. Russell 1997, S. 113 und S. 170-171. Robert Shope hat im ersten Kapitel seiner Analysis of Knowing einen guten Überblick über mögliche Gettier-Beispiele gegeben (vgl. Shope 1983).

Die Testimony-Debatte | 9

tät, die oft weit in Bereiche der Kognitionswissenschaften, der Neurologie und der Psychologie reichen, nicht relevant für die Ausgangsfrage nach der Glaubwürdigkeit von Wissenschaft; im Folgenden wird nur die so genannte Testimony-Debatte behandelt: die Diskussion über die Frage, welche Rolle dem Zeugnis als Wissensquelle zukommt. Hier zeigt sich, dass die Epistemologie von sozialen Fragen durchsetzt ist. Das in der Testimony-Debatte verhandelte Problem benennt bereits David Hume im zehnten Kapitel der Untersuchung über den menschlichen Verstand. Dort zeichnet er ein klares Modell dessen, was später insbesondere in Goldmans kausale Theorie des Wissens Eingang findet und von John Hardwig in dem Satz formuliert wird: „A has good reasons for believing C (also D, E, ...) has good reasons for believing B has good reasons for believing p.“3 Mit der kausalen Theorie des Wissens modifiziert Goldman Gettiers Definition, indem er als notwendige Eigenschaft der in (iii) angeführten Rechtfertigung fordert, dass sie eine korrekte kausale Verknüpfung zwischen (i) Wahrheit und (ii) Glauben implizieren müsse: „S knows that p if and only if the fact p is causally connected in an ‚appropriate‘ way with S’s believing p.“4 Diese Modifikation scheint tatsächlich das Gettier-Problem an der Wurzel zu packen, denn letztlich lässt sich dieses auf eine falsche Kausalkette reduzieren. Implizit findet sich auch diese Überlegung schon bei Russell, wenn er Wahrheit als eine Eigenschaft von Überzeugungen oder Sätzen, die Überzeugungen ausdrücken, definiert. Wahrheit besteht demnach in einer bestimmten Beziehung zwischen einer Überzeugung und einer oder mehreren Tatsachen.5 Man darf unterstellen, dass mit dieser „certain relation“ die Verschiedenheit der rechtfertigenden Tatsache von der zu rechtfertigenden Überzeugung gefordert wird. Daraus folgt notwendig eine bestimmte kausale Verknüpfung zwischen Glaube und Wahrheit, um Wissen beanspruchen zu können.6 Durch die Forderung nach Unabhängigkeit des Glaubens von den den

3 | Hardwig 1991, S. 701. 4 | Goldman 1992, S. 80. Dies entspricht der von Ansgar Beckermann vorgestellten externalistischen Definition mittels Verlässlichkeit: „S weiß p genau dann, wenn p, wenn S p glaubt und wenn die Überzeugung von S, dass p, auf verlässliche Weise zustande gekommen ist.“ (Beckermann 2002, S. 586) 5 | Vgl. Russell 1997, S. 164-165. 6 | Man erkennt hier an der vorsichtigen, vagen Verwendung der Begriffe „eine korrekte kausale Verknüpfung“, „in an ‚appropriate‘ way“, „a certain relation“ und „eine bestimmte kausale Verknüpfung“ [meine Hervorhebungen], dass die Forderung notwendiger Kausalität als Wahrheitskriterium nicht gerade unproblematisch ist. Das liegt an der Problematik des Kausalitätsbegriffs, die hier nicht behandelt werden kann. In diesem Zusammenhang ist lediglich von

10 | Die Glaubwürdigkeit der Wissenschaft

Glauben bewahrheitenden Tatsachen werden Gettier-Irrtümer ausgeschlossen, denn in diesem Fall kann ein Glaube nur dann wahr sein, wenn er durch bestimmte, von ihm selbst unabhängige Tatsachen wirklich „bewahrheitet“7 wird – nicht wenn eine solche Bewahrheitung nur irrtümlicherweise angenommen wird. Aufs Beispiel angewandt bedeutet das: Hans darf nicht nur der Meinung sein, dass sein Wecker ihm die Uhrzeit anzeigt, sein Wecker muss ihm auch tatsächlich die Uhrzeit anzeigen, erst dann weiß Hans die Uhrzeit und glaubt sie nicht nur. Thomas Grundmann kommt zu derselben Konklusion: „Es ist gar nicht Wahrheit simpliciter, wonach wir in unserem Erkenntnisbemühen streben, sondern es ist nicht-zufällige Wahrheit. Und genau das ist nach den Analysen der post-Gettier Generation die korrekte Definition von Wissen!“8 Wie hängt all das nun mit dem Testimony-, dem Zeugnis-Problem zusammen? Wir sind überzeugt, vieles zu wissen, das wir nicht durch unsere eigene Erfahrung, sondern nur durch die Überlieferung anderer kennen, und wir haben oftmals keine Möglichkeit, selbst zu überprüfen, ob uns zugetragene Informationen stimmen oder nicht. Bekannte Beispiele sind die Fragen, ob der eigene Geburtstag tatsächlich der Tag ist, von dem einem erzählt worden ist, dass er es sei, oder ob bestimmte ferne geographische Verhältnisse tatsächlich so beschaffen sind, wie uns berichtet wird. Schnell stellt man fest, dass der Großteil des eigenen Wissensschatzes auf Informationen durch andere beruht; ein isolierter Mensch kann nicht sehr viel wissen. Hume stellt fest, dass keine Art von Beweisführung gebräuchlicher, nützlicher und notwen-

Belang, dass die Ursache von Wissen nicht nur zufällig, sondern notwendig wahre Meinung hervorgebracht haben muss, da sie sonst kein Wissen, sondern nur Glauben (wenn auch u.U. wahren Glauben) produziert hätte. 7 | So brauchen wir nach Russell „a description of the fact or facts which, if they exist, make a belief true. Such fact or facts I call the ‚verifier‘ of the belief.“ (Russell 1997, S. 166) 8 | Grundmann 2002, S. 121. Hier entstand eine interessante Debatte mit Ansgar Beckermann, der sich gegen die Notwendigkeitsthese stellt und fragt: „Kann man wirklich zeigen, dass nicht-zufällig wahre Meinungen epistemisch besser sind als bloß wahre Meinungen?“ (Beckermann 2002, S. 591) Beckermann bestreitet dies. Hier soll dagegen an der Forderung der NichtZufälligkeit der Wahrheit festgehalten werden, weil, wie Grundmann schreibt, „[e]ine Methode (oder ein Instrument) [. . . ] dann als zuverlässig [gilt], wenn sie (es) nicht nur anläßlich tatsächlicher Verwendungen, sondern auch unter Berücksichtigung möglicher Verwendungen weitgehend wahre Resultate hervorbringt.“ (Grundmann 2002, S. 123; meine Hervorhebung) Dies scheint gerade in Bezug auf wissenschaftliches Wissen wichtig, das auf die Bereitstellung von Gesetzmäßigkeiten zielt, aus denen es grundsätzlich möglich sein sollte, Ableitungen auch für andere Bereiche zu gewinnen.

Die credulistische Antwort: Glauben | 11

diger für das menschliche (Über-)Leben ist als diejenige, die von den Zeugnissen anderer und den Berichten von Augenzeugen abgeleitet sind.9 Hardwig stellt hierfür ein Prinzip auf, das er in Anlehnung an Frederick Schmitt als „principle of testimony“ bezeichnet: (T) If A has good reasons to believe that B has good reasons to believe p, then A has good reasons to believe p. Bzw. in einer stärkeren Version: (T’) If A knows that B knows p, then A knows p.10 Doch woher kann man wissen, dass jemand anders etwas weiß? Und was macht uns sicher, dass wir nicht angeschwindelt werden?

1.2 Die credulistische Antwort: Glauben Eine Möglichkeit ist, zu behaupten, dass schlicht kein Erfordernis besteht, Gründe dafür zu haben, jemanden als vertrauenswürdig einzustufen, da die Abwesenheit von Gründen, die ihn nicht vertrauenswürdig machten, hinreichend sei, um ihm Glauben zu schenken. Durch die gewöhnliche Übereinstimmung von Zeugnis und Realität besteht grundsätzlich erst einmal Vertrauen in Zeugen. Aus dieser Annahme leitet C. A. J. Coady ab, dass nicht geprüft werden müsse, ob Übereinstimmung herrsche oder nicht, solange kein Anlass zum Misstrauen gegeben sei. Coady plädiert für einen Antireduktionismus, wie ihn auch Tyler Burge vertritt: „A person is entitled to accept as true something that is presented as true and that is intelligible to him, unless there are stronger reasons not to do so.“11 Diese sogenannte credulistische Position entspringt dabei, wie Torsten Wilholt in einem Bericht zur Situation der sozialen Erkenntnistheorie argumentiert, hauptsächlich „dem Wunsch, einen testimonialen Skeptizismus zu vermeiden“.12 Was diesen Standpunkt in der Tat stark macht, ist die Tatsache, dass es niemandem möglich ist, systematisch die Gültigkeit aller ihm überbrachten Informationen mittels eigener Erfahrung und Analyse zu verifizieren, allein aufgrund

9 | Vgl. Hume 1999, S. 170. 10 | Hardwig 1991, S. 697-698. 11 | Burge 1993, S. 467. 12 | Wilholt 2007, S. 49.

12 | Die Glaubwürdigkeit der Wissenschaft

zeitlicher und örtlicher Begrenztheit. Daraus entsteht, wie Coady argumentiert, für den reduktionistischen Standpunkt eine Zirkularität. Offensichtlich sei eine reduktionistische Auffassung, wie Hume sie vertritt, zirkulär, da ja die Erfahrung, auf der unser Vertrauen in eine Überlieferung als einer Form von Evidenz beruhe, selbst wieder von vorigen Zeugnissen abhängig gewesen sei, die unmöglich allesamt rückgeführt werden könnten.13 Doch sei dieser Anspruch, jede Nachricht verifizieren können zu müssen, ohnehin unangemessen, da es sich um eine fundamentale Eigenschaft menschlichen Lebens handle, zu kommunizieren und dabei anderen zu vertrauen. Sprachgebrauch funktioniere, weil Sprecher normalerweise die Wahrheit sagten und Zuhörer normalerweise den Worten der Sprecher Glauben schenkten. Selbst wenn wir in der Lage wären, alle Informationen, die wir von anderen bekommen, zu bestätigen oder zu falsifizieren, wären wir, so Coady, nicht unabhängig vom Zeugnis anderer, da das, woran geprüft würde, selbst zumindest zum Teil wiederum auf Zeugnissen dritter Personen basieren müsste. Hinsichtlich einer Expertise liefere der Reduktionismus keinerlei Vorteile, da man beim Prüfen der Experten, die das Gutachten gestellt haben, erneut dasselbe Problem vorfinde, und dieses Problem wiederhole sich dann unendlich.14 Es ist allerdings fraglich, ob sich aufgrund dieser Annahmen ein globaler Credulismus überzeugend vertreten lässt, der in etwa besagt, dass das Fehlen von Gründen, jemandem nicht zu glauben, bereits hinreichend ist, um ihm zu glauben. Diese radikal antireduktionistische Form von Credulismus ist unplausibel, weil die Annahme blinden Vertrauens in jedwede Aussagen anderer bei einem erwachsenen Menschen, der in vollem Besitz seiner geistigen Kräfte ist, kaum zu überzeugen vermag. Doch lässt sich für den Credulismus sprachphilosophisch eintreten – wenn auch nur für eine lokale, keine globale Variante des Credulismus. Das sprachphilosophische Argument für einen lokalen Credulismus beruht auf der Tatsache, dass es beim Lernen einer Sprache weniger auf die eigene Beobachtungsgabe ankommt als darauf, dem Sprechen anderer und ihren Fähigkeiten der Unterscheidung zu vertrauen.15 Dieses Argument ist ausgesprochen stark, da Kinder Sprache durch kritiklose Übernahme von Begriffen und Regeln erlernen. Dass ein Kind während der kognitiven Entwicklungsphase bereits die Korrektheit der ihm überlieferten Begriffe in Frage

13 | Vgl. Coady 1994a, S. 81; Coady 1994b, S. 228. 14 | Vgl. Coady 1994a, S. 83-84; Coady 1994b, S. 231. 15 | Vgl. Coady 1994a, S. 170.

Die credulistische Antwort: Glauben | 13

stellen könnte, ist auszuschließen.16 Der lokale Credulismus ist also zeitlich begrenzt auf die kognitive Entwicklungsphase. Hiervon ausgehend schlägt Duncan Pritchard einen gemäßigten Credulismus vor,17 der den ursprünglichen Credulismus dahingehend modifiziert, dass „die Mitteilung durch andere als eigene Überzeugungs- und Rechtfertigungsquelle zu jedem Zeitpunkt durch das System unserer übrigen Überzeugungen eingeschränkt [ist]. [Wobei dieses nicht regulär unsere Überprüfungs- oder andere Schlussfolgerungsvorgänge lenkt, sondern eher] [...] wie ein Sieb vorhanden [...] [ist], um gegebenenfalls zweifelhafte Mitteilungen abzufangen, ohne aber in den übrigen Fällen zu den Rechtfertigungsgrundlagen zu gehören.“18 Die Idee klingt plausibel: Solange kein Wissen vorhanden ist, das zu der neuen Information in Widerspruch steht, wird diese automatisch akzeptiert. Das Zuordnen einer Information zu einer Menge von Überzeugungen stellt einen Rechtfertigungsvorgang dar. Wenn gilt: D1 = Menge der bisherigen Überzeugungen und D2 = Menge der Informationen, die zu D1 in Widerspruch stehen, dann besteht der Rechtfertigungsvorgang darin, eine neue Information a der Menge D2 zuzuordnen oder eben nicht: wenn a ∈ D2, dann wird a nicht akzeptiert – und umgekehrt. Man sammelt dieser Idee zufolge sein Leben lang Datenmaterial, und je größer die Datenbank ist, desto besser ist eine neue Information gerechtfertigt, wenn sie keinen Widerspruch zu den bisherigen Überzeugungen hervorruft. Letztlich ist hier von der umgangssprachlichen Lebenserfahrung die Rede: Ein Kind besitzt sie nicht oder kaum und glaubt daher zunächst (fast) alles, und je älter ein Mensch wird und je mehr Überzeugungen er folglich hat, umso eher ist er in der Lage, eine Lüge zu erkennen. Der Ansatz des gemäßigten Credulismus erscheint insofern sehr plausibel. Doch besteht für den gemäßigten Credulismus ein nicht geringes Problem: Woraus besteht dieses Sieb, dieses System unserer Überzeugungen? Sicherlich aus Erfahrungs- und analytischem Wissen – zumindest solange man nicht in Quinescher Tradition allgemein analytisches Wissen ablehnt –, doch vor allem aus Überlieferungen anderer. Sollten diese zu einem Zeitpunkt, als das Überzeugungssieb noch sehr

16 | Insbesondere Elizabeth Fricker vertritt überzeugend diesen lokalen Credulismus (vgl. Fricker 1995, insbesondere S. 401-403). Allerdings setzt dieses Argument voraus, dass man keine wesentliche Unterscheidung zwischen analytischem und empirischem Wissen macht, da davon ausgegangen wird, dass die Beziehung zwischen Begriff und Objekt kontingent sei, wenn Wörter durch willkürliche Festsetzung und anschließende Weitergabe erlernt und wiederum weitergegeben werden (vgl. Baumann 2002, S. 281). 17 | Vgl. Pritchard 2004, S. 332. 18 | Wilholt 2007, S. 49.

14 | Die Glaubwürdigkeit der Wissenschaft

weitmaschig war, einfach so geglaubt worden sein? Selbst wenn dem so wäre, ist es sicherlich unplausibel zu behaupten, dass sie sich nicht im Nachhinein durch das Hinzukommen neuer Informationen als falsch erweisen könnten. Insofern müsste nach der „Siebtheorie“, der gemäßigten Variante des Credulismus, alles Wissen, das durch Überlieferung angenommen wurde, bei jeder eingehenden neuen Information – komme sie durch Erfahrung, Berechnung oder selbst ebenfalls durch Überlieferung – neu gesiebt werden; und so würde das System der übrigen Überzeugungen, das Sieb, immer engmaschiger, immer exakter. Dies entspricht jedoch eher reduktionistischen als credulistischen Standards. Zwar mag es sein, dass man viele neu eingehende Informationen, die nicht in Widerspruch zu bisherigem „Wissen“ stehen, akzeptiert; sie können allerdings nach ihrer Akzeptanz selbst wieder in Widerspruch zu neu eingehenden Informationen geraten, und es werden dann nicht unbedingt immer die neuen, sondern oft auch ältere Informationen verworfen. Das Grundproblem bleibt also bestehen: Nach welchen Kriterien ist zu entscheiden, wenn sich zwei Informationen widersprechen? Dieses Problem wird in der durch Alvin Goldman untersuchten 2-Experts-Situation behandelt:19 Experte A gibt uns die Information a, doch dann kommt Experte B mit der Information ¬a. Es scheint in den allermeisten Fällen unplausibel, dass ein Rezipient nun a akzeptiert und ¬a ablehnt, nur weil a ihm zuerst zu Gehör gekommen ist. An diesem Punkt beginnt die Rechtfertigungsproblematik, da jede neu eingehende Information meist nur unter Vorbehalt akzeptiert werden kann. Hier stellt sich jedoch die Frage, wann das System der Überzeugungen eines Menschen umfassend genug ist, um hinreichend das Akzeptieren nicht-widersprüchlicher Informationen zu rechtfertigen. An dieser Stelle entscheidend ist, dass das „Sieben“ von überlieferten Informationen einen Rechtfertigungsvorgang darstellt, der in der Kompatibilitätsprüfung der neuen Information mit dem bisherigen Überzeugungssystem besteht. Insgesamt bleibt daher zwar das credulistische Bestreben, einem allgemeinen Skeptizismus entgegenzutreten, so verständlich wie sympathisch, allerdings scheint nur eine gemäßigte, lokale Variante haltbar, welche Stützung durch rationale Standards benötigt.

1.3 Die reduktionistische Antwort: Prüfen Alvin Goldman hat eine Reihe von Kriterien aufgestellt, nach denen überprüft werden kann, ob eine überlieferte Information glaubwürdig ist. Im vierten Kapitel von

19 | Vgl. Goldman 2001. Die 2-Experts-Situation meint eine Situation, in der zwei Experten einander widersprechen und ein Laie vor der Wahl steht, wem er Glauben schenken soll; hierauf wird in Abschnitt 1.6 eingegangen.

Die reduktionistische Antwort: Prüfen | 15

Knowledge in a Social World zeigt er, warum soziale Interaktion normalerweise wahres Wissen produziert. Er beginnt seine Analyse mit der einfachsten sozialen Situation, dem direkten persönlichen Kontakt; hier implizieren die Rollen von Sender und Empfänger jeweils bestimmte Entscheidungsprozesse. Während der Sender, nachdem er eine neue Tatsache aufgedeckt hat, entscheiden muss, ob, was, wie und wem er berichten möchte, muss der Empfänger entscheiden, ob er die Nachricht glauben möchte oder nicht oder ob er ihr irgendeinen mittleren Glaubensgrad zuordnen will.20 Diese Handlungen bilden das, was Goldman „testimonial activity“ nennt. Doch nach welchen Kriterien genau richten sich diese Entscheidungen? Goldman hält im Folgenden fest, dass Menschen eine natürliche Disposition haben, die Wahrheit zu sagen, was innerhalb einer Gesellschaft noch durch Belohnung und Bestrafung gefördert werden kann. Diese Feststellung findet sich bereits bei Hume: [H]ad not men commonly an inclination to truth and a principle of probity; were they not sensible to shame, when detected in a falsehood: Were not these, I say, discovered by experience to be qualities, inherent in human nature, we should never repose the least confidence in human testimony.21 Und auch Russell stellt fest, dass die normale Reaktion auf ein Zeugnis sei, dass man es glaube, so dass Verstehen ohne Glauben auf einer bewussten Sperrung dieses Glaubens beruhen müsse.22 Doch welche allgemeinen Regeln lassen sich nun für das epistemische Zeugnis durch Mitmenschen finden? Wie lässt sich die Bezeugung durch andere beurteilen? Hume schreibt: A wise man [...] proportions his belief to the evidence [. . . ]: He weighs the opposite experiments: He considers which side is supported by the greater number of experiments: To that side he inclines, with doubt and hesitation; and when at last he fixes his judgment, the evidence exceeds not what we properly call probability. All probability, then, supposes an opposition of experiments and observations; where

20 | Vgl. Goldman 2003, S. 104-105. Dieselbe Aufteilung findet sich bereits in den 70ern bei Luhmann: Kommunikation ist „immer eine dreistellige Relation, bei der alle drei Stellen kontingente Selektionen repräsentieren: 1. ein Sachverhalt, der so oder auch anders beschaffen sein könnte; 2. ein Kommunikator, der über diesen Sachverhalt reden oder auch nicht reden könnte; und 3. ein Empfänger, der die Mitteilung verstehen oder nicht verstehen, akzeptieren oder nicht akzeptieren kann.“ (Luhmann 1975, S. 21) 21 | Hume 1999, S. 171. 22 | Vgl. Russell 1997, S. 115.

16 | Die Glaubwürdigkeit der Wissenschaft

the one side is found to overbalance the other, and to produce a degree of evidence, proportioned to the superiority. A hundred instances or experiments on one side, and fifty on another, afford a doubtful expectation of any event; though a hundred uniform experiments, with only one that is contradictory, reasonably beget a pretty strong degree of assurance.23 Goldman versucht nun den kommunikativen Einzelfall in eine allgemeine Theorie des Wissens in komplexen Wissensgesellschaften zu überführen. Diese Idee ist nicht neu. Wieder findet sich der Vorschlag bereits 1948 bei Russell: Man solle, so Russell, den absoluten Wissensbegriff durch den Begriff „Wissen vom Sicherheitsgrad p“ ersetzen, wobei p wahrscheinlichkeitstheoretisch zu bestimmen sei, sofern dies gehe.24 Goldman präzisiert dies, indem er Bayes’ Theorem für die Wahrscheinlichkeitsberechnung von Tatsachen unter gegebenen Zeugnissen heranzieht. Er setzt also in der Normalform des Bayesschen Theorems p(H/B) =

p(B/H)·p(H) p(B/H)·p(H)+p(B/¬H)·p(¬H)

das Zeugnis darüber, dass H der Fall ist, für den Beleg B ein. So erhält er: p(H/TESTIMONY(H)) =

p(T EST IM ON Y (H)/H)·p(H) p(T EST IM ON Y (H)/H)·p(H)+p(T EST IM ON Y (H)/¬H)·p(¬H)

Doch findet sich hier ein allgemeines Problem subjektiver Wahrscheinlichkeitsrechnung: Die Priorwahrscheinlichkeiten und Likelihoods müssen eingeschätzt werden. Goldman selbst stellt fest, dass für die Geschworenen im Gerichtsaal das Problem bestehe, die Wahrscheinlichkeiten einzuschätzen, dass ein Zeuge nicht lügt. Dies könnten sie allerdings nur mit Blick auf weitere Evidenz.25 Das ideale Vorgehen eines Geschworenen wäre daher zu prüfen, was den Zeugen glaubwürdig oder unglaubwürdig macht, potentielle Interessen des Zeugen zu bedenken und gegebenenfalls die Aussagen weiterer Parteien einzubeziehen. Goldman klassifiziert drei entscheidende Elemente: (A) die Kompetenz des Zeugen, (B) ein möglicher Opportunismus des Zeugen, und (C) die Aufrichtigkeit und Integrität des Zeugen.26 In diesem Punkt geht Goldman nicht wesentlich über Humes Überlegungen hinaus; das größte Problem, nämlich die Bestimmung der Priorwahrscheinlichkeiten und Likelihoods, schlägt er auf dieselbe Weise zu lösen vor wie bereits sein Kollege 250 Jahre zuvor. Zweifel seien angebracht, so Hume, 23 | Hume 1999, S. 170. 24 | Vgl. Russell 1997, S. 517. 25 | Vgl. Goldman 2003, S. 112. Vgl. hierzu auch Abschnitt 2.3.6. 26 | Vgl. Goldman 2003, S. 123.

Glauben und Prüfen | 17

when the witnesses contradict each other; when they are but few, or of a doubtful character; when they have an interest in what they affirm; when they deliver their testimony with hesitation, or on the contrary, with too violent asseverations. There are many other particulars of the same kind, which may diminish or destroy the force of any argument, derived from human testimony.27 Entscheidend bei einer Informationsüberlieferung ist nun einmal die Vertrauenswürdigkeit des Zeugen, und es ist fraglich, ob sich hier mit Wahrscheinlichkeitstheorie viel zeigen lässt. Dennoch scheint Goldmans Ansatz, wie viele Bayesianische Ansätze, nützlich zu sein, da hier eine praktische Methode zur Berechnung der Glaubwürdigkeit eines Zeugen geboten wird, wenn auch, wie Goldman selbst zugibt, das alte Problem besteht, dass wahre Schlüsse eben nur dann gezogen werden können, wenn bereits die Voraussetzungen wahr sind: „If one begins with false premises, all bets are off.“28 Insofern hebe Bayes’ Theorem nicht immer den Wissensgrad seines Benutzers an, doch unter speziellen Bedingungen sei es objektiv wahrscheinlich, dass es den Wissensgrad anhebe, und dieser Nutzen sei, so beharrt Goldman zu Recht, nicht zu unterschätzen.29 Ganz allgemein besteht für jede Überlieferung eine Bandbreite möglicher Umstände, die die Aussage stützen oder schwächen können. Doch die Menge dieser Umstände lässt sich durchaus verkleinern, teils durch verbesserte Sprachanalyse, teils durch verbesserte Beobachtungstechniken. Je mehr Daten zur Verfügung stehen, umso genauer lässt sich auch die bedingte Wahrscheinlichkeit schätzen. Dies kann falsche Intuitionen widerlegen und damit der Wahrheitsfindung dienen.

1.4 Glauben und Prüfen In der Diskussion um Glaubwürdigkeit spielt die Schwierigkeit der (annähernd) korrekten Bestimmung der Priorwahrscheinlichkeiten und Likelihoods eine entscheidende Rolle. Dabei ist eine Bedingung entscheidend: Ließe sich genauer bestimmen, was eine Person vertrauenswürdig macht, ließe sich auch besser einschätzen, ob eine Aussage dieser Person glaubwürdig ist. Mit dieser Einsicht geht Goldman kaum über Hume hinaus. Aus den von Hume und Goldman klassifizierten Glaubwürdigkeitskriterien lassen sich fünf rationale Merkmale glaubwürdiger Aussagen ableiten, wobei die natürliche Neigung zunächst der Glaube ist. Hieraus jedoch zu schließen, die Vernunft werde im Normalfall einer Informationsübermittlung gar nicht in An-

27 | Hume 1999, S. 171. 28 | Goldman 2003, S. 115. 29 | Vgl. Goldman 2003, S. 115.

18 | Die Glaubwürdigkeit der Wissenschaft

spruch genommen, ist unplausibel. Bekommen wir von einer Person A irgendwelche Informationen übermittelt, so müssen wir uns entscheiden, ob wir A Glauben schenken oder nicht. Am plausibelsten erscheint hier der von Fricker und Pritchard vorgeschlagene gemäßigte Credulismus, wonach im Normalfall neu eingehende Informationen automatisch darauf geprüft werden, ob sie mit den bereits vorhandenen Erfahrungen und Überzeugungen kompatibel sind; entsprechend wird dann die neue Information angenommen bzw. wird bei Widerspruch entweder die neue Information oder eine zuvor akzeptierte verworfen. Eine Entscheidung für oder gegen das Glauben einer durch Person A übermittelten neuen Information kann dann von verschiedenen Faktoren abhängen: z.B. davon, ob man A bestimmte Interessen und dadurch Voreingenommenheit oder bewusstes Lügen unterstellt. In manchen Fällen kann man auch selbst zu überprüfen versuchen, ob A die Wahrheit gesagt hat: Wird einem Kind z.B. mitgeteilt, dass es weh tut, auf eine heiße Herdplatte zu fassen, wird es dies wohl höchstens einmal bezweifeln. Die Glaubwürdigkeit eines Zeugnisses kann man also mittels eigener Erfahrung und Vernunft prüfen, oder man kann die Meinungen weiterer Personen, die man für kompetent hält, einholen. Entsprechend stehen Laien zu Wissenschaftlern innerhalb dieses komplizierten Geflechts von Abwägungskriterien in einem speziellen Verhältnis, da sie sie in der Regel nicht persönlich kennen und ihre Arbeit und die daraus resultierenden Ergebnisse in den allermeisten Fällen nicht prüfen können.

1.5 Epistemische Arbeitsteilung Innerhalb wissenschaftlicher Erkenntnisprozesse kommt das Testimony-Problem vor allem hinsichtlich komplexer Forschungsbereiche zum Tragen. Wenn die Erschließung und Analyse eines Bereichs eine Vielzahl disziplinärer Ansätze und innerhalb der Disziplinen diverse Methoden erfordert, müssen sich Wissenschaftler aufeinander verlassen. Daher haben sich bestimmte Verfahren zur Sicherung epistemischer Qualität etabliert, insbesondere Peer-Review-Verfahren, bei denen Arbeiten anonym begutachtet werden, so dass innerhalb einer Disziplin eine unabhängige epistemische Selbstregulierung gewährleistet ist. Doch können diese Verfahren nie absolute Sicherheit garantieren. In der Klimaforschungscommunity haben sich Grenzen und Lücken solcher Verfahren insbesondere nach dem „Climategate“-Vorfall gezeigt. Im IPCC ist ein sehr strenges, dreistufiges Gutachter-Verfahren vorgegeben. Zunächst gibt es ein Standard-Peer-Review, dann ein zweites, zu dem Regierungsvertreter hinzugezogen werden, was insbesondere für das Erstellen der Summaries for Policymakers wichtig ist. Danach wird ein Entwurf des endgültigen Berichts erstellt, welcher schließlich durch die gesamte Arbeitsgruppe abgesegnet werden muss. Während der

Epistemische Arbeitsteilung | 19

Verfahren wird großer Wert auf Transparenz gelegt: Alle in den Verfahren abgegebenen Gutachten und Expertisen werden für mindestens fünf Jahre nach Erscheinen eines Sachstandsberichts archiviert und sind frei einsehbar.30 Trotzdem konnten sich Fehler in den Vierten Sachstandsbericht einschleichen, was in erster Linie auf die Masse an Publikationen zurückzuführen ist, die für einen IPCCBericht ausgewertet werden müssen. Dabei ist eine besonders wichtige Aufgabe, aus den vielen, oft widersprüchlichen Studien konsensfähige Ergebnisse herauszuarbeiten; viele Aussagen in den Berichten sind entsprechend vage und unscharf. Die Fehler, die „Climategate“ ausgelöst haben, fanden sich allerdings in den Berichten der Arbeitsgruppe II, die Ergebnisse der Klimafolgenforschung enthalten: Dort wurde aus fehlerhafter, sogenannter Grauer Literatur zitiert, d.h. es wurde auf Basis von Publikationen argumentiert, die selbst nicht anonym begutachtet worden waren. Die Fehler schafften es trotz der strengen Kriterien des IPCC in die Endfassung des Berichts der Arbeitsgruppe II über Folgen des Klimawandels (vgl. Abschnitt 4.2). Es wird hier deutlich, dass epistemische Arbeitsteilung ab einem gewissen Komplexitätsgrad eines Forschungsgegenstands zwar unverzichtbar, jedoch großen Schwierigkeiten ausgesetzt ist. Insbesondere politisch relevante Forschungsbereiche stehen dabei zusätzlich unter dem Druck, möglichst rasch Expertisen auf Basis eines allgemeinen Konsens’ bereitstellen zu müssen. In lebhaften Diskussionen berieten IPCCMitglieder und -Beitragende, wie es zu den Aussetzern kommen konnte und was getan werden kann, um zuverlässigere Kontrollen zu schaffen, so dass ähnliche Peinlichkeiten in Zukunft vermieden werden (vgl. Abschnitt 4.3). Das grundlegende Problem ist, dass zum einen eine Vielfalt von Perspektiven und methodischen und theoretischen Ansätzen besteht und aus epistemischen wie nichtepistemischen Gründen auch erforderlich ist. Zum anderen führt genau diese Vielfalt zu Problemen. Dies impliziert die Frage, wo Forschungsfreiheit durch Regulationsmaßnahmen beschnitten werden muss. Insbesondere Philip Kitcher und Torsten Wilholt haben sich mit diesen Problemen beschäftigt. Kitcher stellt fest, dass die noch bei Milton und Mill geforderte freie Entscheidungsbasis jedes einzelnen Wissenschaftlers als Voraussetzung einer allgemeinen Verfügbarkeit öffentlichen Wissens in der heutigen Zeit hochentwickelter wissenschaftlicher Arbeitsteilung nicht mehr gegeben sei. Angesichts dessen erscheine eine Epistemologie, die auf die Vernunft des Individuums setze, unrealistisch.31 Weiter argumentiert Kitcher, dass hier nur durch Demokratisierung von Wissenschaft Verbesserungen erreicht werden können. Bereits 1993 hat er im achten Kapitel seines Advancement of Science ausgeführt, dass For-

30 | Vgl. IPCC 2008. 31 | Vgl. Kitcher 2011, §31.

20 | Die Glaubwürdigkeit der Wissenschaft

schungsfreiheit grundsätzlich die epistemisch effizienteste Art und Weise darstelle, ein kollektives Erkenntnisunternehmen zu organisieren, da sie eine Vielzahl von Forschungsansätzen gewährleiste, und eine Vielzahl von Forschungsansätzen schneller zu richtigen Ergebnissen führe als eine wissenschaftliche Monokultur. Insbesondere die Aussichten auf eine Erstentdeckung, die von der Zahl der an dem Forschungsansatz arbeitenden Wissenschaftler abhängt, stelle einen großen Anreiz für Forscher dar, einen eigenwilligen Ansatz oder eine neue Frage zu verfolgen, denn nur die eigentlichen Entdecker oder Erfinder bekämen die volle Anerkennung. So beforsche ein Wissenschaftler im Zweifel eher ein fachlich weniger zentrales Gebiet, das dafür kaum Konkurrenz mit sich bringe, als eines, das zwar hochbrisant sei, mit dem zahlreiche Kollegen aber bereits seit Jahren beschäftigt seien – relativ betrachtet wäre so die Wahrscheinlichkeit, Anerkennung zu bekommen, bedeutend höher.32 Aufgrund dieses Motivationsprinzips splitteten sich diverse Forschungsvorhaben auf, und es entstehe perspektivische, methodische und theoretische Vielfalt, die für wissenschaftlichen Fortschritt erforderlich sei. Wilholt fügt an, dass hierfür zusätzlich auch gegenseitige Aufmerksamkeit, ein Prinzip freier und offener Interaktion und Kommunikation innerhalb der Wissenschaften und ein gewisses Maß an Unabhängigkeit der Forscher voneinander notwendig sei, um die für diesen Prozess nötige wechselseitige Kritik zu gewährleisten.33 Er argumentiert, dass eine solche Vielfalt, wie sie sich aus einer freien Forschung heraus entwickelt, zwar theoretisch auch durch eine zentrale Verteilung von Forschungsprojekten gewährleistet werden könne, doch wäre dies wegen der gewaltigen Datenmengen des globalen und lokalen Wissens, über die eine Verteilungsorganisation mit all ihren Instanzen verfügen müsste, eher utopisch, denn hierfür wären fortwährend Erhebungen und Auswertungen bezüglich des globalen Wissens (über Methoden, Theorien und Techniken) sowie die ständige Aktualisierung des lokalen Wissens (über die speziellen Fähigkeiten einzelner Forscher, Forschergruppen und Netzwerke) vonnöten. Es müsste also eine kaum zu leistende Datenverarbeitung geschaffen werden.34 Eine freie Wissenschaft sei deshalb für die Erforschung komplexer Gegenstände, welche epistemische Arbeitsteilung erforderlich macht, unter den Voraussetzungen freier Interaktion und Kommunikation, eines funktionierenden Anreizsystems und unabhängiger Konkurrenz einer zentralen Wissenschaftsorganisation hinsichtlich epistemologischer Effizienz prinzipiell überlegen. Auch wenn Forschungsfreiheit in Gesellschaften, die von sozialer Ungleichheit oder undemokratischen Strukturen ge-

32 | Vgl. hierzu auch Kitcher 1993, Kapitel 8, §15. 33 | Vgl. Wilholt 2011, S. 89-90, sowie Koertge 2000, S. 55 und Longino 1996, S. 40. 34 | Vgl. Wilholt 2011, S. 82.

Epistemische Arbeitsteilung | 21

prägt sind, zu Problemen führe, komme ihr doch ein zentraler Stellenwert für ein prosperierendes Wissenschaftssystem zu. Doch de facto sind die bestehenden Gesellschaften von sozialer Ungleichheit und undemokratischen Strukturen geprägt, was freie Forschung sowohl hinsichtlich epistemischer als auch moralischer Kriterien problematisch machen kann. Wie könnten hier also Verbesserungen erzielt werden? Diesbezüglich stimmen Wilholt und Kitcher überein, dass „die deliberative Demokratiekonzeption eine besonders substantielle Grundlage für eine politische Verteidigung der [erforderlichen] Wissenschaftsfreiheit“35 liefert, was nicht ausschließt, dass in bestimmten Fällen eine Begrenzung der Forschungsfreiheit erforderlich sein kann. Ich schließe mich hier James Robert Brown an, der sich gegen Kitchers indifferente Position hinsichtlich eines Verbots ethisch fragwürdiger Forschungsprojekte wendet. Kitchers Befürchtung, dass solche Einschränkungen gerade die Positionen derjenigen stärken könnten, deren Machenschaften hierdurch eigentlich beschnitten werden sollten, sei angesichts der Vorteile, die solche Regulierung den benachteiligten Personengruppen einbringe, zu vernachlässigen. Natürlich könne der Einwand erhoben werden, eine Frau habe eine Stelle nur bekommen, weil sie eine Frau sei, oder rassistische Intelligenzforschung müsse doch nur verboten werden, weil sonst nachgewiesen werde, dass Weiße tatsächlich biologisch bedingt klüger seien als Schwarze, doch: these insults, while real, have turned out to be not all that common and, in any case, are rather insignificant compared with the very dramatic improvements in the prospects of women and minorities. It is not as if sexists and racists would refrain from vicious comments if there were no affirmative action programs to provoke them. The real alternative is: job plus insult versus no job plus insult.36 Hier fordert Brown von Kitcher zu Recht eine klarere Haltung im Sinne einer Befürwortung von Restriktionen. Im Weiteren jedoch ist Kitcher vollkommen zuzustimmen: Die Wissenschaften übernehmen eine zentrale Position in der Bereitstellung öffentlichen Wissens, das äußerst wichtig für ein Bewusstsein über gesellschaftliche Werte ist. Nur durch verstärkte Demokratisierung glaubwürdigkeitsrelevanter Wissenschaften und gezielte Förderung des öffentlichen Interesses daran ließen sich die bestehenden sozialen Ungleichheiten und die Unterordnung moralischer Werte unter wirtschaftliche oder politische Machtinteressen, wie man sie in vielen Fällen findet, mindern. Kitcher hat jüngst erneut eine Bilanz der Probleme moralisch oder sozial re-

35 | Wilholt 2011, S. 188. 36 | Brown 2004, S. 602-603.

22 | Die Glaubwürdigkeit der Wissenschaft

levanter Wissenschaften in demokratischen Gesellschaften gezogen. An den Beispielen von Evolutionstheorie, Biomedizin, Gentechnik und Klimaforschung zeigt er die moralische und politische Durchdrungenheit dieser Forschungsbereiche und fordert eine bewusste Förderung bestimmter für Demokratie wie Wissenschaft unverzichtbarer Werte im gesellschaftlichen Diskurs.37 Dieser (vorläufige) Verweis auf die wechselseitig wirkenden inner- und außerwissenschaftlichen Voraussetzungen guter Wissenschaftsorganisation lenkt den Blick auf die andere Seite des Testimony-Problems. Innerwissenschaftlich ist die Zuweisung von Glaubwürdigkeit durch Kollegen notwendig, weil nur eine sich frei entwickelnde, breit gefächerte Forschungslandschaft in der Lage ist, Wissen in solcher Vielfalt bereitzustellen, wie sie benötigt wird. Allerdings lässt sich die Vertrauenswürdigkeit von Wissenschaftlern durch Kollegen meist gut beurteilen und wird zudem durch Review-Verfahren zusätzlich kontrollierbar. Außerwissenschaftlich wirft das Testimony-Problem wesentlich hartnäckigere Probleme auf.

1.6 Das Expertenproblem Das Problem, wie Laien die Glaubwürdigkeit von Experten beurteilen können, ist so alt wie die abendländische Philosophie. Es wird bereits von Platon im Charmides diskutiert. Platon stellt dort Überlegungen darüber an, dass es einerseits praktische (beispielsweise handwerkliche) Fertigkeiten, andererseits theoretische, neue Erkenntnisse produzierende Fertigkeiten gibt. Dies bringt Goldman zu der Überlegung, dass die theoretischen Fertigkeiten, auf die Platon verweist, heute durchaus mit dem Begriff „Expertise“ übersetzt werden könnten. Wie diese Sorte theoretischer Fertigkeiten von Personen, die ihrerseits diese Fertigkeiten nicht besitzen, beurteilt werden kann, ist die Frage, die dem so genannten Expertenproblem zugrunde liegt. Oben wurden bereits Überlegungen angestellt, nach welchen Kriterien die Glaubwürdigkeit einer Person von einer anderen Person beurteilt werden könnte. Experten haben, wie oben schon angedeutet, eine Sonderstellung bei der Glaubwürdigkeitsermittlung, was nach Goldman daran liegt, dass Experten mehr Überzeugungen oder höhere Grade an Überzeugungen von wahren Sätzen und weniger von falschen haben als die meisten Menschen.38 Außerdem verfügten sie, so Goldman, über eine Menge von Fähigkeiten oder Methoden für eine angemessene und erfolgreiche Anwendung dieses Wissens zur Beantwortung neuer Fragen.39 Wissenschaftler sind da-

37 | Vgl. Kitcher 2001; 2011. Ich werde darauf detailliert in Abschnitt 3.8 eingehen. 38 | Vgl. Goldman 2001, S. 91. 39 | Vgl. Goldman 2001, S. 92.

Das Expertenproblem | 23

mit der Definition nach Experten. Goldman erfasst das Problem, wie Laien Experten in „novice/2-experts situations“ beurteilen können, systematisch. Eine „novice/2experts situation“ ist eine Situation, in der ein Laie vor den widersprüchlichen Aussagen zweier Experten steht und entscheiden muss, ob eine der beiden wahr ist, und wenn ja, welche. Goldman benennt fünf mögliche Kriterien für eine solche Entscheidung. A)

die Beschaffenheit der die Aussagen stützenden Argumente

B)

die Zustimmung zu der einen bzw. die Ablehnung der anderen Meinung durch weitere Experten

C)

Einschätzungen durch Meta-Experten

D)

erkennbare Interessen und Neigungen der beiden Experten

E)

bisherige wissenschaftliche Leistungen der beiden Experten

Für Kriterium A) unterscheidet Goldman esoterisches und exoterisches Vokabular sowie direkte und indirekte argumentative Rechtfertigung. Bei direkter Rechtfertigung geht es um die Prüfung des argumentationstheoretischen Kriteriums der Schlüssigkeit. Oft kann dies in einer Experten/Laien-Situation nicht angewandt werden, da mit einem hohen Anteil esoterischen Fachvokabulars hantiert wird. Goldman stellt daher fest, dass es für einen Laien sehr schwierig sei, die widersprüchlichen Aussagen von Experte 1 und Experte 2 zu beurteilen und einem der beiden Urteile gerechtfertigterweise zuzustimmen. Es sei sogar schwer für ihn, der einen Meinung gerechtfertigterweise eine höhere Glaubwürdigkeit zuzuweisen als der anderen.40 Um dieses Problem wenn nicht zu lösen, so doch zumindest zu lindern, schlägt Goldman das Kriterium der indirekten argumentativen Rechtfertigung vor, das die rhetorische Qualität, insbesondere die dialektische und stilistische Überlegenheit eines Experten gegenüber dem anderen meint: In indirect argumentative justifiedness, the hearer might say: „In light of the way this expert has argued—her argumentative performance, as it were—I can infer that she has more expertise than her opponent: so I am justified in inferring that her conclusion is probably the correct one.“41

40 | Vgl. Goldman 2001, S. 95. 41 | Goldman 2001, S. 96.

24 | Die Glaubwürdigkeit der Wissenschaft

Wie sehr man sich unter Berücksichtigung dieses Rechtfertigungskriteriums täuschen kann, liegt auf der Hand, können doch die besten Wissenschaftler miserable Rhetoriker sein, und besonders umgekehrt: können doch die größten Rhetoriker miserable Wissenschaftler sein – abgesehen vom sicher nicht seltenen Fall, in dem Argument und Gegenargument gleichermaßen brillant (bzw. eher selten: gleichermaßen miserabel) vorgebracht werden. Goldman selbst gibt zu, dass die indirekte argumentative Rechtfertigung eine „very delicate matter“42 sei. Letztlich sollte A) deshalb wohl weniger als ein analytisches Kriterium für Laien betrachtet werden, sondern vor allem als ein normatives Kriterium für Experten. So postuliert Karl Popper in seinem Plädoyer Wider die großen Worte, das Schlimmste – „die Sünde gegen den heiligen Geist“ – sei es, wenn die Intellektuellen versuchten, sich ihren Mitmenschen gegenüber als große Propheten aufzuspielen und sie mit orakelnden Philosophien zu beeindrucken. „Wer’s nicht einfach und klar sagen kann, der soll schweigen und weiterarbeiten, bis er’s klar sagen kann.“43 Zwar richtet sich Popper keinesfalls gegen Naturwissenschaftler, sondern – im Rahmen des Positivismusstreits – gegen die Neodialektiker der Frankfurter Schule, doch ist die Problematik, die sich hier abzeichnet, dieselbe: Durch Unverständlichkeit entsteht Verunsicherung; die Glaubwürdigkeit leidet, nicht zuletzt da die Unverständlichkeit der Experten den Pseudoexperten eine Grundlage schafft. Darauf verweist auch Robert Merton 1973 in seiner berühmten Sociology of Science: Der Öffentlichkeit könnten die pseudowissenschaftlichen Behauptungen irgendwelcher totalitären Wortführer über Rasse, Ökonomie oder Geschichte ebenso plausibel erscheinen wie die Ausdehnung des Universums oder die Wellenmechanik, da jene der Alltagserfahrung und kulturell bedingten Vorurteilen näher stünden. Dabei verleihe die gestohlene wissenschaftliche Autorität der unwissenschaftlichen Doktrin Prestige.44 Genau dies wird von Klimaskeptikern oft ausgenutzt. So spielt beispielsweise der Biologe Josef Reichholf in seinem Pamphlet Die falschen Propheten ohne Umschweife die Unsicherheiten in der Klimaforschung gegen die Glaubwürdigkeit der Prognosen aus: Die Computer-Modelle irrten offenbar „nicht weniger als die alten Weissagungen. Sie sind komplizierter, aber nicht unbedingt richtiger geworden.“45 Das Problem, das Popper expliziert und Reichholf sich zunutze macht, ist einfach: Je komplizierter und schwerer nachvollziehbar ein Sachverhalt zur Sprache gebracht wird, desto näher liegt der Verdacht, dass daran etwas nicht stimmt. Unverständlich-

42 | Goldman 2001, S. 96. 43 | Popper: Wider die großen Worte. Die Zeit, 24. 9. 1971. 44 | Vgl. Merton 1973, S. 277. 45 | Reichholf 2002, S. 52.

Das Expertenproblem | 25

keit weckt Misstrauen und schafft den Nährboden für Skepsis. So wird, und das ist die Gefahr, auf die Merton, Popper und Goldman hinweisen, genau das Gegenteil dessen bewirkt, was eigentlich erzielt werden soll: nämlich Skepsis statt Vertrauen. Nach Poppers Plädoyer zeichnet sich die rhetorische Qualität, die Korrektheit anzeigt, daher durch Einfachheit statt Rhetorik aus, denn Einfachheit resultiere, so Popper, aus Bescheidenheit, und durch diese wiederum zeichne sich Integrität aus. Goldman und Popper fordern daher Nachvollziehbarkeit in dem Sinne, dass der Laie das Argument des Experten inhaltlich und strukturell verstehen und daraufhin entscheiden kann, ob er es überzeugend findet oder nicht. Das setzt jedoch voraus, dass der Laie zumindest über argumentationstheoretische Kenntnisse verfügt. Denn nicht selten finden sich in öffentlichen Debatten falsche Schlussformen, die einem argumentationstheoretischen Laien aber kaum als ungültig auffallen dürften. Zudem lässt sich mit Einfachheit und Klarheit auch im genau gegenteiligen Sinne operieren, z.B. populistisch. Die Sprache der Bild-Zeitung ist sehr einfach, und genau deshalb überzeugt sie viele Menschen (wenn auch nicht unbedingt gerechtfertigterweise). All das heißt jedoch nicht, dass das Kriterium an sich falsch wäre – im Gegenteil: Umso wichtiger ist es, dass sich Experten, gerade in umstrittenen Forschungsfeldern, darum bemühen, ihre Studien und Ergebnisse nachvollziehbar zu präsentieren. Wie jedoch ein Laie dann zwischen einem verständlich vorgetragenen richtigen und einem verständlich vorgetragenen falschen Argument unterscheiden soll, bleibt offen, und in diesem Sinne hat Goldman recht: Das rhetorische Kriterium ist „delikat“. Seine Kriterien B) und C) sind hilfreicher. Wie bereits in der Testimony-Debatte versucht Goldman auch hier zu analysieren, wie genau eine zahlenmäßige Veränderung der Belege die Wahrscheinlichkeit, dass ein Sachverhalt wahr ist, verändert. Prima facie füge jeder neue Zeuge oder Vertreter einer Meinung ihr Gewicht bei, solange nichts gegen seine Vertrauenswürdigkeit spreche.46 Dass das problematisch ist, wird von Goldman nicht abgestritten; so könnten z.B. alle einmütigen Experten lediglich Anhänger derselben Doktrin sein oder auch allesamt kritiklos eine überlieferte Annahme angenommen haben. Die Größe dieses Problems wird allerdings von Goldman nicht weiter berücksichtigt. Er sagt dazu lediglich, dass, wenn mehrere Vertreter einer Meinung nicht unabhängig voneinander zu derselben Auffassung gelangt seien, ihre Meinungen schlicht als eine einzige gewichtet werden sollten.47 Über mehrere bayesianische Rechenexempel, in

46 | Vgl. Goldman 2001, S. 98-99. 47 | Vgl. Goldman 2001, S. 99. Goldman wendet sich hier explizit gegen Keith Lehrer und Carl Wagner, die 1981 ein Modell entwickelt haben, das die mögliche Abhängigkeit mehrerer

26 | Die Glaubwürdigkeit der Wissenschaft

denen er zeigt, dass sich die Wahrscheinlichkeit einer Hypothese nicht verändert, wenn sie von zwei Personen bezeugt wird, von denen die eine ihr Zeugnis aufgrund der anderen ablegt, gelangt Goldman schließlich zu der Konklusion, dass die Situation, die benötigt wird, die ist, in der sich Person Y Person X mit einer höheren Wahrscheinlichkeit anschließt, wenn H wahr ist als wenn H falsch ist, wenn also gilt:48 Y (H) Y (H) p( X(H)·H ) > p( X(H)·¬H )

Dieser Fall könne, so Goldman, auf zweierlei Weise eintreten: Zum einen, wenn Y völlig unabhängig von X zu der Überzeugung kommt, dass H wahr bzw. falsch ist; zum anderen, wenn Y zwar durch X zu dieser Überzeugung kommt, sie aber kritisch nach Schwachpunkten absucht, die X nicht erkannt hat; dadurch würden Ys Überzeugungen von X unabhängig, da Y bereit sei, die von X aufgestellte Hypothese zu widerlegen. Die Überlegungen Goldmans sind an dieser Stelle zum Teil zirkulär, was sich insbesondere in dem Satz zeigt: „The appropriate change in the novice’s belief in H should be based on two sets of concurring opinions (one in favor of H and one against it), and it should depend on how reliable the members of each set are and on how (conditionally) independent of one another they are.“49 Die zugrunde liegende Frage aber, wie ein Laie eben diese Faktoren Zuverlässigkeit und Unabhängigkeit beurteilen soll,

übereinstimmender Meinungen voneinander ignoriert. Lehrer und Wagner gehen in ihrer rational consensus-Theorie bedenkenlos davon aus, „that members of a group have opinions about the dependability, reliability and rationality of other members of the group.“ (Lehrer & Wagner 1981, S. 19) Dass dies aber ein sozialepistemologisches Erfordernis darstellt, das in der wissenschaftlichen Wirklichkeit bei weitem nicht immer erfüllt ist, wird, wie Goldman zu Recht kritisiert, im Lehrer/Wagner-Modell vernachlässigt. 48 | Vgl. Goldman 2001, S. 101. Goldman verweist an dieser Stelle (in FN 18) explizit auf (Jeffrey 1992); dieser unterscheidet dort auf S. 109-110 „conditional independence“ von „simple independence“ und weist so auf die notwendig bedingte Unabhängigkeit zwischen zwei übereinstimmenden Experten E und F hin, was bedeutet, dass E und F beide in Abhängigkeit von Hs Wahrheit bzw. Falschheit, also gegeben H bzw. gegeben ¬H, aber unabhängig voneinander zu ihren Aussagen gekommen sein müssen, um die Glaubwürdigkeit von H bzw. ¬H durch ihre Übereinstimmung zu verdoppeln: „Independence of the two witnesses regarding H means that any dependency between E and F is accounted for by the dependency of each upon H. That’s a matter of independency conditionally on H’s truth and also on H’s falsity [...]“ (Jeffrey 1992, S. 109). 49 | Goldman 2001, S. 103.

Das Expertenproblem | 27

bleibt unbeantwortet; und so geht hier das Ergebnis letztlich nicht über die Voraussetzung hinaus. Bestätigt wird dadurch aber aufs Neue, dass sich die Glaubwürdigkeit der Aussage eines Experten für einen Laien maßgeblich nach seiner Vertrauenswürdigkeit bemisst. Hilfreich ist auch die Feststellung, dass H wahrscheinlicher wird, wenn Experte X glaubwürdig ist und H behauptet und Experte Y ebenfalls glaubwürdig ist und H behauptet, wobei X und Y unabhängig voneinander zur Überzeugung gekommen sein müssen, dass H der Fall ist. Zwar ist diese Einsicht recht trivial – man müsste an dieser Stelle nicht unbedingt Bayes bemühen. Doch wird dadurch das Kriterium der Unabhängigkeit angemessen stark betont. In Abschnitt 2.2.2 wird sich zeigen, wie problematisch der Komplex aus gegenseitigem Zu- und Widerspruch im Hinblick auf wissenschaftliche Glaubwürdigkeit in der Realität ist. Fragwürdig erscheint in diesem Zusammenhang die grundsätzliche Ablehnung Goldmans von sozialen Analysekriterien. Er handelt dies viel zu kurz in einem empörten Statement wider den Sozialkonstruktivismus ab, indem er lediglich den Fall berücksichtigt, „that scientists’ beliefs are produced entirely by negotiation with other scientists, and in no way reflect reality (or Nature).“50 Woraus sich unproblematisch schließen lässt: „There would never be reason to think that any scientist is more likely to believe a scientific hypothesis H when it’s true (and some other scientist believes it) than when it’s false (and the other scientist believes it).“51 Goldman beruft sich in diesem Zusammenhang auf Kitchers Abhandlung des Sozialkonstruktivismus im Advancement of Science.52 Doch scheint diese Entgegnung auf der Suche nach einer Antwort auf die eigentliche Frage, was nämlich einen Wissenschaftler vertrauenswürdig macht, nicht hilfreich. Vielmehr scheint Goldman in Manier einer falschen Dichotomie darauf zu beharren, dass niemand, der meint, dass nicht-epistemische Werte wissenschaftliche Erkenntnis beeinflussen, an objektive Erkenntnis glauben kann – als gebe es nur Realisten und Sozialkonstruktivisten. Man muss jedoch kein Sozialkonstruktivist sein, um zu der Einsicht zu gelangen, dass für eine Untersuchung von Vertrauen in Experten soziale Komponenten eine tragende und eigenständige Rolle spielen, die ein sozialepistemologischer Ansatz einzubeziehen hat. Man könnte, anders als Goldman und wie beispielsweise Kitcher selbst in diesem Zusammenhang, eine Position beziehen, die den Einfluss sozialer Werte anerkennt und dennoch einen realistischen, wenn auch nicht mehr individualistisch-rationalistischen Standpunkt einnimmt. So gesteht Kitcher schon 1993 zu, dass sein Konzept wissenschaftlichen Fortschritts, das diesen durch Verteilung individueller Praktiken,

50 | Goldman 2001, S. 102. Meine Hervorhebung. 51 | Goldman 2001, S. 103. 52 | Vgl. Kitcher 1993, S. 160-169.

28 | Die Glaubwürdigkeit der Wissenschaft

durch bestimmte soziale Strukturen in wissenschaftlichen Gemeinschaften und Konsenspraktiken erklärt, mit der konservativen Version soziologischer Kritik durchaus vereinbar sei. Diese Strukturen und Praktiken verorten zwar einen nicht-epistemischen Werteeinfluss innerhalb der Struktur wissenschaftlicher Arbeit, lassen aber (im Gegensatz zum Strong Programme) Wahrheit als Akzeptanzkriterium zu. Dass sie einen unverletzbaren Rahmen für wissenschaftlichen Fortschritt schafften, sei, so Kitcher, nur idealerweise gegeben.53 Beim wichtigen Kriterium D), Interests and Biases, fasst sich Goldman kurz: If all or most members of a given field are infected by the same bias, the novice will have a difficult time telling the real worth of corroborating testimony from other experts and meta-experts. This makes the numbers game, discussed in the previous section [counting and application of the Bayes-theorem], even trickier for the novice to negotiate.54 In vielen Fällen haben Experten Interessen, nicht selten haben auch jeweils verschiedene Expertengruppen, die einander zu ein und demselben Thema widersprechen, je verschiedene Interessen. In manchen Fällen sind die Interessen offenkundig, zum Beispiel, wenn bei privater Forschung große Geldsummen im Spiel sind.55 Ein Beispiel aus der Klimaforschung ist das Wirken konservativer Think Tanks wie des American Enterprise Institute (AEI), das zu einem großen Teil vom Ölkonzern Exxon Mobil finanziert wird. Im Februar 2007 wurde Wissenschaftlern durch das AEI in einem Rundbrief 10.000 Dollar angeboten, wenn sie Resultate lieferten, die dem neuesten IPCC-Bericht widersprächen.56

53 | Vgl. Kitcher 1993, S. 165. Dadurch greift Kitcher selbst der Kritik Helen Longinos vor, er scheitere daran, die soziologischen antirealistischen Argumente zu widerlegen (vgl. Longino 2002a, S. 65). So stellt sie fest, Kitchers Ansatz wende sich zwar erklärtermaßen gegen wissenschaftssoziologische Einwände, da er Natürliches und Soziales als etwas notwendig Verschiedenes auffasse, schließe aber letztlich doch mikrosoziologische Argumente ein (vgl. ebd. S. 54). Die Debatte zwischen Kitcher und Longino wird in Kapitel 3 erörtert. 54 | Goldman 2001, S. 105. 55 | In der philosophischen Diskussion über Wissenschaft und Werte werden oft skandalöse Fälle aus der pharmazeutischen Forschung als Beispiele herangezogen, z.B. Contergan oder das Schlaganfälle begünstigende Antirheumatikum Vioxx, Fälle also, in denen aus Profitgier Wissen über Risiken zurückgehalten worden ist. 56 | Vgl. Sample: Scientists Offered Cash to Dispute Climate Study. The Guardian, 2. 2. 2007. Auf Nachfrage beim AEI wurde dies als normales wissenschaftliches Honorar für kritische Untersuchungen der Methoden des IPCC bezeichnet.

Das Expertenproblem | 29

Warum ist ein solcher Vorgang epistemisch problematisch? Wenn ein Preis für die Lösung beispielsweise eines mathematischen Problems ausgeschrieben wird, verursacht dies offenbar kein moralisches Problem. Wo ist der Unterschied zwischen gewöhnlichem wissenschaftlichem Wettbewerb und dem Wettbewerb, der durch das AEI in Gang gesetzt worden ist? Das Problem liegt darin begründet, dass das AEI versucht, Forschung zu kaufen, um einen Dissens zu kreieren, der eigentlich gar nicht besteht. Es geht nicht darum, die Erkenntnisse zu gewinnen, sondern im Gegenteil darum, die Erkenntnisgewinnung zu behindern, Zweifel zu schaffen und zu etablieren. Dahinter steckt politische oder ökonomische Motivation, keine wissenschaftliche: Solange Dissens besteht, müssen Politik und Industrie nicht regulierend eingreifen. Das Motiv hinter dieser Art Lobbyismus ist also politische Handlungsverzögerung aus wirtschaftlichen Erwägungen; die Behinderung des wissenschaftlichen Fortschritts wird dabei nicht nur in Kauf genommen, sondern sogar bewusst angestrebt. So schreibt Paul Krugman in der New York Times: „The people and institutions Exxon Mobil supports aren’t actually engaged in climate research. They’re the realworld equivalents of the Academy of Tobacco Studies in the movie ‚Thank You for Smoking‘, whose purpose is to fail to find evidence of harmful effects.“57 Nun ließe sich einwenden, dass, wenn die Tabakindustrie versichere, Rauchen sei nicht schädlich, und die Ölindustrie behaupte, es gebe keine anthropogene globale Erwärmung, solchen Aussagen meist nur eine geringe Glaubwürdigkeit beigemessen werde, da offensichtlich sei, dass sie auf Voreingenommenheit beruhen. Oder, wie es Al Gore in seinem Film An Inconvenient Truth ausdrückt: „It is difficult to get a man to understand something when his salary depends upon his not understanding it.“ Doch häufig sind solche finanziellen Abhängigkeiten nach außen nicht transparent. Naomi Oreskes und Erik Conway haben außerdem gezeigt, dass oftmals entscheidender Einfluss durch Autoritäten geltend gemacht wird, die nicht (mehr) in der Forschung tätig sind. Diese werden gezielt von politischen und wirtschaftlichen Instanzen gefördert, um einen Dissens zu kreieren und am Leben zu halten, der einzig den Zweck verfolgt, der Politik die Möglichkeit zu geben, bestimmte Industrieunternehmen nicht regulieren zu müssen. Dies kann mit der Begründung geschehen, dass nicht gehandelt werden „darf“, solange keine Sicherheit bestehe. Oreskes und Conway zeigen dies am Beispiel der Tabakindustrie sowie der Klimaforschung und verweisen darauf, dass sich ähnliches Vorgehen auch in anderen Forschungsbereichen finden lässt, die Umwelt- und Gesundheitsbelange betreffen, z.B. hinsichtlich

57 | Krugman: Enemy of the Planet. The New York Times, 17. 4. 2006.

30 | Die Glaubwürdigkeit der Wissenschaft

der Schädlichkeit von Asbest und Passivrauchen oder der Ursachen von saurem Regen und Ozonloch.58 Neben dieser Möglichkeit der direkten Beeinflussung aufgrund bestimmter Interessen kann es umgekehrt aber auch Experten mit starken Argumenten geben, obwohl ihre Arbeit von der Industrie finanziert wird. Mehr noch: Gerade wenn die Studie von einem Unternehmen finanziert wird, kann dieses Unternehmen besonders darum bemüht sein, unvoreingenommene Forschung zu fördern, um keinen Glaubwürdigkeitsverlust zu erleiden.59 Das macht die Unterscheidung für Laien allerdings umso komplizierter. So ist oft nicht ersichtlich, ob ökonomische oder politische Interessen ein wissenschaftliches Ergebnis nun manipuliert haben oder nicht. Dabei bennent Goldmans etwas Entscheidendes: „Lying, of course, is not the only way that interests and biases can reduce an expert’s trustworthiness. Interests and biases can exert more subtle distortion influences on expert’s opinions, so that their opinions are less likely to be accurate even if sincere.“60 Das ist eine für einen Realisten gefährliche Aussage. Denn wenn nicht-epistemische Werte und Interessen subtil Einfluss auf die Erkenntnis nehmen, wie ist ihr Einfluss dann noch erkennbar und im Erkenntnisprozess auszuschließen? Dieser Frage wird in den Abschnitten 2.3.5.1 und 2.3.5.2 nachgegangen. Das letzte Kriterium aus Goldmans Liste, das der vergangenen wissenschaftlichen Erfolge eines Experten, kann als bester Anhaltspunkt für Laien zur Beurteilung einer Expertise betrachtet werden: „[T]he use of putative experts’ past track records of cognitive success to assess the likelihoods of their having correct answers to the current question.“61 Im Nachhinein können Laien häufig beurteilen, ob eine vergangene Prognose eingetreten ist oder nicht. Fraglich ist, ob man grundsätzlich von vergangenen Prognosen, die sich bewahrheitet haben, auf die zukünftige Bestätigung aktueller Prognosen schließen kann. Dieses Argument ist anfällig für die klassischen Fehlschlüsse ad hominem bzw. ad verecundiam, da es nicht immer möglich ist, von der Qualität einer Hypothese eines Experten auf die Qualität seiner sonstigen Hypothesen

58 | Vgl. Oreskes & Conway 2010. 59 | Beispielsweise ließ die Bertelsmann AG von 1998 bis 2002 ihre NS-Vergangenheit durch eine Unabhängige Historische Kommission (UHK) unter der Leitung Saul Friedländers aufarbeiten. 60 | Goldman 2001, S. 104. 61 | Goldman 2001, S. 106. Dieses Kriterium der wissenschaftlichen Reputation durch Erfolge existiert in verschiedenen Varianten. Hardwig schreibt beispielsweise: „[If] A will be able to ascertain B’s reputation within discipline [. . . ] this surely will give A some evidence about the reliability of B and her testimony.“ (Hardwig 1991, S. 701)

Das Expertenproblem | 31

zu schließen. Doch ad hominem und ad verecundiam sind nicht immer Fehlschlüsse. Zum Beispiel lässt sich häufig ablesen, ob sich ein Experte in der Vergangenheit den epistemischen Werten von Konsistenz und Exaktheit verpflichtet gezeigt hat, ob er Integrität gewahrt hat oder bereits einmal bei einer Fälschung ertappt worden ist. Derlei Kenntnisse machen die gegenwärtigen Prognosen eines Wissenschaftlers glaubwürdiger und die Person des Wissenschaftlers vertrauenswürdiger bzw. eben nicht; wie ein erfahrener, durch jahrelange erfolgreiche Arbeit geschulter Wissenschaftler in aller Regel zuverlässiger arbeiten dürfte als ein Neuling – die positive Kehrseite der Theoriebeladenheit von Beobachtung (vgl. Abschnitt 2.3.2). Nach allem, was hier an Goldmans Überlegungen zur wissenschaftlichen Glaubwürdigkeit kritisiert worden ist, (die oftmals irreführende indirekte argumentative Rechtfertigung; die Laien nur schwer mögliche Anwendung des Bayes-Theorems zur Berechnung der Zuverlässigkeit einer Expertise durch die Anzahl einstimmiger, doch voneinander unabhängiger Experten; die Kürze der Abhandlung möglicher verzerrender Experteninteressen, die nur selten transparent sind; die Gefahr, von vergangener auf zukünftige Vertrauenswürdigkeit zu schließen), ist festzuhalten, dass diese Kriterien zwar eigentlich gut und umfassend sind, aber vor einem grundsätzlichen Problem stehen: Wissenschaftliche Glaubwürdigkeit wird nicht nur von epistemischen Kriterien, sondern ebenso vom nicht-epistemischen Kriterium der Vertrauenswürdigkeit der Wissenschaftler konstituiert. Dieses Kriterium ist abhängig von Interessen, sozialer Prägung, politischen und moralischen Überzeugungen der Wissenschaftler und verursacht entsprechend viele Unsicherheiten, was die Anwendung eines rein rationalistischen Kriterienkatalogs problematisch macht. Es ist schließlich unvermeidbar, in der induktiven Erkenntnisgewinnung Priorwahrscheinlichkeiten und Likelihoods einschätzen zu müssen. Diese Notwendigkeit verursacht nicht nur für die (natur)wissenschaftlichen Methoden selbst, sondern auch für die Einschätzung der Vertrauenswürdigkeit von Experten Probleme, die die Einschätzung der Kompetenz einer Person, gegeben ihre brillante Rhetorik, betreffen können oder die Übereinstimmung mehrerer Experten, gegeben ihre gegenseitige Unabhängigkeit, oder die Bewahrheitung einer aktuellen Prognose, gegeben die Bewahrheitung vergangener Prognosen, um nur drei Beispiele zu nennen. In jedem der genannten Fälle ist eine Größe ungewiss und muss irgendwie eingeschätzt werden: die Kompetenz eines Experten, die Unabhängigkeit mehrerer Experten, die Bewahrheitung einer aktuellen Prognose. Ohne diesen Größen a priori Wahrscheinlichkeiten zuzuweisen, bringt auch Bayes keine neue Erkenntnis, denn angesichts möglicher Verzerrung von Informationen über glaubwürdigkeitsrelevante Wissenschaften ist eine Einschätzung der Priorwahrscheinlichkeiten und Likelihoods

32 | Die Glaubwürdigkeit der Wissenschaft

mindestens für Laien oft nur schwer zu leisten. Dies wird am Beispiel des Klimadiskurses in den Abschnitten 2.2.1-2.2.3 detailliert untersucht.

1.7 Wissen, Glauben und Glaubwürdigkeit Nach der bisherigen Erörterung zeigt sich folgende, hier von Russell formulierte epistemologische Vorstellung von Glauben: „[S]ome person whom we believe to be truthful pronounces [... a sentence S] in our presence, and we then believe what the sentence asserts.“62 Doch wie kann man die Richtigkeit von S überprüfen? Die insbesondere von Goldman vorgeschlagenen Beurteilungskriterien versuchen allesamt, die Überprüfung von S mittels rationalistischer Kriterien zu ermöglichen. Allerdings spielt für diese Prüfung die wie nebenbei eingefügte soziale Bedingung „whom we believe to be truthful“ eine ebenso erhebliche Rolle wie die epistemischen Wahrheitsbedingungen von S. Das Problem ist klar: Jemanden für ehrlich zu halten, ist oft eine intuitive und schwer berechenbare Angelegenheit. Manche Realisten, hier allen voran vertreten durch Goldman, versuchen daher Regeln zu finden, nach denen die kontingenten sozialen Faktoren von der sozialen Erkenntnis abgezogen werden können, auf dass nur noch Erkenntnis übrig bleibe – ein unmögliches Unterfangen, wie insbesondere John Hardwig anhand des Terminus der notwendigen Blindheit gezeigt hat:63 Entweder man bestätigt die Information (durch eigene Erfahrung bzw. eigenes Nachvollziehen einer Beweisführung) und verschafft sich also Gewissheit, oder die Aussage bleibt Gegenstand des Glaubens, wodurch notwendigerweise auch von kontingenten sozialen Bedingungen oder moralischen oder politischen Überzeugungen abhängig bleibt, ob man S für wahr hält oder nicht. Kitcher bemerkt zu Recht, dass eine streng rationalistisch ausgerichtete Epistemologie, die grundsätzlich davon ausgehe, Laien könnten in solchen Situationen wahre und falsche Positionen erkennen, wenn sie nur die richtigen Kriterien an- und genug Mühe aufwendeten, so realitätsfern sei, dass sie nicht einmal als normatives Plädoyer tauge.64 Zu Beginn war allgemein festgestellt worden, dass wir einen Großteil dessen, was wir als Wissen annehmen, weder durch unmittelbare Erfahrung gewonnen haben, noch uns über dessen Bewährungsgrad (im Popperschen Sinne65 ) im Klaren sind,

62 | Russell 1997, S. 114. 63 | Vgl. Hardwig 1991. 64 | Vgl. Kitcher 2011, §31. 65 | Popper spricht von „reliability of theories“ (vgl. Popper 1979, S. 27-31).

Wissen, Glauben und Glaubwürdigkeit | 33

geschweige denn es durch reine Analyse erlangt haben, sondern dass wir ihn einzig aufgrund sozialer Übermittlung glauben. Aus diesem Grund wird auch für die Beurteilung wissenschaftlicher Glaubwürdigkeit ein Konglomerat aus den bereits vorgestellten epistemischen Kriterien und zusätzlich nicht-epistemischen Regeln benötigt, nach denen zum einen die Glaubwürdigkeit wissenschaftlicher Aussagen, zum anderen die Vertrauenswürdigkeit von Experten zu beurteilen sind. Verzichten kann man auf Vertrauen deshalb weder in wissenschaftlichen Gemeinschaften noch in Wissensgesellschaften: „Trust [. . . ] is a positive value for any community of finite minds, provided only that this trust is not too often abused. For finite minds can know many things only through epistemic cooperation.“66 So zieht Hardwig die notwendige epistemologische Konsequenz aus dem bekannten Aphorismus: „Ein Zwerg, der auf den Schultern eines Riesen steht, kann weiter sehen als der Riese selbst.“67

66 | Hardwig 1991, S. 707. 67 | Merton 1983, S. 15.

2 Die Glaubwürdigkeit von Wissenschaft

36 | Die Glaubwürdigkeit der Wissenschaft

2.1 Innerwissenschaftliche und außerwissenschaftliche Glaubwürdigkeit Bisher wurde gezeigt, dass Vertrauen in andere in sozialen Erkenntniszusammenhängen unerlässlich ist, so dass rein epistemische Kriterien nicht hinreichend sein können, um Glaubwürdigkeit zu konstituieren, sondern zusätzlich soziale Kriterien zur Beurteilung der Vertrauenswürdigkeit von Wissenschaftlern benötigt werden. Es hat sich weiterhin gezeigt, dass besondere Probleme entstehen, wenn Laien die Glaubwürdigkeit von Experten beurteilen müssen. Wenn es um wissenschaftliche Glaubwürdigkeit geht, hat man es zum einen häufig mit dem Verhältnis zwischen Experten und Laien zu tun. Zum anderen spielt Vertrauen innerhalb wissenschaftlicher Gemeinschaften eine besondere Rolle. Es sollen hier entsprechend drei mögliche Glaubwürdigkeitskonstellationen unterschieden werden. Eine Person kann der Aussage einer anderen Person vertrauen, wobei beide über äquivalente erkenntnistheoretische Fähigkeiten verfügen, d.h. sie sind (1) entweder beide Laien oder (2) beide Experten im Hinblick auf die verhandelte Aussage. Ferner kann (3) ein Ungleichgewicht herrschen, wenn die eine Person mehr weiß als die andere. In diese dritte Kategorie fällt das Experten-Laien-Verhältnis. Für die Untersuchung wissenschaftlicher Glaubwürdigkeit sind sowohl (2) als auch (3) von Interesse und sollen daher im Folgenden untersucht werden.1 Die Verhältnisse (1-3) lassen sich dabei folgendermaßen klassifizieren: (i) (ii)

Allgemeine Glaubwürdigkeit, die Laien einander zuschreiben Innerwissenschaftliche Glaubwürdigkeit, die Experten einander zuschreiben (iii) Außerwissenschaftliche Glaubwürdigkeit, die Laien Experten zuschreiben Interessant ist, dass Hardwig, der sich eigentlich Fall (ii) zum Untersuchungsgegenstand gewählt hat, im Ausblick auf weitere Forschung in diesem Bereich die Erarbeitung nicht-epistemischer Kriterien für Untersuchungen von (iii) für notwendig hält, während Goldman, der sich mit (iii) tatsächlich beschäftigt, dies zwar auch zu-

1 | Allerdings sind die alltäglichen sozialen und erkenntnistheoretischen Werte und Verhaltensweisen, die in (1) zum Ausdruck kommen, auch für (2) und (3) mit entscheidend. In der Literatur finden sich, wie die obige Skizze der Wissens- und Testimony-Debatten von Platon über Hume bis zu Russell und Gettier andeutet, zahlreiche Überlegungen zum grundsätzlichen Verhältnis von Wissen und Glauben, die auch für die wissenschaftstheoretischen Debatten und ihre Interpretation wichtig sind (vgl. Kapitel 1).

Inner- und außerwissenschaftliche Glaubwürdigkeit | 37

nächst einräumt, dann aber doch versucht, die Integrität wissenschaftlicher Wahrheit (d.h. die Glaubwürdigkeit wissenschaftlichen Wissens) mittels Bayes auch für den außerwissenschaftlichen Bereich zu verteidigen. Und so entsteht ihm, wie Hume, das Problem, dass man eben doch bestimmte Annahmen über die Vertrauenswürdigkeit einer Person (in diesem Fall: eines Experten) von vornherein machen muss, die nicht anhand rein epistemischer Kriterien zu ermitteln sind. So erscheinen die Goldmanschen Kriterien A-E2 für Fall (ii) tragfähiger als für (iii): Denn anders als Laien haben Experten durch ihre Ausbildung oftmals die Fähigkeit, Abhängigkeiten zu erkennen und rhetorisches Vermögen in Bezug zu inhaltlicher Adäquatheit zu setzen; für sie sind einfließende Interessen und Neigungen eher als für Laien durchschaubar – die Kompetenzen, all dies zu beurteilen, sind bei Laien geringer, weshalb es ihnen nur begrenzt möglich ist, die erforderlichen Priorwahrscheinlichkeiten einzuschätzen. Es dürfte mindestens fraglich sein, ob ein Laie die Unabhängigkeit und Interessenfreiheit eines Experten tatsächlich beurteilen kann. Und eine Einschätzung der argumentativen Qualität scheint nur bedingt möglich, nämlich hinsichtlich der formalen Qualität: Gültigkeit kann ein Laie vielleicht noch beurteilen (wobei auch dies mitunter argumentationstheoretisches Fachwissen erfordern kann), für eine Beurteilung der Schlüssigkeit fehlt ihm allerdings die Sachkenntnis, was ihn ja gerade zum Laien macht. Umgekehrt wird sich hinsichtlich (iii) das Erfordernis ergeben, dass Wissenschaftler in glaubwürdigkeitsrelevanten Bereichen Verantwortung tragen. In dem Moment nämlich, in dem ein Experte mit einer Arbeit, die von allgemeinem Interesse ist, an die Öffentlichkeit tritt, handelt er nicht mehr nur als Experte, sondern übernimmt eine Form intellektueller Verantwortung. Zwar, so werde ich argumentieren, handelt er nicht im klassischen Sinne als Intellektueller (wie Zola oder Sartre), wohl aber als Expertenintellektueller.3 Diese Verantwortlichkeit kommt einem Experten automatisch zu, da er in dem Moment, in dem er seine Arbeit einer nicht-wissenschaftlichen Öffentlichkeit präsentiert, eine Dateninterpretation liefern muss, um seine Ergebnisse für Laien verständlich zu machen, und dieser Dateninterpretation ist unweigerlich eine Stellungnahme implizit. Das stellt auch Heather Douglas fest: Da Wissenschaftler ihre Rohdaten gewöhnlich zu interpretieren hätten, bevor sie sie an Politiker reichten oder der Öffentlichkeit präsentierten, übten Hintergrundannahmen der Wissenschaftler Einfluss auf wissenschaftliche Studien aus, die anschließend zu nicht-epistemisch relevanten Konsequenzen führen könnten.4 Diese Stellungnahmen machen Experten

2 | Vgl. Abschnitt 1.6. 3 | Vgl. Carrier 2007 sowie Roggenhofer 2007. 4 | Vgl. Douglas 2007, 127-128.

38 | Die Glaubwürdigkeit der Wissenschaft

zu Expertenintellektuellen, denn „der Expertenintellektuelle [...] ergreift vor einem wissenschaftlichen Hintergrund in einer Frage von grundsätzlichem Belang öffentlich Partei [...] [stellt aber nicht einfach Informationen bereit, sondern vertritt bestimmte Sichtweisen und verbindet diese] nicht selten mit Handlungsempfehlungen.“5 Da wissenschaftliche Arbeit genau dann zu einem Gegenstand öffentlicher Glaubwürdigkeitsdebatten wird, wenn sie öffentliche Interessen betrifft, ist im hiesigen Kontext genau dieser Fall entscheidend, und ich plädiere deshalb dafür, dass Fall (3) im Idealfall glaubwürdigkeitsrelevanter Wissenschaft nicht bloß ein Verhältnis zwischen Experten und Laien, sondern zwischen Expertenintellektuellen und Laien sein sollte. Die beiden Verhältnisse (ii) und (iii) werden im Folgenden beleuchtet. Es ist zu zeigen, auf welchen Grundlagen hier jeweils Glaubwürdigkeit zugewiesen wird, wo dabei besondere Probleme bestehen und welche moralischen Erfordernisse sich daraus ergeben. Während innerwissenschaftliche Glaubwürdigkeit vor allem durch das notwendige Einwirken nicht-epistemischer Werte auf die individuelle Erkenntnis des einzelnen Wissenschaftlers bedroht ist, treten für die außerwissenschaftliche Glaubwürdigkeit zusätzliche Schwierigkeiten auf, da Laien nicht nur, wie schon erwähnt, auf die Interpretation der Daten angewiesen sind, sondern auch auf korrekte Informationsübermittlung, die sie größtenteils aus Massenmedien erhalten.6 Glaubwürdigkeitsrelevante Forschung wird dort diskutiert und prägt die öffentliche Meinung. Gerade mit Blick auf die Klimaforschung, deren Glaubwürdigkeit insbesondere in den letzten Jahren immer stärker in den Medien in Frage gestellt worden wird, ist es notwendig, diesen Zusammenhang zu berücksichtigen.

5 | Carrier 2007, S. 24. Begriff und Aufgabe des Expertenintellektuellen in Hinblick auf außerwissenschaftliche Glaubwürdigkeit wird in Abschnitt 2.2.5 erörtert. 6 | Vgl. Brown 2001, S. 206.

Wissenschaft und Massenmedien | 39

2.2.1 Wissenschaft und Massenmedien Politische Analyse setzt die Distanz und hohe Warte des Beobachters voraus, der über dem Getümmel steht, das Zurücktreten des Historikers, der sich Zeit nimmt und Zeit gibt zum Nachdenken, indem er eine Art politische Distanzierung vornimmt, die analog zur ästhetischen in der Lage ist, das in seiner Dringlichkeit und seinen Funktionen unmittelbar gegebene Objekt zu neutralisieren [...]. P IERRE B OURDIEU , D IE F EINEN U NTERSCHIEDE

In der Medientheorie wird zwischen einer „ptolemäischen“ und einer „kopernikanischen“ Auffassung massenmedialer Berichterstattung unterschieden. Die „kopernikanische Wende“ besteht dabei darin, dass den Medien inzwischen die Konstruktion einer eigenen Realität zugesprochen wird und sie nicht mehr als „objektive Vermittler“ von Nachrichten angesehen werden.7 Was ein Laie daher für eine korrekte Glaubwürdigkeitsbeurteilung eines wissenschaftlichen Artikels in einer nicht durch Peer-Review geprüften Zeitung oder Zeitschrift zunächst einmal leisten muss, ist eine Reflexion der medialen Mechanismen. Erstaunlicherweise könnte diese ganz ähnlich beschaffen sein, wie es der Goldmansche Kriterienkatalog für wissenschaftliche Glaubwürdigkeit vorsieht (vgl. S. 23): Der Laie müsste die Beschaffenheit der Argumente prüfen (∼ =A), Vergleiche mit anderen Artikeln vornehmen (∼ =B), eventuell ∼ die Positionen anderer Medien heranziehen (=C), die spezifischen medialen Interessen ausschließen, das hieße all die für das entsprechende Medium relevanten marktwirtschaftlichen Aspekte vom Inhalt des jeweiligen Artikels subtrahieren (∼ =D), und schließlich müsste er noch bedenken, welchen Standpunkt die Zeitung in vergangenen Wissenschaftsberichten vertreten hat, ob dieser überzeugend war und sich als richtig erwiesen hat oder nicht (∼ =E). Hier erweitert sich also das Erfordernis von Beurteilungskriterien für wissenschaftliche Glaubwürdigkeit um solche für mediale Glaubwürdigkeit. Besonders problematisch ist hierbei, dass die Informationen, die

7 | Vgl. Schulz 1989, S. 142. Dieser bezieht sich dabei u.a. auf Luhmann 1975. Luhmann sieht „Ansatzpunkte für eine Primärfunktion“ der Massenmedien gegeben, er spricht von einem „Universalismus der Kommunikation“, der sich durch strukturelle Bedingungen auszeichnet, „die zu akzeptieren sind, wenn man sich nicht selbst isolieren will.“ (Ebd. S. 28-29)

40 | Die Glaubwürdigkeit der Wissenschaft

den Laien durch Massenmedien erreichen, nicht nur epistemischen, sondern insbesondere auch marktwirtschaftlichen Bedingungen unterliegen. Schulz argumentiert zwar, dass der „kopernikanischen“ Auffassung zufolge eine Konkurrenz verschiedener Definitionen von Wirklichkeit sowie die wechselseitige kritische Auseinandersetzung zwischen ihnen die bestmögliche Annäherung an die objektive Realität impliziere.8 Diese Analogie ist jedoch mehr als fragwürdig, da zwar sowohl in medialen als auch wissenschaftlichen Zusammenhängen oft konträre Ansichten vertreten werden. Beide Systeme verfolgen jedoch sehr verschiedene Ziele. Was auch immer das (umstrittene) Ziel der Wissenschaft sein mag: Wahrheit, Bewährung oder empirische Adäquatheit – vornehmliches Ziel der Medien ist nach Luhmanns Nachrichtenwerttheorie, Informationen nach ihren jeweiligen Nachrichtenwerten aufzugreifen (oder sogar selbst zu generieren) und zu vermarkten. Dabei sind Behauptungen in Massenmedien im Gegensatz zu wissenschaftlichen Hypothesen und Methoden keinen Prüfverfahren ausgesetzt, sondern können nach Belieben ausgewählt und veröffentlicht werden. Die Folge ist häufig eine Unausgewogenheit in der wissenschaftsjournalistischen Berichterstattung, denn eine wissenschaftliche Randposition hat, allein aufgrund ihrer Neuheit, oft aber auch aufgrund inhaltlicher Beschaffenheit wie den aus ihr folgenden Konsequenzen für die Gesellschaft, die Umwelt oder auch den wissenschaftlichen Erkenntnisfortschritt in der Regel einen weitaus höheren Nachrichtenwert als ein bereits bekannter Konsens. Joachim Müller-Jung, Leiter des Wissenschaftsressorts der Frankfurter Allgemeinen Zeitung, nennt hierfür verschiedene Gründe. So bestünden, wenn es auch keinen fundamentalen Dissens in der Klimaforschung gebe, dennoch Unsicherheiten, die Beachtung finden müssten. Eine ausgewogene Berichterstattung fordere, dass beide Seiten gezeigt würden; Phänomene, die nicht in den allgemeinen Konsens passten, existierten nun einmal, und man müsse ihnen Aufmerksamkeit widmen.9 Allerdings wird daraus in massenmedialen Berichten häufig die Rechtfertigung abgeleitet, der Klimaforschung generellen Dissens darüber zu unterstellen, ob überhaupt eine (anthropogene) globale Erwärmung stattfindet. Dafür wird vermeintlichen Experten Platz eingeräumt, was dazu führt, dass der Öffentlichkeit ein verzerrtes Bild vom Stand der Forschung präsentiert wird.10 Der Grund hierfür scheint daher nicht allein darin zu liegen, dass ausgewogen berichtet werden soll, sondern mindestens ebenso sehr darin, dass eine zu große Relativierung die Leserschaft „ermüdet“, wie Müller-Jung letzt-

8 | Vgl. Schulz 1989, S. 145-146. 9 | Vgl. Müller-Jung 2007. Leider erklärt Müller-Jung nicht, welche Phänomene er in Bezug auf die Klimaforschung im Sinn hat. 10 | Vgl. Oreskes & Conway 2010.

Wissenschaft und Massenmedien | 41

lich auch einräumt. Unglücklicherweise scheint dies häufig als Rechtfertigung dafür dienen zu müssen, dass grundlegende Übereinstimmungen in wissenschaftlichen Debatten verzerrt dargestellt werden, nämlich so als bestünde tatsächlich Dissens, um spannend und kontrovers berichten zu können. So führt, was Ausgewogenheit garantieren soll, zu Unausgewogenheit. Positionen schaffen es ins mediale Rampenlicht, die in der wissenschaftlichen Gemeinschaft kaum Beachtung finden, was deformierend auf das öffentliche Bild von wissenschaftlichem Konsens bzw. Dissens einwirkt. Ein in seiner Plakativität drastisches und daher gern zitiertes Beispiel zur Glaubwürdigkeit massenmedialer Berichterstattung über die globale Erwärmung ergibt sich aus zwei Studien, die in ganz unabhängigen Kontexten durchgeführt worden sind, im Vergleich allerdings das Ausmaß der Verzerrung sichtbar machen: Von 928 wissenschaftlichen Publikationen bezweifelte nicht eine die anthropogene Beschaffenheit globaler Erwärmung,11 während 53 Prozent von 636 Artikeln in US-amerikanischen Zeitungen (New York Times, Washington Post, Los Angeles Times, Wall Street Journal) dies taten.12 Auf dieser Basis konnte die Regierung George W. Bush die Ratifizierung des Kyoto-Protokolls verweigern, denn auf die Frage, ob globale Erwärmung tatsächlich existiere und eine Gefahr für den Planeten darstelle, ließ sich problemlos erwidern: „There’s a debate over whether it’s manmade or naturally caused.“13 Dass diese Debatte keine wissenschaftliche ist, sondern lediglich in den Massenmedien stattfindet, wird dabei verschwiegen.14 Während also in den fachwissenschaftlichen

11 | Vgl. Oreskes 2004. 12 | Vgl. Boykoff & Boykoff 2004. Einen gleichartigen Fall gab es bereits in den 1970ern, als ein kurzzeitiger Trend zur Abkühlung des Klimas beobachtet wurde. Während in den Fachveröffentlichungen klarer Konsens darüber bestand, dass die Abkühlung nach kurzer Zeit wieder der Erwärmung durch Anreicherung der Treibhausgase nachgeben müsse, wurde in den Medien eine bevorstehende Eiszeit befürchtet (vgl. Peterson et al. 2008). 13 | Bush 2006. 14 | Es gibt allerdings auch einen wissenschaftlichen Disput, der künstlich am Leben gehalten wird. Entsprechend konnte bereits George H. W. Bush 1990 den ersten Sachstandsbericht des IPCC mit dem Satz kommentieren: „My scientists are telling me something very different.“ (Zit. nach Nicholson-Lord: Bush Defies Alert on Global Warming. Independent on Sunday, 4. 11. 1990) Mit „seinen Wissenschaftlern“ ist hier eine Gruppe von Forschern gemeint, die sich 1984 im sogenannten George C. Marshall Institute zusammengeschlossen hatten, einem konservativen Think Tank, der eigens dafür gegründet worden war, die öffentliche Meinung zur Klimaforschung sowie die Wissenschaftspolitik zugunsten der republikanischen Seite zu beeinflussen (vgl. Lahsen 2007). Sie begründeten ihre Position, dass ein anthropogener Klimawandel nicht erwiesen sei, unter Verweis auf die Sonnenfleckentheorie (vgl. Abschnitt 2.3.4).

42 | Die Glaubwürdigkeit der Wissenschaft

Debatten lediglich das Ausmaß anthropogener Verursachung debattiert wird, entsteht in der US-amerikanischen Öffentlichkeit auf diese Weise der falsche Eindruck, es gebe nicht einmal Konsens darüber, dass eine anthropogene Verursachung überhaupt bestehe. In Europa verhält es sich ähnlich. Insbesondere seit dem Weltklimagipfel in Kopenhagen im Dezember 2009 und „Climategate“ hat sich die Situation zugespitzt. So wurde selbst in der Tagesschau am 5. 12. 2009 die anthropogene Klimaerwärmung in Frage gestellt, und Umfragen in England und Deutschland ergaben einen Anstieg des Zweifels am Klimawandel per se um 10 bzw. 20 Prozent seit 2009 bzw. 2006.15 Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung berichtet: „Wenn ich derzeit meine Arbeit als Klimaforscher erwähne, höre ich oft: Es ist ja wohl sehr umstritten, ob der Mensch für den Klimawandel verantwortlich ist. Verfolgt man in diesem Sommer die Medien, kann man durchaus diesen Eindruck gewinnen.“16 Schulz verweist darauf, dass das Bild der Welt, das die Medien präsentieren, notwendigerweise anders sei als das, „was wirklich geschah“.17 Dass das ein Problem ist, relativiert er jedoch nach Kräften. Zwar bestreite er nicht die Existenz „einer einzigen objektiven Realität [...]. Die Konsequenzen dieser Annahme sind jedoch durchaus unterschiedlich, da die individuellen, sozialen und kulturellen Voraussetzungen für die Definition von Wirklichkeit stark variieren, entsprechend den unterschiedlichen Begrenzungen und Determinanten menschlicher Erkenntnis und Informationsverarbeitung.“18 Und weil „Realität immer nur über Informationsverarbeitungsprozesse konkret erfahrbar ist, [...] läßt sich der Anteil der Verzerrung niemals genau bestimmen.“19 Die Annahme einer solchen „Verzerrung“ könne „immer nur als Hypothese aufrecht erhalten werden, die sich niemals falsifizieren läßt, die also immer ungesichert bleiben muß. Dasselbe gilt für die Annahme der Wirklichkeitstreue.“20 Dem sei hier klar widersprochen, denn wenn man die oben zitierten Studien von Oreskes und Boykoff und Boykoff nebeneinander hält, so bleibt weder die Annahme einer Verzerrung hypothetisch, noch lässt sich der Anteil der Verzerrung nicht klar bestimmen. Nun könnte man versuchen, die Rolle der Medien auch weniger pessimistisch zu betrachten. Jens Radü beispielsweise hat vorgeschlagen, investigativen Wissenschaftsjournalismus als eine außerwissenschaftliche epistemische Kontrollinstanz des

15 | Vgl. BBC 2010 sowie Evers et al.: Die Wolkenschieber. Der Spiegel, 29. 3. 2010. 16 | Rahmstorf: Flotte Kurven, dünne Daten. Die Zeit, 5. 9. 2002. 17 | Vgl. Schulz 1989, S. 138-139. 18 | Schulz 1989, S. 145. 19 | Schulz 1989, S. 143. 20 | Schulz 1989, S. 143.

Wissenschaft und Massenmedien | 43

Wissenschaftssystems anzuerkennen. Er beschließt seine Analyse allerdings negativ: Die Wissenschaften als System grenzten sich weitgehend nach außen ab und betrachteten die internen Kontrollmechanismen als hinreichenden Schutz vor Problemen wie Fälschung. Zwar wiesen Peer-Review-Verfahren Schwächen auf, was immer mal wieder zu Veröffentlichungen falscher Studien führe. Dennoch seien, so zitiert Radü Science-Chefredakteur Donald Kennedy, Stichproben zusätzlich zum Peer-Review abzulehnen; die Überprüfung durch andere folge schließlich automatisch auf die Erstveröffentlichung, das Wissenschaftssystem sei damit in sich stabil. Medien seien hier keine allgemein anerkannte und gewünschte Kontrollinstanz wie sie es im politischen Bereich sind.21 Natürlich fallen einem rasch Fälle ein, in denen durch investigativen Journalismus auf wissenschaftliche Entwicklungen Einfluss genommen worden ist. Durch Massenmedien können durchaus wissenschaftliche Skandale (Fälschungen, Betrugsfälle, Verzerrungen) an die Öffentlichkeit kommen, was zu Entlassungen, Titel- und Amtsverlusten, Subventionierungsabbrüchen oder neuen Weichenstellungen in der Wissenschaftspolitik führen kann. Gerade angesichts der zunehmenden Kommerzialisierung von Wissenschaft und Forschung scheint diese Kontrollfunktion bedeutsam.22 Auch kann das allgemeine Bewusstsein für bestimmte Probleme politisch relevanter Forschungsbereiche geschärft werden.23 In Fällen, in denen verschiedene und womöglich etwa gleich starke Interessengruppen die öffentliche Meinung zu beeinflussen suchen, also in vielen Fällen glaubwürdigkeitsrelevanter Forschung, ist allerdings eine solche Einflussnahme oft unausgewogen, was ebenso zu verzerrenden wie zu aufklärenden Berichten über den Stand der Forschung führt.24 Im folgenden Abschnitt wird darauf noch näher einzugehen sein. Das Problem ist, dass innerhalb der Grenzen der „individuellen, sozialen und kulturellen Voraussetzungen für die Definition von Wirklichkeit“ viele und durchaus auch widersprüchliche Positionen vertreten werden können. Dazu kommt, dass gerade in Wissenschaftsbereichen, die komplexe Gegenstände beforschen, mindestens

21 | Vgl. Radü 2007, S. 115-116. Siehe dazu auch Kitcher 2011, §24. 22 | Torsten Wilholt hat dazu das Beispiel eines Markenpräparats gegen Schilddrüsenunterfunktion angeführt. Der Pharmakonzern, der eine Vergleichstudie mit vier Generika in Auftrag gegeben hatte, versuchte die Veröffentlichung der Studie zu verhindern, da diese eine Äquivalenz der Produkte erbracht hatte. Das Unternehmen „änderte seine Haltung erst, nachdem die Geschichte öffentliche Aufmerksamkeit auf sich gezogen hatte – bis hin zur Seite Eins des Wall Street Journal“. Wilholt 2011, S. 273. 23 | Ich zitiere in der vorliegenden Arbeit eine Reihe gut recherchierter Zeitungsartikel. 24 | Ich zitiere deshalb auch eine Reihe leider schlecht recherchierter Zeitungsartikel.

44 | Die Glaubwürdigkeit der Wissenschaft

zu Beginn meist ein Perspektivenpluralismus besteht, der jeder politischen oder medialen Position passende Argumente liefert. Because science is highly valued as a source of reliable information, disputants look to science to help legitimate their interests. In such cases, the scientific experts on each side of the controversy effectively cancel each other out, and the more powerful political or economic interests prevail, just as they would have without science. This scenario has played out in almost every environmental controversy of the past 25 years.25 So finden sich auch zum Klimawandel so viele Positionen und Meinungen, dass ein Medium immer eine Begründung und gute Rechtfertigung für jede Nachrichtenmeldung finden wird; wie Philip Kitcher spöttisch bemerkt, gibt es frei nach Newtons drittem Gesetz zu jeder Expertise eine gleich starke Gegenexpertise.26 Schulz degradiert das Problem jedoch als nicht praxisrelevant. Dieses epistemologische Problem sei vorwiegend von „akademischer, theoretischer Bedeutung. [...] In der Praxis kommt es darauf an, daß die Wirklichkeitskonstrukte als plausibel anerkannt werden und als Handlungsbasis taugen. Ein Wirklichkeitskonstrukt ist genau genug und wird im Allgemeinen als ‚wahr‘ akzeptiert, wenn es diesen Kriterien genügt.“27 Doch was soll man glauben, wenn zwei widersprüchliche Wirklichkeitskonstrukte gleichermaßen plausibel erscheinen? Welche Handlungsbasis würde begründet, wenn A und ¬A gleichermaßen als „wahr“ akzeptiert würden? Logisch betrachtet ließe sich auf dieser Grundlage alles legitimieren. Diese Feststellung möchte ich jedoch nicht bloß als logischen Scherz verstanden wissen: Hier besteht ein tatsächliches Problem, denn so richtig die Feststellung ist, dass es sich hier um ein nur theoretisch greifbares Problem handelt, so falsch ist es, daraus abzuleiten, es habe keine Praxisrelevanz. Vielmehr lassen sich die praktischen Auswirkungen in einer Verwirrung öffentlicher

25 | Sarewitz 2000, S. 83. Vgl. hierzu auch Sarewitz 2004. Dort weist Sarewitz außerdem darauf hin, dass sich nicht-epistemische Interessen und epistemische Unsicherheit wechselseitig produzieren: Durch wissenschaftlichen Pluralismus werden nicht nur bestehende gesellschaftliche Interessen bedient, sondern auch neue geschaffen, da mehr Informationen neue Optionen eröffnen und damit neue Interessen hervorrufen, was wiederum das Bereitstellen neuer Informationen fördert und den wissenschaftlichen Pluralismus erweitert etc. (vgl. Sarewitz 2004, S. 389). 26 | Vgl. Kitcher 2011, §1. 27 | Schulz 1989, S. 143.

Wissenschaft und Massenmedien | 45

Meinungsbildung und in einem Verlust außerwissenschaftlicher Glaubwürdigkeit finden.28 Diesen Problemen ließe sich nach Schulz nur begegnen, wenn sich der Umgang mit Medien in der Öffentlichkeit ändern würde, wenn sich allgemein ein kritisches mediendiskursives Bewusstsein bildete. Je ausgeprägter und verbreiteter die Annahme sei, mediale Berichterstattung sei glaubwürdig und wirklichkeitsgetreu, desto stärker werde das Verhalten der Individuen von den Medien determiniert.29 Wie jedoch erreicht werden kann, dass sich in der Öffentlichkeit ein kritisches Bewusstsein im Umgang mit Massenmedien verstärkt und verbessert ausbildet, wirft Fragen auf, die die Bereiche der Pädagogik, der Medientheorie oder auch der Soziologie und Politikwissenschaften berühren. Kitcher argumentiert, dass auch die Wissenschaftsphilosophie sich diesen Fragen stellen muss, um das Funktionieren und die Aufgaben von Wissenschaften in demokratischen Gesellschaften erfassen zu können. In diesem Rahmen hat er einige Anregungen gegeben, wie Schüler und Studierende für wissenschaftliche Methoden und Probleme sensibilisiert werden sollten.30 Wichtig ist an dieser Stelle die Feststellung, dass Objektivität für die Medien lediglich „abstraktes Ziel, [...] handlungsleitende Norm“ ist.31 Folglich stellt sich von Fall zu Fall die Frage, inwieweit dieses abstrakte Ziel verfolgt, die Norm angestrebt worden ist, inwieweit nicht andere, insbesondere wirtschaftliche Interessen die Entschei-

28 | So stellt Schulz selbst fest, „daß sich die Entwicklung der öffentlichen Meinung nach den Medien richtet“ (Schulz 1989, S. 139). 29 | Vgl. Schulz 1989, S. 144. 30 | Vgl. Kitcher 2011, §32. Insbesondere sei das wissenschaftliche Interesse bei Schülern zu wecken und zu vertiefen; Lesen sei zu lehren, so dass gerade solche wissenschaftlichen Publikationen verstanden werden könnten, die von Relevanz für das eigene Leben seien. Dies seien wichtige Voraussetzungen für eine wissenschaftsverständige und -kritische Öffentlichkeit. Alvin Goldman kommt 2001 zu einem ähnlichen Schluss: „There are interesting theoretical questions in the analysis of such situations [between experts and novices], and they pose interesting practical challenges for ‚applied‘ social epistemology. What kinds of education, for example, could substantially improve the ability of novices to appraise expertise, and what kinds of communicational intermediaries might help make the novice-expert relationship more one of justified credence than blind trust.“ (Goldman 2001, S. 109) Kitcher weist allerdings darauf hin, dass Erziehung allein zu langsam wirke, um Gefahren wie beispielsweise den Auswirkungen der globalen Erwärmung rechtzeitig begegnen zu können. Er schlägt zusätzlich das politische Einsetzen deliberativer Instanzen vor, für welches ich im Laufe der Arbeit ebenfalls argumentieren werde. 31 | Schulz 1989, S. 145.

46 | Die Glaubwürdigkeit der Wissenschaft

dung, eine Reportage, einen Artikel oder ein Interview zu veröffentlichen, bestimmt haben. Weingart et al. betonen, dass Medien, um die Auflagenhöhe mindestens stabil zu halten, Aufmerksamkeit erringen müssen und dass Aufmerksamkeitsbindung durch Sensationalisierung und Personalisierung erreicht wird: Je intensiver die Berichterstattung über den anthropogenen Klimawandel, je eindeutiger die Warnungen vor einer Katastrophe, desto interessanter werden die von den Medien repräsentierten ‚skeptischen Positionen‘ zum Klimawandel. Dieses Muster medialer Berichterstattung entspricht der Nachrichtenwerttheorie. Für die Medien ist unerheblich, ob die Gewichte zwischen den Wissenschaftlern, die den anthropogenen Klimawandel für erwiesen halten, und den Skeptikern, die ihn anzweifeln, ungleich sind. Für sie ist der Dissens als solcher berichtenswert.32 Ein mediendiskursives Bewusstsein von Laien ist daher notwendig, aber nicht hinreichend, um wissenschaftliche Glaubwürdigkeit beurteilen zu können. Denn selbst wenn ein Laie mit äußerster Aufmerksamkeit die Wissenschaftsteile der großen Tageszeitungen verfolgt, kann er in Konflikte geraten. Es ist z.B. möglich, dass er bei einem Streit zwischen einem Experten X, der die korrekte Prognose A vertritt, und einem weiteren Experten Y, der ¬A vertritt, Y statt X Glauben schenkt, insbesondere dann, wenn Meldungen schlicht kopiert werden. Wenn zum Beispiel 30 Zeitungen die Meinung ¬A unterstützen und nur zwei Zeitungen A, dann erscheint ¬A dem Laien besser gerechtfertigt. Diese Rechtfertigung wäre allerdings eine bloße Illusion, wenn alle ¬A-Unterstützer bloß voneinander abgeschrieben hätten, während die A-Unterstützer unabhängig voneinander zu ihrer Meldung gekommen wären. Unter dem scheinbaren Verhältnis von 30:2 läge eigentlich ein Verhältnis von 1:2. Von einem entsprechenden Fall aus den USA berichten Oreskes und Conway: If we read an article in the newspaper representing two opposing viewpoints, we assume both have validity, and we think it would be wrong to shut one side down. But often one side is represented only by a single „expert“—or as we saw in our story—one or two. When it came to global warming, we saw how the views of Seitz, Singer, Nierenberg, and a handful of others were juxtaposed against the collective wisdom of

32 | Weingart et al. 2008, S. 18. Den Kern der Nachrichtenwerttheorie hat Luhmann definiert: „Ein Kommunikationsprozeß verbindet nicht Fakten oder Daten in ihrer puren Faktizität, sondern Selektionen – das heißt Ereignisse, die so oder auch anders ausfallen könnten und insofern Informationswert haben.“ (Luhmann 1975, S. 21; siehe dazu auch Bourdieu 1987, S. 691-692)

Das Konsens-Dissens-Dilemma | 47

the entire IPCC, an organization that encompasses the views and work of thousands of climate scientists around the globe—men and women of diverse nationality, temperament, and political persuasion.33 Wie Verzerrungen entstehen und sogar forciert werden können, wird sich im Folgenden noch an vielen Stellen zeigen. Besonders eklatant dabei ist ein Phänomen, das ich als Konsens-Dissens-Dilemma bezeichnen möchte.

2.2.2 Das Konsens-Dissens-Dilemma Bei Goldman liest man als zunächst einleuchtendes Kriterium zur Expertenbeurteilung, dass ein Laie die Meinung der Fachkollegen eines Experten heranziehen solle, um herauszufinden, ob er dessen Meinung Glauben schenken kann (vgl. Abschnitt 1.6). Durch das Abgleichen zahlreicher Expertenmeinungen zu einem Thema lässt sich dann ein Konsens oder Dissens erkennen. Ein Konsens erhöht die Glaubwürdigkeit genau dann, wenn die Experten unabhängig voneinander zu demselben Ergebnis gekommen sind. Doch ist, wie ich betont habe, ein solcher Ausschluss gegenseitiger Abhängigkeit für Laien oft schwer zu leisten. Eine wechselseitige Abhängigkeit von Ergebnissen kann auf vielerlei Weisen verursacht werden, etwa durch ein Schüler-Lehrer-Verhältnis oder denselben Auftraggeber. Methodische oder theoretische Voraussetzungen können so falsch übernommen, Daten falsch kopiert werden. Daher kann eine Menge widersprüchlicher Hypothesen eine richtige enthalten oder auch nur falsche; weder ein Konsens noch ein Dissens kann einem Laien mit Sicherheit Aufschluss über die Glaubwürdigkeit einer wissenschaftlichen Aussage geben. Das bedeutet nicht, dass das von Goldman vorgeschlagene Konsens-Kriterium an sich falsch ist; als innerwissenschaftliches Gütekriterium ist es notwendig und wird zu Recht durch Unvoreingenommenheits- und Unabhängigkeitsforderungen gegen die Probleme, die aus allzu laxen Standards wie beispielsweise im Lehrer/WagnerModell entstehen, verteidigt (vgl. S. 25). Was allerdings das Verhältnis zwischen Experten und Laien anbelangt, werden Konsens und Dissens oft frei instrumentalisiert, was ein Dilemma erzeugen kann. Man vergleiche die beiden folgenden exemplarischen Zeitungsausschnitte aus der Zeit: 1. Wer die beiden IPCC-Berichte vergleicht, kommt aus dem Staunen nicht heraus: 1990 galt eine Erwärmung um 2 Grad bis zum Jahr 2100 als vergleichsweise erstrebenswert. Für dieses Ziel [. . . ] seien drastische Maßnahmen erforderlich: der vollständige Übergang von Kohle auf Erdgas, der Stopp jeglicher Abholzung sowie eine Halbierung des Kohlendioxid-Ausstoßes. Fünf Jahre

33 | Oreskes & Conway 2010, S. 268.

48 | Die Glaubwürdigkeit der Wissenschaft

später prognostizieren die Fachleute das gleiche Ergebnis für den Fall, daß die Menschheit mehr oder weniger so weiterwurstelt wie bisher. Zum Glück merkt auch das keiner.34 2. Aussagen werden nicht dadurch besser, dass Hunderte ins gleiche Horn blasen, auch wenn viele Modellierer der Klimakatastrophe dies meinen. Bei Disputen um naturwissenschaftliche Fakten zählen allein die Argumente und nicht die Zahl ihrer Verfechter. Das ptolemäische Weltbild, wonach die Sonne um die Erde kreist, war jahrhundertelang Konsens und dennoch falsch.35 Hier wird in derselben Zeitung innerhalb von vier Monaten aus wissenschaftlichem Dissens und wissenschaftlichem Konsens derselbe Schluss gezogen: Die Ergebnisse der Klimaforschung seien nicht glaubwürdig. Widersprechen sich die Klimatologen, wie in den ersten beiden IPCC-Berichten, weil ihre Messinstrumente und Simulationsmodelle verbessert worden sind, wird den Ergebnissen Unglaubwürdigkeit unterstellt, denn wer kann garantieren, dass diese Resultate nicht eines Tages erneut modifiziert werden? Herrscht Einigkeit über die Korrektheit von Prognosen, wird ebenfalls Unglaubwürdigkeit unterstellt, weil wissenschaftliche Einigkeit als kollektive Voreingenommenheit interpretiert wird. Im ersten Artikel wird behauptet, dass die Modifikation eines wissenschaftlichen Resultats bedeute, dass es keinen Konsens zwischen der alten und der neuen Studie gebe. Das bewertet diese Veränderung implizit als revolutionär (im Kuhnschen Sinne), was offensichtlich falsch ist. Es gibt schließlich einen breiten Konsens, der dem ersten und zweiten IPCC-Bericht gleichermaßen zugrunde liegt. Unterschiede entstehen lediglich aus Gründen normalen wissenschaftlichen (instrumentellen, methodischen und theoretischen) Fortschritts. Dies bedeutet augenscheinlich nicht, dass die früheren Resultate unzuverlässig waren und deshalb die neuen ebenfalls unzuverlässig sind, sondern vielmehr, dass die neuen Resultate im Vergleich zu den früheren verfeinert und damit gerade zuverlässiger als ihre Vorgänger sind. Im zweiten Artikel wird wissenschaftlicher Konsens als etwas interpretiert, das die Zuverlässigkeit eines Resultats nicht erhöht. Es ist interessant, dass dieser Artikel sogar explizit das Beispiel einer wissenschaftlichen Revolution, die Abkehr vom ptolemäischen Weltbild, anführt. Hier wird schlicht die Tatsache vernachlässigt, dass

34 | Maxeiner: Ist der Treibhauseffekt wirklich auf menschlichen Einfluß zurückzuführen? Zweifel sind angebracht. Die Zeit, 25. 7. 1997. 35 | Schuh: Geoforscher warnen: Es könnte im Treibhaus recht frisch werden. Zieht Euch warm an! Die Zeit, 4. 12. 1997.

Das Konsens-Dissens-Dilemma | 49

wissenschaftlicher Konsens normalerweise eine höhere Zuverlässigkeit der Ergebnisse erzeugt und keine niedrigere. Der Fehler, der in beiden Artikeln gemacht wird, ist der, dass Fälle normalen wissenschaftlichen Fortschritts als revolutionäre Sonderfälle im Kuhnschen Sinne eingestuft werden. Wenn dies jedoch der Fall wäre, könnte es niemals Progression in wissenschaftlicher Erkenntnis geben. Letztlich entsteht wissenschaftlicher Erkenntnisfortschritt aus wechselseitiger Kritik, Überarbeitung, erneuter Kritik, Überarbeitung etc. Die Klimawissenschaftler werden hier angegriffen, weil sie wissenschaftliche Standards einhalten, die gewährleisten, dass Konsens aus Dissens hervorgeht – dies bedeutet aber gerade, dass ein Ergebnis auch nach überwiegendem Konsens erneut aufkommender Kritik und neuem Dissens prinzipiell ausgesetzt werden muss, denn nur so entsteht wissenschaftlicher Fortschritt. Larry Laudan hat dazu die interessante Feststellung gemacht, dass sich in der Wissenschaftstheorie und -soziologie zwei Ansätze unterscheiden ließen. Der erste, ganz dem Leibnizschen Ideal verpflichtete Ansatz (1930er bis 1950er Jahre), der von Popper und Merton geprägt sei, erkläre zwar wissenschaftlichen Konsens, nicht aber Dissens. Der zweite, nach der Duhem-Quine-These aufkommende Ansatz (1950er bis 1960er Jahre) erkläre zwar wissenschaftlichen Dissens, nicht aber Konsens. „In a nutshell“, schreibt Laudan, „students of the development of science, whether sociologists or philosophers, have alternately been preoccupied with explaining consensus in science or with highlighting disagreement and divergence.“36 Anscheinend zieht sich diese Spaltung bis in die Gegenwart: Es gibt nach wie vor prinzipielle Anhänger von Konsenstheorien und von Dissenstheorien. Vor allem aber, und das ist für die außerwissenschaftliche Glaubwürdigkeit das große Problem, werden die beiden Ansätze dann in öffentlichen Debatten oft unreflektiert verwendet, so wie es gerade passt. Laien können sich dadurch mit dem folgenden Informationsdilemma konfrontiert finden: (i)

Wenn Wissenschaftler sich nicht einig sind, haben sie wahrscheinlich keine exakten Methoden oder Daten, also kann man ihnen nicht glauben.

(ii)

Wenn Wissenschaftler sich einig sind, sind sie wahrscheinlich von derselben Sache überzeugt oder beeinflusst und deshalb voreingenommen, also kann man ihnen nicht glauben.

(k)

Also kann man Wissenschaftlern nie glauben.

36 | Laudan 1984, S. 2.

50 | Die Glaubwürdigkeit der Wissenschaft

Tillmann Hornschuh, dessen Aufsatz zur Klimaskepsis in Massenmedien ich die beiden journalistischen Beispiele entnommen habe, hat auf dieses Problem bereits verwiesen, wenn er auch nicht expliziert, dass hier ein Dilemma vorliegt. Er stellt allerdings fest, dass das wahlweise Heranziehen von Konsens und Dissens ein weiteres Beispiel für die im skeptischen Diskurs angewandten Strategien der Plausibilisierung von Kritik gegen die Klimaforschung sei. Gegenstand und Auslöser der Skepsis sind nach Hornschuh nicht zuletzt die Korrekturen und Relativierungen der wissenschaftlichen Klimaszenarien durch die etablierte Klimaforschung selbst: „Was in der Klimaforschung ein normaler Vorgang ist, wird in den Medien zum Anlass für Misstrauen [...]. Solche Korrekturen werden nicht als Ausweis der Lernfähigkeit und der stetigen Verbesserung der Erkenntnisse der Klimaforschung begrüßt. Vielmehr liefern [... sie] den Grund, die Kompetenz und Seriosität der Klimawissenschaftler generell in Frage zu stellen.“37 Deutlich wird am Konsens-Dissens-Dilemma dies: Mit Hilfe der Goldmanschen Glaubwürdigkeitskriterien B (Zustimmung zu der einen bzw. Ablehnung der anderen Meinung durch weitere Experten) und C (Einschätzungen durch Meta-Experten) lässt sich sowohl außerwissenschaftliche Glaub- als auch Unglaubwürdigkeit begründen. Laien dürften im Allgemeinen ebenso davon überfordert sein, die Unabhängigkeit eines Konsens zu beurteilen, wie davon zu entscheiden, welche von zwei widersprüchlichen Positionen hinsichtlich epistemischer Kriterien wie Exaktheit, Einfachheit, Konsistenz etc. überzeugender ist. Dass die Beispiele 1) und 2) in derselben Zeitung erschienen sind, weist zusätzlich auf eine große Unsicherheit bezüglich des Umgangs mit wissenschaftlichen Diskursen hin – nicht zwei grundsätzlich verschiedene Ausgangspositionen liegen hier vor (wie es beispielsweise bei einem Artikel aus Bild-Zeitung und einem aus der tageszeitung der Fall wäre), sondern das Dilemma entsteht innerhalb kürzester Zeit aus der Berichterstattung von ein- und derselben, noch dazu als neutral geltenden Zeitung. So werden in Massenmedien häufig auf schlecht fundierter Basis Unsicherheiten vermittelt, was eine allgemeine Wissenschaftsskepsis fördert. Zwar handelt es sich um Zeitungsartikel, die, wie im vorigen Abschnitt gezeigt, als massenmediale Produkte vorrangig bestimmten Marktstrukturen und nicht wissenschaftlicher Korrektheit verpflichtet sind. Doch stellen Massenmedien für die Öffentlichkeit die Hauptinformationsquelle über wissenschaftliche Erkenntnisse dar und beeinflussen damit die außerwissenschaftliche Glaubwürdigkeit in beträchtlichem Ausmaß. Die Experten, deren Meinungen in Reportagen oder Interviews mehr oder weniger korrekt wiedergegeben werden, haben oft kaum Einfluss auf das Resultat. So

37 | Hornschuh 2008, S. 143.

Das Konsens-Dissens-Dilemma | 51

schreibt Stefan Rahmstorf vom Potsdam-Institut für Klimafolgenforschung: „Manchmal gelingt es, eine Richtigstellung zu bewirken oder einen Leserbrief zu platzieren; öfters erreicht man gar nichts und kann nur auf der eigenen Internet-Seite etwas klarstellen.“38 Daher kommt es genau im Fall von Dissens auf die moralische Integrität der Experten an, die sich dann vornehmlich dadurch zeigt, dass vor der Öffentlichkeit übereinstimmend artikuliert wird, dass und worüber genau Ungewissheit besteht, und erklärt wird, was diese verursacht. Rahmstorf erklärt beispielsweise: „Ich habe [...] seit vielen Jahren eine Liste klassischer ‚Medienirrtümer‘ zu meinem Fachgebiet, die ich jedem Journalisten vor einem Interview zur Pflichtlektüre gebe. Damit kann man Übertreibungen wie ‚Der Golfstrom reißt ab‘ zwar nicht immer verhindern; zumindest aber weiß ich dann, dass die Zeile kein Missverständnis, sondern Absicht war. Solche Journalisten kommen auf meine schwarze Liste.“39 Ein Forum, das dazu dienen soll, Klimaexperten einen Raum für die öffentliche Diskussion ihrer Arbeit und Erkenntnisse sowie für Richtigstellungen gegenüber oftmals verdrehten Darstellungen im medialen Kontext zu geben, ist der Internet-Blog realclimate.org, auf den ich in Abschnitt 2.2.4 noch zu sprechen kommen werde. Mit der Feststellung, wie wichtig es ist, dass wissenschaftliche Aufgaben, Probleme und Unsicherheiten in Massenmedien öffentlich diskutiert werden, schließt auch James Robert Brown seine Abhandlung darüber, wer in der Wissenschaft das Sagen habe. Da ein massenmedialer Artikel gegenüber einer fachwissenschaftlichen Veröffentlichung ein Vielfaches an Lesern habe, seien hier umso mehr intelligente und informierte Artikel nötig.40 Dafür stellt allerdings moralische Integrität bei öffentlichem Auftreten eine notwendige Bedingung dar, wie in den Abschnitten 2.2.5 und 2.2.6 noch zu zeigen sein wird. Roger Pielke Jr., Professor für Wissenschafts- und Technikpolitik an der University of Colorado, argumentiert hingegen, dass sich wissenschaftliche Mitglieder des IPCC nicht in die öffentlichen und politischen Debatten einmischen dürften, da dies automatisch das IPCC selbst politisiere, was zu epistemischer Qualitätseinbuße führe.41 Der Frage, ob eine solche Trennung wissenschaftlicher und politischer Interessen überhaupt möglich ist, wird in Abschnitt 2.2.4 nachgegangen.

38 | Rahmstorf: Das ungeliebte Weder-noch. Die Zeit, 10. 2. 2005. 39 | Ebd. 40 | Vgl. Brown 2001, S. 206. 41 | Vgl. Pielke 2002.

52 | Die Glaubwürdigkeit der Wissenschaft

2.2.3 Wissenschaft und Politik Öffentliche Meinung zu wissenschaftlichen Erkenntnissen wird nicht nur von Massenmedien, sondern ebenso von politischen Positionen geprägt, wobei hier durchaus Interdependenzen bestehen, da Massenmedien Rückschlüsse auf die politische und soziale Position ihrer Leserschaft erlauben.42 Insbesondere Boulevardblätter sind hier als rechtskonservative Meinungsbildungsorgane wichtig, da es sich um überregionale Tageszeitungen handelt, die die Meinung der unteren Bildungsschichten prägen. Entsprechend sind Zusammenhänge zwischen Bildungsstand und politischer Positionierung von Bevölkerungsgruppen, der Wahl ihrer Zeitungslektüre und ihrer Haltung zur Klimaforschung erkennbar. Im Folgenden soll das Phänomen der öffentlichen Meinung zur Klimaforschung daher noch einmal unter dem Aspekt der politischen Positionierung von Bevölkerungsgruppen betrachtet werden, um ein klareres Bild davon zu gewinnen, wie sehr soziale und politische Werte die Haltung gegenüber einer politisierten Wissenschaft bestimmen. Insbesondere in den USA lässt sich am KyotoBeispiel ein solcher Zusammenhang gut erkennen. Hinsichtlich der Klimaforschung hat eine amerikanische Studie des Program on International Policy Attitudes (PIPA) 2005 mittels einer Umfrage zur Haltung der US-amerikanischen Öffentlichkeit zum Kyoto-Protokoll gezeigt, dass ein Großteil der Wähler seine Position zu glaubwürdigkeitsrelevanter Forschung nicht aufgrund wissenschaftlicher, sondern politischer Fakten vertritt. So gaben 73 Prozent der Befragten an, eine Ratifizierung des KyotoProtokolls durch die US-Regierung zu befürworten. Unter den befragten Demokraten befürworteten 82 Prozent die Ratifizierung, was mit der Haltung ihrer Partei konform geht, unter den Republikanern befürworteten erstaunlicherweise ebenfalls immerhin 63 Prozent eine Ratifizierung. Es wurde jedoch weiter erfragt, dass nur 36 Prozent der befragten Republikaner wussten, dass George W. Bush eine Ratifizierung von Kyoto ablehnte. 64 Prozent der befragten Republikaner wussten dies also gar nicht. Weiterhin wurde erfasst, dass unter den 36 Prozent der befragten Republikaner, die wussten, dass George W. Bush eine Ratifizierung von Kyoto ablehnte, nur 45 Prozent eine Teilnahme der USA am Kyoto-Abkommen befürworteten. Also sind es insgesamt nur rund 16,2 Prozent Republikaner, die die Ratifizierung des Kyoto-Protokolls befürworteten, obwohl sie sich über die Haltung ihrer Partei im Klaren waren. Zieht man diese 16 Prozent nun von den 63 Prozent Republikanern ab, die insgesamt eine Ratifizierung befürworteten, zeigt sich, dass umgekehrt rund 46,8 Prozent der Republikaner Kyoto befürworteten, wobei sie sich nicht über die Haltung ihrer Partei bewusst waren. Daraus ergibt sich ferner, dass 73 Prozent der Republikaner, die sich

42 | Vgl. Bourdieu 1987, S. 690-707.

Wissenschaft und Politik | 53

nicht über die Haltung ihrer Partei zum Kyoto-Protokoll im Klaren waren, eine Ratifizierung befürworteten. Diese 73 Prozent stehen der nur 45 prozentigen Zustimmung unter denen, die die ablehnende Haltung ihrer Partei kannten, gegenüber. Der Vergleich dieser Zahlen lässt die meinungsprägende Wirkung politischer (statt wissenschaftlicher) Erwägungen in diesem Fall deutlich hervortreten.43

Eine andere PIPA-Studie von 2004 macht die Verschiebung für beide Lager ebenfalls deutlich. Dort widersprechen der Haltung der eigenen Partei zu Kyoto nur 39 Prozent der Republikaner und 13 Prozent der Demokraten, während sich 51 Prozent der Republikaner und 74 Prozent der Demokraten auf Parteilinie positionieren:

Abbildung 2: Haltung von Demokraten und Republikanern zu Kyoto.44

Hier ist die Haltung von Demokraten und Republikanern zur Ratifizierung des Kyoto-Protokolls im Oktober 2004 zu sehen, und zwar a) unter der Voraussetzung, dass sie annahmen, dass ihre Partei die Ratifizierung unterstütze, und b) unter der Voraussetzung, dass sie annahmen, dass sie sie nicht unterstütze. Dies weist darauf hin, dass in weiten Teilen der Bevölkerung trotz mangelnden Verständnisses zu bestimmten wissenschaftlichen Zusammenhängen Positionen bezogen werden – allerdings überwiegend aus politischen Gründen. Die bestehenden Gesellschaften setzen sich

43 | Dies wird zusätzlich 2009 durch eine Erhebung des Pew Research Center gestützt (vgl. PRC 2009). 44 | Quelle: www.pipa.org

54 | Die Glaubwürdigkeit der Wissenschaft

eben nicht aus idealen Individuen zusammen, die sich qua ihres eigenen Verstandes und auf Basis umfassend transparent gemachter wissenschaftlicher Projekte rationale Meinungen über Theorien, Methoden und (wertbeladene) Positionen in wissenschaftlichen Verfahren bilden und diesen dann gut begründet zustimmen oder sie ablehnen, wie Philip Kitcher bedauernd feststellt.45 Vielmehr bewirkt ein falsches, weil reduziertes Verständnis von Demokratie zusammen mit mangelnder wissenschaftlicher Transparenz eine Erosion der Anerkennung wissenschaftlicher Autorität, was durch (oft schlecht oder falsch begründetes) Misstrauen und Widerstand gegenüber Wissenschaftlern und ihrer Arbeit zum Ausdruck kommt. Ein wesentlicher Grund für diese „Erosion wissenschaftlicher Autorität“ ist nach Kitcher eine allgemeine Gleichsetzung von politischen Wahlen mit Freiheit und Gleichheit. Dabei werden jedoch aufgrund der Größe moderner Gesellschaften jeweils nicht einzelne Positionen, sondern ganze „Pakete von Positionen zu vielen verschiedenen Fragen“ gewählt (im obigen Beispiel ein demokratisches oder ein republikanisches Paket). Über die einzelnen Details wissen die meisten jedoch nichts, was einfach daran liegt, dass es nicht möglich ist, dass sich alle über alles eine wohl-informierte Meinung bilden.46 Stattdessen wird die individuelle Meinung nach der Parteilinie ausgerichtet, was allen demokratischen Idealen entgegensteht. Entsprechend erfolgreich sind Bestrebungen von Seiten politischer und wirtschaftlicher Lobby, durch hochsubventionierte Projekte eigene Interessen zu forcieren, indem versucht wird, die öffentliche Meinungsbildung und politische Agenda hinsichtlich bestimmter Forschung und wissenschaftlicher Erkenntnis gezielt zu beeinflussen. Ein Beispiel, das bereits genannt worden ist, ist das Angebot von 10.000$ an Wissenschaftler, die den IPCC-Bericht von 2007 kritisieren, durch das von Exxon finanzierte American Enterprise Institute. Ein weiteres Beispiel bietet eine 2003 im begutachteten Fachmagazin Climate Research veröffentlichte Studie der Astrophysiker Willie Soon und Sallie Baliunas. Der Herausgeber von Climate Research, Chris de Freitas, neuseeländischer Professor für Geographie und Umweltwissenschaften, ist erklärter Klimaskeptiker, d.h. er bezweifelt die anthropogene globale Erwärmung und spricht sich folglich gegen das Erfordernis einer Drosselung von Treibhausgasen aus.47 Die von ihm ausgewählten fünf Gutachter haben allesamt an der Studie von Soon und Baliunas nichts zu beanstanden. Darin soll in einem Vergleich von 240 bis dato veröffentlichten Studien gezeigt

45 | So beschreibt Kitcher eine ideale Öffentlichkeit. Vgl. Kitcher 2011, §24. 46 | Vgl. Kitcher 2011, §12. 47 | Vgl. Monastersky: Storm Brews over Global Warming. The Chronicle of Higher Education, 5. 9. 2003.

Wissenschaft und Politik | 55

worden sein, dass es im Mittelalter wärmer gewesen sei als im 20. Jahrhundert, in dem keine ungewöhnliche Erwärmung stattgefunden habe. Zwar könne man daraus noch nicht schließen, dass menschliches Verhalten keinen Einfluss auf das Klima habe, aber man habe mit der Behauptung solcher Zusammenhänge vorsichtig zu sein.48 Die Studie von Soon und Baliunas weist jedoch aus wissenschaftlicher Sicht erhebliche Mängel auf – sie zieht schnell die Kritik aus Fachkreisen auf sich; zitierte Kollegen distanzieren sich. Peter deMenocal, Professor für Paläozeanographie und Meeresgeologie an der Columbia University, wird von Soon und Baliunas mit zwei Science-Artikeln zitiert, in denen er aufgrund von Werten ozeanischer Oberflächentemperaturen, die er aus der Untersuchung von Sedimentablagerungen vor Afrika erschlossen hatte, zu dem Ergebnis kam, dass es 8000-6000 Jahre v. Chr. nicht nur in hohen, sondern auch in niedrigen Breitengraden zu regelmäßigen Klimaschwankungen gekommen ist, von denen die letzte die sogenannte Kleine Eiszeit (ca. 13001870) war.49 In keiner Weise jedoch, so deMenocal, bestätige seine Forschung die Schlussfolgerung von Soon und Baliunas, dass die Erwärmung des 20. Jahrhunderts sich lediglich diesem Zyklus verdanke.50 Auch David Black, Assistant Professor an der School of Marine and Atmospheric Sciences der Stony Brook University, der ebenfalls mit einer Science-Studie zitiert wird, zeigt Erstaunen darüber, dass aus seinen Daten zu Passatwinden zwischen 1150 und 1989, die er mittels venezolanischer Sedimentproben hergeleitet hat, in denen unterschiedlich große Mengen eines Planktons zu finden waren, Aussagen über Temperaturen, Feuchtigkeit oder Trockenheit ableitbar sein sollten, und schließt: „I think they stretched the data to fit what they wanted to see.“51 Über die fachliche Kritik hinaus ist die Studie insofern fragwürdig, als sie vom American Petroleum Institute und vom George C. Marshall Institute mit mehr als 53.000 US-Dollar subventioniert worden ist. Als der damalige Chefredakteur von Climate Research, der deutsche Klimawissenschaftler Hans von Storch, daraufhin einen Leitartikel in eigener Sache veröffentlichen will, ihm vom Herausgeber jedoch eine Kritik am Gutachtersystem des Hauses versagt wird, tritt er zurück. Man solle, so von Storch, eingestehen, dass man hier ein Problem habe. Das Ma-

48 | Vgl. Soon & Baliunas 2003, S. 104-105. 49 | Vgl. deMenocal et al. 2000. 50 | Vgl. Monastersky: Storm Brews over Global Warming. The Chronicle of Higher Education, 5. 9. 2003. 51 | Zit. nach Monastersky: Storm Brews over Global Warming. The Chronicle of Higher Education, 5. 9. 2003. Zu Blacks Studie siehe (Black et al. 1999).

56 | Die Glaubwürdigkeit der Wissenschaft

nuskript sei offensichtlich fehlerhaft gewesen und hätte nicht veröffentlicht werden dürfen. Die Konklusionen der Studie entbehrten jeder Evidenz.52 Dennoch wird der Artikel Soons und Baliunas’ von republikanischer und industrieller Seite begeistert aufgenommen und vielfach zitiert. Im Jahresbericht der amerikanischen Umweltbehörde EPA über den Zustand der Umwelt in den USA werden auf Druck der Regierung unter Verweis auf den Artikel von Soon und Baliunas sogar Passagen zum Klimawandel entschärft und reduziert, ein wissenschaftlicher Konsens über globale Erwärmung wird bezweifelt.53 Willie Soon wird im Folgenden als klimaskeptischer Vorzeigeexperte von den Republikanern protegiert. Er darf seine Arbeit vor dem amerikanischen Senat präsentieren, auf Anfrage eines Senators aus Oklahoma, James Inhofe, der in diesem Zusammenhang die These der anthropogenen globalen Erwärmung als „größten Jux, der dem amerikanischen Volk je untergejubelt wurde“ bezeichnet.54 Roger Pielke Jr. beklagt im Zusammenhang mit der Soon/Baliunas-Affäre, die USA stünden kurz davor, eine demokratische und eine republikanische Wissenschaft zu haben.55 Der Zusammenhang zwischen politischer Positionierung und der öffentlichen Meinung zur Klimaforschung wird durch eine Umfrage von Time, ABC News und der Stanford University deutlich: 2006 sind 64 Prozent der Befragten überzeugt, dass in der Klimawissenschaft großer Dissens bestehe.56 Zwei Umfragen des Pew Center for the People and the Press ergeben, dass 2008 noch 71 Prozent überzeugt sind, dass solide Evidenz für die globale Erwärmung bestehe, 2009 aber nur noch 57 Prozent.57 Und auch in Europa ist die Klimaforschung spätestens seit „Climategate“ im November 2009 und dem unmittelbar folgenden, für gescheitert erklärten Klimagipfel in Kopenhagen im Dezember 2009 an einen Höhepunkt öffentlicher Glaubwürdigkeitsdebatten gelangt. Einer aktuellen Umfrage durch BBC News zufolge glauben inzwischen 25 Prozent der Briten, dass es überhaupt keinen Klimawandel gebe, vor „Climategate“ waren es noch 15 Prozent.58 Und nach einer ebenfalls aktuellen Um-

52 | Vgl. Monastersky: Storm Brews over Global Warming. The Chronicle of Higher Education, 5. 9. 2003. Außerdem Regalado: Global Warming Skeptics are Facing Storm Clouds. Wall Street Journal, 31. 7. 2003. 53 | Vgl. Vanderheiden 2008, S. 35-36. Siehe dazu auch Regalado: Global Warming Skeptics are Facing Storm Clouds. Wall Street Journal, 31. 7. 2003. 54 | Zit. nach Illinger: So viele Meilen bis Kyoto. Süddeutsche Zeitung, 12. 8. 2003. 55 | Vgl. Illinger: So viele Meilen bis Kyoto. Süddeutsche Zeitung, 12. 8. 2003. 56 | Vgl. Time 2006. 57 | Vgl. PRC 2009. 58 | Vgl. BBC 2010.

Pure Scientists und Honest Brokers | 57

frage im Auftrag des Spiegel ist die Entwicklung in Deutschland ähnlich: Während 2006 noch 62 Prozent angaben, die globale Erwärmung als Bedrohung zu empfinden, und 38 Prozent dies nicht taten, hat sich das Verhältnis 2010 annähernd umgedreht: 42 Prozent glauben an mögliche negative Konsequenzen, 58 Prozent bezweifeln sie.59

2.2.4 Pure Scientists und Honest Brokers Ein Modell, das der Politikwissenschaftler Roger Pielke Jr. entwickelt hat, unterscheidet vier Möglichkeiten, wie sich Wissenschaftler in politisch relevanten Forschungsfeldern verhalten können. Dazu unterscheidet er zunächst grundsätzlich zwei Arten politisch relevanter Forschung: solche, bei der hinsichtlich moralischer Werte Konsens besteht, so dass epistemische Sicherheit direkt zu einer einhelligen politischen Entscheidung führt („Tornado Politics“), und solche, bei der epistemische Sicherheit den Wertedisput nicht aufzulösen vermag („Abortion Politics“). Beiden Forschungsarten ordnet er je zwei Typen von Wissenschaftlern zu. Im ersten Fall gebe es für Wissenschaftler die Möglichkeit, als „Pure Scientists“ keinerlei politische Handlungsempfehlungen zu geben, sondern lediglich den Stand der Forschung zusammenzufassen und die Entscheidungen der Politik zu überlassen oder sich als „Science Arbiter“ zwar aus den normativen Debatten selbst rauszuhalten, aber auf die Fragen der Politiker doch konkrete wissenschaftliche Antworten zu liefern. Im zweiten Fall können sich Wissenschaftler entweder als „Issue Advocates“ einer bestimmten politischen Interessengruppe anschließen und ihre Expertise in deren Dienst stellen oder als „Honest Brokers of Policy Alternatives“ alle bestehenden politischen Optionen klären, neue Optionen identifizieren und das verfügbare wissenschaftliche Wissen den Belangen der Interessengruppen zuordnen. „Science Arbiters“ unterscheiden sich also von „Pure Scientists“ dadurch, dass ihre Beratung gewollt politischen Einfluss nimmt, „Issue Advocates“ unterscheiden sich von „Honest Brokers“ dadurch, dass sie die Entscheidungsmöglichkeiten der Politiker, die sie beraten, begrenzen statt sie, wie die „Honest Brokers“, durch ihre Beratung zu erweitern.60 „Issue Advocates“ hätten, so Pielke, ihre politische Position offen darzulegen und dürften nicht behaupten, dass ihre Präferenzen ausschließlich aus wissenschaftlichen Erkenntnissen hervorgingen. Dies lehnt er als „Stealth Issue Advocacy“ mit der Begründung ab, dass hierdurch wissenschaftliche Beratung politisiert und damit die wissenschaftliche Glaubwürdig-

59 | Vgl. Evers et al.: Die Wolkenschieber. Der Spiegel, 29. 3. 2010. 60 | Vgl. Pielke 2007, S. 1-21.

58 | Die Glaubwürdigkeit der Wissenschaft

keit untergraben werde. So würden „Abortion Politics“ als „Tornado Politics“ dargestellt.61 Die Klimadebatte in den USA wird von solchen „Stealth Issue Advocates“ beherrscht, wie Pielke feststellt. Diese Debatte sei einzig eine über politische Werte, keine über wissenschaftliche Unsicherheit. Trotzdem werde versucht, mittels wissenschaftlicher Argumente Position zu beziehen. Die Klimadebatte sei also eigentlich eine politische Debatte, die unter dem Deckmäntelchen von Wissenschaftlichkeit geführt werde. Wo eigentlich wirtschaftliche und politische Interessen die Diskussionen bestimmten, werde behauptet, es seien epistemische Unsicherheiten, die Entscheidungen verzögerten oder unmöglich machten.62 Darin geht er d’accord mit Sarewitz, der argumentiert, dass zunächst die politischen Wertedebatten auszufechten seien, bevor wissenschaftliche Ergebnisse überhaupt zur Lösung der dort verhandelten Probleme beitragen könnten. Die Position, dass zuerst die Wissenschaft Klarheit schaffen müsse, was dann der Politik eine eindeutige Handlungsrichtung vorgeben werde, beruht, wie Sarewitz feststellt, auf dem veralteten, linearen Wissenschaftsverständnis, dass nur zuerst die epistemischen Unsicherheiten zu beseitigen seien und sich daraus dann wie von selbst auch eine Beseitigung der politischen, moralischen und sozialen Kontroversen ergebe.63 Pielke und Sarewitz halten dies zu Recht für eine naive Vorstellung, da gerade in glaubwürdigkeitsrelevanten Wissenschaftszweigen nur in Ausnahmefällen ein eindeutiges wissenschaftliches Ergebnis geliefert werden kann. In der Regel handelt es sich um Forschungsgegenstände, die so komplex sind, dass Wissenschaftler bestenfalls ungefähre Werte bereitstellen können. Sarewitz sieht dies insbesondere bei Umweltwissenschaften gegeben, da sich hier die Natur einer einheitlichen Charakterisierung widersetze.64 In der Politik wird dann gemäß der jeweiligen Position auf Basis der Werte argumentiert, die die jeweiligen Interessen am besten stützen. Wegen der Komplexität des Gegenstandes herrscht innerhalb der Forschung methodischer und theoretischer Pluralismus, der sich aus den diversen Perspektiven ergibt, und entsprechend variieren die Ergebnisse, die Politik jedoch bean-

61 | Vgl. Pielke 2007, S. 40-53. 62 | Vgl. Pielke 2007, S. 70-74. 63 | Vgl. Sarewitz 2000 und 2004. 64 | Vgl. Sarewitz 2000, S. 79. Kitcher nennt hier zusätzlich Forschungsbereiche der Biologie (vgl. Kitcher 2011, §17). Ganz abgesehen von der Unmöglichkeit, absolute Sicherheit zu erzielen, begeht eine solche Argumentation den klassischen naturalistischen Sein-SollenFehlschluss, denn selbst wenn von wissenschaftlicher Seite ein eindeutiges Ergebnis geliefert werden könnte, ließe sich daraus nicht ableiten, welches die beste politische Folgerung daraus wäre.

Pure Scientists und Honest Brokers | 59

sprucht Eindeutigkeit – und zwar am besten solche, die die eigene Linie stärkt. Dies setzt die Wissenschaftler unter Druck und hilft „Stealth Issue Advocates“ dabei, die eigene Position als neutral und unabhängig zu verkaufen. Doch scheint Pielkes Konklusion, dass sich die Klimadebatte in toto auf eine Debatte über politische Werte reduzieren lasse, problematisch. Betrachtet man die fachwissenschaftlichen Diskussionen auf der einen und die öffentlichen Debatten in Politik und Medien auf der anderen Seite, spricht viel dafür, dass die Klimadebatte beide Arten von Werten betrifft: epistemische wie nicht-epistemische. Diese sind zu großen Teilen so miteinander verwoben, dass sich einzelne Argumente oder Positionen nicht mehr klar einer „politischen Debatte“ oder einer „wissenschaftlichen Debatte“ zuordnen lassen. In beiden Bereichen bestehen (epistemische) Unsicherheiten bzw. (politische) Uneinigkeiten. Die epistemischen Unsicherheiten beruhen auf einem disziplinären, methodischen und theoretischen Pluralismus, der wiederum auf der Komplexität des Forschungsgegenstands beruht; auch ein perspektivischer Pluralismus besteht hier und schafft zusätzlich Diversifikation. Die politischen Dispute spiegeln den gesellschaftlichen Wertepluralismus hinsichtlich dieses Forschungsbereichs wider. Diverse Interessen können dabei spezifischen Risiken ausgesetzt sein: Auf der einen Seite kann der Verlust bestimmter (bereits gegebener oder potentieller) Vorteile, auf der anderen Seite direkter Schaden drohen. In vielen Fällen stehen hier wirtschaftliche Interessen sozialen oder moralischen Interessen entgegen. In der Klimaforschung zeigt sich das z.B. deutlich am 2°C-Ziel, das die Diskussionen der globalen Klimapolitik beherrscht. Es besagt, dass die globale Erwärmung langfristig auf höchstens 2°C über der globalen Durchschnittstemperatur vor der Industrialisierung beschränkt werden soll. Zum ersten Mal wurde es vom Ökonomen William Nordhaus benannt, der bereits 1975 die These aufgestellt hat, dass das durchschnittliche globale Klima langfristig um kaum mehr als ±5°C geschwankt habe. Das führe (angesichts der Durchschnittstemperatur von 1975) zu dem Schluss, dass eine anthropogene Erwärmung auf 2-3°C zu reduzieren sei, wolle man nicht den bisherigen Varianzbereich der globalen Durchschnittstemperatur der vergangenen Jahrtausende, auf den sämtliche bestehenden Ökosysteme eingestellt sind, verlassen.65 Nordhaus’ Berechnungen sind im weiteren Forschungsverlauf durch die Untersuchung von Eisbohrkernen bestätigt worden: In den vergangenen 100.000 Jahren hat die Durchschnittstemperatur tatsächlich nie mehr als 2°C über der des Jahres 1800 gelegen.66

65 | Vgl. Nordhaus 1975, S. 22-23. 66 | Vgl. Jaeger & Jaeger 2010, S. 10.

60 | Die Glaubwürdigkeit der Wissenschaft

Die Idee von 2°C als einem fokalen Punkt der Klimapolitik hat sich in der Folgezeit international durchgesetzt.67 Um die 2°C-Marke nicht zu überschreiten, wurde ein atmosphärischer CO2 -Anteil von max. 450ppm (parts per million) errechnet.68 Diese Grenzwerte und Empfehlungen werden von den Wissenschaftlern als politisches Ziel betrachtet, von der Politik aber wie wissenschaftliche Ergebnisse behandelt. Beim Weltklimagipfel in Kopenhagen wurde entsprechend festgehalten: To achieve the ultimate objective of the Convention to stabilize greenhouse gas concentration in the atmosphere at a level that would prevent dangerous anthropogenic interference with the climate system, we shall, recognizing the scientific view that the increase in global temperature should be below 2 degrees Celsius, on the basis of equity and in the context of sustainable development, enhance our long-term cooperative action to combat climate change.69 Bei der Festlegung dieses Grenzwerts waren Wissenschaft und Politik untrennbar miteinander verknüpft. Pielkes Typeneinteilung vertritt jedoch den Anspruch einer analytisch klaren Trennbarkeit zwischen politischen Interessen einerseits und „reinen“ wissenschaftlichen Fakten andererseits. Der Begriff des „Pure Scientist“, der keine Antworten auf politische Fragen gibt, setzt Wertneutralität voraus, die in glaubwürdigkeitsrelevanten Wissenschaften nicht möglich ist. Dieselbe Annahme liegt dem Begriff des „Honest Brokers“ zugrunde: Auch hier sollen Wissenschaftler, frei von persönlichen Präferenzen, politische Optionen „objektiv“ klären. Das Konzept des „Science Arbiter“ wiederum setzt voraus, dass es so etwas wie politische Fragen gibt, die sich beantworten lassen, ohne dabei politisch Stellung zu beziehen – dies erscheint geradezu paradox.

67 | Ein niedrigeres Ziel wäre sinnlos, da 0,7°C Erwärmung bereits erreicht und ein weiterer Anstieg um einige Nachkommastellen nicht mehr zu verhindern ist. Ein höherer Wert wäre angesichts der damit verbundenen Risiken fatal (vgl. Jaeger & Jaeger 2010, S. 13). 68 | Eine gute Stellungnahme zu verschiedenen möglichen Szenarien haben jüngst Steven Davis, Ken Caldeira und Damon Matthews geliefert. Sie simulierten verschiedene industrielle Entwicklungen mit entsprechend variierenden CO2 -Emissionen. Würde die bestehende Infrastruktur unverändert bleiben, so schließen sie, würden 450ppm- und 2°C-Ziel nicht verfehlt werden. Da dies aber angesichts des weltweiten wirtschaftlichen Wachstums illusorisch ist, muss enormer Aufwand betrieben werden, um die globale Entwicklung so zu gestalten, dass die Ziele erreicht werden können (vgl. Davis et al. 2010). 69 | UNFCCC 2009, S. 5. Meine Hervorhebungen. Vgl. auch (WBGU 2010).

Pure Scientists und Honest Brokers | 61

Die eigentlich naheliegende Möglichkeit, dass politische Probleme zugleich wissenschaftliche und wissenschaftliche Probleme zugleich politische sein können, wird in Pielkes Konzeption ausgeschlossen. Gerade an der Klimaforschung zeigt sich aber, wie sinnvoll diese Annahme ist: Egal welche These ein Klimawissenschaftler vorbringt, er vertritt dabei automatisch bestimmte Werte und bezieht politisch Stellung, da er damit immer auch eine bestimmte politische Linie unterstützt. Pielkes Typeneinteilung scheint daher in seiner Idealisierung für eine adäquate Analyse politisierter Wissenschaften allgemein, und der Klimaforschung im Besonderen, verfehlt. Mark Brown kritisiert daran in gleicher Weise, Wissenschaft und Politik ließen sich nicht in der von Pielke geforderten Sauberkeit voneinander trennen. Zwar könne Wissen in der Tat keine moralischen Dilemmata auflösen, dennoch sei es relevant für den Umgang mit ihnen, und zwar nicht nur für den Umgang mit möglichen Folgen von Entscheidungen, sondern auch für die Entscheidungen selbst.70 Dem schließe ich mich voll an. Die Forderung, dass Wissenschaftler sich nicht sachlich fundiert politisch positionieren sollten, scheint so unhaltbar wie unnötig. Ein Projekt, das Pielke aufgrund dieser Auffassung ablehnt, ist beispielsweise der Wissenschaftsblog realclimate.org. Er wird von elf Klimaforschern betrieben, u.a. von Stefan Rahmstorf (Potsdam-Institut für Klimafolgenforschung) und Michael Mann (Penn State University). Pielke kritisiert, dass hier die Debatte um die globale Erwärmung, die seines Erachtens eine ausschließlich politische sei, wie eine wissenschaftliche behandelt werde. Dies sei problematisch, da durch dieses Blog von den Wissenschaftlern eindeutig politisch Position bezogen werde, allerdings ohne dies zu thematisieren oder auch nur im Blick zu haben. Die Betreiber behaupteten, ihr Blog sei allein auf wissenschaftliche Themen fokussiert und nicht dazu gemacht, politisch oder ökonomisch Stellung zu beziehen; dies sei jedoch, so Pielke, eine vergebliche Bemühung, denn schließlich gehe es dort einzig darum, diejenigen zu attackieren, die eine Gegenposition zur politischen Handlungsentscheidung, die eine anthropogene Klimaerwärmung als gegeben annimmt, beziehen, wie z.B. George Will, Senator James Inhofe, Michael Crichton, Steve McIntyre und Ross McKitrick, Myron Ebell oder Fox News. Indem sie Konsens behaupteten, hätten sich die Betreiber des Blogs bereits einer politischen Position zum Klimawandel angeschlossen.71 Pielkes Kritik scheint jedoch kaum haltbar, da es keinen guten Grund gibt, weshalb kein Konsens innerhalb der klimawissenschaftlichen Community bestehen können sollte. In der Tat herrscht über grundlegende Zusammenhänge wie die anthropogene Beschaffenheit der globalen Erwärmung einhelliger wissenschaftlicher Konsens. Der Blog bezieht

70 | Vgl. Brown 2008, S. 487. 71 | Vgl. Pielke 2005.

62 | Die Glaubwürdigkeit der Wissenschaft

sich allein auf den Stand der Forschung und argumentiert auf dieser Basis. Dass dabei notwendig eine politische Komponente mit ins Spiel kommt, liegt daran, dass der verhandelte Gegenstand von politischem Interesse ist. Klimaforscher müssen sich, ob sie wollen oder nicht, zu politischen Debatten äußern. Mit anderen gemeinsam ein solches Blog zu betreiben, ist an sich schon eine politische Handlung, selbst wenn ausschließlich wissenschaftliche Fragen behandelt werden, da diese nun einmal von politischer Relevanz sind. Um so irritierender ist, dass Pielke dies als einen durch die Forscher verschuldeten Mangel beklagt.72 Der Verdienst von Pielkes Abhandlung liegt somit klar auf dem ausführlich behandelten Konzept des „Issue Advocates“: Letztlich sind die Debatten rund um die Klimaforschung Debatten konkurrierender „Issue Advocates“. Als Lösung des Problems jedoch zu fordern, Klimaforscher sollten die Rolle eines „Pure Scientist“ oder „Honest Brokers“ oder wenigstens eines „Science Arbiters“ einnehmen, scheint schlicht unrealistisch, da die diesen Begriffen vorausgesetzte neutrale Positionierung gar nicht möglich ist. Dagegen muss hier eine Untrennbarkeit politischer und wissenschaftlicher Werte innerhalb der Forschung angenommen werden, die individuelle und strukturelle wissenschaftsethische Erfordernisse mit sich bringt, was sich im Folgenden zeigen wird.

2.2.5 Experten, Intellektuelle und Expertenintellektuelle Wie sich nun schon angedeutet hat, kommt Wissenschaftlern in glaubwürdigkeitsrelevanten Bereichen eine bestimmte Form von Verantwortung, nämlich die von Expertenintellektuellen, genau dann zu, wenn sie das Gebiet der reinen Expertise verlassen und ihre Arbeit öffentlich präsentieren. Laien können mit Methodenbeschreibungen und Rohdaten in der Regel nicht viel anfangen, da ihnen begriffliche Voraussetzungen fehlen, weshalb der Experte seine Ergebnisse der Öffentlichkeit in interpretier-

72 | Vgl. Pielke 2002, 368. Interessant sind in diesem Zusammenhang auch die Leserbriefe von Stephen Schneider und Gregor Betz, mit denen sie auf eine Buchkritik Pielkes reagieren. Schneider verwahrt sich gegen Pielkes Unterstellung, dass er, Schneider, seine politische Haltung nicht von seiner wissenschaftlichen Arbeit zu unterscheiden wüsste. Betz stellt zum einen fest, dass an einer politischen Positionierung auf Basis wissenschaftlicher Erkenntnis nichts „paradox“ sei, auch wenn wissenschaftliche Unsicherheiten bestünden – die bestünden fast immer. (Dagegen beruhe Pielkes Vorwurf, dass Klimawissenschaftler keine normative Haltung einnehmen dürften, ironischerweise selbst auf einer normativen Haltung.) Zum anderen seien die Bemühungen von Klimawissenschaftlern, Voraussetzungen für politische Entscheidungen zu schaffen, genau das Gegenteil von „undemokratisch“. Diese Vorwürfe seien daher schlicht falsch. Beide Briefe in Nature 464, 22. 4. 2010, S. 1125.

Experten, Intellektuelle und Expertenintellektuelle | 63

ter Form liefern muss, um überhaupt Glaubwürdigkeit reklamieren zu können. So schreibt Johannes Roggenhofer: „Innerhalb eines Philosophenkongresses wird selbst ein Habermas wieder zum Philosophen und ein Spitzer zum Kognitionswissenschaftler, im Feuilleton können die beiden nicht mehr in ihrer bloßen Profession verbleiben. [...] Die intellektuelle Intervention soll ja gerade von allen – auch den ‚Laien‘ – nachvollzogen werden können und nicht nur von den anderen Experten.“73 Nach Martin Carrier zeichnen sich Intellektuelle dadurch aus, dass sie sich erstens „in einer Angelegenheit von öffentlicher Bedeutung zu Wort“ melden, dies zweitens öffentlich, also nicht in Fachorganen, sondern in den Massenmedien tun, drittens Partei ergreifen und Stellung beziehen, sich dabei viertens „im Namen eines überpersönlichen Anliegens“ engagieren, in der Regel für ein Vorhaben mit universellem Anspruch; fünftens haben ihre Äußerungen ein hohes argumentatives, rhetorisches und inhaltliches Niveau.74 Was den Expertenintellektuellen darüber hinaus auszeichne und vom klassischen Intellektuellen unterscheide, sei, dass sein wissenschaftlicher Sachverstand die Grundlage seines Engagements bilde.75 „Experten“, schreibt Carrier, „haben mit Tatsachen zu tun, Intellektuelle mit Werten. Experten klären darüber auf, welche Szenarien realistisch sind, Intellektuelle erörtern deren Folgen für die menschliche Kultur.“76 Dabei – und das macht den Experten, der seine Daten der Öffentlichkeit verständlich machen will, zum Intellektuellen – „strebt [...] der Expertenintellektuelle in praktischer Hinsicht vor einem wissenschaftlichen Hintergrund primär eine Einflussnahme auf das politisch-gesellschaftliche Handeln an. Dabei geht es in aller Regel nicht um konkrete Politikberatung, sondern um die Formung

73 | Roggenhofer 2007, S. 92. 74 | Carrier 2007, S. 23-24. Es ist hier wichtig zu sehen, dass um die Definition des Intellektuellenbegriffs zahlreiche Debatten geführt wurden und werden. Darunter fallen nach Ingrid Gilcher-Holtey Fragen wie die, ob ein Unterschied zwischen Intelligenz und Intellektuellen zu ziehen ist (Ralf Dahrendorf beispielsweise macht diesen Unterschied nicht und verneint damit Carriers zweites Kriterium als allgemeines Kennzeichen Intellektueller; alle Wissenschaftler und Künstler sind für Dahrendorf demnach Intellektuelle, exponieren sie sich öffentlich, werden sie zu „öffentlichen Intellektuellen“), oder, ob ein Intellektueller tatsächlich Stellung zu beziehen hat und nicht eher die zwar engagierte, aber unparteiische Beobachtung seine Aufgabe ist (vgl. Gilcher-Holtey 2006, S. 9-11). Carriers Definition entspricht wohl am ehesten der Foucaults; dieser „reiht sich in die Tradition des ‚Wissenschaftlers als Experten‘ ein, der aufgrund des Wissens, dessen Inhaber er ist, in politische Kämpfe interveniert.“ (Gilcher-Holtey 2006, S. 12) 75 | Vgl. Carrier 2007, S. 24. 76 | Carrier 2007, S. 27.

64 | Die Glaubwürdigkeit der Wissenschaft

des Meinungsklimas.“77 Beim Expertenintellektuellen handelt es sich also um einen Sondertypus des Intellektuellen in der Wissensgesellschaft der zweiten Hälfte des 20. Jahrhunderts.78 Viele Wissenschaftler meiden das Rampenlicht. Es gibt jedoch auch immer solche, die gerne öffentlich auftreten und die gesellschaftliche Relevanz ihrer Arbeit einem breiten Publikum auseinandersetzen. Dies ist an sich eine gute Sache: Es fördert ein gesellschaftliches Verständnis für die Arbeit in den Laboren und vermeintlichen Elfenbeintürmen und nutzt so, über die öffentliche Meinungsbildung, auch der Wissenschaft. Wenn ein solcher Experte sein Wort an die Öffentlichkeit richtet, nimmt er allerdings Verantwortung auf sich; er sollte sich der Rolle als Expertenintellektueller, die er in diesem Moment einnimmt, bewusst sein und als solcher Integrität wahren, sich also der Wahrheit verpflichten und der Öffentlichkeit fachliche Uneinigkeiten nicht zugunsten der eigenen Überzeugung verschweigen. Unsicherheiten sollte er artikulieren und erklären, ohne einen innerwissenschaftlichen Streit vor der Öffentlichkeit auszutragen. Letzteres geschieht jedoch häufig und verursacht eine Verunsicherung der Öffentlichkeit hinsichtlich wissenschaftlicher Glaubwürdigkeit. Zusätzlich problematisch kann hier, wie bereits erwähnt, der Einfluss des wirtschaftlichen Risikos der Medien sein, der für annähernd jede Meinung eine Plattform bereitet: Die Medien haben ein besonderes „Interesse an Nachrichten, denen Eindeutigkeit, Sensation oder Negativität zugeschrieben werden können. Wissenschaftliche Unsicherheiten und von vielen unterschiedlichen Aspekten begleitete wissenschaftliche Erkenntnisprozesse lassen sich daher nur schwer mit den Erfordernissen medialer Berichterstattung vereinbaren.“79 Dabei kommt es häufig zu Unausgewogenheiten in der wissenschaftsjournalistischen Berichterstattung, wie in den Abschnitten 2.2.1 und 2.2.2 bereits gezeigt worden ist. Jürgen Habermas äußert sich besorgt zur Lage der Intellektuellen: Die allgemeine wirtschaftliche Ausrichtung habe „zu einer ungeahnten Ausweitung der Medienöffentlichkeit und zu einer beispiellosen Verdichtung der Kommunikationsnetze geführt. Die Öffentlichkeit, in der sich Intellektuelle wie Fische im Wasser bewegt haben, ist inklusiver, der öffentliche Austausch intensiver geworden denn je zuvor. Andererseits scheinen die Intellektuellen am Überborden dieses lebensspendenden

77 | Carrier 2007, S. 26. 78 | Vgl. Carrier 2007, S. 13. Im Lauf des letzten halben Jahrhunderts sei, so Carrier, „eine Akzentverschiebung vom klassischen Intellektuellen zum Expertenintellektuellen zu verzeichnen, verbunden mit einer Professionalisierung der Beiträge von Intellektuellen.“ (Ebd. S. 29) 79 | Weingart et al. 2008, S. 90.

Experten, Intellektuelle und Expertenintellektuelle | 65

Elements wie an einer Überdosierung zu ersticken.“80 Habermas geht so weit, von einem neuerlichen Strukturwandel der Öffentlichkeit in der Mediengesellschaft zu sprechen.81 Carrier formuliert die Habermassche Sorge etwas nüchterner: In der Omnipräsenz der Medien und deren vielfacher Wort- und Bildproduktion gingen eben auch wortmächtige Äußerungen kaum beachtet unter.82 Dabei sind Intellektuelle „auf eine resonanzfähige, wache und informierte Öffentlichkeit angewiesen.“83 Doch im Gegensatz zu Habermas sehen Carrier und Roggenhofer die Position des Intellektuellen durch diese medial bedingte gesellschaftliche Transformation nicht unbedingt gefährdet, sondern erkennen bloß eine parallele Transformation des klassischen Intellektuellentypus zum Typus des Expertenintellektuellen. Carrier schließt: Zwar nimmt die Breitenwirkung klassischer Intellektueller ab, aber der Einfluss von Intellektualität auf die geistige Situation der Zeit bleibt erhalten. Tatsächlich dürfte dieser Einfluss durch den Rückgang von Radikalität, Distanzierung und Skepsis, die die Haltung vieler klassischer Intellektueller bestimmten, und die Hinwendung zu konstruktiven Gegenentwürfen aus pragmatischem Geiste, wie er die neueren Ausdrucksformen von Intellektualität auszeichnet, eher anwachsen.84 Fraglich bleibt, wie sehr sich Wissenschaftler diesem pragmatischen Geist verpflichten, anstatt sich, wie Habermas befürchtet, aus „pathologischer Eitelkeit korrumpieren zu lassen“.85 Die Verlockung öffentlicher Aufmerksamkeit ist groß, und das mediale Interesse, Kontrapositionen und Sensationsmeldungen zu präsentieren ständig präsent. Für Wissenschaftler ergibt sich daraus das moralische Erfordernis, in dem Moment, in dem sie öffentlich als Expertenintellektuelle auftreten, bestimmte Tugenden wie Unvoreingenommenheit, Offenheit und Uneigennützigkeit anzunehmen, wenn sie ihrer Arbeit Glaubwürdigkeit verschaffen wollen. Dass dies eine große Herausforderung, ja zuweilen eine Überforderung ist, lässt sich bereits bei Merton nachlesen: „[There is, in fact, no satisfactory evidence] that scientists are recruited from the ranks of those who exhibit an unusual degree of moral integrity.“86 Allerdings scheint nun gerade die individuelle moralische Integrität eine

80 | Habermas 2006, S. 9. 81 | Vgl. Habermas 2006, S. 9. 82 | Vgl. Carrier 2007, S. 28. 83 | Habermas 2006, S. 8. 84 | Carrier 2007, S. 30. 85 | Vgl. Habermas 2006, S. 10. 86 | Merton 1973, S. 276.

66 | Die Glaubwürdigkeit der Wissenschaft

notwendige Bedingung für außerwissenschaftliche Glaubwürdigkeit zu sein. Doch ist sie auch hinreichend? Ebenso wichtig für außerwissenschaftliche Glaubwürdigkeit ist, neben integeren Expertenintellektuellen, eine wachsame und kritische Öffentlichkeit. Am Ende, wie Weingart, Engels und Pansegrau schreiben, hat eine moderne Gesellschaft jedoch keine andere Wahl, als sich auf die Institution Wissenschaft zu verlassen.87 Dies bemerkt auch Steven Shapin: Trust is no longer bestowed on familiar individuals; it is accorded to institutions and abstract capacities thought to reside in certain institutions. [...] we trust the truth of specialized and esoteric scientific knowledge without knowing the scientists who are the authors of its claims.88 Die Vorstellung einer nicht-wissenschaftlichen Öffentlichkeit, die keine andere Wahl hat, als sich auf die Produktion zuverlässigen Wissens durch institutionalisierte Verfahren zu verlassen, mutet ohnmächtig an und widerspricht dem grundlegenden demokratischen Wunsch ebenso wie dem in Kapitel 1 erörterten rationalistischen Anspruch, dass es intelligenten Individuen, auch Laien, irgendwie möglich sein müsse, wissenschaftliche Prozesse und Ergebnisse zu beurteilen. Doch erscheint der Standpunkt Weingarts und seiner Kolleginnen schlicht realistisch, die im Sinne Hardwigs „notwendiger Blindheit“89 argumentieren, dass Laien Experten oder zumindest der Wissenschaft als Institution letztlich vertrauen müssen.90 Gerade dies begründet allerdings bestimmte moralische Pflichten der Wissenschaft, die juristisch und politisch zu gewährleisten sind. Durch Politik und Legislative wird das „System Wissenschaft“ reguliert und ist nicht völlig autonom; die Öffentlichkeit ist diesem umgekehrt nicht hilflos ausgeliefert. Öffentlich gewordene Widersprüche und Gefahrenpotenziale können durchaus wissenschaftliche Entwicklungen beeinflussen, indem sie zur Förderung oder zur Restriktion von Forschungsprojekten führen. Zusammengefasst wurde in den letzten beiden Kapiteln also fesgestellt, dass Wissenschaftler in glaubwürdigkeitsrelevanten Forschungsgebieten, die sich öffentlich zu

87 | Vgl. Weingart et al. 2008, S. 19. 88 | Shapin 1994, S. 411. Dieser Entwicklung widmet Shapin sich auch bereits 1985 zusammen mit Simon Schaffer im Leviathan, wo sie das Phänomen der „independent gentlemen“ untersuchen, wirtschaftlich unabhängiger, sozial höherstehender und integerer Männer, die allein fähig seien, nicht-korrupte Wissenschaft zu betreiben. Die Aufgabe der Gentlemen wird in der Moderne durch soziale Kontrollprozesse ersetzt. 89 | Vgl. Hardwig 1991. 90 | Dies wird inzwischen auch von Kitcher anerkannt (vgl. Kitcher 2011, §30-31).

Wissenschaftliche Glaubwürdigkeit, Ethik und Transparenz | 67

ihrer Arbeit äußern, automatisch auch hinsichtlich moralischer oder politischer Werte Position beziehen. Sie geraten so – freiwillig oder unfreiwillig – in Situationen, in denen ihnen die Verantwortung von Expertenintellektuellen zukommt. Dies soll in Abschnitt 2.2.7 an den Fällen einiger Klimaforscher exemplifiziert werden. Zuvor ist aber noch zu untersuchen, welche Werte diese spezielle Verantwortung eigentlich umfasst. Diese Frage ist Gegenstand der Wissenschaftsethik.

2.2.6 Wissenschaftliche Glaubwürdigkeit, Ethik und Transparenz In order to qualify as knowledge (or even as rational belief), many epistemic claims must meet ethical standards. If they cannot pass the ethical muster, they fail epistemologically. J OHN H ARDWIG , T HE ROLE OF T RUST IN K NOWLEDGE

Allgemein gesprochen wird in öffentlichen Debatten wissenschaftliche Glaubwürdigkeit stets dann thematisiert, wenn einerseits öffentliche Interessen betroffen sind und andererseits wissenschaftliche Unsicherheiten bestehen. Das liegt daran, dass ein Laie genau dann ein Interesse an der Sicherheit und also der Glaubwürdigkeit einer wissenschaftlichen Prognose irgendeines Experten hat, wenn er sich von dieser entweder einen Nutzen oder einen Schaden erwartet. So entstehen Glaubwürdigkeitsdispute insbesondere über solche Forschungsbereiche, die von großen Unsicherheiten geprägt und politisch relevant sind. Aus diesem Grund müssen Wissenschaftler, wenn sie Forschung betreiben, die nicht nur epistemische, sondern auch nicht-epistemische Konsequenzen hat, sowohl epistemische als auch nicht-epistemische Werte in ihre Forschung einbeziehen.91 Ein besonders prägnantes Beispiel hat Steven Epstein mit einer historisch-soziologischen Aufarbeitung der AIDS-Forschung geliefert. Hier führten Doppelblind-Testreihen bei den Placebo-Patienten zu größerem Leid und schnellerem Tod als bei den medikamentös behandelten Patienten. Die Blindstudien, die für die epistemische Sicherheit über die Wirkungen der Präparate als wichtig erachtet worden waren, sorgten

91 | Vgl. Douglas 2007, S. 130.

68 | Die Glaubwürdigkeit der Wissenschaft

in den 1980er Jahren für große Proteste, die dazu führten, dass die HIV-Infizierten von bloßen Forschungsobjekten zu Patienten wurden. Daraus entstand der Begriff „Impure Science“. Dies meint Wissenschaft, deren Ziel nicht die Suche nach Wahrheit zu sein habe, sondern die Möglichkeit, mit den bestehenden Unsicherheiten möglichst gut leben zu lernen.92 Wie genau verhalten sich also in solchen Fällen epistemische Interessen und moralische Pflichten zueinander? Kristin Shrader-Frechette stellt fest, dass sich ein grundsätzliches Problem durch die unterschiedlichen methodologischen Voraussetzungen von Experten und Laien bei der Risikobeurteilung93 angewandter Forschung ergebe: „Especially in the area of applied research having public risks [...] researchers and laypersons often make different methodological value judgments about the adequacy of evidence and safety and about how to deal with uncertainty.“94 In einer Demokratie sollten allerdings, so Shrader-Frechette, wissenschaftliche Entscheidungen, die das Allgemeinwohl betreffen, von der Öffentlichkeit mitbestimmt und nicht ausschließlich von Experten beschlossen werden. Dies ergebe sich aus fünf Prinzipien, von denen die ersten beiden im hiesigen Kontext interessant sind: 1. Informierung der Öffentlichkeit: Ein funktionierender gesellschaftlicher Diskurs braucht möglichst exakte, hinreichende Informationen. Meinungsbildung ist nur so frei, wie es die ihr zur Verfügung stehenden Informationen zulassen. Die Öffentlichkeit hat ein Recht, über forschungsabhängige Unsicherheiten und potentielle Konsequenzen informiert zu werden. 2. Schutz der Öffentlichkeit vor innerwissenschaftlichen Interessenkonflikten: Einerseits wollen Forscher ihr Wissen vergrößern, andererseits müssen sie das Allgemeinwohl schützen. Daraus entstehen leicht Interessenkonflikte. Deshalb kann man nicht ihnen allein die Aufgabe überlassen, das Allgemeinwohl zu schützen. Der einzige wirkliche Schutz ist sicherzustellen, dass all diejenigen, die von einem Forschungsvorhaben oder einer Technologie betroffen werden, ihre wirklich frei informierte Zustimmung zu den möglichen Konsequenzen geben.95

92 | Vgl. Epstein 1995. 93 | An dieser Stelle wird, wie bei der Debatte zwischen Rudner und Jeffrey (vgl. Abschnitt 2.3.6), von Risiko allgemein gesprochen, das nach Frank Knights Definition sowohl objektiv kalkulierbares Risiko als auch subjektiv abschätzbare Ungewissheit umfasst (vgl. Knight 1964, S. 197-232). 94 | Shrader-Frechette 1994, S. 102. 95 | Vgl. Shrader-Frechette 1994, S. 103-104.

Wissenschaftliche Glaubwürdigkeit, Ethik und Transparenz | 69

Rein formal ist zunächst einmal auffällig, dass für den besten Schutz der Öffentlichkeit ihre Möglichkeit, sich frei zu informieren, vorausgesetzt wird. Das bedeutet, dass Kriterium (2) Kriterium (1) erforderlich macht. Um allgemeine ethische Standards wie Fairness, Gleichberechtigung oder das Recht auf körperliche Unversehrtheit zu gewährleisten, ist Shrader-Frechette zufolge eine Mitbestimmung der Öffentlichkeit erforderlich, welcher wiederum die Veröffentlichung von verständlichen (i.e. verständlich interpretierten) Informationen vorangehen muss. Wie im letzten Abschnitt gezeigt, ist dafür, dass wissenschaftliches Wissen für die Öffentlichkeit verständlich wird, eine Interpretation desselben nötig. Für eine solche müssen Experten Stellung beziehen. Zusätzlich wird nun aber noch gefordert, dass diese Positionierung transparent gemacht wird. Aus rein wissenschaftsethischen Erwägungen scheint Transparenz oberstes Gebot zu sein. Transparenz, so lautet die Annahme, schaffe eine wache und informierte Öffentlichkeit – die Voraussetzung für die Einhaltung moralischer Prinzipien. Die Geschichte der AIDS-Forschung ist daher ein gutes Beispiel für eine breite soziale Bewegung, die (1) sich die Informationen erschlossen hat und sich (2) auf Basis ihres erworbenen Wissens gegen die epistemischen und für die moralischen Interessen entschieden und damit die Forschung wesentlich verändert hat. Doch verschafft Transparenz einem wissenschaftlichen Statement (z.B. zu einer Studie oder Expertise) notwendigerweise Glaubwürdigkeit? Und wie hängt das wiederum mit den Prinzipien Shrader-Frechettes zusammen? Da sich aus wissenschaftsethischen Gründen das Erfordernis von Transparenz ergibt und Transparenz offenbar eine Voraussetzung für wissenschaftliche Glaubwürdigkeit ist, könnte man annehmen, dass wissenschaftliche Glaubwürdigkeit mit der wissenschaftsethisch begründeten Forderung nach Transparenz eng zusammenhänge. Zwar ist Glaubwürdigkeit selbst kein genuin moralischer, sondern ein sozialepistemologischer Wert, doch kann nur dann, wenn ein Resultat oder eine Prognose geglaubt wird, Bereitschaft entstehen, daraus entstehenden moralischen Forderungen nachzukommen, z.B. Verzicht zu leisten (seltener mit dem Auto zu fahren) oder bestimmte persönliche Nachteile in Kauf zu nehmen (indem man ein teureres, aber umweltschonenderes Produkt kauft). Dies geht auch aus Mertons normativem Kriterium hervor, das eigene Wissen mit anderen zu teilen, da andernfalls kein wissenschaftlicher Fortschritt möglich sei. Merton bezeichnet diese Verpflichtung als einen festen institutionellen Imperativ der Wissenschaft.96 Matthias Adam unterstreicht dies, indem er aus Shrader-Frechettes Überlegungen ableitet, dass Wissenschaftler die Pflicht haben, ihre Kompetenzen und ihr Wissen für die Gesellschaft einzusetzen. All das lässt

96 | Vgl. Merton 1973, S. 274.

70 | Die Glaubwürdigkeit der Wissenschaft

zunächst einmal annehmen, dass glaubwürdiges wissenschaftliches Wissen sich nur erzielen lässt, wenn bestimmte moralische Werte gewahrt bleiben.97 Der Zusammenhang von Moral und Glaubwürdigkeit lässt sich durch wissenschaftshistorische Beispiele wie die medizinischen Daten, die durch nationalsozialistische Experimente an Menschen gewonnen wurden, unterstreichen.98 Die Produktion dieser Daten hat offensichtlich jeglichen wissenschaftsethischen Standards widersprochen, dennoch wurden Daten aus Dachauer Unterkühlungsversuchen in medizinischen Studien der Nachkriegszeit zitiert, was zu heftigen Diskussionen führte. Interessant daran im hiesigen Kontext ist die Möglichkeit, dass die Daten nicht nur moralisch, sondern auch epistemisch fragwürdig sind, da sie politisch motiviert und ideologisch gefärbt sind. Hinsichtlich der moralischen Frage, ob die Daten verwendet werden sollten, gab es eine interessante Kontroverse zwischen Robert Martin und Arthur Schafer. Martin argumentiert, die Verwendung der bestehenden Daten sei insofern nicht moralisch verwerflich als niemand mehr dadurch zu Schaden komme; deshalb seien die Daten unter ethischen Gesichtspunkten – wenn auch unter epistemischem Vorbehalt – zu verwenden, zumal es die einzigen verfügbaren Daten dieser Art seien.99 Erst vor kurzem fand in Würzburg eine Tagung der Anatomischen Gesellschaft statt, bei der es um die Verwendung anatomischer Präparate aus der NS-Zeit bis heute ging. Viele Sammlungen in deutschen und österreichischen anatomischen Instituten sind bis heute nicht historisch erschlossen, es mangelt an Transparenz über die Herkunft ihrer Knochenpräparate und Histologie-Schnitte. Bislang gibt es nur Empfehlungen (1989 durch die Kultusministerkonferenz, 2003 durch die Bundesärztekammer) an die medizinischen Sammlungen, ihre Bestände systematisch historisch aufzuarbeiten. Bindende Vorgaben bestehen bislang jedoch nicht, und nur wenige haben sich freiwillig die Mühe gemacht, hier Nachforschungen anzustellen. Dabei ist dies, wie die Anatomin Sabine Hildebrandt feststellt, entscheidend, um ethische Standards zu definieren, die nicht von den kontingenten Bedingungen der jeweiligen Gesetzgebung abhängen. Sie plädiert ebenso wie Martin dafür, dass Daten oder Präparate aus der NS-Zeit weiter verwendet werden sollten, allerdings nur unter Transparentmachung

97 | Vgl. Adam 2008, S. 237; Shrader-Frechette 1994. 98 | Ein vergleichbares Beispiel liefern die Tuskegee-Syphilis-Studien, die zwischen 1932 und 1972 an der verarmten, schwarzen Landbevölkerung in Tuskegee, Alabama, von der USamerikanischen Gesundheitsbehörde durchgeführt worden sind. Die (überwiegend analphabetischen) Versuchspersonen wurden nicht über die Bedingungen der Versuche und die Krankheit selbst aufgeklärt und erhielten selbst nach Entdeckung des Penicillins keine Behandlung. 99 | Vgl. Martin 1986.

Wissenschaftliche Glaubwürdigkeit, Ethik und Transparenz | 71

ihrer Geschichte.100 Schafer hält diesem Argument, das er als einen faulen „best of both worlds“-Kompromiss bezeichnet, dessen Vertreter zwar die Amoral der Nazis verurteilen, aber dennoch von ihr profitieren wollen, entgegen, dass die wissenschaftliche Gemeinschaft durch die Verwendung solcher Daten (oder Präparate) die Verbrechen legitimiere, durch die diese Daten (oder Präparate) einst gewonnen worden sind.101 Schafers Argument beruht letztlich auf derselben Voraussetzung wie das juristische Beweiserhebungsverbot, durch das bestimmte Beweismittel oder -methoden unterbunden werden: Die Wahrheitsfindung wird hier dem Schutz der Moral untergeordnet, was zu der Situation führen kann, dass Daten, die einen Täter eindeutig belasten, nicht verwendet werden dürfen, und es zum Freispruch kommt. Dies ist nur scheinbar irrational, unter rechtsstaatlichen Aspekten ist das Beweiserhebungsverbot essentiell, und ebenso erscheint die Nichtverwendbarkeit unter ethisch fragwürdigen Bedingungen gewonnener wissenschaftlicher Daten essentiell zu sein, um wissenschaftliche (ethische wie epistemische) Standards zu sichern. An diesem Exkurs lässt sich erkennen, dass die Einhaltung wissenschaftsethischer Standards aus epistemischen Gründen nicht immer unbedingt notwendig ist – wie im Fall der anatomischen Präparate. Sie wird es allerdings, sobald theoretische Annahmen nicht nur die Gewinnung von Material, sondern auch seine Auswertung beeinflussen – so ist im Fall der Dachauer Daten die epistemische Qualität durchaus fragwürdig. Anders formuliert liegt ein entscheidender Unterschied zwischen den beiden Fällen darin begründet, dass die anatomischen Präparate lediglich Exponate sind, die zwar auf moralisch schlechte Weise gewonnen worden sind, dadurch jedoch nicht an epistemischer Qualität eingebüßt haben: ein Knochen ist ein Knochen. Die Dachauer Daten hingegen beruhen bereits auf ideologisch belasteten theoretischen Annahmen und können entsprechend verzerrt sein. Es lässt sich daher festhalten, dass nur ethisch einwandfreie Wissensproduktion, die natürlich zugleich epistemischen Standards genügen muss, zuverlässig verlässliches Wissen hervorbringen kann. Wenn sie jedoch nur epistemischen Standards genügt, dabei aber widersprüchlichen, (mindestens zum Teil) zweifelhaften moralischen Werten verpflichtet ist, kann sie unzuverlässig sein. Es ist allerdings zu beachten, dass die Einhaltung wissenschaftsethischer Standards allein noch nicht die Zuverlässigkeit unter ihnen produzierten Wissens garantiert; sie ist also hierfür notwendig, aber nicht hinreichend. Dennoch ist aufgrund der angestellten Überlegungen für die Gewährung wissenschaftlicher Glaubwürdigkeit die Einhaltung ethischer Standards

100 | Vgl. Pekus: Leichen im Keller. Süddeutsche Zeitung, 29. 9. 2010. 101 | Vgl. Schafer 1986.

72 | Die Glaubwürdigkeit der Wissenschaft

zu fordern. Die sich nun unmittelbar anschließende Frage ist, inwiefern Transparenz dabei hilfreich ist. Zu Recht weist Philip Kitcher darauf hin, dass hinreichende Informationen nicht unbedingt zu frei informierter Meinungsbildung führen, weil dazu noch andere, außerhalb des wissenschaftlichen Systems liegende Voraussetzungen gegeben sein müssen, insbesondere ein umfassendes Verständnis der Begriffe von Freiheit und Gleichheit. Solange ein reduzierter oder verdrehter Freiheitsbegriff im allgemeinen Denken vorherrscht, der die Grundauffassung stützt, dass, salopp gesprochen, manche eben doch gleicher seien als andere (was in den bestehenden Demokratien durchaus zu beobachten ist), steht die Artikulation aller bestehenden wissenschaftlichen Dispute nach außen sowohl dem wissenschaftlichen Fortschritt als auch moralischen oder sozialen Interessen eher im Wege. Zu viele Interessengruppen versuchen ihren Einfluss geltend zu machen, indem sie die Forschung gerade glaubwürdigkeitsrelevanter Forschungsbereiche für ihre Zwecke einzuspannen versuchen. Genau diese Problematik hat vor und nach „Climategate“ der Klimaforschung besonders geschadet: Denn die durchaus gegebene Transparentmachung von Unsicherheiten und Debatten hat keinesfalls dazu geführt, dass eine wohlinformierte Öffentlichkeit sich ihre Meinung frei bilden konnte und so Vertrauen in die Klimaforschung gefasst hat. Das grundlegende Problem ist nach Kitcher, dass ein Großteil der Menschheit einen stark eingeschränkten Zugang zu den Wissensquellen hat, die für seine Interessen relevant sind. Die eigenen Interessen zu verfolgen und zugleich die Interessen anderer (auch die nachfolgender Generationen) nicht zu beschränken, stellt nach Mill (und Kitcher) die einzige Form von Freiheit dar, die diesen Namen verdient.102 Die auf den ersten Blick überzeugende Forderung Shrader-Frechettes nach größtmöglicher Transparenz erweist sich also als problematisch, da Transparenz in glaubwürdigkeitsrelevanten Forschungsbereichen, in denen viele Interessengruppen ihre Süppchen kochen, durchaus ein verzerrtes Bild der tatsächlichen epistemischen Situation erzeugen kann. Kitcher fordert deshalb für solche Fälle Mittelsinstanzen zwischen Wissenschaft und Öffentlichkeit, die einen Konsens schaffen, so gut es auf der Basis jeweils bestehender Unsicherheiten eben möglich sei; dieser Konsens sei dann geschlossen nach außen zu vertreten, andernfalls drohe ein Verlust wissenschaftlicher Autorität. Solche Mittelsinstanzen setzen sich aus wohl-informierten Deliberatoren zusammen, die in Funktion und moralischer Verpflichtung den Expertenintellektuellen entsprechen.103

102 | Vgl. Kitcher 2011, §11 und §31. 103 | Vgl. Kitcher 2011; siehe auch die Abschnitte 2.2.5 und 3.8.

Expertenintellektuelle in der Klimaforschung | 73

Zum einen ergibt sich also ein individuelles normatives Erfordernis nach Übernahme von Verantwortung: Experten, die sich bezüglich ihrer Arbeit öffentlich zu Wort melden, sollten die eigene Werteposition deutlich und auch die mögliche Berechtigung von Gegenpositionen kenntlich machen. Hier ergibt sich jedoch, wie gezeigt wurde, ein Problem: Explizit moralisches oder politisches Verhalten, bei dem Wissenschaftler alle Unsicherheiten und daraus resultierenden Werturteile transparent machen, gerät in Konflikte, wenn einige aufrichtig sind, andere aber nicht. Schnell wird dann seriösen Wissenschaftlern Glaubwürdigkeit abgesprochen wird, zumal ihr (eigentlich korrektes) Verhalten, die persönlichen Einschätzungen offenzulegen und zu begründen, den Erwartungen der Öffentlichkeit entgegensteht, welche nach wie vor von der Überzeugung geprägt sind, dass wissenschaftliches Arbeiten objektiv im Sinne von wertfrei zu sein habe. Treten nun Skeptiker mit dem Habitus eines aufrechten Wissenschaftlers auf, der die Arbeit der Kollegen als große Verschwörung enttarnt, geraten im Gegenzug gerade die redlichen Wissenschaftler, die Transparenz über die moralischen oder politischen Hintergrundannahmen ihrer Position schaffen möchten, erstaunlich schnell unter Beschuss.104 Aus diesem Problem ergibt sich zum anderen ein strukturelles Transparenzerfordernis: Vermittelnde Instanzen (wie z.B. das IPCC) sollten die tatsächliche epistemische Situation im Moment der Stellungnahme erläutern, so dass der Öffentlichkeit ein einheitliches Bild von der epistemischen Situation zur Verfügung gestellt wird, das nicht durch laute Einzelstimmen verzerrt ist. Auf die sich hier ergebenden Probleme wird in den Kapiteln 3 und 4 noch detailliert eingegangen. Im Folgenden wird an den beispielhaften Debatten um die Vertrauenswürdigkeit einzelner Klimaforscher die Problematik beleuchtet.

2.2.7 Expertenintellektuelle in der Klimaforschung In der „Glaubwürdigkeitskrise der Klimaforschung“, die in den Massenmedien seit „Climategate“ ausgerufen worden ist, sind das IPCC als Institution sowie einzelne Klimaforscher in den Fokus der Kritik geraten. Insbesondere der Vorsitzende des IPCC, Rajendra Pachauri, wurde (auch aus den eigenen Reihen) scharf kritisiert. Zum einen betreibt Pachauri neben seiner Arbeit als IPCC-Vorsitzender hochbezahlte wissenschaftliche Unternehmensberatung für Konzerne wie Toyota oder die Deutsche Bank. Zum zweiten hat er sich in der „Climategate“-Affäre ungeschickt verhalten: Zunächst hat er den Fall als unproblematisch klassifiziert, dann doch eine genaue Prüfung angekündigt und letztlich abermals seine Meinung revidiert, dass eine Un-

104 | Vgl. hierzu auch Kitcher 2011, §3 und §41.

74 | Die Glaubwürdigkeit der Wissenschaft

tersuchung des Falls notwendig sei. Zum dritten wird ihm vorgeworfen, die Aufdeckung des Gletscher-Zahlendrehers bewusst zurückgehalten zu haben, bis sein Antrag eines Forschungsprojekts über die Gletscherschmelze im Himalaya, der maßgeblich auf der falschen Prognose aufgebaut war, bewilligt wäre. Der Fehler war vor Veröffentlichung des Berichts, im zweiten Begutachtungsverfahren, dem Schweizer Gletscherexperten Georg Kaser aufgefallen und erschien trotzdem in der endgültigen Druckversion (vgl. Abschnitt 4.2). In der Folge ist von verschiedenen Seiten der Rücktritt Pachauris gefordert worden, u.a. von Roger Pielke, Hans von Storch sowie dem Vorsitzenden der LeibnizGesellschaft, Ernst Rietschel, was in den Medien ein erwartbares Echo fand: Es bedürfe ganz offensichtlich einer umfassenden Reform der Organisation des IPCC, um dessen Glaubwürdigkeit wieder herzustellen, und dazu gehöre der Rücktritt Pachauris, da dieser sich seiner Verantwortung nicht bewusst sei. Pachauri verweigert sich dieser Forderung allerdings hartnäckig. In Science gab er kurz nach „Climategate“ ein Interview, in dem er in trotzigem Ton die Position bezog, dass seine Beratungstätigkeit, die er als Vorsitzender seines Energy and Resources Institute leiste, unabhängig von seinem Posten als Vorsitzender des IPCC sei. Hier entstehe also kein Konflikt. Hingegen habe es sich bei der Veröffentlichung der Emails um nichts als eine Indiskretion gehandelt, die keinerlei wissenschaftliche, sondern allenfalls menschliche Schwächen der Forscher aufdecke. Der Gletscher-Zahlendreher habe allein aufgrund einer Nichteinhaltung der etablierten Publikationsprozeduren entstehen können. Er, Pachauri, sehe daher keinen Anlass für einen Rücktritt und habe fest vor, den Vorsitz bis zum fünften Sachstandsbericht, der 2014 erscheinen soll, zu behalten.105 Pachauris Verhalten, insbesondere das Zurückhalten des Fehlers (falls dies tatsächlich stimmen sollte) und seine unklare Haltung im „Climategate“-Skandal, stehen allerdings den wissenschaftsethischen Anforderungen an Expertenintellektuelle entgegen. Er handelt im Sinne widersprüchlicher Interessen und zieht aus Fehlern nicht die erforderlichen Konsequenzen. Folglich handelt er unverantwortlich und gerät so zu Recht in die Kritik der Öffentlichkeit und seiner Kollegen. Doch gibt es noch eine Reihe anderer Experten, die auf dieselbe Weise kritisiert werden – allerdings ohne Grund. Einer von ihnen ist der IPCC-Mitarbeiter Phil Jones von der University of East Anglia, dessen Emailverkehr gehackt und veröffentlicht worden ist und dessen Ruf in der Folge schwer gelitten hat; er ist so unfreiwillig in die Situation geraten, seine Arbeit öffentlich rechtfertigen zu müssen. Ihm werden zwei Dinge vorgeworfen: Erstens, dass er von einem „Trick“ spricht, mit dem er Daten so bearbeitet habe,

105 | Vgl. Pachauri 2010.

Expertenintellektuelle in der Klimaforschung | 75

dass die jüngsten Temperaturmessungen, die eine Abkühlung verzeichnen, den Trend zur Erwärmung nicht entstellten, sondern die berühmte Hockeyschlägerkurve Michael Manns bestätigten.106 Dass es sich hierbei um ein zulässiges Verfahren der Datenglättung handelt, wird jedoch von einer unabhängigen Gutachtergruppe bestätigt.107 Zweitens hat Jones mit seinen Kollegen darüber diskutiert, wie ein Artikel, der dem Sachstandsbericht zuwider lief, aus dem Bericht herauszuhalten sei; vor allem von Storch, so lässt sich den Emails entnehmen, plädierte dafür, widersprüchliche Forschung einzubeziehen, um die Diskussion anzuregen. Dass sich im Nachhinein herausstellt, dass diese Veröffentlichung, wie Jones und seine Kollegen bereits vermutet hatten, nicht begutachtet und fachlich nicht haltbar war, dass es sich, wie Tom Wigley schreibt, um „junk science (i.e., not science at all)“108 handelte, wird den britischen Klimatologen nicht angerechnet. Auch wenn es richtig gewesen sei, dass die Studie nicht in den Bericht gelangt sei, sei das Verhalten der Klimaforscher doch fragwürdig gewesen.109 Philip Kitcher stellt dagegen fest, dass das eigentliche Problem bei „Climategate“ ein ganz anderes gewesen ist: Private Emails, in denen Forscher sich negativ über Konkurrenten ausließen, sind hier nicht in den Kontext normaler gegenwärtiger Wissenschaft gestellt worden, die nun einmal von Konkurrenz und Kooperation wesentlich geprägt ist. So ist die Verwendung des „Tricks“ als Täuschung der Öffentlichkeit interpretiert worden und nicht als Methode, eine Konklusion grafisch deutlich zu präsentieren. Man sehe hier nur, dass Wissenschaftler Werturteile treffen; da aber das traditionelle Ideal wertfreier Wissenschaft noch immer das allgemeine Wissenschaftsverständnis präge, begännen, so Kitcher, unmittelbar Glaubwürdigkeitsdebatten.110 Dasselbe Problem hat der Klimaforscher James Hansen, der schon früh vor den Folgen der globalen Erwärmung öffentlich gewarnt hat und seit den frühen 1980er Jahren den Ausbau der Klimaforschung fordert. Hier müsse investiert werden, um möglichst rasch mehr Klarheit zu gewinnen. Es sei offensichtlich, dass ein Zusammenhang zwischen CO2 und globaler Erwärmung bestehe, doch wie genau die Zusammenhänge aussähen, sei unklar, und die Folgen seien unabsehbar. Über Auswir-

106 | Die Hockeyschlägerkurve zeigt, dass die globale Temperatur seit dem Jahr 1000 konstant verläuft und erst ab 1900 plötzlich stark ansteigt, so dass der Graph die Form eines Hockeyschlägers annimmt. 107 | Vgl. Anhang 1. Für das Gutachten siehe Russell 2010. 108 | Vgl. Anhang 2. 109 | Vgl. Russell 2010. 110 | Vgl. Kitcher 2010, sowie ders. 2011, §3, §26, §27 und §40.

76 | Die Glaubwürdigkeit der Wissenschaft

kungen auf Ernteertäge, Entwicklungen verschiedener Ökosysteme und insbesondere den Anstieg des Meeresspiegels wisse man längst nicht genug.111 Allerdings überschreitet Hansen in seinem Engagement mitunter die (zuweilen sicherlich vage) Grenze zwischen intellektueller Positionierung und Aktivismus. Dies kommt schon dadurch zum Ausdruck, dass er sich selbst als „objective scientist“ bezeichnet, der „die Wahrheit“ über die „bevorstehende Klimakatastrophe“ sage.112 Damit möchte er seinen Aussagen Autorität verleihen, indem er ihre Glaubwürdigkeit betont, erreicht allerdings genau das Gegenteil: Er macht sich angreifbar. Gerade wegen seines direkten Engagements ist er von Beginn an ein zentrales Zielobjekt von Klimaskeptikern. Doch ist ihm dies, trotz seiner sehr direkten Art, nicht unbedingt anzulasten; es darf als wahrscheinlich gelten, dass ihm ein vorsichtigeres Verhalten wenig nützen würde. Auch zurückhaltendere Klimaforscher werden schnell auf ähnliche Weise wie Hansen diskreditiert – die Diskussionen in Internet-Foren und -Blogs geben darüber Auskunft. Kitcher ironisiert das hier in vielen Varianten vorgebrachte Argument der Skeptiker: „Global warming is a device used by Birkenstockwearing, tree-hugging, business-hating liberal intellectuals for advancing their political aims.“113 Hans-Joachim Schellnhuber, Leiter des Potsdam-Instituts für Klimafolgenforschung, gerät dadurch in die Bredouille. Er setzt zwar die Problematik wertbasierter Entscheidungen deutlich auseinander: „Natürlich sind die Aussagen der Klimafolgenforschung weniger belastbar, als es wünschenswert wäre [...]. Aber wir können den Regierenden ja schlecht 10.000 Studien aus ‚Science‘ und ‚Nature‘ auf den Tisch knallen [...]. Wir müssen als Fachleute versuchen, die Vielzahl der Analysen zu plausiblen Szenarien zu verdichten.“114 Doch ist er sich offenbar des ihm daraus drohenden Glaubwürdigkeitsverlusts bewusst, denn um sein Zugeständnis zu neutralisieren, fordert er stets lautstark, die Politik müsse sich aus der Klimaforschung raushalten,115 und distanziert sich im Spiegel explizit vom „Gutmenschenimage“, um objektiv und glaubwürdig zu erscheinen: „Ich marschiere auf keiner Demo mit, bin nicht Mitglied bei den Grünen, ich esse gern Fleisch und fahre BMW.“116 Dass diese Aussage dazu

111 | Vgl. Hansen et al. 1981. 112 | Vgl. Hansen 2009, insbesondere S. 211. 113 | Kitcher 2010, S. 1233. 114 | Evers et al.: Die Wolkenschieber. Der Spiegel, 29. 3. 2010. 115 | Vgl. Schellnhuber: Die Politik muss sich aus der Klimaforschung raushalten. Süddeutsche Zeitung, 13./14. 2. 2010. Sowie ders.: Wir brauchen im Klimaschutz Mehrheitsentscheidungen. Frankfurter Allgemeine Zeitung, 29. 11. 2010. 116 | Zit. nach Evers et al.: Die Wolkenschieber. Der Spiegel, 29. 3. 2010.

Pathologische Wissenschaft und Druck in der Gemeinschaft | 77

dienen soll, Schellnhuber als Wissenschaftler glaubwürdig erscheinen zu lassen, ist schon an sich seltsam. Doch vielmehr noch ist dies geradezu paradox, denn Schellnhuber möchte damit die Wertfreiheit seiner Arbeit verdeutlichen; doch tut er dies unter Berufung auf Werte. Hier zeigt sich deutlich ein Problem, das sich für Wissenschaftler in glaubwürdigkeitsrelevanten Bereichen ergibt: Einerseits besteht die Notwendigkeit, dass sie Verantwortung übernehmen und bestimmte Werte vertreten, andererseits wird ihnen Glaubwürdigkeit oft genau dann abgesprochen, wenn sie dies tun. Letztlich kann man – mit Ausnahme von Pachauri – keinem dieser Wissenschaftler begründeterweise irgendetwas vorwerfen. Für Pachauri stellt sich die Glaubwürdigkeitsfrage tatsächlich, da er die Veröffentlichung von Fehlern anscheinend zurückgehalten hat, sich nicht klar positioniert und Konzernen zuarbeitet, deren Interessen Klimaschutzmaßnahmen entgegenstehen. Entsprechend meldete eine eigens für das IPCC eingesetzte UNGutachtergruppe (IAC) gegenwärtig Bedarf an einer rigorosen InteressenkonfliktRichtline für die hochrangigen Führungspositionen des IPCC angemeldet.117 Für Jones und Hansen dagegen entstehen hier Probleme, die die Antiquiertheit des Wertfreiheitsideals sichtbar machen. Die strukturelle Beschaffenheit dieses Wertfreiheitsideals und seine wissenschaftstheoretische Bewertung wird in Abschnitt 2.3.6 noch genauer untersucht. Zuvor noch wende ich mich den innerwissenschaftlichen Strukturen zu, die für wissenschaftliche Glaubwürdigkeit entscheidend sind.

2.3.1 Pathologische Wissenschaft und Druck in der Gemeinschaft Der Physiker Irving Langmuir hat einem sehr speziellen wissenschaftlichen Phänomen besondere Aufmerksamkeit gewidmet, das er als Pathological Science bezeichnet. Pathologische Wissenschaft soll hier als radikale Form eines der traditionellen Hauptprobleme der Wissenschaftstheorie, der Theoriebeladenheit, behandelt werden. Es zeigt sich daran, wie soziale Isolation in der Wissenschaft Unzuverlässigkeit erzeugen kann. Was sich an pathologischer Wissenschaft allerdings auch zeigt, ist, dass pathologisches Festhalten an nicht evidenten Überzeugungen schnell auffällt und sich nicht durchsetzt. Dies entzieht, wie sich zeigen wird, radikalem Wissenschaftsskeptizismus eine wichtige Grundlage. Als Beispiel solch pathologischer Forschung sei hier Goethes Farbenlehre genannt. Goethe entwickelte diese mit großem Aufwand gegen die zu seiner Zeit bereits seit hundert Jahren allgemein anerkannte subtraktive Farbenlehre Newtons und

117 | Vgl. IAC 2010, S. 46.

78 | Die Glaubwürdigkeit der Wissenschaft

war von ihr durch nichts mehr abzubringen. Newton hatte mittels des bekannten Experimentum Crucis, bei dem er mit zwei Prismen einen Lichtstrahl erst brach, um dann das reine weiße Licht erneut durch ein Prisma zu leiten, was keine weitere Brechung ergab, gezeigt, dass das Instrument (das Prisma) die Farbe nicht produziert, sondern analysiert, dass also alle mittels Prisma erzeugten Farben bereits im normalen Licht enthalten sind.118 Im Gegensatz dazu hielt Goethe an der Vorstellung fest, dass Licht „das einfache, unzerlegteste, homogenste Wesen“ sei, „nicht zusammengesetzt“, dass „Inflexion, Refraktion und Reflexion [...] drei Bedingungen“ seien, „unter denen wir oft apparente Farben erblicken, aber alle drei sind mehr Gelegenheit zur Erscheinung, als Ursache derselben“; „[w]eder aus apparenten Farben“ könne „farbloses Licht noch aus farbigen Pigmenten ein weißes zusammengesetzt werden.“ Alle bekannten Experimente seien „falsch oder falsch angewendet“.119 Dass Goethe bis zu seinem Tod an dieser Farbenlehre festhielt, obwohl er mit ihr allein dastand, weist darauf hin, wie fest er von seiner Theorie überzeugt war. „Auf alles, was ich als Poet geleistet habe“, äußert er sich gegenüber Johann Peter Eckermann, „bilde ich mir gar nichts ein. [...] Daß ich aber in meinem Jahrhundert in der schwierigen Wissenschaft der Farbenlehre der einzige bin, der das Rechte weiß, darauf tue ich mir etwas zugute, und ich habe daher ein Bewußtsein der Superiorität über viele.“120 Dass nach und nach alle Zeitgenossen den physikalischen Wert seiner Theorie bestreiten, provoziert zunächst seinen Spott: „Es freut mich, dass meine Farbenlehre als Zankapfel die gute Wirkung tut. Meine Gegner schmatzen daran herum, wie Karpfen an einem großen Apfel den man ihnen in den Teich wirft.“121 Später schlägt jedoch sein Kampfgeist in Betrübnis um: „Wenn die Herren vom Fach sie [die Farbenlehre] ablehnen und verrufen, so ist es natürlich; sie müssen dem Borstbesen fluchen, der ihre Gespinste bedroht. Daß aber vorzügliche, gute, wohlsinnige Männer, jüngere und ältere, die mit Eifer und Überzeugung daran gingen, doch gar bald an gewissen Punkten stockten und stecken blieben, musste mir auffallen. Ich sah’s mit Bedauern.“122 Bedauern führt hier allerdings nicht zu Einsicht, sondern bloß zu Selbstmitleid und Verbitterung: „Ich werde allein bleiben! – Ich komme mir vor wie ein Mann in einem Schiffbruch, der ein Brett ergreift, das nur einen einzigen zu tragen imstande ist. Die-

118 | Vgl. Carrier 2006, S. 25-26. 119 | Goethe, Resultate meiner Erfahrungen, 15. 7. 1793. In: Goethe 1991, S. 107. 120 | Goethe an Eckermann, 19. 2. 1829. In: Goethe 1991, S. 576. 121 | Goethe an Friedrich August Wolf, 28. 9. 1811. In: Goethe 1991, S. 572. 122 | Goethe an Ernst Heinrich Friedrich Meyer, 23. 4. 1829. In: Goethe 1991, S. 577.

Pathologische Wissenschaft und Druck in der Gemeinschaft | 79

ser rettet sich, während alle übrigen jämmerlich ersaufen.“123 Keinesfalls aber bringt ihn seine Isolation in Sachen Farbenlehre zur Einsicht. Trotz widersprüchlicher Belege und den Einwänden aller Kollegen die Überzeugung aufrechtzuerhalten, man habe eine korrekte Theorie entwickelt, deutet Langmuir als ein grundlegendes Charakteristikum pathologischer Wissenschaft: „If things were doubtful at all, why, they [the pathological scientists] would discard them or not discard them depending on whether or not they fit the theory.“124 Er nennt sechs typische Charakteristika pathologischer Forschungsprojekte: 1. Das Ergebnis ist unabhängig von der Intensität der Ursache. 2. Widersprüchliche Daten werden als zweifelhaft eingestuft und verworfen (deshalb werden gerne auch Beobachtungsgegenstände als Basis einer pathologischen Theorie gewählt, die kaum sichtbar sind). 3. Es handelt sich meist um Theorien von großer Spezifität. 4. Häufig sind die Hypothesen eher fantastisch als vernünftig. 5. Kritischen Einwänden wird durch Ad hoc-Ausreden begegnet. 6. Da die Ergebnisse nur von Anhängern und nicht von Kritikern der Theorie reproduziert werden können, sinkt die Zahl ihrer Anhänger – anfänglich wegen des Überraschungseffekts der Theorie meist sehr hoch (an die 50 Prozent der Wissenschaftler des entsprechenden Fachgebiets) – rasch wieder, und die Theorie gerät in Vergessenheit.125 Als Beispiel für pathologische Wissenschaft zieht Langmuir unter anderem die namentlich an die Röntgenstrahlen (engl. X-rays) angelehnten N-Strahlen (N-rays) heran, die der französische Physiker René-Prosper Blondlot entdeckt zu haben glaubte. Sie sollten eine völlig neuartige Entdeckung sein, Strahlen, die von heißem Aluminiumdraht oder ähnlich stark erhitzbarem Material abgegeben würden, keinen allgemeinen physikalischen Gesetzen folgten und nur sichtbar seien, wenn sie zusammen mit normalem Licht auf ein Blatt Papier träfen. Für die Beobachtung sei, so Blondlot besonderes Geschick nötig. Als der amerikanische Experimentalphysiker Robert Williams Wood sich die N-Strahlen vorführen ließ, war er nicht überzeugt:

123 | Goethe an Eckermann, 10. 2. 1830. In: Goethe 1991, S. 577-578. 124 | Langmuir 1989, S. 44. 125 | Vgl. Langmuir 1989, S. 44.

80 | Die Glaubwürdigkeit der Wissenschaft

„How? How can you, from just the optics of the thing, with slits 2 mm wide, how can you get a beam so fine that you can detect its position to within a tenth of a millimeter?“ [he said and asked Blondlot] [. . . ] to repeat some of these measurements, which he [Blondlot] was only too glad to do. But in the meantime, the room being very dark, R. W. Wood put the prism in his pocket and the results checked perfectly with what [Blondlot] had before. Well, Wood rather cruelly published that. And that was the end of Blondlot.126 Langmuir subsumiert unter pathologischer Wissenschaft Fälle von Fehlforschung, die nicht auf Unehrlichkeit beruhen, sondern bei denen Wissenschaftler zu falschen Überzeugungen gelangen, weil es ihnen schlicht am Verständnis dafür mangelt, wie sehr Menschen durch persönliche Überzeugungen oder Wünsche getäuscht werden können.127 In den hiesigen Kontext übertragen bedeutet das, dass die epistemologischen Begriffe von Ursache (Evidenz) und Wirkung (Einsicht) unabsichtlich vertauscht werden: Nicht die Rechtfertigung bringt die Überzeugung hervor, sondern die Überzeugung die Rechtfertigung, und zwar trotz widersprüchlicher Daten – eine Umkehrung, die Primo Levi im Periodischen System mit der selbstironischen Bemerkung bedenkt: „Nichts wirkt belebender als eine Hypothese.“128 Was Langmuir als Phänomen pathologischer Fälle zusammengetragen hat, fällt unter das Problem der „Scheinevidenz“, bei der man fest glaubt, etwas zu sehen, das in Wirklichkeit gar nicht existiert.129 Das Problem pathologischer Wissenschaft ist dabei nicht so selten und aus der Luft gegriffen, wie man zunächst annehmen könnte. Das Beispiel von Goethes Farbenlehre mag noch obskur wirken, doch gerade in Bereichen, in denen starke politische oder moralische Überzeugungen vorherrschen, lassen sich erschreckende Fälle pathologischer Verirrungen finden. Die Geschichte der anthropologischen Rassenlehre weist beispielsweise neben vielen Fällen, in denen absichtlich Daten verdreht wurden, um Überzeugungen aufrecht erhalten zu können, auch Fälle echter Verblendung auf.130

126 | Langmuir 1989, S. 43. 127 | Vgl. Langmuir 1989, S. 43. Dies entspricht der Goldmanschen Einschätzung, dass „[i]nterests and biases can exert more subtle distorting influences on experts’ opinions, so that their opinions are less likely to be accurate even if sincere.“ (Goldman 2001, S. 104. Meine Hervorhebungen) 128 | Levi 1991, S. 85. 129 | Vgl. Stegmüller 1954, S. 100 und 113-115. 130 | Vgl. Gould 1981. Ich greife dieses Beispiel in Abschnitt 2.3.5.2 noch einmal auf.

Pathologische Wissenschaft und Druck in der Gemeinschaft | 81

Langmuirs Kriterien sind allerdings als eindeutiges Beurteilungsschema von Außenseiterpositionen problematisch, da Hartnäckigkeit gegenüber Widerständen sowohl der Zeitgenossen als auch des untersuchten Objekts zwar zum Festhalten an falschen Überzeugungen, Isolation und Scheitern führen kann, sich aber umgekehrt auch Beispiele finden lassen, bei denen sie zu richtigen Ergebnissen und auf Dauer zum Erfolg geführt hat. Bleibt man bei Goethe, bietet sich seine Entdeckung des menschlichen Zwischenkieferknochens an, die bedeutsam für die Evolutionstheorie war. Gegen die Überzeugungen führender zeitgenössischer Fachgelehrter stellte Goethe ehrgeizige Forschungen an Schädelknochen an und bestand danach auf der Feststellung, dass sich beim Menschen während der frühen Embryonalentwicklung der sogenannte Zwischenkieferknochen, os intermaxillare, finden lasse.131 Dieser finde sich auch bei allen Wirbeltieren, was zeige [...] daß man nämlich den Unterschied des Menschen vom Tier in nichts einzelnem finden könne. Vielmehr ist der Mensch aufs nächste mit den Tieren verwandt. Die Übereinstimmung des Ganzen macht ein jedes Geschöpf zu dem, was es ist, und der Mensch ist Mensch sogut durch die Gestalt und Natur seiner obern Kinnlade, als durch Gestalt und Natur des letzten Gliedes seiner kleinen Zehe Mensch. Und so ist wieder jede Kreatur nur ein Ton eine Schattierung einer großen Harmonie, die man auch im ganzen und großen studieren muß sonst ist jedes einzelne ein toter Buchstabe. Aus diesem Gesichtspunkte ist diese kleine Schrift geschrieben, und das ist eigentlich das Interesse, das darinne verborgen liegt.132 Für die Veröffentlichung dieser kleinen Schrift muss Goethe allerdings selbst sorgen. Die Existenz des Zwischenkieferknochens beim Menschen wird zu seiner Zeit bestritten, denn eine Anerkennung dieser Entdeckung würde, wie Goethe selbst schreibt, die These stützen, dass der Mensch sich von den Säugetieren nicht wesentlich unterscheidet. Dies stößt auf die massive Ablehnung der wissenschaftlichen Kapazitäten seiner Zeit, was Goethe so verunsichert, dass er die Veröffentlichung seiner Ergebnisse lange zurückhält. Erst 1820, als sich der Erkenntnisstand in der vergleichenden Anatomie und Paläontologie grundlegend gewandelt hat, kommt die Herausgabe zustande.133

131 | Später verwächst er so, dass er nicht mehr erkennbar ist. Vgl. Goethe 1784/1786, S. 21. 132 | Goethe an Knebel am 17. 11. 1784, zit. nach Becker 1999, S. 24. 133 | Vgl. hierzu Leuschner 2007, Bd. 3, S. 622f., bes. FN 9, S. 623; ebd. Bd. 4, FN 30, S. 107; ebd. Bd. 5, S. 58f.

82 | Die Glaubwürdigkeit der Wissenschaft

So schreibt der niederländische Mediziner Pieter Camper noch am 19. September 1785 an Johann Heinrich Merck: „[...] anschließend habe ich als erstes an einer gewissen Anzahl von Kieferknochen bei Embryonen und Neugeborenen, auch Kleinkindern, besonders drei- und vierjährigen, genau untersucht, wie der Knochen beschaffen ist, bei dem der Autor [Goethe] so hübsch den Zwischenkieferknochen vorgeführt hat. Ich finde ihn aber nicht und werde weiterhin behaupten, daß er bei uns Menschen nicht vorhanden ist.“134 Und am 17. Oktober 1785 schreibt er an seinen Sohn Adriaan: „Ich habe die [...] Ehre, diesen Gelehrten [Goethe] durch seine ausgezeichneten moralischen Veröffentlichungen, seine Tragödien, Dramen und Lehrfabeln zu kennen. Von unserem Freund Merck weiß ich, daß er alle alten und neuen Dichter kennt, aber daß womöglich seine Kenntnisse auf dem Gebiet der Anatomie und der Medizin mittelmäßig sind und daß er sich vielleicht besser nicht eingemischt hätte.“135 Doch in diesem Fall hat Goethe recht, und seine Kollegen vom Fach liegen falsch. Zu dieser Art von Verkennung hat sich Moritz Schlick im Rahmen der Protokollsatzdebatte geäußert. Was, so fragt er, sich in die Position des Isolierten hineinversetzend, wenn die Aussagen aller übrigen Menschen über die Welt in keiner Weise die eigenen Beobachtungen bestätigen würden? Nun, ich würde unter gar keinen Umständen meine eigenen Beobachtungssätze aufgeben, sondern ich finde, daß ich nur ein Erkenntnissystem annehmen kann, in welches sie unverstümmelt hineinpassen. Und ein solches könnte ich auch stets konstruieren. Ich brauche nur die anderen Menschen als träumende Narren anzusehen [...]. Auf jeden Fall würde ich, welches Weltbild ich auch konstruiere, seine Wahrheit immer nur an der eigenen Erfahrung prüfen; diesen Halt würde ich mir niemals rauben lassen, meine eigenen Beobachtungssätze würden immer das letzte Kriterium sein.136 Dass eine solche Haltung nicht per se unproblematisch ist, dürfte klar geworden sein. So können pathologische Verirrungen in glaubwürdigkeitsrelevanten Wissenschaften große Probleme verursachen, denn ein isolierter Wissenschaftler, der behauptet, alle anderen seien verblendet, kann damit ebenso gut recht wie unrecht haben. So kann es sein, dass er tatsächlich als einziger auf einen wichtigen Punkt hinweist, den alle anderen nicht erkennen oder zu erkennen vorgeben (wie Goethe im Fall des Zwi-

134 | Zit. nach Leuschner 2007, Bd. 4, S. 119. 135 | Zit. nach Leuschner 2007, Bd. 4, FN 5, S. 122. 136 | Schlick 1969, S. 302.

Theoriebeladenheit der Beobachtung | 83

schenkieferknochens); es kann aber auch sein, dass er sich als einziger verannt hat (wie Goethe im Fall der Farbenlehre). Doch wie soll der eine Fall vom anderen prinzipiell unterschieden werden? Schon die Protokollsatzdebatte ist hieran gescheitert. Offenbar ist eine prinzipielle Unterscheidung dieser beiden Fälle gar nicht möglich. Allerdings soll Langmuirs Feststellung betont werden, dass pathologische Ansätze meist schnell isoliert dastehen, ein tatsächlich pathologischer Ansatz sich also auf Dauer unter der Kritik von Kollegen und hinsichtlich der verfügbaren Evidenz nicht durchsetzen kann – und angesichts dessen möchte ich Schlicks Standpunkt ausdrücklich unterstützen. Im Folgenden werde ich nun aber zeigen, dass glaubwürdigkeitsrelevante Wissenschaften wie die Klimaforschung nicht nur durch die Möglichkeit pathologischer Blindheit in Schwierigkeiten geraten können, sondern auch ganz allgemein durch die Theoriebeladenheit von Beobachtung.

2.3.2 Theoriebeladenheit der Beobachtung Wenn man etwas beobachtet, das niemand sonst erkennt oder zu erkennen vorgibt, steht man vor der Frage, ob man möglicherweise falsch beobachtet, voreingenommen oder befangen ist. Die Beispiele von Goethes Farbenlehre und dem menschlichen Zwischenkieferknochen aus dem vorangegangenen Abschnitt unterscheiden sich grundlegend dadurch, dass Goethe im ersten Fall unrecht, im zweiten recht hat. Beiden gemeinsam ist die Voraussetzung von Goethes Isolation: Er sieht etwas, das alle anderen nicht sehen. Möchte man dieses Phänomen erklären, landet man (wenn man pathologische Fälle oder Sonderfälle vernachlässigt, in denen jemand etwas aufgrund biologischer Besonderheit137 wahrnimmt, das alle anderen nicht wahrnehmen), beim Phänomen der Theoriebeladenheit von Beobachtung. Diese betrifft im Folgenden solche Fälle, in denen aufgrund bestimmten Vorwissens oder bestimmter Vorannahmen etwas erkannt oder vermeintlich erkannt wird. Die Beschaffenheit theoriebeladener Wahrnehmung und Erkenntnis lässt sich gut durch Kippfiguren (Abbildung 3) oder Suchbilder (Abbildung 4) veranschaulichen.138 So liefert z.B. ein Neckerwürfel (Abbildung 3) durch verschiedene Interpretationen derselben zwölf Linien zwei verschiedene Würfelperspektiven; aus Gewohnheit (da man mehr Dinge von von oben statt von unten ansieht) nimmt man in der Regel zunächst an, die linke untere Würfelecke sei die vordere. Die Wahrnehmung kann jedoch bei genauerer Betrachtung perspektivisch umkippen und eine Würfelfigur von unten erkennen lassen – dies erfordert in aller Regel aber nicht nur das Vorwissen,

137 | Hier ließe sich z.B. an Synästhesie denken. 138 | Vgl. Adam 2002.

84 | Die Glaubwürdigkeit der Wissenschaft

dass ein Perspektivenwechsel möglich ist, sondern auch die Bereitschaft und die Fähigkeit, den Perspektivenwechsel zu vollziehen.

Abbildung 3: Kippfigur Neckerwürfel.

Abbildung 4: Suchbild. 139

An Suchbildern lässt sich ein weiteres Phänomen veranschaulichen: Man kann, nachdem man einmal das Motiv in den vorerst sinnlos erscheinenden Rastern oder Farbflächen erkannt hat, nicht mehr anders, als dort nur mehr genau dieses Motiv zu sehen. Voraussetzung ist dabei, dass man das Dargestellte auf den Begriff bringen können muss: Wer Abbildung 4 zum ersten Mal sieht, „dem erscheint es zunächst als eine Ansammlung weißer und schwarzer Flächen, die insgesamt wenig Sinn macht. Erst allmählich organisiert sich das Ganze zu einem Pferdekopf, wobei der Eindruck räumlicher Tiefe entsteht. Wer einmal den Pferdekopf gesehen hat, wird ihn bei folgenden Versuchen leichter wiedererkennen.“140 Umgekehrt bedeutet das, dass die anfängliche Unvoreingenommenheit nach einmaligem Erkennen eines Musters nur schwer wieder herzustellen ist. Es handelt sich um die schon von Ludwik Fleck benannte Verflechtung von Erkennen und Verkennen.141 All das berührt die Frage nach wissenschaftlicher Glaubwürdigkeit, da die theoretische Voreingenommenheit von Wissenschaftlern den traditionellen Begriff wissenschaftlicher Objektivität in Frage stellt; schließlich ließe sich so behaupten, Wahrnehmung sei völlig kontingent, abhängig von jeweils individuellen theoretischen Voraussetzungen.142 Theoriebeladenheit rüttelt so an der Zuverlässigkeit wissenschaftlicher Erkenntnis, wie auch

139 | Entnommen aus: Rock 1984, S. 131. 140 | Adam 2002, S. 74. 141 | Vgl. Fleck 1980, S. 44. Vgl. hierzu auch Kuhn 1970, Kapitel X, hier insbesondere S. 111: „Transformations like these, though usually more gradual and almost always irreversible, are common concomitants of scientific training.“ 142 | Vgl. Adam 2002, S. 56. Dort bezieht er sich auf R. N. Hanson, der eine Zeichnung, die sowohl als Vogel als auch als Antilope gesehen werden kann, diskutiert: „Could people who had never seen an antelope, but only birds, see an antelope in [that figure]?“ (Norwood Russell Hanson, Patterns of Discovery, Cambridge 1958, S. 13, zit. nach Adam 2002, FN 4, S. 56)

Theoriebeladenheit der Beobachtung | 85

Philip Kitcher anmerkt: „[I]f habits of observation and observational reporting sometimes change without the possibility of justifying the modification, then there is room for concern that observation might be unreliable.“143 Dies kann die Zuverlässigkeit wissenschaftlicher Arbeit in Frage stellen. Kitcher hält dieses Problem jedoch für überschätzt. So argumentiert er überzeugend im Rahmen einer Abwehr jedes Sozialkonstruktivismus, dass idealisierende oder fokussierte Analysemethoden als oftmals unverzichtbarer methodologischer Nutzen und nicht als unvermeidbare Verzerrung verstanden werden sollten.144 Nur durch Training kann ein Wissenschaftler oft Dinge erkennen, die für ungeübte Augen nicht sichtbar sind: The trained observer has learned to see well: using more adequate concepts in reporting what is seen, making discriminations that the untrained observer cannot make, acquiring propensities that work both more efficiently and more reliably than the explicitly clue-following processes of the research student.145 Ein Beispiel für diese nützliche Form von Theoriebeladenheit bei der Beobachtung haben jüngst wieder britische Psychologen mit dem Nachweis geliefert, dass die Wahrnehmungsfähigkeit dreidimensionaler Objekte in der Kindheit erlernt werden muss. Kinder seien noch nicht in der Lage, Schatten richtig zuzuordnen, Erwachsene hingegen seien daran gewöhnt, dass Licht von oben kommt, und interpretieren Bilder entsprechend. Ein Beispiel ist die Abbildung eines Kraters, der regulär betrachtet konkav erscheint; dreht man das Bild jedoch um 180°, erscheint dieselbe Abbildung konvex:

Abbildung 5: Krater. 146

Für die Kinder, denen Bilder dieser Art in Testreihen vorgelegt worden sind, war diese Perspektive nicht selbstverständlich. Nur etwa die Hälfte der Vierjährigen schätzte die Bilder richtig ein, doch schon 80 Prozent der Zehnjährigen. Das

143 | Kitcher 1993, S. 223-224. 144 | Vgl. Kitcher 1993, S. 168. 145 | Kitcher 1993, S. 223. 146 | Entnommen aus: Stone & Pascalis 2010, S. 1255.

86 | Die Glaubwürdigkeit der Wissenschaft

für die korrekte Zuordnung der Wölbung erforderliche Wissen, dass Licht meist von oben kommt, ist also offensichtlich nicht angeboren, sondern wird in den frühen Lebensjahren erworben. Theoriebeladenheit ist demnach beides: ein Problem für ein bestimmtes Ideal von Objektivität und eine wichtige Bedingung für Beobachtung und Erkenntnis. Besonders deutlich wird dies, wie Kitcher anhand einer Debatte zwischen Jerry Fodor und Paul Churchland erläutert, am Beispiel der Müller-Lyer-Illusion.

Abbildung 6: Müller-Lyer-Illusion.

Hier werden zwei Linien derselben Länge als unterschiedlich lang wahrgenommen, je nachdem, ob die Pfeile an ihren Enden nach innen oder außen gerichtet sind. Während Fodor argumentiert, Wahrnehmung sei oft völlig unabhängig vom kognitiven Status des Beobachters, weshalb dieser auf Trugbilder wie die Müller-LyerIllusion keinerlei Einfluss habe, hält Churchland überzeugend dagegen, dass zwar vielleicht eine Information an sich nicht die Wahrnehmung ändere, dass es aber trotzdem möglich sein könne, die eigene Wahrnehmung auf bestimmte Weise zu trainieren und so, durch Übung, die Linien schließlich doch als gleich lang wahrzunehmen.147 Angesichts von Kitchers Feststellung, ein trainierter Beobachter sei aufgrund seiner Ausbildung überhaupt erst in der Lage, bestimmte Feststellungen zu treffen und angesichts der Studie, dass Kinder erst lernen müssen, dass Licht meist von oben kommt, um bestimmte Bilder korrekt zu erkennen, scheint Churchlands Einwand hier sehr stark. Probleme, die durch die Theoriebeladenheit von Beobachtung entstehen können, scheinen also nicht unlösbar zu sein. Trotzdem kann in bestimmten Fällen Theoriebeladenheit die wissenschaftliche Glaubwürdigkeit gefährden. Dies scheint besonders dann der Fall zu sein, wenn Theoriebeladenheit in radikaler, pathologischer Form vorliegt, wenn widersprüchliche Belege zugunsten theoretischer Annahmen verworfen werden, Theorien passend spezifiziert und durch Ad hoc-Hypothesen verteidigt werden, kurz: wenn Überzeugungen oder Werte statt Evidenz oder sogar entgegen verfügbarer Evidenz als entscheidende Kriterien wirken. In glaubwürdigkeitsrelevanten Wissenschaften können solche Außenseiterpositionen plötzlich große

147 | Vgl. Kitcher 1993, S. 225-226.

Grenzen zwischen Theoriebeladenheit und Pathologie | 87

Aufmerksamkeit bekommen. In Abschnitt 2.3.4 werde ich dies am Beispiel der Sonnenfleckentheorie verdeutlichen.

2.3.3 Grenzen zwischen Theoriebeladenheit und Pathologie Wichtig ist, sich vor Augen zu halten, dass in den allermeisten bekannten Fällen wissenschaftlichen Irrtums das Festhalten an einer Theorie gegen den allgemeinen Geist der Zeit keinesfalls pathologisch genannt werden kann. Dies wäre unplausibel. Man denke an so bekannte Beispiele wie das geoheliozentrische Weltbild von Tycho Brahe: Während der Wandlung vom geo- zum heliozentrischen Weltbild erdachte Brahe aus Misstrauen gegenüber Kopernikus’ Theorie ein Modifikationsmodell des ptolemäischen Modells, das sogenannte geoheliozentrische Weltbild. In diesem steht nach wie vor die Erde im Zentrum des Universums, die Sonne dreht sich um die Erde, die übrigen Planeten drehen sich jedoch um die Sonne. Brahe war – aus Gründen eines mächtigen klerikalen Weltbilds sowie den dazu gehörenden, über Jahrhunderte hinweg tradierten theoretischen Annahmen – so fest davon überzeugt, dass die Erde im Mittelpunkt des Universums stehen müsse und sich die Planeten in Kreisbahnen bewegten, dass er von diesen Voraussetzungen nicht lassen konnte, zumal das System, wenn es auch (ebenso wie das ptolemäische und auch das kopernikanische Weltbild vor Kepler) eine hochkomplexe Epizykeltheorie enthielt, korrekte Prognosen lieferte. Die Ruhe der Erde stand „viel eher im Einklang mit herkömmlichen naturphilosophischen Überzeugungen, denen zufolge die Erde als ein schwerfälliges Gebilde, die Sterne hingegen als ätherische Gestalten galten, sodass diesen weit plausibler Bewegung zuzuschreiben war als jener.“148 Klare Fälle pathologischer Verirrung sind selten und rasch widerlegt. Viel häufiger lassen sich Fälle wie Brahes Weltbild finden, die zwar aus einer anachronen wissenschaftshistorischen Perspektive indiskutabel und zuweilen absurd und komisch anmuten, aus einem diachronen Blickwinkel jedoch plausibel erscheinen.149 Dass

148 | Carrier 2001a, S. 158. 149 | Vgl. Carrier 2001b, S. 216-221. Während eine anachrone Wissenschaftsgeschichtsschreibung von einer Akkumulation definitiver Erkenntnisse ausgeht und so jede Theorie, gleich welcher Zeit, nach dem Kenntnisstand des gegenwärtig akzeptierten Theoriengebäudes beurteilt, versucht eine diachrone Wissenschaftsgeschichtsschreibung jede Theorie im Kontext ihrer historischen Bedingungen zu sehen, was aber unmöglich umfassend erreicht werden kann und auch die großen Entwicklungslinien, die durch anachrone Geschichtsschreibung aufgedeckt werden, nicht in den Blick nimmt. „Insgesamt“, schließt Carrier, „ist daher das Ansetzen am gegenwärtigen Wissenshintergrund in mehrerlei Hinsicht berechtigt oder gar unabweisbar.

88 | Die Glaubwürdigkeit der Wissenschaft

pathologische Verirrungen meist schnell widerlegt sind, liegt daran, dass Theorien, auf die die ersten fünf Langmuirschen Kriterien allesamt zutreffen, in aller Regel unplausibel sind. Insofern stellt pathologische Wissenschaft eher ein soziales oder psychologisches Phänomen als ein epistemologisches Problem dar. Dennoch werden Vorwürfe dieser Art in der aktuellen Debatte um die Glaubwürdigkeit der Klimaforschung erhoben. So postuliert Reinhard Hüttl, Chef des GeoForschungsZentrums Potsdam (GFZ) im Spiegel, Wissenschaftler dürften sich ihren Thesen niemals so ergeben, dass sie nicht mehr in der Lage seien, sie im Lichte neuer Erkenntnisse zu revidieren. In der Forschung gehe es nicht um Glauben, sondern um Erkenntnis. Leider gebe es aber immer mehr Wissenschaftler, die Politiker sein wollten.150 Gerade mit dieser Behauptung werden Klimaforscher häufig diskreditiert: Sie seien voreingenommen und ordneten wissenschaftliche Kriterien ihren politischen Überzeugungen unter. Letztlich ist dieser Vorwurf, wenn er nicht direkt auf absichtliche Täuschung lautet, genau der, der oben als pathologische Verirrung bezeichnet worden ist. Den Wissenschaftlern wird vorgeworfen, dass nicht eine gute Rechtfertigung ihre Überzeugung hervorbringe, sondern ihre Überzeugungen die Rechtfertigung ihrer Hypothesen. Es lässt sich beobachten, dass mit dieser Begründung so gut wie jede Forschung, deren Ergebnisse politische, soziale oder wirtschaftliche Konsequenzen hat, angegriffen wird.

2.3.4 Die Sonnenfleckentheorie Am Beispiel der sogenannten Sonnenfleckentheorie lässt sich der Unterschied zwischen Wissenschaft, die aufgrund von Theoriebeladenheit irrt, und pathologischer Wissenschaft verdeutlichen. Sonnenflecken sind Gebiete auf der Sonne, die eine geringere Temperatur aufweisen als der Rest der Sonnenoberfläche und sich deswegen dunkel abzeichnen. Im 17. Jahrhundert erstmals durch Galileo Galilei und Johannes Fabricius benannt, begann ab 1825 eine regelmäßige Aufzeichnung der periodisch auftretenden Sonnenflecken, was nach einigen Jahrzehnten einen elfjährigen Zyklus erkennen ließ, der sich an einer aus Daten der NASA gewonnenen Grafik gut erkennnen lässt:151

Wesentlich ist aber, an der Unterscheidung zwischen den Ansichten und Maßstäben der untersuchten Epoche und denen der Gegenwart festzuhalten. Die Maxime lautet: Soviel Binnenperspektive wie möglich und soviel retrospektive Rekonstruktion wie nötig.“ (Ebd. S. 221) 150 | Vgl. Evers et al.: Die Wolkenschieber. Der Spiegel, 29. 3. 2010. 151 | Die Abbildung ist zusammengesetzt aus zwei Grafiken der NASA. Quelle: http: //solarscience.msfc.nasa.gov/images/Zurich_Color_Small.jpg.

Die Sonnenfleckentheorie | 89

Abbildung 7: Sonnenfleckenzyklus.

Die Sonnenflecken entstehen durch lokale Magnetfelder der Sonne, die kühles Gas an der Sonnenoberfläche festhalten. Je mehr Sonnenflecken zu beobachten sind, desto stärker ist folglich die Aktivität der Sonne. Die Aktivität der Sonne wiederum nimmt direkt Einfluss auf die kosmische Strahlung und über diese auf die Wolkenbildung. Bei hoher Aktivität der Sonne (i.e. bei vielen Sonnenflecken) ist der kosmische Strahlungseinfluss auf die Erdatmosphäre geringer, was zur Folge hat, dass weniger Aerosolpartikel entstehen, an denen Wasserdampf kondensieren kann – es gibt weniger Wolken, die die Sonneneinstrahlung reflektieren.152 Folglich wird es wärmer auf der Erde, wenn die Sonne sehr aktiv ist. Hierauf wird die Behauptung gestützt, dass Veränderungen des globalen Klimas ausschließlich auf den Sonnenfleckenzyklus zurückzuführen seien. Dies bezeichne ich im Folgenden als Sonnenfleckentheorie. Von Beginn an war die Sonnenfleckentheorie Hauptbegründung der Klimaskeptiker für ihre These, der Klimawandel sei nicht anthropogen. So stellte das bereits erwähnte George C. Marshall Institute, ein konservativer amerikanischer Think Tank, bereits seit den frühen 1980ern Argumente gegen die These vom anthropogenen Klimawandel bereit und begründete dies mit dem angeblich dominanten Einfluss der Sonnenaktivität auf das Erdklima. Unter der Patronage von Lobbygruppen aus Politik und Industrie hielten einige Wissenschaftler über viele Jahre hinweg hartnäckig an der Sonnenfleckentheorie fest, trotz des vom IPCC bereits im 1. Sachstandsbericht von 1990 klar festgestellten Konsens, dass sich die Temperaturentwicklung nicht mehr ohne den Einbezug anthropogener Treibhausgasemissionen erklären lasse. Maßgeblich für die Sonnenfleckentheorie war eine Publikation der dänischen Meteorologen Eigil Friis-Christensen und Knud Lassen, die 1991 in Science erschien. Darin wird eine Übereinstimmung der Sonnenaktivität mit dem Verhalten des Klimas

152 | Solche Aerosole können in der Atmosphäre aus Schwefelsäure und Wasserdampf entstehen. Dass diese Nukleation durch kosmische Strahlung beschleunigt wird, lässt sich bislang jedoch nur für eine Umgebung großer Höhe und Kälte, nicht für die Grenzschicht der Erdatmosphäre bestätigen (vgl. Kirkby et al. 2011).

90 | Die Glaubwürdigkeit der Wissenschaft

auf der Erde behauptet, was sich durch Datenabgleich zwischen Sonnenflecken und Temperaturmesswerten seit 1770 habe nachweisen lassen.

Abbildung 8: Lassen-Kurve. 153

Es kam allerdings rasch zu Kritik an der Studie.154 Lassen geriet unter Erklärungsdruck und revidierte schließlich wegen der starken globalen Erwärmung während der 1990er Jahre, die keinesfalls mehr mit dem Sonnenfleckenzyklus in Übereinstimmung zu bringen war, zusammen mit seinem Kollegen Peter Theijll die Theorie im Jahr 2000. Der Zusammenhang müsse relativiert werden, die inzwischen berühmte „Lassen-Kurve“ könne nicht aufrecht erhalten werden. Der Sonnenzyklus alleine könne die Temperaturentwicklung nicht mehr erklären, vielmehr bestehe sogar bereits ab den 1970er Jahren eine Abweichung der globalen Temperaturdaten selbst von dem bestangepassten Sonnenmodell.155 Inzwischen ist klar, dass in der Publikation aus dem Jahr 1991 eine Übereinstimmung zwischen Temperaturkurve und Sonnenfleckenzyklus nach 1970 nur deshalb zustande gekommen war, weil man auf die (in der Abbildung 8 durch Kreuze gekennzeichneten) Sonnenfleckendaten von 1850 bis 1970 einen Filter angewandt hatte, der den zur (durch Sternchen markierten) Temperaturentwicklung parallelen Zyklusverlauf deutlich macht, während ab 1970 ungefilterte Daten verwendet worden waren, um weiterhin eine Parallelentwicklung verzeichnen zu können: Nur so konnte die Sonnenzykluskurve zu Beginn der 1980er Jahre höher liegen als ihr bis dahin

153 | Entnommen aus: Lassen & Friis-Christensen 1991, S. 699. 154 | Insbesondere der Physiker Peter Laut und der Modellierer Jesper Gundermann bemühten sich vergeblich, das Ergebnis zu rekonstruieren und kamen so zu dem Schluss, dass etwas an dem Verfahren Friis-Christensens und Lassens nicht stimmen könne (vgl. Laut & Gundermann 1998; sowie Laut & Gundermann 2000). 155 | Vgl. Lassen & Friis-Christensen 1991.

Die Sonnenfleckentheorie | 91

erreichtes Maximum von 1940.156 Nach einer einheitlichen Filterung weicht in der Publikation von 2000 (Abbildung 9) die Temperaturkurve (TObs ) ab 1970 deutlich von der Kurve des Sonnenfleckenzyklus (TSCL , solar cycle length) ab. Seither ist die Abweichung des Temperaturdurchschnitts der nördlichen Hemisphäre von der Sonnenaktivität konsequent angestiegen.

Abbildung 9: Revidierte Lassen-Kurve. 157

Inzwischen kann die Sonnenstrahlungsdichte nicht einmal mehr 30 Prozent der globalen Erwärmung erklären, während sie vor 1988 noch zwei Drittel erklären konnte. Selbst im extremen Fall, in dem man sämtliche Klimaveränderungen vor 1970 der Sonnenaktivität zuschreiben würde, ließe sich der globale Temperaturanstieg nach 1970 nur zu 50 Prozent auf die Sonnenaktivität zurückführen. Die anthropogene Klimaerwärmung bleibt entsprechend als Schluss auf die beste Erklärung bestehen. Die Sonnenaktivität als Faktor natürlicher Klimavariabilität wird selbstverständlich ebenfalls in den Simulationsmodellen berücksichtigt. Dies ist nicht zuletzt wichtig, um möglichst genau bestimmen zu können, wie groß der anthropogene Treibhauseffekt ist. Nur so ließen sich, wie Thejll und Lassen betonen, die Modellierungen verbessern und exaktere Vorhersagen über den Klimawandel treffen.158 Hier liegt also ein Fall vor, bei dem zunächst (durch Friis-Christensen und Lassen) aufgrund von Theoriebeladenheit Daten falsch ausgewertet worden sind. Nachdem aber durch die kritische Begutachtung durch Kollegen klar geworden war, dass diese theoretische Auswertung den verfügbaren Daten nicht entsprach, war Lassen bereit, seine Theorie zu modifizieren. Dieses Beispiel verdeutlicht zwar zunächst, wie Theoriebeladenheit für zuverlässige wissenschaftliche Erkenntnis problematisch sein kann, demonstriert dann aber auch sogleich, dass diese Problematik lösbar und insofern grundsätzlich epistemisch ungefährlich ist. Die Geschichte der Lassen-Kurve bildet somit einen normalen wissenschaftlichen Vorgang ab:

156 | Rahmstorf 2002: Flotte Kurven, dünne Daten. Ungekürzte Version, FN 9. 157 | Entnommen aus: Thejll & Lassen 2000, S. 1210. 158 | Vgl. Thejll & Lassen 2000. Siehe auch Solanki & Krivova 2003.

92 | Die Glaubwürdigkeit der Wissenschaft

1. Beobachtung 2. Theoriebildung 3. Kritik der Theorie wegen abweichender Daten 4. Anpassung der Theorie Interessanterweise hängen allerdings, anders als Lassen, trotzdem noch heute Wissenschaftler der Sonnenfleckentheorie an; in Deutschland hat sie in den letzten Jahren durch den Berliner Meteorologen Horst Malberg erneut Aufmerksamkeit bekommen.159 Der solare Effekt im ozeanisch geprägten Klimabereich Westeuropa erkläre, so Malberg, 80 Prozent der Erwärmung im 18. Jahrhundert und noch immer 70 Prozent im 20. Jahrhundert.160 Er belegt dies mit Grafiken, nach denen Sonnenaktivität und Klimawandel seit der Kleinen Eiszeit im 17. Jahrhundert bis heute synchron laufen (Abbildung 10). Demnach ist es der solare Rhythmus, der den Klimarhythmus bestimmt und nicht der anthropogene Treibhaus-Effekt.

Abbildung 10: Malbergs Version. 161

159 | Ebenfalls wirbt Ulrich Berner von der Bundesanstalt für Geowissenschaften und Rohstoffe für die Sonnenfleckentheorie (vgl. Abschnitt 2.3.5.3). 160 | Vgl. Malberg 2009, S. 4. Dieser Veröffentlichung war im Mai 2008 ein Streit Malbergs mit dem Verein Berliner Wetterkarte vorausgegangen, nachdem das Institut für Meteorologie der Freien Universität Berlin dem Verein untersagt hatte, nicht-konsensfähige Artikel wie die Malbergs als „Beiträge des Instituts“ zu veröffentlichen. Malberg darf seine Artikel seither nur noch als „Beiträge zur Berliner Wetterkarte“ kennzeichnen. 161 | Entnommen aus: Malberg 2009.

Zu den Grundlagen skeptischer Einwände | 93

Während die Abweichung zwischen Durchschnittstemperatur und Sonnenaktivität längst allgemein anerkannt ist, beharrt Malberg trotzdem weiter auf einer Parallelentwicklung. Warum Malberg die aktuellen Daten so beharrlich ignoriert und an seiner zwei Drittel-These festhält, ist unklar. „In Malbergs Publikationsliste findet sich nichts zum Einfluss der Sonne auf das Klima. Sollte er etwa seine Ergebnisse im Fernsehen verbreiten, bevor er sie auf üblichem Wege den Fachkollegen zur Diskussion stellt?“162 Dass der Wunsch nach medialer Aufmerksamkeit den Emeritus Malberg alle wissenschaftlichen Prinzipien bewusst ignorieren lässt, ist möglich. Doch scheint es wahrscheinlicher, dass er so überzeugt von seiner Hypothese ist, dass er den derzeitigen Stand der Forschung einfach ablehnt. Er hält, wie Goethe mit seiner Farbenlehre, den breiten wissenschaftlichen Konsens für falsch und beharrt darauf, als einziger die Wahrheit hochzuhalten. Dass dies an sich unproblematisch ist, wurde oben bereits festgestellt: Eigentlich sterben pathologische Ansätze schnell ab. Dies gilt allerdings nicht in Fällen glaubwürdigkeitsrelevanter Forschung, denn wie im Folgenden zu sehen sein wird, werden wissenschaftliche Außenseiter wie Malberg von klimaskeptischen Lobbygruppen schnell vereinnahmt und protegiert.163

2.3.5.1 Zu den Grundlagen skeptischer Einwände Durch das Problem der Unterbestimmtheit lassen sich auf folgender Basis verschiedene skeptizistische Einwände begründen: Bei jeder wissenschaftlichen Studie werden, so sie denn induktiv verfährt, Hypothesen aufgestellt, die es zu belegen oder zu widerlegen gilt, und theoretische und empirische Annahmen vorausgesetzt. (1)

Jede wissenschaftliche Studie S enthält mindestens eine Hypothese H sowie eine bestimmte Menge von Voraussetzungen und erzeugt empirische Daten X 1...n . Durch X 1...n wird H bestätigt oder widerlegt.

(2)

Wenn die erzeugten Daten X 1...n fehlerhaft sind, aber niemand dies erkennt, kann H fälschlich bestätigt werden.

(3)

H und X 1...n können dann wiederum als „Fakten“ in nachfolgende wissenschaftliche Studien eingehen usw.

Die Hypothese (2) ist dabei für jede Form von Wissenschaftsskepsis grundlegend. In (3) wird dies zu einem umfassenden Wissenschaftsskeptizismus erweitert: Wenn

162 | Rahmstorf: Flotte Kurven, dünne Daten. Die Zeit, 5. 9. 2002. 163 | Beispielsweise lässt sich Malberg von EIKE als wissenschaftlichen Beirat nennen (vgl. Abschnitt 2.3.5.3).

94 | Die Glaubwürdigkeit der Wissenschaft

angenommen wird, dass S bereits auf falschen Voraussetzungen vorheriger irriger Studien basiert haben könnte und diese ihrerseits auch, lässt sich ein infiniter Regress behaupten. Dafür ließe sich auch empirisches Belegmaterial finden, schließlich hat es im Laufe der Wissenschaftsgeschichte immer wieder Fälle wissenschaftlicher Verirrungen gegeben. Larry Laudan hat beispielsweise auf der Basis einer Liste solcher vergangener Theorien (die antike Humoralpathologie, wonach der Körper gesund ist, wenn die vier Säfte schwarze und gelbe Galle, Schleim und Blut in ausgewogenem Verhältnis zueinander stehen; die Effluviumtheorie aus dem 17. Jahrhundert, die Elektrostatik durch eine Substanz, das Effluvium, erklärte; der geologische Katastrophismus des 18. Jahrhunderts, der alle Entwicklungsschritte der Erde auf Katastrophen wie die Sintflut zurückführte; die bekannte Phlogistontheorie, die Wärme als eine Substanz interpretierte, die vom wärmeren zum kälteren Körper fließt; die Schwingungstheorie der Wärme aus dem 18. Jahrhundert, die bereits in der Antike von Atomisten und Epikureern vertreten worden war, derzufolge Wärme als Eigenschaft schwingender Teilchen eines Stoffes aufgefasst worden ist; der Vitalismus vom 16. bis ins 18. Jahrhundert, der die „vis vitalis“, die Lebenskraft des Lebendigen, als Abgrenzungsprinzip zum Anorganischen behauptete; Galileos Theorie der zirkulären Trägheit, wonach die Trägheitsbewegung von Körpern in Kreisbahnen verlaufen, und die Theorien der Spontanzeugung, nach denen Leben spontan aus unbelebter Materie entstehen kann) argumentiert, dass zentrale Begriffe dieser Theorien auf nichts referiert haben. Das bringt den klassisch-epistemologischen, konvergenten Realismus in starke Bedrängnis. Putnams These, dass der traditionelle wissenschaftliche Fortschrittsgedanke bloß für „reife Wissenschaft“ gelte, die sich über die Zeit bewiesen habe, gerate, so Laudan, ins Schwanken, da jedes der genannten empirischen Gegenbeispiele demnach „unreife Wissenschaft“ gewesen sein müsste. Auf diese Weise entzöge man sich der Herausforderung durch historische Gegenbeispiele auf analytische Weise, liefe dabei aber Gefahr, dass ein solcher Realismus schlicht tautologisch und damit inhaltlich leer sei.164 Der Skeptiker kann angesichts all dieser wissenschaftshistorischen Beispiele schließlich fragen, wie es sich verhält, wenn zahlreiche andere wissenschaftliche Irrtümer nie aufgedeckt worden sind und auch in Zukunft nicht aufgedeckt werden, kurz: wenn es „reife Wissenschaft“ gar nicht gibt. Harry Collins hat diesem Problem, das er in einer Begründungszirkularität von Theorie und Evidenz verortet, mit dem Experimenter’s Regress einen Namen gegeben.165 Demnach liegt zwar das Gütekriterium eines Modells bei seiner Evidenz, was

164 | Vgl. Laudan 1984, S. 121-122. 165 | Vgl. Collins 1985, S. 83-84.

Zu den Grundlagen skeptischer Einwände | 95

aber umgekehrt bedeuten kann, dass man eben nur die Modelle als gut einstuft, die genau jene Evidenz hervorbringen, die man erwartet:166 To speak figuratively, it is as though epistemologists are concerned with the characteristics of ships (knowledge) in bottles (validity) while living in a world where all ships are already in bottles with the glue dried and the strings cut. A ship within a bottle is a natural object in this world, and because there is no way to reverse the process, it is not easy to accept that the ship was ever just a bundle of sticks.167 Dieser Einwand beruht auf der der Evidenz inhärenten Eigenschaft ihrer Nichtbeweisbarkeit, weshalb man letztlich kein allgemeines Kriterium für die Unterscheidbarkeit von Scheinevidenz (i.e. Glaube an Einsicht trotz Irrtum) und wirklicher Evidenz angeben kann.168 Um eine Theorie zu überprüfen, werden Standards benötigt, an denen man die Theorie messen kann. Diese Standards beruhen jedoch wieder auf anderen Theorien, weshalb man sich bei einer Rechtfertigung gegenüber dem Anwurf, eine Theorie beruhe auf Scheinevidenz, in einen Regress begibt, es sei denn, man nimmt bestimmte Überzeugungen schließlich einfach als „natural objects“ an. Diese sind dann nicht mehr hinterfragbar, man muss sie für unwiderlegbar halten, für evident.

166 | Gregor Betz hat in seiner Dissertation darauf hingewiesen, dass die klimatologischen GCMs (General Circulation Models) für diese Form von Zirkularität anfällig sind: „The reanalyzed climate-data relies on models whose evidence stems from the reanalyzed climate data!“ (Betz 2006, S. 112) Auf denselben Punkt hat Wendy Parker (2006; 2011) verwiesen. Die GCMs, die im IPCC verwendet werden, müssen sich qualifizieren, indem sie die Temperaturentwicklung des 20. Jahrhunderts möglichst genau simulieren (vgl. S. 120). Die aus Beobachtungen gewonnenen Temperaturdaten werden um Reanalysis-Daten, die durch Wettermodelle erzeugt werden, ergänzt. Die Temperaturentwicklung, anhand derer die GCMs evaluiert werden, beruht demnach nicht nur auf direkt gemessenen, sondern zu einem sehr großen Teil auch auf rekonstruierten Daten. Nun ließe sich einwenden, die Daten seien so konstruiert, dass die Simulationen, die auf diesen Daten beruhen, anschließend ganz bestimmte, (bewusst oder unbewusst) beabsichtigte Ergebnisse erzeugten. Wenn Daten tatsächlich so konstruiert werden, dass sie den GCMs bereits eine ganz bestimmte Richtung weisen, dann würde dies eine Form von Zirkularität bedeuten. Doch halte ich dies für ein Scheinproblem, denn Wettermodelle sind gut prüfbar. Die fehlenden Temperaturdaten des 20. Jahrhunderts lassen sich mittels Wettermodellen also zuverlässig rekonstruieren. 167 | Collins 1975, S. 205. 168 | Vgl. Stegmüller 1954, S. 96-151.

96 | Die Glaubwürdigkeit der Wissenschaft

Dem Zirkel [der Behauptung, die Evidenz sei evident] könnte man nur so entgehen, daß man in einen unendlichen Regreß hineingerät. Man sucht die Evidenz dadurch gegen alle möglichen Einwendungen zu retten, daß man ihr Vorliegen auf solche Fälle einschränkt, in denen ganz bestimmte Bedingungen erfüllt sind. Diese Evidenz soll Wahrheitsbedingung für bestimmte Urteile sein. An Hand welcher Kriterien entscheidet man über das Vorliegen oder Nichtvorliegen der Bedingungen? Offenbar wiederum nur mittels einer weiteren Evidenz („Metaevidenz“), für die selbst wieder analoge Bedingungen erfüllt sein müssen, damit sie keine Scheinevidenz darstellen kann usw. in finitum.169 Otto Neurath hat auf das Problem in allgemeinerer Form bereits 40 Jahre zuvor mit seinem bekannten Schiffsgleichnis hingewiesen. Für die Untersuchung von Sätzen, so schreibt er in den Verirrten des Cartesius, muss man stets andere annehmen, denn: [Wir vermögen] [...] keine Aussage zu fällen, ohne unsere ganze vorhergegangene Begriffsbildung in Verwendung zu nehmen. Wir müssen einerseits die Verbindung jedes Satzes, der von der Welt handelt, mit allen anderen, die über sie ausgesagt werden, und andererseits die Verbindung jedes Gedankenganges mit unseren früheren Gedankengängen konstatieren. Wir können die bei uns vorgefundene Begriffswelt variieren, ihrer entledigen können wir uns nicht. Jeder Versuch, sie von Grund auf zu erneuern, ist schon selbst in seiner Anlage ein Kind der vorhandenen Begriffe.170 Dies gilt nicht nur für Sprache: Man kann keine Ethik betreiben, Erkenntnis analysieren oder wissenschaftliche Theorie bewerten, ohne bereits moralische Begriffe, andere Erkenntnisse bzw. wissenschaftliche Theorien vorauszusetzen. Gegen dieses Problem von Letztbegründungen, das Neurath zum Holismus führt und Collins im Weiteren zu sozialkonstruktivistischen Erwägungen veranlasst, lässt sich allerdings eine Robustheit von Evidenz einwenden: Der Grundidee des Falsifikationismus folgend, dass eine Theorie genau so lange aufrecht erhalten werden kann, wie sie nicht widerlegt ist, kann man skeptizistischen Einwänden noch mit guten Argumenten entgegenhalten, dass umgekehrt eine Theorie umso besser bestätigt ist, je robuster die für sie sprechende Evidenz ist. Robuste Evidenz ist dadurch gekennzeichnet, dass ein Objekt mittels verschiedener experimenteller oder statistischer Techniken oder Modelle untersucht wird, um

169 | Stegmüller 1954, S. 119-120. 170 | Neurath 1981, S. 59.

Zu den Grundlagen skeptischer Einwände | 97

die Zuverlässigkeit der Daten oder Beobachtungen zu erhöhen.171 Nutzt man nur eine Technik oder ein einziges Modell, um eine Hypothese zu bestätigen, und wählt dieses genau so, dass es auch solche Daten liefert, die die Hypothese bestätigen, befindet man sich schnell im Experimenter’s Regress. Einen solchen Fehler dürften Friis-Christensen und Lassen 1991 gemacht haben: Die Rohdaten wurden genau so teils gefiltert, teils ungefiltert verwendet, dass sie die Hypothese, die Sonnenaktivität sei in Bezug auf die globale Erwärmung dominant, bestätigten (vgl. Abschnitt 2.3.4). Je mehr verschiedene Theorien und Methoden, die auf unterschiedlichen Hintergrundannahmen beruhen, unabhängig voneinander Evidenz für eine Hypothese bereitstellen, umso besser ist diese Hypothese bestätigt. Denn Beobachtungen sind, wie gezeigt wurde, immer theoriebeladen und können sich daher nur durch vielfache, voneinander unabhängige Bestätigung erhärten: robust werden. Umgekehrt bedeutet dies ja, dass Fehler gegebenenfalls mit größerer Wahrscheinlichkeit aufgedeckt werden. Bei der Sonnenfleckentheorie Friis-Christensens und Lassens ist dies geschehen, als andere Forscher die Daten überprüften, die Unzulässigkeit der Teilfilterung der Rohdaten nachwiesen und so die Hypothese, das globale Klima lasse sich ausschließlich durch die Sonnenaktivität erklären, widerlegen konnten. Problematisch wird das Robustheitsargument jedoch, wenn diverse Verfahren widersprüchliche Ergebnisse erzeugen. Robustheit kann trotzdem zu falschen Ergebnissen führen, da bei Vorliegen vieler widersprüchlicher Ergebnisse nicht zwangsläufig „das richtige“ erkannt wird und sich durchsetzt. Liegen widersprüchliche Ergebnisse vor, die aufgrund diverser Ansätze evident sind, muss gewählt werden, welcher Ansatz am plausibelsten ist – hierfür fehlten jedoch, so Jacob Stegenga, systematische Methoden.172 Sylvia Culp setzt hier auf Einfachheit: In einem solchen Fall sei der voraussetzungsärmste Ansatz zu wählen, die voraussetzungsreicheren Konkurrenten seien zu verwerfen.173 Dies scheint jedoch Stegengas Problem nicht wirklich zu betreffen. Tatsächlich könnte Einfachheit als Entscheidungskriterium ja nur dann geltend gemacht werden, wenn zwei widersprüchliche Theorien dieselbe Erklärungskraft besäßen, was sehr unwahrscheinlich ist. Keines der in den IPCC-Berichten modellierten Szenarien besitzt dieselbe Erklärungskraft wie eines seiner Konkurrenten, schon gleich gar nicht ein voraussetzungsärmeres dieselbe Erklärungskraft wie ein voraussetzungsreicheres. Vielmehr liefern die vorausetzungsreichsten Theorien, die sowohl diverse anthropo-

171 | Vgl. Culp 1995. 172 | Vgl. Stegenga 2009. 173 | Vgl. Culp 1995.

98 | Die Glaubwürdigkeit der Wissenschaft

gene als auch natürliche Faktoren berücksichtigen, in der Modellierung die zuverlässigsten Daten. Die von Culp vorgeschlagene Einfachheit ist jedoch auch nur ein Kriterium aus einer ganzen Reihe methodologischer Werte, die von Fall zu Fall unterschiedlich schwer wiegen können – als solcher Wert kann Einfachheit wohl ein sinnvoller Anhaltspunkt für epistemische Zuverlässigkeit sein: So sind voraussetzungsarme Modelle oder Theorien etwa Konkurrenten mit Ad hoc-Hypothesen (wie im Beispiel Lassen & Friis-Christensen) im Allgemeinen vorzuziehen. Dennoch muss gerade in glaubwürdigkeitsrelevanten Fällen, in denen Komplexität Unsicherheiten erzeugt, in jedem Fall neu abgewogen und entschieden werden, müssen Kosten und Nutzen von Fall zu Fall in deliberativen Prozessen abgewogen werden, nicht zuletzt um passende Empfehlungen an die Politik geben zu können. So gut das eben geht, müssen best case- und worst case-Szenarien bestimmt werden, die jeweils Folgen und Wahrscheinlichkeiten von Typ I- und Typ II-Fehlern angeben. Dass das oft kaum möglich ist, wird an Beispielen medizinischer Forschung von Heather Douglas und Torsten Wilholt betont. Das Problem ist hier, die Schwere der Fehler beider Typen festzulegen, ihre jeweiligen Wahrscheinlichkeiten zu bestimmen und schließlich beides (Schwere und Wahrscheinlichkeiten) gegeneinander abzuwägen: Wie wägt man den Schweregrad einer falsch-positiven Entscheidung (z.B. einen großen wirtschaftlichen Verlust) mitsamt seiner Wahrscheinlichkeit gegenüber dem einer falsch-negativen (z.B. ökologischen oder gesundheitlichen Schäden) ab? Solche Konflikte erfordern wertbasierte Entscheidungen, die tief in den Forschungsprozessen selbst getroffen werden müssen. Das hat zur Folge, dass sich (nicht-epistemische) Werte nie ganz aus wissenschaftlichen Prozessen ausklammern lassen.174 Dieses Problem, das auf der Unterbestimmtheit von Theorien beruht und das auch epistemische Kriterien nicht aus der Welt schaffen können, machen sich Wissenschaftsskeptiker zunutze, wenn sie argumentieren, dass eine Theorie nur deshalb gut bestätigt sei, weil ihr schlicht falsche Daten zugrunde lägen. Dagegen bleibt die Robustheit von Evidenz durch einen auf diversen Perspektiven begründeten, methodischen und theoretischen Pluralismus der beste Einwand, denn eine falsche These mag eine finite Menge von Prüfungen überdauern, aber keine infinite; dass Evidenz dauerhaft zugunsten von Interessen oder Erwartungen gebeugt werden kann, erscheint ausgesprochen unplausibel,175 nicht zuletzt wegen der sozialen Kontrolle in wis-

174 | Vgl. Douglas 2000; Douglas 2009, S. 103-108; Wilholt 2009; Wilholt 2011, S. 196197. Siehe dazu auch Abschnitt 2.3.6. 175 | Philip Kitcher wendet sich ebenfalls gegen diesen skeptizistischen Einwand. Er benennt das Problem: „Given the finiteness of our collective lifespan, the boundedness of our

Entgegnungen auf skeptische Einwände | 99

senschaftlichen Gemeinschaften, die Robert Merton betont: „[I]n general, spurious claims appear to be negligible and ineffective. The translation of the norm of disinterestedness into practice is effectively supported by the ultimative accountability of scientists to their compeers.“176 Doch die „bei Merton noch vorhandene Zuversicht, dass diese Gemengelage von Interessen und Vorprägungen durch die selbstregulatorischen Mechanismen der Wissenschaftsorganisation neutralisiert werden könne, hat in vergangenen Jahrzehnten stark abgenommen“.177 Trotz des Robustheitseinwands bleibt insbesondere für den Erkenntnisfortschritt glaubwürdigkeitsrelevanter Forschungsfelder ein großes Problem bestehen, denn gerade hier sind oft schnelle Entscheidungen unter großen Unsicherheiten erforderlich. Dass sich auf Dauer Wahrheit durchsetzt, mag epistemologisch tröstlich sein, hilft de facto jedoch wenig, denn „in the long run we are all dead.“178 Im Fall der Klimaforschung wird ein auf Unterbestimmheit beruhender Wissenschaftsskeptizismus besonders bedrohlich, da durch ihn mächtige Interessengruppen den wissenschaftlichen Erkenntnisfortschritt unterminieren und Klimaschutzmaßnahmen torpedieren können.

2.3.5.2 Entgegnungen auf skeptische Einwände Selbst wenn man annimmt, dass Infinität irgendwann zu wahrer Erkenntnis führt, entstehen – mindestens für sozial, politisch oder moralisch relevante Forschungsgebiete – noch Probleme aus der Unterbestimmtheit von Theorien, nämlich dann, wenn eine These (sei es aus zeitlicher oder finanzieller Einschränkung) zu einem bestimmten Zeitpunkt nur in begrenztem Umfang überprüft werden kann. Das Problem der vorübergehenden Unterbestimmtheit ist deshalb keinesfalls so harmlos, wie Kitcher

distribution in space, and the limitations of our cognitive systems, it is highly likely that there are some aspects of the universe that we shall never be able to fathom.“ (Kitcher 1993, S. 160161) Dennoch würden falsche Annahmen auf Dauer durch Widersprüche der (nicht-sozialen) Umwelt aufgedeckt: „The relevant issue is whether, given the actual social structures present in scientific communities, the input from asocial nature is sufficiently strong to keep consensus practice on track.“ (Kitcher 1993, S. 165) Helen Longino expliziert dieses Argument: „Social forces [...] supporting a framework of inquiry may resist the truth, but not indefinitely.“ (Longino 2002a, S. 57) 176 | Merton 1973, S. 276. 177 | Wilholt 2011, S. 15. 178 | Keynes 1923, S. 80.

100 | Die Glaubwürdigkeit der Wissenschaft

annimmt.179 Aus vorübergehender Unterbestimmtheit lassen sich zwei bzw. drei Varianten skeptischer Argumente begründen. Häufig werden Studien dann nicht hinreichend geprüft, wenn sie (a) sehr kostenund/oder (a’) zeitintensiv sind; dies verursacht realistischen Positionen große Probleme, sogar unlösbare, wenn behauptet wird, dass (b) schlichtweg niemand auf die Idee komme, eine anerkannte (jedoch falsche) wissenschaftliche Annahme anzuzweifeln – ein Einwand, den Goldman unter dem Stichwort „subtle distorting influence“180 lediglich am Rande notiert hat, dem allerdings in der Wissenssoziologie umso mehr Gewicht beigemessen wird.181 Die Einwände des Typs (a) gehen aus der im vorigen Abschnitt erläuterten Annahme (2) hervor und stellen hier die schwachen Varianten möglicher skeptischer Positionen dar; (b) geht dagegen aus der obigen Annahme (3) hervor und begründet eine starke wissenschaftsskeptizistische Position. Im Folgenden wird deutlich werden, weshalb. Gegen (a) kann man als Wissenschaftler zumindest normativ argumentieren, indem man sich auf bestimmte Kontrollmaßnahmen beruft, da finanzieller Aufwand

179 | Vgl. Kitcher 2001, S. 30. 180 | Goldman 2001, S. 104. 181 | So weist Peter Wehling darauf hin, dass sich in der Wissenssoziologie der 1980er Jahre als Konsequenz aus dem Strong Programme eine ganz neue Anschauung des Terminus „Nichtwissen“ entwickelt hat: „Solange (natur-)wissenschaftliches Wissen als sukzessive Annäherung an eine objektive Realität gedacht wurde, erschien Nichtwissen letztlich nur als eine Residualkategorie, die zwar nie völlig verschwinden, aber mit dem Wachstum des Wissens immer mehr an Bedeutung verlieren würde. Erst im Horizont konstruktivistischer Auffassungen konnte ins Blickfeld kommen, daß mit der Konstruktion von Wissen und durch die Konstruktion von Wissen zugleich Nichtwissen erzeugt wird.“ (Wehling 2006, S. 83) Das ist etwas missverständlich formuliert. So ist Nichtwissen sicher nichts, was erzeugt werden kann; da die Menge dessen, was man wissen kann, unendlich groß ist, ist auch die Menge dessen, was man nicht weiß, unendlich groß. So wurde beispielsweise das Nichtwissen darüber, welche Auswirkungen Wolkenbildung auf die Klimaerwärmung hat, nicht erst durch die Klimaforschung „erzeugt“ – ein Steinzeitmensch hatte dieses Nichtwissen auch schon. Entscheidend ist allerdings, dass durch jede neue Erkenntnis Bewusstsein über eine finite Teilmenge von Dingen aus der unendlich großen Menge der Dinge, die man nicht weiß, geschaffen wird. Daher wurde, und das ist wohl der Punkt, auf den Wehling abzielt (denn auf S. 86 bezieht er sich explizit auf Knight), in der Ökonomie bereits in den 1920er Jahren eine begriffliche Unterscheidung zwischen den Termini „Ungewissheit“ und „Risiko“ vorgenommen, über die man (im Gegensatz zu tatsächlichem Nichtwissen, über das man per definitionem gar nichts weiß, nicht einmal, dass es existiert) subjektive Schätzungen bzw. objektive Kalkulationen anstellen kann (vgl. Knight 1964, S. 197232).

Entgegnungen auf skeptische Einwände | 101

kein Grund sein dürfe, eine Hypothese ohne hinreichende Überprüfung als bewiesen anzuerkennen. Dann stellt sich natürlich dennoch die Frage, wann eine Hypothese empirisch hinreichend bewiesen ist; hier tritt das klassische Induktionsproblem auf den Plan. Darüber hinaus kann ein Skeptiker behaupten, dass es eine hinreichende Überprüfung gar nicht geben könne, da die Prüfmethoden selbst fragwürdig sein könnten etc. Trotzdem kann man hier noch mit guten Gründen für die Objektivität von Prüfmaßnahmen argumentieren, wenn sie durch pluralistische Verfahren eine robuste Evidenzgrundlage schaffen und so eine gute Datenbasis für eine wahrscheinlichkeitsfundierte Typ I- und II-Fehler-Abwägung bereitstellen. Der Einwand zeitlicher Begrenztheit des Individuums (a’), das, was Hardwig als „finite mind“ bezeichnet hat, verschließt sich bereits einer solchen Verteidigung: Zeitliche Begrenztheit ist leider nichts, worauf man normativ Einfluss nehmen könnte. Man kann ihr zwar durch epistemische Arbeitsteilung ein wenig entgegenwirken, doch bringt dies neue Aufgaben von Organisation, Prüfung und Kontrolle mit sich, kurz: Zeitliche Begrenztheit ist ein epistemologisches Grundproblem, das sich nicht beseitigen lässt. Und es ist auch die Ursache des eingangs erörterten Testimony-Problems: Wie gezeigt worden ist, ist die Komponente sozialen Zeugnisses in der Erkenntnis nicht vollständig mit epistemischen Mitteln zu umgehen, denn der Forderung, dass jeder Erkenntnis bis hin zu ihrem Ursprung nachgegangen werden müsse, damit sie eindeutig verifiziert ist, ist allein angesichts der begrenzten menschlichen Lebensdauer unmöglich nachzukommen. Goldmans Weg, einen Katalog von Prüfkriterien aufzustellen, um größtmögliche Sicherheit über den Wahrheitsgehalt weitergegebener Informationen zu gewährleisten und dabei zugleich, falls das möglich ist, durch möglichst breitgefächerte Forschung den Erkenntnisprozess voranzutreiben und bereits gewonnene Erkenntnisse zu erhärten, erscheint hier erforderlich, um realistische Ansprüche aufrecht zu erhalten (vgl. Abschnitt 1.6). In vielen Forschungsbereichen gestalten sich diese Kriterien sowie die Herstellung robuster Evidenz allerdings schwierig. Gerade wenn komplexe Systeme erforscht werden, kann oft lediglich versucht werden, diese möglichst adäquat zu simulieren, was aber viele Probleme mit sich bringt. Davon zeugen die breit streuenden Prognosen in den IPCC-Sachstandsberichten, die für diverse mögliche Szenarien erstellt und von Bericht zu Bericht (mit mäßigem Erfolg) zu verbessern versucht werden (vgl. Abschnitt 4.5). Stegenga spricht in solchen Fällen von „multimodaler Evidenz“.182 Hier lässt sich nur noch sagen, dass es eben auf Grundlage der verfügbaren Daten eine Angelegenheit der Politik sein müsse, von Fall zu Fall die verfügbare Evidenz abzuwägen und entsprechend zu entscheiden – ein Ergeb-

182 | Vgl. Stegenga 2009.

102 | Die Glaubwürdigkeit der Wissenschaft

nis, das Stegenga zwar verständlicherweise als unbefriedigend empfindet, das aber unvermeidbar scheint (vgl. Abschnitt 3.9). Doch ist dies noch immer eine gute Verteidigung realistischer Positionen sowohl gegen (a) als auch gegen (a’). Dagegen verursacht die starke, skeptizistische Variante (b) unlösbare Probleme: Was, wenn man schlichtweg nicht auf die Idee kommt, dass die Wahrheit ganz anders beschaffen ist, als man annimmt? Oder wenn man diese Möglichkeit aus Gründen, die einem gesichert erscheinen, ausschließt?183 Sofern man mit der Annahme nicht weiter arbeiten muss, ist das Problem unwichtig, da sich kein Grund ergibt, sie erneut zu prüfen und gegebenenfalls zu modifizieren oder zu verwerfen, – und schließlich ist sie dann auch kein Gegenstand von Glaubwürdigkeit, weder innerwissenschaftlich noch in der Öffentlichkeit. Doch was ist mit solchen Daten oder Hypothesen, die aus epistemischen oder nicht-epistemischen Gründen relevant sind und geprüft werden? Selbst wenn man bei der Prüfung oder Verwendung einer Theorie auf Probleme stoßen würde, könnte man, solange die Probleme geringer geschätzt würden als das Interesse am Bestehen der Theorie, nach Duhem-Quine noch immer das umgebende System anpassen und so die Theorie retten. Gegen Unterbestimmtheitseinwände dieser Art entwickelt Philip Kitcher im Advancement of Science ein ökonomisches Argument auf Basis rationaler Kostenkalkulation. Danach müssen die Kosten, die eine Änderung im umgebenden System einer Hypothese verursachen würde, geringer sein als die Kosten, die eine Änderung der Hypothese selbst verursachen würde, damit die Annahme aufrecht erhalten werden kann:184 Few people would be confident that they have ended up making the best decision. Most would surely recognize that there are competing advantages and disadvantages, and that the final decision is made by weighing some factors more heavily than others.185 Kitcher vergleicht dieses Auswahlsystem mit dem Kauf eines Gebrauchtwagens. Die entscheidenden Faktoren seien dabei sowohl technischer (z.B. Zustand der Karosserie oder des Motors = epistemische Werte) als auch sozialer Art (z.B. Sicherheit und Bequemlichkeit = nicht-epistemische Werte). Folglich dürfte im wissenschaftstheore-

183 | Dies entspricht der von Matthias Adam vorgenommenen Trennung zwischen implizit und explizit einfließendem Wissen in Wahrnehmungsprozesse. Wegen des implizit einfließenden Wissens finden der Helmholtzschen Wahrnehmungstheorie zufolge im Laufe eines Wahrnehmungsprozesses notwendig auch unbewusste Schlüsse statt (vgl. Adam 2002, S. 80-86). 184 | Vgl. Kitcher 1993, S. 250. 185 | Kitcher 1993, S. 252.

Entgegnungen auf skeptische Einwände | 103

tischen Zusammenhang jede Form des (epistemischen und nicht-epistemischen) Qualitätsverlusts kostenverursachend wirken, z.B. die Vernachlässigung empirischer Daten, die Einschränkung des Anwendungsbereichs, jede Form von Inkonsistenz etc. Tatsächlich sind Begrenztheit bzw. Knappheit grundlegende ökonomische Kriterien, die hier gegen uneingeschränkte Unterbestimmtheitseinwände eingesetzt werden können, wenn man annimmt, dass es möglich ist zu berechnen, dass die Kosten einer Änderung der Hilfsannahmen größer sind als die Kosten einer Änderung der Hypothese.186 Natürlich können trotzdem mehrere Optionen gleichberechtigt sein. Allerdings stellt Kitcher zu Recht fest, dass die Anzahl dieser gleichberechtigten Optionen begrenzt ist, dass es keine unbegrenzte Anzahl äquivalenter Möglichkeiten gibt. Doch das eigentliche Problem der Unterbestimmtheit ist damit nicht beseitigt: Schließlich können nicht-epistemische Kriterien epistemischen vorgezogen werden. Zahlreiche Beispiele aus der Wissenschaftsgeschichte zeigen, wie Hilfsannahmen aufgestellt und fallengelassen wurden, um Hypothesen um jeden Preis, trotz gegenläufiger empirischer Daten, bestätigt zu sehen. Man denke an das von Janet Kourany angeführte Beispiel der Geschichte der Hypothese, dass Frauen Männern intellektuell unterlegen seien, was mit der angeblichen Minderwertigkeit weiblicher Gehirne begründet worden ist. Diese Hypothese wird gegen jede Evidenz und unter stets neuer Anpassung der Hilfshypothesen bis zur Gegenwart aufrecht erhalten.187 Andere Beispiele hat Stephen Jay Gould bereits in den 1980ern mit seiner detaillierten Abhandlung von Rassentheorien, die die mindere Intelligenz afrikanischstämmiger Menschen gegenüber Weißen genetisch zu begründen suchen, geliefert. Er hat gezeigt, wie Unterbestimmtheit im Zusammenspiel mit Vorurteilen zu völliger Blindheit gegenüber Evidenz führen kann, so dass raffiniert Korrekturen an Theorien gemieden werden, damit lieb gewonnene Schlussfolgerungen nicht gefährdet werden. Hier greifen Unterbestimmtheit und Theoriebeladenheit auf eine Weise ineinander, die jedem Erkenntnisfortschritt im Weg steht. Im Extremfall können solche Verirrungen, wie gezeigt worden ist, pathologisch werden. Einige von Goulds Beispielen belegen, dass es sich bei den „falschen Vermessern“ nicht einmal immer um absichtliche Verzerrungen zum Zweck des Erhalts der eigenen Macht gehandelt hat, sondern oftmals um Fälle tatsächlicher Blindheit gegenüber evidenter Fakten, verursacht durch eine unerschütterliche, pathologische Grundüberzeugung von der eigenen Überlegenheit.188

186 | Vgl. Kitcher 1993, S. 250. Das Beispiel greift er 2011 wieder auf, vgl. dort §8. 187 | Vgl. Kourany 2003b, S. 213-214. 188 | Vgl. Gould 1981, dort insbesondere die Abhandlung über Sir Cyril Burts Faktorentheorie in Kapitel 6. Gould weist im Rahmen dieser Abhandlung übrigens auch bereits auf die

104 | Die Glaubwürdigkeit der Wissenschaft

Sexistische und rassistische Beispiele sind als Belege für eine Überordnung nichtepistemischer über epistemische Werte leicht zu finden. Historisch sind und werden die Unterdrückung von Frauen und anderen Kulturen inzwischen recht gut aufgearbeitet, entsprechend leicht lassen sich derartige Fälle wissenschaftlicher Tatsachenverdrehung erfassen (wenn auch ungleich schwerer aus der Welt schaffen). Doch auch in anderen Fällen bestehen solche Probleme, die aus der Unterbestimmtheit von Theorien entstehen können – gerade hinsichtlich umweltpolitischer Entscheidungssituationen im Allgemeinen und klimapolitischer im Besonderen lässt sich das beobachten. In Bereichen der Umweltpolitik ist daher die oben genannte, von Kitcher vorgeschlagene Kosten-Nutzen-Analyse sogar oftmals als Standardverfahren vorgeschrieben. Das erweist sich in der Klimaforschung insofern als sinnvoll, als Wirtschaftsunternehmen zunehmend überzeugt werden können, dass es angesichts von KostenNutzen-Kalkulationen auch aus ökonomischen Gründen sinnvoller erscheint, Klimaschutzmaßnahmen einzuführen als nichts zu tun. Allerdings geraten Kosten-NutzenKalkulationen bei global-politischen Problemen in typisch pluralistische Schwierigkeiten: Milliarden von Menschen aus verschiedenen Kulturen haben ungleiche Wertpräferenzen und beurteilen die Bedeutung materiellen Wohlstands, bestimmter Landschaftsbilder oder anderer Menschenleben unterschiedlich.189 Solche Heterogenität nicht-epistemischer Werte erschwert Kosten-Nutzen-Analysen und kann sie sogar unmöglich machen. In der Klimaforschung werden Kosten-Nutzen-Analysen daher vor allem zur Ermittlung geeigneter lokaler Maßnahmen benutzt, um klimabedingten Schäden möglichst gut vorzubeugen. So werden z.B. vor der Insel Sylt künstlich Sandvorspülungen vorgenommen, da eine Kosten-Nutzen-Analyse ergeben hatte, dass sich bei einem angenommenen Anstieg des Meeresspiegels um 25cm bis 2050 die Kosten dieser Maßnahme auf 33 Mio. Euro, die Kosten passiven Verhaltens durch den Verlust „an Sachwerten, Infrastruktur sowie Stränden und Dünen“ hingegen auf 381 Mio. Euro belaufen. Die Analyse zeigt also „ein eindeutig positives NutzenKosten-Verhältnis des Küstenschutzes für die Insel Sylt“.190 Es wird daran unmittelbar deutlich, wie kompliziert eine globale Kosten-Nutzen-Analyse ausfallen müsste – es kann sich dabei lediglich um ein Ideal handeln. Kitcher stellt deshalb 2001 in Science, Truth, and Democracy ein normatives Modell vor, durch das der Einfluss nicht-epistemischer Werte in wissenschaftlichen Entscheidungsprozessen (auch hin-

von Kourany genannte Theorie hin, dass weibliche Gehirne aufgrund (gesellschaftlich erzwungener) mangelnder Nutzung degeneriert seien (vgl. ebd. S. 92-96). 189 | Vgl. Jaeger & Jaeger 2010, S. 12. 190 | WBGU 2006, S. 58.

Entgegnungen auf skeptische Einwände | 105

sichtlich global relevanter Entscheidungen) regulierbar werden soll (vgl. Abschnitt 3.8). Die Probleme, die sich aus der Unterbestimmtheit von Theorien ergeben, zeigen, dass methodologische Werte zwar für wissenschaftliche Objektivität und Glaubwürdigkeit notwendig sind, jedoch weder die eine noch die andere garantieren können. Mit den schon erwähnten sogenannten Listenmodellen epistemischer Werte, die als Kriterien zur Prüfung und Wahrung wissenschaftlicher Objektivität fungieren sollen, ist schon früh versucht worden, diesen Problemen zu begegnen. Ein solcher Katalog methodologischer Werte findet sich bereits im 17. Jahrhundert in Boyles Notes on a Good and an Excellent Hypothesis.191 Das wohl bekannteste Listenmodell hat 1977 Thomas Kuhn mit den Werten Genauigkeit, Reichweite, Fruchtbarkeit, Konsistenz und Einfachheit vorgeschlagen.192 Doch so hilfreich diese Kriterien bisweilen sind, können sie die Probleme, die sich aus der Unterbestimmtheit von Theorien ergeben, nur schwächen, nicht lösen, denn die Möglichkeit bewusster oder unbewusster Überordnung nicht-epistemischer Werte über Evidenz (i.e. bestehende Beobachtungsdaten) besteht trotzdem. Durch bewusstes oder unbewusstes Präferieren politischer oder ökonomischer Interessen können Hypothesen verzerrt werden, denn selbst wenn keine bewusste Abweichung oder Unterdrückung von Evidenz vorliegt, müssen von Fall zu Fall bezüglich der epistemischen Kriterien Interpretationen und Gewichtungen vorgenommen werden, eine Tatsache, die Martin Carrier als KuhnUnterbestimmtheit bezeichnet.193 Wichtig ist zu sehen, dass dies aus wissenschafts- und erkenntnistheoretischer Sicht nicht schlecht sein muss. Kuhn selbst sieht Unterbestimmtheit als eine notwendige Voraussetzung für wissenschaftlichen Fortschritt an: Was zunächst wie Ungenauigkeit und Imperfektion aussehe, sei bei genauerer Betrachtung von unverzichtbarem Nutzen, da die Risiken, die die Einführung und Unterstützung neuer Theorien immer mit sich brächten, auf diese Weise gut verteilt würden. Ein von allen geteilter Algorithmus von Entscheidungskriterien, nach dem die Philosophen immer so rege suchten, sei hingegen bei wissenschaftlichen Entscheidungsprozessen kontraproduktiv, da er Widerspruch von vornherein ausschließe. Wenn es einen solchen verbindlichen Regelkanon gäbe, würden alle Wissenschaftler zur selben Zeit stets dieselben Entscheidungen treffen: „[... T]hey would move from one attractive global viewpoint to another, never giving traditional theory an opportunity to supply equivalent attrac-

191 | Cornelis Menke geht im letzten Kapitel seiner Dissertation einschlägig auf Kataloge methodologischer Werte ein (vgl. Menke 2009). 192 | Vgl. Kuhn 1977, S. 321-322. 193 | Vgl. Carrier 2006, S. 101-104.

106 | Die Glaubwürdigkeit der Wissenschaft

tions.“194 Deshalb ist es nach Kuhn höchst nützlich, dass die epistemischen Kriterien verschieden und dennoch korrekt auslegbar sind. Zusammenfassend lässt sich sagen, dass die beiden genannten Arten momentaner Skepsis verschieden gefährlich für wissenschaftliche Glaubwürdigkeit sind. Gegen Einschränkung aufgrund von Kosten kann normativ vorgegangen werden, gegen Einschränkung durch Zeitmangel kann im Sinne robuster Evidenz argumentiert werden. Problematisch ist Fall (b), der den obigen Fall des Experimenter’s Regress aufgreift: Die Möglichkeit, dass Verzerrungen gar nicht bemerkt werden, besteht immer und liefert Skeptikern eine gute Grundlage, um Forschern Tatsachenverdrehung zu unterstellen. Eine bewusste Verdrehung ist hingegen insofern epistemisch unproblematisch, als sie, einmal erkannt, zu Diskreditierung und Reputationsverlust des Wissenschaftlers führt. Dann können zwar wie in Kouranys und Goulds Beispielen die Vorurteile trotzdem aufrecht erhalten und die Theorien angepasst werden, doch zeigt gerade die Verwendung der Beispiele durch Kourany und Gould, dass solche Verzerrungen gegen alle Evidenz nicht dauerhaft Bestand haben können. Das größte Problem ist daher der wissenschaftsskeptizistische Vorwurf, dass Theorien, wenn nicht bewusst, so eben unbewusst verzerrt würden, wenn Wissenschaftler nach bestem Wissen und Gewissen bestimmte methodologische Gewichtungen vornehmen. Eigentlich ist auch dies unproblematisch und, wie Kuhn gezeigt hat, sogar nützlich: Innerhalb eines funktionierenden Pluralismus können so neue Theorien entstehen, wobei fehlgeleitete Ansätze über kurz oder lang widerlegt werden und verschwinden. Auch hier lässt sich die Robustheit von Evidenz gegen Skeptiker ins Feld führen. Doch erlaubt die Unterbestimmtheit eben auch jenen Skeptizismus, den man gerade hinsichtlich der Klimaforschung so oft in der Zeitung findet, nämlich der Art: Zwar haben die Wissenschaftler Theorie x momentan noch nicht widerlegt, doch wird das sicher noch geschehen. Auf solche Weise haben Wissenschaftsskeptiker gerade im Hinblick auf politisch relevante und gleichzeitig komplexe Forschungsfelder immer die Möglichkeit, bestehenden Konsens anzuzweifeln, unbeeindruckt von aller Evidenz und Robustheit. Auch lässt sich beobachten, dass Interessengruppen widersprüchliche Interpretationen und Ansätze oftmals gezielt protegieren.

2.3.5.3 Beispiele für Klimaskepsis in Deutschland Als Klimaskeptiker werden Personen bezeichnet – oftmals selbsternannte oder fachferne Experten, selten tatsächlich Klimawissenschaftler – die den durch IPCC und Wissenschaftsakademien bestätigten wissenschaftlichen Konsens über die anthropo-

194 | Kuhn 1977, S. 332.

Beispiele für Klimaskepsis in Deutschland | 107

gene globale Erwärmung bezweifeln. Insbesondere in Massenmedien wird ihnen, wie bereits gezeigt, viel mehr Raum und Gehör geschenkt als in wissenschaftlichen Foren. Ein Skeptiker, der bereits genannt worden ist, ist der Klimawissenschaftler Horst Malberg, der an der Sonnenfleckentheorie festhält, wonach 70 Prozent der globalen Erwärmung auf die Sonnenaktivität zurückzuführen und der Mensch also nicht maßgeblich dafür verantwortlich sei. Malbergs Position soll hier als ein Beispiel betrachtet werden, bei dem ein Wissenschaftler offenbar wirklich davon überzeugt ist, dass die Mehrheit seiner Kollegen und das ganze IPCC irren, und der entsprechend lautstark für eine These argumentiert, die seit gut zehn Jahren widerlegt ist. Malbergs Sonnenfleckentheorie ist in Abschnitt 2.3.4 als Beispiel einer pathologischen Verirrung vorgestellt worden; interessant daran ist nun im Zusammenhang mit Klimaskepsis, dass er mit seiner Arbeit in einem nicht glaubwürdigkeitsrelevanten Forschungsfeld wohl recht schnell isoliert dastehen würde, nicht aber in einem glaubwürdigkeitsrelevanten Forschungsbereich wie der Klimaforschung. Mit seiner Bereitschaft, seine Theorie immer wieder über die Medien zu lancieren, spielt er Lobbygruppen, die bewusst Fakten verdrehen, in die Karten und wird entsprechend von ihnen vereinnahmt. So wird Malberg vielerorts zum einzigen aufrichtigen und mutigen Wissenschaftler in einer Gemeinschaft voller Lügner heroisiert. Klimaskeptiker werden in den USA schon länger von Industrie und Wirtschaft gefördert. Politik und Industrie stellen Think Tanks Gelder zur Verfügung, damit sie Argumente gegen die aus den IPCC-Sachstandsberichten hervorgehenden Forderungen nach Klimaschutzmaßnahmen liefern. Ein Beispiel, das bereits genannt worden ist, ist das American Enterprise Institute (AEI), das zu einem großen Teil vom Ölkonzern Exxon finanziert wird, und auch in Europa formieren sich seit einigen Jahren ähnliche Organisationen. So hat die weit verzweigte und eng vernetzte US-Szene der Klimaskeptiker beispielsweise über das Europäische Institut für Klima und Energie (EIKE) in Deutschland Fuß gefasst. Es ist, wie die Wissenschaftsjournalistin Jeanne Rubner feststellt, kein Zufall, dass die sogenannten Experten, die EIKE angehören und zuarbeiten, dem rechtskonservativen Lager zuzuordnen sind, das entscheidende Kontakte zur Industrie hat. EIKE gibt den Aussagen von Klimaskeptikern in Europa einen offiziellen Anstrich, wenngleich es sich dabei nicht wirklich um ein Institut handelt, sondern nur um einen eingetragenen Verein. So eignen sich hier Wissenschaftsskeptiker wissenschaftliche Autorität an – ein Vorgehen, das die Glaubwürdigkeit seriöser Wissernschaftler unterminieren kann; auf diese Gefahr hat Robert Merton bereits 1973 hingewiesen.195

195 | Vgl. Merton 1973, S. 264 und 277.

108 | Die Glaubwürdigkeit der Wissenschaft

EIKEs Präsident, der Jenaer CDU-Politiker Holger Thuss, hat neben EIKE auch eine europäische Zweigstelle des ebenfalls von Exxon gesponserten amerikanischen Committee For A Constructive Tomorrow (CFACT) gegründet, einer selbsternannten Alternative zu Greenpeace, die jedoch vornehmlich wirtschaftsliberale Ideale vertritt. Der Vorstand setzt sich überwiegend aus Ökonomen und Juristen der CDU und FDP sowie einigen Vertretern der Atom- und Kohleindustrie zusammen.196 Es handelt sich also beim ECFACT ebenso wenig wie bei seiner amerikanischen Mutterorganisation um eine wissenschaftliche Gesellschaft, sondern um eine politökonomische Interessenvereinigung, die über erhebliche Mittel verfügt, entsprechend großen Einfluss hat und diesen auch geltend zu machen versucht. So hat das ECFACT gemeinsam mit der FDP-nahen Friedrich Naumann-Stiftung Anfang Dezember 2009 in Berlin eine internationale Klimatagung organisiert, zu der als Hauptredner der amerikanische Klimaskeptiker Fred Singer geladen war, einer der Hauptakteure organisierter Klimaskepsis in den USA.197 Beide Vereine können auch echte Klimawissenschaftler als Mitglieder aufweisen. Dem Advisory Board vom ECFACT gehören drei IPCC-Mitglieder an, allerdings handelt es sich just um drei Klimaskeptiker, Peter Dietze, Hans Labohm und Tom Segalstad, die den anthropogenen Klimawandel und die Zuverlässigkeit des IPCC bezweifeln. Sallie Baliunas, die zusammen mit Willie Soon durch die These Aufsehen erregt hat, im 20. Jahrhundert habe keine ungewöhnliche Erwärmung stattgefunden (vgl. S. 54), findet sich hier ebenfalls. Horst Malberg lässt sich auf der EIKEHomepage als wissenschaftlicher Beirat nennen. Die Studien von Malberg, Soon und Baliunas werden in beiden Netzwerken vielfach zitiert. Ein weiteres Beispiel gezielt geförderter Klimaskepsis in Deutschland liefert Ulrich Berner von der Bundesanstalt für Geowissenschaften und Rohstoffe. Er betont in einem aufwendig gemachten Buch mit dem Titel Klimafakten, der Mensch trage lediglich mit 2,1 Prozent der Treibhausgase zum Treibhauseffekt bei.198 Diese Zahl ist nicht einmal falsch, sie ergibt sich tatsächlich aus dem dritten Sachstandsbericht des IPCC,199 wonach die zu erwartende anthropogene Erwärmung lediglich bei 0,1

196 | Vgl. Rubner: Die Stars der Konzerne. Süddeutsche Zeitung, 31. 3. 2010. 197 | Einen guten Überblick über Singers Aktivitäten liefern Naomi Oreskes und Erik Conway (vgl. Oreskes & Conway 2010). 198 | Vgl. Berner & Streif 2000, S. 87. 199 | Vgl. IPCC 2001, S. 7. Dort heißt es: „The radiative forcing due to increases of the well-mixed greenhouse gases from 1750 to 2000 is estimated to be 2.43 Wm-2 : 1.46 Wm-2 from CO2 ; 0.48 Wm-2 from CH4 ; 0.34 Wm-2 from the halocarbons; and 0.15 Wm-2 from N2 O.“ Berner summiert den Effekt der Nicht-Kohlendioxid-Treibhausgase auf etwa 1,14Wm-2 . Diese

Beispiele für Klimaskepsis in Deutschland | 109

bis 0,2 Grad pro Dekade liege.200 Doch wie Stefan Rahmstorf erläutert, macht der natürliche Treibhauseffekt, ohne den auf der Erde gar kein Leben herrschen würde, etwa 33 Grad aus. Eine Verstärkung durch den Menschen um zwei Prozent ergebe dann, so Rahmstorf, ziemlich genau die zusätzlichen 0,7 Grad Erwärmung der vergangenen 100 Jahre, die eben jene Veränderung hervorrufen, vor deren Auswirkungen in den IPCC-Berichten gewarnt wird.201 Das Verschweigen dieses Zusammenhangs (2,1 Prozent anthropogener Anteil an der Gesamtemissionsmenge von Treibhausgasen und die zusätzliche Erwärmung um 0,7 Grad, die schwere Risiken birgt) lässt das Ausmaß des anthropogenen Einflusses harmlos erscheinen, was umso fragwürdiger wird, als Berners Schriften in Buch- und Prospektform mit finanzieller Unterstützung der Braunkohleindustrie unter Politikern und Journalisten verteilt werden202 und die Bundesanstalt für Geowissenschaften und Rohstoffe nicht etwa dem Forschungs- oder Umweltministerium, sondern dem Wirtschaftsministerium untersteht. Der Co-Herausgeber von Klimafakten ist Hansjörg Streif vom Niedersächsischen Landesamt für Bodenforschung (inzwischen Niedersächsisches Landesamt für Bergbau, Energie und Geologie), das zum niedersächsischen Ministerium für Wirtschaft, Arbeit und Verkehr gehört. Außerdem ist das Werk vom Institut für Geowissenschaftliche Gemeinschaftsaufgaben finanziert worden, das ebenfalls dem Bundesministerium für Wirtschaft und Technologie sowie dem Niedersächsischen Ministerium für Wirtschaft, Arbeit und Verkehr unterstellt ist. Es soll an dieser Stelle nicht darum gehen, gegen Medien und Klimaskeptiker zu polemisieren. Wichtig im hiesigen Zusammenhang sind vielmehr die (sozial)epistemologischen Auswirkungen der (organisierten) Wissenschaftsskepsis. Zu beobachten ist, dass sich Klimaforscher gegenüber Öffentlichkeit und Kritikern abschotten, anstatt Vorwürfe und Verschwörungstheorien immer wieder neu zu widerlegen und unreflektierten journalistischen Anfragen mit aufklärerischer Geduld nachzukommen. Dadurch fühlen sich die Zweifler bestätigt, und die Glaubwürdigkeit der Wissenschaftler leidet erst recht unter den Auswirkungen der skeptischen Anfeindungen und unter den Massen schlecht recherchierter Artikel und Reportagen. Hier entsteht eine Spirale des Zweifels, wenn die Abschottung der Wissenschaftler die Position der Skeptiker stärkt, deren Anfeindungen wiederum den Unwillen auf Seiten der Wissen-

Zahlen entsprechen 1,2 Prozent anthropogenen Anteils an Kohlendioxid sowie 0,9 Prozent an Nicht-Kohlendioxid. 200 | Vgl. IPCC 2001, S. 13. 201 | Vgl. Rahmstorf: Flotte Kurven, dünne Daten. Die Zeit, 5. 9. 2002. 202 | Vgl. Rahmstorf: Flotte Kurven, dünne Daten. Die Zeit, 5. 9. 2002.

110 | Die Glaubwürdigkeit der Wissenschaft

schaftler vergrößern etc. Ich komme auf diese Probleme in Kapitel 4 noch einmal zu sprechen. Im Folgenden kehre ich zurück zur Frage, wie genau Werteeinfluss in induktiv vorgehender Wissenschaft eigentlich zustande kommt. Bislang ist die These, dass induktive Verfahren Risiken implizieren und Forschung via Unterbestimmtheit zu politisch oder moralisch relevanten Entscheidungen verpflichten kann, hier nur behauptet, aber noch nicht begründet worden. Gegen diese These sind in der Wissenschaftsphilosophie des 20. Jahrhunderts einige realistische Rettungsversuche unternommen worden, die dadurch motiviert waren, Neutralität als oberste Pflicht für Wissenschaftler und wesentliches Kriterium für Wissenschaft zu verteidigen. Kann man nicht, so wurde gefragt, Werturteile trotz Unterbestimmtheit aus den Verfahren wissenschaftlicher Erkenntnis heraushalten?

2.3.6 Wissenschaft und Werte The scientific man has above all things to strive at self-elimination in his judgments, to provide an argument which is as true for each individual mind as for his own. K ARL P EARSON , T HE G RAMMAR OF SCIENCE

1953 entwickelte Richard Rudner ein starkes Argument gegen die klassische Fakten-Werte-Dichotomie als Basis eines empirischen Objektivitätsanspruchs, das bis in die Gegenwart immer wieder aufgegriffen wird. Zwar gibt es zu dieser Zeit bereits Argumente dafür, dass Wissenschaftler bei ihrer Arbeit von Werten beeinflusst werden, doch sind diese, wie Rudner zeigt, eher schwach. Sie basieren entweder (a)

auf der Behauptung, dass allein die Entscheidung, wissenschaftlich zu arbeiten, vorab Werturteile erfordert, oder

(b)

auf der Feststellung, dass Wissenschaftler durch den Zwang, zwischen alternativen Frage- oder Problemstellungen zu wählen, bereits Werturteile fällen müssen, oder

(c)

auf der Tatsache, dass jeder Wissenschaftler auch ein Mensch ist und als solcher Vorlieben hat, die zwangsläufig alle seine Aktivitäten beeinflussen – auch seine wissenschaftlichen.

Wissenschaft und Werte | 111

Allen drei Annahmen lässt sich erfolgreich widersprechen, da sowohl Argument (a) als auch (b) Entscheidungen betreffen, die außerwissenschaftlich sind, weil sie bereits vor dem wissenschaftlichen Handeln getroffen werden müssen. Daher haben sie keinen Einfluss auf die wissenschaftliche Praxis selbst. (c) sei, so Rudner, an sich nicht bestreitbar; allerdings könne diesem Argument das Ideal des perfekten Wissenschaftlers entgegen gehalten werden, der in seiner Rolle als Wissenschaftler („qua scientist“) immer objektiv ist, woraus sich, sobald er als Wissenschaftler handelt, rein begriffsanalytisch eine Notwendigkeit seiner Objektivität ergebe: The perfect scientist—the scientist qua scientist does not allow this kind of value judgment to influence his work. However much he may find doing so unavoidable qua father, qua lover, qua member of society, qua grouch, when he does so he is not behaving qua scientist.203 Dem Wissenschaftler auf diese Weise, per definitionem, Objektivität zuzusprechen, ist ein argumentativer Schachzug, der deskriptiv nicht widerlegbar ist. Eine ContraPosition wie die Rudners muss deshalb zeigen, dass Wissenschaftler als Wissenschaftler nicht wertfrei arbeiten können und so die Möglichkeit obiger Definition ausschließen. Hierfür entwickelt Rudner auf der Basis des Induktionsproblems ein starkes Argument, das im Folgenden rekonstruiert wird: P1:

Beim induktiven Verfahren der wissenschaftlichen Praxis benötigt jede Annahme einer Hypothese eine bestimmte Stärke ihrer Belege, also einen bestimmten Grad an Bestätigung.

P2:

Wann dieser Grad an Bestätigung hoch genug ist, muss schließlich abgewogen und entschieden werden. Wie viel Sicherheit wir benötigen, bevor wir eine Hypothese akzeptieren, hängt beispielsweise davon ab, wie schwerwiegend gegebenenfalls ein möglicher Schaden wäre, welches Risiko also mit ihr verknüpft ist oder wie groß der Bedarf an ihrer Anwendung ist.204

203 | Rudner 1953, S. 2. 204 | Dies betrifft beide klassischen Arten von Risiken, die Frank Knight 1921 unterschieden hat, nämlich sowohl objektiv kalkulierbare Risiken als auch Ungewissheiten, die nur subjektiv geschätzt werden können (vgl. Knight 1964, S. 197-232). Es scheint mir angesichts der derzeitigen Debatten in der Wissenschaftsphilosophie wichtig, zu betonen, dass Rudners Argument nicht allein angewandte Forschung betrifft. Die Sicherheitsbestimmung kann z.B. auch eine Hypothese von rein epistemischem Interesse betreffen; ein entscheidender Faktor könnten hier beispielsweise finanzielle Einschränkungen sein: Welchen Wahrscheinlichkeitsgrad man

112 | Die Glaubwürdigkeit der Wissenschaft

K1:

Daher erfordert das der wissenschaftlichen Praxis inhärente Akzeptieren bzw. Ablehnen von Hypothesen notwendigerweise Werturteile.

K2:

Also führt die Eigenschaft des Wissenschaftler-Seins selbst notwendigerweise zum Fällen von Werturteilen.

Die Notwendigkeitsbedingungen in den Konklusionen K1 und K2 ergeben sich dabei aus der Allquantifikation in der ersten Prämisse: Keine empirische Hypothese ist jemals 100-prozentig belegt. Es ergibt sich daher an dieser Stelle zwangsläufig immer das Problem, ab welchem Bestätigungsgrad sie zu akzeptieren bzw. zu verwerfen sei – die Festlegung dieses Bestätigungsgrades wiederum erfordert Werturteile.205 Zwar könnte eingewandt werden, dass der Wahrscheinlichkeitsgrad für die Akzeptanz oder Aufgabe einer Hypothese vom Wissenschaftler in seiner Rolle als Mitglied der Gesellschaft und also nicht in seiner Rolle als Wissenschaftler festzulegen sei, dass er als Wissenschaftler also lediglich für die Datenermittlung und nicht für die daraus folgenden urteilenden Bewertungen zuständig sei. [But][...] the determination that the degree of confirmation is say, p, or that the strength of evidence is such and such, which is on this view being held to be the indispensable task of the scientist qua scientist, is clearly nothing more than the acceptance of the hypothesis that the degree of confidence is p or that the strength of the evidence is such and such [...].206 Auf diese Weise wird die Entscheidung, wann eine Hypothese zu akzeptieren bzw. zu verwerfen sei, lediglich verschoben; denn welcher Bestätigungsgrad ausreichend für ein halbwegs gesichertes Urteil ist, liegt weiterhin im Ermessen der Forscher, auch dann, wenn die Urteile von außerwissenschaftlichen Instanzen gefällt würden. Schließlich müssten die Wissenschaftler doch wieder eine Entscheidung treffen, nämlich ob die von außen getroffene Entscheidung zu akzeptieren sei:

veranschlagt, um die Hypothese zu akzeptieren, hinge hier auch davon ab, welchen zeitlichen und finanziellen Aufwand man betreiben kann. 205 | Rudners Argument findet sich bereits 1948 bei Churchman: „[T]he simplest question of fact in science requires for even an approximation, a judgment of value. [. . . ] We are [. . . ] making the [. . . ] claim that the science of ethics (like all the principal branches of science) is basic to the meaning of any question the experimental scientist raises. All the so-called ‚facts‘ of science imply for their meaning a judgment of value.“ (Churchman 1957, S. vii-viii) Ebenfalls findet es sich 1965 bei Carl Gustav Hempel: „[...] the justification of the rules of acceptance and rejection requires reference to value judgments.“ (Hempel 1965, S. 92) 206 | Rudner 1953, S. 4.

Wissenschaft und Werte | 113

[...] any adequate analysis or (if I may use the term) rational reconstruction of the method of science must comprise the statement that the scientist qua scientist accepts or rejects hypotheses; and further that an analysis of that statement would reveal it to entail that the scientist qua scientist makes value judgments.207 Dem schließen sich Heather Douglas und Torsten Wilholt an, die auf das notwendige Einwirken nicht-epistemischer Werte auf Entscheidungsprozesse bezüglich induktiver Risiken hinweisen. Sobald nicht-epistemische Konsequenzen aus einem Fehler drohten, seien nicht-epistemische Werte zwangsläufig essentiell bei der Entscheidung, welches induktive Risiko in Kauf genommen werden könne, welche Entscheidung man also zu treffen habe.208 Das Argument weist, wie Rudner bemerkt, eine Analogie zu Quines Position in einer sprachphilosophischen Auseinandersetzung mit Carnap auf. Carnap vertritt hier die Position, dass für die Anwendung von Sprache zunächst ein Rahmen derselben festgelegt werden müsse: Erst seien externe Fragen bezüglich der sprachlichen Syntax und Semantik zu beantworten, damit man sich anschließend internen, inhaltlichen Fragen mit kognitivem Gehalt zuwenden könne. Aus diesem Standpunkt leitet sich die Unterscheidung ab, dass abstrakte Begriffe oder nicht auf Beobachtung beruhende Sätze (wie z.B. Zahlen bzw. Funktionen) auf Entitäten einer wesentlich anderen Art referieren als solche, die unmittelbar wahrnehmbare Daten bezeichnen: [...] electrons in physics [...] or complex numbers and their functions in mathematics [...] do not imply the assertion that entities of these kinds occur as immediate data. And the same holds for references to abstract entities as designata in semantics.209 Was von Rudner als Fakten-Werte-Dichotomie bezeichnet worden ist, verhält sich strukturell insofern parallel zu der hier von Carnap behaupteten Dichotomie von internen und externen Fragen des Sprachgebrauchs, als solche Abwägungen und Urteile bezüglich abstrakter Methoden und Werte einem grundlegend anderen Typus zugerechnet werden als diejenigen Hypothesen, die in angewandten Wissenschaften zum Einsatz kommen. Sie befassen sich mit externen, abstrakten Fragen, während in der praktischen Anwendung interne, unmittelbare Daten erhoben und verarbeitet werden.

207 | Rudner 1953, S. 4. 208 | Vgl. Douglas 2000; Douglas 2009, S. 103-108; vgl. außerdem Wilholt 2009; Wilholt 2011, S. 196-197. 209 | Carnap 1950, S. 38.

114 | Die Glaubwürdigkeit der Wissenschaft

Quine hält diese Dichotomie für falsch. In seiner Antwort auf Carnaps Aufsatz erwidert er provokant, dass hinsichtlich des epistemologischen Fundaments physikalischer Objekte und Gottheiten lediglich ein gradueller, aber kein wesentlicher Unterschied bestehe. Beide Arten von Entitäten gelangten lediglich als kulturelle Postulate in die menschliche Begriffsbildung. Er misst physikalischen Objekten den Status eines Mythos bei, der anderen Mythen lediglich deshalb epistemologisch überlegen sei, weil er sich als handlicheres und effektiveres Werkzeug erwiesen habe.210 Dieses Zugeständnis, dass es keinen wesentlichen, sondern bloß einen pragmatischen Unterschied zwischen wissenschaftlichen und alltagssprachlichen oder gar religiösen Sätzen gebe, führt Quine zum Holismus. Parallel lehnt auch Rudner die Fakten-WerteDichotomie ab. Rudners Position macht das traditionelle Ideal wissenschaftlicher Objektivität obsolet, und konsequent fordert er einen neuen Objektivitätsbegriff: „What seems call for [...] is nothing less than a radical reworking of the ideal of scientific objectivity.“211 Kein Wissenschaftler komme der Objektivität dadurch näher, dass er einfach ausblende, dass das Fällen von Werturteilen der wissenschaftlichen Praxis inhärent sei.212 Richard Jeffrey kritisiert 1956 Rudners Position. Er wendet sich darin zentral gegen Rudners Akzeptanzbegriff, den er hinsichtlich der wissenschaftlichen Praxis für nicht adäquat hält. Wissenschaftler träfen keine Werturteile aufgrund empirischer Daten, sie lehnten weder Hypothesen ab noch akzeptierten sie welche. Vielmehr verhalte es sich so, dass wahrscheinliche Hypothesen, solange kein sicheres Wissen vorliege, so behandelt werden müssten, als seien sie wahr, damit mit ihnen gearbeitet werden könne. Rudner spreche hier jedoch vom „Akzeptieren einer Hypothese“ als finde dabei ein induktiver Sprung von hoher Wahrscheinlichkeit hin zu Sicherheit statt. Jeffrey schließt sich ausdrücklich Carnaps dichotomem Konzept an, indem er Praxis und Theorie als explicanda und explicata voneinander unterscheidet: „The view that a theory of probability is an explication of a vague concept in common use (the explicandum) by a precise concept (the explicatum) is due to Carnap.“213 Entsprechend wendet Jeffrey gegen Rudners Standpunkt ein, dass methodologisch keinesfalls die Akzeptanz von Hypothesen, sondern lediglich die Wahl zwischen unterschiedlich stark bestätigten Hypothesen möglich sei. Er verweist auf Bruno DeFinetti, der die Problematik des Akzeptanzbegriffs hinsichtlich des Arbeitens mit Hypothesen ebenfalls betont:

210 | Vgl. Quine 1964, S. 44. 211 | Rudner 1953, S. 5. 212 | Vgl. Rudner 1953, S. 6. 213 | Jeffrey 1956, FN 4, S. 238.

Wissenschaft und Werte | 115

[I] do not deem the usual expression „to accept Hypothesis H r “ to be proper. The „decision“ does not really consist of this „acceptance“ but in „the choice of a definite action Ar “. The connection between the „action“ Ar and the „hypothesis“ H r may be very strong, say „the action Ar is that which we would choose if we knew that H r was the true hypothesis“. Nevertheless, this connection cannot turn into an identification.214 Kurzum: Eine Hypothese anzunehmen bedeutet nicht, sie als wahr anzunehmen, sie zu akzeptieren. Es ist, wie Jeffrey betont, aber auch gar nicht nötig, eine Hypothese zu akzeptieren. Ob man mit ihr arbeiten kann, hängt vielmehr von der speziellen Beschaffenheit des jeweiligen Problems ab. Rudner sei hier, so Jeffrey, zu undifferenziert, wenn er seine „Akzeptanz-Theorie“ als allgemein zutreffend einstufe.215 Jeffrey unterstellt Rudners Argument somit einen Akzeptanzbegriff, der nicht haltbar ist: P1*:

Eine Hypothese zu akzeptieren bedeutet, die Stärke ihrer Belege gleich 100 Prozent zu setzen.

P2*:

Eine 100-prozentige Stärke der Belege kann es nicht geben.

K*:

Es ist nicht möglich, eine Hypothese zu akzeptieren.

Dies ist jedoch ein eher schwacher Einwand. Zwar erscheinen Jeffreys Überlegungen an sich plausibel und berechtigt, allerdings stellt sich die Frage, inwiefern sie tatsächlich Rudners Argumentation betreffen. Zwar spricht Rudner vom „Akzeptieren“ von Hypothesen, aber an keiner Stelle davon, sie „once for all“216 zu akzeptieren oder zu verwerfen, wie Jeffrey ihm unterstellt. Rudner behauptet keine Identitätsbeziehung zwischen hoher Wahrscheinlichkeit und Sicherheit, diese Art „Missinterpretation der Statistik“217 kann man ihm nicht vorhalten. Eher ist wohl anzunehmen, dass er diese Kenntnis der Beschaffenheit induktiven Schließens unkommentiert vorausgesetzt hat, zumal er sich auf Quines Argumentation stützt. Es erscheint daher vielmehr plausibel, Rudners Akzeptanzbegriff so zu verstehen, dass eine Hypothese nie ein für allemal richtig oder falsch sein, sondern sich zum entsprechenden Forschungsprogramm konsistent verhalten und dazu geeignet sein kann, Ergebnisse zu prüfen oder bestimmte Analysen durchzuführen. In diesem Sinn ermöglicht Rudners Konzept nicht nur eine wesentlich adäquatere Beschreibung des tatsächlichen wissenschaftlichen Arbeitens

214 | DeFinetti 1951, S. 219. 215 | Vgl. Jeffrey 1956, S. 243. 216 | Jeffrey 1956, S. 245. 217 | Vgl. DeFinetti 1951, S. 219.

116 | Die Glaubwürdigkeit der Wissenschaft

als das von Jeffrey, Rudner scheint auch tatsächlich einen wichtigen Punkt anzusprechen, den Jeffreys Einwände nicht widerlegen können. Isaac Levi arbeitet das 1960 präzise heraus. Er verwendet zwar nicht explizit Jeffreys Worte („once for all“), sondern spricht von „open-ended situations“, gemeint ist hier aber dieser Punkt. Levi kommt zu dem Schluss, dass Rudners Argument nur sinnvoll sei, wenn man seinen Akzeptanzbegriff hinsichtlich eben jener „open-ended situations“ als sinnlos begreife und Jeffrey sich daher einer Äquivokation schuldig mache, wenn er Rudners Akzeptanzbegriff als sinnvoll für unendliche Prozesse darstelle.218 Rudners Argument ist also nicht so zu verstehen, dass hier ein Sprung von Wahrscheinlichkeit zu Gewissheit gemacht wird, sondern so, dass bereits die Annahme, eine Hypothese sei zu einem bestimmten Grad wahrscheinlich, akzeptiert werden muss. Levi schließt daraus, es seien bestimmte „canons of inference“, die zu akzeptieren seien: Apologists for this [Rudner’s] view [. . . ] might contend that scientific inferences indicate how one ought to act on the basis of hypotheses but not what one ought to believe. [...] [It is not the case] that the scientist qua scientist makes no value judgment but that given his commitment to the canons of inference he need make no further value judgments in order to decide which hypotheses to accept and which to reject.219 Diese Position Levis, die sich zu Rudners Position neutral verhält, wird bis heute überzeugend vertreten.220 Die von Rudner festgestellte notwendig wertbasierte Handlungsentscheidung wird hierdurch nicht in Frage gestellt. Jeffreys Versuch dagegen, Rudner wegen begrifflicher Fehler ad absurdum zu führen, kann als gescheitert betrachtet werden. Denn Rudners wesentlicher Punkt: dass ein bestimmter Bestätigungsgrad einer Hypothese erforderlich sei, um diese anzunehmen, weshalb dieser Bestätigungsgrad auf irgendeine Weise festgelegt werden muss, wird von Jeffreys Einwänden gar nicht berührt. Heather Douglas schreibt zutreffend: „This problem [making this kind of judgment again must involve values to determine what would be acceptable] is first discussed in Rudner 1953 and, to my knowledge, is not addressed by his critics.“221 Somit bleibt das Problem, dass letztlich vom Wissenschaftler als Wissenschaftler eine Entscheidung darüber getroffen werden muss, wie hoch der Bestätigungsgrad ei-

218 | Vgl. Levi 1960, S. 354. 219 | Levi 1960, S. 352. 220 | Z.B. von Sober 2007. 221 | Douglas 2007, S. 126.

Wissenschaft und Werte | 117

ner Hypothese im Einzelfall zu sein habe, bestehen: Wenn z.B. aufgrund einer Studie über zwei Jahre an 100 Mäusen eine bestimmte Dosis X einer Substanz als karzinogen gilt, dann liegt die Akzeptanz in dem Entschluss, eine Karzinogenität der Substanz ab Dosis X anzunehmen. Hierbei sind zwei Entscheidungsmomente von nicht-epistemischen Werten beeinflusst: zum einen die vor der Testreihe vorzunehmende Definierung der Phänotypen, i.e. welche Befunde als Krebs gewertet werden sollen und welche nicht. Wie soll man Präparate beurteilen, die eine bestimmte Diagnose nicht zweifelsfrei zulassen? Was kann als (gefährliche) Anomalie eines Präparats gelten, welche Veränderung ist zu vernachlässigen? Heather Douglas hat auf diese Probleme hingewiesen.222 Das andere Entscheidungsmoment findet während der Testreihe statt. Die Bedingungen der Testreihe (2 Jahre, 100 Mäuse, von denen ein bestimmter Prozentsatz Krebs aufweisen muss, sowie die Phänotypendefinition) müssen akzeptiert werden, um die Testreihe als hinreichenden Beleg für die Hypothese einer Karzinogenität der geprüften Substanz ab Dosis X anzunehmen. Hiergegen ließe sich jedoch überzeugend einwenden, dass ein Wissenschaftler sich schlicht durch Angabe der Bedingungen und Unsicherheitsfaktoren neutral verhalten könnte.223 Im Folgenden beruft sich Jeffrey in seiner Argumentation auf Bayes, doch kann das Theorem hier kaum zu einer Problemlösung verhelfen, sondern verdeutlicht vielmehr Rudners Kritikpunkt: Das Festlegen der Priorwahrscheinlichkeiten und somit auch der Likelihoods erweist sich als problematisch, da hier Werturteile nicht ausgeschlossen werden können.224 John Worrall expliziert das Problem: Gegeben seien ein Ergebnis e und zwei Hypothesen T und A mit den Hypothesenwahrscheinlichkeiten p(T/e) und p(A/e). Nach der Definition bedingter Wahrscheinlichkeit ergibt sich dann: 1. p(T/e) =

p(e/T )·p(T ) p(e)

2. p(A/e) =

p(e/A)·p(A) p(e)

bzw.

p(e) steht entsprechend für die Ereigniswahrscheinlichkeit, p(e/T) bzw. p(e/A) bezeichnen die Likelihoods, p(T) bzw. p(A) die Priorwahrscheinlichkeiten. Die Wahrscheinlichkeit des Auftretens eines Ereignisses e gegeben eine Hypothese h ist stets proportional geringer als die Gesamtwahrscheinlichkeit des Auftretens von e (Ausnahme selbstverständlich: wenn h und e in kausaler Abhängigkeit voneinander stehen). Worrall beschreibt das Problem hinsichtlich der Priorwahrscheinlichkeiten:

222 | Vgl. Douglas 2000. 223 | Diesen Einwand verdanke ich Gregor Betz. 224 | Popper übersetzt den Begriff „Likelihood“ in der Logik der Forschung sogar als „relative ‚Glaubwürdigkeit‘“.

118 | Die Glaubwürdigkeit der Wissenschaft

Clearly if, for example, a Bayesian „agent“ judges p(e/A) to be very close to p(e), while she judges p(e/T) to be very much less than p(e), then by the above equations, the posterior probability of A will be very close to its prior, while the posterior probability of T will be significantly reduced compared to its prior.225 Anders formuliert besteht das Problem darin, dass Priorwahrscheinlichkeiten aufgrund subjektiver Überzeugungsgrade verschieden gewichtet sein und entsprechend zu unterschiedlichen Ergebnissen führen können. Diese Kritik haben bereits zu Beginn der 1980er Jahre Keith Lehrer und Carl Wagner vorgebracht: This means that if we assume that the probability of (T [. . . ]) is higher than the conjunction of competing theories and connecting sentences, it is because we assign a higher probability to (T [. . . ]) initially. [. . . ] The upshot is that decision making in science is decision making under risk, such decision making is based on probabilities, and those probabilities, in turn, are based on prior antecedent or unconditional probabilities of theories and their connecting sentences.226 Tritt also beispielsweise bei einer bestimmten Theorie ein Widerspruch auf, können verschiedene Anpassungen der Theorie das Problem beseitigen, was ganz das in der Duhem-Quine-These formulierte Problem der Unterbestimmtheit bestätigt. So kann im Extremfall hinsichtlich widersprüchlicher Belege geltend gemacht werden, das Hintergrundwissen sei schlichtweg mangelhaft bzw. falsch, und die Hypothese kann dann – auch unter Verwendung des Bayes-Theorems – aufrechterhalten werden. Diese Überlegungen klammert Jeffrey aus seiner Argumentation jedoch aus: Zwar weist er auf die Unzulänglichkeit der Wahrscheinlichkeitstheorien hin, doch zieht er daraus keine Konsequenz. Häufig, so räumt er ein, fehlten ausreichende Kenntnisse über Priorwahrscheinlichkeiten und Likelihoods;227 doch trotzdem sei Bayes’ Theorem der extrem konservativen und pessimistischen Minimax-Methode vorzuziehen, die den wissenschaftlichen Fortschritt unprofitabel und oftmals unangemessen behindere. Zwar gebe es Situationen, in denen es angebracht sei, mit größter Achtsamkeit zu handeln, doch gebe es kein befriedigendes Kriterium, das festlege, was genau diese

225 | Worrall 1993, S. 334. 226 | Lehrer & Wagner 1981, S. 87-88. 227 | Diesen Schwachpunkt benennt auch DeFinetti: „[...] the weak point of the Bayes’ theory is the constant uncertainty concerning the ‚a priori probabilities‘, their ‚existence‘, ‚knowledge‘, ‚evaluation‘, and ‚justification‘.“ (DeFinetti 1951, S. 219)

Wissenschaft und Werte | 119

Situationen kennzeichne.228 Interessanterweise stimmt Jeffrey mit dieser Feststellung Rudners springendem Punkt letztlich doch implizit zu: Man muss eben, aus Mangel eines solchen Kriteriums, Entscheidungen darüber treffen, wann ein Bestätigungsgrad einer Hypothese akzeptiert werden kann. Dieser Diskurs macht deutlich, dass in der Praxis bestenfalls annähernd eindeutige Bestätigungsgrade von Hypothesen vorliegen, weshalb Entscheidungen für oder gegen Hypothesen während des wissenschaftlichen Arbeitens notwendigerweise Werturteile enthalten. „Values certainly determine which fields or sub-fields get investigated, but do they play a role in the actual findings, that is, in the very substance and content of science? That’s the big question.“229 Wie Longino überzeugend argumentiert, ist diese Frage nicht befriedigend zu beantworten, da in induktiven Erkenntnisverfahren Entscheidungen getroffen werden müssen, bei denen häufig nicht klar ist, ob die letztlich entscheidenden Werte epistemische oder nicht-epistemische sind (vgl. dazu die Abschnitte 3.2 und 3.5). Dass eine Hypothese nicht ein für allemal akzeptiert werden kann, ist zwar durch Jeffreys Einwände gezeigt worden, doch ist es in Forschungsprozessen notwendig, zu irgendeindem Zeitpunkt einen Bestätigungsgrad einer Hypothese als hinreichend belegt einzustufen, um mit der Hypothese arbeiten zu können. Auf diese Einstufung können nicht-epistemische Werte Einfluss nehmen, und in diesem Sinne erscheint es auch zulässig, vom „Akzeptieren einer Hypothese“ zu sprechen. „Akzeptieren“ meint hier also keinen Sprung von induktiv zu deduktiv, sondern die Entscheidung, einen Bestätigungsgrad einer Hypothese in einer konkreten Situation als hinreichend belegt einzustufen. Jeffreys Einwand, dass die Entscheidung, ob man die Hypothese dann als „wahr“ annehmen sollte oder nicht, wissenschaftsextern zu treffen sei, ist kein sinnvoller Einwand gegen Rudners Argument, da die Annahme dieser Entscheidung selbst doch wieder wissenschaftsintern, vom Wissenschaftler als Wissenschaftler, beschlossen werden müsste. So schreibt Heather Douglas: „Values are needed to weigh the consequences of the possible errors one makes in accepting or rejecting a hypothesis, i.e., the consequences that follow from the inductive risk.“230 Levi schließt, dass das Problem letztlich auf die Frage nach einer adäquaten Festlegung von Mindestwahrscheinlichkeiten hinauslaufe; die Wertneutralitätsthese lasse

228 | Vgl. Jeffrey 1956, S. 244-245. „Minimax“ steht für „Minimize the maximum“; die Devise lautet, das maximal denkbare Risiko zu minimieren. Häufiger wird von der MinimaxMethode auch als Maximin-Methode gesprochen (vgl. Shrader-Frechette 1994), was jedoch nur einen begrifflichen, keinen inhaltlichen Unterschied bedeutet. 229 | Brown 2001, S. 198. 230 | Douglas 2000, S. 562.

120 | Die Glaubwürdigkeit der Wissenschaft

sich nur durch die Forderung aufrecht erhalten, dass verschiedene Forscher nicht zu verschiedenen Ergebnissen bei der Bestimmung von Mindestwahrscheinlichkeiten hinsichtlich einer bestimmten Menge alternativer Hypothesen kommen dürften.231 Doch auch wenn dieser Lösungsvorschlag „in the long run“ epistemisch „saubere“, womöglich wahre Ergebnisse liefern könnte, so bleibt das Problem doch für momentane Entscheidungssituationen bestehen. Levis Vorschlag stößt hinsichtlich riskanter Forschungsunternehmen auf erhebliche Umsetzungsschwierigkeiten, denn gerade in solchen Gebieten beläuft sich die Wahrscheinlichkeit, dass sich alle Forscher schließlich einigen, gegen Null. In der Klimaforschung zeigen sich die Probleme, die aus der vorübergehenden Unterbestimmtheit für die wissenschaftliche Glaubwürdigkeit entstehen, sehr deutlich, z.B. in den divergierenden Ergebnissen innerhalb der einzelnen IPCC-Berichte. Die Prognosen der globalen Erwärmung, die die verschiedenen Forschergruppen des IPCC machen, variieren stark. Dabei müssen sämtliche zugelassenen Klimamodelle (GCMs, general circulation models) zunächst eine Plausibilitätsprüfung bestehen: Sie müssen die Temperaturdaten von 1900 bis zur Gegenwart korrekt erzeugen, damit ihre Prognosen in den Sachstandsbericht aufgenommen werden können (vgl. S. 95). So verhalten sich die produzierten Daten aller einbezogenen GCMs bis zur Gegenwart (hier: bis zum Jahr 2000) konvergent, weichen anschließend bei ihren Temperaturprognosen jedoch voneinander ab.

Abbildung 11: Modellvergleichsstudie. 232

231 | Vgl. Levi 1960, S. 357. 232 | Entnommen aus dem Summary for Policymakers des Vierten Assessment Reports, IPCC 2007a, S. 14.

Wissenschaft und Werte | 121

Es werden dann verschiedene mögliche Emissionsszenarien jeweils durch unterschiedliche GCMs simuliert.233 Dies ist in Abbildung 11 rechts zu sehen: Die vertikalen Balken stellen die Bandbreite der Vorhersagen dar, die verschiedene GCMs hinsichtlich jeweils sechs verschiedener Emissionsszenarien liefern. Die Wahl der Szenarien wird durch Experten getroffen. In dem Quadrat sind die besten Werte hinsichtlich drei Szenarien zu sehen. Durch die unterste Linie wird außerdem die Erwärmung für den Fall prognostiziert, dass die jährlichen Emissionswerte unverändert auf dem Durchschnittswert von 2000 bleiben (was realiter auszuschließen ist). Die übrigen Linien beschreiben (von unten nach oben) ein umweltorientiertes Szenario B1 und zwei wirtschaftsorientierte Szenarien A1B und A2, wobei die Schattierungen jeweils Standardabweichungen beschreiben. B1 fußt auf der Annahme einer globalen Population, die in der Mitte des Jahrhunderts ihren Höchststand erreicht und ab 2050 abnimmt. Zugleich werden ökonomische Strukturen rapide verändert, Materialverbrauch wird reduziert, ressourceneffiziente Technologien werden angewendet. Es handelt sich um ein Ideal ökonomischer, ökologischer und sozialer Nachhaltigkeit, allerdings ohne Initiative im Klimaschutz. A1B hingegen beschreibt ein Szenario unter rapidem ökonomischem Wachstum, wobei sich die Entwicklung der globalen Population wie in B1 verhält und ebenfalls neue und effizientere Technologien eingeführt werden; fossile und alternative Energiequellen werden in gleichem Ausmaß genutzt. Dem Szenario A2 liegt eine heterogene Welt zugrunde, in der lokale Eigenständigkeit und Subsistenz maßgeblich sind. Ökonomische Entwicklung ist entsprechend regional orientiert und die Population wächst kontinuierlich. Darüber jedoch, welche Prognose am realistischsten ist, gehen die Expertenmeinungen auseinander. So kann im Vierten Sachstandsbericht des IPCC keine exaktere Angabe über die globale Erwärmung bis zum Jahr 2100 gemacht werden als 1,8° bis 4,0°C. Die Werturteile, die hier in Rudners Sinne zwangsläufig einfließen, ergeben sich aus drei Quellen von Unsicherheit: 1. hinsichtlich der Strukturen der Modelle: Hilfsannahmen können hinsichtlich nicht-epistemischer Präferenzen variieren. 2. hinsichtlich der einzelnen Modellparameter, die trotz mangelndem Verständnis bestimmt werden müssen. 3. hinsichtlich der Datenlage: Regelmäßige Temperaturaufzeichnungen beginnen Mitte des 19. Jahrhunderts; die lokalen Aufzeichnungen, die Rückschlüsse auf die globale Temperatur erlauben, haben sich erst übers 20. Jahrhundert hinweg verdichtet.

233 | Im dritten IPCC Sachstandsbericht waren 31, im vierten 23 Modelle involviert.

122 | Die Glaubwürdigkeit der Wissenschaft

In allen drei Bereichen müssen Klimatologen daher Entscheidungen im Rudnerschen Sinne treffen, wenn sie Szenarien bestimmen und simulieren. Sie müssen Daten extrapolieren und rekonstruieren sowie Parameterwerte wählen.234 Der Output der Modelle zeigt somit eine Varianz, die bereits auf Basis einer werturteilsbasierten Vorauswahl entstanden ist. Im Weiteren ist es dann Aufgabe der Klimafolgenforschung, auf Basis dieser Daten den Prognosen möglicher Folgen (Anstieg des Meeresspiegels, Versauerung der Meere, Rückgang der Gletscher und Schmelze des arktischen Meereises, Dürren und Überschwemmungen etc.) Wahrscheinlichkeiten zuzuordnen. Auch dies kann nicht-epistemische Werturteile erfordern, da manche Vorhersagen anderen übergeordnet werden müssen. Gregor Betz weist in seiner Dissertation darauf hin: A model that includes all relevant components and aspects could not even be solved on the fastest super-computers. The necessity for leaving out certain aspects of the climate system implies that choices have to be made in the course of the model construction.235 Während Biddle und Winsberg vornehmlich auf Probleme der Modellierung eingehen, konzentriert sich Betz auf die Datenlage. Neben der oben (S. 95) bereits angesprochenen Gefahr einer Zirkularität durch die Verwendung von Reanalysis-Daten bei der Modellevaluation weist er auf die Tatsache hin, dass die Modelle nicht empirisch falsifizierbar sind. So haben die ersten Klimasimulationsmodelle geradezu absurde Prognosen geliefert und mussten daher ohne jede empirische Basis mittels Ad Hoc-Annahmen geändert werden.236 Die Möglichkeiten solcher Anpassungen sind groß; so liegen die Prognosen der unterschiedlich modellierten Szenarien weit auseinander: „The extreme disagreement, however, between models suggests that the climate is not even conditionally [given a certain scenario] predictable.“237 Aus dem sich hier ergebenden Erfordernis wertbasierter Urteile gewinnen Klimaskeptiker oftmals ihre Argumente, indem sie die Klimaprognosen als voreingenommen und deshalb unzuverlässig bewerten. In den öffentlichen Diskussionen führt dies dazu, dass beiden Seiten, Vertretern der Ölindustrie wie Umweltaktivisten, passende Argumente geliefert werden. Optimisten wie Pessimisten fühlen sich bestätigt, und in den Massenmedien wird Klimaforschern ebenso Unter- wie Übertreibung vorgeworfen. Wenn Regierungen maßgebliche Entscheidungen nicht oder nur zögerlich

234 | Vgl. hierzu Biddle & Winsberg 2010. 235 | Betz 2006, S. 71. 236 | Betz 2006, S. 74. 237 | Betz 2006, S. 78.

Wissenschaftliche Objektivität | 123

treffen, sind dafür sicherlich ökonomische Interessen maßgeblich; aber die Unsicherheiten, die in der Klimaforschung herrschen und in der Unschärfe und den Schwankungen der IPCC-Prognosen ihren Ausdruck finden, stellen Skeptikern gute Begründungen bereit. Natürlich wird im Jahr 2100 klarer sein, welches Szenario am ehesten eingetroffen ist, und auch können die Modelle über Jahre und Dekaden hinweg den stets wachsenden Datenerhebungen angepasst und dadurch verbessert werden. Allerdings ist dies irrelevant, da anzunehmen ist, dass sich das globale Klimasystem aufgrund seiner Komplexität einer vollständig adäquaten Modellierung entzieht (vgl. Abschnitt 4.5). Doch selbst wenn eine solche adäquate Modellierung, die eindeutige korrekte Prognosen liefert, möglich wäre, läge sie in ferner Zukunft. Das praktische Problem allerdings besteht längst: In another hundred years we’ll surely know a lot more about how the global climate works. But we have to act now, which means that we have to make policy in a setting where the evidence for and against different climate models is not definitive.238 Dies bedeutet, dass Unsicherheiten, die an sich keine Besonderheit in empirischen Wissenschaften darstellen (i.e. solche Unsicherheiten, die durch den wissenschaftstheoretischen Terminus der vorübergehenden Unterbestimmtheit erfasst sind), nichtepistemisch relevante Wissenschaften zu einem Gegenstand allgemeiner Glaubwürdigkeitsdebatten werden lassen. Das lässt sich nicht nur an der Klimawissenschaft, sondern auch an anderen Forschungsbereichen, die zum einen epistemischen Unsicherheiten, zum anderen öffentlichem Druck ausgesetzt sind, beobachten. Ein Dreh- und Angelpunkt ist dabei die wissenschaftliche Objektivität. Lange Zeit als entscheidendes Kriterium für Wissenschaft überhaupt angesehen, ist sie insbesondere durch die Sozialwissenschaften zu Beginn des 20. Jahrhunderts angegriffen und stark transformiert worden. Dennoch scheint sich das Ideal einer „wertfreien“ und „objektiven“ Wissenschaft bis heute weithin gehalten zu haben.

2.3.7 Wissenschaftliche Objektivität Theodore Porter hat gezeigt, wie sich Zahlen in den letzten 100 Jahren durch Methoden der Quantifizierung verselbstständigt haben und dabei zum Garant für objektives und damit glaubwürdiges Wissen erhoben worden sind. So hat sich der Begriff der Wahrscheinlichkeit ursprünglich auf die Vertrauenswürdigkeit von Zeugen oder Autoritäten bzw. auf die Glaubwürdigkeit ihrer Aussagen bezogen, seine Be-

238 | Howard 2009, S. 204.

124 | Die Glaubwürdigkeit der Wissenschaft

deutung aber ab dem 19. Jahrhundert radikal verändert. Die Wahrscheinlichkeitsrechnung wurde Teilgebiet der Mathematik mit Relevanz für praktische Entscheidungen, was sie zwangsläufig politisch relevant machte. Zugleich hafte aber, so Porter, der Bestimmung der wirkenden Parameter grundlegend etwas Willkürliches an.239 Sieht man sich Reportagen zum Klimawandel an, schwirrt einem rasch der Kopf von den vielen Zahlen, die diverse Experten für die verschiedensten (oft widersprüchlichen) Thesen bereithalten. Auf diese Weise wird Glaubwürdigkeit reklamiert, zugleich aber das Phänomen sichtbar, dass Experten aller Couleur mit Zahlen aufwarten, die ihre jeweiligen Positionen stützen sollen. Der vorangegangene Abschnitt hat ein grundlegendes Problem für den traditionellen Objektivitätsbegriff und so auch für den Wahrheitsanspruch wissenschaftlicher Erkenntnis deutlich gemacht: Empirische wissenschaftliche Verfahren erfordern Werturteile durch die Wissenschaftler. Induktives Schließen erlaubt im Gegensatz zum deduktiven Schließen, das tatsächlich vorgibt, was man glauben muss, wenn man bestimmte Annahmen macht, lediglich Schlüsse darauf, welche Stärke man einer Hypothese unter bestimmten Priorwahrscheinlichkeiten zuordnen kann. Im Extremfall ensteht so pathologische Wissenschaft, wenn ein Wissenschaftler so voreingenommen ist, dass er Priorwahrscheinlichkeiten und Likelihoods so gewichtet, dass seine Hypothese unter allen Umständen bestätigt wird. Ginge er mit felsenfester Überzeugung von einer Tatsache aus, würde er im Falle, dass er sich täuschte, nicht durch Methoden der Wahrscheinlichkeitstheorie von seinem Irrglauben erlöst werden, da er die Belege so wählen würde, dass sie die Hypothese in jedem Fall bestätigten. Ein überzeugter Bayesianer kann zu Recht einwenden, dass das nun mal alles sei, was man tun könne: Hypothesenwahrscheinlichkeiten anhand von Belegen bestmöglich einschätzen. Immerhin sei Bayes’ Theorie die beste verfügbare Bestätigungstheorie und liefere zumindest in vielen Fällen verlässliche Resultate. Das ist richtig; die Vorteile, die Bayes bringt, sind groß. Falsch scheint aber der daraus hin und wieder gezogene Schluss, Bayes sei ein Allheilmittel.240 Auch mithilfe von Bayes können epistemische Verzerrungen nur dann beseitigt werden, wenn rational und frei von subjektiven Präferenzen gearbeitet wird. Doch das ist, wie Rudner gezeigt hat, in empirischen Wissenschaften kaum möglich. Und gerade in glaubwürdigkeitsrelevanten Wissenschaften ist die Problematik wertbasierter Verzerrung groß. Daran wird auch deutlich, dass Zahlen nicht per se als Garant für objektives und damit glaubwürdiges

239 | Vgl. Porter 1996, S. 39-40. 240 | Vgl. Worrall 1993, S. 363. Philip Kitcher geht sogar so weit, die Attraktion, die Bayes auf manche Philosophen ausübt, als albern zu bewerten und bemerkt lakonisch: „The idea has its home in statistical contexts [...]. Elsewhere, it is simply baffling [...].“ (Kitcher 2011, S. 33)

Wissenschaftliche Objektivität | 125

Wissen gelten können – wenngleich sie in öffentlichen Debatten häufig so behandelt werden. Der Einwand, Wissenschaftler müssten ja bloß die Daten zur Verfügung stellen, die Entscheidungen würden dann außerhalb, i.d.R. von Seiten der Politik getroffen, trägt, wie im vorangegangenen Kapitel gezeigt worden ist, nicht, denn letztlich müssen die Wissenschaftler trotzdem entscheiden, welche Daten sie den Entscheidungsträgern liefern, d.h. sie müssen zuvor entscheiden, wann sie einen bestimmten Wert für hinreichend belegt halten, um ihn der Politik zur Verfügung zu stellen. Insbesondere unter politischem, ökonomischem, sozialem oder moralischem Druck ist dies problematisch. Die Übernahme von Verantwortung ist deshalb in solchen Fällen erforderlich. Wie gezeigt worden ist, hängt Glaubwürdigkeit hier stark von der moralischen Haltung der Experten ab, die die erforderlichen Expertisen liefern. Dass Experten sich überhaupt moralisch oder politisch positionieren, widerpricht allerdings dem traditionellen Ideal wertfreier Wissenschaft. Entsprechend gelten Expertenintellektuelle, die ihre moralische Verpflichtung artikulieren, schnell als unglaubwürdig. James Hansen, einer der frühesten Warner vor den Folgen einer Klimaerwärmung, der die epistemischen Unsicherheiten und die Notwendigkeit, auf dieser unsicheren wissenschaftlichen Basis dennoch politisch aktiv zu werden, stets deutlich artikuliert und dabei über den Zusammenhang seiner politischen und moralischen Werte mit seiner Forschung höchste Transparenz schafft, wird häufig als jemand porträtiert, der die Grenzen der Zuständigkeit eines Wissenschaftlers überschreitet und dessen Arbeit folglich unglaubwürdig sei.241 Die meisten Wissenschaftler sind deshalb zurückhaltend, weil sie entweder tatsächlich vom Wertfreiheitsideal überzeugt sind und sich weigern einzugestehen, dass sie auf Basis bestimmter Werturteile arbeiten; oder weil sie die entscheidende Rolle bestimmter nicht-epistemischer Werte zwar durchaus kennen, sich aber ebenso klar darüber sind, dass von ihnen absolute Neutralität erwartet wird.242 Daraus ergibt sich für die klimawissenschaftliche Community ein Dilemma: Einerseits sind Entscheidungen, die u.a. von nicht-epistemischen Werten abhängen, gerade in politisch oder moralisch relevanten Wissenschaften unvermeidbar, andererseits wird von den Wissenschaftlern Neutralität erwartet. If they record the range of opinion among them in sober prose, admitting their uncertainties, offering what probabilistic estimates they can, pointing out the range and complexity of possible consequences, their

241 | Vgl. Kitcher 2011, §41. 242 | Vgl. Kitcher 2011, §3 und §27.

126 | Die Glaubwürdigkeit der Wissenschaft

lengthy summaries cannot be expected to guide any swift action. Further evidence-gathering and further debate will „surely be appropriate“. On the other hand, if they are moved by the importance of responding to particular future scenarios, if they see the inundation of regions with millions of inhabitants as a serious risk and judge that consequence to be inacceptable, they will be accused of tainting their science with judgments of value.243 Zur Lösung dieses Problems gibt es in der Wissenschaftstheorie zwei Ansätze: Die eine Seite fordert für die Wissenschaft eine doktrinäre Verordnung moralischer Werte mittels politischer Wissenschaftsorganisation. So argumentiert Janet Kourany, dass, wenn schon nicht-epistemische Werte notwendig in Wissenschaftsprozesse einfließen, eben bewusst moralisch gute Werte zu wählen seien – so werde aus der Not eine Tugend.244 Die Gegenseite baut seit einigen Jahren zunehmend auf sozialprozedurale, pluralistische Verfahren zur Regulierung von (nicht-epistemischen) Werten in wissenschaftlichen Erkenntnisverfahren. Durch Wertevielfalt, so wird hier argumentiert, sollen Vorurteile transparent gemacht und beseitigt werden: Nur auf diese Weise lasse sich Objektivität gewährleisten und glaubwürdiges wissenschaftliches Wissen erlangen. Eine prominente Verfechterin dieser Position ist Helen Longino. Ihrem Wertepluralismus hat Philip Kitcher einen weiteren Lösungsvorschlag hinzugefügt, nämlich eine demokratische Organisation von Wissenschaft. Die Auseinandersetzung zwischen den beiden wird im Folgenden beleuchtet.

243 | Kitcher 2011, S. 30. 244 | Vgl. Kourany 2003a, S. 9.

3 Pluralismus als Lösung?

No one wants Explanatory Science devoid of social responsibility [...]; no one wants Emancipatory Science devoid of empirical adequacy [...]. So can’t we somehow find a „third way“? N ORETTA KOERTGE , S CIENCE , VALUES , A ND THE VALUE OF S CIENCE

128 | Die Glaubwürdigkeit der Wissenschaft

3.1 Die Debatte zwischen Philip Kitcher und Helen Longino In den vorangegangenen Abschnitten wurde gezeigt, dass glaubwürdigkeitsrelevante Forschung verantwortungsvolles Handeln von den involvierten Experten erfordert, denn sie müssen Expertisen liefern, auf deren Basis politische Entscheidungen zu treffen sind. Es kommt zu Interdependenzen von epistemischen und nicht-epistemischen Werten, die in vielen glaubwürdigkeitsrelevanten Bereichen, und so auch in der Klimaforschung, schwer oder gar nicht aufzulösen sind. Auf die wissenschaftliche Arbeit selbst, ihre Methoden und Theorien, haben diese Verwicklungen von epistemischen und nicht-epistemischen Werten Auswirkungen insbesondere aufgrund von Unterbestimmtheit und Theoriebeladenheit. Wenn ein Wissenschaftler einer bestimmten Frage nachgeht, muss er Entscheidungen treffen, die erfordern, dass er bewusst oder unbewusst bestimmte Annahmen voraussetzt. Diese Annahmen können nicht-epistemische Werte enthalten. Ob ein Kollege B As Ergebnissen zustimmt bzw. ihnen Glauben schenkt, liegt demnach nicht nur daran, ob B As theoretischen und methodischen Voraussetzungen zustimmt, sondern zu einem oftmals nicht unbedeutenden Teil auch daran, ob er As Wertvorstellungen teilt. Das Problem, das sich daraus für wissenschaftliche Glaubwürdigkeit ergibt, ist, dass Unterbestimmtheit (oft in Zusammenhang mit Theoriebeladenheit) eine „korrekte“ kausale Verknüpfung zwischen Wahrheit und Glauben, wie sie Goldman als Lösung des Gettier-Problems vorschlägt (vgl. S. 9), behindern kann. Denn keine wissenschaftliche Hypothese kann notwendig kausal mit einem Glauben an sie verknüpft sein, solange sie unterbestimmt ist – man hat immer auch die Möglichkeit, sie nicht zu glauben. Das widerspricht der traditionellen Vorstellung von objektiver wissenschaftlicher Erkenntnis, bedeutet es doch, dass wissenschaftliches Wissen kontingent ist. Dagegen sind verschiedene Versuche unternommen worden, wissenschaftliche Objektivität zu verteidigen. Ein Klassiker ist die Aufstellung von Listenmodellen methodologischer Werte; hier werden epistemische Werte als Auswahlkriterien zwischen konkurrierenden Theorien aufgelistet. Das Problem hierbei ist jedoch, dass epistemische Werte ebenso wie nicht-epistemische gewichtet werden müssen. Kuhn hat dies positiv gesehen: Auf diese Weise bestünde die Möglichkeit, dass sich verschiedene, auch konkurrierende Ansätze entwickelten, und dies sei eine wichtige Voraussetzung für wissenschaftlichen Fortschritt, die bereits auf S. 105 benannte

Die Debatte zwischen Philip Kitcher und Helen Longino | 129

Kuhn-Unterbestimmtheit. Wichtig ist dabei aber, zu sehen, dass auch die Wahl zwischen epistemischen Werten von pragmatischen Erwägungen abhängen kann.1 Hier lässt sich gegen die Herausforderungen durch Unterbestimmtheit und Theoriebeladenheit die Robustheit von Evidenz einwenden. Diese habe ich als brauchbaren Lösungsansatz, der u.a. von realistischer Seite genutzt wird, bereits kurz vorgestellt (Abschnitt 2.3.5.1). Entsprechend zentral sind Robustheitsideen auch in der Diskussion zwischen Philip Kitcher und Helen Longino, die hartnäckig an diesen Problemen gearbeitet haben; aus ihrer mitunter polemischen Debatte sind entscheidende Einsichten hervorgegangen. Die beiden stehen etwa zwischen 1993 und 2002 in einem Verhältnis ausdauernder und anhaltender wechselseitiger Kritik, weshalb ihre argumentativen Entwicklungen getrennt voneinander nicht immer angemessen verständlich sind. Die Debatte endet, nachdem Kitcher 2001 in Science, Truth, and Democracy Longinos Einwänden eine grundsätzliche Berechtigung eingeräumt und entsprechende Konsequenzen gezogen hat. Diese Zugeständnisse werden allerdings von Longino wegen zeitgleicher Veröffentlichung nicht mehr in The Fate of Knowledge aufgenommen; sie richtet dort ihr Augenmerk noch ausschließlich auf Kitchers Hauptwerk, The Advancement of Science, und übt daran erneut scharfe Kritik, so dass Kitcher zuerst noch einmal seine früheren Überlegungen verteidigt. Mit Longi-

1 | Dies ist beispielsweise von Elliott Sober an den Kriterien von Einfachheit und Akkuratheit gezeigt worden, die er als probabilistische Gegenspieler auffasst. Während eine akkurate Theorie versucht, möglichst alle Daten zu erfassen, verlangt Einfachheit gegebenenfalls das Fitten von Daten. Je nachdem, welches Ziel ein Wissenschaftler anstrebe, werde er das eine oder das andere Kriterium geltend machen. Möchte er möglichst rasch Vorhersagen in einem noch unzureichend erschlossenen Forschungsbereich treffen, wird er die Daten fitten (z.B. durch Glättungsverfahren, wie sie den Klimaforschern der University of East Anglia zum Vorwurf gemacht wurden, vgl. Abschnitt 2.2.7), da zwar komplexe Theorien bestehende Daten viel korrekter erfassen als ihre vereinfachten Konkurrenten, dafür aber eher schwach darin sind, neue Daten vorherzusagen (vgl. Sober 2001). Dies überzeugt nicht zuletzt deshalb, weil gerade zu Beginn eines Forschungsprojekts mangelhafte Messverfahren verfälschende Daten produzieren können, was wiederum bei einer akkuraten Theorie zu entsprechenden Verzerrungen führen kann. Zu Beginn scheint daher Einfachheit aus pragmatischen Gründen ein passenderes Theoriewahlkriterium zu sein. Hingegen können später, nach einer gewissen Laufzeit eines einfachen Modells, gerade Datenausreißer interessante Eigenschaften eines Forschungsgegenstands verraten. Helen Longino weist wiederum auf eine Spannung zwischen den Werten Akkuratheit und Reichweite hin (vgl. Longino 1996, S. 44). Ihre Feststellung stellt allerdings keinen Widerspruch zu Sobers dar; vielmehr decken sich Sobers und Longinos Überlegungen angesichts Poppers Feststellung, dass einfachere Theorien einen größeren Anwendungsbereich haben und daher leichter zu widerlegen sind (vgl. Popper 1971, S. 103-105).

130 | Die Glaubwürdigkeit der Wissenschaft

nos Kenntnisnahme und Anerkennung von Science, Truth, and Democracy, in dem Kitcher eine normative Methodologie demokratisierter wissenschaftlicher Gemeinschaften entwirft, endet schließlich der Disput, der im Wesentlichen einer über Wissen und Wahrheit gewesen ist.2 Im Folgenden soll die Hauptargumentationslinie der Debatte zwischen den beiden herausgearbeitet werden. Der soziale Pluralismus, den Longino von Beginn an proklamiert und dem sich Kitcher am Ende, wenn auch unter einigen Vorbehalten, anschließt, erscheint als dringend erforderlich für glaubwürdige Wissenschaft. Wie am Beispiel der Klimaforschung in Kapitel 4 zu sehen sein wird, kann sozialer Pluralismus in glaubwürdigkeitsrelevanten Wissenschaften gefördert, strukturiert und so für epistemische wie nicht-epistemische Zwecke genutzt werden.

3.2 Der Beginn: Science as Social Knowledge

Individual values are held in check not by a methodology but by social values. H ELEN L ONGINO , S CIENCE AS S OCIAL K NOWLEDGE

1990 veröffentlicht Longino ihr sozialepistemologisches Erstlingswerk, in dem sie die erkenntnisschädigende Wirkung von Vorurteilen und die Verirrung der FaktenWerte-Dichotomie darlegt und argumentiert, dass Wertepluralismus als Lösung für diese Probleme prädestiniert ist. 12 Jahre später, in The Fate of Knowledge, werden keine wesentlich neuen Punkte hinzukommen: Die Argumente werden noch einmal verfeinert und klarer formuliert. Nach der Veröffentlichung von Science as Social Knowledge hat Longino alle Hände voll zu tun, ihre Argumente gegen anfangs noch sehr starke traditionelle, rationalistisch begründete Widerstände zu verteidigen. In Kitchers Advancement of Science, das drei Jahre später erscheint, finden Longinos

2 | So wurde Longinos Ansatz von verschiedenen Seiten kritisiert, die Diskussion mit Kitcher bezieht sich jedoch ausschließlich auf die hier relevanten Aspekte „Wissen“ und „Glauben“, „Vertrauen“ und „Autorität“ in der Wissenschaft, „Wahrheit“ und „empirische Adäquatheit“ als wissenschaftliche Ziele sowie „Objektivität“ als Merkmal zuverlässiger Wissenschaft. Weitere Debatten um Widersprüche in Longinos Ansatz haben sich mit Frederick Schmitt und Miriam Solomon entsponnen. Einen guten Überblick und eine stichhaltige Verteidigung Longinos liefert K. Brad Wray (vgl. Wray 1999).

Der Beginn: Science as Social Knowledge | 131

Einwände explizit lediglich in einer einzigen Fußnote Beachtung, wo sie gemeinsam mit denen Fullers, Rouses und Latours als radikal und falsch bewertet werden, obwohl sie sich mit guten Gründen von gängigen sozialkonstruktivistischen Argumenten distanziert.3 Im Gegenteil gelingt es ihr, relativistische Herausforderungen methodologisch so zu funktionalisieren, dass sich, wie Longino es ausdrückt, Ideologie und Evidenz vereinbaren lassen.4 In traditionellen, rationalistisch ausgerichteten Erkenntnistheorien wird davon ausgegangen, dass das Ziel der Erkenntnissuche Wahrheit ist. Demnach muss jeder, der objektiv einen wahren Satz prüft, feststellen können, ob dieser wahr ist. Objektivität führt daher zwangsläufig zur Erkenntnis von Wahrheit. Die soziologischen Herausforderungen um die Jahrhundertwende brachten jedoch die Probleme von Unterbestimmtheit und Theoriebeladenheit aufs Tapet, die an dieser Auffassung von Wahrheitserkenntnis kratzten. Aufgrund dieser Probleme schließt Longino, dass evidenzbasierte Beweisführung immer kontextabhängig sei, weshalb sich die Hypothesen, die von den jeweils vorhandenen Daten gestützt würden, je nach Kontext änderten. Über den Wahrheitsgehalt des jeweiligen Wissens könne man deshalb im absoluten Sinn nichts aussagen.5 Sie hält nicht-epistemische Werte, die sie als kontextuelle Werte bezeichnet, für ebenso entscheidend bei der Wissensgenerierung wie epistemische Werte, die sie konstitutiv nennt. Beide sind nach Longino nicht voneinander unterscheidbar, was den realistischen Fluchtpunkt, die Evidenz, untergräbt, denn nach Longino kommt es nicht darauf an, was gute Evidenz ausmacht, sondern darauf, wonach festgelegt wird, was als gute Evidenz gilt.6 Objektivität ist daher kein Gütekriterium für Wahrheit, denn sie sagt lediglich etwas darüber aus, was als wahr angenommen wird, nicht darüber, was wahr ist. Objektive Ergebnisse zeichnen sich dadurch aus, dass sie unter allen kontextuellen Bedingungen bestätigt werden. Nach Longino bedeutet Objektivität deshalb die Reproduzierbarkeit von Evidenz unter jeder kontextuellen Voraussetzung und nicht, wie in der

3 | Vgl. Kitcher 1993, S. 303. Longino distanziert sich sogar explizit von Latour; zwar finde sich auch dort die Feststellung, dass die Position eines individuellen Wissenschaftlers nur dadurch zu einer wissenschaftlichen Tatsache erhoben werde, dass sie sich in der wissenschaftlichen Gemeinschaft durchsetze. Doch lege Latour einzig auf die agonistische, nicht auf die kooperative Dimension dieser sozialen Relationen wissenschaftlicher Erkenntnisgewinnung Wert. Longino hingegen erhebt gerade den kooperativen Aspekt zur notwendigen Bedingung wissenschaftlichen Fortschritts (vgl. Longino 1990, FN 9, S. 69). 4 | Vgl. Longino 1990, S. 215. 5 | Vgl. Longino 1990, S. 219-220. 6 | Vgl. Longino 1990, S. 40.

132 | Die Glaubwürdigkeit der Wissenschaft

konventionellen Verwendung des Begriffs, die unparteiische Haltung eines Forschers zu seinem Forschungsobjekt. In Longinos Ansatz von Wissensgewinnung handelt es sich bei Wissen nicht mehr wie in der klassischen Definition der „post-Gettier Generation“7 um wahre und korrekt gerechtfertigte Meinung, also nicht-zufällige Wahrheit, und auch nicht um nur wahre Meinung, unabhängig von ihrer Rechtfertigung (wie Beckermann gegen Grundmann argumentiert hat (vgl. S. 10)), sondern um Wissen als gerechtfertigte Meinung – unabhängig von Wahrheit. Der kontextuelle Empirismus lässt also durchaus zu, dass zwei widersprüchliche Theorien empirisch äquivalent sein können, da sie lediglich zwei verschiedene Arten darstellen, dasselbe auszudrücken. Ein willkürlicher Einfluss subjektiver Präferenzen durch Hintergrundannahmen lässt sich dabei vermeiden, wenn man vom individualistischen Konzept ablässt und stattdessen soziale Kontrolle in Form von Pluralismus schafft. Grenzenloser Relativismus werde dadurch vermieden, da ihm seine Grundlage, die Kombination aus Individualismus und Unterbestimmtheit, entzogen werde.8 Longino erkennt an, dass nicht-epistemische, kontextuelle Werte die Objektwahl, Datenbeschreibung und -auswahl und die Hintergrundannahmen beeinflussen.9 Doch im Unterschied zu gängigen Relativismustheorien hat Kontextabhängigkeit nach ihrer Auffassung nicht epistemische Unzuverlässigkeit zur Konsequenz. Im Gegenteil können immer neue Subkategorien eingeführt, Begriffe neu definiert und anschließend neue Beobachtungsfeststellungen gemacht werden, was Erkenntnis zuverlässiger macht. Durch solche Neuerungen werden vorangegangene Urteile nicht widerlegt, sondern lediglich ersetzt. Longinos Ansatz ist anzusiedeln in der feministischen Sozialepistemologie der 1980er und 1990er Jahre, fällt aber deutlich aus der Rolle. Gerade in ihren Publikationen der frühen 1990er Jahre nimmt Longino Bezug auf Donna Haraways Forderungen, die sozial konstruierten Gegensätze von Mann und Frau, Mensch und Maschine, Physischem und Metaphysischem, die die Wissenschaften durchzögen, aufzuheben, weil diese Resultat einer androzentrischen Wissenschaft seien.10 Haraway stützt sich, wie viele Feministinnen (auch Longino), insbesondere auf das Beispiel der Primatenforschung, wo die Veränderung des Blickwinkels durch weibliche Perspektiven auf den Forschungsgegenstand das konzeptuelle und metaphorische System völlig verändert hat. Sie fordert einen neuen Objektivitätsbegriff, da Überzeugungen immer

7 | Grundmann 2002, S. 121. 8 | Vgl. Longino 1990, S. 216. 9 | Vgl. Longino 1990, S. 104. 10 | Vgl. z.B. Longino 1990, 209-213; 1995, S. 386-387; 1996, S. 45-46.

Der Beginn: Science as Social Knowledge | 133

kontextabhängig seien, das Ergebnis von Verhandlungen, die zwangsläufig soziale Interessen involvierten und wissenschaftliche Forschung in Zielsetzung, Programmatik und Herrschaftsverhältnissen bestimmten. Objektivität ergebe sich daher aus der individuellen Anerkennung des lokalen, unvollständigen und perspektivischen Charakters der eigenen Erkenntnis. Von dieser Konklusion distanziert sich Longino jedoch von Anfang an explizit: Wissenschaftliches Wissen sei das Ergebnis wechselseitiger Kritik, Modifikation und sozialer Inkorporierung. Die Schaffung eines Bewusstseins darüber ändere nichts am notwendig parteiischen Charakter individueller Erkenntnis.11 Auch Sandra Hardings Überlegungen spielen in Longinos Theorie eine Rolle. In ihren Beiträgen zur Standpunkt-Theorie argumentiert Harding für die Berücksichtigung der Perspektiven unterdrückter Gesellschaftsgruppen in der Wissenschaft. Ihr Ansatz ist marxistisch fundiert: Die Mächtigen hätten ein viel stärkeres Interesse, die ungerechten Bedingungen, denen sie ihre unverdienten Privilegien verdanken, zu verschleiern, als die beherrschten Gruppen es hätten, die Gründe für ihre schlechte Situation zu verbergen.12 Aus diesem Grund sei die Perspektive einer unterdrückten Gruppe für objektive Erkenntnis besser geeignet als die einer herrschenden Gruppe. Die bislang androzentristisch organisierte und darum verzerrte Forschung bedürfe folglich dringend feministischer Perspektiven. Die bisherigen Annahmen, auf denen die uns jetzt bekannte Wissenschaft aufbaue, seien deshalb zu zerstören.13 Hier bestehen starke methodologische Differenzen zwischen Longino und Harding: Longinos Ansicht nach gibt es keine Objektivität, die eine soziale Gruppe besser als eine andere erreichen kann, sondern Objektivität entsteht aus der Beteiligung aller (oder wenigstens möglichst vieler) Perspektiven einer Gesellschaft. Allein die Tatsache, dass eine Gruppe unterdrückt wird, macht sie nach Longino noch nicht epistemologisch überlegen, sondern sorgt lediglich dafür, dass die Mitglieder dieser Gruppe von anderen kontextuellen Werten beeinflusst werden als die der herrschenden Klasse. Ein weiterer feministischer Ansatz, der Janet Kouranys, unterscheidet sich in ähnlicher Weise von Longinos Standpunkt wie der von Harding. So proklamiert Kourany, dass für Feministinnen die egalitaristische Ausrichtung von Wissenschaft zentral sei; Wissenschaftlern sei in spezieller Weise soziale Verantwortung zuzuschreiben, da die Gesellschaften starkem wissenschaftlichem Einfluss unterlägen.14 Wissenschaften formten und gestalteten das alltägliche Leben und, was vielleicht am wichtigsten

11 | Vgl. Longino 1990, S. 212-213. 12 | Harding 1994, S. 73. 13 | Vgl. Longino, Harding zitierend, 1995, S. 386. 14 | Vgl. Kourany 2003a, S. 6.

134 | Die Glaubwürdigkeit der Wissenschaft

sei, auch unser Selbstbewusstsein.15 Nicht Militär, pharmazeutische, chemische oder Öl-Industrie, nicht agrarwirtschaftliche oder biotechnologische Unternehmen hätten daher die Ausrichtung der Wissenschaft festzulegen, sondern es seien gezielt und ausschließlich egalitaristisch ausgerichtete Forschungsprojekte zu fördern gegenüber solchen, die egalitaristische Ansichten und Programme bedrohten.16 Zwar kann diese Position lediglich als Postulat bestehen – wissenschaftliche und wirtschaftliche Forschungsunternehmen verschmelzen zusehends, Universitäten gründen Unternehmen, Unternehmen kaufen sich umgekehrt in Universitäten ein17 – doch lässt sie sich in Hinblick auf die Unterbestimmtheitsthese analytisch stark begründen: [...] if the realism/antirealism controversy teaches us anything at all it teaches us that no criterion for the evaluation of scientific research thus far put forth—not simplicity, not fruitfulness, not scope, not external consistency, not even predictive accuracy or long term empirical or methodological or technological success—has been shown to be an indicator of truth. The feminist project’s mode of evaluation is in this respect, therefore, no worse than the others.18 Eine feministische Koordination der Wissenschaft würde, so lautet das Argument, aufgrund der Unterbestimmtheit von Theorien nicht per se mehr oder weniger zur Wahrheit führen als jede andere mögliche Ausrichtung.19 Insofern schade ein an die Wissenschaft gerichtetes Postulat sozialer Verantwortung nicht der Wissenschaft selbst, sondern lediglich denen, die andernfalls von einer nicht-gleichberechtigten Ausrichtung profitierten. Doch stimmt das? Würde nicht die Oktroyierung nicht-epistemischer Werte die epistemische Autorität der Wissenschaft in der Weise beschädigen, dass jene ihre Glaubwürdigkeit einbüßen müsste?20 Heather Douglas befürchtet genau das: Hier würden die Autorität, die Wissenschaft und Wissenschaftler in Kultur und Gesellschaft genössen, sowie die wichtige Rolle, die Wissenschaftler in der praktischen Entscheidungsfindung spielten, übersehen.21 Noretta Koertge stimmt dem zu: Man solle jeden möglichen Versuch unternehmen, politische, moralische oder soziale Werte aus dem Labor fernzuhalten. Auch wenn dies nicht immer gelinge, bedeute das

15 | Vgl. Kourany 2003a, S. 10. 16 | Vgl. Kourany 2003a, S. 8. 17 | Vgl. Carrier 2004, S. 276. 18 | Kourany 2003a, S. 9. 19 | Vgl. Kourany 2003a, S. 9-10. 20 | Vgl. Carrier 2006, S. 176. 21 | Vgl. Douglas 2000, S. 563.

Der Beginn: Science as Social Knowledge | 135

nicht, dass man diesen Versuch aufgeben solle, sondern im Gegenteil: dass man sich noch stärker darum bemühen müsse.22 Und so urteilt auch Longino: To seek a unified, if different, knowledge of the natural and social worlds is to seek power of the sort we reject when exerted over ourselves. The goals driving the search for such knowledge are unworthy of an emancipatory politics.23 Die besondere Raffinesse von Longinos Argumentation gegenüber traditionellen feministischen Standpunkten liegt nun darin, dass sie aus der Kenntnisnahme von antiegalitaristischen Werturteilen keinen rein moralisch, sondern einen ebenso epistemisch begründeten Schluss zieht. Einfach die einen Werte durch andere zu ersetzen, aus Unterbestimmtheit also die zwangsläufige Doktrin eines bestimmten Wertmaßstabs abzuleiten, könnte das Problem nicht lösen, sondern würde es bloß bestätigen, da die auf der Unterbestimmtheit beruhende Verzerrung so lediglich reproduziert würde. Dagegen kann eine Lösung des Problems Longino zufolge einzig durch das Einbeziehen möglichst vieler Perspektiven geschaffen werden, was wiederum nur durch eine möglichst breitgefächerte Vielfalt von Werten zu ermöglichen sei. Kernaussage ihrer Position ist daher, dass Werte gut für die Wissenschaft sein können; sie müssen genutzt statt unterdrückt werden. Dafür ist wichtig, dass es gerade keinen festen Wertekanon gibt, denn dieser zerstört die Möglichkeit breitgefächerter Kritik. Von Anfang an betont Longino, dass die dringend erforderliche zentralere Stellung von Kritik in der wissenschaftlichen Erkenntnis nur durch größtmögliche Vielfalt gewährleistet werden könne. Damit trägt sie, ohne doktrinär zu argumentieren, von Beginn an einem zentralen Problem Rechnung, das sich durch die Wissenschaftsgeschichte zieht und von James Robert Brown klar und präzise auf den Punkt gebracht worden ist: „Every example of racist or sexist science that I have ever seen has flourished because there have not been women or racial minorities inside the scientific establishment [...].“24 Longino entgegnet jeder doktrinären Argumentation, sei sie nun rassistisch, sexistisch oder feministisch motiviert, dass, sobald Bedingungen sozialer Vorurteile erfüllt seien, Forschungsfreiheit keine Geltung mehr habe, und dass jede

22 | Vgl. Koertge 2000, S. 53. 23 | Longino 1990, S. 213. 24 | Brown 2004, S. 605. Dies geht auch aus Torsten Wilholts Bias-Studie hervor: Eine Analyse präferenzbasierter und dadurch verzerrter Entscheidungen sei nur durch einen sozialepistemologischen Ansatz, der die Verletzung gemeinschaftlicher Standards zugunsten der Interessen einer bestimmten Perspektive erkennbar machen kann, überhaupt möglich (vgl. Wilholt 2009).

136 | Die Glaubwürdigkeit der Wissenschaft

solche soziale Asymmetrie in der Forschergemeinschaft epistemischen Zielen entgegenwirke. Vorurteilsbehaftete Forschung jedoch einfach zu verbieten, widerspräche ebenfalls der Forschungsfreiheit;25 im Gegenteil müssten alle vorhandenen Perspektiven beteiligt werden. Longinos Ansatz bringt damit eine wesentlich neue Idee in die Debatte, einen „third way“26 nach der bis dahin festgefahrenen Fakten-Werte-Dichotomie. Während auf der einen Seite noch Sozialkonstruktivistinnen und Feministinnen auf ihren Standpunkten beharren, die von Realisten auf der anderen Seite mehr oder weniger milde belächelt werden, bemüht sich Longino um die Lösung der jeweiligen Probleme beider Standpunkte – explizit möchte sie jedoch nicht zwischen den beiden Seiten vermitteln, sondern einen neuen Ansatz schaffen, der dem sozialen Charakter wissenschaftlichen Wissens ebenso gerecht werden soll wie epistemischen Ansprüchen.27 Kitcher hingegen argumentiert zu dieser Zeit noch streng realistisch und lässt nur in Randbemerkungen erkennen, dass einige Einwände der Werteverfechter vielleicht in Zukunft mehr Beachtung verdienten.

3.3 The Advancement of Science: Glaubwürdigkeit durch Autorität

Rejecting the possibility of any a priori foundation either for science or for methodology, we can only answer skeptics by pointing out that our current knowledge is the product of a self-correcting process. P HILIP K ITCHER , T HE A DVANCEMENT OF S CIENCE

In seinem kanonischen wissenschaftstheoretischen Werk entwirft Philip Kitcher eine realistische Darstellung wissenschaftlichen Fortschritts, die zugleich den Problemen von Unterbestimmtheit und Theoriebeladenheit zu begegnen versucht. Der

25 | Vgl. Longino 2002b, S. 564. 26 | Der Ausdruck „third way“ wird in den Publikationen zur Problematik und Überwindung der Fakten-Werte-Dichotomie inzwischen als Terminus technicus verwendet (vgl. z.B. Kitcher 2002b; Longino 2002a, S. 24; Koertge 2000, S. 53). 27 | Vgl. Longino 1990, S. 12.

The Advancement of Science | 137

grundlegende Anspruch des Realismus, wahre Aussagen über die Welt treffen zu können, impliziert nach Kitcher zwar nicht unbedingt, dass unvoreingenommene Erkenntnis möglich sei, aber doch, dass Voreingenommenheit nicht so mächtig ist, dass sie Falsifikation auf Dauer verhindern könnte.28 Zwar könne der jeweilige kognitive Priorstatus eines Wissenschaftlers, der von sozialen Erfahrungen, dem bisherigen Austausch mit Kollegen, bereits gesammelten wissenschaftlichen Erfahrungen und auch schlicht den intellektuellen Voraussetzungen abhänge, durchaus verzerrend wirken – allerdings nicht so verzerrend, dass die von der Natur gegebene empirische Evidenz dadurch auf Dauer vernachlässigbar würde.29 Dies setzt selbstverständlich bestimmte politische Verhältnisse voraus; so wurden zur Zeit des Nationalsozialismus durchaus wissenschaftliche Hypothesen entgegen natürlicher Evidenz aufrechterhalten; doch zu den zweifellos erforderlichen politischen Voraussetzungen äußert sich Kitcher erst später detailliert (vgl. Abschnitt 3.8). 1993 interessiert ihn die Dynamik des wissenschaftlichen Erkenntnisfortschritts, unabhängig von politischen Bedingungen. Zentral ist dabei die Frage nach der Konsensbildung. Denn gesteht man erst einmal ein, dass Werturteile wissenschaftliche Erkenntnisprozesse beeinflussen, ist zunächst unklar, nach welchen Regeln sich aus allen möglichen Ansätzen der epistemisch beste durchsetzen und zu Fortschritt führen soll. Ein Konsens entsteht nach Kitcher dadurch, dass sich aus einer Gesamtmenge individueller Praktiken Konsenspraktiken herausbilden, die sich zusammensetzen aus 1. einer einheitlichen Sprache, 2. einer übereinstimmenden Festlegung der signifikanten Fragen, 3. einer Menge von akzeptierten Sätzen, 4. einer Menge von Erklärungsschemata, 5. einer Menge von Paradigmen darüber, was Autoritäten ausmacht, 6. einer Menge exemplarischer Experimente, Beobachtungen, Instrumente und Rechtfertigungskriterien, 7. einer Menge methodologischer Prinzipien.30

28 | Vgl. Kitcher 1993, S. 161. 29 | Vgl. Kitcher 1993, S. 162. 30 | Vgl. Kitcher 1993, S. 87.

138 | Die Glaubwürdigkeit der Wissenschaft

Dies erinnert unmittelbar an Kuhns Paradigmenbegriff, aber im Gegensatz zu Kuhn geht Kitcher von kontinuierlichem wissenschaftlichem Fortschritt aus. Er tendiert zu Kuhns Entwurf der Normalwissenschaft. Die Idee epistemischer Umbrüche im Sinne Kuhnscher Revolutionen, die er gerade in den philosophischen Kuhn-Interpretationen als allgemein überschätzt einstuft, hält er für falsch.31 So wirken in seinem Modell Modifikationen der jeweiligen individuellen Praktiken auf die Konsenspraktiken ein, wodurch diese wiederum stets den neuesten Erkenntnissen der einzelnen Forscher angepasst werden. Solche Veränderungen innerhalb der individuellen Praktiken müssten, so Kitcher, rational sein, um fortschrittlich zu sein, und sie seien genau dann rational, wenn sie einem External Standard (ES) entsprächen. Dieser besagt, dass die Verbesserung einer Praktik P durch die Menge epistemischer Kontexte C zum Ausdruck kommt, in Bezug auf die sich P progressiv verändert. (ES) The shift from one individual practice to another was rational if and only if the process through which the shift was made has a success ratio at least as high as that of any other process used by human beings (past, present, and future) across the set of epistemic contexts that includes all possible combinations of possible initial practices (for human beings) and possible stimuli (given the world as it is and the characteristics of the human recipient).32 Hierbei handelt es sich um eben den Fortschrittsgedanken, den schon Lakatos in den 1960er Jahren formuliert hat, wonach eine neue Theorie einen größeren Anwendungsbereich haben muss als ihre Vorgängerin.33 Dennoch erkennt Kitcher an, dass

31 | Vgl. Kitcher 1993, FN 39, S. 87; Kitcher 2011, §34. 32 | Ebd. 33 | Vgl. Lakatos 1982. Lakatos spricht hier von progressiver Problemverschiebung von Forschungsprogrammen, die kontinuierliches wissenschaftliches Wachstum durch methodologische Regeln (unterteilt in positive und negative Heuristik) objektiv bewertbar mache. Kitcher selbst weist auf die Ähnlichkeit mit Lakatos’ Ansatz hin (vgl. Kitcher 1993, FN 33, S. 241). In anderen Punkten jedoch, speziell in seiner Auffassung wissenschaftlicher Arbeitsmethoden und ihrer Anwendung, distanziert sich Kitcher von Lakatos, der „die Wissenschaftsgeschichte vielfach eher als eine Geschichte konkurrierender Forschungsprogramme denn als eine Geschichte einander ablösender Perioden der Normalwissenschaft“ ansieht (Wilholt 2011, S. 71). Dagegen neigt Kitcher, wie erwähnt, eher Kuhns Auffassung der Normalwissenschaft zu (vgl. Kitcher 1993, FN 24, S. 115) – das Kuhnsche Paradigma dürfte in etwa Kitchers „Consensual Practice“ entsprechen.

The Advancement of Science | 139

sich soziale Kriterien auch aus einer rationalistisch fundierten Theorie wissenschaftlichen Fortschritts nicht so leicht ausschließen lassen: Die individuellen Wissenschaftler seien selbstverständlich von sozialen und technischen Voraussetzungen abhängig. Dieses Abhängigkeitsverhältnis versucht Kitcher für die kontinuierliche Wahrheitsannäherung unschädlich zu machen, indem er festlegt, auf welche Weise die rationalistisch definierten Konsenspraktiken aus den Praktiken jeweils spezialisierter Subgemeinschaften hervorgehen: Zum einen nämlich bringe Konvergenz der diversen Ansätze untereinander, zum anderen Konvergenz von Ansätzen mit der Beschaffenheit der Natur Konsenspraktiken aus den individuellen Praktiken hervor. Durch diese Bildung von Konsenspraktiken aus einer möglichst großen Menge individueller Praktiken innerhalb der Subgemeinschaften werden nach Kitchers Auffassung kontextuelle Werte letztlich ausgeschlossen.34 Auf den ersten Blick scheint dies den Ideen Longinos bereits sehr ähnlich zu sein. Allerdings beharrt Kitcher darauf, dass ein steter wissenschaftlicher Fortschritt hin zu einem einheitlichen und wahren Bild der Natur stattfinde, dass aus dem System von individuellen und Konsenspraktiken am Ende wahre Erkenntnis hervorgehe. Während zwar zu Beginn epistemische wie nicht-epistemische Präferenzen die Forschungsagenden der einzelnen Subcommunities bestimmten und eine Diversität konkurrierender Ansätze schafften, finde schließlich ein Debattenschluss statt, wenn sich ein Argument gefunden hat, das hinsichtlich (ES) allen Konkurrenten überlegen ist. Dahinter steht die feste Überzeugung, es müsse doch so etwas wie objektiv bestimmbare, eindeutige Evidenz geben, die den Erfolg von Theorien bestimmt und schließlich zu wahrer Erkenntnis führt. Zwar wird die soziale Bedingtheit wissenschaftlicher Gemeinschaften anerkannt, aber zugleich wird verneint, dass sich daraus eine Beliebigkeit wissenschaftlicher Ergebnisse ableiten lasse. Dabei nimmt der Begriff der Autorität eine zentrale Position in Kitchers Beschreibung des sozialen Gefüges der Communities ein. Subgemeinschaften müssen im Hinblick auf ihr jeweiliges Forschungsfeld über Autorität verfügen, um die Debatten mitbestimmen zu können. Diese Autorität wird durch die Standards der einzelnen Subcommunities gesichert und beruht auf Vertrauen, das diese deshalb in der wissenschaftlichen Gesamtgemeinschaft genießen, das also nicht auf tatsächlicher, informierter Übereinstimmung beruhen kann. Wenn jeder Wissenschaftler alle Arbeiten aller Kollegen in allen Bereichen beurteilen wollte, wäre die Wissenschaft schnell lahmgelegt. Der Anerkennung einer solchen Autorität individualistische Prüfung abzuverlangen, sei, so Kitcher, der Fehler eines extremen Rationalismus:

34 | Ein zentrales Argument entwickelt er 1993 in Kapitel 8. Vgl. dazu Abschnitt 1.5.

140 | Die Glaubwürdigkeit der Wissenschaft

As I shall suggest, this is a rationalist theme that ought to be dropped. [. . . ] [R]ationalists should [. . . ] allow that early adherence by others need not be on the basis of undergoing cognitively superior processes.35 Wenn aber die Anerkennung der individuellen Praktiken der Subgemeinschaften in der wissenschaftlichen Gemeinschaft von Glauben und Vertrauen abhängt und nicht von rationalen Standards, wie kann dann für Konsenspraktiken und ihre Ergebnisse Anspruch auf Wahrheit erhoben werden? Diese zentrale Positionierung von Vertrauen in die Zuverlässigkeit anderer muss irgendwie gerechtfertigt werden. Und so schreibt Kitcher selbst: Which standard is the right one? There is no answer. A methodological ideal would be to describe optimal improving processes for as broad a range of contexts and as large a class of alternatives as possible.36 An dieser Stelle deutet sich bereits an, dass Kitcher und Longino grundsätzlich womöglich gar nicht so weit voneinander entfernt sind. Über die epistemische Fruchtbarkeit einer möglichst breitgefächerten kontextuellen Pluralität methodischer und theoretischer Ansätze sind sie sich einig. Doch herrscht große Uneinigkeit über die zentralen Begriffe von Objektivität und Wahrheit, an denen sich letztlich die Unterschiede von realistischem und empiristischem Wissenschaftsverständnis festmachen.

3.4 Kritik am Advancement Longinos Hauptkritik an Kitcher setzt sich aus verschiedenen Punkten zu einer methodologischen Gesamtkritik zusammen. Unmittelbar nach Erscheinen des Advancement, im Verlauf der 1990er Jahre, geht sie nicht detailliert auf Kitcher ein, sondern entwickelt in diversen Aufsätzen und Buchbeiträgen ihren kontextuellen Empirismus im Rahmen der wissenschaftstheoretischen und -soziologischen Feminismusdebatten. Erst in ihrem folgenden Buch, The Fate of Knowledge, setzt sie sich intensiv und kritisch mit Kitchers Ideen auseinander. Zwei Ansätze, gegen die sich Kitcher wendet, verteidigt Longino: Bas van Fraassens und Larry Laudans. Laudan stellt fest, dass viele historische Theorien in ihrer Zeit erfolgreich gewesen, später aber durch bessere ersetzt worden seien (vgl. S. 94). Das könne auch für alle heutigen Theorien gelten: über kurz oder lang könnten sie durch bessere Theorien ersetzt werden. Zwar finde wissenschaftlicher Fortschritt

35 | Kitcher 1993, FN 22, S. 197. 36 | Kitcher 1993, S. 190.

Kritik am Advancement | 141

ganz offensichtlich statt, aber die Begriffe von Akkuratheit und Wahrheit anzuwenden sei doch hochproblematisch.37 Dagegen wendet Kitcher ein, dass umgekehrt viele Theorien Bestand haben und nur solche Theorien als Beispiele für Laudans These taugten, die absolut keine Referenzbeziehung zur Wirklichkeit hätten. Dagegen zeige die Wissenschaftsgeschichte, dass Begriffe und Sätze, die in der Vergangenheit zu Erfolg geführt hätten, Bestand hätten und ausgebaut worden seien, was Anlass zur optimistischen Sichtweise gebe, dass erfolgreiche Modelle Begriffe enthielten, die tatsächlich auf Dinge in der Welt referierten, und Sätze, die zumindest näherungsweise wahr seien.38 Kitchers Einwand bringe aber, entgegnet Longino, an sich nichts gegen antirealistische Einwände vor – Anlass zu Optimismus in Bezug auf wissenschaftlichen Fortschritt sei noch kein Beweis dafür, dass am Ende „die Erkenntnis der Wahrheit“ stehe.39 Van Fraassens Ansatz, der als einziges erreichbares Ziel der Wissenschaft empirische Adäquatheit behauptet, beruht nach Kitcher auf der grundsätzlichen Unterscheidung von Beobachtbarem und Nichtbeobachtbarem. Kitcher wendet dagegen ein, dass eine solche Unterscheidung von Beobachtbarem und Nichtbeobachtbarem gar nicht getroffen werden könne, ohne sich dabei auf Standards wissenschaftlicher Erklärung zu berufen. Diese enthielten jedoch zwangsläufig Begriffe von nichtbeobachtbaren Entitäten.40 Longino hält dagegen, dass Kitchers Einwand nicht greife, wenn man nicht, wie er, ein einziges, einheitliches wissenschaftliches Bild und eine bestimmte Menge von Standards wissenschaftlicher Erklärungen voraussetze. Darüber hinaus nehme Kitcher an, dass die Unterscheidung zwischen Beobachtbarem und Nichtbeobachtbarem darauf beruhe, dass beobachtbare Dinge existieren, weil die beste wissenschaftliche Erklärung für ihre Existenz die sei, dass unsere Sinneswahrnehmung das Resultat unserer unmittelbaren Interaktion mit den Objekten der externen Welt sei. Er verleihe hier der individuellen Sinneswahrnehmung den Status der Wissenschaft, weil er Wissenschaft und alltägliche, gewöhnliche Kognition als qualitativ gleichwertig ansehe. Longino hat hier einen wichtigen Kritikpunkt an Kitchers Ansatz: Nimmt man nämlich an, dass kognitive Prozesse sozial geprägt sind, ist Kitchers Einwand, der auf der Annahme der Unabhängigkeit individueller Erkenntnis beruht, nicht mehr überzeugend. Dies führt direkt zu Longinos zentralem Kritikpunkt an Kitcher, er fasse sozialen Einfluss ausschließlich als Verzerrung wissenschaftlicher Erkenntnis auf, als Ablen-

37 | Vgl. Laudan 1984, S. 121-124. 38 | Vgl. Kitcher 1993, S. 140-149. 39 | Vgl. Longino 2002a, S. 65-67. 40 | Vgl. Kitcher 1993, S. 150-157.

142 | Die Glaubwürdigkeit der Wissenschaft

kung von der Suche nach Wahrheit, so dass jede konstruktive Rolle des Sozialen von vornherein ausgeschlossen werde.41 Kitcher behandle individuelle Überzeugungen als die primären Elemente seiner epistemologischen Ontologie, hänge dabei jedoch zugleich einer qualitativen Unterscheidung von Kognitivem und Sozialem, von epistemischen und nicht-epistemischen Werten an: der Fakten-Werte-Dichotomie.42 Diese wesentliche Trennung begründet Kitcher, indem er in seiner Wissenschaftstheorie zwischen Rahmen und Inhalt („framework and filling“) unterscheidet: Der Rahmen ist die Theorie, die einer Untersuchung zugrunde liegt, der Inhalt sind die Sätze, die durch Beobachtung und Experiment in diesem Theorierahmen erzeugt worden sind. Kein Rahmen ist nach Kitcher so stabil, dass er nicht durch einen Input aus der Natur angepasst oder verworfen werden könnte. Zwar könnten soziale Einflüsse einen Rahmen bestimmen, der der Wahrheit widerspreche, aber ein solcher könne nicht unbegrenzt aufrecht erhalten werden. In der Tat schließt Kitcher damit aus, dass dieser Input aus der Natur, der ja in Form von Beobachtungen kommt, ebenfalls theoriebeladen sein könnte. Kitcher trägt allerdings, wie gezeigt wurde, den antirealistischen Einwänden in einem entscheidenden Punkt bereits Rechnung, indem er nämlich zulässt, dass nichtepistemische Werte zu Beginn einer Kontroverse auf Objekt-, Methoden- und Theoriewahl, i.e. bei der Rahmenbildung, Einfluss nehmen; die Debatte werde jedoch geschlossen, wenn sich in der Gemeinschaft ein Argument durchsetze, das hinsichtlich des (ES) (vgl. S. 138) überlegen darin sei, den kognitiven Fortschritt zu fördern. Auf die Idee eines (ES), die zwar den Einfluss nicht-epistemischer Werte zu Beginn einer wissenschaftlichen Debatte zulässt, ihrer Konklusion aber ausschließlich rationale Gründe zuschreibt, erwidert Longino, dass nicht klar sei, ob Kitcher dies normativ oder deskriptiv meine. Für ein deskriptives Modell sei es zu ideal und deshalb nicht hilfreich bei der Lösung tatsächlicher Probleme; es könnte aber auch analytisch verstanden werden. Dagegen spreche, dass es analytisch keinen Grund gebe, weshalb sich in einer Gemeinschaft gerade das rational überlegene Argument durchsetzen sollte; das Schließen einer Debatte könne sowohl rational als auch irrational sein. Longino spitzt dies polemisch so weit zu, dass sie in Frage stellt, dass es überhaupt jemals eine rationale Debattenschließung gegeben habe. Denn weshalb sollten (hinsichtlich (ES)) gute, kognitive Praktiken die einzige Auflösung einer Debatte hervorbringen? Es könnte doch noch weitere, gleichermaßen (potentiell) erfolgrei-

41 | Vgl. Longino 2002a, S. 59. 42 | Vgl. Longino 2002a, S. 64-65.

Kritik am Advancement | 143

che Theorien geben, die aber aus anderen als epistemischen Gründen aus der Debatte ausscheiden.43 Letztlich hat Kitchers Ansatz, wenn man Longino folgt, dem Einwand der Unterbestimmtheit nichts entgegenzusetzen. Kitchers Generaleinwand, dass Unterbestimmtheit nun mal eine globale, logische Eigenschaft empirischer Beweisführung sei, die aber auf lokaler Ebene befriedigend beseitigt werden könne, und zwar durch rationale Diskussion und Entscheidung hinsichtlich (ES), ist deshalb schwach, weil er keinen Grund dafür liefert, dass sich tatsächlich am Ende die Wahrheit durchsetzt und die Debatte damit schließt. Aus denselben Gründen stört sich Longino auch daran, dass Kitcher an mehreren Stellen von „der Struktur“ der Natur spricht. Dieses naturalistische Festhalten an der Trennung von Rationalem und Sozialem, Fakten und Werten, kritisiert die Pluralistin Longino vehement, setze dies doch voraus, dass es überhaupt so etwas wie die Struktur der Natur gebe.44 Als falsch erachtet sie dabei nicht die Auffassung, dass es nur eine Welt gebe (davon geht sie als Empiristin selbst aus), sondern die, dass es nur eine wahre Erkenntnis über diese Welt geben könne und dass folglich Einheitlichkeit nötig sei, damit Wissenschaft voranschreite. Und tatsächlich steht in Kitchers Modell Einheitlichkeit, die consensual practice, als Konzentrat aus allen individuellen Praktiken im Zentrum und ist notwendig für wissenschaftlichen Fortschritt. Diese Bedingung habe jedoch, so Longino, zur Folge, dass Randpositionen keinen Einlass in die wissenschaftliche Gemeinschaft fänden. Sie würden unterdrückt, was zur Folge habe, dass gerade die Werte, die von allen geteilt würden, niemals Gegenstand von Kritik würden, da über sie kein Bewusstsein innerhalb der Wissenschaftsgemeinschaft bestehe: Sie sind der Kontrolle durch den Diskurs entzogen und werden unkritisch übernommen. Alfred Nordmann verweist ironisch auf den Terminus der „nackten Tatsachen“, die nur so lange Bestand hätten, wie es der Wissenschaft gelinge, sich selbst unsichtbar zu machen und so den eigenen konstruktiven Beitrag zur Darstellung der Tatsachen verborgen zu halten.45 Eine „nackte Tatsache“ ist demnach keineswegs, was sie vorgibt zu sein: ein Garant für Objektivität und Wahrheit. Vielmehr werden die Erkenntnisse, die als „nackte Tatsachen“ bezeichnet werden, durch bestimmte, kontingente Verfahren erzeugt. Nordmann verdeutlicht dieses Phänomen in einem Aufsatz mit dem exemplarischen Titel Die im Lichte sieht man nicht? mit einer Metapher aus der Bühnenwelt:

43 | Vgl. Longino 2002a, S. 61-62. 44 | Vgl. Longino 2002a, S. 65. 45 | Vgl. Nordmann 2002, S. 53.

144 | Die Glaubwürdigkeit der Wissenschaft

Wer alle Lichter löscht und dann im Dunkeln einen Scheinwerfer von sich weg ganz allein auf einen Aspekt der Welt richtet, sieht natürlich nur diesen und macht das Publikum leicht vergessen, wie alles künstlich eingerichtet wurde.46 Die nicht ausgeleuchteten Punkte sind nach Longino eben die Werte, Interessen und Ideologien der Randpositionen. Ein besonderes Gewicht bekommt diese Trennung, wie Nordmann feststellt, bei der Betrachtung von Messinstrumenten, die eine nur scheinbar objektive Metaebene zwischen Forscher und Forschungsobjekt schaffen: Lavoisier konstruiert Objektivität, nicht nur indem er im Labor neue Phänomene demonstriert, sondern vor allem indem er die von seiner Person abgetrennte Gerichtsbarkeit von Waage und Masseerhaltungssatz etabliert: Nicht er, sondern die Waage urteilt, ob das Phänomen die Theorie bestätigt.47 Entscheidend hieran ist, dass nur das hinterfragt werden kann, was nicht als wahr vorausgesetzt wird. Allgemein anerkannte Standards oder sogenannte Fakten gelten als wahr und gelangen so nicht in die doch so dringend erforderliche Position, selbst Gegenstände von Kritik sein zu können. Aus diesem Argument leitet Longino nun her, dass die Kenntnisnahme unterdrückter Perspektiven nötig sei, um etablierte Voreingenommenheiten aufzudecken. So seien feministische Perspektiven nötig, um die Ergebnisse bislang überwiegend androzentrischer Forschungsprojekte überhaupt erst zu hinterfragen und dann kritisch zu überprüfen; nur so könnten mögliche Fehler, die durch patriarchische Voreingenommenheit entstanden seien, ins Licht gerückt und erkannt werden. Letztlich ist das Modell, das Kitcher im Advancement entwirft, als ein Ideal aufzufassen, das viele Bedingungen politischer, moralischer und sozialer Art voraussetzt, deren Erfordernis Kitcher zu dieser Zeit jedoch noch aus seinen Überlegungen ausklammert oder nur am Rande erwähnt. Eben diese Bedingungen stehen wiederum im Zentrum von Longinos Ansatz, den sie 2002 in überarbeiteter, stärkerer Form präsentiert.

46 | Nordmann 2002, S. 53. Vgl. hierzu auch Kuhn 1970, S. 206: „There is, I think, no theory-independent way to reconstruct phrases like ‚really there‘; the notion of a match between the ontology of a theory and its ‚real‘ counterpart in nature now seems to me illusive in principle.“ 47 | Nordmann 2002, S. 59.

The Fate of Knowledge | 145

3.5 The Fate of Knowledge: Glaubwürdigkeit durch Kritik

Not only must potentially dissenting voices not be discounted; they must be cultivated. H ELEN L ONGINO , T HE FATE OF K NOWLEDGE

In The Fate of Knowledge verteidigt Longino einerseits ihre Argumente aus Science as Social Knowledge und grenzt andererseits erneut ihre Position gegen relativistische Argumente ab. So kritisiert sie im Rahmen einer Sezierung der Fakten-WerteDichotomie sowohl (mikro-)soziologische Ansätze (speziell jene Knorr-Cetinas und Latours) als auch rationalistische (von Goldman, Haack und Kitcher) als unzureichend, da sie entweder soziale oder kognitive Werte als entscheidend für wissenschaftliche Verfahren behaupten und so strukturell der falschen Dichotomie unterliegen. Longino will diese Dichotomie überwinden, indem sie eine neue Sicht auf wissenschaftliche Erkenntnis vorschlägt. Man müsse der Tatsache gerecht werden, dass wissenschaftliches Wissen durch kognitive Prozesse entstehe, die grundlegend sozial strukturiert seien, wodurch eine klare Trennung zwischen kognitiven und sozialen Werten verunmöglicht werde.48 Ins Zentrum stellt Longino eine erneute und klarere Darstellung ihres pluralistischen Modells: Danach wandeln effektive kritische Interaktionen zwischen Wissenschaftlern subjektive Positionen in objektive um, nicht indem sie eine Position über die anderen erheben, sondern indem sie sicherstellen, dass nur die Position, die der Kritik aller möglichen Sichtweisen standgehalten hat, als Wissen ratifiziert wird.49 Vier Regeln müssen dafür aus Longinos Sicht befolgt werden: Zum ersten müsse Kritik an bereits unternommener Forschung genauso wichtig genommen werden wie neue Forschung; ferner müsse Kritik öffentlich ausgetragen werden, d.h. sie müsse denselben Platz bei Tagungen und in Journalen zugesprochen bekommen wie neue Studien und Ergebnisse. Zum zweiten sei entscheidend, dass Kritik nicht nur toleriert, sondern auch wirkungsvoll aufgenommen werde. Zum dritten bedürfe es bestimmter allgemein anerkannter Standards („public standards“) als Grundlage wechselseitiger Kritik, und zum vierten dürften nicht manche Mitglieder als intellektuelle Autori-

48 | Vgl. Longino 2002a, S. 128-129. 49 | Vgl. Longino 2002a, S. 129.

146 | Die Glaubwürdigkeit der Wissenschaft

täten mehr Einfluss haben als andere. Das vierte Kriterium bedeute natürlich nicht, dass jeder, der Lust habe, mitentscheiden solle – diese Gefahr wiederum werde durch Kriterium drei verhindert; aber jeder, der qualifiziert sei, solle in den Diskurs eingebunden werden, da die Abwesenheit jedes qualifizierten Beitrags epistemologisch einen Mangel darstelle.50 Es sei sicherzustellen, dass Hypothesen stets dem größtmöglichen Maß an Kritik ausgesetzt würden, denn je mehr kompetente Beiträge verschiedener Perspektiven an den Diskussionen beteiligt würden, umso objektiver sei auch die Forschung.51 Wissenschaft, die aufgrund ihrer Unterbestimmtheit grundsätzlich von nicht-epistemischen Werten beeinflusst wird, wird nach Longino tendenziell zuverlässiger, je mehr soziale und politische Positionen in ihr Vertretung finden, da sich auf diese Weise mehr Theorien entwickeln, entsprechend breitere wechselseitige Kritik stattfindet und sich schließlich die – unter epistemischen wie nicht-epistemischen Aspekten – beste Theorie herausbilden und durchsetzen kann.52 Das Ziel der Wissenschaft ist demnach nicht, Wahrheit aufzudecken, sondern empirisch adäquate Ergebnisse hervorzubringen. Longino bestreitet die Möglichkeit, dass Sätze außerhalb ihrer (Entstehungs-) Kontexte bewertet werden können, dass es also kontextunabhängiges Wissen gibt. Dadurch wird ein Pluralismus möglich, der auch scheinbar widersprüchliche Sätze zulassen kann, da sie innerhalb ihres jeweiligen Kontextes bewertet werden können. Widersprüche nämlich entstünden einzig durch die positivistische Voraussetzung, dass man den Anspruch habe, allgemeingültige, wahre Aussagen zu treffen. Diese Voraussetzung lehnt Longino nach wie vor ab: The demand for consistency of all true statements is only problematic if one supposes that statements can be detached from their truth conditions and the contexts in which those are determinable. A contextualist denies such a detaching is possible without constructing a further or more encompassing context.53

50 | Vgl. Longino 2002a, S. 129-132. Diese Kriterien nennt Longino bereits 1995, S. 384385. 51 | Vgl. Longino 2002a, S. 132. 52 | Diese Ansicht vertritt auch James Robert Brown: Da man nicht genau wisse, wie die in die wissenschaftlichen Prozesse einfließenden Neigungen genau beschaffen seien, müsse eine größtmögliche Anzahl von Dispositionen in der Theorienbildung Vertretung finden (vgl. Brown 2001, S. 187). 53 | Longino 2002a, S. 94. Dabei ist wichtig zu sehen, dass Longino keine verschiedenen Welten im Sinn hat: „The pluralism envisioned [. . . ] is a pluralism of theories of a singular

The Fate of Knowledge | 147

Dass der Perspektivenpluralismus schließlich ein einheitliches Ergebnis hervorbringt, ist daher nach Longino keinesfalls notwendig, sondern nur eine Möglichkeit. Sie schließt: „If the eliminability of pluralism is a contingent fact, an epistemology ought not presuppose it.“54 Entscheidend ist also nach Longino nicht, dass aus den verschiedenen Ansätzen am Ende ein konsistenter (wahrer) Konsens hervorgeht, sondern nur, dass die Theorien innerhalb der Kontexte, in denen sie entstanden sind, empirisch adäquat sind. Kitcher deutet Longinos Forderung nach kontextabhängiger Adäquatheit als Forderung nach einer bestimmten Art von Signifikanz. Um dies zu verdeutlichen, unterscheidet er signifikante Wahrheit und signifikante Wahrheit: Signifikante Wahrheit entstehe nach dem Millschen Ideal dadurch, dass gegensätzliche Meinungen aufeinandertreffen, wodurch Wahrheit generiert werde – was allerdings das Risiko enthalte, dass genau der korrekte Ansatz aus dem Streit ausgeschlossen werde. Auf der anderen Seite gebe es signifikante Wahrheit, wenn alle Mitglieder einer Gesellschaft, in der nach Wahrheit gesucht werde, beteiligt würden, wodurch Signifikanz (im Anwendungskontext) entstehe. Hier bestehe aber das Problem, dass sich de facto gerade die Interessen durchsetzten, die nur einer kleinen Gruppe zugute kämen. Longinos Schwachpunkt ist für Kitcher, dass sie das Millsche Problem nicht vom Interessenproblem unterscheide.55 Aus Kitchers Perspektive trifft diese Kritik zu, aus Longinos jedoch nicht. Da sie gar nicht fordert, dass korrekte, also wahre Sätze generiert werden müssten, sondern bloß empirisch adäquate, schließt sie das, was Kitcher als Millsches Problem bezeichnet, von vornherein aus und kann sich ganz der Lösung dessen widmen, was Kitcher als Interessenproblem bezeichnet. Wichtig sei dafür, dass Theorien sich allen bestehenden Kritikpunkten stellten, denn daraus folgt umgekehrt, dass keine Interessen übergangen werden dürfen. Was als signifikant gilt, richtet sich Longino zufolge nicht nach Wahrheit, sondern nach kontextualistisch geprägten Interessen. Doch ist das überzeugend? Könnte es nicht rein epistemisch motivierte und somit kontextunabhängige Forschung geben?

world. [...] [It] must be understood as an empirical claim, not as the expression of a necessary truth about the world.“ (Ebd.) 54 | Longino 2002a, S. 94. 55 | Vgl. Kitcher 2002b, S. 556f. Außerdem Kitcher 2001, S. 94ff.

148 | Die Glaubwürdigkeit der Wissenschaft

3.6 Das Kronkorkenargument Bevor ich zur Frage nach möglicher Kontextunabhängigkeit von Wissenschaft komme, ist zu klären, ob es überhaupt so etwas wie rein epistemisches Interesse gibt. Der Mathematiker Godfrey Harold Hardy hat sich 1940 in einem Bändchen mit dem Titel A Mathematician’s Apology gegen die Behauptung gewendet, dass die einzig mögliche letzte Rechtfertigung der Mathematik die Nützlichkeit sei. Echte Mathematik („real mathematics“), womit er die Arithmetik meint, werde um ihrer selbst willen betrieben und nicht zum Zweck ihrer Anwendbarkeit.56 Doch was ist der Selbstzweck einer Wissenschaft? Geht es hier wirklich einzig und allein um das Verstehen-Wollen, um das Finden von Erklärungen? Longino wendet sich mit einem Argument gegen diese Behauptung, dass es Interesse gebe, das ausschließlich der Wahrheit gelte. Dieses Argument ist für ihren Standpunkt von zentraler Bedeutung. Zum ersten Mal in Science as Social Knowledge ins Spiel gebracht, trägt sie es 2002 anhand eines Beispiels vor, aufgrund dessen ich es als Kronkorkenargument bezeichnen möchte: [I]f all one wants is knowledge or truth, why not count the number of bottle caps one can lay down between Los Angeles and San Diego or between Minneapolis and St. Louis? One wants knowledge (and truths) about particular things or sets of things.57 Welcher Art diese bestimmten Dinge oder Mengen von Dingen sind, hängt von den jeweiligen Interessen des Forschers oder der Gemeinschaft ab. Diese Interessen sind wiederum vom sozialen und intellektuellen Kontext der Forschenden geprägt und leiten Forschung auf allen Ebenen: beim Festlegen von Forschungsgegenständen, bei der Theorie- und Methodenwahl bis hin zur Datenerhebung und -interpretation. Das bedeutet, dass Forschungsprojekte durch Interessen motiviert und auch in ihren theoretischen Annahmen und Methoden kontextabhängig sind, was zu Longinos These führt, dass nicht-epistemische und epistemische Werte nicht klar voneinander unterscheidbar sind. Was auf den ersten Blick wie eine rein epistemische Motivation aussieht, also wie ein ausschließliches Interesse an der Erkenntnis der Wahrheit, ist

56 | Vgl. Hardy 2008, S. 119. 57 | Longino 2002a, S. 176. Vgl. Longino 1990, S. 100-101. Ernest Sosa hat 2003 ähnlich argumentiert: Man könne wohl am Strand eine Handvoll Sandkörner zählen und so Wissen erwerben. Allerdings würde dieses Wissen niemanden interessieren. Wahrheit sei folglich nicht per se interessant (vgl. Sosa 2003, S. 156-157). Torsten Wilholt fügt noch eine Reihe schöner Beispiele dieser Art hinzu und schließt zu Recht: „Der logische Raum ist erfüllt von solchen minima trivialia.“ (Wilholt 2011, Abschnitt 5.2, Zitat ebd. S. 112)

Das Kronkorkenargument | 149

eigentlich doch von praktischen Interessen geprägt. Was lässt sich dagegen vorbringen? Zum Beispiel ließe sich einwenden, dass es zwar plausibel erscheine, dass es niemanden interessiert, wie viele Kronkorken zwischen Los Angeles und San Diego passen, doch dass man dies nicht wisse. Nicht nur in den Geistes-, sondern auch in den Naturwissenschaften lassen sich Beispiele für Grundlagenforschung finden, deren mögliche Anwendungszwecke mindestens zu Beginn nicht sofort erkennbar sind. Allerdings lässt sich einem solchen Einwand entgegnen, dass im Hintergrund trotzdem irgendeine Art von Interesse stehen müsse, beispielsweise die Hoffnung, am Ende eben doch Ergebnisse zu finden, die im größeren Zusammenhang nützlich sein könnten. Wenn dies abgestritten würde, wenn also ein Forscher behaupten würde, tatsächlich überhaupt kein Interesse am Nutzen seiner Arbeit zu haben, da es ihm einzig und allein um die Produktion von Wissen gehe, dann könnte er ja tatsächlich genauso gut die Kronkorken zwischen Minneapolis und St. Louis zählen – es müsste ihm gleichgültig sein, da es keinen qualitativen Unterschied gäbe zwischen (potentiell) signifikantem Wissen, das nützlich ist (bzw. später einmal nützlich werden könnte), und solchem, das keinerlei Signifikanz aufweist (wie beispielsweise die Anzahl der Kronkorken). Doch das ist wenig überzeugend; man finde den Mathematiker, der sagt, es gehe ihm allein um die Gewinnung von Wissen, um sonst gar nichts, daher sei es ihm vollkommen egal, ob er ein Millenium-Problem löse oder Kronkorken zähle. Vielmehr ist anzunehmen, dass – da sich in jedem Forschungsfall jemand dafür entscheiden muss, diese Forschung zu tun – diese Entscheidung auf irgendeiner Art von Interesse beruht. Doch muss solches Interesse immer praktischer Natur sein? Kann es sich nicht auch um ein rein epistemisches Interesse handeln? Dazu muss man sich die Frage stellen, was einen Forscher reizt, etwas zu erforschen, ohne dass der Zweck seiner Forschung (fürs Erste) ersichtlich wäre? Warum gibt es Interesse an Erklärungen, die keinen praktischen Nutzen haben? Warum reicht es beispielsweise nicht, zu wissen, dass eine Formel richtige Ergebnisse liefert, warum möchte man, womöglich wiederholt und auf verschiedene Arten, beweisen, dass sie dies tut? Hardy liefert hierfür eine ästhetische Begründung; er vergleicht die schöpferische Beschaffenheit der Mathematik mit der von Malerei und Poetik und nennt dabei als oberstes Qualitätsmerkmal der Mathematik die Schönheit: A mathematician, like a painter or a poet, is a maker of patterns. If his patterns are more permanent than theirs, it is because they are made with ideas. [. . . ] The mathematician’s patterns, like the painter’s or the poet’s, must be beautiful; the ideas, like the colours or the words, must

150 | Die Glaubwürdigkeit der Wissenschaft

fit together in a harmonious way. Beauty is the first test: there is no permanent place in the world for ugly mathematics.58 Im Fall solcher Forschung, die nicht von vornherein anwendungsorientiert oder von persönlichen Interessen wie Macht oder Prestige motiviert ist, wird von Hardy als höchstes Ziel der Gegenstand eines ästhetischen Interesses genannt: die Eleganz. Auch Kitcher geht diesen Fragen nach und kommt zu dem Ergebnis, dass reine Wissenschaft etwas sei, dessen sämtliche Möglichkeiten praktischer Nützlichkeit für Vergangenheit und Zukunft ausgeschlossen werden müssten, bevor sie als solche anerkannt werden könne.59 Dies scheint unmöglich. Kitcher allerdings hält solche Fälle durchaus für möglich – eine der Hauptdifferenzen zu Longinos Position. „Particular kinds of knowledge may be valued for their own sake“,60 behauptet er, und in der gegenwärtigen Teilchenphysik sieht er einen solchen Fall: Praktische Konsequenzen, gute wie schlechte, seien zu abseitig, als dass man sie spezifizieren könne. Forschung in diesem Bereich werde betrieben, um die tiefsten und schönsten Wahrheiten („the deepest (‚most beautiful‘) truths“) über das Universum zu enthüllen.61 Doch stellt Torsten Wilholt über den Large Hadron Collider am CERN fest: „Das Wissen, auf welches der LHC abzielt, dient nicht nur der Freude an der Erkenntnis, sondern verspricht sowohl einen Beitrag zum Verständniswissen als auch zur Erforschung der fundamentalen Kausalzusammenhänge der Natur und somit zur nachhaltigen Entwicklung nützlichen Wissens – auch wenn zur Zeit nicht vorhersagbar ist, welcher Nutzen daraus erwachsen mag.“62 Es ist in der Tat fraglich, ob es Wissenschaftler gibt, die aus reiner Neugierde63 ihrer Arbeit nachgehen. Mindestens ein Streben nach Ruhm oder Glück (was Wilholt als „Freude an der Erkenntnis“ bezeichnet) als soziale Motivation der Arbeit ist kaum auszuschließen. Kitcher schreibt dazu:

58 | Hardy 2008, S. 84-85. 59 | Vgl. Kitcher 2001, S. 90. 60 | Kitcher 2011, S. 37. 61 | Vgl. Kitcher 2001, S. 90. Dies erinnert gefährlich an Percy Williams Bridgmans Begründung wissenschaftlicher Wertfreiheit: „There must be widespread [...] understanding of the mountain climber who, when asked why he had to climb mountains, replied, ‚Because the mountain is there.‘ I believe that most men similary can be made to feel the challenge of an external world not understood and can be made to see that the scientist has to understand nature ‚because nature is there‘.“ (Bridgman 1947, S. 153) 62 | Wilholt 2011, S. 147. 63 | Vgl. Kitcher 2001, S. 91.

Das Kronkorkenargument | 151

Perhaps the simplest response is to suppose that these kinds of motivations [fame or fortune] occur equally in pure scientists and in those who practice technology, so that they can be ignored for the purposes of drawing the distinction [between pure and applied science].64 Diese Feststellung, dass Forscher, egal in welchem Bereich tätig, durch das Streben nach Ruhm oder Glück motiviert sein können, spricht aber ebenfalls gegen die Möglichkeit rein epistemischen Interesses, da, was Ruhm bringt oder glücklich macht, wesentlich kontextuell geprägt zu sein scheint, abhängig von kontingenten sozialen oder moralischen Standards. Wenn ein Wissenschaftler außer der eigenen Profilierung keinerlei Interesse an dem Ergebnis seiner Forschung hat, wird die Forschung dadurch allein trotzdem noch nicht frei von praktischen Interessen sein, da niemand sich durch die Bereitstellung von Wissen profilieren kann, das niemanden interessiert. Und selbst wenn ein Wissenschaftler Monat für Monat im Labor seine Arbeit verrichtet, ohne sich jemals zu fragen, was er da tut und wozu, mit dem alleinigen Interesse, seine Arbeit fehlerfrei zu verrichten und korrekte Ergebnisse zu erzielen, würde auch diese Arbeit noch von nicht-epistemischen Interessen motiviert sein, wenn auch nicht von denen des Wissenschaftlers, sondern von denen der Gesellschaft, vertreten beispielsweise durch seinen Auftraggeber, und wäre also letztlich von gesellschaftlichen, politischen oder ökonomischen Interessen beeinflusst. Aber, könnte weiter eingewendet werden, man könnte ja auch Freude an der Wahrheit haben; dann forschte man doch aus rein epistemischem Interesse, aus reiner Neugier. Hier kommt nun Longinos Kronkorkenargument zum Tragen: Denn es mag zwar sein, dass jemand aus reiner Neugierde forscht, aber die Neugierde ist doch spezialisiert. Wenn man etwas verstehen möchte, nur um es zu verstehen, bleibt doch die Frage: Warum gerade dies? Warum möchte man nicht irgendetwas anderes herausfinden? Neugierde allein kann keine hinreichende Motivation liefern, denn schließlich ist Neugierde immer auf bestimmte Dinge gerichtet. Als Letztbegründung taugt Neugierde daher ebenso wenig wie das von Hardy angeführte Kriterium der Schönheit, denn was als schön empfunden wird, ist ebenfalls kontextabhängig. Wilholt bemerkt dazu, dass die Fähigkeit, Freude an wissenschaftlicher Erkenntnis zu empfinden, sehr stark von Bildung und sozialem Status abhängt.65 Ich halte diesen Punkt für entscheidend, da sich hier zeigt, dass selbst scheinbar rein epistemische Ambitionen kontextuell, von sozialen, moralischen oder politischen Bedingungen geprägt sind. Und das

64 | Kitcher 2001, S. 87. 65 | Vgl. Wilholt 2011, S. 150.

152 | Die Glaubwürdigkeit der Wissenschaft

ist der Punkt, der Longino so wichtig ist: Warum man genau auf dies neugierig ist, genau das schön findet oder an genau jenem Freude hat, ist kontextabhängig. Was genau könnte dann rein epistemisches Interesse – so es ein solches gibt – sein? Eine mögliche Antwort (A) wäre, unter rein epistemischem Interesse eines zu verstehen, das sich allein auf das Verstehen theoretischer Zusammenhänge richtet. Reine Grundlagenforschung, ließe sich einwenden, zielt einzig und allein darauf ab, theoretische Zusammenhänge zu verstehen. Das Kronkorkenargument greift dann insofern nicht mehr, als es sich (nach diesem Verständnis von rein epistemischem Interesse) eines Beispiels bedient, das auch hinsichtlich eines solchen rein epistemischen Interesses äußerst schwach ist. Die Anzahl der Kronkorken zwischen Minneapolis und St. Louis ist schließlich nicht nur für jedes praktische, sondern auch für jedes theoretische Interesse irrelevant. Epistemisches Interesse richtet sich nach dieser Auffassung nicht nach praktischen Interessen, sondern danach, auf (möglichst viele) andere Theorien (möglichst großen) Einfluss zu nehmen.66 Ein möglicher Einwand gegen (A) ist allerdings, dass man sich im Folgenden fragen müsste, auf welche Theorien denn in einem solchen Fall Einfluss genommen werden sollte: Wären es Theorien, die ebenfalls alle von rein epistemischem Interesse (in demselben Sinne) sind, dann gelangte man in einen infiniten Regress von Theorien ohne praktischen Bezug. Ließe man aber zu, dass diese Theorien, auf die Bezug genommen wird, ihrerseits praktische Relevanz haben können, dann ist damit bereits die Theorie selbst nicht mehr rein epistemisch motiviert, da man ja auf praxisrelevante Theorien Bezug nimmt. Auch dieses Verständnis rein epistemischen Interesses scheint daher auf den ersten Blick problematisch. Dagegen scheint einiges darauf hinzuweisen, dass es so etwas wie rein epistemisches Interesse als etwas von kontextuellen Werten Losgelöstes womöglich gar nicht gibt. Torsten Wilholt schreibt dazu mit Bezug auf Edgar Zilsel und John Bernal: „Insgesamt ist die Bedeutung anwendungsorientierter Fragestellungen für wissenschaftliche Innovationen in der gesamten Wissenschaftsgeschichte so groß, dass einige Historiker gar Deutungen gewagt haben, welche die praktische Anwendung als eigentliche Triebfeder der gesamten wissenschaftlichen Entwicklung sehen wollen.“67 Wilholt selbst diskutiert den Begriff des intrinsischen Werts wissenschaftlichen Wissens (bzw. wahrer Überzeugungen) ausführlich. Unter anderem führt er ein Argument Lars Bergströms an, wonach es keinen intrinsischen Wert von Wissen geben kann, da es kaum etwas gebe, an dem alle gleichermaßen interessiert seien. Wilholt stellt gegen dieses Argument den möglichen Einwand vor, dass sich diese Verschiedenheit aus

66 | Den Einwand verdanke ich Martin Carrier. 67 | Wilholt 2011, S. 130.

Das Kronkorkenargument | 153

einem unvollkommenen Grad an Einsicht in den wahren intrinsischen Wert verschiedener wahrer Überzeugungen ergebe, so dass alle Menschen idealerweise dieselben wahren Überzeugungen anstreben sollten.68 Dagegen lässt sich allerdings einwenden, dass die Möglichkeit eines solchen Ideals ausgesprochen unrealistisch ist. Sobald irgendeine konstitutionelle Verschiedenheit zwischen zwei oder mehr Menschen besteht (und dies ist in der Realität stets der Fall), gibt ihre jeweilige kontextuelle Situation ihnen verschiedene ideale Zustände vor (allein aufgrund des Geschlechts, der umgebenden Verhältnisse, persönlicher Erfahrungen etc.), weswegen Person A auch idealerweise nicht oder höchstens näherungsweise dieselben Erkenntnisinteressen hat wie Person B. Weiter macht Wilholt mit Bezug auf Paul Horwich geltend, dass instrumentelle Werte allein als Begründung für manche menschlichen Erkenntnisbestrebungen schlicht nicht ausreichend seien.69 Zwar ist eine solche Begründung, die letztlich darauf beruht, dass man einen intrinischen Wert von Wissen annehmen muss, weil manche Erkenntnisbestrebungen sich anders einfach nicht begründen lassen, in gewisser Weise unbefriedigend (es handelt sich um ein klassisches argumentum ad ignorantiam), doch kann Wilholt zufolge nur eine solche Position der tatsächlichen Beschaffenheit menschlicher Wissensbestrebungen gerecht werden.70 So schwach ein argumentum ad ignorantiam ist – es wird hier benötigt. Man denke an den russischen Mathematiker Grigori Perelman, der sowohl Fields-Medaille als auch Millennium-Preis abgelehnt hat und damit beispielhaft für einen Forscher steht, der unter jahrelangen Mühen einen Beweis erbracht hat, welcher offenbar keinerlei praktische Signifikanz aufweist – und dies anscheinend ohne dabei nach Prestige zu streben. Selbst wenn man argumentierte, dass die Poincaré-Vermutung selbst zwar keine praktische Signifikanz aufweist, doch Teil eines mathematischen Systems ist, das in seinen Ursprüngen unter dem Interesse praktischer Signifikanz entwickelt worden ist, ist das Problem selbst noch immer von rein epistemischer Signifikanz und das Interesse an der Lösung des Problems rein epistemisch motiviert.71 Die eigentliche Frage, die durch das Kronkorkenargument aufgeworfen wird, warum nämlich an einem solchen Beweis wie dem der Poincaré-Vermutung Interesse besteht, nicht aber an der Anzahl der Kronkorken zwischen Minneapolis und St. Louis, ist damit noch immer nicht beantwortet. Hier ist nun Carriers oben genannter Einwand (A) hilfreich: Eine rein epistemisch motivierte Frage wird umso interessanter, je mehr praktische oder theo-

68 | Vgl. Wilholt 2011, FN 259. 69 | Vgl. Wilholt 2011, S. 111. 70 | Vgl. Wilholt 2011, S. 106-107. 71 | Vgl. dazu auch Wilholt 2011, S. 107.

154 | Die Glaubwürdigkeit der Wissenschaft

retische Konsequenzen sie hat. Aus diesem Grunde besteht ein (rein epistemisches) Interesse am Beweis der Poincaré-Vermutung, jedoch keines an der Anzahl der Kronkorken oder Sandkörner.72 Zusammengefasst lässt sich also aus Longinos Kronkorkenargument nicht ableiten, dass es keine rein epistemischen Interessen gebe; allein aus Gründen deskriptiver Adäquatheit ist anzunehmen, dass es so etwas wie rein epistemisch motivierte Forschung gibt; etwas anderes will Longino vermutlich auch nicht behaupten. Entscheidend ist aber, dass alle Erkenntnisbestrebungen, rein epistemisch wie praktisch motivierte, kontextabhängig sind. Daraus folgt u.a. auch, dass zwischen epistemischen und nicht-epistemischen Interessen nicht immer klar unterschieden werden kann. Dies macht zwar nicht die Möglichkeit rein epistemischer Signifikanz zunichte, problematisiert jedoch die Vorstellung von reiner Grundlagenforschung, die gänzlich frei von politischer oder moralischer Relevanz ist. So kann man auf der Homepage des Bundesministeriums für Bildung und Forschung (BMBF) über Grundlagenforschung lesen: Erkenntnisse über die Struktur der Materie und die grundlegenden Zusammenhänge in der Natur zu gewinnen, gehört zu den wesentlichen Bestandteilen unserer Bildung und Forschung. Dabei nimmt die [...] Grundlagenforschung eine wichtige Stellung ein, denn sie ist auch Ausgangspunkt für technische Innovationen und für eine auf Nachhaltigkeit orientierte Entwicklung von Wirtschaft und Gesellschaft.73 Kitcher unterstreicht diese Sichtweise im Advancement. Dort beschreibt er die Organisation wissenschaftlicher Fragen als hierarchisch verästelten Baum, an dessen Wurzel die grundlegenden, rein epistemischen Fragen stehen, aus denen sich dann die speziellen ableiteten.74 Zwar macht er 2001 das große Zugeständnis, auch epistemi-

72 | Dagegen hat Michael Lynch argumentiert, es bestehe selbst hinsichtlich solcher Fragen wie der nach der Anzahl der Kronkorken oder Sandkörner noch ein bevorzugtes Interesse an der wahren gegenüber einer falschen Antwort: „[I]f we were forced to choose between believing truly or falsely about the matter, we would prefer, at least to some tiny degree, the former.“ (Lynch 2004, S. 16) Diese Behauptung halte ich schlicht für falsch. Ich nehme an, dass in Fällen wie der Frage nach der Anzahl der Kronkorken oder Sandkörner die Haltung eines Menschen (so er denn nicht gerade zwangsgestört ist) die sein dürfte, dass es ihm schlicht egal ist, ob es sich nun um 2.000.000 oder 2.000.001 Kronkorken bzw. Sandkörner handle. Ich stimme daher mit Wilholt überein, dass es einen intrinsischen Wert von Wissen nicht gibt (vgl. Wilholt 2011). 73 | BMBF 2011. 74 | Vgl. Kitcher 1993, S. 115. 2001 verwirft er dieses Bild zugunsten methodologischer und theoretischer Flickwerke (vgl. Kitcher 2001, S. 69-82, insbesondere S. 72).

Probleme des Pluralismus | 155

sche Signifikanz sei kontextabhängig, und erkennt damit Longinos Kontextualismus an, doch durchzieht die Auffassung einer grundsätzlich von dem Streben nach Wahrheit geleiteten Wissenschaft Kitchers Arbeiten bis zur Gegenwart, was Longino kritisiert. Aus ihrer Sicht kann Kitchers Wahrheitsideal so nicht aufrecht erhalten werden, da die Möglichkeit besteht, dass Forscher oder Forschergruppen, die ein und denselben Gegenstand untersuchen, verschieden motiviert und unterschiedlich sozialisiert sind oder über ungleiche Mittel verfügen. Dadurch können zur Erklärung desselben Phänomens konkurrierende Theorien entstehen. Welche oder ob überhaupt eine davon wahr ist, bleibt nach Longinos Auffassung ungewiss und ist auch gar nicht von Interesse. Wichtig ist ihr zufolge allein die empirische Adäquatheit sich behauptender Theorien. Nur Vielfalt und Konkurrenz können nach ihrer Ansicht einfließende Interessen kontrollieren und beiden Bezugsgrößen gerecht werden: der sozialen Bezugsgröße der praktischen Signifikanz und der epistemischen Bezugsgröße der Wahrheit, der wir nach Longino umso näher kommen, je mehr unterschiedliche Perspektiven in der Forschung berücksichtigt werden. So soll für die Theorien und Methoden Objektivität gewährleistet und robuste Erkenntnis erzeugt werden. Das klingt zunächst sehr überzeugend. Doch wo liegen die Schwächen pluralistischer Ideen?

3.7 Probleme des Pluralismus Drei Kritikpunkte lassen sich gegen das pluralistische Robustheitsargument vorbringen.75 Die ersten beiden sind praktischer Natur: Einmal gibt es bei weitem nicht immer eine Vielzahl von Ansätzen; Prüfung durch verschiedene (methodische, theoretische oder instrumentelle) Verfahren scheidet daher oft von vornherein aus. Des Weiteren ist eine tatsächliche Unabhängigkeit verschiedener Ansätze, so sie denn bestünden, in aller Regel schwer zu überprüfen. Das dritte Problem ist ein systematisches: Die Einigkeit aus verschiedenen Perspektiven bedeutet nicht unbedingt, dass es sich dabei um eine korrekte Konklusion handelt. Diese drei allgemeinen Probleme für das Robustheitsargument treffen Longinos Perspektivenpluralismus empfindlich. Doch kann man gegen die ersten beiden Einwände zunächst einmal einfach annehmen, man habe es mit einem Bereich zu tun, der sich aus diversen, von einander unabhängigen Perspektiven erforschen lasse, wie es in der Klimaforschung und vielen anderen Bereichen glaubwürdigkeitsrelevanter Forschung geschieht, in denen komplexe Gegenstände bei konkurrierenden Interessen zu untersuchen sind. In solchen Fällen sind Punkt eins und zwei irrelevant. Dann bleibt jedoch noch immer das dritte Problem, dass es eigentlich keinen zwingenden methodologischen Grund dafür gibt,

75 | Vgl. Stegenga 2009.

156 | Die Glaubwürdigkeit der Wissenschaft

dass aus einem Perspektivenpluralismus die epistemisch oder moralisch beste Variante hervorgeht. Es gibt noch nicht einmal einen zwingenden Grund dafür, dass es eine solche beste Variante überhaupt gibt.76 So verfügen, wie Matthias Adam argumentiert, viele Parteien, deren Interessen betroffen sind, weder über die Kompetenzen noch über die Ressourcen, die für eine Partizipation am Diskurs nötig sind. Doch selbst wenn dies durch einen Wettbewerb gegeben wäre, der auf hinreichenden und wohl verteilten Ressourcen beruhe und transparent sei, würden dadurch noch nicht Zuverlässigkeit und Vertrauenswürdigkeit garantiert, denn Kritik trete nicht nur da auf, wo wissenschaftliche Objektivität verletzt werde, sondern auch dort, wo Forschungsergebnisse den spezifischen Interessen einer Partei entgegenstünden.77 Da nicht gewährleistet ist, dass sich die epistemisch oder moralisch beste Position durchsetzt, verbessert Pluralismus weder die epistemische noch die moralische Qualität eines Forschungsprojekts zwangsläufig. Wenn man diesen theoretischen Einwand auf die Wirklichkeit anwendet, erkennt man durchaus Probleme, die insbesondere John Ziman mit Nachdruck benennt. Ziman bemängelt die zunehmende kommerzielle Ausrichtung der Wissenschaft und deren Folgen: Die Forschung sei nicht mehr auf epistemische Gesichtspunkte hin ausgerichtet, sondern auf wirtschaftliche, sie werde nur mehr im privaten, nicht mehr im öffentlichen Raum diskutiert und sei ausschließlich an praktischen Zielen wie Zuverlässigkeit und Effizienz orientiert. Ziman diagnostiziert einen Bruch in der Wissenschaftsgeschichte, einen Wechsel von der traditionellen, rein akademischen hin zu einer post-akademischen Wissenschaft. Seit die Industrie als Auftraggeber für Forschungsprojekte fungiere, gehe es nicht mehr um die Schaffung von Wissen als solchem, sondern zunehmend darum, Partikularinteressen zu bedienen und die diesen hinderlichen spezifischen Probleme zu lösen. Es entwickle sich ein „unbefangener Pluralismus“, „an untidy mixture of theory and practice, computer simulations and numerical data“,78 die Trennung zwischen Grundlagenforschung und angewandter Wissenschaft verschwinde mehr und mehr.79 Entsprechend verändere sich die Arbeitssituation für Wissenschaftler: Unbegrenzte Professuren, die es Wissenschaftlern ermöglichten, reine Grundlagenforschung zu betreiben, die von kommerziellen, poli-

76 | Kitcher betont wiederholt, dass aus Longinos Argumenten nicht klar hervorgehe, ob Pluralismus ihrer Ansicht nach die moralische oder die epistemische Qualität von Forschung fördere – eine Frage, die ich klar so beantworten würde, dass für sie die Verbesserung der einen auch die andere fördert (ein Standpunkt, zu dem auch Kitcher sich inzwischen bekennt). 77 | Vgl. Adam 2008, S. 248-249. 78 | Ziman 1996, S. 753. 79 | Vgl. Ziman 1996, S. 753.

Probleme des Pluralismus | 157

tischen oder anderen externen Interessen unbeeinflusst sei, würden immer seltener.80 Der Druck auf die Forscher, Erfolge vorzuweisen, erhöhe sich; zugleich bemesse sich Erfolg nicht mehr am „akademischen“ Wert der Objektivität, sondern an sozialen Werten wie Sicherheit, Wirtschaftlichkeit oder Effizienz.81 Ziman erstellt eine ganze Liste vom Verschwinden bedrohter akademischer Tugenden: 1. personal integrity, corrupted by „conflicts of interest“; 2. transparency, infringed by withheld research data; 3. intellectual sincerity, discredited by censorship by sponsors; 4. honesty, compromised by plagiarism and fraud; 5. authenticity, negated by commercial hype; 6. collegiality, denied by bureaucratic management; 7. benevolence, contravened by antisocial projects; 8. autonomy, discounted by excessive „performance assessment“;82 Hier verortet Ziman das Hauptproblem der post-akademischen Wissenschaft: Objektivität als eine in der wissenschaftlichen Gemeinschaft tradierte Qualität, die auf diesen acht Tugenden fuße und Garant für zuverlässiges, interessenfreies Wissen sei, werde mehr und mehr untergraben.83 Die Mertonschen Prinzipien des „Scientific Ethos“, Universalismus, Kommunismus, Uneigennützigkeit, Originalität und organisierter Skeptizismus, würden in wachsendem Ausmaß unterwandert.84 Insbesondere das zweite Prinzip, Kommunismus, werde unweigerlich durch die Privatisierung wissenschaftlichen Wissens aufgehoben.85 Wenn aber kommerzielle Werte die Forschung bestimmen, nützt auch kein Pluralismus: Solange Wirtschaftlichkeit und Effizienz die bestimmenden Werte sind, werden sich Transparenz, fruchtbare wechsel-

80 | Vgl. Ziman 1996, S. 752. 81 | Vgl. Ziman 1996, S. 754. 82 | Ziman 2002, S. 399. 83 | Vgl. Ziman 1996, S. 754. Vgl. dazu auch Mertons Ausführungen zur „Disinterestedness“ (Merton 1973, S. 275-277). 84 | Vgl. Merton 1973, S. 270-278. 85 | „Communism“ wird bei Merton nicht im ideologischen, sondern im ideellen Sinn verwendet, es bezeichnet den für die Wissenschaft unentbehrlichen öffentlichen Zugang aller zum wissenschaftlichen Wissen (vgl. Merton 1973, S. 273-275).

158 | Die Glaubwürdigkeit der Wissenschaft

seitige Kritik, Kollegialität oder Integrität, mithin Werte, die für einen funktionierenden Pluralismus unerlässlich sind, nicht durchsetzen können. Martin Carrier stimmt Ziman hinsichtlich der Kommerzialisierung von Wissenschaft und Forschung grundsätzlich zu: We are witnessing a throughgoing commercialization of research, which confronts us with the question of how the dominance of economic interests affects science and society as a whole. [. . . ] [T]his commercialization process can be expected to lead to a biased research agenda, keep public science out of corporate laboratories, and induce methodological sloppiness.86 Doch hält Carrier Zimans Pessimismus entgegen, dass die verstärkte Anwendungsausrichtung der Wissenschaft nicht zwangsläufig eine Einbuße der traditionellen epistemischen Werte bedeuten müsse. Vielmehr sei umgekehrt auch „Anwendungsinnovation“ zu beobachten, bei der sich für Grundlagenforschung relevante Fragen und Ansätze und signifikante theoretische Neuheiten oft unmittelbar aus Projekten angewandter Forschung ergeben.87 Anwendung kann demnach nicht nur konsumierend, sondern im Gegenteil auch innovativ wirken: Whereas applied science brings to bear additional practical values like efficiancy, low cost, or environmental friendliness, there is continuity among the epistemic values accepted in both fields. In the end, the striving for control is not likely to override the commitment to knowledge.88 Zwar löse sich das lineare Kaskadenmodell, wonach technologischer Fortschritt auf den Erkenntnissen der Grundlagenforschung aufbaut, das also die traditionelle Trennung von reiner Wissenschaft und angewandter Forschung behauptet, durch die Dominanz der Praxis mehr und mehr auf. Doch bedeute dies nicht zwangsläufig einen Geltungsverlust epistemischer Werte.89 Auch Nancy Cartwright betont in diesem Zusammenhang, es könnten durchaus verschiedene Interessen wahre Erklärungsmodelle hervorbringen; dass ein Gesetz wahr sei, selbst eines der Grundlagenphysik, bedeute keinesfalls, dass es universale Gültigkeit besitze.90 Auch sie sieht kein linear gestuftes, sondern ein bunt durchmischtes Modell aus Anwendungsinteressen und

86 | Carrier 2008, S. 218. 87 | Vgl. Carrier 2004. Zu demselben Ergebnis kommt Torsten Wilholt (vgl. Wilholt 2006). 88 | Carrier 2004, S. 292. 89 | Vgl. Carrier 2004, S. 281-282. 90 | Vgl. Cartwright 1996, S. 315.

Probleme des Pluralismus | 159

epistemischen Werten als adäquate wissenschaftliche Erkenntnistheorie an, einen nomologischen Pluralismus: Metaphysical nomological pluralism is the doctrine that nature is governed in different domains by different systems of laws not necessarily related to each other in any systematic or uniform way: by a patchwork of laws. Nomological pluralism opposes any kind of fundamentalism.91 So wirkt die Kritik Zimans in ihrem Pessimismus nicht uneingeschränkt überzeugend, und Longinos Kontextualismus lässt sich retten. Konsequent tritt sie für einen Perspektivenpluralismus ein, damit trotz der Probleme, die Ziman benennt, Objektivität sowie empirische Adäquatheit gewährleistet werden können. An dieser Stelle soll jedoch an Matthias Adams grundsätzlichen Einwand erinnert werden: Es gibt an sich keine Garantie, dass sich in einem Perspektivenpluralismus durch wechselseitige Kritik die (epistemisch oder moralisch) beste Variante durchsetzt. Mindestens ebenso plausibel erscheint die Möglichkeit, dass nicht-epistemische Werte wie Prestige- oder Machtstreben, politische Überzeugungen oder soziale Voraussetzungen entscheidend sind. Longino beruft sich aus diesem Grund auf epistemische Qualitätsstandards („public standards“), nach denen zu bestimmen sei, welche Ansätze zu wissenschaftlich-pluralistischen Debatten zuzulassen sind. Das Verhältnis zwischen einer Pluralität nicht-epistemischer Werte und allgemein geteilten Standards verdeutlicht Longino mit einer Landkartenanalogie, die auch Kitcher verwendet. Eine wissenschaftliche Theorie entspricht dabei einer Landkarte, das Forschungsobjekt der Landschaft, die kartographisch dargestellt wird: Good maps are held to an objective standard (they have to conform to the domain mapped) but the character of that standard (what is omitted, what included, the degree of accuracy required, and so forth) is set by us and our concerns.92 Hier ist zu bemerken, dass Landkarten etwas Anwendungsorientiertes sind; sie werden aus praktischen Gründen hergestellt, d.h. sie dienen bestimmten Zwecken, nämlich sich hinsichtlich eines Ziels zu orientieren, Reisen zu organisieren, Landschaftsplanung zu betreiben, Bodenschätze abzubauen etc. Je nachdem, welchem Zweck eine Landkarte dienen soll, ist sie so oder so ausgestaltet – eine einzige „wahre“ Landkarte gibt es nicht, nur ihren jeweiligen Zwecken mehr oder weniger adäquate Karten. So sind Karten stets Mittel zum Zweck, nie Selbstzweck.

91 | Cartwright 1996, S. 322. 92 | Kitcher 2002b, S. 555. Vgl. außerdem Longino 2002a, S. 116f.

160 | Die Glaubwürdigkeit der Wissenschaft

Dies deutet jedoch ein grundsätzliches Problem für Longinos Ansatz an: Wie können alle Interessen einer Gemeinschaft in ein wissenschaftliches Unternehmen integriert werden, wenn doch aufgrund dieser allgemeinen Standards bestimmte Beiträge disqualifiziert und somit ausgeschlossen werden? Zwar ist die Feststellung Longinos korrekt, dass geteilte Standards benötigt werden. Dies ist genau dann der Fall, wenn man nicht Feyerabends „anything goes“ folgen und so Gefahr laufen möchte, in eine „cacophony“93 zu geraten, eine Situation also, in der einfach jeder unqualifiziert Einfluss nehmen kann. Doch scheinen solche Standards unvermeidlich Meinungen und Ansätze auszuschließen und so dem pluralistischen Grundgedanken zu widersprechen. Um eine adäquate Landkarte, ganz gleich aus welcher Perspektive, zu entwerfen, bedarf es schließlich einer guten Ausbildung. Beispielsweise erhalten jedoch viel mehr weiße als schwarze Studenten eine solch gute Ausbildung. Und selbst wenn man beschlösse, gleich viele weiße und schwarze Studenten auszubilden, um faktisch Gleichheit zu schaffen, wären die Erkenntnisse, die wissenschaftlichen Grundlagen und Interessensschwerpunkte, die bei dieser Ausbildung vermittelt würden, nach wie vor historisch von Weißen geprägt. Solange es einen Standard gibt, an dem die Arbeiten der Mitglieder einer wissenschaftlichen Gemeinschaft gemessen werden, können dieser Standard und damit die Arbeiten, die ihm genügen, vorurteilsverzerrt sein. Dieses Problem beschreibt auch Sylvia Culp: [. . . ] if intersubjective agreement depends only on community standards, even when dependence on idiosyncratic presuppositions is eliminated, dependence on presuppositions shared by the entire community might not be. Any raw data interpretation dependent on a false theoretical presupposition, even one shared by an entire community, will be biased.94 Das Problem der Inkonsistenz einer Annahme sowohl pluralistischer Ansprüche als auch allgemeiner Standards wird in Abschnitt 3.9 wieder aufgegriffen. Kitcher, der dieses Problem erkennt, entwickelt in Science, Truth, and Democracy einen Ansatz, der das Problem zwar nicht lösen kann, aber ihm zumindest Rechnung trägt und so, wie noch zu sehen sein wird, hinsichtlich der momentanen Situation der Klimaforschung äußerst fruchtbar erscheint.

93 | Longino 2002a, S. 133. 94 | Culp 1995, S. 438.

Wissenschaft und Demokratie | 161

3.8 Wissenschaft und Demokratie

When it comes to ordinary politics, we all like democracy — or at least may so — but there’s no consensus at all in science. One opinion, common among scientists and philosophers since Plato, says that science is not and should not be democratic. Truth is truth, evidence is evidence — it’s not a matter of taking a vote. JAMES ROBERT B ROWN , W HO RULES IN S CIENCE ?

Bereits im Nachwort zum Advancement hat Kitcher mit Blick auf die Frage nach dem sozialen Kontext von Wissenschaft festgestellt, dass hinter seinen Versuchen, die epistemischen Eigenschaften der Wissenschaft zu verstehen, die weit größere Frage nach ihrem sozialen Kontext stehe.95 Seither hat er ein Modell entwickelt, das er erstmals 2001 in Science, Truth, and Democracy vollständig vorstellt. Kitcher verwendet gegen den Anspruch wissenschaftlicher Objektivität einen kontextabhängigen Signifikanzbegriff und konstruiert damit unter Verwendung egalitaristischer Ideen das normative Ideal eines wohlgeordneten Wissenschaftssystems, einer „wellordered science“.96 Ebenso wie bei Longino basieren hier auch bei Kitcher zentrale Argumente auf den Millschen Argumenten für freie Meinungsäußerung.97 Wendet man sich zunächst der Frage zu, welche Rolle soziale, moralische und politische Werte in angewandten Wissenschaften spielen, böte es sich Kitcher zufolge zunächst an, zwischen Mitteln und Zwecken zu unterscheiden und nur entweder den einen oder den anderen einen nicht-epistemischen Wertestatus zuzuschreiben. Dies jedoch hält er für kurzsichtig: Wären nämlich einerseits die wissenschaftlichen Methoden wertfrei, so wären diesen keine moralischen Grenzen gesetzt; eine solche Position ließe sich nicht halten, da sie Experimente an Menschen, wie sie in nationalsozialistischen Konzentrationslagern verübt worden sind, moralisch legitimierte. Wären andererseits die Ergebnisse wissenschaftlicher Forschung keine Gegenstände der Moral, so könnten diese Ergebnisse von größtem Schaden für Menschen oder Umwelt sein, ohne den Status moralischer Verwerflichkeit zu erhalten. Dies wäre

95 | Vgl. Kitcher 1993, S. 391. 96 | Vgl. Kitcher 2001, S. 117-136. 97 | Vgl. Mill 1989, S. 19-55.

162 | Die Glaubwürdigkeit der Wissenschaft

beispielsweise in dem Moment der Fall, in dem mittels unbedenklicher Stoffe und Methoden gefährliche Substanzen geschaffen würden.98 Man muss also einräumen, dass Wissenschaft in vielen Fällen sowohl hinsichtlich ihrer Methoden als auch ihrer Ziele eine moralische Dimension besitzt;99 an dieser Stelle verabschiedet Kitcher sich von der Fakten-Werte-Dichotomie. Doch in welchem Verhältnis stehen dann epistemische und nicht-epistemische Werte? Um eine Antwort auf diese Frage finden zu können, zieht Kitcher nun den Signifikanzbegriff als Bezugsgröße heran, wobei er zwischen zwei Signifikanzwerten unterscheidet. Während epistemische Signifikanz, entsprechend der traditionellen Suche nach kontextunabhängigen Konzepten, allein dem Ideal der Systematisierung über die Natur gewonnener universal gültiger Wahrheit verpflichtet ist und somit von rein innerwissenschaftlichen Bezugspunkten bestimmt wird, ergibt sich praktische Signifikanz aus der Anwendung der Forschungsergebnisse und richtet sich entsprechend nach exogenen Interessen.100 Meistens, wenn auch nicht immer, seien jedoch epistemische und praktische Interessen miteinander verflochten.101 Kitcher lehnt deshalb das traditionelle Objektivitätsideal ab, indem er anerkennt, dass Forschungsprojekte in den meisten Fällen nicht nur nach den der Suche nach Wahrheit verpflichteten Kriterien epistemischer Relevanz ausgerichtet sind, sondern ebenso nach solchen praktischer Signifikanz. Zugespitzt und auf die Praxis angewandt, bedeutet das, dass mit Hilfe der Wissenschaften Repräsentationen der Natur gesucht werden, die unseren Zwecken adäquat sind.102 Und so kommt auch Kitcher zu dem Schluss, selbst epistemische Signifikanz sei kontextabhängig.103 An dieser Stelle, an der er explizit zu demselben Ergebnis kommt, das oben auch aus Longinos Kronkorkenargument hergeleitet worden ist, deutet sich bereits an, dass Kitcher und Longino nun nicht mehr sehr weit voneinander entfernt sind. Kitcher habe recht, schreibt Longino: Es gebe so viele verschiedene Sprachen und gleichermaßen korrekte Arten, die Welt zu repräsentieren; Klassifizierungen und Systeme seien abhängig von den Interessen derer, die sich ihrer bedienten.104

98 | Vgl. Kitcher 2004, S. 51-52. 99 | Vgl. Kitcher 2004, S. 51. 100 | Vgl. Kitcher 2001, S. 68 und 76. Dies entspricht seiner Unterscheidung zwischen signifikanter Wahrheit und signifikanter Wahrheit (vgl. S. 147). 101 | Vgl. Kitcher 2001, S. 76. 102 | Vgl. Kitcher 2004, S. 53. 103 | Vgl. Kitcher 2001, S. 173. 104 | Vgl. Longino 2002b, S. 562.

Wissenschaft und Demokratie | 163

Doch stellt sich die Frage, wer zu entscheiden hat, welche Fragen zu einem bestimmten Zeitpunkt zu beantworten sind und welche nicht. Offensichtlich haben doch die meisten Menschen keinen Einfluss auf wissenschaftliche Prozesse, Entwicklungen und Entscheidungen, was dazu führen kann, dass ihre Interessen nicht berücksichtigt werden, oder sogar dazu, dass ihnen Schaden zugefügt wird. Die Millsche Argumentation für freie Meinungsäußerung, die üblicherweise zur Stützung von Positionen für Forschungsfreiheit herangezogen wird, kann so, aufgrund bestehender sozialer oder politischer Asymmetrien, die in der Benachteiligung von Gesellschaftsgruppen beispielsweise aus rassistischen oder sexistischen Gründen ihren Ausdruck finden können, auch die Notwendigkeit einer Einschränkung der Forschungsfreiheit erforderlich machen. Doch würden, so befindet Kitcher, offizielle Einschränkungsverfahren soziale Probleme nur zusätzlich verstärken, anstatt sie zu lösen.105 Systematisch verursachte Probleme ließen sich nicht durch Gesetze von außen verbieten, sondern erforderten eine Veränderung des Systems.106 Nur durch eine Demokratisierung von Wissenschaft sei zu vermeiden, dass Gleichheits- und Fairnessgrundsätze verletzt würden. Ob der Fortschritt der Wissenschaft dazu beitrage, die Lebensqualität möglichst vieler zu verbessern, hänge davon ab, zu welchem Grad das Ideal wohlgeordneter, i.e. demokratisierter Wissenschaft realisiert werde.107 Wie könnte eine solche Demokratisierung von Wissenschaft aussehen? Zwangsläufig obliegt es den Forschern, mit ihrem Expertenwissen ihre Forschung betreffende Entscheidungen zu fällen; Laien dagegen können keine sachlich fundierten Entscheidungen treffen. Doch betont Kitcher, dass Experten trotz ihrer speziellen Sachkenntnisse nicht automatisch über das gesamte Wissen verfügten, das für eine gute Forschungspolitik nötig sei.108 Folglich ließe sich konträr zum wissenschaftlichen Autonomieanspruch ein System postulieren, in dem eine möglichst große Vielzahl von Interessen für die Spezifikation der wissenschaftlichen Ziele herangezogen würde, was die Berücksichtigung sämtlicher in einer Gesellschaft vorkommender Interessen erfordere – auch derer, die auf Uninformiertheit beruhten. Kitcher nennt ein solches System abwertend eine „vulgar democracy“,109 gegen die er sein Ideal der

105 | Gegen diese Einschätzung Kitchers habe ich mich bereits in Abschnitt 1.5 gewendet. 106 | Vgl. Kitcher 2001, S. 105. 107 | Vgl. Kitcher 2001, S. 179-180. 108 | Vgl. Kitcher 2004, S. 54. Dieses Problem wird auch von Merton benannt, der darauf hinweist, dass sich Wissenschaftler von Nicht-Wissenschaftlern nicht durch einen ungewöhnlichen Grad an persönlicher Integrität unterscheiden (vgl. Merton 1973, S. 276). 109 | Vgl. Kitcher 2004, S. 55; Kitcher 2001, S. 117-135.

164 | Die Glaubwürdigkeit der Wissenschaft

„enlightened democracy“110 setzt, das sich den Terminus des Deliberators aus dem Egalitarismus leiht. In Rawls Theory of Justice wird unter §24 erklärt, wie die Prinzipien einer gerechten Gesellschaft idealerweise durch rational agierende Entscheidungsträger unter dem „Schleier der Unwissenheit“ zu wählen seien. Die Entscheidungsträger sind dabei im vollen Besitz des gesamten (sozial-)wissenschaftlichen Wissens, aber ohne Kenntnis ihrer eigenen gesellschaftlichen Position, folglich ohne zu wissen, welches ihre eigenen jeweiligen Interessen und Fähigkeiten innerhalb der Gesellschaft sind; sie befinden sich in einer idealen, weil vollkommen interessenfreien Gelehrtenposition: They do not know how the various alternatives will affect their own particular case and they are obliged to evaluate principles solely on the basis of general considerations. [...] They understand political affairs and the principles of economic theory; they know the basis of social organization and the laws of human psychology. [...] There are no limitations on general information [...].111 Auf diese Weise entscheiden sie der bestehenden Evidenz entsprechend, bleiben dabei jedoch notwendigerweise unparteiisch. Diese Idee überträgt Kitcher auf sein Ideal wissenschaftlicher Organisation: Forschungsentscheidungen resultieren hier aus einem Überlegungs- und Beratungsprozess („deliberation“), in dem die hinreichend fachlich informierten Entscheidungsträger, die Deliberatoren, ihre Entscheidungen unter Berücksichtigung der Interessen und Präferenzen aller treffen. Durch ein solches Entscheidungssystem würden die Präferenzen unterdrückter oder unterprivilegierter, oft jedoch zahlenmäßig starker Gruppen – wie beispielsweise die von Minderheiten, von Frauen oder von Entwicklungsländern – wahrgenommen und respektiert, ohne dass es dabei zu Chaos käme, einer „vulgar democracy“, in der alle gleichermaßen Mitspracherecht genießen, auch diejenigen, die nicht hinreichend ausgebildet und informiert sind.112 Und zugleich wird der Einwand von Forschungsfreiheitsverfechtern berücksichtigt, dass wissenschaftliche Entscheidungen allein von Experten zu treffen seien, da andernfalls das Wissenschaftssystem Schaden nehmen würde. Kitchers Modell wissenschaftlicher Deliberation wendet sich so mit pluralistischen Forderungen gegen den traditionellen Gentlemangedanken: Es sind nicht mehr die Gentlemen der Royal Society des 17. Jahrhunderts, „free and unconfin’d“, (fi-

110 | Kitcher 2001, S. 133. 111 | Rawls 1999, S. 118-119. 112 | Vgl. Kitcher 2004, S. 54-55.

Wissenschaft und Demokratie | 165

nanziell) unabhängige Forscher, die als Entscheidungsträger zu fungieren haben,113 sondern Rawlsche Entscheidungsträger, die unter Bedingungen vollkommener Parität arbeiten, da jeder einzelne von ihnen, wenn er denn seine eigenen Interessen zum Maßstab seiner Entscheidung macht, ausschließlich mit der Wahrscheinlichkeit operieren kann, mit der er einer Gesellschaftsgruppe angehört. So werden dann zwangsläufig die Mehrheitsverhältnisse und Schadensgrößen ausschlaggebende Faktoren des deliberativen Entscheidungsprozesses sein: Steht beispielsweise die Entscheidung an, ob man in die Entwicklung eines Malaria-Impfstoffs investiert oder in die eines Mittels gegen Fettleibigkeit, wird im Fall idealer Deliberation keine Frage bestehen, wohin die Fördermittel fließen werden. Der Schaden, der durch eine Malariainfektion entsteht, ist deutlich größer als der, der durch Fettleibigkeit entsteht. Und da die Wahrscheinlichkeit, einer Gesellschaftsgruppe anzugehören, die einem erhöhten Malariainfektionsrisiko ausgesetzt ist, im globalen Maßstab nicht gerade gering ist, dürfte die Entscheidung von Kitchers Deliberatoren zugunsten einer Förderung der Erforschung eines Malariaimpfstoffs ausfallen. Kitchers größter Kritikpunkt am bestehenden Wissenschaftssystem, die 10/90-gap: „10% of the world’s research resources are directed towards diseases that constitute 90% of the burden“,114 ließe sich so aus der Welt schaffen. Damit wird der Erkenntnis Tribut gezollt, das kein Entscheidungsträger jemals ganz und gar frei von Interessen oder Vorurteilen sein kann. Und da diese Interessen oder Vorurteile notwendigerweise in wissenschaftliche Entscheidungen einfließen und dieser Einfluss nicht allein durch persönliche Integrität ausgeschlossen werden kann, muss er systematisch ausgeschlossen werden. Es ist nicht zu übersehen, dass Kitcher mit seiner Abhandlung den sozialepistemologischen Argumenten große Zugeständnisse macht. Dies erkennt er mittlerweile selbst an: In recent years, philosophers of science, including prominent feminist philosophers of science, have begun to pay the needed attention [... to the tangled relations between Science and social decision-making], and have recognized the importance of philosophy of science for human use [...]. I have found myself backing into this territory.115 Grundlegend ist dabei die Feststellung, dass wissenschaftlicher Fortschritt, wissenschaftliche Objektivität und Glaubwürdigkeit von außerwissenschaftlichen, ökonomischen, sozialen, moralischen und politischen Bedingungen abhängig sind. Folg-

113 | Vgl. Kitcher 2011, §16 und §18. 114 | Kitcher 2002a, S. 570. 115 | Kitcher 2011, S. 155.

166 | Die Glaubwürdigkeit der Wissenschaft

lich kann eine freie Wissenschaft, die zur Lösung signifikanter Probleme beiträgt, nur auf der Grundlage einer gerechten Gesellschaftsordnung bestehen. Da Wissenschaftler gerade wegen ihres Expertenwissens eine Verantwortung tragen, die ihnen niemand abnehmen kann, weil nur sie mögliche Risiken und Unsicherheiten ihrer Arbeit adäquat einschätzen können, muss ein zuverlässiger, die Wissenschaften in ihrer Glaubwürdigkeit nicht beeinträchtigender Umgang mit nicht-epistemischen Werten und Risiken den Wissenschaftlern selbst obliegen. Dies ist nach Kitcher durch ein Deliberationssystem am besten gewährleistet. Die Forderung nach wissenschaftlicher Autorität, noch zehn Jahre zuvor im Advancement gestellt, ist mit diesen neuen Postulaten nicht mehr vereinbar, da im System der Deliberation die Autorität der einzelnen Subcommunities auf die Deliberatoren übergeht (vgl. Abschnitt 3.3). Entweder verfügen Subcommunities (die ja nichts anderes sind als Expertengruppen) über Autorität – dann kann es keine Deliberation geben. Oder es gibt Deliberation – dann müssen sich Subgemeinschaften von ihrer Autorität verabschieden. In diesem Sinne wird die Forschung einer sozialen Kontrolle unterworfen und ist nicht mehr frei. Bei all dem hält Kitcher allerdings noch immer an einem korrespondenztheoretischen Wahrheitsbegriff fest; er fordert die Konsistenz wissenschaftlicher Theorien und versucht so eine Brücke zwischen rationalistischer Erkenntnistheorie und ihren kontextualistischen Herausforderungen zu schlagen. Derzeit hat er seine Überlegungen abermals elaboriert und gegen verschiedene Anwürfe verteidigt. So wehrt er sich gegen den Einwand, sein Vorschlag sei rein normativ, stelle also lediglich ein Ideal dar, das bei tatsächlichen Problemen nicht weiterhelfe: Es sei zwar richtig, dass es sich um ein rein normatives Modell handle, doch sei genau das eine wesentliche Aufgabe der Wissenschaftsphilosophie, wie der Philosophie allgemein: zu zeigen, wie etwas sein sollte – im Gegensatz zum tatsächlichen Zustand.116 Er stellt sein Modell noch einmal neu dar, diesmal als ein Koaleszenzmodell, eine Mischung aus Feyerabends radikalem Pluralismus und Kuhns Normalwissenschaft. Während bereits aus Science, Truth, and Democracy bekannt ist, dass Kitcher Kuhns Idee der Normalwissenschaft zuneigt, ist seine Sympathie für Feyerabends pluralistische Ideen in dieser Klarheit neu und unterstreicht einmal mehr die zentrale Bedeutung, die Kitcher nun perspektivenpluralistischen Positionen zugesteht.117 Kitcher verteidigt sich noch gegen einen zweiten Vorwurf. Er sei oft so gelesen worden, als überbetone er wirtschaftliche Kräfte und gestehe ihnen im Hinblick auf den wissenschaftlichen Fortschritt die Macht der unsichtbaren Hand zu. Dies sei nicht

116 | Vgl. Kitcher 2011. 117 | Vgl. ebd.

Das Ende der Debatte und ein großes Problem | 167

der Fall. Vielmehr bestehe das Gefüge einer wohl-geordneten Wissenschaft nach Kitchers Auffassung aus drei zu koordinierenden Bereichen: einem individuell-rationalen, einem sozialen und einem ökonomischen. Diese greifen ineinander und können sich gegenseitig bestärken oder auch einschränken.118 Kitchers Entwurf einer wohlgeordneten Wissenschaft möchte eine Möglichkeit zeigen, die drei Bereiche im epistemischen und moralischen Sinne möglichst gut miteinander zu vereinbaren. Allerdings ergibt sich aus seinem Modell ein entscheidendes Problem, und nachdem sich gezeigt hat, dass Kitcher und Longino sich inzwischen in zentralen Punkten einig sind, verwundert es nicht mehr, dass Longinos Position an demselben Problem krankt. Es geht um die im vorigen Abschnitt bereits andeutungsweise problematisierte Vereinbarkeit objektiver Beurteilungskriterien mit den Ansprüchen eines perspektivischen Pluralismus. Um wissenschaftliche Probleme nicht nur zufällig, sondern gezielt anzugehen, sind klare Kriterien vonnöten, nach denen Forschungsagenden festzulegen, Probleme zu bestimmen, passende Theorien und Instrumente zu wählen und Prozesse effektiv zu gestalten sind. Dies ist nicht zuletzt nötig, um dem Einwand Matthias Adams zu begegnen, dass aus einem (perspektivischen oder theoretischen) Pluralismus nicht unbedingt der epistemisch oder moralisch beste Ansatz hervorgehen müsse. Es braucht hierfür bestimmte Qualitätsstandards. Doch dazu müssen wiederum bestimmte Perspektiven ausgeschlossen werden, und diese sind, wie gesehen, die eines Großteils der Menschheit. Nur ein kleiner Teil von Experten verfügt über das nötige Wissen, um wissenschaftliche Probleme adäquat zu beurteilen und zu bearbeiten. Wie kann man trotzdem epistemisch effizienten und moralisch guten Pluralismus schaffen?

3.9 Das Ende der Debatte und ein großes Problem Longinos Hauptkritik am tatsächlichen Zustand wissenschaftlicher Organisation ist, dass Meinungen unterdrückt würden, was nicht nur aus moralischen Gründen verwerflich, sondern auch in epistemischer Hinsicht schädlich sei, denn allgemein Anerkanntes könnte innerhalb dieser Strukturen nicht Gegenstand von Kritik werden. Hier bleibt jedoch die entscheidende Frage nach Wahrheit unberührt: Es wird zwar gesagt, dass diese sogenannten Fakten nur als wahr gelten, was keinesfalls bedeuten müsse, dass sie auch tatsächlich wahr sind. Doch warum sollten sie nicht wahr sein? Wie sind sie denn sonst überhaupt in die Situation gekommen, als Wissen anerkannt zu werden? Nur aufgrund kontingenter, sozialer Bedingungen? Angesichts der großen Erfolge der modernen Wissenschaften erscheint das eher kontraintuitiv.

118 | Vgl. Kitcher 2011, §35.

168 | Die Glaubwürdigkeit der Wissenschaft

Kitcher weist zu Recht darauf hin, dass diejenigen, die korrekte Vorstellungen von räumlichen Relationen haben, sich weit erfolgreicher zurechtfinden als solche, die falschen Vorstellungen anhängen. Dies liegt nach Kitcher daran, dass Vorstellungen umso mehr mit der Beschaffenheit der lokalen Umwelt korrespondieren, je erfolgreicher sie hinsichtlich korrekter Vorhersagen sind.119 Dieses klassisch-realistische Erfolgsargument halte ich für ausgesprochen stark. Und so betont auch Longino, dass Kitcher zwar recht habe, wenn er auf die Abhängigkeit der wissenschaftlichen Praxis von Beweisführung und Evidenzbeziehungen hinweise. Dennoch garantiere dies, auch wenn das die Zahl der realistischen Auswahlmöglichkeiten einschränke, noch nicht, dass es tatsächlich eine beste Wahl gebe. Natürlich gebe es äußere Bedingungen, doch seien diese eben in Anbetracht der Unterbestimmtheitsthese nicht hinreichend, um ein bestimmtes Urteil zu erzwingen.120 Die verbleibende Differenz zwischen beiden betrifft also das Ziel wissenschaftlichen Erkenntnisbestrebens. Longino sieht als solches empirische Adäquatheit (mit den daraus sich ergebenden Konsequenzen möglicher Inkonsistenz bei gleichzeitiger Adäquatheit und methodologischer Untrennbarkeit von epistemischen und nicht-epistemischen Werten). Kitcher hingegen behauptet als Ziel der Wissenschaft die Wahrheit (mit dem daraus sich ergebenden Erfordernis theoretischer Konsistenz). Mit entsprechendem Unverständnis kritisieren sie sich wechselseitig. So bemängelt Kitcher an Longino: Utter mystery descends at this point [. . . ]: „The demand for consistency of all true statements is only problematic if one supposes that statements can be detached from their truth conditions and the contexts in which those are determinable. A contextualist denies that such detaching is possible without constructing a further or more encompassing context.“121 Und Longino an Kitcher: At best, Kitcher tells us, a complete system of laws will consist of „a patchwork of locally unified pieces, sciences with their own favoured causal processes, and their own systematic ways of treating a cluster of phenomena.“ It is hard to know how to interpret this passage.122

119 | Vgl. Kitcher 1993, S. 131. 120 | Vgl. Longino 2002a, S. 63. 121 | Kitcher 2002b, S. 556. 122 | Longino 2002b, S. 563.

Das Ende der Debatte und ein großes Problem | 169

Doch wie weit sind Kitchers und Longinos Standpunkte nach 2001 tatsächlich noch voneinander entfernt? Beide beziehen pluralistische Positionen, fordern allgemeine Standards und bedienen sich derselben Landkartenanalogie (vgl. S. 159). Auch gesteht Kitcher ein, dass es viele verschiedene Repräsentationssysteme geben könne, mit denen sich die Natur wissenschaftlich erschließen lasse123 und stellt inzwischen sogar (mit Bezug auf Lewis Carroll) fest: „[T]he only complete map would be the terrain itself“.124 Eine solche Aussage ist ein großes Zugeständnis an Longinos Kontextualismus. Dies tritt in Kitchers neueren Schriften auch an anderen Stellen deutlich zu Tage: The obvious answer to the question „Which truths?“ is to invoke human concerns that people have right now. The aims of the sciences are to find the correct answers to the questions that matter to us, at a particular moment in history. Or, more exactly, recognizing that correctness isn’t always quite necessary for our needs, the sciences aim to answer the questions that concern us by offering responses that are as close to the truth as we need them to be.125 Wenn man nun auf die in beiden Theorien benötigten allgemein etablierten Qualitätsstandards blickt, kommt man zu dem erstaunlichen Schluss, dass Longino und Kitcher schließlich hinsichtlich der Beschaffenheit wissenschaftlichen Arbeitens (wenn auch nicht hinsichtlich der Ziele dieses Arbeitens) gleicher Meinung sind. Dies bedeutet allerdings auch, dass beiden dasselbe, oben bereits erwähnte Problem entsteht (vgl. S. 160). Dieses Problem soll im Folgenden erläutert werden. Allgemein gesprochen gibt es verschiedene Arten von Pluralismus, von denen hier vier genannt sein sollen. So lässt sich die Position vertreten, dass a)

eine Pluralität von Standards innerhalb eines Forschungskontexts bestehen sollte;

b)

Werte- und Interessenpluralismus bei der Theoriewahl bestehen sollte;

c)

innerhalb eines Forschungskontexts methodischer und theoretischer Pluralismus bestehen sollte;

d)

Werte- und Interessenpluralismus innerhalb wissenschaftlicher Gemeinschaften bestehen sollte, die mit der Evaluation von Modellen, Methoden und Bewertungsstandards befasst sind.

123 | Vgl. Kitcher 2002a, S. 570f. 124 | Kitcher 2011, FN 3, S. 255. 125 | Kitcher 2004, S. 52.

170 | Die Glaubwürdigkeit der Wissenschaft

Kitcher argumentiert 1993 (insbesondere in Kapitel 8) ausschließlich im Sinne von b), und zwar aus ökonomischen Gründen: Eine Vielfalt von Perspektiven bringt eine Vielzahl Forschungsansätze hervor und führt so tendenziell schneller und effektiver zu wissenschaftlichem Erfolg. c) lehnt er 1993 noch ab; er hält fest an der Vorstellung, dass es so etwas wie die Struktur der Natur gibt, die zu ergründen und widerspruchsfrei theoretisch zu erfassen Aufgabe der Wissenschaft ist. Zu d) äußert er sich noch nicht explizit, stuft allerdings Longinos Ansatz als radikal und nicht überzeugend ein. Longino hält von Beginn an die drei Arten von Pluralismus b), c) und d) für wünschenswert und nützlich. Kitcher schließt sich ihr über die Jahre hinweg aus politischen und moralischen Erwägungen auch hinsichtlich c) und d) an. Eine Form von Pluralismus, die sie beide ablehnen, ist a). Jene entspricht etwa dem „anything goes“-Pluralismus Paul Feyerabends. Zwar fordern sowohl Longino als auch Kitcher, dass niemand von wissenschaftlichen Entscheidungen ausgeschlossen werden dürfe, der von diesen betroffen sei. Doch erkennen sie beide an, dass ein Problem entstünde, wenn daraus die Konsequenz gezogen würde, dass jede und jeder unqualifiziert Einfluss nehmen könnte, denn dadurch liefe die Wissenschaft Gefahr, in eine „cacophony“126 bzw. eine „vulgar democracy“ zu verfallen.127 Zunächst verursacht das Erfordernis allgemein geteilter Standards nur Longinos Position Probleme: Da Objektivität vom jeweiligen Kontext abhängt und keine Chance besteht, dass sich auch gegen Interessen sozial Mächtiger die „richtigen“ Theorien durchsetzen können, wenn nicht alle bestehenden Perspektiven am Diskurs beteiligt werden, dennoch aber geteilte Beurteilungssstandards benötigt werden, die regeln, welche Personen qualifiziert sind, an dem Diskurs teilzunehmen, und welche nicht, entsteht ein Widerspruch. Einerseits wird angenommen, dass Objektivität nur aus perspektivischer Diversität hervorgehen kann, andererseits müssen etablierte Standards bestehen, die die Teilnahme an wissenschaftlichen Prozessen regulieren und so Konsensbildung ermöglichen. Die Standards müssen also bereits ihrerseits objektiv sein. Für Longinos Pluralismuskonzept ergibt sich daraus ein Problem von Inkonsistenz, da sie multiperspektivische Ansprüche stellt, aber zugleich Rational Choice-Vorgehen fordert, wobei die rationale Theoriewahl diejenige sein soll, die aus möglichst vielen verschiedenen Perspektiven akzeptiert wird – zugelassen werden jedoch nur die Perspektiven derjenigen, die objektiv qualifiziert sind. Dies widerspricht dem pluralistischen Anspruch, denn so wird Objektivität (als Merkmal der Standards) bereits vorausgesetzt, die doch im pluralistischen Verfahren eigentlich erst geschaffen werden soll.

126 | Longino 2002a, S. 133. 127 | Kitcher 2004, S. 55; Kitcher 2001, S. 117-135.

Das Ende der Debatte und ein großes Problem | 171

Dagegen ließe sich einwenden, die Objektivität (A) des Standards, nach dem der Beitrag einer Person in einer wissenschaftlichen Gemeinschaft als qualifiziert eingestuft wird oder nicht, sei unabhängig von der Objektivität (B) der epistemologischen Normen einer wissenschaftlichen Gemeinschaft. Dies erscheint jedoch unplausibel, denn die Standards, nach denen jemand als qualifiziert gilt oder nicht, können kaum von den theoretischen, begrifflichen und methodischen Standards unabhängig sein, die in einer wissenschaftlichen Gemeinschaft gelten. Dies wäre ja auch nicht wünschenswert – sonst hätte man schnell eben jene kakophone Vulgärdemokratie, die Longino und Kitcher so vehement ablehnen. Doch verursacht genau diese wechselseitige Abhängigkeit ein grundsätzliches Problem: In einem Diskurs werden nur Beiträge berücksichtigt, die denjenigen Standards entsprechen, die bereits etabliert sind. Zugleich bedeutet das, dass die Entscheidung, ob ein Beitrag diesen Standards entspricht, von Personen getroffen werden, die bereits der Gemeinschaft angehören und die dort geltenden Standards erfüllen. Und so konnten und können z.B. Frauen oder Schwarze aus wissenschaftlichen Zusammenhängen (wie auch aus vielen anderen sozialen Zusammenhängen, in denen wichtige und nicht selten sie selbst betreffende Entscheidungen getroffen werden) ausgeschlossen werden. Entsprechend lässt sich Longino entgegenhalten, dass allgemein geteilte Standards gerade maßgeblich für die Legitimation solchen sozial begründeten Ausschlusses sein können.128 Kitcher hat ab 2001, wenn er nicht-epistemische Interessen als bestimmende Größe in seine Epistemologie einbezieht, dasselbe Problem: Er versucht, den Problemen der Unterbestimmtheit durch ein System deliberativer Demokratie zu begegnen. Wohlinformierte Deliberatoren sollen bei Theoriewahl und Datenauswertung Entscheidungen zum Wohle aller treffen. Doch sobald nicht mehr (wie noch 1993) angenommen wird, dass sich Wissenschaft durch das Zusammenspiel aus Subcommunities und Communities und unter dem natürlichen Input zum Wahren und Guten hin selbst organisiere und reguliere, sondern dass dafür mittels demokratischer Verfahren regulative Maßnahmen getroffen werden müssen, stellen sich die Fragen, wer was zu entscheiden habe, welche Personen welche Aufgaben auf welche Weise übernehmen sollten oder wer wodurch als hinreichend informiert gilt. Es muss für die Qualifikationsbeurteilung der Deliberatoren bereits ein objektiver (epistemischer oder praktischer) Signifikanzbegriff bestehen, der doch durch die Deliberatoren eigentlich erst zu bestimmen wäre. Hier zeigt sich bei Kitcher derselbe Widerspruch wie bei Longino und tatsächlich muss auch er solche Standards einfordern: Was bei Longino „public standards“ sind, sind bei Kitcher „objective standards“.129

128 | Diese Kritik habe ich ausgearbeitet in Leuschner 2012. 129 | Kitcher 2002b, S. 555.

172 | Die Glaubwürdigkeit der Wissenschaft

Im Advancement tritt dieses Problem noch nicht auf. Das liegt daran, dass Kitchers Ansatz dort noch streng rationalistischen Kriterien verhaftet ist. Zwar erkennt er bereits an, dass soziale Faktoren wie Vertrauen in wissenschaftlichen Gemeinschaften unvermeidbar sind und dass sich aus Vielfalt Zuverlässigkeit ergebe, doch er zieht daraus noch nicht die Konsequenz, soziale Normen zu fordern, die die Einhaltung bestimmter epistemischer und nicht-epistemischer Werte sichern. Er beharrt darauf, dass am Ende rein epistemische Kriterien die Qualität bestimmten und sich nur wahres Wissen auf Dauer behaupten könne. Dies ändert sich, als er sich in den folgenden Jahren mit den sozialen Bedingungen der Wissensproduktion auseinandersetzt. Nachdem er 2001 einräumt, dass auch epistemische (nicht nur praktische) Signifikanz kontextabhängig sei, fällt Longinos Kritik an Science, Truth, and Democracy schließlich sehr freundlich aus: Wenn Kitcher auch zuweilen noch zu sehr seinen früheren epistemologischen Ideen verpflichtet sei, liefere er hier einen wichtigen Beitrag zur derzeitigen Forschung über Wissenschaft, Gesellschaft und Werte.130 Letztlich stimmen nach 2001 beide darin überein, dass, aus moralischen und sozialen Gründen ebenso wie um der wissenschaftlichen Erkenntnis willen, ein Weg eingeschlagen werden müsse, der möglichst vielen verschiedenen Perspektiven, Aspekten und Ansätzen ermögliche, mitzubestimmen, was wie erforscht werde. Kitcher stimmt nun sogar der Auffassung zu, dass sich „die Wissenschaft“ aus einem Flickwerk („patchwork“) aus Einzelwissenschaften zusammensetzt, von denen jede ihre eigenen Klassifizierungsschemata, Methoden und Beurteilungsstandards verwendet. Die Abbildung der Struktur eines Forschungsbereichs sehe daher wohl eher aus wie ein Gewirr („a tangled skein“) als wie eine klar geordnete Hierarchie.131 Auch die Kritik an van Fraassens Ansatz nimmt er nun zurück. Wie Longino richtig erkannt hatte, würde Kitchers Einwand nicht mehr greifen, sobald er von der Ansicht einer einheitlich-hierarchischen Struktur wissenschaftlicher Erkenntnis abrücke. Nun, 2001, revidiert er konsequenterweise diese Kritik. Er räumt ein, dass es zwischen einer solchen linearen Auffassung von der Organisation wissenschaftlicher Erkenntnis und einem „anything goes“-Pluralismus Zwischenpositionen geben könne. Dennoch beharrt er im Gegensatz zu Longino darauf, dass Wahrheit das Ziel jeder Erkenntnisbemühung sei, nicht empirische Adäquatheit. Die Aussage des Evolutionstheoretikers Ernst Mayr: „The trouble with you philosophers is that you think

130 | Vgl. Longino 2002b, S. 560. Andere Kritiken kommen zu demselben Schluss (vgl. Dupré 2004; Brown 2004; Bird 2003). 131 | Vgl. Kitcher 2001, S. 69-82. Zitate ebd. S. 72 und 77. 1993 plädiert er noch auf S. 115 für ein Baummodell.

Das Ende der Debatte und ein großes Problem | 173

scientists want the truth; they don’t; they want to be right“, interpretiert er so, dass Mayr damit wohl gesagt haben wolle: „They aim at being the one who found out the truth“.132 Die Vorstellung, dass das Ziel eines Wissenschaftlers womöglich gar nicht Wahrheit sein könnte, sondern bloß (in Bezug auf ein bestimmtes Ziel hin) richtig zu liegen, i.e. eine Lösung für ein Problem zu finden, lehnt er weiterhin ab. Angesichts seiner Feststellung, in manchen wissenschaftlichen Bereichen herrsche so hohe Komplexität, dass nicht in Aussicht stehe, dass überhaupt jemals ein wahres Ergebnis gefunden werden könne,133 verliert dies jedoch an Relevanz. Denn ist einmal, wie hier, zugestanden, dass es solche Bereiche gibt, in denen Wahrheit unerreichbar scheint, aber dennoch geforscht wird, muss man sich darauf einlassen, dass Wahrheit wohl gar nicht angestrebt ist. Und so erkennt Kitcher die Dringlichkeit an, mit der in glaubwürdigkeitsrelevanten Wissenschaften eindeutige Ergebnisse trotz einer Komplexität, die Eindeutigkeit eigentlich verhindert, geliefert werden müssen, und stellt im Zuge dessen sogar implizit fest, dass eher empirische Adäquatheit als die Erfassung der Struktur der Natur angestrebt sei.134 Gerade mit Blick auf die Klimaforschung erscheint dieser Punkt relevant. Ich werde darauf am Ende des Abschnitts 4.5 noch einmal kurz zu sprechen kommen. Letztlich ergibt sich für Longinos und Kitchers Standpunkte, die sich schließlich, wenn man vom Wahrheitskriterium absieht, zu einem weitgehend gemeinsamen und sehr überzeugenden verdichten, vor allem das entscheidende Problem theoretischer Inkonsistenz, das analytisch nicht lösbar ist: Pluralistische Erfordernisse müssen mit allgemein geteilten Standards in Einklang gebracht werden, doch durch die Einführung solcher Standards wird Pluralismus zwangsläufig beschnitten. Es ist zwar unbefriedigend, für ein so bedeutendes Problem keine grundsätzliche Lösung finden zu können; doch bedeutet das nicht, dass in konkreten Fällen keine befriedigenden Lösungen gefunden werden können. Beispielsweise kontrolliert die IAEA international die Nutzung von Atomenergie, um „den Beitrag der Atomenergie zum Frieden,

132 | Kitcher 2011, S. 196. 133 | Kitcher nennt als Beispiele Bereiche der Biologie und der Umweltwissenschaften (vgl. Kitcher 2011, §17). Die Klimaforschung hat dasselbe Problem: Aufgrund der Komplexität des Forschungsobjekts ist eine exakte Prognosenberechnung nicht möglich (vgl. hierzu Roe & Baker 2007). Vgl. außerdem (Lenhard & Winsberg 2010), die eine konvergenzskeptizistische Position beziehen. Mehr dazu in Abschnitt 4.5. 134 | Vgl. Kitcher 2011, §17 sowie FN 3, S. 255, wo er mit Bezug auf Lewis Carroll feststellt, dass die einzige wirklich vollständige Abbildung eines Gebiets nur das Gebiet selbst sein könne. Dies erkennt an, dass jede Kartographie immer eine Interpretation des Gebiets bedeutet.

174 | Die Glaubwürdigkeit der Wissenschaft

zur Gesundheit und zum Wohlstand zu beschleunigen und zu steigern“;135 sie tagt jährlich in einer Generalkonferenz mit Vertretern aller Mitgliedsstaaten und wird dabei von einem von den IAEA-Mitgliedsstaaten gewählten Gouverneursrat regiert. In Deutschland verhandelt der von der Regierung einberufene Deutsche Ethikrat ethische Fragen bezüglich der Stammzellenforschung. Und die UN übernehmen in der Klimaforschung die Aufgabe der Bildung und Kontrolle des IPCC. So ist es in Fällen wie diesen Aufgabe (inter)nationaler, demokratisch fundierter Instanzen (z.B. der UN oder einzelner Regierungen), pluralistische Vielfalt mit epistemischen Qualitätsstandards zu vereinbaren. Im Falle wissenschaftlicher Probleme, die internationale Interessen betreffen, sind für diese Entscheidungen mit guten Gründen internationale Organisationen wie die Vereinten Nationen zuständig, deren Aufgaben sich auch auf globale wissenschaftliche Probleme wie solche der internationalen Ökonomie, der Armutsbekämpfung und des Umweltschutzes erstrecken. Während der Glaubwürdigkeitskrise der Klimaforschung von 2010 haben die UN durch den Einsatz einer Gutachtergruppe (IAC) eine erneute Regulierung des IPCC vorgenommen (vgl. Abschnitt 4.4). Zusammengefasst bedeutet dies, dass der für die Gewährung wissenschaftlicher Glaubwürdigkeit erforderliche Pluralismus nicht das Erfordernis einer Übernahme persönlicher Verantwortung von Wissenschaftlern ersetzen kann, wie bislang wissenschaftstheoretisch weithin angenommen wird. Nur durch eine Kombination individueller Verantwortungsübernahmen und prozessualer Regulierungsmechanismen lassen sich politische und gesellschaftliche Voraussetzungen schaffen, in denen dann Expertenintellektuelle mittels individueller Transparenzmachung ihrer Arbeit tatsächlich zu einer Verbesserung der epistemischen Situation beitragen können.

135 | IAEA 2008.

4 Die Glaubwürdigkeitskrise der Klimaforschung

Schlampereien, Fälschungen, Übertreibungen: Die Klimaforschung steckt in einer Vertrauenskrise. D ER S PIEGEL , 29. 3. 2010

176 | Die Glaubwürdigkeit der Wissenschaft

4.1 Glaubwürdigkeitsprobleme der Klimaforschung Die Klimaforschung hat sich zum Paradebeispiel eines Forschungsbereichs entwickelt, der ein äußerst komplexes Forschungsobjekt zum Gegenstand hat und dabei unter großem politischen Druck steht. Das Ausgangsproblem dabei ist, dass die Politik Ergebnisse über den Forschungsgegenstand benötigt, die klare Handlungsempfehlungen ermöglichen. Die Forschungsergebnisse tangieren empfindlich öffentliche und größtenteils sogar globale, nämlich einerseits ökologische, andererseits ökonomische und soziale Interessen. Besonders die Frage nach dem Ausmaß der anthropogenen Ursachen der Klimaerwärmung ist für den Streit zwischen Klimafolgenwarnern und Klimaskeptikern zentral. Das IPCC versucht aus der unüberschaubaren Menge relevanter Publikationen im Bereich der Klimaforschung (die größtenteils aus diversen Einzelwissenschaften stammen) alle Ergebnisse zusammenzutragen, die für die Politik relevant sind, um so einen Überblick über den Forschungsstand von Klimaforschung und Klimafolgenforschung zu ermöglichen. Es steht dabei unter dem Druck, möglichst eindeutige Ergebnisse und Handlungsempfehlungen zu liefern – eine Forderung, der kaum nachgekommen werden kann. In den Sachstandsberichten wird versucht, die Ergebnisse der einzelnen Forschungsfelder, die Aussagen über Verhalten und Entwicklung von regionalem und globalem Klima und mögliche Folgen treffen, zusammenzufassen und zu kombinieren. Die zentralen Ergebnisse dieser Auswertungen werden jeweils auf wenigen Seiten in sogenannten Summaries for Policymakers zusammengefasst. Durch die verstärkt erforderliche interdisziplinäre Kooperation spielen Vertrauen und Autorität eine wichtige Rolle. Dies ist unter den hier eröffneten sozialepistemologischen Aspekten zur Glaubwürdigkeit besonders interessant. Im IPCC besteht sowohl methodischer und theoretischer Pluralismus als auch Wertepluralismus, was sich zum einen aus der Komplexität des Forschungsgegenstands, zum anderen aus der globalen Relevanz des Forschungsgegenstands ergibt. Auch wird der perspektivische Pluralismus im IPCC gezielt gefördert: Mitglieder des Klimarats werden nicht nur unter rein epistemischen, sondern auch unter politischen Aspekten berufen, und es wird Rücksicht darauf genommen, dass gerade Schwellen- und Entwicklungsländer an der Entwicklung der Sachstandsberichte zu beteiligen sind. Einmal aus epistemischen Gründen: damit erforderliche Daten aus den Regionen dieser Länder erfasst werden können. Doch um einer Prognose eine Wahrscheinlichkeit zuzuordnen, werden nicht nur möglichst viele regionale Daten benötigt, sondern auch Kenntnisse über regionale soziale, politische und kulturelle Zusammenhänge. Experten aus diesen Ländern hinzuzuziehen ist daher aus epistemischen Gründen äußerst wichtig.

Glaubwürdigkeitsprobleme der Klimaforschung | 177

Zweitens aus politischen Gründen: damit interessenbasierte Verzerrung ausgeschlossen wird, die in einem Klimarat, dem nur Wissenschaftler aus Industrienationen angehören würden, nicht unwahrscheinlich wäre. Nur so lässt sich erwarten, dass die Ergebnisse und die sich aus ihnen ableitenden Erfordernisse auch in Entwicklungsund Schwellenländern politisch anerkannt werden. Hier, in der Praxis, zeigt sich ein Kernproblem des Pluralismus: Pluralistische Organisation erhöht nicht per se, wie bei Longino vorausgesetzt wird, die epistemische Qualität. Ebenso gut kann es sein, dass sich dennoch Positionen aufgrund ökonomischer oder politischer Interessen durchsetzen. Das bedeutet, dass Pluralismus weder aus epistemischer noch aus moralischer Sicht unbedingt zum idealen Ergebnis führen muss. Longino wie Kitcher versuchen dieses Problem zu lösen, indem sie epistemische Qualitätsstandards fordern. Hier entsteht allerdings, wie gezeigt worden ist, ein Widerspruch zwischen dem Erfordernis möglichst vieler Perspektiven einerseits und etablierten Qualitätsstandards andererseits (vgl. Abschnitt 3.9). Aus diesem Grund fordern Wissenschaftsphilosophinnen und -philosophen nicht selten als Konsequenz aus der Unterbestimmtheit nicht etwa größtmöglichen Einbezug, sondern im Gegenteil: bestmöglichen Ausschluss nicht-epistemischer Werte aus wissenschaftlichen Erkenntnisprozessen, was dadurch zu gewährleisten sei, dass Entscheidungen, die nicht-epistemische Fragen oder Probleme betreffen, außerwissenschaftlich von politischen Institutionen zu fällen sind. Diese Position ist in den Diskussionen um die Konsequenzen, die aus „Climategate“ für das IPCC zu ziehen seien, von vielen Experten vertreten worden. Dabei werden jedoch zwei Probleme ignoriert: zum einen, dass nicht-epistemische Werte in induktiven Verfahren notwendig eine Rolle spielen (vgl. dazu die Abschnitte 2.2.4, 2.3.6 und 2.3.7). Der Versuch sie auszuschließen ist daher von vornherein zum Scheitern verurteilt, und gerade für glaubwürdigkeitsrelevante Forschungsbereiche erscheint eine solche Forderung völlig realitätsfern. Zum anderen, dass, wie am Beispiel des IPCC gut sichtbar wird, gerade solche wissenschaftlichen Ergebnisse, die politisch relevant sind, von Wissenschaftlern mitbestimmt sein müssen, die von den politischen Instanzen, die die Ergebnisse anschließend zu berücksichtigen haben, auch anerkannt werden. Ginge man im Fall der Klimaforschung nach rein epistemischen Gesichtspunkten vor, hätten afrikanische oder ostasiatische Länder trotz ihrer direkten Betroffenheit von möglichen Klimafolgen praktisch keine Mitbestimmungsmöglichkeit bei den Empfehlungen des IPCC, und es bestünde die Gefahr, dass die Regierungen dieser Länder die Forschungsergebnisse eines ausschließlich von Industrienationen erstellten Sachstandsberichts nicht in vollem Umfang anerkennen und die internationalen Verhandlungen boykottieren würden. Die Behauptung Hans Joachim Schellnhubers, Leiter des Potsdam-Instituts für Klimafolgenforschung, er glaube nicht, dass das Produkt

178 | Die Glaubwürdigkeit der Wissenschaft

besser werde, wenn Regierungsvertreter von Venezuela oder Kuwait über die Schulter schauen, kann angesichts dessen als vermessen gelten.1 Selbst wenn der Einwand, der nach den jüngsten Problemen des Klimarats von einigen westlichen Mitgliedern vorgebracht worden ist, politische Kriterien dürften nicht ausschlaggebend für die Berufung ins IPCC sein (vgl. S. 181), unter rein epistemischen Aspekten zuträfe (wogegen ich mich aufgrund der in Kapitel 3 erörterten Argumente ausdrücklich positioniere), verkennt eine solche Haltung mindestens die politische Relevanz des sozialen Pluralismus im IPCC. Was daher nun statt einer Umstrukturierung des Klimarats und der Einführung neuer, engerer Kriterien geschehen ist, ist eine Umsetzung des von Longino proklamierten „third way“: Der pluralistisch organisierte Klimarat bleibt erhalten, allerdings werden gemäß dem Gutachten eines zwölfköpfigen Teams eines InterAcademy Council (IAC) durch prozedurale und strukturelle Änderungen Schwächen des IPCC zu eliminieren versucht, um die epistemische Qualität zu verbessern. Das IAC stellt allgemein (nicht nur in diesem Fall der Klimaforschung) internationale Gremien, die sich aus Mitgliedern von Wissenschaftsakademien zusammensetzen und wissenschaftliche Politikberatung hinsichtlich global relevanter Aufgaben wie ökonomische Veränderungen, Armuts- und Hungerbekämpfung und Umweltschutz betreiben. Es wird eigens dafür berufen, Empfehlungen für ein bestmögliches Zusammenspiel nicht-epistemischer und epistemischer Standards auszuarbeiten. Das Gremium, das das IPCC begutachtet hat, hat genau dies getan: Es hat die sozialen Strukturen sowie die wissenschaftlichen Methoden und Begutachtungsverfahren des IPCC untersucht. Auf diese Weise soll der Konflikt zwischen Standards zur epistemischen Qualitätssicherung und pluralistischen Erfordernissen zum Ausschluss interessenbasierter Verzerrungen behoben werden, so dass Zuverlässigkeit und politische Verbindlichkeit gewährleistet sind. Eine ganze Reihe von Beispielen aus den Glaubwürdigkeitsdebatten rund um die Klimaforschung ist bereits angeführt worden: die Darstellung der Klimawissenschaft in Massenmedien (Abschnitte 2.2.1 und 2.2.2), die Verzerrung des wissenschaftlichen Konsens durch gezielte, von Interessengruppen subventionierte „Gegenforschung“ und der Einfluss der Politik auf die öffentliche Meinung (Abschnitt 2.2.3), die Problematik, die sich aus dem antiquierten wissenschaftlichen Wertfreiheitsideal angesichts der wissenschaftsethisch und -theoretisch erforderlichen politischen Positionierung von Klimaforschern ergibt (Abschnitte 2.2.5-2.2.6), die gehackten Emails, die den „Climategate“-Skandal nach sich gezogen haben und die Vorwürfe, die einzelnen Klimaforschern gemacht worden sind (Abschnitt 2.2.7), die Sonnenfleckentheo-

1 | Vgl. Schellnhuber: Die Politik muss sich aus der Klimaforschung raushalten. Süddeutsche Zeitung, 13./14. 2. 2010.

Der Fehler im Vierten Sachstandsbericht | 179

rie als „Beweis“ der Klimaskeptiker, dass die globale Erwärmung nicht-anthropogen sei (Abschnitt 2.3.4), die organisierte Form der Klimaskepsis und ihre Verstrickungen mit Wirtschaft und Industrie (Abschnitt 2.3.5.3) sowie die epistemischen Unsicherheiten bei der Klimamodellierung, die dort nicht-epistemische Werturteile erforderlich machen (Abschnitt 2.3.6). In den folgenden Abschnitten (4.2 - 4.5) wird ein Überblick über die Glaubwürdigkeitskrise der Klimaforschung gegeben. Insbesondere die Fehler im Vierten Sachstandsbericht, die der Klimaforschung neben den gehackten Emails vorgehalten worden sind, sollen analysiert und bewertet werden. Erstaunlich ist dabei vor allem, welch unverhältnismäßiges Gewicht diesen angesichts der Bedrohungen durch die globale Erwärmung doch eigentlich marginalen Publikationsfehlern in der Öffentlichkeit verliehen wird. Bei all dem werden den tatsächlichen Problemen der Klimaforschung, nämlich den epistemischen Unsicherheiten, die sich kaum oder gar nicht beseitigen lassen, und den methodischen Schwierigkeiten beim Modellieren, in den öffentlichen Diskussionen viel zu wenig Beachtung geschenkt. Diesen widme ich mich zuletzt, wenn es um die grundsätzliche Frage nach dem Fortschritt bei den Klimaprognosen geht: Hier kommen die Unsicherheiten bei der Berechnung von Wahrscheinlichkeiten zum Tragen, die in Abschnitt 2.3.6 schon angesprochen worden sind. Selbst für kleine, temporär oder lokal begrenzte Berechnungen müssen oft riesige Datenmengen herangezogen und verarbeitet werden. Die Unsicherheit der Datenlage führt zum einen zu gröberen Werten, zum anderen vergrößert jede Mehrdeutigkeit bei der Programmierung den Umfang der Berechnung. Der Einsatz komplizierter Instrumente oder Simulationstechniken macht die wissenschaftliche Beobachtung voraussetzungsreicher und damit unsicherer. Ich schließe mit der Feststellung, dass seit Gründung des IPCC (und sogar schon viel länger) letztlich kaum Erkenntnisfortschritte bei der globalen Klimaprognostik gemacht werden konnten. Doch stärken die heutigen Daten diese Prognosen. Klimapolitischer Handlungsbedarf wird also nicht kleiner, sondern ist heute so groß wie schon vor 30 Jahren – allerdings wesentlich besser bestätigt und vor allem dringlicher.

4.2 Der Fehler im Vierten Sachstandsbericht Kurz nach dem „Climategate“-Skandal im Dezember 2009, bei dem der Emailverkehr von Klimaforschern der University of East Anglia gehackt und ins Internet gestellt worden war (vgl. Abschnitt 2.2.7), sorgt die Entdeckung eines Fehlers im Vierten Sachstandsbericht des IPCC für öffentliche Furore. Dabei handelt es sich um einen klassischen Zahlendreher und eine falsch übernommene Größenangabe. Die Gletscher des Himalaya, wird im Bericht der Arbeitsgruppe II behauptet, gingen schneller zurück als alle übrigen Gletscher der Erde. Mit großer Wahrscheinlichkeit seien sie

180 | Die Glaubwürdigkeit der Wissenschaft

2035 um vier Fünftel reduziert, wenn die Erde sich weiterhin im derzeitigen Tempo erwärme: „Its total area will likely shrink from the present 500.000 to 100.000 km2 by the year 2035.“2 Die Daten sind aus einer fehlerhaften Broschüre des WWF über den Zustand der Gletscher des Himalaya übernommen und, zusätzlich verfälschend, mit Daten zum weltweiten Gletscherbestand kombiniert worden (die Fläche der Himalaya-Gletscher beträgt lediglich 33.000 km2 ). Die ursprüngliche Information stammt aus einem Beitrag des russischen Glaziologen Vladimir Kotlyakov in einem UNESCO-Report von 1996, in dem es heißt: „The extrapolar glaciation of the Earth will be decaying at rapid, catastrophic rates — its total area will shrink from 500,000 to 100,000 km² by the year 2350.“3 Obwohl die Daten offensichtlich „abstrus“ sind, wie der österreichische Glaziologe und IPCC-Experte Georg Kaser sofort feststellt, gehen sie – offenbar trotz der bereits vor der Veröffentlichung des Sachstandsberichts von Kaser erkannten Fehlerhaftigkeit – in den Druck. Kaser nimmt an, dass seine Kritik nach den offiziellen Begutachtungsprozessen und damit zu spät für eine Korrektur gekommen sei. Er veröffentlicht im Januar 2010 mit einigen Kollegen eine Stellungnahme in Science, in der er den Fehler erklärt und schließt, dass diese Panne hätte vermieden werden können, wenn die Normen wissenschaftlicher Publikation eingehalten worden wären, wenn streng nach Peer-Review gearbeitet würde und auch nur Arbeiten zugrunde gelegt würden, die ihrerseits diesen Normen unterlägen.4 Bislang ist die Aufnahme sogenannter Grauer Literatur in die Sachstandsberichte zugelassen, also die Verwendung und Einbeziehung von Publikationen, die keinen wissenschaftlichen Standards unterliegen, welche in erster Linie durch Peer-Review-Verfahren gewährleistet werden (vgl. Abschnitt 1.5). Dazu zählen populärwissenschaftliche Veröffentlichungen, nicht geprüfte Fachmagazine oder NGO-Berichte (wie der WWF-Bericht, aus dem der Zahlendreher übernommen worden war). Dass diese Graue Literatur überhaupt Verwendung in den Sachstandsberichten finden darf, hat, ebenso wie die pluralistische Organisation des IPCC, seinen Grund in dem ausdrücklichen Wunsch der Regierungen von Entwicklungsländern, die darin die einzige Chance sehen, ihre Interessen gegenüber jenen der Industrieländer sichern zu können. Viel Graue Literatur enthält Daten, die aus Entwicklungs- und Schwellenländern stammen, was für die Berücksichtigung der Interessen dieser Länder äußerst wichtig ist; abgesehen davon sind diese Daten für die Forschung unverzichtbar.

2 | IPCC 2007b, S. 493. 3 | Kotlyakov 1996, S. 66. 4 | Vgl. Cogley et al. 2010; Seidler 2010.

Diskussionen ums IPCC | 181

Ein Fehler wie der Gletscher-Zahlendreher hätte zwar in einem gut funktionierenden wissenschaftlichen System im Grunde nicht passieren dürfen. Doch ist es eigentlich erstaunlich, dass sich in Publikationsauswertungen solchen Umfangs nur ein einziger solcher Fehler finden ließ (es tauchte in der Folge noch ein weiterer, vergleichbarer Fehler zur Größe der Niederlande auf, der im Folgeabschnitt erläutert wird). Weder die gehackten Emails noch dieser Fehler geben aus wissenschaftlicher Sicht Anlass für irgendwelche Verschwörungstheorien. Stattdessen weisen insbesondere die Emails darauf hin, unter welchem Druck die Gemeinschaft der Klimaforscher offenbar steht (vgl. Anhänge).

4.3 Diskussionen ums IPCC In der Folge von „Climategate“ kommt es zu regen Diskussionen zwischen IPCCMitgliedern in Nature und Science: Striktere Kontrollen werden gefordert, insbesondere für die Review-Prozesse, aber auch hinsichtlich der verwendeten Literatur.5 Die radikalste Forderung stammt von David Hulme und will eine komplette Neuorganisierung des IPCC. Die drei bisherigen Arbeitsgruppen seien durch drei Forschungsabteilungen abzulösen: je eine globale und eine lokale wissenschaftliche sowie eine politische.6 Dies erlaube eine klare Trennung der Bereiche, die dem IPCC die einschlägigen Probleme eingebrockt hätten: globalisiertes physikalisches sowie geographisch und kulturell nuanciertes Wissen einerseits, politische Analyse und Bewertung andererseits.7 Das entspricht in etwa der Position Roger Pielkes, die in Abschnitt 2.2.4 problematisiert worden ist, da es nicht möglich scheint, in Klimafragen rein wissenschaftlich zu arbeiten, ohne sich politisch zu positionieren. Für die politische Analyse und Bewertung ist wissenschaftliches Wissen nötig und vice versa. Auch Forderungen nach mehr Unabhängigkeit werden vorgebracht; das IPCC müsse, vergleichbar der IAEA, durch eine Plattform ersetzt werden, die von Regierungen, Industrie und Hochschulen unabhängig sei: „We do not need to reinvent the wheel; there are excellent examples of agencies that society has set up when credibility is of the utmost importance.“8 Auch Hans Joachim Schellnhuber sieht das epistemische Hauptproblem des IPCC in dessen Organisation: Führende Mitglieder und auch Autoren der einzelnen Kapitel der Sachstandsberichte würden nicht streng

5 | Vgl. Cogley et al. 2010. 6 | AG I stellt die naturwissenschaftliche Basis zusammen, AG II die der Klimafolgenforschung, und AG III evaluiert und präsentiert Möglichkeiten der Eindämmung der Folgen. 7 | Vgl. Hulme 2010. 8 | Zorita 2010, S. 731.

182 | Die Glaubwürdigkeit der Wissenschaft

nach wissenschaftlichen Kriterien, sondern in einem von der Politik mitbestimmten Prozess ausgewählt. Hier brauche es einen Systemwechsel. Der Zweck des halb wissenschaftlichen, halb politischen Verfahrens sei, die Bereitschaft der Regierungen zu stärken, sich zum Inhalt der IPCC-Berichte zu bekennen. Durch dieses Verfahren kämen jedoch nicht immer die besten Forscher zum Einsatz. Dies könne Fehler verursachen, was letztlich genau das Gegenteil dessen bewirke, was angestrebt sei: nämlich dass die Regierungen sich vom IPCC distanzierten.9 Georg Kaser hält dagegen, das System sei an sich in Ordnung, die Community dürfe sich in Zukunft bloß nicht mehr nur für den (prestigeträchtigsten) Bericht der Arbeitsgruppe I interessieren und die Berichte der Arbeitsgruppen II und III vernachlässigen, die sich auf sozioökonomische und ökologische Systeme und mögliche Maßnahmen zur Eindämmung des Klimawandels beziehen.10 Hier mangelt es offenbar an interdisziplinärer Zusammenarbeit – Berichte der Arbeitsgruppe I, die sich auf die wissenschaftlichen Aspekte des Klimawandels konzentriert, bilden jeweils das wissenschaftliche Herzstück der Berichte. Die Berichte der Gruppen II und III zu möglichen sozioökonomischen und ökologischen Folgen sowie zu Lösungsvorschlägen für konkrete Probleme sind dagegen wissenschaftlich weniger interessant und kaum prestigeträchtig. Deshalb habe sich, so Kasers These, der Fehler auch gerade hier einschleichen können. Doch wird zusätzlich zu dem Mangel an Zuverlässigkeit, der dabei für die Berichte der Arbeitsgruppen II und III entsteht, auch die Glaubwürdigkeit des Berichts der Gruppe I in Mitleidenschaft gezogen. So hat durch die Entdeckung des Gletscher-Fehlers die Glaubwürdigkeit des IPCC insgesamt großen Schaden genommen.11 Die Standards des IPCC seien, so Kaser, grundsätzlich in Ordnung, man müsse nur mehr darauf achten, dass sie auch tatsächlich eingehalten würden.12 Dieselbe Ansicht vertritt der Schweizer Klimaforscher Thomas Stocker; die Prinzipien des IPCC lieferten einen stabilen Rahmen für offene, transparente und robuste wissenschaftliche Erkenntnis: „It has worked extremely successfully for the past 21 years.“13 Ein Ausschluss Grauer Literatur, wie ihn Schellnhuber und Cogley fordern, sei schon deswegen problematisch, weil dann auch reine Datensammlungen

9 | Vgl. Schellnhuber: Die Politik muss sich aus der Klimaforschung raushalten. Süddeutsche Zeitung, 13./14. 2. 2010. 10 | Vgl. Seidler 2010. 11 | Vgl. Abschnitt 2.2.7 und 4.2. 12 | Vgl. Seidler 2010. 13 | Vgl. Stocker 2010, S. 731.

Diskussionen ums IPCC | 183

aus vielen Regionen nicht mehr verwendet werden dürften. Man solle nun nicht das Kind mit dem Bade ausschütten.14 Neben den Streitereien unter den Forschern, die ein Misstrauen in die Zuverlässigkeit der eigenen Community erkennen lassen, ist interessant, wie die Diskussionen in den Massenmedien und auf Weblogs plötzlich anschwellen.15 Große Anstrengungen werden unternommen, um weitere Fehler in den Sachstandsberichten zu finden. In einem Onlinezusatz zum Sachstandsbericht der Arbeitsgruppe II, in dem es um die Auswirkungen klimawandelbedingter Naturkatastrophen auf Wirtschaft und Versicherungsbranche geht, wird eine mangelhaft erläuterte Grafik entdeckt: Als Quelle wird eine Studie des Risikomanagers Muir Wood angegeben, die einen parallelen Anstieg steigender Temperaturen und steigender Schadenskosten aufzeigt.16 Diese Grafik finde sich, monieren die Kritiker, bei Muir Wood nirgendwo, lediglich die der Grafik zugrunde liegenden Daten. Das sei aber nicht deutlich gemacht worden, hier werde unsauber zitiert. Was eigentlich eine Lappalie darstellt, da der Verweis auf die Datenquelle angegeben ist und kein Fehler vorliegt, wird künstlich dramatisiert.17 Das IPCC veröffentlicht dazu eine kurze Stellungnahme, in der es eingesteht, dass hier die Feststellung der Möglichkeit eines Zusamenhangs zwischen Klimaerwärmung und Katastrophenverlusten wie ein Faktum verstanden werden könnte, da sie isoliert von allen relativierenden Bemerkungen betrachtet werde.18 Ein weiterer (tatsächlicher) Fehler durch falsche Datenübernahme von der niederländischen Umweltbehörde ist die Angabe, dass 55 Prozent der niederländischen Landfläche unterhalb des Meeresspiegels lägen. Tatsächlich liegen nur 26 Prozent der Fläche unterhalb des Meeresspiegels und sind somit erhöhter Überflutungsgefahr ausgesetzt. Weitere 29 Prozent könnten von Flüssen überschwemmt werden. Und noch ein (angeblicher) Fehler wird dem Bericht unterstellt. In einer Grauen Studie über die Auswirkungen der globalen Erwärmung in Entwicklungs- und Schwellenländern wird gewarnt, dass sich in den Maghreb-Staaten Algerien, Tunesien und Marokko die Ernteerträge von regenabhängiger Landwirtschaft bis 2020 um bis zu 50 Prozent reduzieren könnten. Im IPCC-Bericht wird dies korrekt wieder-

14 | Vgl. Seidler 2010. 15 | Vgl. hierzu auch Abbildung 1, S. 5. 16 | Zu finden in IPCC 2007c, Abbildung 1.3.8. 17 | Folgende Schlagzeile machte ursprünglich Jonathan Leake: UN Wrongly Linked Global Warming to Natural Disasters. The Sunday Times, 24. 1. 2010. International haben die überregionalen Zeitungen die dort vertretenen Thesen aufgegriffen und in mehr oder weniger ausgeglichener Weise wiedergegeben. 18 | Vgl. IPCC 2010.

184 | Die Glaubwürdigkeit der Wissenschaft

gegeben, allerdings ist hier von „some countries“ die Rede, nicht explizit von den Maghreb-Staaten. Das liest sich dann wie folgt: By 2020, in some countries, yields from rain-fed agriculture could be reduced by up to 50%. Agricultural production, including access to food, in many African countries is projected to be severely compromised.19 Ein Fehler liegt also eigentlich gar nicht vor. Doch wird in vielen überregionalen Zeitungen aufgrund dieses Zitats unterstellt, man habe hier wieder einmal aus Grauer Literatur falsche Behauptungen übernommen und ohne Grundlage Katastrophen angekündigt. Natürlich unterlaufen dem IPCC tatsächlich Fehler (u.a. die drei genannten falschen Zahlenangaben), was bei der Menge an Material und der Vielzahl von Wissenschaftlern, die an den Berichten mitarbeiten, nur schwer vermeidbar scheint. Diese werden nach Entdeckung auf übliche Weise als Errata auf der Homepage des IPCC publik gemacht und richtiggestellt. Ihre Zahl erscheint allerdings angesichts der Menge an Publikationen, die in den Berichten ausgewertet werden, marginal. Selbst der Gletscherzahlendreher scheint im Hinblick auf das eigentliche Problem im Grunde irrelevant. Entscheidend ist dagegen vielmehr, wie Kitcher richtig feststellt, „that there is a large amount of independent evidence for the fact that those glaciers are melting, albeit at a lower rate.“20 Zwar ist man bei der akribischen Suche nach Fehlern in den Berichten hier und dort fündig geworden – doch ändert dies nichts am eigentlichen Problem: der anthropogenen globalen Erwärmung, über die gefestigter und zweifelloser Konsens besteht. Die zahlreichen Versuche, den Klimaforschern Verschwörungen und Schlampigkeiten nachzuweisen und den Eindruck von Unglaubwürdigkeit zu etablieren, verkennen daher das eigentliche Problem. Bei den Vorwürfen und Anfeindungen gegen die Klimaforscher schlagen die Wellen nach „Climategate“ so hoch, dass im Mai 2010 ein offener Protestbrief in Science veröffentlicht wird, in dem 255 Mitglieder von Wissenschaftsakademien zunächst auf den breiten wissenschaftlichen Konsens hinsichtlich anthropogener globaler Erwärmung hinweisen, die in erster Linie auf die Nutzung fossiler Energieträger und auf Rodung zurückzuführen sei. Weiter bestehe Konsens darüber, dass sich aufgrund dieser Erwärmung der Meeresspiegel erhöhen werde, Wasserkreisläufe verändert und die Meere saurer würden und dass dies für viele Küstenregionen, Städte und Öko-

19 | IPCC 2007d, S. 50. 20 | Kitcher 2011, S. 244.

Das Gutachten des IAC | 185

systeme sowie Ernährungs- und Trinkwasserversorgung besorgniserregend sei. Der Protest richtet sich sodann gegen die McCarthy-like threats of criminal prosecution against our colleagues based on innuendo and guilt by association, the harassment of scientists by politicians seeking distractions to avoid taking action, and the outright lies being spread about them.21 Es ist bereits ausführlich auf das Erfordernis intellektueller Verantwortungsübernahme durch Experten in glaubwürdigkeitsrelevanten Forschungsbereichen hingewiesen worden (Abschnitte 2.2.5-2.2.7). Ein offener Brief, der in Tradition von Zolas „J’accuse“ quasi als Urform intellektuellen Aufbegehrens betrachtet werden kann, ist in diesem Zusammenhang eine wichtige Stellungnahme. Es handelt sich dabei um den Protest nicht nur von Experten, sondern von Expertenintellektuellen, der seine Autorität gerade dadurch gewinnt, dass nicht irgendwer Beschwerde führt, sondern renommierte Wissenschaftler sich öffentlich, in der wohl größten wissenschaftlichen Fachzeitschrift, gemeinschaftlich erklären und, auf Grundlage ihres Expertenwissens, politisch positionieren.

4.4 Das Gutachten des IAC Nach den massiven Schwierigkeiten, in die das IPCC geraten war, ließen sich, wie gezeigt worden ist, durchaus Plädoyers für seine Auflösung begründen. Allerdings erscheint dies, wie Kaser und Stocker argumentiert haben, insofern falsch, als sich das IPCC bislang eigentlich gut bewährt hat. Seine Arbeit als Mittelsinstanz zwischen Wissenschaft und Politik scheint angesichts der komplexen Problematik trotz Vertrauenskrise der beste Weg zu sein, Konsens zu erfassen, zu etablieren und nach außen zu artikulieren. Man benötigt schließlich eine international besetzte Kommission, die aus den Mengen relevanter Veröffentlichungen die wichtigsten Ergebnisse zusammenträgt, daraus übereinstimmend Prognosen ableitet und den Regierungen klare Handlungsrichtlinien liefert. Philip Kitcher hat mit guten Gründen die Position bezogen, dass in Fällen wie der Klimaforschung Mittelsinstanzen zwischen Experten und Laien nötig seien, um eine Erosion wissenschaftlicher Autorität, die für die Gewährleistung der Freiheit und Rechte aller wichtig sei, zu verhindern. Als eben eine solche Mittelsinstanz kann das IPCC verstanden werden. Die Krise, die es 2010 erlebt hat, verdeutlicht dabei allerdings, dass das Grundproblem pluralistischer Verfahren (nämlich die Vereinbarkeit

21 | Sills 2010, S. 689.

186 | Die Glaubwürdigkeit der Wissenschaft

sozialer Pluralität und epistemischer Qualitätsstandards) durch den Einsatz von Mittelsinstanzen nicht gelöst, sondern lediglich auf deren Ebene übertragen wird (vgl. S. 171). So hat die Klimaforschung trotz IPCC genau einen solchen Verlust von Autorität erfahren, wie ihn Kitcher durch Einsatz von Mittelsinstanzen eigentlich gerade vermieden sehen will. Nachdem das IPCC ohnehin von Beginn an durch gezielte Subventionierung von „Gegenforschung“ zu diskreditieren versucht worden ist, hat die „Climategate“-Affäre, in deren Folge dem Klimarat sogar Betrug und die absichtliche Unterschlagung entscheidender Daten vorgeworfen worden sind, schließlich zu einer Eskalation der Vertrauenskrise geführt. Da die Arbeit des IPCC aber unverzichtbar ist, um den globalen politischen Problemen des Klimawandels beizukommen, ist im März 2010 ein InterAcademy Council (IAC) einberufen worden. Es hat sich mit den Problemen des IPCC beschäftigt und ist zu dem Schluss gekommen, dass einige Verbesserungen am IPCC vorzunehmen sind. Die Gutachterkommission des IAC, die vom Umweltprogramm der Vereinten Nationen (UNEP) finanziert worden ist, hat am 30. August 2010 ein umfassendes Gutachten über Strukturen, Management und Review-Prozesse im IPCC vorgestellt. Darin kommt sie zu vornehmlich folgenden Ergebnissen: 1. Für Führungspositionen, i.e. den Vorsitz, die Vorstände der Arbeitsgruppen und den ausführenden Direktor sollten Aufgaben und Verantwortung jeweils klar definiert werden. Bislang fehlten diesen Positionen die Unabhängigkeitsund Verantwortungsverpflichtungen, die Führungspositionen in vergleichbaren Organisationen haben. 2. Das Sekretariat, das als einzige Sektion des IPCC auch zwischen den Meetings organisatorisch tätig ist, soll, gleich den einzelnen Arbeitsgruppen, einen Vorsitz durch einen erfahrenen Wissenschaftler bekommen. Dieser habe den Überblick, die täglichen Betriebsabläufe zu koordinieren und im Namen der Organisation zu sprechen. Dies entspricht der von Kitcher vertretenen und hier ebenfalls unterstützten Forderung, dass gerade in glaubwürdigkeitsrelevanten Wissenschaften, in denen häufig innerwissenschaftlicher Dissens herrscht, nach außen Konsens zu vertreten sei. 3. Für die Nominierung der Vorsitzenden sind klare Qualifikationskriterien zu entwickeln. Dabei sei – vermutlich eine Reaktion auf die Skandale um Pachauri – eine rigorose Interessenskonflikt-Richtline entscheidend, sowohl für die hochrangigen Führungspositionen als auch für alle Autoren, Reviewer und Personalverantwortlichen. Die Amtszeit der Vorsitzenden soll auf jeweils eine Assessment-Periode (also auf fünf bis sieben Jahre) begrenzt werden, um

Ein strukturelles Problem von Klimaprognosen | 187

die Perspektivenvielfalt und neue Ansätze für jeden neuen Sachstandsbericht zu gewährleisten. 4. Als besonders problematisch wird die langsame und mangelhafte Reaktion auf die Fehler des Vierten Sachstandsberichts eingestuft, außerdem die unklare Grenze zwischen der Herausgabe politisch relevanter Informationen und politischen Empfehlungen. Hier müssen klarere Kommunikationsstrategien ausgearbeitet und verbindlich gemacht werden. 5. Für die Review-Prozesse müssen klare und verbindliche Vorgaben über inakzeptable Literaturtypen eingeführt werden. Sehr konstruktiv erscheint der Vorschlag, den Bericht der Arbeitsgruppe I, der sich mit den technischen und wissenschaftlichen Aspekten des Klimawandels befasst, einige Monate früher herauszugeben, damit die anderen Arbeitsgruppen Nutzen aus den Ergebnissen ziehen können. Das IPCC hat während seiner 32. Plenarsitzung im Oktober 2010 in Südkorea den Analysen des IAC zugestimmt und will die Empfehlungen umsetzen. Dies ist nicht nur aus epistemischen, sondern vor allem auch aus nicht-epistemischen Gründen das wohl bestmögliche Vorgehen, denn die Reetablierung der Glaubwürdigkeit des IPCC erscheint unverzichtbar, damit es trotz der epistemischen Unsicherheiten, die der Klimaforschung inhärent sind, bald zur Ratifizierung verbindlicher wirksamer Abkommen in der internationalen Klimapolitik kommen kann. Doch ein ganz anderes, nicht sozial, sondern strukturell bedingtes epistemisches Problem ist damit nicht erfasst. Es ist ein prinzipiell unlösbares, durch das Klimaskeptiker stets Bestätigung finden werden, und es mag eine der Hauptaufgaben des IPCC und auch eine besondere Herausforderung für die Wissenschaftsphilosophie sein, hier für Aufklärung zu sorgen: Hinsichtlich der Prognosen über das globale Klima lassen sich nur äußerst geringfügig überhaupt Fortschritte erzielen, und dies auch nur sehr langsam.

4.5 Ein strukturelles Problem von Klimaprognosen Einem grundsätzlichen Problem für den Erkenntnisfortschritt in der Klimaforschung wird erfreulicherweise zunehmend Aufmerksamkeit gewidmet. Gerard Roe und Marcia Baker haben es 2007 sorgfältig in Science erläutert: Die Modelle liefern breit gestreute globale Temperaturprognosen. Der Bezugswert der IPCC-Berichte, die soge-

188 | Die Glaubwürdigkeit der Wissenschaft

nannte Klimasensitivität,22 lässt sich wegen der Komplexität des Klimasystems und der Begrenztheit der Modellierbarkeit kaum je genauer bestimmen als momentan, weil sich die bestehenden Interaktionen der Klimaparameter nur bedingt identifizieren und quantifizieren lassen, was eine natürliche Grenze der Vorhersagbarkeit der Klimaentwicklung erwarten lässt. Besonders gut lässt sich das an der Rückwirkung der Klimaerwärmung auf die sie selbst bestimmenden Faktoren erkennen. Wie groß diese Rückwirkung ist, ist unbekannt. Paradebeispiel sind hier die Wolken, deren Verhalten bislang kaum verstanden ist. So ist sogar umstritten, ob die globale Erwärmung die Wolkenbildung in einer Weise beeinflusst, die die Erwärmung zusätzlich fördert (positives Feedback) oder gar umgekehrt Abkühlung bewirkt (negatives Feedback). Ein weniger kontroverses Beispiel ist das Verhalten des Permafrosts. Permafrost findet sich in der sibirischen Tundra, aber auch als submariner Permafrost vor der sibirischen Nordmeerküste. Es handelt sich um Böden, die mehrere hundert Meter tief gefroren sind, aufgrund der globalen Klimaerwärmung jedoch langsam auftauen. Dies könnte wiederum die Erwärmung beschleunigen, denn in den gefrorenen Böden sind große Mengen CO2 und Methan gespeichert, die beim Abtauen freigesetzt werden. So wirkt die Erwärmung auf das Tauen der Permafrostböden ein, die wiederum die Erwärmung beschleunigen, so dass das Tauen beschleunigt wird, usw. Ebenso verhält es sich mit den Eisflächen der Erde. Durch die Reduktion der Eismengen wird weniger Sonnenlicht reflektiert; je weniger Eisfläche daher die Erde bedeckt, umso schneller schreitet die Erwärmug voran und umso schneller schmilzen die Eisflächen. In beiden Fällen (Permafrost und Eisflächen) herrscht (gegenüber der Wolkenbildung) Konsens darüber, dass die Klimaerwärmung sich durch die Rückwirkung auf ihre Verursacher selbst beschleunigt (und nicht etwa verlangsamt). Doch ist auch in diesen Fällen umstritten, wie schnell und stark die Rückkopplung wirkt.23 Unsicherheiten über einzelne Klimaprozesse zu verringern hat dabei aufgrund der Rückkopplung nur wenig Auswirkungen auf die Größe von Unsicherheiten über die generelle Klimasensitivität. Es sei deshalb, so Roe und Baker„ zu erwarten, dass sich die Prognosen des nächsten Sachstandsberichts von denen des letzten kaum unterscheiden werden.24 Johannes Lenhard und Eric Winsberg argumentieren ähnlich. Klimasimulationen liege eine Art Baukastensystem zugrunde: Während die frühen, rein physikalisch ausgerichteten Modelle schlicht atmosphärische und ozeanzirkuläre Modelle gekoppelt

22 | Darunter versteht man die durchschnittliche globale Erwärmung bei einer bis 2100 erwarteten Verdopplung des CO2 in der Atmosphäre. 23 | Vgl. Bony et al. 2006. 24 | Vgl. Roe & Baker 2007.

Ein strukturelles Problem von Klimaprognosen | 189

haben, kommen bei der Entwicklung der heutigen GCMs verschiedene Disziplinen zum Einsatz: Module, die die Wolkenbildung berücksichtigen, interagieren mit solchen, die Eismassen zu Land und zu Wasser und solchen, die Vegetationen erfassen. Diese Module tauschen während des Simulationsprozesses Daten aus, sie interagieren permanent, so dass das Ergebnis schließlich aus einer Komplexität heraus entstehe, die nicht mehr aufzuschlüsseln sei. Winsberg und Lenhard sprechen daher von „fuzzy modularity“, die eine schnelle, temporäre Problemlösung schafft, jedoch in ihren einzelnen Komponenten nicht nachvollziehbar ist. Es entsteht ein klassisches Black Box-Problem: Die Stärken und Schwächen der einzelnen Module gehen im Interaktionsprozess unter und sind nicht mehr nachvollziehbar, sie können durch die Kopplung verstärkt, geschwächt oder sogar aufgehoben werden. Zusammen mit den Unsicherheiten, die aufgrund der Komplexität des Klimasystems bestehen, ist eine Konvergenz der Klimamodelle auszuschließen.25 Dieser Konvergenzskeptizismus betrifft jedoch nicht die Methode der Klimasimulation an sich, und behauptet auch nicht, dass mittels Klimasimulationen kein epistemischer Fortschritt stattfinden kann. Als unrealistisch wird lediglich die Hoffnung bezeichnet, dass sich der Modellpluralismus zugunsten eines einzigen, adäquaten Klimamodells auflösen wird, aus dem dann eindeutige Vorhersagen bezogen werden können. Dies wird durch eine Analyse der prognostischen Daten aus den bisherigen vier Sachstandsberichten gestützt. Im Folgenden werden die jeweiligen Prognosen über eine durchschnittliche globale Erwärmung und einen Anstieg des Meeresspiegels bis zum Jahr 2100 verglichen. 1990, im 1. Sachstandsbericht, wird eine Erwärmung von 1,5° bis 4,5°C sowie eine Meerespiegelerhöhung von 65 cm angenommen.26 1995, im 2. Sachstandsbericht, liegt die Vorhersage bei 1° bis 3,5°C und einem Meeresspiegelanstieg von 50 cm bis max. 95 cm.27 Die positiven Veränderungen gegenüber 1990 werden so begründet, dass die Emissionsszenarien niedriger angesetzt seien, der Kühleffekt der Sulfataerosole, die einen Teil der anthropogenen Aerosole ausmachen, nun miteinbezogen worden seien und das Verständnis des Kohlenstoffzyklus sich verbessert habe. Die Meeresspiegelprognose wiederum richtet sich nach der Temperaturprognose. Hier habe sich zusätzlich auch das Verständnis der Eisschmelze verbessert, was zu günstigeren Prognosen Anlass gebe.28 2001 liegen die Schätzungen dann wieder etwas höher: 1,4° bis 5,8°C. Das liege, lautet die Begründung, vor allem an einer niedrigeren Annahme der Sulfataerosolem-

25 | Vgl. Lenhard & Winsberg 2010 sowie Biddle & Winsberg 2010. 26 | Vgl. IPCC 1990, S. XXV und S. XXX. 27 | Vgl. IPCC 1995, S. 6. 28 | Vgl. ebd.

190 | Die Glaubwürdigkeit der Wissenschaft

issionen.29 Der Anstieg des Meeresspiegels wird nun auf 9 cm bis 88 cm geschätzt, also im Mittel deutlich geringer als 1995, was mit verbesserten Modellen und einem geringer veranschlagten Einfluss von Eisflächen und Gletschern begründet wird.30 2007 weichen die Prognosen kaum von denen aus dem dritten Bericht ab, die globale Erwärmung wird auf 1,8° bis 4°C geschätzt, der Meeresspiegelanstieg auf 18 cm bis 59 cm.31 Als Fortschritt gegenüber 2001 wird angegeben, die Schätzungen seien nun noch zuverlässiger, da sie auf einer größeren Anzahl von Modellen von jeweils höherer Komplexität beruhten und bessere Daten über natürliche Zusammenhänge, Kohlenstoffkreislauf und Rückkopplungen berücksichtigt worden seien.32 Stellt man nun diese Daten graphisch nebeneinander und verbindet die Durchschnittswerte, ergibt sich für die globale Durchschnittstemperatur (global mean temperature, GMT) bzw. den Meeresspiegelanstieg (sea level rise, SLR) folgendes Bild:

Abbildung 12: Vergleich der Sachstandsberichtsprognosen. 33

Interessanterweise findet sich bei den Prognosen von 1990 und 2007 hinsichtlich der globalen Durchschnittstemperatur derselbe Mittelwert (3°C). 1995 waren sie im Vergleich optimistischer, 2001 pessimistischer. Beim Meeresspiegelanstieg steigt der Graph leicht von 65 cm (1990) auf 72,5 cm (1995), fällt dann aber steil ab auf 47,5 cm

29 | Vgl. IPCC 2001, S. 13. 30 | Vgl. IPCC 2001, S. 16. 31 | Vgl. IPCC 2007a, S. 13, Tabelle SPM.3. 32 | Vgl. ebd. 33 | Ich beziehe mich jeweils auf die einfachen arithmetischen Mittel, die Erwartbarkeit ist dabei vernachlässigt. Sofern allerdings in den Berichten Wahrscheinlichkeiten der Werte angegeben worden sind, sind jeweils die besten Schätzungen gewählt, d.h. die beiden Werte, die innerhalb der Ausgabewerte des jeweils optimistischsten und pessimistischsten Szenarios für die wahrscheinlichsten gehalten werden.

Ein strukturelles Problem von Klimaprognosen | 191

(2001) und schließlich sanft auf 38,5 cm (2007). Das ergibt eine insgesamt positive Entwicklung der Meeresspiegelprognose bis 2100. Trotz Datenzuwachs und verfeinerter Modelle ist also im Grunde kein prognostischer Fortschritt hinsichtlich der globalen Durchschnittstemperatur gemacht worden. Dies lässt sich positiv, aber auch negativ werten: Über die Tatsache, dass globale Erwärmung stattfindet und weiter fortschreiten wird, herrscht Konsens, an dem sich auch unter ständiger Entwicklung der Modelle und stetem Datenzuwachs nichts ändert. Selbst wenn also bemängelt würde, dass die Prognosen von Bericht zu Bericht mal positiver, mal negativer ausfallen, muss doch zugestanden werden, dass immerhin Konsens darüber besteht, dass bis 2100 eine Erwärmung zwischen 2° und 3,5°C stattfinden wird.34 Das allgemeine Problem, der schleichende bis stagnierende Erkenntnisfortschritt in der Klimaforschung, wird noch deutlicher, wenn zu den IPCC-Berichten auch Klimaprognosen aus der Zeit vor der Gründung des IPCC hinzugezogen werden. Den häufig zitierten, weil vermutlich frühesten und daher wohl bekanntesten Fall einer Erwärmungsprognose stellen die Berechnungen des schwedischen Chemikers Svante Arrhenius dar. Er hat 1896 ganz ohne Simulation, durch einfache Rechnung mit Papier und Bleistift, auf Basis globaler Durchschnittstemperaturdaten aus dem Jahr 1889 ausgerechnet, dass die Konzentration von Kohlendioxid in der Atmosphäre erheblichen Einfluss auf die durchschnittliche Temperatur hat. Eine Minderung um 33 Prozent verursache je nach Breitengrad eine durchschnittliche Abkühlung um 3,02° bis 3,37°C, eine Verdopplung analog eine Erhöhung um 4,95° bis 6,05°C.35 Damit unterscheiden sich Arrhenius’ Prognosen nicht bedeutsam von den pessimistischen Prognosen der IPCC-Sachstandsberichte, allerdings blickte er noch durchaus positiv auf die Folgen der globalen Erwärmung: Man hört oft Klagen darüber, daß die in der Erde angehäuften Kohlenschätze von der heutigen Menschheit ohne Gedanken an die Zukunft verbraucht werden [...]. Doch kann vielleicht zum Trost gereichen, daß es hier wie so oft keinen Schaden gibt, der nicht auch sein Gutes hat. Durch Einwirkung des erhöhten Kohlensäuregehaltes der Luft hoffen wir uns allmählich Zeiten mit gleichmäßigeren und besseren klimati-

34 | 2°C darf dabei als ausgesprochen optimistisch betrachtet werden. Im vierten Sachstandsbericht lautet die optimistischste Prognose 1,8°C laut einer Idealentwicklung ökonomischer, sozialer und umweltfreundlicher Nachhaltigkeit bei gleichbleibender globaler Population. Eine Erwärmung um maximal zwei Grad kann allerdings nur bei strikter globaler Regulierung der Emissionen erreicht werden. Aus verschiedenen Gründen sind 2 Grad der fokale Punkt in den Verhandlungen der Klimapolitik (vgl. dazu Abschnitt 2.2.4). 35 | Vgl. Arrhenius 1896, S. 263-266, insbesondere die Tabellen VI und VII.

192 | Die Glaubwürdigkeit der Wissenschaft

schen Verhältnissen zu nähern [...], da die Erde um das Vielfache erhöhte Ernten zu tragen vermag zum Nutzen des rasch anwachsenden Menschengeschlechtes.36 Bereits ab Mitte der 1960er Jahre, in denen die Relevanz der Klimaforschung von der Politik zunehmend erkannt wurde, weil sich immer deutlicher abzeichnete, dass durch eine anthropogene Klimaerwärmung mitnichten bloß Nutzen, sondern vielerorts vor allem Probleme größeren Ausmaßes entstehen könnten und dass diese bereits in den kommenden 100 Jahren zu erwarten sind, finden sich zunehmend Veröffentlichungen, die ähnliche Prognosen machen wie die vier Sachstandsberichte. Schon in den 1950er Jahren werden erste allgemeine Zirkulationsmodelle konstruiert, um die Atmosphäre zu simulieren.37 1966 stellen Manabe und Wetherald dann ein Modell bereit, das sämtlichen Klimaberechnungen der kommenden Dekade zugrunde liegt. Damit errechnen sie eine durchschnittliche globale Erwärmung um 2°C bei einer CO2 -Verdopplung in der Atmosphäre und gleichbleibender Feuchtigkeit und Bewölkung. Es ist zu dieser Zeit bereits klar, dass der CO2 -Effekt alle anderen Einflüsse dominiert, dass die Abkühlung, die zwischen 1940 und 1970 stattgefunden hat, also nur ein kurzzeitiger Trend während einer eigentlichen Erwärmung sein konnte, dass die globale Temperatur nicht linear auf die CO2 -Konzentration in der Atmosphäre reagiert und dass die Hauptunsicherheit bei der Berechnung der globalen Temperaturentwicklung neben der Komplexität, die die Modellierung erschwert, die Abschätzung zukünftigen Energieverbrauchs ist.38 Der Klimaökonom William Nordhaus stellt auf Basis des Manabe-Wetherald-Modells 1975 fest, dass eine CO2 -Verdopplung die globale Durchschnittstemperatur um 0,6° bis 2,4°C erhöhen werde;39 eine Arbeitsgruppe der amerikanischen Wissenschaftsakademie errechnet 1979 eine Erwärmung von 3°C mit einer möglichen Abweichung von 1,5°C.40 In den 1980ern geht es genauso weiter: James Hansen prognostiziert 1981 in Science eine durchschnittliche globale Erwärmung von 2,5°C bis 2100 bei geringem Wachstum des Energiebedarfs und gleichzeitiger Nutzung fossiler und nicht-fossiler Energieträger. Auch benennt er die Problematik der Wolkenbildung, deren Einfluss aufs Klima nicht genau bekannt sei, was eine exakte Modellierung

36 | Arrhenius 1921, S. 73. 37 | Vgl. Lenhard & Winsberg 2010, S. 256. 38 | Vgl. Manabe & Wetherald 1966; vgl. Bryson 1974; vgl. Broecker 1975. 39 | Vgl. Nordhaus 1975, S. 23. Er bezieht sich dort bereits auf eine Publikation von 1972. 40 | Vgl. Charney et al. 1979.

Ein strukturelles Problem von Klimaprognosen | 193

unmöglich mache. Man wisse lediglich, dass hohe Wolken eine Klimaerwärmung förderten, während tiefe Wolken eher kühlend wirkten. Das genaue Verhalten von Wolkenbildung, -dicke und -verteilung sei jedoch unklar; hier würden globale und saisonale Beobachtungsdaten benötigt.41 Klimaforscher Hartmut Graßl äußert sich 1987 im Spiegel, eine durchschnittliche globale Erwärmung von 1,5° bis 4,5°C sei sicher anzunehmen, wobei größtes Problem bei der Modellbildung die Wolken seien.42 All dies weiß man also bereits seit Mitte der 1960er Jahre; der Konvergenzskeptizismus scheint somit angebracht. Was ist daraus zu schließen? Im Archiv der NASA finden sich Daten der globalen Temperaturanomalien von 1880 bis zur Gegenwart,43 die den Trend zur Erwärmung erkennen lassen. Mit wenig Aufwand kann man sich die bisherige Entwicklung der globalen Durchschnittstemperatur selbst ausrechnen:

Abbildung 13: Verlauf der Temperaturanomalie 1961-2009. 1961-65: -0,048

1966-70: -0,024

1971-75: -0,012

1976-80: 0,076

1981-85: 0,204

1986-90: 0,336

1991-95: 0,294

1996-00: 0,454

2001-05: 0,652

2005-09: 0,665

Damit hat man zwar noch keinen theoretischen Background erworben, der Prognosen ermöglicht, findet aber die längst wissenschaftlich etablierten Erkenntnisse bestätigt, dass eine globale Erwärmung stattfindet. Auch dass diese Erwärmung nicht mehr

41 | Vgl. Hansen et al. 1981, insbesondere S. 960-961 und S. 966. 42 | Vgl. Graßl 1987. 43 | Vgl.

http://data.giss.nasa.gov/gistemp/tabledata/GLB.Ts.

txt. Die jährliche Anomalie wird dort gegenüber dem Durchschnittswert der Jahre 1951-80 festgelegt. Ich habe anhand dieser Daten (J-D) die Durchschnittswerte von 1961 bis 2009 in Fünfjahresschritten berechnet.

194 | Die Glaubwürdigkeit der Wissenschaft

ohne Hinzuziehung der Funktion von Treibhausgasen erklärbar ist, scheint überzeugend, zumal es (trotz der großen Bemühungen seitens der Industrie) keine plausible Alternativerklärung gibt. Doch trotz dieses bald vier Jahrzehnte bestehenden wissenschaftlichen Konsens, bestehen noch immer weithin Zweifel am anthropogenen Klimawandel, die erfolgreich verbreitet und etabliert werden. Dabei ist selbst die aus diesen Erkenntnissen notwendige Folgerung bereits seit den 1970ern bekannt: „A wait-and-see policy may mean waiting until it is too late.“44 Hier ist Umdenken gefordert: Nicht mehr Wahrheit ist als wissenschaftliches Ziel zu fordern, sondern (zumindest in Fällen großer Komplexität bei gleichzeitigem politischen Handlungsdruck) möglichst gute empirische Adäquatheit, so dass gesicherte wissenschaftliche Erkenntnisse trotz bestehender Unsicherheiten als Basis für politisches Handeln Anerkennung finden.

44 | Charney et al. 1979, S. viii.

Fazit

Komplexe Forschungsgegenstände verursachen epistemische Unsicherheiten, die insbesondere in jungen Wissenschaften methodischen und theoretischen Pluralismus entstehen lassen. Dies ist aus epistemischer Sicht auch wünschenswert, da eine möglichst große Zahl von Perspektiven robustes Wissen erzeugen kann. Ein solcher Pluralismus erschwert jedoch oftmals einen klaren Konsens; eindeutige Prognosen sind nur hinsichtlich bestimmter Interpretationsspielräume möglich, denen oft nicht einmal sichere Wahrscheinlichkeitswerte zugeordnet werden können. Die Politik jedoch steht unter dem Zwang zu handeln, weshalb von Wissenschaftlern in glaubwürdigkeitsrelevanten Forschungsbereichen eindeutige Ergebnisse in Form von Expertisen gefordert werden. Ein Grundproblem für Wissenschaften mit politischer Relevanz ist daher, dass epistemische Pluralität sehr oft auf einen verschärften politischen Eindeutigkeitsanspruch trifft. Dadurch wird Forschung in solchen Bereichen häufig selbst zum politischen Schauplatz, und Wissenschaftler werden zu Verantwortungsträgern. Hierbei zeigt der wissenschaftliche Pluralismus seine Kehrseite: Aus ihm können konkurrierende Expertisen hervorgehen, die jeder politischen Position eine passende Rechtfertigung liefern. Schnell entsteht das grundlegende Problem, dass Interessengruppen aus Industrie, Wirtschaft und Politik bereitstehen, Unsicherheiten für sich zu nutzen oder sogar gezielt den Eindruck zu fördern, es herrsche Uneinigkeit, um so die öffentlichen Debatten zu beeinflussen und gegebenenfalls regulatorische Maßnahmen durch die Politik zu verhindern oder zumindest zu verzögern. Nachdem inzwischen die Strategie, den Klimawandel schlicht zu leugnen, nicht mehr funktioniert, stellen Klimaskeptiker die globale Erwärmung, der Klimafolgenforschung zum Trotz, als positiv oder zumindest unbedrohlich dar.1 Zuweilen können sich dabei auch unheilige Allianzen zwischen Wissenschaft und Politik ergeben, wenn Wissenschaftler Unsicherheiten dazu missbrauchen, mehr Mittel einzufordern (obwohl, wie gesehen, auch mehr Forschung keine Eindeutigkeit schaffen kann), und so bloß ihre Arbeits-

1 | Vgl. Oreskes & Conway 2010, S. 6-7.

196 | Die Glaubwürdigkeit der Wissenschaft

bedingungen verbessern, während die Politik die dafür erforderlichen Gelder nur zu gern bereitstellt, weil dies einen Aufschub kostenintensiver oder wirtschaftsfeindlicher regulatorischer Maßnahmen ermöglicht. Der Fokus wird dabei gezielt auf bestehende Unsicherheiten anstatt auf solche Erkenntnisse gerichtet, die sicher sind, um in der Öffentlichkeit den Eindruck zu etablieren, dass über den anthropogenen Klimawandel Dissens herrsche. Dahinter steckt wiederum die falsche lineare Vorstellung, dass, solange Dissens und Unsicherheit bestehe, von politischer und industrieller Seite nicht gehandelt werden müsse. Aus diesem Grund wird Dissens nicht selten künstlich kreiert und etabliert, um regulative Maßnahmen zu verhindern oder zu verzögern. Des Weiteren hat ein breites Angebot konkurrierender Expertisen nicht nur zur Folge, dass Wissenschaftsskeptizismus bestätigt wird, weil jede Position ihre gewünschte Expertise findet, sondern auch, dass das Spektrum politischer Positionen und Interessen zusätzlich erweitert wird, was wiederum zur Förderung neuer Forschungsansätze führen kann, wodurch weitere Expertisen entstehen usw.2 Dies kann einen Debattenschluss verzögern. In manchen Fällen von besonders hoher Komplexität, exemplarisch in der Klimaforschung, ist sogar fraglich, ob ein Debattenschluss überhaupt möglich ist.3 Es bestehen große epistemische Unsicherheiten über Funktion und Einfluss von Klimaparametern wie Wolken, Winden und Meeresströmungen. Ferner ergeben sich Probleme aufgrund der natürlichen Begrenztheit der Modellierbarkeit riesiger Datenmengen bei nahezu unendlich vielen Möglichkeiten von Verhaltensvariationen einzelner Modellmodule und ihrer Wechselwirkungen. Ein grundsätzlicher Konvergenzskeptizismus, wie ihn Lenhard und Winsberg vertreten, der trotz fehlender Eindeutigkeit für die Bereitstellung politischer Handlungsempfehlungen plädiert, erscheint gerechtfertigt.4 Gegenüber anderen glaubwürdigkeitsrelevanten Wissenschaften stellt die Klimaforschung insofern einen besonderen Fall dar, als sie neben den extremen Unsicherheiten und Interessenskonflikten, mit denen sie zurechtkommen muss, auch noch globalen sozialen Erfordernissen ausgesetzt ist. Die kulturell und geographisch geprägten Interessen der beteiligten Wissenschaftler erweitern und vertiefen den innerwissenschaftlichen Pluralismus zusätzlich. Gezielt werden die Stellen des IPCC mit Mitarbeitern verschiedener Herkunft besetzt. Die mitwirkenden Experten kommen nicht nur aus Industrie-, sondern auch aus Schwellen- und Entwicklungsländern. Diese müssen aus einer unüberschaubar großen Menge von Publikationen die korrekten relevanten Ergebnisse zusammenfassen und auf dieser Grundlage politische Empfeh-

2 | Vgl. Sarewitz 2004, S. 389. 3 | Vgl. Roe & Baker 2007 sowie Lenhard & Winsberg 2010. Siehe auch Abschnitt 4.5. 4 | Vgl. Lenhard & Winsberg 2010.

Fazit | 197

lungen abgeben. Entsprechend ist selbst der breite wissenschaftliche Konsens, der aus den IPCC-Berichten hervorgeht, von großer Vagheit. Während Soziologie, Politik- und Geschichtswissenschaft die daraus resultierenden Probleme bereits seit Mitte der 1990er Jahre analysieren, beginnt die Philosophie erst seit Kurzem, sich diesem Phänomen zuzuwenden. Philip Kitcher, dessen Deliberationsmodell hier als bislang bester wissenschaftsphilosophischer Ansatz angesichts der Herausforderungen politisierter Forschung eingestuft worden ist, bekennt: It is an embarrassment (at least for me) that philosophers have not contributed more to this necessary conversation. We might clarify some of the methodological issues—for instance, those concerning the variety of risks involved in model-building. Perhaps more important, we could use recent ethical work on responsibilities to future generations and to distant people to articulate a detailed ethical framework that might help a planet’s worth of policy-makers find their way to consensus.5 Die vorliegende Arbeit will dazu einen Beitrag geleistet haben, der erkennen lässt, vor welch großer Menge von Argumenten aus verschiedenen Bereichen der Wissenschaftsforschung wir stehen, die allesamt für philosophische Untersuchungen glaubwürdigkeitsrelevanter Wissenschaftsbereiche wichtig sind. Wissenschaftstheoretische und -ethische sowie epistemologische Argumente, die für das Verständnis und die Analyse von politisierten Wissenschaften allgemein und Klimaforschung im Besonderen relevant sind und vielfach ineinander greifen, wurden aus zum Teil ganz unterschiedlichen Debatten zusammengetragen und verknüpft. Eine solche Verknüpfung der wissenschafts- und erkenntnistheoretischen Debatten über das Testimony-Problem und das Expertendilemma, die Unterbestimmtheit von Theorien und Theoriebeladenheit von Beobachtung, die Wertedebatte, Wissenschaftsskepsis, wissenschaftsethische Normen sowie sozialen, methodischen und theoretischen Pluralismus ist bislang noch nicht geleistet worden. Sie erscheint angesichts der Probleme, vor denen gerade die Klimaforschung, aber auch andere glaubwürdigkeitsrelevante Wissenschaften wie die Ökonomie, die Genforschung oder die Umweltwissenschaften stehen, ausgesprochen wichtig. Die vorliegende Arbeit hat dabei folgende Ergebnisse erbracht: 1. Für glaubwürdigkeitsrelevante Wissenschaften ergeben sich sowohl innerwissenschaftlich als auch außerwissenschaftlich Probleme, denen auf verschiedene Weisen begegnet werden muss. Wissenschaftler, die öffentlich auftreten,

5 | Kitcher 2010, S. 1234.

198 | Die Glaubwürdigkeit der Wissenschaft

tragen Verantwortung: Sie haben wissenschaftliche Unsicherheiten und Diskrepanzen transparent zu machen. Dies impliziert, dass sie sich (politisch oder moralisch) positionieren müssen, soweit dies für ihre wissenschaftliche Überzeugung relevant ist. Das kann allerdings zu Problemen führen, da von Seiten der Öffentlichkeit häufig erwartet wird, dass Wissenschaft wertfrei zu sein hat. Dieses Dilemma lässt sich nur auflösen, wenn ein allgemeines Bewusstsein dafür entsteht, dass die Vorstellung wissenschaftlicher Wertfreiheit obsolet ist. Hier sind alle gesellschaftlichen (medialen, politischen, bildenden, künstlerischen etc.) Institutionen gefordert. Sinnvoll erscheint in politisch relevanten Fällen der Einsatz deliberativer Mittelsinstanzen. Solcher Einsatz deliberativer Mittelsinstanzen findet vielerorts bereits statt, man denke etwa an den Ethikrat, den Wissenschaftlichen Beirat der Bundesregierung zu Globalen Umweltveränderungen (WBGU) oder auf internationaler Ebene an die IAEA oder im Fall der Klimaforschung an das IPCC, das durch sozialen, methodischen und theoretischen Pluralismus den wissenschaftlichen Konsens zu ermitteln und diesen nach außen konsistent und glaubwürdig zu vertreten hat. Pluralistische Selbstregulierung macht also das Erfordernis individueller Verantwortungsübernahme durch Wissenschaftler keinesfalls obsolet, wie bislang in der Wissenschaftstheorie weithin unhinterfragt behauptet wird, denn: 2. Pluralistische Systeme geraten, so sie nicht radikal ein „anything goes“ vertreten, unweigerlich in ein Problem von Inkonsistenz, da zwar einerseits möglichst viele qualifizierte Beiträge zugelassen werden sollen, andererseits aber auch bestimmte epistemische Qualitätsstandards gewährleistet werden müssen, nach denen zu entscheiden ist, welcher Beitrag als qualifiziert gilt und welcher nicht. Ein solches qualitatives Auswahlverfahren widerspricht der pluralistischen Voraussetzung, dass prinzipiell jeder Beitrag zum Diskurs zugelassen werden sollte. Dieses Problem ist ein logisches, es lässt sich nicht analytisch auflösen. Durch den Einsatz der deliberativen Kommissionen, die einerseits fallspezifisch epistemische Qualitätsstandards definieren und andererseits hinsichtlich des Stands der Forschung gegenüber Politik und Legislative Bericht erstatten, lässt sich das Problem jedoch handhaben. 3. Allerdings sind die deliberativen Instanzen, die selbst pluralistisch organisiert sein müssen, dem grundsätzlichen Problem des Pluralismus, der unter Punkt 2 genannten Inkonsistenz, genauso unterworfen, da das Problem prinzipiell lediglich um eine Ebene verschoben wird: von der Wissenschaft selbst zu den Deliberatoren. Es muss entschieden werden, wer hinreichend informiert ist, um als Deliberator agieren zu dürfen. Hier kann jedoch die Politik regulierend

Fazit | 199

wirken, ohne die Wissenschaftsfreiheit zu beschneiden. Im Fall des IPCC wird die Abwägung pluralistischer Erfordernisse und epistemischer Qualitätsstandards durch die UN vorgenommen, die den Pluralismus im IPCC festlegt und kontrolliert. Als eine solche Regulationsmaßnahme habe ich den Einsatz des IAC als von den UN eingesetzte Metainstanz genannt, die einige prozedurale und strukturelle Änderungserfordernisse angemeldet hat, die die Glaubwürdigkeit und epistemische Zuverlässigkeit der Arbeit des IPCC gleichermaßen verbessern sollen. Dies habe ich als bestmöglichen Umgang mit der Glaubwürdigkeitskrise des IPCC gewertet. Allgemein, insbesondere jedoch in glaubwürdigkeitsrelevanten Wissenschaften, sind epistemologische Erfordernisse mit moralischen in Einklang zu bringen. Wie diese Vereinbarung in den speziellen Fällen (oder auch allgemein) erreicht werden kann, wird zunehmend Gegenstand gründlicher Analysen und Diskussionen in der Wissenschaftsforschung und muss dies auch bleiben. Hier liegt eine der großen Herausforderungen für die heutige Wissenschaftsphilosophie.

Anhang: Emails der Klimaforscher von der UEA

1. From: Phil Jones To: bradley, mann, hughes Subject: Diagram for WMO Statement Date: Tue, 16 Nov 1999 13:31:15 +0000 Cc: briffa, osborn Dear Ray, Mike and Malcolm, Once Tim’s got a diagram here we’ll send that either later today or first thing tomorrow. I’ve just completed Mike’s Nature trick of adding in the real temps to each series for the last 20 years (ie from 1981 onwards) amd [sic] from 1961 for Keith’s to hide the decline. Mike’s series got the annual land and marine values while the other two got April-Sept for NH land N of 20N. The latter two are real for 1999, while the estimate for 1999 for NH combined is +0.44C wrt 61-90. The Global estimate for 1999 with data through Oct is +0.35C cf. 0.57 for 1998. Thanks for the comments, Ray. Cheers Phil Prof. Phil Jones Climatic Research Unit Telephone +44 (0) 1603 592090 School of Environmental Sciences Fax +44 (0) 1603 507784 University of East Anglia Norwich Email [email protected] NR4 7TJ UK

202 | Die Glaubwürdigkeit der Wissenschaft

2. From: Tom Wigley To: Timothy Carter Subject: Re: Java climate model Date: Thu, 24 Apr 2003 09:17:29 -0600 Cc: Mike Hulme, Phil Jones Tim, I know about what Matthews has done. He did so without contacting Sarah or me. He uses a statistical emulation method that can never account for the full range of uncertainties. I would not trust it outside the calibration zone — so I doubt that it can work well for (e.g.) stabilization cases. As far as I know it has not been peer reviewed. Furthermore, unless he has illegally got hold of the TAR version of the model, what he has done can only be an emulation of the SAR version. Personally, I regard this as junk science (i.e., not science at all). Matthews is doing the community a considerable disservice. Tom. PS Re CR, I do not know the best way to handle the specifics of the editoring. Hans von Storch is partly to blame — he encourages the publication of crap science „in order to stimulate debate“. One approach is to go direct to the publishers and point out the fact that their journal is perceived as being a medium for disseminating misinformation under the guise of refereed work. I use the word „perceived“ here, since whether it is true or not is not what the publishers care about — it is how the journal is seen by the community that counts. I think we could get a large group of highly credentialed scientists to sign such a letter — 50+ people. Note that I am copying this view only to Mike Hulme and Phil Jones. Mike’s idea to get editorial board members to resign will probably not work — must get rid of von Storch too, otherwise holes will eventually fill up with people like Legates, Balling, Lindzen, Michaels, Singer, etc. I have heard that the publishers are not happy with von Storch, so the above approach might remove that hurdle too. [...]

Literaturverzeichnis

Adam, Matthias (2002): Theoriebeladenheit und Objektivität. Zur Rolle von Beobachtungen in den Naturwissenschaften. Frankfurt am Main: Dr. Hänsel-Hohenhausen. — (2008): Promoting Disinterestedness or Making Use of Bias? Interests of Moral Obligation in Commercialized Research. The Challenge of the Social and the Pressure of Practice. Science and Values Revisited. Hrsg. von Martin Carrier, Don Howard und Janet Kourany. Pittsburgh: University of Pittsburgh Press, 235254. Arrhenius, Svante (1896): On the Influence of Carbonic Acid in the Air upon the Temperature of the Ground. Philosophical Magazine and Journal of Science 41 (5), 237-276. — (1921): Das Werden der Welten. Leipzig: Akademische Verlagsgesellschaft m.b.H. Baumann, Peter (2002): Erkenntnistheorie. Stuttgart: J. B. Metzler. BBC (2010): Climate Scepticism ‚On The Rise‘. Einsehbar unter: http://news. bbc.co.uk/2/hi/8500443.stm. Becker, Hans J. (1999): Goethes Biologie. Die wissenschaftlichen und die autobiographischen Texte. Eingeleitet und kommentiert von Hans Joachim Becker. Würzburg: Königshausen & Neumann. Beckermann, Ansgar (2002): Lässt sich der Wissensbegriff retten? Replik auf die Kritiken von Peter Baumann, Thomas Grundmann und Frank Hofmann. Zeitschrift für philosophische Forschung 56, 586-594. Berner, Ulrich und Hansjörg Streif (2000): Klimafakten. Der Rückblick – ein Schlüssel für die Zukunft. Stuttgart: Schweizerbart’sche Verlagsbuchhandlung. Betz, Gregor (2006): Prediction or Prophecy? The Boundaries of Economic Foreknowledge and Their Socio-Political Consequences. Wiesbaden: Deutscher Universitäts-Verlag. Biddle, Justin und Eric Winsberg (2010): Value Judgments and the Estimation of Uncertainty in Climate Modeling. New Waves in Philosophy of Science. Hrsg. von P. D. Magnus und J. Busch. London: Palgrave Macmillan, 172-197.

204 | Die Glaubwürdigkeit der Wissenschaft

Bird, Alexander (2003): Book Reviews: Science, Truth, and Democracy. Mind 112 (448), 746-749. Black, David E. et al. (1999): Eight Centuries of North Atlantic Ocean Atmosphere Variability. Science 286, 1709-1713. BMBF (2011): Grundlagenforschung. Einsehbar unter: http://www.bmbf.de/ de/98.php. Bony, Sandrine et al. (2006): How Well Do We Understand and Evaluate Climate Change Feedback Processes? Journal of Climate 19, 3445-3482. Bourdieu, Pierre (1987): Die feinen Unterschiede. Kritik der gesellschaftlichen Urteilskraft. Frankfurt am Main: Suhrkamp. Boykoff, Jules und Maxwell Boykoff (2004): Journalistic Balance as Global Warming Bias. FAIR, Fairness and Accuracy in Reporting, November/December 2004 (Extra Issue). Einsehbar unter: http://www.fair.org/index.php?page= 1978. Bridgman, Percy W. (1947): Scientists and Social Responsibility. Scientific Monthly 65 (2), 148-154. Broecker, Wallace (1975): Climatic Change: Are We on the Brink of a Pronounced Global Warming? Science 189, 460-463. Brown, James R. (2001): Who Rules in Science? An Opinionated Guide to the Wars. Cambridge (Mass): Harvard University Press. — (2004): Book Reviews: Science, Truth, and Democracy. The Journal of Philosophy 101 (11), 599-606. Brown, Mark B. (2008): Review of Roger S. Pielke, Jr., The Honest Broker: Making Sense of Science in Policy and Politics. Minerva 46, 485-489. Bryson, Reid A. (1974): A Perspective on Climatic Change. Climate Responds Rapidly and Significantly to Small Changes of the Independent Variables. Science 184, 753-760. Burge, Tyler (1993): Content Preservation. The Philosophical Review 102 (4), 457488. Bush, George W. (2006): President Bush Meets with Supporters of U.S. Military in Iraq and Afghanistan. Einsehbar unter: http://georgewbush-whitehouse. archives.gov/news/releases/2006/06/20060626-2.html. Carnap, Rudolf (1950): Empiricism, Semantics and Ontology. Revue Internationale de Philosophie 11, 20-40. Carrier, Martin (2001a): Nikolaus Kopernikus. München: Beck. — (2001b): Der Wandel der Wissensformen. Zur Vielfalt und Rationalität der Wissenschaftsgeschichte. Wissenschaftsgeschichte heute: Festschrift für Peter Lundgreen. Hrsg. von Jürgen Büschenfeld et al. Bielefeld: Verlag für Regionalgeschichte, 211-231.

Literaturverzeichnis | 205

— (2004): Knowledge and Control: On the Bearing of Epistemic Values in Applied Science. Science, Values, and Objectivity. Hrsg. von Peter Machamer und Gereon Wolters. Pittsburgh: University of Pittsburgh Press, 275-293. — (2006): Wissenschaftstheorie zur Einführung. Hamburg: Iunius. — (2007): Engagement und Expertise: Die Intellektuellen im Umbruch. Wandel oder Niedergang? Die Rolle der Intellektuellen in der Wissensgesellschaft. Hrsg. von Martin Carrier und Johannes Roggenhofer. Bielefeld: Transcript, 13-32. — (2008): Science in the Grip of the Economy. On the Epistemic Impact of the Commercialization of Research. The Challenge of the Social and the Pressure of Practice. Science and Values Revisited. Hrsg. von Martin Carrier, Don Howard und Janet Kourany. Pittsburgh: University of Pittsburgh Press, 217-234. Cartwright, Nancy (1996): Fundmentalism vs. the Patchwork of Laws. The Philosophy of Science. Hrsg. von David Papineau. New York: Oxford University Press, 314-326. Charney, Jule et al. (1979): Carbon Dioxide and Climate: A Scientific Assessment. Report of an Ad Hoc Study Group on Carbon Dioxide and Climate. Hrsg. von der National Academy of Sciences. Washington, D.C.: National Academy Press. Einsehbar unter: http://www.atmos.ucla.edu/~brianpm/download/ charney_report.pdf. Churchman, Charles W. (1957): Theory of Experimental Inference. New York: BrettMacmillan Ltd. Coady, Cecil A. J. (1994a): Testimony. A Philosophical Study. Oxford: Clarendon Press. — (1994b): Testimony, Observation and ‚Autonomous Knowledge‘. Knowing from Words. Western and Indian Philosophical Analysis of Understanding and Testimony. Hrsg. von Bimal Krishna Matilal und Arindam Chakrabarti. Dordrecht: Kluwer, 225-250. Cogley, Graham J., Jerey S. Kargel, Georg Kaser und C. J. van der Veen (2010): Tracking the Source of Glacier Misinformation. Science 327, 522. Collins, Harry M. (1975): The Seven Sexes: A Study in the Sociology of a Phenomenon, or The Replication of Experiments in Physics. Sociology 9 (2), 205224. — (1985): Changing Order. Replication and Induction in Scientific Practice. London: Sage Publications. Culp, Sylvia (1995): Objectivity in Experimental Inquiry: Breaking Data-Technique Circles. Philosophy of Science 62 (3), 430-450. Davis, Steven, Ken Caldeira und Damon Matthews (2010): Future CO2 Emissions and Climate Change from Existing Energy Infrastructure. Science 329, 1330-1333.

206 | Die Glaubwürdigkeit der Wissenschaft

DeFinetti, Bruno (1951): Recent Suggestions for the Reconciliation of Theories of Probability. Proceedings of the Second Berkeley Symposium on Mathematical Statistics and Probability. Hrsg. von Jerzy Neyman. Berkeley: University of California Press, 217-225. deMenocal, Peter et al. (2000): Coherent High- and Low-Latitude Climate Variability During the Holocene Warm Period. Science 288, 2198-2202. Douglas, Heather (2000): Inductive Risk and Values in Science. Philosophy of Science 67 (4), 559-579. — (2007): Rejecting the Ideal of Value-Free Science. Value-Free Science? Ideals and Illusions. Hrsg. von Harold Kincaid, John Dupré und Alison Wylie. Oxford: Oxford University Press, 120-139. — (2009): Science, Policy, and the Value-Free Ideal. Pittsburgh: University of Pittsburgh Press. Duhem, Pierre (1978): Ziel und Struktur der physikalischen Theorien. Nachdruck der Auflage von 1908. Hrsg. von Lothar Schäfer. Hamburg: Meiner. Dupré, John (2004): Science and Values and Values in Science: Comments on Philip Kitcher’s Science, Truth, and Democracy. Inquiry 47, 505-514. Epstein, Steven (1995): The Construction of Lay Expertise: AIDS Activism and the Forging of Credibility in the Reform of Clinical Trials. Science, Technology, & Human Values 20 (4), 408-437. Evers, Marc, Olaf Stampf und Gerald Traufetter (29. 3. 2010): Die Wolkenschieber. Der Spiegel, 140-149. Fleck, Ludwik (1980): Entstehung und Entwicklung einer wissenschaftlichen Tatsache. Einführung in die Lehre vom Denkstil und Denkkollektiv. Frankfurt am Main: Suhrkamp. Fricker, Elizabeth (1995): Telling and Trusting: Reductionism and Anti-Reductionism in the Epistemology of Testimony. Mind 104 (414): 393-411. Gettier, Edmund (1963): Is Justified True Belief Knowledge? Analysis 23 (6), 121123. Gilcher-Holtey, Ingrid (2006): Prolog. Zwischen den Fronten. Positionskämpfe europäischer Intellektueller im 20. Jahrhundert. Hrsg. von Ingrid Gilcher-Holtey. Berlin: Akademie-Verlag, 9-21. Goethe, Johann W. (1991): Schriften zur Farbenlehre 1790-1807. Hrsg. von Manfred Wenzel. Frankfurt am Main: Deutscher Klassiker Verlag. — (1784/1786): Abhandlung vom Zwischenkieferknochen. Neuauflage 1981 der Lehrdruckerei der TH Darmstadt. München: Moos. Goldman, Alvin (1992): Liaisons: Philosophy Meets the Cognitive and Social Sciences. Cambridge (Mass): MIT Press.

Literaturverzeichnis | 207

— (2001): Experts: Which Ones Should You Trust? Philosophy and Phenomenological Research 63 (1), 85-110. — (2003): Knowledge in a Social World. Oxford: Clarendon Press. Gould, Stephen J. (1981): The Mismeasure of Man. London und New York: Norton & Company. Graßl, Hartmut (30. 11. 1987): Weizenfelder werden verdorren. Interview mit dem Klimaforscher Hartmut Graßl. Der Spiegel, 268. Grundmann, Thomas (2002): Warum wir Wissen als einen wichtigen Begriff der Erkenntnistheorie betrachten sollten – Eine Antwort auf Ansgar Beckermann. Zeitschrift für philosophische Forschung 56, 118-124. Habermas, Jürgen (2006): Ein avantgardistischer Spürsinn für Relevanzen. Was den Intellektuellen auszeichnet. Information Philosophie 3, 7-12. Hansen, James, D. Johnson, A. Lacis, S. Lebedeff, P. Lee, D. Rind und G. Russell (1981): Climate Impact of Increasing Atmospheric Carbon Dioxide. Science 213, 957-966. Hansen, James (2009): Storms of My Grandchildren: The Truth About the Coming Climate Catastrophe and Our Last Chance to Save Humanity. New York: Bloomsbury. Harding, Sandra (1994): Das Geschlecht des Wissens. Übersetzt von Helga Kelle. Frankfurt am Main: Campus Verlag. Hardwig, John (1991): The Role of Trust in Knowledge. The Journal of Philosophy 88 (12), 693-708. Hardy, Godfrey H. (2008): A Mathematician’s Apology. With a Foreword by C. P. Snow. 15. Aufl., Cambridge: Cambridge University Press. Hempel, Carl G. (1965): Science and Human Values. Aspects of Scientific Explanation and Other Essays in the Philosophy of Science. Hrsg. von Carl Gustav Hempel. New York: Free Press, 81-96. Hornschuh, Tillmann (2008): Skeptische Kommunikation in der Klimadebatte. Von der Hypothese zur Katastrophe. Der anthropogene Klimawandel im Diskurs zwischen Wissenschaft, Politik und Massenmedien. Hrsg von Peter Weingart, Anita Engels und Petra Pansegrau. Opladen: Verlag Barbara Budrich, 141-153. Howard, Don (2009): Better Red than Dead—Putting an End to the Social Irrelevance of Postwar Philosophy of Science. Science & Education 18, 199-220. Hulme, Mike (2010): IPCC: Cherish it, Tweak it or Scrap it? Split into Three Panels. Nature 463, 730-731. Hume, David (1999): An Enquiry Concerning Human Understanding. Hrsg. von Tom L. Beauchamp. Oxford: Oxford University Press.

208 | Die Glaubwürdigkeit der Wissenschaft

IAC (2010): Climate Change Assessments. Review of the Processes & Procedures of the IPCC. Hrsg. vom Committee to Review the IPCC of the InterAcademy Council. Einsehbar unter: http://reviewipcc.interacademycouncil. net/report.html. IAEA (2008): IAEO-Basiswissen. Einsehbar unter: http://www.iaea.org/ Publications/Factsheets/German/iaea-primer_ger.pdf. Illinger, Patrick (12. 8. 2003): So viele Meilen bis Kyoto. Süddeutsche Zeitung. IPCC (1990): Climate Change. The IPCC Assessment. Policymakers Summary. Prepared by Working Group I. Hrsg. von J. T. Houghton, G. J. Jenkins und J. J. Ephraums. Cambridge: Cambridge University Press. — (1995): Climate Change 1995. The Science of Climate Change. Contribution of Working Group I to the Second Assessment Report of the Intergovernmental Panel on Climate Change. Hrsg. von J. T. Houghton, L. G. Meira Filho, B. A. Callander, N. Harris, A. Kattenberg und K. Maskell. Cambridge: Cambridge University Press. — (2001): Climate Change 2001: The Scientific Basis. Contribution of Working Group I to the Third Assessment Report of the Intergovernmental Panel on Climate Change. Hrsg. von J. T. Houghton, Y. Ding, D. J. Griggs, M. Noguer, P. J. van der Linden, X. Dai, K. Maskell und C. A. Johnson. Cambridge: Cambridge University Press. — (2007a): Summary for Policymakers. Climate Change 2007: The Physical Science Basis. Contribution of Working Group I to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Hrsg. von S. Solomon, D. Qin, M. Manning, Z. Chen, M. Marquis, K. B. Averyt, M. Tignor und H. L. Miller. Cambridge: Cambridge University Press. — (2007b): Asia. Climate Change 2007: Impacts, Adaptation and Vulnerability. Contribution of Working Group II to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Autoren: R. V. Cruz, H. Harasawa, M. Lal und S. Wu. Hrsg. von M. L. Parry, O. F. Canziani, J. P. Palutikof, P. J. van der Linden und C. E. Hanson. Cambridge: Cambridge University Press, 469-506. — (2007c): Supplementary Material to Chapter 1: Assessment of Observed Changes and Responses in Natural and Managed Systems. Climate Change 2007: Impacts, Adaptation and Vulnerability. Contribution of Working Group II to the Fourth Assessment Report of the Intergovernmental Panel on Climate Change. Autoren: C. Rosenzweig, G. Casassa, D. J. Karoly, A. Imeson, C. Liu, A. Menzel, S. Rawlins, T. L. Root, B. Seguin und P. Tryjanowski. Hrsg. von M. L. Parry, O. F. Canziani, J. P. Palutikof, P. J. van der Linden und C. E. Hanson. Cambridge: Cambridge University Press, 80-131.

Literaturverzeichnis | 209

— (2007d): Climate Change 2007: Synthesis Report. An Assessment of the Intergovernmental Panel on Climate Change. Autoren: L. Bernstein, P. Bosch, O. Canziani, Z. Chen, R. Christ, O. Davidson, W. Hare, S. Huq, D. Karoly, V. Kattsov, Z. Kundzewicz, J. Liu, U. Lohmann, M. Manning, T. Matsuno, B. Menne, B. Metz, M. Mirza, N. Nicholls, L. Nurse, R. Pachauri, J. Palutikof, M. Parry, D. Qin, N. Ravindranath, A. Reisinger, J. Ren, K. Riahi, C. Rosenzweig, M. Rusticucci, S. Schneider, Y. Sokona, S. Solomon, P. Stott, R. Stouffer, T. Sugiyama, R. Swart, D. Tirpak, C. Vogel und G. Yohe. Einsehbar unter: www.ipcc.ch/pdf/assessment-report/ar4/syr/ar4_syr.pdf. — (2008): Procedures for the Preparation, Review, Acceptance, Adoption, Approval and Publication of IPCC Reports. Appendix A to the Principles Governing IPCC Work. Adopted at the Fifteenth Session (San Jose, 15-18 April 1999) amended at the Twentieth Session (Paris, 19-21 February 2003), Twentyfirst Session (Vienna, 3 and 6-7 November 2003), and Twenty-Ninth Session (Geneva, 31 August – 4 September, 2008). Einsehbar unter: www.ipcc.ch/ pdf/ipcc-principles/ipcc-principles-appendix-a.pdf. — (2010): IPCC Statement on Trends in Disaster Losses. Einsehbar unter: www. ipcc.ch/pdf/presentations/statement_25_01_2010.pdf. Jaeger, Carlo und Julia Jaeger (2010): Warum zwei Grad? Aus Politik und Zeitgeschichte 32-33, 7-15. Jeffrey, Richard (1956): Valuation and Acceptance of Scientific Hypotheses. Philosophy of Science 23 (3), 237-246. — (1992): Probability and the Art of Judgment. Cambridge: Cambridge University Press. Keynes, John M. (1923): A Tract on Monetary Reform. London: MacMillan. Kirkby, Jasper et al. (2011): Role of Sulphuric Acid, Ammonia and Galactic Cosmic Rays in Atmospheric Aerosol Nucleation. Nature 476, 429-433. Kitcher, Philip (1993): The Advancement of Science. Science without Legend, Objectivity without Illusions. New York: Oxford University Press. — (2001): Science, Truth, and Democracy. Oxford: Oxford University Press. — (2002a): Reply to Helen Longino. Philosophy of Science 69 (4), 569-572. — (2002b): The Third Way: Reflections on Helen Longino’s The Fate of Knowledge. Philosophy of Science 69 (4), 549-559. — (2004): On the Autonomy of the Sciences. Philosophy today (Supp.) 48 (5), 51-57. — (2010): The Climate Change Debates. Science 328, 1230-1234. — (2011): Science in a Democratic Society. New York: Prometheus Books. Knight, Frank H. (1964): Risk, Uncertainty and Profit. New York: Kelley.

210 | Die Glaubwürdigkeit der Wissenschaft

Koertge, Noretta (2000): Science, Values, and the Value of Science. Philosophy of Science (Proceedings) 67, S45-S57. Kotlyakov, Vladimir (1996): Variations of Snow and Ice in the Past and at Present on a Global and Regional Scale. Technical Documents in Hydrology. Hrsg. vom International Hydrological Programme of the UNESCO, 61-66. Kourany, Janet (2003a): A Philosophy of Science for the Twenty-First Century. Philosophy of Science 70 (1), 1-14. — (2003b): Socially Responsible Directions for Philosophy of Science. Scrutinizing Feminist Epistemology: An Examination of Gender in Science. Hrsg. von Cassandra L. Pinnick, Noretta Koertge und Robert F. Almeder. New Brunswick: Rutgers University Press, 202-221. Krugman, Paul (17. 4. 2006): Enemy of the Planet. The New York Times. Kuhn, Thomas S. (1970): The Structure of Scientific Revolutions. 2. Aufl., Chicago: University of Chicago Press. — (1977): The Essential Tension. Selected Studies in Scientific Tradition and Change. Chicago: The University of Chicago Press. Lahsen, Myanna (2007): Experiences of Modernity in the Greenhouse: A Cultural Analysis of a Physicist ‚Trio‘ Supporting the Backlash Against Global Warming. Global Environmental Change 18, 204-219. Lakatos, Imre (1982): Die Methodologie der wissenschaftlichen Forschungsprogramme. Hrsg. von John Worrall und Gregory Currie. Philosophische Schriften, Vol. 1. Braunschweig: Friedr. Vieweg & Sohn. Langmuir, Irving (1989): Pathological Science. Transcribed and edited by Robert N. Hall. Physics Today 42 (10), 36-48. Lassen, Knud und Eigil Friis-Christensen (1991): Length of the Solar Cycle: An Indicator of Solar Activity Closely Associated with Climate. Science 254, 698700. Laudan, Larry (1984): Science and Values. The Aims of Science and Their Role in Scientific Debate. Berkeley: University of California Press. Laut, Peter und Jesper Gundermann (1998): Does the Correlation between Solar Cycle Lengths and Northern Hemisphere Land Temperatures Rule Out Any Significant Global Warming from Greenhouse Gases? Journal of Atmospheric and Solar-Terrestrial Physics 60 (1), 1-3. — (2000): Is There a Correlation Between Solar Cycle Lengths and Terrestrial Temperatures? Old Claims and New Results. The Solar Cycle and Terrestrial Climate. Proceedings of the First Solar & Space Weather Euroconference. European Space Agency Special Publication 463, 189-191. Leake, Jonathan (24. 1. 2010): UN Wrongly Linked Global Warming to Natural Disasters. The Sunday Times.

Literaturverzeichnis | 211

Lehrer, Keith und Carl Wagner (1981): Rational Consensus in Science and Society. A Philosophical and Mathematical Study. Dordrecht: D. Reidel Publishing Company. Lenhard, Johannes und Eric Winsberg (2010): Holism, Entrenchment, and the Future of Climate Model Pluralism. Studies in History and Philosophy of Modern Physics 41, 253–262. Leuschner, Anna (2012): Pluralism and Objectivity: Exposing and Breaking a Circle. Studies in History and Philosophy of Science 43, 191-198. Leuschner, Ulrike (2007): Johann Heinrich Merck. Briefwechsel. 5 Bände. Göttingen: Wallstein Verlag. Levi, Isaac (1960): Must the Scientist Make Value Judgments? The Journal of Philosophy 57 (11), 345-357. Levi, Primo (1991): Das periodische System. München: dtv. Longino, Helen E. (1990): Science as Social Knowledge. Values and Objectivity in Scientific Inquiry. Princeton: Princeton University Press. — (1995): Gender, Politics, and the Theoretical Virtues. Synthese 104, 383-397. — (1996): Cognitive and Non-Cognitive Values in Science: Rethinking the Dichotomy. Feminism, Science, and the Philosophy of Science. Hrsg. von Lynn Hankinson Nelson und Jack Nelson. Dordrecht: Kluwer Academic Press, 39-58. — (2002a): The Fate of Knowledge. Princeton: Princeton University Press. — (2002b): Science and the Common Good: Thoughts on Philip Kitcher’s Science, Truth, and Democracy. Philosophy of Science 69 (4), 560-568. Luhmann, Niklas (1975): Veränderungen im System gesellschaftlicher Kommunikation und die Massenmedien. Die Elektronische Revolution. Wie gefährlich sind die Massenmedien? Hrsg. von Oskar Schatz. Graz: Styria, 13-30. Lynch, Michael P. (2004): True to Life. Why Truth Matters. Cambridge (Mass): MIT Press. Malberg, Horst (2009): Der solare Einfluss auf den Klimawandel in Westeuropa seit 1672. Beiträge zur Berliner Wetterkarte: Verein Berliner Wetterkarte e.V. zur Förderung der meteorologischen Wissenschaft, 1-4. Manabe, Syukuro und Richard Wetherald (1966): Thermal Equilibrium of the Atmosphere with a Given Distribution of Relative Humidity. Journal of the Atmospheric Sciences 24 (3), 241-259. Martin, Robert M. (1986): Using Nazi Scientific Data. Dialogue 25 (3), 403-411. Maxeiner, Dirk (25. 7. 1997): Ist der Treibhauseffekt wirklich auf menschlichen Einfluß zurückzuführen? Zweifel sind angebracht. Die Zeit. Menke, Cornelis (2009): Zum methodologischen Wert von Vorhersagen. Paderborn: Mentis.

212 | Die Glaubwürdigkeit der Wissenschaft

Merton, Robert K. (1973): The Sociology of Science. Theoretical and Empirical Investigations. Hrsg. von Norman W. Storer. Chicago: The University of Chicago Press. — (1983): Auf den Schultern von Riesen. Ein Leitfaden durch das Labyrinth der Gelehrsamkeit. Übersetzt von Reinhard Kaiser. Frankfurt am Main: Suhrkamp. Mill, John Stuart (1989): On Liberty. Hrsg. von Stefan Collini. Cambridge: Cambridge University Press. Monastersky, Richard (5. 9. 2003): Storm Brews over Global Warming. The Chronicle of Higher Education. Müller-Jung, Joachim (2007): Interview im Magazin der Wissenschafts-Pressekonferenz e.V. WPK Quarterly 2, 11-14. Neurath, Otto (1981): Die Verirrten des Cartesius und das Auxiliarmotiv. (Zur Psychologie des Entschlusses). Otto Neurath. Gesammelte philosophische und methodologische Schriften. Hrsg. von Rudolf Haller und Heiner Hutte. Wien: Verlag Hölder-Pichler-Tempsky, 57-67. Nicholson-Lord, David (4. 11. 1990): Bush Defies Alert on Global Warming. Independent on Sunday. Nordhaus, William D. (1975): Can We Control Carbon Dioxide? IIASA Working Paper 75-63, Laxenburg. Einsehbar unter: http://www.iiasa.ac.at/ Admin/PUB/Documents/WP-75-063.pdf. Nordmann, Alfred (2002): Die im Lichte sieht man nicht? Wissen und soziale Konstruktion. Hrsg. von Claus Zittel. Berlin: Akademie Verlag, 47-65. Oreskes, Naomi (2004): The Scientific Consensus on Climate Change. Essay Beyond the Ivory Tower. Science 306, 1686. Oreskes, Naomi und Erik M. Conway (2010): Merchants of Doubt. How a Handful of Scientists Obscured the Truth on Issues from Tobacco Smoke to Global Warming. New York: Bloomsbury Press. Pachauri, Rajendra (2010): Climate Science Leader Rajendra Pachauri Confronts Critics. Science 327, 510-511. Parker, Wendy (2006): Understanding Pluralism in Climate Modeling. Foundations of Science 11 (4), 349-368. Parker, Wendy (2011): When Climate Models Agree: The Significance of Robust Model Predictions. Philosophy of Science 78 (4), 579-600. Pearson, Karl (1960): The Grammar of Science. New York: Meridian Books. Pekus, Friedrich (29. 9. 2010): Leichen im Keller. Mediziner diskutieren, wie sie mit Forschungsergebnissen umgehen sollen, die Anatomen einst an Opfern der Nazis gewonnen haben. Süddeutsche Zeitung.

Literaturverzeichnis | 213

Peterson, Thomas, William Connolley und John Fleck (2008): The Myth of the 1970s Global Cooling Scientific Consensus. Bulletin of the American Meteorological Society 89, 1325-1337. Pielke, Roger A. Jr. (2002): Policy, Politics and Perspective. Nature 416, 367-368. Pielke, Roger A. Jr. (2005): The Uncertainty Trap. Einsehbar unter: http:// cstpr.colorado.edu/prometheus/archives/climate_change/ 000316the_uncertainty_trap.html. — (2007): The Honest Broker. Making Sense of Science in Policy and Politics. Cambridge: Cambridge University Press. Platon (2000): Charmides. Übersetzt und hrsg. von Ekkehard Martens. Stuttgart: Reclam. Popper, Karl R. (24. 9. 1971): Wider die großen Worte. Ein Plädoyer für intellektuelle Redlichkeit. Die Zeit. — (1971): Logik der Forschung. 4. Aufl., Tübingen: Mohr Siebeck. — (1979): Objective Knowledge. An Evolutionary Approach. 4. Aufl., Oxford: Clarendon. Porter, Theodore (1996): Making Things Quantitative. Accounting and Science. Natural Inquiry and Commercial Reason. Hrsg. von Michael Power. Cambridge: Cambridge University Press, 36-56. PRC (2009): Fewer Americans See Solid Evidence of Global Warming. Einsehbar unter: http://people-press.org/report/556/global-warming. Pritchard, Duncan (2004): The Epistemology of Testimony. Philosophical Issues 14, 326-348. Quine, Willard V. O. (1964): Two Dogmas of Empiricism. From a Logical Point of View. Nine Logico-Philosophical Essays. Cambridge (Mass): Harvard University Press, 20-46. Radü, Jens (2007): Wachhund im Elfenbeinturm. Investigativer Wissenschaftsjournalismus als mögliche Kontrollinstanz des Wissenschaftssystems. Saarbrücken: Verlag Dr. Müller. Rahmstorf, Stefan (5. 9. 2002): Flotte Kurven, dünne Daten. Im Medienstreit um den Klimawandel bleibt die Wissenschaft auf der Strecke. Die Zeit. (Ungekürzte Version einsehbar unter: http://www.pik-potsdam.de/~stefan/ Publications/Other/flottekurven.pdf.) — (10. 2. 2005): Das ungeliebte Weder-Noch. Die Zeit. Rawls, John (1999): A Theory of Justice. Revised Edition. Oxford: Oxford University Press. Regalado, Antonio (31. 7. 2003): Global Warming Skeptics are Facing Storm Clouds. Wall Street Journal.

214 | Die Glaubwürdigkeit der Wissenschaft

Reichholf, Josef H. (2002): Die falschen Propheten. Unsere Lust an Katastrophen. Berlin: Wagenbach. Rock, Irvin (1984): Perception. New York: Scientific American Books. Roe, Gerard und Marcia Baker (2007): Why is Climate Sensitivity so Unpredictable? Science 318, 629-632. Roggenhofer, Johannes (2007): Im Diskurs: Zur Legitimierung der Intellektuellen im 21. Jahrhundert. Wandel oder Niedergang? Die Rolle der Intellektuellen in der Wissensgesellschaft. Hrsg. von Martin Carrier und Johannes Roggenhofer. Bielefeld: Transcript, 83-98. Rubner, Jeanne (31. 3. 2010): Die Stars der Konzerne. Süddeutsche Zeitung. Rudner, Richard (1953): The Scientist qua Scientist Makes Value Judgments. Philosophy of Science 20 (1), 1-6. Russell, Bertrand (1997): Human Knowledge. Its Scope and Limits. With a New Introduction by John G. Slater. London: Routledge. Russell, Sir Muir (2010): The Independent Climate Change E-mails Review. Von Geoffrey Boulton, Peter Clarke, David Eyton und James Norton unter Leitung von Sir Muir Russell. Einsehbar unter: http://www.cce-review.org/ pdf/FINALREPORT.pdf. Sample, Ian (2. 2. 2007): Scientists Offered Cash to Dispute Climate Study. The Guardian. Sarewitz, Daniel (2000): Science and Environmental Policy: An Excess of Objectivity. Earth Matters. The Earth Sciences, Philosophy, and the Claims of Community. Hrsg. von Robert Frodeman. London: Prentice Hall, 79-98. — (2004): How Science Makes Environmental Controversies Worse. Environmental Science & Policy 7, 385-403. Schafer, Arthur (1986): On Using Nazi Data: The Case Against. Dialogue 25 (3), 413-419. Schellnhuber, Hans J. (13./14. 2. 2010): Die Politik muss sich aus der Klimaforschung raushalten. Süddeutsche Zeitung. — (29. 11. 2010): Wir brauchen im Klimaschutz Mehrheitsentscheidungen. Frankfurter Allgemeine Zeitung. Schlick, Moritz (1969): Über das Fundament der Erkenntnis. Gesammelte Aufsätze. Hildesheim: Georg Olms Verlag, 289-310. Schmitt, Frederick (1994): Socializing Epistemology: An Introduction through Two Sample Issues. Socializing Epistemology. The Social Dimensions of Knowledge. Hrsg. von Frederick Schmitt. Savage (ML): Rowman and Littlefield, 1-27. Schuh, Hans (4. 12. 1997): Geoforscher warnen: Es könnte im Treibhaus recht frisch werden. Zieht Euch warm an! Die Zeit.

Literaturverzeichnis | 215

Schulz, Winfried (1989): Massenmedien und Realität. Die ‚ptolemäische‘ und die ‚kopernikanische‘ Auffassung. Massenkommunikation. Theorien, Methoden, Befunde. Hrsg. von Max Kaase und Winfried Schulz. Opladen: Westdeutscher Verlag, 135-149. Seidler, Christoph (19. 1. 2010). Panne der Uno-Experten. Falsche Gletscherprognose empört Klimaforscher. Spiegel Online: http://www.spiegel.de/ wissenschaft/natur/0,1518,672852,00.html. Shapin, Steven (1994): A Social History of Truth. Civility and Science in SeventeenthCentury England. Chicago: University of Chicago Press. Shapin, Steven und Simon Schaffer (1985): Leviathan and the Air Pump. Hobbes, Boyle, and the Experimental Life. Princeton: Princeton University Press. Shope, Robert (1983): The Analysis of Knowing. Princeton (NJ): Princeton University Press. Shrader-Frechette, Kristin (1994): Ethics of Scientific Research. Lanham (Md): Rowman & Littlefield Publishers. Sills, Jennifer (2010): Climate Change and the Integrity of Science. Science 328, 689-691. Sober, Elliott (2001): What is the Problem of Simplicity? Simplicity, Inference and Modelling: Keeping It Sophisticatedly Simple. Hrsg. von H. Keuzenkamp, M. McAleer und A. Zellner. Cambridge: Cambridge University Press, 13-31. — (2007): Evidence and Value Freedom. Value-Free Science? Ideals and Illusions. Hrsg. von Harold Kincaid, John Dupré und Alison Wylie. Oxford: Oxford University Press, 109-117. Solanki, Sami K. und Natalie A. Krivova (2003): Can Solar Variability Explain Global Warming Since 1970? Journal of Geophysical Research 108 (A5), 1-8. Solomon, Miriam (1994): A More Social Epistemology. Socializing Epistemology. The Social Dimensions of Knowledge. Hrsg. von Frederick Schmitt. Lanham (Md): Rowman & Littlefield, 217-233. Soon, Willie und Sallie Baliunas (2003): Proxy Climatic and Environmental Changes of the Past 1000 Years. Climate Research 23, 89-110. Sosa, Ernest (2003): The Place of Truth in Epistemology. Intellectual Virtue. Perspectives from Ethics and Epistemology. Hrsg. von Michael DePaul und Linda Zagzebski. Oxford: Clarendon Press, 155-179. Spiegel-Titel (11. 8. 1986): Das Weltklima gerät aus den Fugen. Der Spiegel, 122134. Stegenga, Jacob (2009): Robustness, Discordance, and Relevance. Philosophy of Science 76 (5), 650-661.

216 | Die Glaubwürdigkeit der Wissenschaft

Stegmüller, Wolfgang (1954): Metaphysik Wissenschaft Skepsis. Frankfurt am Main: Humboldt-Verlag. Stocker, Thomas (2010): Apply Best Practice Rules. Nature 463, 731-732. Stone, James und Pascalis Olivier (2010): Footprints Sticking out of the Sand. Part 1: Children’s Perception of Naturalistic and Embossed Symbol Stimuli. Perception 39, 1254-1260. Thejll, Peter und Knud Lassen (2000): Solar Forcing of the Northern Hemisphere Land Air Temperature: New Data. Journal of Atmospheric and Solar-Terrestrial Physics 62, 1207-1213. Time (2006): Poll – Global Warming. Einsehbar unter: http://www.time.com/ time/magazine/article/0,9171,1176975-2,00.html. UNFCCC (2009): United Nations Framework Convention of Climate Change. Report of the Conference of the Parties on its Fifteenth Session, Held in Copenhagen from 7 to 19 December 2009. Addendum. Part Two: Action Taken by the Conference of the Parties at its Fifteenth Session. Einsehbar unter: http://unfccc.int/ resource/docs/2009/cop15/eng/11a01.pdf. Vanderheiden, Steve (2008): Atmospheric Justice. A Political Theory of Climate Change. Oxford: Oxford University Press. WBGU (2006): Die Zukunft der Meere – zu warm, zu hoch, zu sauer. Sondergutachten. Autoren: R. Schubert, H. J. Schellnhuber, N. Buchmann, A. Epiney, R. Grießhammer, M. E. Kulessa, D. Messner, S. Rahmstorf, J. Schmid. Hrsg. vom Wissenschaftlichen Beirat der Bundesregierung Globale Umweltfragen. — (2010): Klimapolitik nach Kopenhagen. Auf drei Ebenen zum Erfolg. Autoren: Schellnhuber, Hans Joachim, Dirk Messner, Claus Leggewie, Reinhold Leinfelder, Nebojsa Nakicenovic, Stefan Rahmstorf, Sabine Schlacke, Jürgen Schmid, Renate Schubert. Hrsg. vom Wissenschaftlichen Beirat der Bundesregierung Globale Umweltfragen. Wehling, Peter (2006): Im Schatten des Wissens? Perspektiven der Soziologie des Nichtwissens. Konstanz: UVK Verlagsgesellschaft mbH. Weingart, Peter, Anita Engels und Petra Pansegrau (2008): Von der Hypothese zur Katastrophe. Der anthropogene Klimawandel im Diskurs zwischen Wissenschaft, Politik und Massenmedien. Opladen: Verlag Barbara Budrich. Wilholt, Torsten (2006): Design Rules. Industrial Research and Epistemic Merit. Philosophy of Science 73 (1), 66-89. — (2007): Soziale Erkenntnistheorie. Ein Bericht. Information Philosophie 5, 46-53. — (2009): Bias and Values in Scientific Research. Studies in History and Philosophy of Science 40 (1), 92-101.

Literaturverzeichnis | 217

— (2011): Die philosophischen Grundlagen der Forschungsfreiheit. Begründungen und Begrenzungen. Habilitationsschrift. Vorgelegt an der Fakultät für Geschichtswissenschaft, Philosophie und Theologie der Universität Bielefeld. Worrall, John (1993): Falsification, Rationality, and the Duhem Problem. Grünbaum versus Bayes. Philosophical Problems of the Internal and External World. Essays on the Philosophy of Adolf Grünbaum. Hrsg. von John Earman et al. Pittsburgh: The University of Pittsburgh Press, 329-370. Wray, K. Brad (1999): A Defense of Longino’s Social Epistemology. Philosophy of Science 66 (Supp.), S538-S552. Ziman, John (1996): Is Science Losing its Objectivity? Nature 382, 751-754. — (2002): The Continuing Need for Disinterested Research. Science and Engineering Ethics 8 (3), 397-399. Zorita, Eduardo (2010): Independent Agency Needed. Nature 463, 731.

Alle Online-Quellen wurden zuletzt geprüft am 14. 2. 2012.

Index Ad hoc-Hypothese, 79, 98, 122 Adäquatheit, 37, 147, 154, 168 Adam, M., 69, 70, 83, 84, 102, 156, 159, 167 AEI, 28, 54, 107 Aerosole, 89, 189, 190 AIDS, 67, 69 Al Gore, 29 Anthropogene globale Erwärmung, 29, 40–42, 46, 54, 56, 59–61, 89, 107, 108, 176, 184, 192, 196 Anthropogene Treibhausgasemissionen, 89, 91, 92, 98, 109, 189 Anti-Egalitarismus, 135 Antireduktionismus, 11, 12 Anything goes, 160, 170, 172, 198 Argumentum ad hominem, 30, 31 Argumentum ad verecundiam, 30, 31 Arrhenius, S., 191, 192 Baker, M., 173, 187, 188, 196 Baliunas, S., 54–56, 108 Bayes, 16, 17, 25, 27, 28, 31, 37, 117, 118 Bayesianismus, 17, 124 Beckermann, A., 9, 10, 132 Berner, U., 92, 108, 109

Betz, G., 6, 62, 95, 117, 122 Bewährung, 40 Bewährungsgrad, 32 Beweiserhebungsverbot, 71 Biddle, J., 122 Black Box-Problem, 189 Black, D., 55 Blondlot, R., 79, 80 Bourdieu, P., 39, 46, 52 Boykoff, J. & M., 41, 42 Brahe, T., 87 Bridgman, P. W., 150 Brown, J. R., 21, 51, 119, 135, 146, 161 Brown, M., 61 Burge, T., 11 Burt, C., 103 Carnap, R., 113, 114 Carrier, M., 37, 38, 63–65, 78, 87, 105, 134, 152, 153, 158 Cartwright, N., 158, 159 CERN, 150 Churchman, C., 112 Climategate, 5, 18, 19, 42, 56, 72–75, 177–179, 181, 184, 186 Coady, C. A. J., 11, 12 Cogley, G., 180–182 Collins, H., 94–96

220 | Index

Conway, E., 29, 30, 40, 46, 47, 108, 195 Credulismus, 2, 11–14, 18 Crichton, M., 61 Culp, S., 97, 98, 160 DeFinetti, B., 114, 115, 118 Deliberation, 4, 98, 164–166, 197 Deliberative Demokratie, 21, 164, 171 Deliberative Instanzen, 45, 198 Deliberator, 72, 164–166, 171, 198 DeMenocal, P., 55 Douglas, H., 37, 67, 98, 113, 116, 117, 119, 134 Duhem-Quine-These, 49, 102, 118 Ebell, M., 61 Egalitarismus, 133, 134, 161, 164 EIKE, 93, 107, 108 Eleganz, 150 Emissionsszenario, 60, 101, 121–123, 189, 190 Empirische Adäquatheit, 40, 130, 141, 146, 147, 155, 159, 168, 172, 173, 194 EPA, 56 Epistemische Werte, 3, 102, 104, 105, 128, 131, 148 Epstein, S., 67, 68 Ethikrat, 174, 198 Ethische Standards, 67, 69–71 Evidenz, 3, 12, 16, 56, 80, 83, 86, 94–98, 101, 103, 105, 106, 131, 137, 139, 164, 168 Evidenz, robuste, 96, 98, 101, 106, 129 Experimenter’s Regress, 97, 106 Expertenintellektuelle, 37, 38, 62–67, 72, 74, 125, 174, 185

Exxon, 28, 29, 54, 107, 108 Fabricius, J., 88 Farbenlehre, 77–80, 83, 93 FDP, 108 Feminismus, 132–136, 140, 144, 165 Feyerabend, P., 160, 166, 170 Fleck, L., 84 Fox News, 61 Fricker, E., 13, 18 Friedrich Naumann-Stiftung, 108 Galilei, G., 88, 94 GCM, 95, 120, 121, 189 Gentlemen, 66, 164 Geoheliozentrisches Weltbild, 87 Gettier, E., 8–10, 36, 128, 132 GFZ, 88 Gletscher, 122, 190 Gletscher-Zahlendreher, 74, 179, 181, 182, 184 Goethe, J. W. v., 77–83, 93 Goldman, A., 9, 14–17, 22–28, 30– 32, 36, 37, 39, 45, 47, 50, 80, 100, 101, 128, 145 Gould, S., 80, 103, 106 Graue Literatur, 19, 180, 182–184 Grundmann, T., 10, 132 Habermas, J., 63–65 Hansen, J., 75–77, 125, 192, 193 Haraway, D., 132 Harding, S., 133 Hardwig, J., 9, 11, 30, 32, 33, 36, 66, 67, 101 Hardy, G. H., 148–151 Hempel, C. G., 112 Hockeyschlägerkurve, 75 Holismus, 96, 114

Index | 221

Howard, D., 123 Hulme, D., 181, 202 Hume, D., 9, 10, 12, 15–17, 36, 37 IAC, 77, 174, 178, 185–187, 199 Inhofe, J., 56, 61 Inkonsistenz, 103, 160, 168, 170, 173, 198 Intellektuelle, 24, 37, 63–65, 76, 146 IPCC, 4, 18, 19, 28, 41, 47, 48, 51, 54, 73, 74, 77, 89, 97, 101, 106–109, 120, 121, 123, 174, 176–187, 189, 191, 196– 199 Jeffrey, R., 26, 68, 114–119 Jones, P., 74, 75, 77, 201, 202 Kaser, G., 74, 180, 182, 185 Kaskadenmodell, 158 Kausale Theorie des Wissens, 9 Kepler, J., 87 Keynes, J. M., 99 Kitcher, P., 3, 4, 19–22, 27, 28, 32, 43–45, 54, 58, 66, 72, 73, 75, 76, 85, 86, 98–100, 102– 104, 124–126, 128–131, 136– 145, 147, 150, 151, 154– 156, 159–173, 177, 184– 186, 197 Klimafakten, 108, 109 Klimaszenario, 50, 76, 97, 98, 122, 123 Knight, F., 68, 100, 111 Koertge, N., 20, 127, 134–136 Konstruktivismus, 4, 27, 85, 96, 100, 131, 136 Kontextabhängigkeit, 131–133, 147, 148, 151, 152, 154, 155, 161, 162, 172

Konvergenzskeptizismus, 173, 196 Kopernikanisches Weltbild, 87 Kosten-Nutzen-Analyse, 102–104 Kourany, J., 103, 104, 106, 126, 133, 134 Kuhn, T., 48, 49, 84, 105, 106, 128, 129, 138, 144, 166 Kuhn-Unterbestimmtheit, 105, 129 Lakatos, I., 138 Landkarten, 159, 160, 169 Langmuir, I., 77, 79–81, 83, 88 Laudan, L., 49, 94, 140, 141 Lehrer/Wagner-Modell, 25, 26, 47, 118 Lenhard, J., 173, 188, 189, 192, 196 Leuschner, A., 171 Leuschner, U., 81, 82 Levi, I., 116, 119, 120 Levi, P., 80 Longino, H., 4, 20, 28, 99, 119, 126, 128–133, 135, 136, 139– 148, 150–152, 154–156, 159– 162, 167–173, 177, 178 Luhmann, N., 15, 39, 40, 46 Lynch, M., 154 Müller-Jung, J., 40 Malberg, H., 92, 93, 107, 108 Manabe/Wetherald-Modell, 192 Mann, M., 61, 75 Martin, R., 70 Mayr, E., 172, 173 McIntyre, S., 61 McKitrick, R., 61 Meeresspiegel, 76, 104, 122, 183, 184, 189–191 Menke, C., 105

222 | Index

Merton, R., 1, 24, 25, 33, 49, 65, 69, 99, 107, 157, 163 Metaevidenz, 96 Mill, J. S., 19, 72, 147, 161, 163 Milton, J., 19 Modell, 94–98, 120–123, 129, 187, 188, 190–193, 196 Modellierung, 91, 98, 122, 123, 179, 188, 192, 196 Neckerwürfel, 83 Neurath, O., 96 Newton, 44, 77, 78 Nicht-epistemische Werte, 27, 30, 67, 102, 113, 119, 126, 128, 131, 142, 159, 162, 177, 179 Nichtwissen, 100 Nordhaus, W., 59, 192 Nordmann, A., 4, 143, 144 Normalwissenschaft, 138, 166 Objektivität, 1, 3, 4, 45, 84, 86, 101, 105, 110, 111, 114, 123, 124, 126, 128, 130–133, 140, 143, 144, 155–157, 159, 161, 165, 170, 171 Objektivitätsideal, 1, 162 Oreskes, N., 29, 30, 40–42, 46, 47, 108, 195 Ozeanische Zirkulation, 188, 196 Pachauri, R., 73, 74, 77, 186 Paradigma, 137, 138 Parker, W., 95 Pathologische Wissenschaft, 3, 77, 79, 80, 82, 83, 86–88, 93, 103, 107, 124 Peer-Review, 18, 39, 43, 180

Pielke, R., 51, 56–62, 74, 181 PIK, 42, 51, 61, 76, 177 Platon, 1, 8, 22, 36, 161 Pluralismus, 4, 44, 59, 101, 104, 106, 126, 130, 132, 145–147, 156– 158, 160, 164, 166, 167, 169, 170, 173, 174, 177, 178, 180, 185, 195, 196, 198, 199 Pluralismus, methodischer, 4, 58, 59, 98, 169, 176, 195, 197, 198 Pluralismus, nomologischer, 159 Pluralismus, perspektivischer, 4, 5, 44, 59, 130, 147, 155, 156, 159, 166, 167, 169, 176, 178, 198 Pluralismus, theoretischer, 4, 58, 59, 98, 167, 169, 176, 195, 197, 198 Poincaré-Vermutung, 153, 154 Popper, K., 24, 25, 32, 49, 117, 129 Porter, T., 123, 124 Primatenforschung, 132 Pritchard, D., 13, 18 Quine, W. V. O., 13, 113–115 Rahmstorf, S., 42, 51, 61, 91, 93, 109 Rassistische Forschung, 21, 24, 80, 103, 104, 135, 163 Rawls, J., 164, 165 Reduktionismus, 2, 12, 14 Reichholf, J., 24 Reife Wissenschaft, 94 Revolution, wissenschaftliche, 48, 49, 138 Robustheit, 97, 99, 106, 129, 155, 182, 195 Roe, G., 173, 187, 188, 196

Index | 223

Roggenhofer, J., 37, 63, 65 Royal Society, 164 Rubner, J., 107, 108 Rudner, R., 68, 110–117, 119, 121, 122, 124 Russell, B., 7–10, 15, 16, 32, 36 Russell, M., 75 Sarewitz, D., 44, 58, 196 Sartre, J. P., 37 Schönheit, 149, 151 Schafer, A., 70, 71 Schaffer, S., 66 Scheinevidenz, 80, 95, 96 Schellnhuber, H. J., 76, 77, 177, 178, 181, 182 Schlick, M., 82, 83 Schmitt, F., 11, 130 Schneider, S., 62 Schulz, W., 39, 40, 42, 44, 45 Sexistische Forschung, 21, 104, 135, 163 Shapin, S., 66 Shope, R., 8 Shrader-Frechette, K., 68–70, 72, 119 Signifikanz, 137, 147, 149, 153–155, 161, 162, 166, 171, 172 Simulationsmodell, 91, 95, 120, 122 Singer, F., 46, 108 Sober, E., 116, 129 Solomon, M., 130 Sonnenaktivität, 89–93, 97, 107 Sonnenflecken, 88–90 Sonnenfleckentheorie, 41, 87–89, 92, 97, 107, 179 Sonnenfleckenzyklus, 89–91 Soon, W., 54–56, 108 Sosa, E., 148 Stegenga, J., 97, 101, 102, 155

Stegmüller, W., 80, 95, 96 Stocker, T., 182, 185 Sylt, 104 Thejll/Lassen-Kurve, 91 Theoriebeladenheit, 3, 31, 77, 83–86, 88, 91, 97, 103, 128, 129, 131, 136, 142, 197 UNFCCC, 60 Unreife Wissenschaft, 94 Unterbestimmtheit, 3, 93, 98, 99, 102– 106, 110, 118, 128, 129, 131, 132, 134–136, 143, 146, 168, 171, 177, 197 Unterbestimmtheit, dauerhafte, 3, 103 Unterbestimmtheit, vorübergehende, 3, 99, 100, 120, 123 Van Fraassen, B., 140, 141, 172 Verantwortung, 3, 37, 62, 64, 67, 73, 74, 77, 125, 128, 133, 134, 166, 174, 185, 186, 195, 198 Verein Berliner Wetterkarte, 92 Versauerung der Meere, 122, 184 Von Storch, H., 55, 74, 75, 202 Wahrheit, 1, 3, 4, 8–10, 12, 15, 17, 18, 26, 28, 30–32, 37, 40, 64, 68, 71, 76, 82, 93, 96, 99, 101, 102, 124, 128, 130– 132, 134, 140–143, 146– 148, 150, 151, 155, 162, 166–168, 172, 173, 194 Wahrheitsannäherung, 139 Wahrheitsideal, 155 Wahrheitskriterium, 9, 173 WBGU, 60, 104, 198 Wehling, P., 100

224 | Index

Weingart, P., 46, 64, 66 Wertfreiheit, 77, 111, 161, 198 Wertfreiheitsideal, 1, 73, 75, 77, 123, 125, 150, 178, 198 Werturteile, 73, 75, 110, 112, 114, 117, 119, 121, 122, 124, 125, 137, 179 Wigley, T., 75, 202 Wilholt, T., 11, 13, 19–21, 43, 98, 99, 113, 135, 138, 148, 150– 154, 158 Winsberg, E., 122, 173, 188, 189, 196 Wissenschaftsethik, 3, 6, 21, 62, 67, 69–71, 74, 174, 178, 197 Wissenschaftsethische Standards, 71 Wolkenbildung, 89, 100, 189, 192, 193, 196 Wood, M., 183 Wood, R., 79, 80 Worrall, J., 117, 118, 124 Ziman, J., 156–159 Zirkularität, 12, 26, 94, 95, 122 Zola, É., 37, 185 Zwei-Grad-Ziel, 59, 60, 191 Zwischenkieferknochen, 81–83

Danksagung Dass ich diese Arbeit gerne geschrieben habe, liegt zu einem nicht unerheblichen Teil an einer Reihe von Personen, bei denen ich mich gerne bedanken möchte. Als erstes sei hier Martin Carrier genannt, der mich als Lehrer von Studienbeginn an beständig begleitet, ermuntert und gefördert hat. Ohne seine Unterstützung hätte ich nicht Philosophie studiert, und dieses Buch wäre nicht entstanden. Des weiteren danke ich Alfred Nordmann, der mich drei Jahre lang generös am Darmstädter Institut aufgenommen, mir den Urwald von South Carolina gezeigt und mich in vielen Gesprächen mit zahlreichen Anregungen versorgt hat. Mein herzlichster Dank gilt außerdem Philip Kitcher für seine Großzügigkeit und Freundlichkeit, für eine wunderbare Zeit in New York und für die zahlreichen Gespräche, in denen er sich nicht zu schade war (noch ist), meine Skripte wieder und wieder geduldig und humorvoll mit mir zu diskutieren. Hier schließt sich direkt Torsten Wilholt an. Er hat mich auf Fehler im Skript aufmerksam gemacht und damit vor großen Peinlichkeiten bewahrt, wofür ich ihm verbindlichst danke. Insbesondere danke ich ihm aber dafür, dass er mir ein großartiger Lehrer war und ist und dass er mir dabei, ebenso wie Cornelis Menke, mit dem das Büro zu teilen ich ein Jahr lang die Freude hatte, über die Jahre zum Freund geworden ist. Mein besonderer Dank gilt außerdem Ulrich Krohs für die Zeit, die er sich für mich genommen hat, und für seine aufmerksame und ehrliche Kritik. Weiterhin verdanke ich Gregor Betz, Stefan Gärtner, Christian Hoffmann, Bertolt Lampe, Hans Leuschner und Ulrike Leuschner hilfreiche Kritik und nützliche Hinweise. An der Abteilung Philosophie der Universität Bielefeld wurde ich vielfach kollegial unterstützt, wobei hier ganz besonders Dan Brooks, Maria Kronfeldner, Johannes Lenhard und Véronique Zanetti zu nennen sind. Nicht zuletzt aber danke ich Melanie Boß, Linda Gross, Stephanie Hagemann-Wilholt, Anna Lindemann, Bernd Pörtener, Friederike Terbeck und Anna von Laer für ihre Freundschaft, die für das Schreiben dieser Arbeit unverzichtbar war. Meinem Vater Hans Leuschner und meinem Mann Stefan Gärtner danke ich außerdem dafür, dass sie das Manuskript schließlich einer gründlichen und kritischen Korrektur unterzogen haben. Sebastian Gärtner hat mich in juristischen und Alex-

226 | Danksagung

ander Golz in IT-Fragen beraten – auch ihnen herzlichen Dank. Ferner bedanke ich mich bei der IANUS-Gruppe der TU Darmstadt, dem Graduiertenkolleg 724 und der Studienstiftung des deutschen Volkes sowie bei all denjenigen, die hier ungenannt bleiben, mich aber in Kolloquien oder auf Tagungen durch freundliche Worte und gute Kritik bestärkt haben.

Zur Autorin

Anna Leuschner studierte Geschichte und Philosophie mit Schwerpunkt Wissenschaftstheorie in Bielefeld. Die vorliegende Dissertation verfasste sie an der Universität Bielefeld, der TU Darmstadt und der Columbia University New York in den Jahren 2007 bis 2011. Zur Zeit ist sie wissenschaftliche Mitarbeiterin an der Abteilung Philosophie der Universität Bielefeld.

Science Studies Celia Brown, Marion Mangelsdorf (Hg.) Alice im Spiegelland Wo sich Kunst und Wissenschaft treffen April 2012, 220 Seiten, kart., zahlr. z.T. farb. Abb., inkl. DVD mit Filmen und Musik, 28,80 €, ISBN 978-3-8376-2082-5

Jochen Hennig Bildpraxis Visuelle Strategien in der frühen Nanotechnologie 2011, 332 Seiten, kart., zahlr. z.T. farb. Abb., 32,80 €, ISBN 978-3-8376-1083-3

Florian Hoof, Eva-Maria Jung, Ulrich Salaschek (Hg.) Jenseits des Labors Transformationen von Wissen zwischen Entstehungs- und Anwendungskontext 2011, 326 Seiten, kart., zahlr. z.T. farb. Abb., 32,80 €, ISBN 978-3-8376-1603-3

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Science Studies Stefan Kühl Der Sudoku-Effekt Hochschulen im Teufelskreis der Bürokratie. Eine Streitschrift Februar 2012, 172 Seiten, kart., 19,80 €, ISBN 978-3-8376-1958-4

Ulrich Salaschek Der Mensch als neuronale Maschine? Zum Einfluss bildgebender Verfahren der Hirnforschung auf erziehungswissenschaftliche Diskurse Februar 2012, 226 Seiten, kart., zahlr. Abb., 26,80 €, ISBN 978-3-8376-2033-7

Tristan Thielmann, Erhard Schüttpelz, Peter Gendolla (Hg.) Akteur-Medien-Theorie Juli 2012, ca. 800 Seiten, kart., zahlr. Abb., ca. 39,80 €, ISBN 978-3-8376-1020-8

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de

Science Studies Viola Balz Zwischen Wirkung und Erfahrung – eine Geschichte der Psychopharmaka Neuroleptika in der Bundesrepublik Deutschland, 1950-1980

Christian Kehrt, Peter Schüssler, Marc-Denis Weitze (Hg.) Neue Technologien in der Gesellschaft Akteure, Erwartungen, Kontroversen und Konjunkturen

2010, 580 Seiten, kart., zahlr. Abb., 36,80 €, ISBN 978-3-8376-1452-7

2011, 366 Seiten, kart., zahlr. Abb., 32,80 €, ISBN 978-3-8376-1573-9

Christopher Coenen, Stefan Gammel, Reinhard Heil, Andreas Woyke (Hg.) Die Debatte über »Human Enhancement« Historische, philosophische und ethische Aspekte der technologischen Verbesserung des Menschen

Jens Maesse Die vielen Stimmen des Bologna-Prozesses Zur diskursiven Logik eines bildungspolitischen Programms

2010, 334 Seiten, kart., 31,80 €, ISBN 978-3-8376-1290-5

Petra Dickmann Biosecurity Biomedizinisches Wissen zwischen Sicherheit und Gefährdung 2011, 240 Seiten, kart., 29,80 €, ISBN 978-3-8376-1920-1

Gabriele Gramelsberger Computerexperimente Zum Wandel der Wissenschaft im Zeitalter des Computers 2010, 316 Seiten, kart., 29,80 €, ISBN 978-3-89942-986-2

Thomas Kailer Vermessung des Verbrechers Die Kriminalbiologische Untersuchung in Bayern, 1923-1945 2010, 440 Seiten, kart., 35,80 €, ISBN 978-3-8376-1614-9

2010, 286 Seiten, kart., 28,80 €, ISBN 978-3-8376-1322-3

Tanja Paulitz Mann und Maschine Eine genealogische Wissenssoziologie des Ingenieurs und der modernen Technikwissenschaften, 1850-1930 Mai 2012, ca. 410 Seiten, kart., ca. 34,80 €, ISBN 978-3-8376-1804-4

Sibylle Peters Der Vortrag als Performance 2011, 250 Seiten, kart., 29,80 €, ISBN 978-3-8376-1774-0

Myriam Spörri Reines und gemischtes Blut Zur Kulturgeschichte der Blutgruppenforschung, 1900-1933 August 2012, ca. 470 Seiten, kart., zahlr. Abb., ca. 36,80 €, ISBN 978-3-8376-1864-8

Birgit Stammberger Monster und Freaks Eine Wissensgeschichte außergewöhnlicher Körper im 19. Jahrhundert 2011, 344 Seiten, kart., 32,80 €, ISBN 978-3-8376-1607-1

Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de