127 34 4MB
German Pages 605 [606] Year 2011
Ökonomisierung der Wissensgesellschaft Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissensgesellschaft?
Herausgegeben von Ralf Diedrich Ullrich Heilemann
Duncker & Humblot · Berlin
Ökonomisierung der Wissensgesellschaft
Ökonomisierung der Wissensgesellschaft Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissensgesellschaft?
Herausgegeben von Ralf Diedrich Ullrich Heilemann
Duncker & Humblot · Berlin
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Alle Rechte, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Übersetzung, für sämtliche Beiträge vorbehalten © 2011 Duncker & Humblot GmbH, Berlin Fremddatenübernahme: Werksatz, Berlin Druck: Berliner Buchdruckerei Union GmbH, Berlin Printed in Germany ISBN 978-3-428-13306-2 (Print) ISBN 978-3-428-53306-0 (E-Book) ISBN 978-3-428-83306-1 (Print & E-Book) Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706
Internet: http://www.duncker-humblot.de
Vorwort Der Begriff „Wissensgesellschaft“ steht für einen von mehreren zeitgenössischen soziologischen Versuchen, die Gesellschaften des 21. Jahrhunderts, namentlich die hoch entwickelten Industriegesellschaften, zu charakterisieren. „Wissen“ wird zwar bereits von der Aufklärung, vor allem aber seit der Industriellen Revolution nicht nur als Quelle des Erkenntnisfortschritts, sondern vor allem als entscheidende Ressource und Grundlage ökonomischer und politischer Macht und bürokratischer Herrschaft gesehen. Der Begriff selbst ist indessen vergleichsweise jung. Er wird meist Peter Drucker zugeschrieben, aber auch die ökonomischen Stufentheoretiker der 1940er und 1950er Jahre, allen voran Colin Clark und Jean Fourastié, und die Soziologen C. Wright Mills und Daniel Bell dürfen Patenschaft beanspruchen. 1 Konzepte wie „Informationsgesellschaft“, „Kommunikationsgesellschaft“ oder „Wissenschaftsgesellschaft“ stellen wahlweise Ergänzungen oder Alternativen zur „Wissensgesellschaft“ dar. Wie bei grand theory unvermeidlich bietet das Konzept in seiner Allgemeinheit oder Offenheit zahlreiche Möglichkeiten für Präzisierungen und Abgrenzungen. Einigkeit dürfte darin bestehen, dass im Mittelpunkt Wissen steht, das sich vom Alltagswissen insofern unterscheidet, als es nicht Jedermann erlangen kann; Wissen, das als strategisch bedeutsame Ressource im wirtschaftlichen Wettbewerb und in der politischen Auseinandersetzung anzusehen ist. 2 Dazu gehören vorzugsweise wissenschaftliches und technisches Wissen oder, allgemein, Wissen, das Akteuren, die über dieses Wissen verfügen, erweiterte Gestaltungsmöglichkeiten und neue Möglichkeiten des Eingreifens in die Welt eröffnet. 3 Diese weit gefasste Eingrenzung deutet auf vielfältige Zusammenhänge zwischen den Teilbereichen der Wissensgesellschaft hin, wobei von reflexiven und wechselseitigen Bezügen auszugehen ist. Umfang und Intensität dieser Beziehungen sowie Reaktions-, Entwicklungs- und Verlaufsmuster, ob sie sich gleichförmig oder bruchhaft, unidirektional oder reversibel vollziehen, lassen sich vorläufig schwer abschätzen. Das theoretische Verständnis der Wissensgesellschaft ist offenbar noch bescheiden, was angesichts ihrer Komplexität und den alles in allem doch noch beschränkten Erfahrungen nicht überraschen darf. Vorsicht vor allzu schnellen Schlüssen und scheinbar nahe liegenden Erklärungen 1 2 3
Vgl. für eine Übersicht hierzu Stehr (1994), S. 5 ff. Vgl. Kübler (2009), S. 147. Vgl. Stehr (1994), S. 96 f.
VI
Vorwort
ist angezeigt – historizistische Beschränktheit ist ja geradezu ein Kennzeichen „stufentheoretischer“ Erklärungen und Prognosen. Zeitgenössische Diagnosen neigen nun einmal zu einer Überschätzung der aktuellen Erfahrungen und ignorieren leicht, wie auch die gegenwärtige Diskussion der Folgen der Wissensgesellschaft belegt, dass in der Vergangenheit regelmäßig economic und cultural turns zu beobachten waren – freilich vielleicht nicht in der Häufigkeit, wie wir sie gegenwärtig erleben. Wie vieles andere steht leider auch eine umfassende Darstellung quantitativer Aspekte der Wissensgesellschaft aus, die für eine Einführung in die anstehenden Fragen nützlich sein könnte. Schätzungen des Umfangs der Wissensgesellschaft, gemessen an der Anzahl ihrer Mitglieder, sind offenbar in hohem Maße davon abhängig, welche Institutionen und welche ihrer Angehörigen einbezogen werden. Folgt man der entsprechenden Abgrenzung der Amtlichen Statistik („Sekundäre Dienstleistungen“), so war bereits 1995 ein Anteil von 26 vH der Erwerbstätigen gemessen worden, bis 2010 wurde ein Anstieg auf 32 vH (in absoluten Zahlen rund 13 Mio. Erwerbstätige) prognostiziert. Die Expansion soll wesentlich zu Lasten der „Produktionsorientierten Tätigkeiten“ gehen, die sich von 31 vH auf 24 vH zurückbilden, während die „Primären Dienstleistungen“ noch leicht auf 44 vH zulegen. 4 Auf die Kategorien „Forschen, Entwickeln“ sollen dabei 2010 etw. 6 vH (1995: 5 vH), auf „Organisation, Management“ 8 vH (7 vH) und auf „Betreuen, Beraten, Lehren, Publizieren u.ä.“ 18 vH (15 vH) der Beschäftigten entfallen. Auch wenn detaillierte Prognosen gerade auf diesem Gebiet mit ungewöhnlich hoher Unsicherheit behaftet sind – die Wissensgesellschaft hat, gemessen an der Erwerbstätigkeit, die Dominanz der „Produktionsorientierten Tätigkeiten“ hinter sich gelassen und erscheint als „Hoffnungsträger für die zukünftige Beschäftigungsentwicklung“ 5. Bei allen Unsicherheiten, sowohl was die Annahmen als auch was das Verhalten, namentlich des Staates, also des Bundes und der Länder, angeht – mit Blick auf die Erfahrungen in den Nachbarländern sollte diesen Zahlen jedenfalls eine tendenzielle Richtigkeit nicht a priori abgesprochen werden. * Fest steht, dass die Wissensgesellschaft derzeit in außerordentlicher, vielleicht sogar in historisch einmaliger Weise von Einflüssen aus der Wirtschaftssphäre geprägt wird. Diese Entwicklung ist nicht auf einzelne Teile der Wissensgesellschaft beschränkt, sie durchzieht alle ihre Funktionen und Institutionen. Beispiele aus dem Hochschulbereich sind eine Studienreform, die die Berufsbefähigung 4 Vgl. dazu im Einzelnen Dostal / Reinberg (1999). Zu den Zahlen für die EU, bei denen Deutschland im Mittelfeld rangiert, siehe z. B. Brinkley / Lee (2007), die auch auf den hohen und vielfach kräftig steigenden Anteil im Verarbeitenden Gewerbe und im Dienstleistungsbereich hinweisen. 5 Vgl. Dostal / Reinberg (1999), S. 2.
Vorwort
VII
zum zentralen Ziel des Hochschulstudiums erhebt, die Vorstellung, Universitäten seien wie Aktiengesellschaften zu organisieren 6, oder die Einrichtung leistungsorientierter Systeme der Mittelvergabe und der Entlohnung in Forschung und Lehre. In der Regel werden die betreffenden Entscheidungen mit „ökonomischen Kriterien“ oder gar „ökonomischen Notwendigkeiten“ begründet, wobei der Bezug zu den Konzepten und Erkenntnissen der Wirtschaftswissenschaften, der Rechtswissenschaften oder der Arbeitswissenschaft – um nur einige Disziplinen zu nennen – in der Regel diffus bleibt, bisweilen fehlerhaft ist und manchmal – abgesehen von der Verwendung einschlägiger Vokabeln – ganz fehlt. Es fällt schwer, für eine solche Entwicklung eine passende Bezeichnung zu finden. Die Veranstalter der Konferenz haben sich für den Begriff der „Ökonomisierung“ entschieden, der zwar weit verbreitet, aber unscharf ist und insofern zu unterschiedlichen Assoziationen einlädt. Die Ursachen der angesprochenen Entwicklung sind vielfältig und in ihrem Zusammenwirken nicht leicht zu erschließen. Sicher spielen die seit den 1990er Jahren zunehmenden Fiskalprobleme der Öffentlichen Hand einerseits und die in langfristiger Perspektive dramatische Expansion der Wissensgesellschaft andererseits eine Rolle. Gab es im Deutschen Reich im Jahr 1900 noch 1 800 Professoren und 34 000 Studenten 7, so wurden für die Bundesrepublik im Jahre 2008 39 000 Professoren und 2 Mill. Studenten gezählt 8. Die Ausweitung der Wissensgesellschaft bei knapper werdenden Mitteln erzeugt notwendigerweise Rationalitätsdruck. Es überrascht daher nicht, dass sich die „Wissenschaft als Beruf“ in einem noch keineswegs abgeschlossenen Wandel befindet 9, der zunehmend der Ökonomisierung unterworfen ist. Dabei sind fraglos in großem Maße die positiven Erfahrungen leitend, die mit marktwirtschaftlichen Steuerungsinstrumenten, vorzugsweise der pretialen Lenkung, in der privaten Wirtschaft gemacht wurden. Der Gedanke, solche Instrumente auf die Funktionen und Institutionen der Wissensgesellschaft zu übertragen, ist in Zeiten knapper Mittel öffentlicher Kassen offensichtlich allzu verlockend. Mit wissenschaftlichen Erkenntnissen lässt sich vieles von dem, was in dieser Hinsicht implementiert worden ist, allerdings kaum in Einklang bringen. So ist z. B. seit langem bekannt, dass Anreizsysteme systematische Fehlsteuerungen erwarten lassen, wenn nicht ganz perfekte Leistungsmaße zur Verfügung stehen – genau dies ist bei komplexen und kognitiv anspruchsvollen Tätigkeiten aber selten der Fall. 10 Empirische 6 Vgl. dazu z. B. Schuler (2010), S. 138 ff.; kritisch die Beiträge von Drygala (2010) und Schefold (2010) in diesem Band. 7 Vgl. Rüegg (2004), S. 202. 8 Vgl. für Anzahl der Studenten: Statistisches Bundesamt; vgl. für Anzahl der Professoren: Ellwein, T. (1992): Die deutsche Universität. Vom Mittelalter bis zur Gegenwart. Frankfurt am Main 1992. 9 Vgl. dazu z. B. Gülker (2010) sowie Statistisches Bundesamt (2010b). 10 Vgl. dazu z. B. Feltham / Xie (1994).
VIII
Vorwort
und experimentelle Untersuchungen belegen, dass die durch Anreizsysteme bewirkte extrinsische Motivation die intrinsische Motivation von Leistungsträgern zu verdrängen droht. 11 Von Anreizsystemen für Hochschullehrer kann vor diesem Hintergrund eigentlich nur abgeraten werden 12, selbst wenn natürlich nicht in jedem Einzelfall von einer besonders ausgeprägten intrinsischen Motivation ausgegangen werden kann. Diese Erkenntnisse sind übrigens seit einiger Zeit auch in der Wirtschaft angekommen; viele Unternehmen haben aufgrund schmerzhafter Erfahrungen vom Einsatz entsprechender Instrumente Abstand genommen. Der Hinweis auf die Finanzkrise 2008 ff. ist in diesem Zusammenhang zwar naheliegend wohlfeil, darf aber dennoch nicht unterbleiben. Die skizzierten Entwicklungen treffen die Universitäten offensichtlich in besonderer Weise. Auch wenn das Konzept der Wissensgesellschaft Stellung und Bedeutung der Universität relativiert, so bleibt sie doch deren Kern. Vor allem hier trifft die Ökonomisierung auf Widerstand: Zweckfreiheit und Muße werden als Vorbedingungen wissenschaftlicher Tätigkeit angesehen, was – wie gesagt – ein hohes Maß an „subjektiver“ Rationalität keineswegs ausschließt. Das teilweise über Jahrhunderte gewachsene Selbstverständnis wissenschaftlicher Disziplinen und ihre spezifischen Wertesysteme scheinen durch das Vordringen neuer, gewissermaßen externer, nämlich ökonomischer Effizienzkriterien bedroht. Die ökonomischem Denken innewohnende Ausrichtung an der ZweckMittel-Rationalität verdrängt andere Rationalitätsverständnisse, die für sie bislang maßgebend waren. 13 Eine der Konsequenzen hieraus ist, dass die Forderung, Forschung und Lehre stärker als bislang an den Verwertungserfordernissen der Praxis zu orientieren, auf Widerstand stößt. Der Einwand, ökonomische Kriterien hätten bei der Entwicklung von Universitäten von jeher eine entscheidende Rolle gespielt, wird nur zum Teil akzeptiert. Zwar sei die wirtschaftliche Verwertbarkeit wissenschaftlicher Erkenntnisse und Kenntnisse im Zusammenhang mit dem neuerlichen Bedeutungsgewinn ökonomischer Interessen seitens des Staates in der Mitte des 19. Jahrhundert 14 wieder stärker in den Blickwinkel der Universitäten gerückt worden. Bei der Bewältigung dieser Aufgabe scheint „Effizienz“ aber allenfalls eine Nebenrolle gespielt zu haben, häufig reduziert auf die Frage der Höhe der Lehrverpflichtungen. 15 Anders heute, wo die Institutionen der Wissensgesellschaft eine zunehmende Spannung sehen zwischen dem Ökonomisierungsdruck, dem sie unterworfen sind oder dem sie sich unterwerfen,
11
Einen Überblick geben Frey / Jegen (2001). Vgl. dazu den Beitrag von Frey (2010) in diesem Band. 13 Vgl. dazu den Beitrag von Petzoldt (2010) in diesem Band. 14 Vgl. dazu z. B. für die Universität Leipzig Stieda (1909). 15 So finden sich z. B. in der Darstellung von Stieda (1909) zum tausendsten Semester der Universität Leipzig keinerlei Hinweise darauf, dass derlei Überlegungen eine Rolle gespielt oder gar ein Spannungsverhältnis gesehen wurde. 12
Vorwort
IX
einerseits und den Aufgaben, die sie nach eigenem Verständnis wahrzunehmen haben, andererseits. Diese Spannung wird keineswegs überall in gleicher Weise und Intensität empfunden – die Trennlinien laufen zwischen Hochschulen und Ministerien, zwischen einzelnen Hochschulgruppen, zwischen Hochschulleitungen und Fakultäten. Sie existieren auch zwischen und innerhalb von Fakultäten, zwischen Lehrenden und Lernenden wie auch innerhalb dieser Gruppen, die Liste ließe sich fortsetzen. Ob und inwiefern solche Spannungen im Vergleich mit der Situation vor 30, 20 oder zehn Jahren eine neue Qualität gewonnen haben oder z. B. lediglich freiwilliger innerer durch äußeren „Zwang“ ersetzt wird, muss hier dahingestellt bleiben. Ebenso die Frage, inwiefern es sich bei alledem um ein primär oder gar ausschließlich deutsches oder kontinentaleuropäisches Problem handelt. Es scheint, dass die angelsächsischen Länder die von den Kritikern und Gegnern der Ökonomisierung aufgezeigten Konflikte schon immer als weniger beachtlich angesehen oder sehr frühzeitig mehr oder weniger einverständlich gelöst hätten, z. B. über die stärkere „Selbstfinanzierung“ des Hochschulwesens. 16 * Am 3. Dezember 2009 feierte die Universität Leipzig das 600jährige Jubiläum ihrer Gründung. Als die wirtschaftswissenschaftliche Fakultät darüber nachzudenken begann, wie dieser Anlass angemessen gewürdigt werden könnte, bestand rasch Einverständnis darüber, dass eine interdisziplinäre wissenschaftliche Veranstaltung ausgerichtet werden sollte, in deren Mittelpunkt die skizzierten Entwicklungen, ihre Ursachen, vor allem aber ihre Auswirkungen und weiteren Konsequenzen stehen sollten. Nicht nur die Universität in Gestalt ihrer Forscher und Lehrer, auch Lernende, Wirtschaft und Politik müssten dabei zu Wort kommen und ihre Sicht der gegenwärtigen Situation und der zu erwartenden Entwicklung darlegen. Dass zu jedem einzelnen Problemkreis bereits eine Fülle von Literatur existiert und auch in der Öffentlichkeit eine breite Rezeption gefunden hatte, wurde nicht als nachteilig angesehen. Denn, erstens, weist die bisherige Diskussion auch derzeit noch immer eine Reihe überraschend großer Lücken auf. Zweitens, diese Diskussion ist unter dem Eindruck der Erfahrungen, z. B. mit der Etablierung der Bachelor- und Masterstudiengänge, im Fluss und gewinnt an Dynamik, wie allein schon an einer zunehmenden Zahl einschlägiger Veröffentlichungen abzulesen ist. An Gründen für die Aktualisierung der unterschiedlichen Positionen, für den Austausch von Erfahrungen und Einsichten, für die die Konferenz ein Forum bilden sollte, bestand also kein Mangel. Nicht zuletzt sollte es freilich auch darum gehen, ein Bild davon zu liefern, wie Mitglieder und Angehörige der Universität Leipzig die Dinge sehen – Vollständigkeit und Einheitlichkeit dieses Bildes waren dabei weder beabsichtigt noch zu erwarten. 16
Nichtsdestotrotz wird der Ausgangspunkt der Ökonomisierung in Großbritannien in der Kürzung der Universitätsmittel im Jahr 1982 gesehen.
X
Vorwort
Die vergangenen 600 Jahre Universitätsgeschichte in Leipzig scheinen auf den ersten Blick nur wenig zur Lösung der gegenwärtigen Probleme beizutragen, obwohl auch dies im Einzelnen zu klären wäre. Von den verschiedenen Erwartungen an die Universität schon seitens der fürstlichen Obrigkeit – Praxis und Theorie, Lehre und Forschung – war bereits die Rede, die Universität Leipzig stellte in dieser Hinsicht wohl keine Ausnahme dar. Die Erwartungen der sich im 19. Jahrhundert herausbildenden Industrie an die Universität und andere Institutionen der Wissensgesellschaft wurden in den bislang vorliegenden Darstellungen offenbar selten in den Blick genommen. Was die aktuellen Finanzierungsstrukturen angeht, so scheint sich der moderne demokratische Rechtsstaat ironischerweise wieder denen des vordemokratischen Staates zur Zeit der Industrialisierung zu nähern. 17 Lässt man die Zeit des Nationalsozialismus unberücksichtigt, ergaben sich massive Veränderungen für die Universität vor allem im Zuge ihrer Eingliederung in das Wissenschaftssystem der DDR einerseits und nach der Wende bzw. nach der Vereinigung der beiden deutschen Staaten andererseits. Eine Aufarbeitung der Erfahrungen, die in diesem Zusammenhang mit den jeweils verwendeten Steuerungsmechanismen gemacht worden sind, wäre in Bezug auf das hier untersuchte Thema von erheblichem Interesse, steht aber leider ebenfalls noch aus. Dies gilt auch für die jüngste Universitätsgeschichte, wenngleich deren Charakteristika in vielen Veröffentlichungen explizit oder implizit angesprochen werden: das enge finanzielle Korsett einer Universität in Ostdeutschland, die kaum 20 Jahre, die seit Wende und Vereinigung verstrichen sind, die Neugründung von Fakultäten, deren Personalbestand eben zum ersten Mal „umgeschlagen“ wird, das im allgemeinen noch wenig gekräftigte wirtschaftliche Umfeld usw. Das Thema der Konferenz wurde unter dem Vorsitz des damaligen Dekans der wirtschaftswissenschaftlichen Fakultät, Prof. Dr. Ralf Diedrich, bereits im Jahr 2007 mit Vertretern nahezu aller Fakultäten der Universität Leipzig diskutiert. Das Angebot, spezifische Erfahrungen und Erkenntnisse in das Projekt einzubringen, stieß auf große Resonanz, so dass ein interdisziplinärer Arbeitskreis eingerichtet werden konnte, der sich 2008 und 2009 in nahezu unveränderter Zusammensetzung mit konzeptionellen, inhaltlichen und organisatorischen Aspekten der Konferenz beschäftigte. Die von den Beteiligten als äußerst fruchtbar empfundenen Arbeitstreffen machten vor allem zweierlei deutlich: Erstens, dass die „Ökonomisierung der Wissensgesellschaft“ einen weit größeren Facettenreichtum aufweist als dies von dem Arbeitskreis zu Beginn gesehen worden war, und zweitens, dass dieser Prozess in den einzelnen Fakultäten auf sehr unterschiedliche Weise wahrgenommen und beurteilt wird. Es bedurfte etlicher 17 Im Jahre 1850 hatte der „Staatszuschuss“ zum Haushalt der Universität ca. 20 vH betragen und war bis 1908 sukzessive auf 60 vH gestiegen; vgl. Stieda (1909), S. 23 ff. Der Einfluss des Staates auf die Universität war allerdings stets beträchtlich, unabhängig von seinem finanziellen Beitrag.
Vorwort
XI
begrifflicher Klärungen, bevor sich die Beteiligten über die zu behandelnden Phänomene austauschen konnten – was ebensoviel über die Komplexität des Themas, die Diversität der Fächerkulturen sowie die unterschiedliche Betroffenheit wie über die Notwendigkeit eines interdisziplinären Dialogs sagt. Die Konferenz selbst wurde vom 3. bis zum 5. Dezember 2009 im neu gestalteten Hörsaalgebäude der Universität Leipzig durchgeführt. Es wurden ca. 400 Teilnehmer gezählt, die für teilweise sehr lebendige und konstruktive Diskussionen in den Einzelveranstaltungen sorgten. Der zeitliche Ablauf war nahezu identisch mit der Abfolge der Beiträge in der vorliegenden Schrift. Im Mittelpunkt standen insgesamt zehn Sektionen, in denen in jeweils drei Referaten Detailfragen der Ökonomisierung in Bezug auf Funktionen und Institutionen der Wissensgesellschaft behandelt wurden. Dieser Kern der Konferenz wurde eingerahmt von Grundsatzreferaten und Positionsvorträgen, in denen es um übergreifende Aspekte der angesprochenen Entwicklungen aus philosophischer, soziologischer und ökonomischer Sicht ging. Das Programm wurde durch drei Podiumsdiskussionen abgerundet, in denen zum einen die Ergebnisse der Einzelreferate rezipiert und in einen größeren Zusammenhang gestellt wurden, zum anderen aber auch weitergehende Aspekte angeschnitten und vor dem Auditorium behandelt wurden. Die Konferenz war das Werk vieler. Zu dem oben schon genannten Arbeitskreis zählten außer den Herausgebern dieser Schrift Prof. Dr. Klaus Bente, Prof. Dr. Günter Bentele, Prof. Dr. Tim Drygala, Prof. Dr. Wolfgang Hörner, Prof. Dr. Hans-Helmut König, Prof. Dr. Helge Löbler, Prof. Dr. Ulrich Johannes Schneider, Prof. Dr. Volker Schürmann und Prof. Dr. Alfred Richartz. Der Rektor der Universität Leipzig, Prof. Dr. Häuser, begleitete das Projekt mit Wohlwollen, die für die Organisation des Universitätsjubiläums zuständige „Geschäftsstelle 2009“, namentlich Frau Christina Barofke und Herr Dr. Günter Roski, leisteten engagierte Unterstützung. In organisatorischen Dingen wurden die Veranstalter, gleichzeitig die Herausgeber dieser Schrift, in den verschiedenen Phasen der Konferenzvorbereitung kompetent und tatkräftig von Herrn Dipl. Vw. Martin Wörner, Frau Dipl.-Kffr. Christiane Bruder, Frau M. A. Julia Wucherpfennig, Frau M. A. Carolin Stier und Frau Dipl.-Kffr. Sissy Ißleb unterstützt. Dass die Konferenz in der geplanten Form stattfinden konnte, ist freilich in erster Linie der großzügigen Unterstützung der BMW AG, namentlich Herrn Manfred Erlacher, Leiter des BMW Werks Leipzig, und seinem Vorgänger, Herrn Peter Claussen, zu verdanken. Ohne deren spontanes und uneingeschränktes Interesse an der Thematik hätte die Konferenz in der dokumentierten Form nicht zustande kommen können. Schließlich gilt der Dank allen Referenten, Moderatoren, Diskussionsleitern, Diskutanten und Teilnehmern. Konferenzen sind selten von unmittelbarer Wirkung. Viel wäre indes gewonnen, wenn der Blick für die vielfältigen Aspekte der „Ökonomisierung der Wissensgesellschaft“ geschärft und ein differenzierte-
XII
Vorwort
res Bild dieses Prozesses gewonnen werden konnte. Gleichgültig, wie man das Spannungsverhältnis „Wissensgesellschaft und Ökonomie“ bewertet – es sollte klar geworden sein, dass es zahlreiche Möglichkeiten zur Verbesserung gibt und dass es nicht nur die Politik, sondern auch die „Wissensgesellschaft“ selbst in der Hand hat, diese zu realisieren. Ralf Diedrich
Ullrich Heilemann
Literatur Brinkley, Ian / Lee, Neil (2007): The knowledge economy in Europe – A report prepared for the 2007 EU Spring Council, The work foundation. Dostal, Werner / Reinberg, Alexander (1999): Arbeitslandschaft 2010 – Teil 2: Ungebrochener Trend in die Wissensgesellschaft – Entwicklung der Tätigkeit und Qualifikationen, in: IAB Kurzbericht, 10/27. 8. 1999. Drygala, Tim (2010): Die Aktiengesellschaft als Regelungsvorbild der Universitätsverfassung. In diesem Band. Ellwein, T. (1992): Die deutsche Universität. Vom Mittelalter bis zur Gegenwart, Frankfurt am Main. Feltham, Gerald A. / Xie, Jim (1994): Performance Measure Congruity and Diversity in Multi-Task Principal / Agent Relations, in: The Accounting Review, 69, S. 429 – 453. Frey, Bruno S. (2010): Ökonomisierung der Wissensgesellschaft – pro. In diesem Band. Frey, Bruno S. / Jegen, Reto (2001): Motivation Crowding Theory, in: Journal of Economic Surveys, Vol. 15, S. 589 – 611. Gülker, Silke (2010): Arbeitsmarkt Wissenschaft – Strukturen und Trends, in: WSI Mitteilungen, 63. Jg., S. 227 – 233. Kübler, Hans-Dieter (2009): Mythos Wissensgesellschaft. Gesellschaftlicher Wandel zwischen Information, Medien und Wissen; eine Einführung, Wiesbaden. Petzoldt, Matthias (2010): Sinn geben und / oder Sinn finden? Zur Orientierungssuche in der Wissensgesellschaft. In diesem Band. Rüegg, Walter (2004): Geschichte der Universität in Europa. Band III: Vom 19. Jahrhundert zum zweiten Weltkrieg 1800 – 1945, München. Schefold, Bertram (2010): Ökonomisierung der Wissensgesellschaft – contra. In diesem Band. Schuler, Thomas (2010): Bertelsmann Republik Deutschland – Eine Stiftung macht Politik, Frankfurt / M. Statistisches Bundesamt (Hrsg.) (2010a): Fachserie 11 „Bildung und Kultur“, Reihe 4.1 „Studierende an Hochschulen“, Wiesbaden. Statistisches Bundesamt (Hrsg.) (2010b): Fachserie 11 „Bildung und Kultur“, Reihe 4.4 „Personal an Hochschulen“, Wiesbaden. Stehr, Nico (1994): Knowledge societies, London. Stieda, Wilhelm (1909): Die Universität Leipzig in ihrem tausendsten Semester, Leipzig.
Inhaltsverzeichnis Grußwort des Dekans der Wirtschaftswissenschaftlichen Fakultät (Prof. Johannes Ringel) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . XVII Grußwort des Oberbürgermeisters (Burkhard Jung) . . . . . . . . . . . . . . . . . . . . . . . . XVIII Grußwort des Leiters des BMW Werks Leipzig (Manfred Erlacher) . . . . . . . . . . . XXI Grußwort des Rektors (Prof. Dr. Franz Häuser) . . . . . . . . . . . . . . . . . . . . . . . . . . . XXIII Grußwort der Sächsischen Staatsministerin für Wissenschaft und Kunst (Prof. Dr. Dr. Sabine Freifrau von Schorlemer) . . . . . . . . . . . . . . . . . . . . . . . . . XXV Grundsatzreferat Jürgen Mittelstraß Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissensgesellschaft? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
Funktionen der Wissensgesellschaft Forschungsfinanzierung Frank Emmrich Möglichkeiten und Grenzen industriegesponserter Forschung in der Medizin .
19
Anja Landsmann, Annette G. Beck-Sickinger Forschungsfinanzierung in den Biowissenschaften. Das Beispiel Sachsen . . . .
29
Forschungsevaluation Richard Münch Verarmung des Wissens durch Evaluation? Effekte des Qualitätsmanagements in der Soziologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
47
Stefan Hornbostel Zur Problematik der Forschungsevaluation . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
XIV
Inhaltsverzeichnis Lehre
Wolfgang Nieke Wissenschaftsdidaktik zwischen Kompetenzaufbau und Bildungsauftrag für die Übernahme von Verantwortung in der Gesellschaft . . . . . . . . . . . . . . . . . . . . . .
85
Johannes Wildt „Forschendes Lernen“ als Hochform aktiven und kooperativen Lernens . . . . . .
93
Rolf Dubs Aspekte der Bildung eines allgemeinen Wirtschafts- und Gesellschaftsverständnisses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 Bildung Wolfgang Hörner Zur Kapitalisierung des Bildungsbegriffs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125 Alfred Richartz, Volker Schürmann Körperliche Bildung zwischen Aufklärung und Gegenaufklärung . . . . . . . . . . . 139 Andreas Poenitsch „Die Sprachen der Bildung“ – Chancen und Risiken semantischer Pluralität . . 167 Kultur und Sinngebung Marcelo da Veiga Spiritualität oder ökonomisches Kalkül – was brauchen moderne Unternehmen und Führungskräfte? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181 Matthias Petzoldt Sinn geben und / oder Sinn finden? Zur Orientierungssuche in der Wissensgesellschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 Götz E. Rehn Wirtschaft neu denken – das Alnatura Modell . . . . . . . . . . . . . . . . . . . . . . . . . . 211 Grundsatzreferat Cornelius Weiss Ökonomisierung der Wissensgesellschaft – eine Kette von Missverständnissen
221
Positionsvortrag Bruno S. Frey Ökonomisierung der Wissensgesellschaft – pro . . . . . . . . . . . . . . . . . . . . . . . . . 231
Inhaltsverzeichnis
XV
Positionsvortrag Bertram Schefold Ökonomisierung der Wissenschaft – contra Die Wissensgesellschaft zwischen Wissenswirtschaft und neuem Humanismus
245
Podiumsdiskussion: Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissenschaft? Ullrich Heilemann, Johannes Fried, Elisabeth Niggemann, Bertram Schefold Moderation: Werner Meißner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273
Institutionen der Wissensgesellschaft Universitäten und Forschungsinstitute Tim Drygala Die Aktiengesellschaft als Regelungsvorbild der Universitätsverfassung . . . . . . 291 Ullrich Heilemann Zur Industrialisierung der empirischen Wirtschaftsforschung: Das Beispiel der amerikanischen „model shops“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319 Schulen Manfred Weiß Der Beitrag der Bildungsökonomie zur Schulqualitätsforschung – eine kritische Würdigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 Klaus-Jürgen Tillmann Ökonomische Argumente in der Schulpädagogik – Kooperation oder Abgrenzung? 363 Matti Meri Pisa-Erfolg Finnlands aus der Perspektive der Lehrerbildung . . . . . . . . . . . . . . 379 Bibliotheken Christian Berger, Thomas Busch Der Zugang zu wissenschaftlicher Literatur in der Informationsgesellschaft – Lizenzgebühren oder „free flow of information“? . . . . . . . . . . . . . . . . . . . . . . . . . 391 Oliver Jungen Die Aporie der Universalbibliothek: Das Open-Access-Problem der Wissenschaftswelt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
XVI
Inhaltsverzeichnis Medien
Walter Hömberg Vom Wissen des Nichtwissens. Medien und Kommunikation in der „Wissensgesellschaft“ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 Wolfgang Seufert Das Mediensystem als Wissensportal der Gesellschaft – Eintritt nur für Zahlungskräftige? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439 Normen, Regeln, Instrumente Lars Klöhn Recht und Ökonomik – gestern, heute und morgen . . . . . . . . . . . . . . . . . . . . . . 455 Klaus Bente Quantifizierte Stromlinienform oder diversifizierte Qualität. Ein Beitrag – nicht nur – aus der Praxis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 469 Michael Daxner Der Einfluss der Ökonomisierung auf Werte und Normen im Non-Profit-Bereich 493 Podiumsdiskussion: Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissenschaft? Michael Daxner, Karen Horn, Hans Joachim Meyer, Bastian Lindert, Rudolf Steinberg Moderation: Günther Nonnenmacher . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 515 Positionsvortrag Grußwort des Rektors zum Positionsvortrag des Bundestagspräsidenten, Professor Dr. Lammert (Prof. Dr. Franz Häuser) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 537 Norbert Lammert Ökonomie und Gesellschaft . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 539 Podiumsdiskussion: Spitzensport zwischen Ökonomie und Moral Grit Hartmann, Thomas Kistner, Sören Mackeben, Rudhard Klaus Müller, Jochen Zinner Moderation: Peer Vorderwülbecke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 551
Grußwort des Dekans der Wirtschaftswissenschaftlichen Fakultät Von Prof. Johannes Ringel Sehr geehrte Damen und Herren, im Namen der Wirtschaftswissenschaftlichen Fakultät möchte ich Sie recht herzlich zur Tagung „Ökonomisierung der Wissensgesellschaft. Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissensgesellschaft?“ in Leipzig einladen. Die Organisation und Durchführung dieser Tagung ist der zentrale Beitrag der Wirtschaftswissenschaftlichen Fakultät zum 600-jährigen Jubiläum der Universität Leipzig. Die Veranstaltung wurde gemeinsam mit den anderen Fakultäten unserer Universität konzipiert und bietet die Möglichkeit zu einem intensiven Gedankenaustausch zwischen Vertretern verschiedenster Fachrichtungen. Sie erfüllt den interdisziplinären Anspruch unserer Bemühungen in Forschung und Lehre in besonderer Weise. Gedanklicher Ausgangspunkt ist die Beobachtung, dass ökonomische Kriterien in den vergangenen Jahrzehnten eine immer größere Bedeutung bei der Gestaltung der Wissensgesellschaft gespielt haben. Viele der eingetretenen Entwicklungen sind begrüßenswert, aber nicht alle. Welche Rolle ökonomische Betrachtungen zweckmäßigerweise spielen sollten, wurde aus grundlegender Sicht erst in Ansätzen diskutiert. Die Tagung soll uns hier einen Schritt weiter bringen. Renommierte Referenten aus dem In- und Ausland werden dazu die angeführte Entwicklung aus der Sicht unterschiedlicher Fachrichtungen beleuchten und ihre Zweckmäßigkeit analysieren. In parallel laufenden wissenschaftlichen Foren wird die Thematik mit Bezug auf konkrete Aspekte der Wissensgesellschaft diskutiert. Wir erwarten eine spannende und erkenntnisreiche Veranstaltung. Es wäre schön, Sie dazu begrüßen zu dürfen.
Grußwort des Oberbürgermeisters Wissen und Effizienz. Ökonomisierung der Wissensgesellschaft Von Burkhard Jung Sehr geehrte Frau Staatsministerin, Magnifizenz, sehr geehrter Herr Prof. Häuser, sehr geehrter Herr Prof. Ringel, ich bin gerne der Einladung der Universität und der Wirtschaftswissenschaftlichen Fakultät zu dieser wichtigen Tagung gefolgt, sehr geehrter Herr Prof. Mittelstraß, ich darf Sie, stellvertretend für die vielen auswärtigen Gäste dieser letzten großen Konferenz zum 600sten Jubiläum unserer Universität, herzlich in Leipzig willkommen heißen. Meine Damen und Herren! Am Anfang großer Entwicklungen stehen richtungsweisende Entscheidungen. Dem Wissen und der Bildung eine Heimat und geistige Gestalt zu geben: Diese große Idee lag der Geburt der Universität zu Grunde. Wer mit ihrer Geschichte vertraut ist, weiß: Die Fragen, die unsere heutige Tagung stellt, haben universitär stets eine gewichtige Rolle gespielt. Der Bogen reicht hier von Thomas von Aquins Reflexionen zu Geld und Zins in seiner „Summa theologica“ bis zu Max Webers „Protestantischer Ethik“. Stets haben die materiellen Bedingungen menschlicher Existenz den geistigen Haushalt der Universitäten mitbestimmt, um von den sehr konkreten Konflikten um Finanzen, Pfründe und Salär zu schweigen. All dies sind keine spezifisch modernen Probleme. Meine Damen und Herren, das Wissen als eine besondere, eine geistige Kraft, in seinen unterschiedlichen Kontexten zu untersuchen: Diese Entscheidung erscheint mir im Rückblick außerordentlich sinnvoll. Beschreibt sie doch nicht nur den Eigensinn geistiger Arbeit, sondern auch die Felder, zu denen sich die Universität am Beginn des 21. Jahrhunderts neu verorten muss. Dass das Universitätsjubiläum daher mit der expliziten Frage nach dem Verhältnis von Wissenschaft und Wirtschaft endet, ist kein Zufall. Es ist eine Bewegung
Grußworte
XIX
auf die gegenwartshistorischen Bedingungen zu, denen sich unsere Wissenschaften gegenübersehen. Hier tun sich die entscheidenden Veränderungen auf. Hier lauern aber auch die großen Risiken. Gestatten sie mir daher einige kurze Bemerkungen zu diesem Komplex. Wir begegnen uns heute in einem besonderen zeitgeschichtlichen Moment. Wir alle wissen – und die Wirtschaftswissenschaftler wissen es am besten: Seit dem Zusammenbruch der Lehmanns Bank im September 2008 ist unsere Welt eine andere geworden. Wir alle haben erfahren, was es heißt, in einer Welt zu leben, die durch zunehmende wirtschaftliche Verflechtungen geprägt ist. Die Experten streiten noch, ob der Aufschwung schon da ist oder das dicke Ende noch kommt. Wer kann diese Frage heute schon zweifelsfrei beantworten? Allemal bietet der aktuelle Moment die Möglichkeit, innezuhalten und kritisch zu prüfen: Was waren die Ursachen, was ist geschehen, was muss getan werden? Und hier müssen wir kritisch zu uns selbst sein. Mit dieser Krise hat nicht nur das Modell einer wunderbaren Geldvermehrung Schiffbruch erlitten. Es ist auch ein Denken gescheitert, dass den Börsenkursen mehr vertraute als den wirklichen Lebensverhältnissen der Menschen. Man hat die Bildung großer Vermögen zum letzten Sinn menschlichen Strebens erklärt. Zudem ist ein Denken gescheitert, dass dem demokratischen Staat mit Misstrauen begegnete, ja in ihm nicht selten die Quelle allen Übels sah. Es ist politisch lehrreich zu sehen, wie im Moment der Gefahr die Vertreter dieser Ideologie als Retter nun den diffamierten Gegner von gestern herbeirufen. Ohne Frage: Diese noch nicht überwundenen Krisenexzesse haben der Idee der Demokratie einen schweren Schaden zugefügt. Viele der Vorurteile, die nicht wenige in den neuen Bundesländern einer marktwirtschaftlichen Ordnung gegenüber haben, sind durch diese Praktiken nicht eben ausgeräumt worden. Wir werden in den nächsten Jahren auch diesem Vertrauensverlust begegnen müssen. Meine Damen und Herren, was heißt das für die „Ökonomisierung der Wissensgesellschaft“? Zunächst und vor allem: Das Verhältnis von Wirtschaft und Wissenschaft darf nicht das einer Einbahnstraße sein. Wer unsere Wissenschaften ausschließlich den Erwägungen des Marktes und betriebswirtschaftlicher Rationalität unterordnet, verkennt den eigentlichen Motor geistigen Fortschritts. Unsere Wissenschaften müssen unabhängig – von welchen Spezialinteressen auch immer – dem gesellschaftlichen Fortschritt verpflichtet bleiben. Und sie müssen ihren Eigensinn pflegen: Sie müssen ihre Antworten auf die Fragen unserer Zeit geben. Der Erfolg der Universität ist stets diesem Prinzip verpflichtet gewesen. Die Autonomie von Wissen und Geist versteht sich nicht von selbst. Sie ist von jeder wissenschaftlichen Generation neu zu bestimmen, vielleicht neu zu erkämpfen.
XX
Grußworte
Die heute eröffnete Tagung bietet der Universität die große Gelegenheit, ihre eigene – vielleicht muss man sagen: eigensinnige – Sicht der Dinge darzulegen. Denn das ist die große Frage des 21. Jahrhunderts: Wie muss das Haus des Menschen, der oikos, beschaffen sein, um unsere Erde auch im 21. Jahrhundert als bewohnbaren Ort lebenswert zu erhalten? Die Wissenschaften müssen stets von neuem die alte Frage Galileis aufgreifen: Wie können wir die Alltagsmühen der Menschen erleichtern und die Erde zu einem bewohnbaren Ort machen? Ich bin sicher: Die Notwendigkeit der Wissenschaften beweist sich in dieser Fähigkeit, Interpretationsschlüssel zum Verständnis unserer Gegenwart zu sein. Dass die Universität sich in dieser Anstrengung des rationalen Wissens der Wirtschaft bedienen muss, wer würde das bezweifeln? Dass aber auch Interesse, Rationalität und Kalkül der Wirtschaft kritisch zu befragen sind, daran sollte nach unseren jüngsten Krisenerfahrungen kein Zweifel bestehen.
Grußwort des Leiters des BMW Werks Leipzig Von Manfred Erlacher Sehr geehrte Damen und Herren, das BMW Werk Leipzig unterstützt als Hauptpartner den Kongress zur Ökonomisierung der Wissensgesellschaft. Damit sind wir schon mitten im Thema. Ist es richtig, ist es gut, wenn ein Unternehmen wie BMW als Sponsor für einen wissenschaftlichen Kongress auftritt? Was bedeutet das für die Freiheit der Wissenschaft? Und welche Motive bewegen die Wirtschaft zu einem solchen Engagement? Wissenschaft und Wirtschaft beeinflussen und bedingen sich gegenseitig. Wissenschaftliche Erkenntnisse und Forschungsergebnisse sind eine Triebfeder für Innovationen, für neue oder verbesserte Produkte und Dienstleistungen. Forschung und Wissenschaft tragen darüber hinaus ganz entscheidend bei zur Entwicklung unserer Gesellschaft. Der wissenschaftliche Diskurs ist wesentlich für die Auseinandersetzung mit den wichtigen Fragen unserer Zeit. Wissenschaft und Forschung sind damit eine wichtige Voraussetzung auch für das erfolgreiche Agieren von Wirtschaftsunternehmen. Unternehmen haben vielfältige Anforderungen und Erwartungen an Hochschulen und Forschungseinrichtungen. Das betrifft zum einen die Nachwuchssicherung bei den besonders qualifizierten Fach- und Führungskräften. Das besondere Interesse gilt dabei einer praxisgerechten Hochschulausbildung. Darüber hinaus müssen wissenschaftliche Einrichtungen und Unternehmen bei vielen Fachthemen direkt kooperieren, in gemeinsamen Projekten oder beim Transfer von Forschungsergebnissen in die Praxis. Bei alldem profitieren die Forschungseinrichtungen auch von den Erfahrungen aus der Praxis der Unternehmen – ein Geben und Nehmen zum beiderseitigen Vorteil. Wenn Unternehmen sich in der Forschung auch finanziell engagieren, leisten sie einen wichtigen Beitrag zur Sicherung und Weiterentwicklung der Wissenschaft. Ganz besonders in Deutschland mit seiner Jahrhunderte alten Wissenschaftstradition und einer nach wie vor herausragenden wissenschaftlichen Reputation ist dies unerlässlich. Dabei muss immer der Grundsatz der Freiheit der Wissenschaft gewahrt bleiben. Für die BMW Group ist dies selbstverständlich. Das BMW Werk Leipzig kommt mit der Unterstützung dieses wichtigen Kongres-
XXII
Grußworte
ses im Rahmen des 600-jährigen Jubiläums unserer Leipziger Universität sehr gerne seiner besonderen gesellschaftlichen Verpflichtung in Leipzig nach. Ich wünsche dem Kongress viel Erfolg.
Grußwort des Rektors Von Prof. Dr. Franz Häuser
Sehr geehrte Frau Staatsministerin von Schorlemer, liebe Kolleginnen und Kollegen, liebe Studierende, meine sehr verehrten Damen, meine Herren, im Namen der Universität Leipzig darf ich Sie sehr herzlich zu der heute beginnenden Tagung „Ökonomisierung der Wissensgesellschaft“ begrüßen, dem dritten Leitkongress im Programm des Jubiläumsjahres. Das Jahr 2009 ist für uns wahrlich ein ganz besonderes Jahr, erinnert die Universität Leipzig doch an ihre Gründung vor 600 Jahren. Diese lange Zeitspanne weist unsere Universität als die zweitälteste deutsche Universität aus, an der über die sechs Jahrhunderte hinweg ohne Unterbrechung gelehrt wurde. Aus diesem Anlass fand in den vergangenen Wochen und Monaten bereits eine Reihe wissenschaftlicher und kultureller Veranstaltungen statt. Die Leitkongresse nahmen ihren Auftakt bewusst mit dem Kongress „Wissen und Geist“; er analysierte nämlich die Institution Universität, und zwar in historischer, zeitgenössischer und zukünftiger Perspektive. Fortgesetzt wurde der Reigen mit dem zweiten Kongress „Wissen und Bildung“, der weitergreifend die nicht geringen Herausforderungen für Bildung und Erziehung im 21. Jahrhundert in den Vordergrund rückte. Und von heute an wollen wir uns, wie eingangs erwähnt, mit „Wissen und Effizienz, Ökonomisierung der Wissensgesellschaft: Wie viel Ökonomie braucht die Wissensgesellschaft und wie viel Ökonomie verträgt sie?“ befassen. Zu dieser Thematik werden sich Wissenschaftler verschiedener Disziplinen äußern. Die das Jubiläumsjahr zugleich abschließende Veranstaltung ist von der These geleitet, dass Wissenschaft und Wirtschaft im 21. Jahrhundert in enger Wechselwirkung miteinander stehen. Für eine Gesellschaft, in der das Generieren, Verarbeiten und Transferieren von Wissen einen immer höheren Stellenwert erlangt, ist eine kritische Auseinandersetzung mit den dabei zu diskutierenden Entwicklungen unerlässlich. Und als eine solche Entwicklung wird von den einen das ökonomische Denken als Erfolgsgarantie propagiert, während andere es mit Blick auf die Wissenschaft kritisch hinterfragen, weil es sich einseitig an dem Maßstab praktischer Effizienz
XXIV
Grußworte
orientiere. Die Universität als eine der zentralen und auch betroffenen Institutionen der Wissensgesellschaft sollte zu dieser vieldiskutierten Fragestellung einen wichtigen Beitrag leisten. Insofern wünsche ich der Tagung einen guten Verlauf und viele innovative sowie weiterführende Ergebnisse.
Grußwort der Sächsischen Staatsministerin für Wissenschaft und Kunst Von Prof. Dr. Dr. Sabine Freifrau von Schorlemer Magnifizenz, sehr geehrter Vizepräsident des Sächsischen Landtages Professor Schmalfuß, sehr geehrte Damen und Herren Abgeordnete, sehr geehrter Herr Oberbürgermeister Jung, sehr geehrter Herr Präsident Dr. Hasenpflug, sehr geehrter Herr Professor Weiss, sehr geehrter Herr Professor Löhr, sehr geehrter Herr Professor Milke, sehr geehrter Herr Jansen, sehr geehrter Herr Professor Ringel, meine sehr geehrten Damen und Herren, es ist mir eine besondere Freude, Sie als Staatsministerin für Wissenschaft und Kunst des Freistaates Sachsen zur Eröffnung des Kongresses „Ökonomisierung der Wissensgesellschaft“ hier in der Universität Leipzig begrüßen zu dürfen. Der Anlass für diese Veranstaltung ist das Jubiläum des 600-jährigen Bestehens der Alma Mater Lipsiensis, und ich will die Gelegenheit nutzen, um an dieser Stelle die herzlichen Glückwünsche der Sächsischen Staatsregierung zu übermitteln. Die Universität Leipzig nimmt einen herausragenden Platz in der Geschichte dieses Landes ein und sie ist das Herzstück der Kultur- und Wissenslandschaft, die zu gestalten unsere gemeinsame Aufgabe in den nächsten Jahren sein wird. Das Wissenschaftssystem – und mit ihm die Hochschulen und Forschungseinrichtungen – befindet sich in einem tiefgreifenden Wandel, sowohl im Hinblick auf die Finanzierung, die Rechtsform, als auch die Gestaltung der soziokulturellen Parameter.
XXVI
Grußworte
Dazu trug in den letzten beiden Dekaden nicht nur die Globalisierung der Wirtschaft gerade in forschungsintensiven Bereichen, sondern auch eine zunehmende Europäisierung von Innovationsfeldern bei. Wissenschaftspolitik von heute benötigt ein fundiertes Verständnis des stattfindenden Transformationsprozesses. Nie zuvor waren die Regelungsmechanismen derart komplex, oszillieren sie doch gegenwärtig zwischen „Hierarchien“, „Märkten“ und „Netzwerken“ sowie einer Kombination derselben. Eine „Ökonomisierung“ zeichnet sich bereits in einer veränderten Terminologie ab: Das sprachliche Repertoire der zeitgenössischen Hochschul- und Wissenschaftspolitik greift an vielen Stellen zu betriebs- und volkswirtschaftlichen Entlehnungen: Von „Humanressourcen“ und „Humankapital“ ist die Rede, was das Subjekt in den Hintergrund treten lässt und einer gewissen Verdinglichung Vorschub leistet (vom „Bildungssubjekt“ zum „Bildungsobjekt“?), von „Effizienz“, „strategischer Planung“ und „Controlling“, von „Kostenrechnung“ und „Mittelvergabe nach Leistungskriterien“. Und auch das Sächsische Hochschulgesetz, das seit dem 1. Januar 2009 in Kraft ist, lehnt sich an Strukturen der Wirtschaftswelt an, etwa in Bezug auf die Einsetzung von Hochschul„räten“, die den Aufsichts„räten“ der Finanz- und Wirtschaftswelt nachempfunden sind. Die Kongressverantwortlichen haben mit der konkreten Wahl des Themas „Ökonomisierung“ für die heutige Veranstaltung große Weitsicht bewiesen. Dies gilt auch in Bezug auf die sich aktuell manifestierende Unzufriedenheit der Studierenden: wie uns die studentischen Proteste zeigen, wird die Ökonomisierung des Studiums und der Studienbedingungen zunehmend als Problem gesehen. Mit Blick auf die sächsischen Studierenden ist allerdings zu erwidern, dass eine ihrer Grundsorgen – die Einführung von Studiengebühren – unberechtigt ist: Wir werden in Sachsen keine Studiengebühren einführen; lediglich im Falle eines Missbrauchs (also einer „deutlichen Überschreitung der Regelstudienzeit“) wird es eine Regelung geben, so sieht es der Koalitionsvertrag vor. Zugleich wird der Freistaat zusammen mit der Wirtschaft Stipendienprogramme für Studierende und Doktoranden entwickeln. Die Verbesserung der wirtschaftlichen Rahmenbedingungen für das Studium ist uns ein großes Anliegen. Die Staatsregierung stellt zum Ziel, bis 2010 insgesamt 10 % des BiP für Bildung und Forschung auszugeben, d. h. mehr Geld. Unübersehbar ist allerdings auch, dass die finanziellen Spielräume dafür merklich enger geworden sind. Einer gerade an 281 von 394 Hochschulen 1 in Deutschland von Ernest & 1
„Hochschulstudie 2009“; 73 % der Interviewpartner waren Kanzler / Kanzlerinnen bzw. Vizepräsidenten / Vizepräsidentinnen.
Grußworte
XXVII
Young insgesamt durchgeführten Umfrage zufolge haben die Hochschulen keine großen Erwartungen in eine steigende öffentliche Finanzierung: Sie wollen stattdessen durch Fundraising und eigenwirtschaftliche Betätigung zusätzliches Geld verdienen. 60 % der staatlichen Hochschulen wollen mehr Selbstverwaltungsrechte insbesondere im Personal und Organisationsbereich und in Finanzangelegenheiten. Der Koalitionsvertrag im Freistaat Sachsen setzt deutliche Akzente im Sinne einer transparenten, auf „Anreiz“ und Differenzierung gerichteten, „positiven“ Ökonomisierung. Dazu gehört: – die konsequente Einführung der Globalhaushalte: – die Leistungsbesoldung: Es ist beabsichtigt, die Bezahlung bzw. Besoldung von wissenschaftlichem Personal und Professoren an den Wettbewerb und individuelle Leistungen anzupassen; daher wirkt die Staatsregierung darauf hin, dass die Hochschulen langfristig eigene Tarifverträge für das Wissenschaftspersonal abschließen können und die Professorenbesoldung für leistungsrechte Vergütungen deutlich mehr Spielräume zulässt. Dazu gehört außerdem: – die Verbesserung der Voraussetzungen, damit Hochschulen sich stärker durch Dritte finanzieren lassen können. Und schließlich: – Der Freistaat unterstützt die Hochschulen und Forschungseinrichtungen, Existenzgründungen aus ihren Einrichtungen heraus gezielt und verstärkt zu befördern. Darüber hinausgehend ist nach den konkreten Wirkungen der bundesweiten Ökonomisierungstendenzen auf die künftige Performanz von Forschung und Lehre zu fragen. Und dies unter verschiedenen Aspekten: Erstens, mit Blick auf den Grad der Autonomie in den unterschiedlichen Wissenschaftsgebieten und die akademische Freiheit: Die einzelnen Wissenschaftsgebiete unterscheiden sich nicht nur in Bezug auf den Charakter der Forschungsprobleme und methodischen Standards, sondern auch in ihren Möglichkeiten, zur Lösung gesellschaftlicher Probleme beizutragen. Wir wissen andererseits: Die Ökonomisierung betrifft alle Gebiete. Sie stellt jedoch die Geisteswissenschaften vor andere Herausforderungen als etwa die Ingenieurswissenschaften. Der Umgang mit der Diversität der eigenständigen Fachkulturen und -disziplinen – eine große Ressource insbesondere der Universitäten – wird folglich zum Thema. Forschungsfreiheit ist ein Grundrecht, Hochschulbildung selbst, wir sollten uns dies immer wieder vergegenwärtigen, steht in einer unauflöslichen Beziehung zur Freiheit.
XXVIII
Grußworte
Wie es in Wilhelm von Humboldts im Jahr 1792 veröffentlichter Schrift „Ideen zu einem Versuch, die Grenzen der Wirksamkeit des Staats zu bestimmen“ heißt: „Der wahre Zweck des Menschen – (...) ist die höchste und proportionierlichste Bildung seiner Kräfte zu einem Ganzen. Zu dieser Bildung ist die Freiheit die erste und unerlässliche Bedingung.“
Zweitens mit Blick auf den Grad der Anwendungsorientierung: Im Lichte der zu beobachtenden weitreichenden Bestrebungen, die Forschung zunehmend an Kriterien der unmittelbaren gesellschaftlichen „Nützlichkeit“ auszurichten, wird die Sorge vor einer „Instrumentalisierung“ der Hochschulen laut. Unter Forschenden wird Unbehagen darüber geäußert, dass die Qualität der Forschung zunehmend am Erfolg in der Drittmittelbeschaffung gemessen wird. Der „Nutzen“ der Forschung aber darf nicht auf eine ökonomische Verwertung reduziert sein. Angesichts der exponentiell wachsenden Komplexität der Lebens- und Wissensverhältnisse benötigen wir freie Diskurse über das, was Wissenschaft im Zeitalter der modernen Technologie leisten kann. Wir benötigen Reflexionen über Werte und Weltbilder. Wir brauchen Orientierungswissen. Und es ist eben nicht davon auszugehen, dass diese Desiderate sich automatisch in der Wissenschaftspraxis / Ausbildung abbilden. Die Frage der Sinnhaftigkeit von Indikatoren zur Leistungsbemessung und Kriterien für wissenschaftliche Exzellenz: Qualitäts- und Leistungskriterien, Indikatoren und Benchmarks versprechen ökonomische Effizienz und mehr Wettbewerb. Die bisher geltende Grundannahme ist, dass „wissenschaftliche Existenz nur über ökonomisch rationales Handeln gesichert werden kann“, wie es MüllerBöling, der Leiter des Centrums für Hochschulentwicklung in seinem Konzept hochschulpolitischer Notwendigkeiten formulierte. Aber: Gibt es nicht Bildungs- und Forschungsbereiche, die wir von Wettbewerb und Wirtschaftlichkeitserwägungen lösen müssen? Gerade kleine oder auch hochspezialisierte Studiengänge sind von Unterfinanzierung bedroht, da sie kaum Geld von außen einwerben und deshalb unter ökonomischen Aspekten nicht „profitabel“ erscheinen. Woher aber nehmen wir die Gewissheit, dass nicht gerade die kleineren und thematisch „exotischen“ Lehrstühle diejenigen sind, die wir zur Bewältigung komplexer Zukunftsaufgaben im 21. Jahrhundert in besonderem Maße benötigen werden? Vergessen wir schließlich auch nicht die soziostrukturellen / die gesamtgesellschaftlichen Effekte, die eine Differenzierung in eine „Normal-“ und eine „Elite-“ („Exzellenz“-)Wissenschaft längerfristig mit sich bringt.
Grußworte
XXIX
Ich bin mir gewiss, dieser Kongress wird nicht nur die richtigen Fragen stellen, sondern auch die angemessenen Antworten geben. Meine Damen und Herren, für die Sächsische Staatsregierung ist klar: Hochschulen sind keine Unternehmen. Sie sind Einrichtungen der Gesellschaft, die für Kreativität, Fortschritt und Innovation stehen und dringend benötigte Fachkräfte ausbilden. Bildung – Hochschulbildung – ist keine „Ware“, und sie ist auch nicht auf ökonomische Verwertbarkeit zurechtzustutzen. Wollen wir nicht wieder zur Detailsteuerung der Hochschulen zurückkehren, muss allerdings akzeptiert werden, dass Parlamente und Ministerien Verfahren zur Rechenschaftslegung und Qualitätssicherung einfordern. Sie benötigen dies als Steuerungsinstrument. Zugleich stellen wir fest: das Rad der Ökonomisierung lässt sich nur mehr schwerlich zurückdrehen. Die Frage im Konferenzthema „Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissensgesellschaft“ möchte ich als Kunstministerin mit Wolfgang Amadeus Mozart beantworten: Kaiser Joseph II hatte sich nach der Uraufführung der Entführung aus dem Serail bei dem Komponisten beschwert: „Zu schön für unsere Ohren und gewaltig viele Noten, lieber Mozart“. Und Mozart soll geantwortet haben: „Grad so viele Noten, als nötig sind“. In Abwandlung dieses Zitats meine ich, dass die Wissensgesellschaft „grad so viel Ökonomie braucht und verträgt, als nötig ist“ ... (Aber auch nicht mehr!) Abschließend möchte ich Professor Johannes Ringel (Dekan der Wirtschaftswissenschaftlichen Fakultät) und Professor Ralf Diedrich (Professur für Betriebswirtschaftslehre, insb. Controlling und interne Unternehmensrechnung an der Universität Leipzig) sowie Prof. Ullrich Heilemann (Institut für Empirische Wirtschaftsforschung) herzlich für die Organisation dieses zukunftsweisenden Kongresses danken. Ich bin überzeugt, dass diese Veranstaltung ein würdiger Beitrag zur Geburtstagsfeier der zweitältesten deutschen Universität ist. Möge dies eine erfolgreiche Konferenz werden, deren Ergebnisse ihre Spuren auch in der Hochschul- und Wissenschaftspolitik hinterlassen! Vielen Dank.
Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissensgesellschaft? Von Jürgen Mittelstraß 1
I. Vorbemerkung Ein seltsamer Titel. Gewinnt nicht die Gesellschaft, die sich heute mit Vorliebe als Wissensgesellschaft bezeichnet, wenn sie ökonomisch auf festen Beinen steht? Und gewinnt nicht gleichzeitig die Ökonomie, wenn sie sich auf eine Wissensgesellschaft bezieht, das heißt auf eine Gesellschaft, die ihre Zwecke, also auch ihre ökonomischen Zwecke, auf ein sicheres Wissen stützt? Kann da noch die Frage sein, wie viel Ökonomie die Wissensgesellschaft braucht und wie viel Ökonomie sie verträgt? Und: Ist eine Wissensgesellschaft, eine schon wirkliche oder erst entstehende, nicht eine Gesellschaft, die erstens über einen klaren Wissensbegriff verfügt, die zweitens ihre Entwicklung und damit ihre Zukunft auf die Leistungsfähigkeit des wissenschaftlichen (und des technischen) Verstandes setzt, daher auch drittens im Wissen ihre wesentliche ökonomische Produktivkraft erkennt und im Übrigen viertens zwischen Verstand, als Ausdruck eines Verfügungswissens, und Vernunft, als Ausdruck eines Orientierungswissens, klug zu unterscheiden vermag? In Teilen wohl schon, vor allem dort, wo sich das Wissen mit dem Ökonomischen verbindet. Aber wie steht es mit den unterschiedlichen Rollen von Verstand, der, z. B. als wirtschaftender Verstand, alles beherrscht, und Vernunft, von der wir uns, auch im Wechselspiel von Wissen und Ökonomie, Orientierung versprechen? Offenbar kommt alles auf einen klaren Wissensbegriff an, in ökonomischen wie in nicht-ökonomischen Dingen. Wissen galt einmal als Inbegriff des Menschen als eines rationalen Wesens und als höchste Form menschlicher Arbeit. Darum lautet auch der berühmte Eingangssatz der Aristotelischen „Metaphysik“: „Alle Menschen streben von
1 Prof. Dr. Jürgen Mittelstraß war bis 2005 Ordinarius für Philosophie und Wissenschaftstheorie an der Universität Konstanz. Seit 2005 ist er Vorsitzender des Österreichischen Wissenschaftsrates. Der folgende Beitrag ist die erweiterte Fassung des Vortrags an der Universität Leipzig am 3. Dezember 2009. Der Vortragsstil wurde beibehalten, der Text um Literatur- und Quellenhinweise ergänzt.
2
Jürgen Mittelstraß
Natur aus nach Wissen“ 2, und darum bezeichnet Aristoteles in seiner Ethik Theoria, d. h. das Wissen in seiner theoretischen Form, als höchste Form der Praxis – nicht unerwähnt lassend, dass dies ein Ideal, kein Faktum und damit wirklich erreichbar, sei. Das Wissen wird hier zugleich mit einer Lebensform, auch einer individuellen Lebensform, identifiziert. Heute verschwindet das Wissen hinter seinen Übermittlungsformen, es wird, auch in Form von Lehr- und Lernprozessen, zunehmend subjektlos. Zugleich wird es mehr und mehr als ein Gut betrachtet, das sich den üblichen Marktformen anpasst. Eine Gesellschaft, die sich selbst als Wissensgesellschaft bezeichnet, hat das Wissen als eine handelsfähige Ware entdeckt und glaubt zudem noch eben darin über einen Wissensbegriff zu verfügen, der allen bisherigen Wissensbegriffen überlegen ist. Selbst die Universität argumentiert heute häufig, sei es gesellschaftlich getrieben oder aus freien Stücken, ökonomisch, wenn sie sich in ihren Wissensstrukturen beschreibt. Wie kommt es zu dieser merkwürdigen Vorstellung? Was ist passiert? Im Folgenden einige Beobachtungen und Überlegungen zu den Stichworten Wissen und Vergänglichkeit, Wissen als Ware und Wissenschaft und Universität wohin? 3
II. Wissen und Vergänglichkeit Es ist seltsam. Wo heute die Macht des Wissens und der Wissenschaft gepriesen wird, ist mit Vorliebe von der Vergänglichkeit des Wissens die Rede. Man spricht von seiner Halbwertszeit und davon, dass in immer kürzeren Zeiträumen zum Unwissen wird, was wir eben noch zu wissen meinten. Die Terminologie stammt aus den Lehrbüchern der Kerntechnologie und der Lebensmittelchemie. Neues Wissen schiebt in immer kürzeren Abständen das alte beiseite. Führt also alles Wissen ein Verfallsdatum mit sich? Kommt und geht das Wissen wie ein launiger Gott? Bewegt sich ausgerechnet eine Wissensgesellschaft auf schwankenden Wissensplanken? Hier ist Entwarnung angezeigt. In der Rhetorik von Halbwert und Verfall – gleichzeitig im Parallelmythos einer Verdoppelung des Wissens alle etwa fünf Jahre – macht sich viel Unsinn breit. Was einmal erkannt oder entdeckt ist, verliert – Irrtumsmöglichkeiten selbstverständlich immer in Rechnung gestellt – nicht ständig seine Wahrheit. Das gilt für mathematische Beweise ebenso wie für viele naturwissenschaftliche Erkenntnisse, und selbst von der einen oder anderen ökonomischen und philosophischen Einsicht. Unser Wissen nimmt zu, aber es ist nicht sterblicher geworden, als es in weniger wissensorientierten und wissenstollen Zeiten war. Mit anderen 2
Aristoteles, Met. A1.980a21. Vgl. zu diesen Stichworten die ausführlicheren Darstellungen in: Mittelstraß (2001), S. 33 – 67. 3
Wie viel Ökonomie verträgt die Wissensgesellschaft?
3
Worten: Wir sollten beim Preis des Wissens gelegentlich auch wieder an das Beständige denken, statt mit einer falschen Halbwerts- und Verfallsrhetorik seine (vermeintliche) Vergänglichkeit zu rühmen. Am Vergänglichen tragen wir schon schwer genug; erinnern wir uns gelegentlich des Bleibenden. Davon gibt es in der Wissenschaft und an anderen Orten des Wissens, gottlob, genug. Dass unser Wissen rasant zunimmt, ist natürlich schon für sich genommen ein großartiger Ausdruck erfolgreicher Wissenssuche. Welcher Teil unserer Welt sonst könnte auch auf derartige, offenbar zuverlässige Zuwachsraten verweisen? Allerdings will hier sehr genau beurteilt werden, von welchem Wissen wir dabei sprechen. Wir zählen nämlich möglicherweise sehr viel Überflüssiges, Unbedeutendes, Redundantes, nur die Publikationslisten der Wissenschaftler Verlängerndes mit. Nicht alles Rechnen hinter dem Komma macht eben Sinn, nicht alles, was man wissen kann, weil es unsere Instrumente zu registrieren vermögen oder unseren Sammeleifer befriedigt, ist sinnvolles Wissen, bringt uns in unserem Streben nach Einsicht und (relevantem) Wissen wirklich weiter. Da gibt es eben neben einem Informationsmüll, der unaufhaltsam wächst, auch etwas, das man als Wissensmüll, als Wissen ohne Belang, bezeichnen könnte. Also kommt es darauf an, sehr genau zwischen relevantem Wissen und seinen mehr oder weniger irrelevanten Ablegern und Seitenwegen zu unterscheiden. Eben dies scheint in einer Wissensgesellschaft, wie sie sich selbst sieht, nicht mehr zu geschehen. Das Wissen beginnt zu wuchern; es verliert seinen orientierenden Charakter. Und noch etwas geschieht. Das Wissen verliert seine begriffliche Schärfe. Es wird nicht nur von Mythen bedrängt, die es sich selbst schafft, sondern, gewissermaßen von der falschen Seite kommend, auch von einem Geschwister des Wissens, gemeint ist der Information. Tatsächlich verändern sich in der Wissenswelt, dem Komplement der Wissensgesellschaft, die Wissensstrukturen; Informationswelten treten an die Stelle von Wissenswelten und, in bedenklicher Verbindung mit ihnen, an die Stelle von Bildungswelten. Eine neue Pädagogik versucht uns einzureden, dass wir alle von Wissenszwergen zu Informationsriesen werden sollen. Das Wissen als leichte Ware und die Informationsgesellschaft, als die sich hier die Wissensgesellschaft zu erkennen gibt, als neues gesellschaftliches Glück? Hier gehen die Begriffe des Wissens und der Information durcheinander. Begriffliche Arbeit tut Not, und besonders Not tut hier die Arbeit am Begriff der Information. Information macht dem Wissen und der Gesellschaft Beine, aber sie ist damit noch nicht das bessere Wissen. Das gleiche gilt vom Begriff der Informationsgesellschaft, d. h. von einer Gesellschafts- und Wirtschaftsform, in der die Erzeugung, Speicherung, Verarbeitung, Vermittlung, Verbreitung und Nutzung von Informationen und Wissen in Informationsform, einschließlich immer größerer technischer Möglichkeiten der interaktiven Kommunikation, eine zunehmend dominante Rolle spielen. Die Informationswelt verspricht ein paradiesisches Reich
4
Jürgen Mittelstraß
des Wissens ohne mühsame Lernprozesse. Dabei wird aber, in der Symbiose von Bildschirm und Kopf, die Unterscheidung zwischen Wissen und Information blass. So sprechen wir häufig (und unbedacht) von Information, als sei diese schon das ganze Wissen, und übersehen dabei, dass Information nur die Art und Weise ist, wie sich Wissen transportabel macht, also eine Kommunikationsform, keine (selbständige) Wissensform. Es entsteht der irreführende Eindruck, dass sich das Wissen selbst in Informationsform bildet, dass, mit anderen Worten, mit dem Informationsbegriff ein neuer Wissensbegriff entstanden ist, und zwar, gegenüber älteren Wissensbegriffen, der einzig richtige. Das wiederum ist semantischer Unsinn. Richtig ist, dass die Information dem Wissen folgt; sie ist weder mit diesem identisch, noch geht sie ihm als eigene Wissensform voraus. Dass Information nicht gleich Wissen ist oder sich problemlos an dessen Stelle setzen kann, wird auch darin deutlich, dass nicht alles Wissen ist, was die Information, auch unter dem Signum des Wissens, transportiert. Ihre Ware ist vielmehr auch der Irrtum, das schlicht Falsche, das Oberflächliche und das Ungeprüfte, das Halbgare und das Verdorbene, sogar (immer häufiger) Täuschung und Lüge. Auch das Banale ist eben nicht fern, wenn das Virtuelle nah ist. Oder anders formuliert: Wir werden uns daran gewöhnen müssen, dass das Informationsnetz nicht nur der Wahrheit wegen geflochten wird. Außerdem treten in einer Informationswelt an die Stelle eigener Wissensbildungskompetenzen Verarbeitungskompetenzen und das Vertrauen darauf, dass die Information ‚stimmt‘. Was soll auch ein Skeptiker vor dem Bildschirm? Informationen muss man glauben, wenn man ihr Wissen, das über die Information transportierte Wissen, nicht selbst daraufhin prüfen kann, ob es wirklich Wissen ist. Eben diese Prüfung aber war bisher konstitutiv für den Begriff der Wissensbildung: Wissen kann man sich nur als Wissender aneignen, Wissen setzt den Wissenden voraus, Wissen heißt lehren können. Insofern kommt es aber auch darauf an, sehr genau zwischen einem Wissen, das seinen Sitz in einem selbst erworbenen, selbst Wissen produzierenden und sich methodisch und kritisch auf dieses Wissen beziehenden Sachverstand hat, und einem Wissen, das als mitgeteiltes einfach übernommen und weiterverarbeitet wird, zu unterscheiden. Der Nutzer oder Anwender des Mediums Information muss wissen, worauf er sich einlässt, nicht, indem er den modernen Informationstechnologien misstraut – dies hieße das Kind mit dem Bade ausschütten –, sondern indem er Informationen mit dem eigenen Wissen verbindet. Es sollte eben der richtige Kopf vor dem Bildschirm sitzen. Denn eine Logik des Scheins, die der Aufklärer Kant noch in den großen Systemen der Metaphysik am Werke sah, hat sich in einer Informationswelt in die Niederungen des menschlichen Fürwahrhaltens begeben und ist heute wohlfeil – in Form eines Netzes, das zwischen dem Bedeutenden und dem Unbedeutenden, dem Wahren und dem Falschen nicht zu unterscheiden vermag – allen zugänglich. Welch Paradies für Halbgebildete, Wissenshabenichtse und kleine Betrüger. Virtualität als große
Wie viel Ökonomie verträgt die Wissensgesellschaft?
5
Gleichmacherin von Sein und Schein, Wissen und Glauben, Tatsachen und NichtTatsachen, Wahrheit und Betrug? Wir werden auf der Hut sein müssen. Tatsächlich falsch und virtuell falsch ist dasselbe, tatsächlich falsch und virtuell wahr nicht. Es kommt noch etwas hinzu. Der modernen Welt, gleichgültig wie sie sich selbst (vereinfachend) benennt, stehen mit den neuen Informations- und Kommunikationstechnologien Unmengen von Informationen zur Verfügung, und gleichwohl wird diese Welt immer orientierungsschwächer. Das steht keineswegs im Widerspruch zueinander, insofern auch von Informationen erwartet werden darf, dass sie unter anderem der Orientierung dienen. Es ist eben gerade auch der Überfluss, der uns zu Verlierern macht. In den unendlichen Weiten der Information verliert der Suchende nur allzu oft alle Orientierung, und in den unendlichen Weiten transportierten Wissens geht nur allzu oft das schon Gewusste verloren. Indiz dafür ist z. B. der Aufwand, der heute mit Retrievaltechniken in großen Datenbanken getrieben wird. Dem Aneignen in seinen modernen, digitalen Formen steht offenbar das Vergessen näher als die Erinnerung. Deshalb muss diese auch immer wieder neu inszeniert werden. Die Flüchtigkeit der Information verdrängt die andauernde Gegenwart des Wissens, die Beschleunigung unserer Lebensformen jegliche stabilisierende Nachdenklichkeit. Nachdenklichkeit ist ein Geschwister des Beständigen. Nicht dass sie das Vergängliche aus dem Auge verliert; aber sie folgt, auch in Sachen Wissen und einer sich mit dem Wissen verbindenden Orientierung, nicht den hektischen Bewegungen des Zeitgeistes. Dabei ist es für die Nachdenklichkeit gegenüber einem Zeitgeist, der es liebt, sich in Informations- und Medienwelten zu spiegeln, schwieriger geworden, sich Geltung zu verschaffen. Oberflächliche Kulturen gedeihen auch auf hohem gesellschaftlichen Niveau. Der Analphabetismus hat viele Formen; er reicht von der Lese- und Schreibschwäche bis zur Denkschwäche, und wo das Denken aufhört, beginnt das Geschwätz, z. B. im Dauerreigen der Talkshows und der Modephilosophen. In unserer Gesellschaft nimmt eine exhibitionistische Geschwätzigkeit beunruhigend zu und ein ernstes Nachdenken ab. Die Zeit wird durch das Maß des Aktuellen, oft des Seichten, nicht durch das Maß des Beständigen und des Wesentlichen geteilt – als ob es darauf ankäme, die Dummheit statt den Verstand zu demokratisieren. Die hier getroffenen Unterscheidungen machen deutlich, dass auch die Beschwörung der Wissensgesellschaft als einer Informationsgesellschaft ins Leere geht, wenn mit ihr nicht nur eine informierte, sondern auch eine orientierte Gesellschaft gemeint sein sollte. Die Informationswelt ist keine Orientierungswelt, auch wenn in rationalen Kulturen jede Orientierungswelt (zunehmend) Elemente eines ‚Informationswissens‘ enthalten muss. Ist also die Wissenswelt, und mit ihr die Wissensgesellschaft, die gesuchte Orientierungswelt? Auch dagegen spricht heute manches, z. B. ein ökonomistischer Umgang mit dem Wissen, das schwierige Verhältnis zwischen Ökonomie und Wissen.
6
Jürgen Mittelstraß
III. Wissen als Ware Was hier in einer epistemischen Begrifflichkeit – Wissen und Information – zum Ausdruck gebracht wurde, lässt sich auch in einer ökonomischen Begrifflichkeit formulieren. Wissen, das ist heute nicht mehr Ausdruck der zu Beginn in Erinnerung gebrachten Aristotelischen Überzeugung, dass im Wissen die höchste Form menschlicher Arbeit liege und Wissen in diesem Sinne auch eine Lebensform, die Lebensform des Wissenden oder der sich im oder durch das Wissen Orientierenden, darstelle, sondern ein Gut, das sich den üblichen Marktformen anpasst, das nicht etwas ist, das die Welt, die moderne Welt, beherrscht, sondern etwas, das von dieser Welt bzw. ihren Marktformen beherrscht wird. Eigentümlicherweise versteht sich ja auch die Wissensgesellschaft in der Regel nicht in der Weise, dass hier eine Gesellschaft konsequent auf ihr wissenschaftliches, d. h. ihr epistemisches, Wesen setzt, sondern so, dass sie das Wissen als eine handelsfähige Ware entdeckt. Werden die gewohnten Geltungsansprüche und der prüfende Umgang mit ihnen durch wirtschaftlichen Erfolg und Börsennotierungen ersetzt? Wissen ist heute in der Tat für große Teile der Gesellschaft etwas geworden, mit dem man umgeht, das man nutzt, das man aber nicht selbst mehr betreibt. Das Zauberwort lautet Wissensmanagement. Wissen wird hier zu einem Sport, den man nicht mehr selbst ausübt, über den man aber alles zu wissen glaubt, zu einem Spiel wie dem Schachspiel, dessen Regeln man kennt, dessen große Spiele man vielleicht sogar nachzuspielen vermag, das man aber, weil man es nie als eigenes Spiel zu spielen gelernt hatte, gegen jeden Niemand verlieren würde. Mit anderen Worten, es droht eine ungewohnte Distanz einzutreten zwischen Wissen und Wissendem, zwischen dem, was das Wissen vorantreibt, Voraussetzung des Neuen ist, und dem, der das Wissen nutzt und managt. Wissen aber, das nur noch als Ware gesehen wird, die es zu erwerben, zu vermitteln, zu managen und zu nutzen gilt, verliert sein eigentliches Wesen, nämlich, anthropologisch verstanden, Ausdruck des epistemischen Wesens des Menschen zu sein, und wird zu einem Gut wie jedes andere auch. Die Wissensgesellschaft erweist sich damit in ihrer Selbstwahrnehmung und ihrem Selbstverständnis als Teil einer Dienstleistungsgesellschaft, in der alle Produktionsvorgänge wieder in reine Tauschvorgänge überzugehen scheinen. Jeder ist jedem in irgendeiner Weise zu Diensten, auch der Wissenschaftler, der sein Handwerk in erster Linie nicht mehr in der Produktion von Wissen, in der intelligenten Arbeit am Wissen, sondern als dessen Manager, Anbieter und Verkäufer versteht. Und in der Tat dürfte das unbegrenzte Operieren im Meer des Wissens interessanter geworden sein als der asketische Versuch, es an irgendeinem Punkt in diesem Meer mit viel Aufwand und unbestimmtem Ausgang um das eine oder andere Element zu vermehren. Wechselt der Entdecker von der erfahrenen Armut des Wissens in dessen aufdringlichen Reichtum? Entdeckung nicht als
Wie viel Ökonomie verträgt die Wissensgesellschaft?
7
Entdeckung des bis dahin Ungewussten, damit des eigentlich Neuen, sondern als Entdeckung des irgendwo schon Gewussten, also des alten Neuen? Vieles spricht dafür, dass das Wissen in unseren Köpfen sein Koordinatensystem zu wechseln beginnt, dass mit der Warenvorstellung des Wissens auch ein veränderter Umgang mit dem Wissen verbunden ist. Könnte auch das ein Grund dafür sein, dass in den Natur- und Ingenieurwissenschaften die Studierenden ausbleiben und in den informatikbezogenen und wirtschaftswissenschaftlichen Studiengängen die Hörsäle überlaufen? Wissen lässt sich nicht herstellen, wie man Kugellager oder Waschmittel herstellt. Eben diese Vorstellung aber scheint, ineins mit einem veränderten Umgang mit dem Wissen, mehr und mehr um sich zu greifen. Der Verwertungsdruck auf die Forschungseinrichtungen, unter ihnen die Universitäten, steigt; ein immer wieder angemahnter Wissenstransfer besagt, dass in der Wissenschaft die Dinge so weit vorzufertigen sind, dass sie die Wirtschaft wie Rohlinge in die weiterverarbeitende und wirtschaftende Hand nehmen kann. Alles andere scheint vergeudete Zeit und unnütz zu sein. Wo von Forschung in der Weise von Grundlagenforschung die Rede ist, denkt man nur noch an Elfenbeintürme. Die passen tatsächlich nicht mehr in die Architektur der modernen Welt, doch hat das mit dem besonderen Wesen der Wissenschaft auf der Suche nach dem Neuen und den besonderen Wegen, die sie dabei einzuschlagen hat, nichts zu tun. Wir stehen vor einem großen Missverständnis. Und wenn wir nicht achtgeben, schlägt ein unsicher und oberflächlich gewordener Umgang mit dem Wissen auf die Wissenschaft zurück. Vielleicht geht es uns in Wissenschafts- und Universitätsverhältnissen dann irgendwann auch wie in anderen ökonomischen Verhältnissen: Mit der aus ökonomischen Gründen erfolgten Privatisierung der Post wurden erst einmal fleißig Filialen geschlossen und verschwanden Briefkästen über Nacht. Telefonisch war die heimische Post nicht mehr erreichbar; offenbar wurden die Telefone knapp. Banken dachten einmal darüber nach, was sie für den Kunden noch tun konnten, heute umgekehrt darüber, was ihnen der Kunde abnehmen kann. Dafür werden stolz, wie auch im Dienstleistungsbereich der Post, gewaltige Gewinne verkündet. Wird man demnächst auch die Grundlagenforschung, die keinen unmittelbaren Gewinn verspricht, schließen? Das Ökonomische verselbständigt sich, es sucht den eigenen Erfolg, nicht den des Kunden oder der Gesellschaft. Der Wissensgesellschaft geraten in ökonomischen Dingen die elementaren gesellschaftlichen Bedürfnisse aus dem Auge. Eben das spüren heute auch Wissenschaft und Universität.
IV. Wissenschaft und Universität wohin? Kern einer Wissensgesellschaft, die diesen Namen verdient, ist die Wissenschaft, d. h. die Bildung von Wissen in Wissenschaftsform. Damit ist nicht gemeint, dass die Wissensgesellschaft in Wahrheit eine Wissenschaftsgesellschaft
8
Jürgen Mittelstraß
wäre oder sein müsste. Beides, Wissensgesellschaft und Wissenschaftsgesellschaft, ist nicht dasselbe. Eine Wissensgesellschaft benötigt zwar immer mehr Wissen, das durch Wissenschaft und Forschung gewonnen wird, aber die Wissenden in einer Wissensgesellschaft sind deshalb nicht gleich alle Wissenschaftler oder auf diese beschränkt. Das Medium Wissen, in dem sich die moderne Gesellschaft bewegt und immer intensiver bewegen wird, speist sich aus vielen Quellen. Wissenschaft und Forschung gehören zu diesen Quellen, aber auch der kluge Umgang mit dem wissenschaftlichen Wissen, ferner Urteilskraft, die sich auf Wissen und Erfahrung stützt und (nach Kant) zwischen Verstand und Vernunft im Sinne eines Orientierungswissens produktiv zu vermitteln vermag. Für die Universität als dem zentralen Ort der Bildung und Vermittlung wissenschaftlichen Wissens, damit auch als institutionellem Kern unseres Wissenschaftssystems, ändert sich vor dem Hintergrund dieser Entwicklung wenig. Man könnte sagen, dass die Universität im Kontext von Forschung und Lehre immer schon für eine Wissensgesellschaft ausgebildet hat. Das liegt nicht nur daran, dass sie ihrem Wesen nach eine Wissensgesellschaft im kleinen ist, sondern vor allem daran, dass sie eben dasjenige Wissen bildet und vermittelt, dessen moderne Gesellschaften, die sich in ihrem Wesen auch als technische Kulturen beschreiben lassen, unabdingbar bedürfen. Das wird ihr denn auch unter anderem – und fast paradoxerweise – dadurch bescheinigt, dass hinsichtlich einer universitären Ausbildung ständig Praxis- und Anwendungsorientierung angemahnt wird. Offenbar war und ist die Universität, im Lichte dieser Mahnung gesehen, zu sehr auf das Wissen – seine Bildung, Mehrung und Prüfung – bezogen und zu wenig auf eine Umsetzung des Wissens in praktische Fähig- und Fertigkeiten. Doch was braucht eine Wissensgesellschaft dringender als Wissen? Und wo liegen die Fundamente des Wissens, jedenfalls im Sinne eines Verfügungswissens, eines Wissens mit dem wir über die Welt verfügen, anders denn in der Wissenschaft? Und das heißt eben auch: in einer Ausbildung, die eng mit der Forschung, d. h. der Wissensbildung in Wissenschaftsform, verbunden bleibt. Die Frage ist nur, ob die Wissenschaft in Form der Universität dieser ihrer Aufgabe und entsprechenden Erwartungen unter den angeführten Bedingungen einer durchgehenden Ökonomisierung aller gesellschaftlicher Verhältnisse noch in der erforderlichen Weise zu entsprechen vermag. Das Ökonomische – das ist allgemein und im ursprünglichen Sinne von Ökonomie das Haushälterische. Wo nicht hausgehalten wird, gerät alles aus dem Gleis. Das gilt auch für ein Wissenschaftssystem, und in diesem System auch für die Universität. Insofern ist die Rede von Geld, Haushalt und Ökonomie auch für die Universität nichts Neues, vielmehr etwas sehr Vertrautes und bei allem, was sie tut, zu Berücksichtigendes. Eben dies – der vertraute Umgang mit haushälterischen Dingen – ist aber auch gar nicht gemeint, wenn heute von einer Ökonomisierung der Wissenschaft und der Bildung, speziell von einer Ökonomisierung der universitären Verhältnisse gesprochen wird. Hier geht es nicht so sehr
Wie viel Ökonomie verträgt die Wissensgesellschaft?
9
darum, die Universität an ihre haushälterischen Tugenden zu erinnern, sondern darum, alles, was die Universität tut und leistet, ökonomischen Gesichtspunkten, kurz: dem Ökonomischen, zu unterwerfen, also das Ökonomische zum obersten Maßstab der Universität – und der Wissenschaft und der Bildung allgemein – zu erklären. Wissen, Bildung und Ausbildung geraten auch hier zur Ware. Mit anderen Worten, und um sich hier nicht dem Vorwurf auszusetzen, blind oder naiv gegen alle erkennbaren Notwendigkeiten ökonomischen Handelns an irgendwelchen lebensfremden idealistischen Vorstellungen festzuhalten: Natürlich muss auch eine Universität, um die es im Folgenden im Kontext von Wissensgesellschaft und Wissenschaft gehen soll, wirtschaften, und natürlich gehört zu einer Universität, die ihre Autonomie betont, dass sie in ihren wirtschaftlichen Verhältnissen nach allen Regeln des wirtschaftenden Verstandes verfährt und nicht nur in Forschungs- und Lehrdingen, sondern auch in wirtschaftlichen Dingen nach innen wie nach außen stark ist. Und natürlich haben sich die Verhältnisse mit dem (oft ungesunden) großen universitären Wachstum, dem Werden vieler Universitäten zu (ein wenig abschätzig so bezeichneten) Massenuniversitäten, radikal verändert. Universitäten sind in ihren Organisationsstrukturen teilweise zu riesigen Betrieben geworden, ein Umstand, dem auch in wirtschaftlicher Hinsicht Rechnung getragen werden muss. Das alles aber ist nicht gemeint, wenn hier von einer Ökonomisierung, die auch Wissenschaft und Universität ergriffen hat, die Rede ist. Gemeint ist vielmehr ein Perspektivenwechsel, der für Wissenschaft und Universität und ihre Leistungsfähigkeit gefährlich ausfallen könnte. Wir haben, so scheint es, in der Universitätspolitik verlernt, von der Wissenschaft, von ihren wohlverstandenen Bedürfnissen und Erfordernissen her zu denken. Eben darauf aber kommt es an: zu erkennen, was Forschung und Lehre in ihrem wissenschaftlichen Wesen benötigen, um jenen Qualitätsanforderungen zu genügen, die schließlich und endlich auch die Gesellschaft an sie stellt. Stattdessen macht sich ein Denken aus ökonomischer Perspektive breit. Die Wissensgesellschaft, gewohnt, das Wissen vornehmlich unter Verwertungskategorien zu sehen, überträgt ihre Perspektive auf Wissenschaft und Universität. Stichwort: unternehmerische Universität (entrepreneurial university). 4 Auf den ersten Blick: warum eigentlich nicht? Schließlich ist der forschende und der erfindende Geist stets auch ein unternehmender Geist. Allerdings sollte sich dies auch an den wohlverstandenen Zwecken des forschenden (und lehrenden) Geistes orientieren, nicht an denen des ökonomischen Verstandes in dem wie auch immer motivierten Ehrgeiz, es der Wirtschaft gleichzutun. Dabei gehörte es immer schon zu den verschrobensten Ideen der neueren Universitätsgeschichte, den Universitäten generell zu empfehlen, von der Wirtschaft zu 4
Vgl. Leitch / Harrison / Gregson (2009).
10
Jürgen Mittelstraß
lernen. Angesichts derer Schwächen und Untugenden, von denen gerade wieder die erst halb durchstandene Finanz- und Wirtschaftskrise zeugt, und angesichts des Umstandes, dass auch in ruhigeren Zeiten Unternehmen von ihren Managern immer wieder an die Wand gefahren werden, dürfte hier wohl an der falschen Stelle nach einem Lehrmeister gesucht worden sein. Die Universität ist kein Unternehmen, und sie agiert auch nicht auf dem Markt. Dies aber scheint die eigentliche Absicht zu sein, die sich mit dem neuen Begriff der unternehmerischen Universität verbindet. Die Universität soll zu einem Unternehmen der üblichen Art werden; sie gerät unter ein ökonomisches Paradigma. Dieses entwickelt seine eigenen Präferenzen und seine eigenen Strukturen. Mit anderen Worten, auch die unternehmerische Universität hat zwar die erfolgreiche Universität im Blick, aber sie macht Nebenzwecke zu Hauptzwecken, stellt den wirtschaftlichen Erfolg, zumindest betriebswirtschaftliche Gesichtspunkte, über wissenschaftlichen Erfolg und wissenschaftliche Gesichtspunkte. Aus Zielen, nämlich denen, der Wissenschaft – und damit mittelbar der Gesellschaft – zu dienen, werden Voraussetzungen, insofern zu einer (im internationalen Wettbewerb) erfolgreichen Universität natürlich auch die Qualität von Forschung und Lehre gehört. Nur bildet diese hier nicht mehr den Kern des universitären Auftrags, sondern dient einem anderen Ziel oder Zweck, nämlich dem in betriebswirtschaftlichen Kategorien gemessenen Erfolg. Wer dafür ein Beispiel sucht, sei auf die neuere Universitätsentwicklung in Dänemark verwiesen. Hier wird derzeit ein Universitätssystem radikal auf wirtschaftlichen Erfolg umgestellt, bemächtigt sich der Staat der Ziele und Zwecke einer Universität und formt sie nach seinen Vorstellungen um. In diesem Prozess wird Innovation zum großen Zauberwort: Was immer schon, und völlig zu Recht, als wünschenswerte Konsequenz kreativer Wissenschaft erwartet wurde, nämlich die Übersetzung bzw. Umsetzung wissenschaftlicher Einsichten und Entdeckungen in gewünschte oder gesuchte Produkte, wird nun von der Universität selbst als Kern ihres forschenden Tuns erwartet. Das, was man gemeinhin als Grundlagenforschung bezeichnet, wird von vornherein unter Zwecke gestellt, die nicht ihre eigenen sind. Aus einem der Wissenschaft inhärenten Zweck wird ein Mittel (zu einem anderen Zweck); die Optik wechselt von der Forschung selbst auf deren Erträge. Nun sollte man sich auch hier vor allzu holzschnittartigen Unterscheidungen hüten. Derartige Unterscheidungen dienen der Klarheit im Grundsätzlichen, nicht schon der explanatorischen Gründlichkeit. Das gilt auch von der gewohnten und auch hier zunächst ebenfalls verwendeten Unterscheidung zwischen Grundlagenforschung – als Synonym für Forschung und Wissenschaftlichkeit im engeren Sinne verstanden – und angewandter, von Wirtschaft und Gesellschaft gesuchter und geschätzter Forschung, als sei dies eine Unterscheidung, die auf alle forschenden Verhältnisse passt und diese in allen Fällen trennscharf in zwei gegensätzliche Forschungstypen zerlegt.
Wie viel Ökonomie verträgt die Wissensgesellschaft?
11
Die gesellschaftliche Dynamik geht heute – das wissen wir alle – vor allem von der technologischen Entwicklung aus, z. B. in der Mikroelektronik, in der Informationstechnologie, in der Biotechnologie, in der Produktionstechnik und in der Materialforschung, die ihrerseits Voraussetzung für andere technologische Entwicklungen, z. B. die Solartechnologie, aber auch für zukünftige Fusionstechnologien ist. Dennoch wäre es falsch, die der modernen Welt in einer Wissensgesellschaft eingeborene Innovationsfähigkeit allein mit technologischen Entwicklungen zu identifizieren. Dabei würde nämlich übersehen, dass wir in vielen Fällen nicht nur bei den (technischen) Innovationen, sondern auch bei den (wissenschaftlichen) Grundlagen für (technische) Innovationen am Anfang stehen. Das gilt trotz aller bisheriger Erfolge von der Informatik ebenso wie von der Molekularbiologie, den Neurowissenschaften und selbst manchen Bereichen der Physik, die wie die Schwerionenforschung schon ausgereizt schienen. Das heißt, es geht hier nicht einfach nur um Anwendung von bereits vorhandenem Wissen, sondern auch um eine produktive Weiterführung der Forschung, die insofern immer am Anfang steht, im herkömmlichen Sinne Grundlagenforschung ist, aus der allein Innovationen im heute gängigen, in erster Linie auf Verwertungszusammenhänge gerichteten Sinne erwachsen können. Nur in dieser Forschungsform passiert das wirklich Neue, das nicht nur Seitenwege entdeckt, sondern Wissensschneisen ins Unbekannte legt, mit dem immer wieder eingelösten Versprechen, auf diese Weise, statt nur gewohnte und gesuchte Anwendungsformen fortzuschreiben, diese selbst mitzuerfinden, zumindest das Fundament für derartige Erfindungen zu legen. Nun ist Grundlagenforschung, wie schon angedeutet, ins Gerede gekommen. Der Königsweg zwischen Wissenschaft und Wirtschaft bzw. der Ausweg aus einer (wirklichen, vielleicht derzeit aber auch nur eingeredeten) Innovationskrise wird in der Forschung gesucht, aber, zumindest in Deutschland, nicht in der Grundlagenforschung. Dahinter steht wiederum ein Irrtum, den häufig die Wirtschaft mit der Wissenschaft selbst teilt, die Vorstellung nämlich, Forschung sei entweder Grundlagenforschung oder angewandte Forschung. Tatsächlich sind die Verhältnisse auch hier komplexer geworden, die alten Gleichungen Grundlagenforschung gleich Wissenschaft, angewandte Forschung gleich Wirtschaft gehen nicht mehr auf. Auch was sich heute als Grundlagenforschung bezeichnet, ist häufig anwendungsorientiert, und was als angewandte Forschung und selbst als Entwicklung bezeichnet wird, ist heute häufig grundlagenorientiert, z. B. wenn sie der Grundlagenforschung neue Nachweis- und Experimentiertechniken zur Verfügung stellt. Wir bewegen uns mit unseren Forschungen und unseren Innovationen längst in einem dynamischen Forschungsdreieck, gebildet – so ein terminologischer Vorschlag – aus reiner Grundlagenforschung, anwendungsorientierter Grundlagenforschung und produktorientierter Anwendungsforschung. 5 5
Vgl. Mittelstraß (1992), S. 60 – 66.
12
Jürgen Mittelstraß
Auf dieses Forschungsdreieck bzw. das durch dieses Dreieck beschriebene Forschungskontinuum müssen heute, um seine Leistungsfähigkeit, gerade auch seine wirtschaftliche Leistungsfähigkeit zu nutzen, die Forschungseinrichtungen, die Forschungsförderung und das Zusammenwirken aller an der Forschung Beteiligten ausgerichtet werden. Das geschieht zwar auch, aber in einer immer noch unzureichenden, gegenüber den bestehenden institutionellen Formen der Wissenschaft, auch der außeruniversitären Wissenschaft, viel zu unentschlossenen, in Wahrheit das Bestehende schützenden Weise. So leisten wir uns in Deutschland in der Forschung ein hochdifferenziertes System, das von der Universitätsforschung über die Max-Planck-Forschung und andere Forschungsteilsysteme bis zur Industrieforschung reicht, das darin seine ursprüngliche Stärke aufwies, aber heute in vieler Hinsicht in seinen Strukturen erstarrt ist. Wir haben zwischen den Wissenschaftsteilsystemen Zäune hochgezogen, statt zwischen ihnen wissenschaftliche Wanderwege einzurichten. Darum tut hier auch eine schonungslose Analyse not. Eine solche konsequenzenreiche Analyse haben wir vor einigen Jahren – auch das darf zum 20. Jahr der Wiedervereinigung gesagt werden – den Forschungseinrichtungen der neuen Länder zugemutet; wir sollten sie jetzt insgesamt jenem System zumuten, das sich vielleicht ein wenig voreilig als das allein selig-, vor allem aber reichmachende Forschungssystem anbot. Insofern hätten denn auch Schwierigkeiten ihr Gutes. Sie lassen die kognitiven und strukturellen Schwächen eines Systems erkennen und erhöhen den Druck auf seine Selbstheilungs- und Innovationsfähigkeiten. Wechsel der Perspektive? Gezeigt werden sollte, dass es eigentlich nur darum geht, Wissenschaft und Forschung an ihre inneren Gesetzmäßigkeiten und ihre unterschiedlichen Aufgaben zu erinnern, nicht darum, sie unter ein neues Paradigma, das ökonomische, zu zwingen. Zu diesen Aufgaben gehört auch, eine Wissensgesellschaft handlungs- und reaktionsfähig zu halten gegenüber Entwicklungen, die sie nicht in der Hand hat, z. B. gegenüber natürlichen Entwicklungen – die Natur experimentiert Tag und Nacht und dürfte auch noch manche böse Überraschungen für uns bereithalten (Stichwort: Aids) – und gegenüber Entwicklungen, die sie selbst verursacht oder zumindest mit verursacht hat (Stichworte: Klimawandel und demographische Entwicklung). Ein entsprechender Wissenschafts- und Forschungsimperativ müsste (eben auch aus anderen als ökonomischen Gründen) lauten: Lass Dich leiten von der Lust auf das Neue und dem Willen zu erkennen, was die Welt im Innersten zusammenhält, aber achte darauf, dass es kein minderes Ziel ist, die Welt mit dem, was Du forschend und entwickelnd tust, zusammenzuhalten! Und die Universität? Für sie gilt das gleiche, was hier allgemein von Wissenschaft und Forschung gesagt wurde, insofern sie in Forschung und Lehre institutioneller Ausdruck des wissenschaftlichen Wesens der modernen Gesellschaft ist. Hier würde ein voreiliger Ökonomismus, wie er sich im Begriff der unternehmerischen Universität, auf die ganze Universität, also auch auf For-
Wie viel Ökonomie verträgt die Wissensgesellschaft?
13
schung und Lehre bezogen, breitmacht, gerade verhindern, was er zu bezwecken sucht. Das gilt nicht, wenn er sich auf Leitungs- und Managementaufgaben beschränkt, nämlich hinsichtlich einer Universität, die, noch einmal, die überschaubaren Verhältnisse des 19. und beginnenden 20. Jahrhunderts längst hinter sich gelassen hat, Eigenschaften großer Betriebe angenommen hat und eben darin einer professionellen Leitung und eines professionellen Managements bedarf. Nur sollte, was in Leitungs- und Managementdingen gilt, nicht auch für die wissenschaftliche Arbeit, für Forschung und Lehre gelten. Hier würde die Universität nicht von wissenschaftlichen Prinzipien, von Prinzipien der Forschung und der Lehre her gesehen, sondern von betriebs- und marktwirtschaftlichen Prinzipien her. Was für Leitung und Management gilt, überzöge alles, was eine Universität ausmacht, zerstörte diese in ihrem Kern, der eben kein ökonomischer Kern ist. Das aber droht, wenn sich dem unter Leitungs- und Managementgesichtspunkten geltenden Modell einer unternehmerischen Universität alles, was eine Universität im bisherigen Sinne ausmacht, unterwürfe. Dann diente sie nicht mehr auf eine universale Weise der Wissenschaft und, mittelbar durch ihre Leistungen in Forschung und Lehre, der Gesellschaft, sondern unmittelbar partikularen wirtschaftlichen und gesellschaftlichen Interessen. Die aber scheren sich einen Teufel darum, wie Wissenschaft, wie Forschung und Lehre ihren eigenen Prinzipien und Gesetzen folgen, welchen Prinzipien und Gesetzen sich eine erfolgreiche Forschung, und welchen Prinzipien und Gesetzen sich ein erfolgreiches Lehren und Lernen verdankt, kurz: wie Wissenschaft in Forschung und Lehre ‚tickt‘. Das Neue, das sich auch die Gesellschaft, zumal eine Wissensgesellschaft, von der Wissenschaft erwartet, könnte sehr schnell ein sehr kurzatmiges und kurzlebiges Neues sein. Dass das keine unbegründeten Sorgen sind, machen heute Entwicklungen deutlich, die sich allesamt einer typisch ökonomischen oder ökonomistischen Perspektive verdanken. Ein Beispiel: Wer den Alltag einer Universität unter akademischen wie organisatorischen Gesichtspunkten kennt, trifft heute auffällig oft auf beratende, prüfende und kontrollierende Instanzen. Die sind nicht Teil der Universität, sondern kommen, meist ungebeten, von außen. Räte und Agenturen bevölkern die akademische Republik, und sie lassen die Universität häufig – und meist zu Unrecht – alt erscheinen. Dahinter steht, dass Beratung und Kontrolle in universitären oder allgemein Hochschuldingen heute zu einem eigenen Markt und zu einem erträglichen Geschäft geworden sind. Keine Universität scheint sich ihnen entziehen zu können. Dabei haben, recht besehen, die Universitäten meist wenig davon, im Gegenteil: sie werden unter den Trompetenklängen der Qualitätssicherung – auch ein Modebegriff unserer Tage – von einer Evaluierung in die andere getrieben und nach Maßstäben beurteilt, die, wenn man Glück hat, die wissenschaftliche Arbeit nicht stören, oder, wenn man Pech hat, von dieser ablenken. Beispiele sind die Erhebung der Drittmittel zum Universitätsgötzen und eine Netzwerkrhetorik, die die Forscher in immer größere, ihre eigentliche Arbeit eher behindernde als fördernde Verbünde treibt. Denn all das bedarf
14
Jürgen Mittelstraß
eines umfangreichen Managements, das zu Lasten der wissenschaftlichen Arbeit in Forschung und Lehre geht. Oder wiederum anders formuliert: Der beratende, der kontrollierende und der verwaltende Verstand sitzen Wissenschaft und Universität im Nacken und drohen ihnen die Luft zu nehmen, unterstützt vom politischen Verstand, der von Wissenschaft, wie sie ‚tickt‘, wenig versteht, sich aber ständig an neuen administrativen und institutionellen Einfällen berauscht. Die Kurzatmigkeit der Politik und der lange Atem, den die Wissenschaft auf dem Wege zum Neuen, auch dem für Wirtschaft und Gesellschaft Neuen, und den die Universität in ihrem forschenden und lehrenden Tun braucht, gehen einfach nicht zusammen. Das Ärgerlichste bei all dem aber ist, dass sich in dieser immer mächtiger werdenden, die Universitäten unter dem trügerischen Siegel der Qualitätssicherung peinigenden Beratungs- und Kontrollmaschinerie – die Marterwerkzeuge heißen Evaluierung, Akkreditierung, Zertifizierung, Rating und Ranking – allzu viele tummeln, die selbst niemals ernsthaft Wissenschaft betrieben haben, die darum auch von Forschung und forschungsnaher Lehre kaum etwas verstehen. Wer in der Wissenschaft nicht reüssiert, wird hier deren aufdringlicher Berater und Kontrolleur. Und die Zahl dieser selbsternannten Experten wird immer größer. Ist die Wissenschaft, ist die Universität selbst ratlos? Es wird Zeit, dass beide sich ihrer eigenen gestaltenden Kraft und Kompetenz in allen wissenschaftlichen und institutionellen Dingen besinnen. Dann kämen wohl all die Akkreditierungsund Beratungsinstitute, die im Übrigen viel Geld verbraten, das der Wissenschaft eigentlich auf andere Weise zukommen sollte, dazu, sich selbst einmal, vielleicht dann mit Hilfe von Wissenschaft und Universität, kritisch in Frage zu stellen. Zu befürchten ist nur, dass dies nicht mehr als ein frommer Wunsch ist, der im Donner von Rating und Ranking und in der keinen Einwand zulassenden Qualitätssicherungsrhetorik unerfüllt bleiben wird. Die Universität auf dem Wege zu einem Forschungs- und Lehrbetrieb, der nur noch den wechselnden Bedürfnissen und Interessen der gesellschaftlichen Praxis entspricht und sich selbst als rundum wirtschaftlichen Prinzipien folgende Dienstleistungseinrichtung versteht? Ein Zeichen dafür könnte auch sein, dass die Universität keine Idee und keine Theorie mehr hat, die diese Bezeichnung verdiente. Was das Werden zur Massenuniversität allein noch nicht schaffte, wird jetzt mit der Unterordnung unter ein ökonomistisches Paradigma und mit Bologna – nicht mit dem Geist von Bologna, aber mit seiner verordneten Wirklichkeit – allmählich vollendet: der Abschied der Universität von einer sie organisierenden Idee und Theorie aus dem Geiste der Wissenschaft. Denn welche Theorie könnte hinter der Bologna-Wirklichkeit der Universität stehen, die alle möglichen politischen und gesellschaftlichen Ziele – Mobilität, Gleichheit, Berufsnähe – hat, nur keine wissenschaftlichen? Und welche Theorie könnte hinter einer unternehmerischen Universität stehen, die ein wirtschaftliches Paradigma zum Leitbild der eigenen institutionellen Entwicklung nimmt? Administration
Wie viel Ökonomie verträgt die Wissensgesellschaft?
15
hier, Management dort – nach einer Idee oder einer Theorie der Universität sucht man vergebens. An die Stelle der älteren Humboldtschen Idee, die gelegentlich noch beschworen wird, und deren Realisierung im Rahmen einer idealistischen Bildungstheorie ist ein leerer Realismus getreten, der unter der Realität nichts versteht, das geformt sein will, sondern in ihr zu verschwinden sucht. Geforscht wird, wie andernorts auch, gelehrt und gelernt wird, als ginge es darum, mit der Schule zu konkurrieren. In der Universität, wie wir sie kennen, malt die moderne Welt, die sich doch so gern – wie die Gesellschaft, die sie bevölkert – als Wissenswelt bezeichnet, ihr Bildungsgrau in Grau. Dabei spiegelt sich in der Universität der intellektuelle Zustand einer Gesellschaft. Wie schlecht muss es um diesen bestellt sein, wenn das zuvor Gesagte stimmt. Doch damit sollten wir es nicht auf sich bewenden lassen. Wissenschaft und Gesellschaft, aber auch die Universität selbst, sollten sich vielmehr wieder auf das wissenschaftliche Wesen einer Universität und eine entsprechende Idee und Theorie besinnen, unter anderem dadurch, dass sie dem Idealismus, von dem die Universität gottlob immer noch reichlich hat, in der Weise wirkungsvoll unter die Arme greifen, dass sie ihre unausgegorenen administrativen und ökonomischen Vorstellungen, mit denen sie die Universität zu verändern suchen, vergessen, dass sie wieder lernen, von der Wissenschaft und ihren wohlverstandenen Bedürfnissen her zu denken, und im übrigen in der Universität für ein realistisches finanzielles Auskommen sorgen. Dass Idee und Theorie, auf alten oder neuen Wegen, wieder ihren Platz im universitären Selbstverständnis haben, ist dann allein Sache der Universität selbst. Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissensgesellschaft? Oder anders gesagt: Ist die Ökonomisierung der Wissenschaft und der Universität ökonomisch? Zweifellos, in den Grenzen des ökonomischen Denkens selbst, ja, aber (milde gesagt) unpassend, die eigentlichen Zwecke und die eigentliche Leistung der Wissenschaft und der Universität, gerade auch für die Zukunft einer Wissensgesellschaft, aus dem Auge verlierend. Und das wiederum wird sehr schnell zu Lasten des ökonomischen Denkens in einer Wissensgesellschaft gehen. Also doch nicht ökonomisch! Das aber ist Wahrheit und Hoffnung zugleich – auch, so möchte man wünschen, für die Universität Leipzig auf dem Wege in ihr siebtes Jahrhundert.
Literatur Leitch, Claire M. / Harrison, RichardT. / Gregson, Geoff (2009): The Entrepreneurial University, London. Mittelstraß, Jürgen (1992): Zukunft Forschung. Perspektiven der Hochschulforschung in einer Leonardo-Welt, in: ders.: Leonardo-Welt. Über Wissenschaft, Forschung und Verantwortung, Frankfurt / M., S. 47 – 73. Mittelstraß, Jürgen (2001): Wissen und Grenzen. Philosophische Studien, Frankfurt / M.
Funktionen der Wissensgesellschaft
Möglichkeiten und Grenzen industriegesponserter Forschung in der Medizin Von Frank Emmrich 1 Unter Forschung versteht man die methodenbasierte Suche nach neuen Erkenntnissen in allen Bereichen des Wissens. Wissenschaftliche Forschung schließt die systematische Dokumentation und Weitergabe des Wissens ein. Dies trifft auch auf die medizinische Forschung zu, deren Gegenstand Humanmedizin und Tiermedizin sind. Die medizinische Forschung umfasst die Lehre vom gesunden und kranken Organismus, die Kenntnis von speziellen Krankheitsursachen, den Mechanismen und Prozessen der Krankheitsentstehung (Pathogenese), den vielfältigen Verfahren zur Erkenntnis und Charakterisierung (Diagnostik) sowie der Behandlung und Heilung (Therapie) und darüber hinaus auch der Vorbeugung (Prävention) von Krankheiten. Besondere Trends kennzeichnen die gegenwärtige Entwicklung. Die molekulare Biologie erlaubt, einen präzisen Einblick in die Krankheitsentwicklung zu nehmen. Sie ermöglicht auch, die Ansprechbarkeit für bestimmte Therapien individuell zu bestimmen und eröffnet damit ein neues Gebiet, die personalisierte Medizin und die Möglichkeit maßgeschneiderter Therapien. Daneben gelingt es immer besser, Krankheitsprozesse, aber auch Regenerationsprozesse zu modellieren, eine Voraussetzung für neue Behandlungsansätze. Allen Trends ist gemeinsam: Ihnen zu folgen, ist sehr teuer. Unabhängig vom Forschungsgegenstand, aber natürlich auch im vollen Umfang gültig für die Medizinforschung, können wir uns dem Phänomen Forschung auch kategorisch über eine Betrachtung der Motive annähern, von denen Forscher bewegt werden. Mittelbar ergeben sich daraus unterschiedliche allgemeine Zielrichtungen. Generell unterscheidet man Grundlagenforschung von angewandter Forschung. Grundlagenforschung hat ausschließlich den Erkenntnisgewinn zum Ziel. Die Verwertung dieser Erkenntnisse ist nicht ihr Gegenstand, 1 Prof. Dr. Frank Emmrich ist Direktor des Instituts für Klinische Immunologie der Universität Leipzig. Der folgende Beitrag ist die erweiterte Fassung des Vortrags an der Universität Leipzig am 3. Dezember 2009. Der Vortragsstil wurde beibehalten, der Text um Literatur- und Quellenhinweise ergänzt.
20
Frank Emmrich
in diesem Sinne ist sie zweckfrei. Im Gegensatz hierzu ist die angewandte Forschung auf einen Zweck ausgerichtet. Ihr liegt zwar ebenfalls das Streben nach Erkenntnisgewinn zu Grunde. Sie lenkt aber den Erkenntnisgewinn auf ein konkretes Ziel. Dieses Ziel muss nicht notwendigerweise ein wirtschaftliches sein, sondern die wesentliche Bestimmungsgröße ist das Motiv der Problemlösung – oft mit der Konsequenz einer Verfahrens- oder Produktentwicklung. Grundlagenforschung galt und gilt vielen als die reinere, vielleicht sogar höherwertigere Forschung mit grundsätzlicher Bedeutung, wobei unausgesprochen der Verdacht im Hintergrund mitschwingt, dass die wissenschaftliche Objektivität als methodischer Grundpfeiler bei einer Zweckorientierung auf verschiedene Weise Schaden erleiden könnte. Andere betonen den direkt messbaren Nutzen der angewandten Forschung für den Fortschritt der Gesellschaft als höher- oder zumindest gleichwertig. In neuerer Zeit werden vielfältige Versuche unternommen – und die Politik ist dabei maßgeblich beteiligt – Brücken über das Tal zu bauen, das Grundlagenforschung und angewandte Forschung trennt. Als Beispiel sei daran erinnert, dass die technischen Voraussetzungen für bestimmte Teilbereiche der modernen Teilchenphysik kaum aus öffentlichen Quellen finanzierbar wären, wenn dahinter nicht die Zielorientierung auf einen Fusionsreaktor stünde. Gerade die modernen bürgerlichen Demokratien verlangen zunehmend Mitsprache bei der Allokation öffentlicher Forschungsmittel und damit auch Einfluss auf die Zielorientierung. Es ist nach meiner Auffassung eine der wichtigsten, aber auch am schwierigsten zu bewältigenden Herausforderungen für die moderne Wissenschaft und ihre wesentliche Organisationsform – die Universität –, hier nicht sprachlos zu verharren, sondern erklärend und begründend an der Zielorientierung translationaler Forschung aktiv mitzuwirken und die Wünsche und Hoffnungen von Gesellschaft und Politik mit den Maßstäben und Ansprüchen hervorragender Forschung in Übereinstimmung zu bringen, die zweifellos Grundlagen und Anwendung zu einer Synthese zusammenführen muss. Ohne angewandte Forschung kein gesellschaftlicher Fortschritt, aber ohne Grundlagenforschung keine Werkzeuge und Bausteine für die Anwender! Sinnbild für die Synthese ist ein neuer Terminus: Translationale Forschung. Dies meint, wenn Sie man so will, eine Priorisierung oder Strukturierung der Grundlagenforschung im Hinblick auf konkrete Ziele. Zielorientierte Grundlagenforschung wird also zum Bindeglied zwischen den beiden klassischen Kategorien. Medizinforschung ist zum ganz überwiegenden Teil translationale oder angewandte Forschung, wenn auch in bestimmten Gebieten, wie z. B. der Anatomie, auch dem reinen Erkenntnisgewinn Raum gegeben wird. Kommen wir jetzt zum eigentlichen Thema dieses Beitrags – der Forschungsfinanzierung in der Medizin. Im Groben lässt sich natürlich feststellen, dass Grundlagenforschung vorwiegend aus öffentlichen Quellen finanziert wird, während die anderen Kategorien zunehmend von der privaten Wirtschaft getragen
Möglichkeiten industriegesponserter Forschung in der Medizin
21
werden. Aber es gibt keineswegs Ausschließlichkeit. Grundlagenforschung kann über Industrie- und Privatstiftungen finanziert werden. Im Gegenzug wird auch die Entwicklung von Verfahren und Produkten unter bestimmten Umständen öffentlich finanziert. Mehr als ein Viertel aller Forschungsaufwendungen in der Schweiz betreffen den Bereich Medizin und Life Sciences. In Deutschland belief sich der in den letzten Jahren in den Bereich regulierte präklinische / klinische Forschung / Entwicklung investierte Betrag auf ca. 6 Mrd. Euro p. a. Das sind etwa 10 % der gesamten Forschungsaufwendungen hierzulande. Betrachten wir den Anteil, den dabei öffentliche Gelder im Vergleich zur Privatwirtschaft haben, so beziehe ich mich auf statistische Angaben aus der Schweiz, die verfügbar sind. Dort liegt der Anteil der öffentlichen Gelder bei den Medizinwissenschaften bei etwa 10 %, bei der Technologieforschung bei etwa 12 %, bei den Naturwissenschaften bei 30 %. Sehr schwierig ist es herauszufinden, wie dabei verschiedene Fachgebiete der Medizin beteiligt sind. Zumal sich dies quantitativ statistisch kaum erfassen lässt, aber in Umrissen zumindest durch einen Blick auf das Engagement in bestimmten Bereichen deutlich wird. Pflege, Gerontologie, Pharmakologie, Pädiatrie, Chirurgie, Reproduktionsmedizin und Präventionsfragen werden sehr viel seltener vom Fokus von Förderorganisationen berührt, während Herz-Kreislaufkrankheiten, Neurowissenschaften, Transplantationsmedizin, Immunologie und Infektiologie, Mikrobiologie, Endokrinologie, Zellbiologie und Genomforschung, Molekularbiologie, Atemwegserkrankungen und Biotechnologie sehr viel häufiger Ansprache durch die Förderorganisationen erfahren. Werfen wir einen kurzen Blick auf die Finanzierungsquellen der Medizinforschung in Deutschland. Dies sind zum einen öffentliche Förderprogramme von EU, Bund und Ländern, sowie Forschungsaufträge durch Unternehmen. Private Förderprogramme und Ausschreibungen von nationalen und internationalen Stiftungen sind entweder dem öffentlichen oder dem privaten Sektor zuzuordnen. Es gibt darüber hinaus Mischformen der sogenannten Private Public Partnership, bei denen im Allgemeinen aus öffentlichen und privaten Quellen Finanzierungsanteile für ein gemeinsames Forschungsprogramm oder eine gemeinsame Ausschreibung gesammelt werden und natürlich die Möglichkeit, Spenden zu verwenden. Kommen wir auf die Schweizer Statistik zurück. Wie bereits erwähnt, kommt dort der öffentliche staatliche Sektor bei der Finanzierung der Medizinforschung insgesamt auf einen Anteil von ca. 10%. Gemeinnützige Organisationen und Stiftungen tragen dazu nur zu unter 1% bei, sodass im Wesentlichen die öffentliche Finanzierung von staatlichen Fördermittelgebern kommt. Ebenso stellt sich auch die Situation in Deutschland dar. Das Bild bleibt lückenhaft, wenn wir nicht auf die Verteilung der Mittel aufgrund der methodisch bedingten sehr unterschiedlichen Kosten eingehen. So
22
Frank Emmrich
bezieht sich der Löwenanteil der 6 Mrd. Euro an Aufwendungen für Medizinforschung wie schon angesprochen auf die regulierte präklinische und klinische Forschung, d. h. im Wesentlichen auf die Finanzierung klinischer Studien, während die experimentelle Forschung im Labor und die tierexperimentellen Grundlagenarbeiten wenig über 10% dieser Summe liegen. Die Kosten für nichtexperimentell tätige Fachgebiete betragen wiederum nur einen geringen Anteil hiervon (ebenfalls ca. 10%). Was haben wir unter der regulierten präklinischen und klinischen Forschung zu verstehen? Sie umfasst viele voneinander abhängige Entwicklungsetappen sowie als Meilensteine eine große Zahl von Prüfungen und Zertifikaten, die zu erwerben sind. Die präklinische Forschung mündet in einen Herstellungsprozess für das Therapeutikum unabhängig davon, ob es sich um ein Medikament oder auch um ein zelluläres Produkt handelt. Dieser Herstellungsprozess muss im Einzelnen in Vorschriften – so genannten Standard Operation Procedures – festgelegt werden. Den Behörden müssen Probeläufe demonstriert werden und als Endergebnis erfolgt eine behördliche Herstellungsgenehmigung. Ferner muss die Verträglichkeit in einer Vielzahl von ebenfalls regulierten Testverfahren laborexperimentell im Bereich von Kleintier- und Großtiermodellen untersucht und ebenfalls standardisiert aufgeführt und protokolliert werden. Alle diese Ergebnisse werden für die Behörden in einem Investigatorenhandbuch zusammengefasst und bilden die Grundlage für die Durchführung von klinischen Studien, die in einer Stufenfolge aufeinander aufbauen. In der Studienphase I wird die Arzneimittelsicherheit geprüft, in der Phase II die Wirksamkeit, in der Phase III erfolgt eine umfassende Wirksamkeits- und Nebenwirkungskontrolle. Meistens sind diese Studien multizentrisch und multinational und umfassen zumeist mehr als 1.000 Patienten. Sie sind die Voraussetzung für die Erteilung einer Zulassung, wobei diese Zulassung für neue Medikamente heute im Allgemeinen eine europäische Zulassung durch die European Medicines Agency (EMA) ist. Darüber hinaus erfolgen nach dem Markteintritt Beobachtungen zur Anwendung, um weitere seltene Nebenwirkungen aufzuklären. Die Aufwendungen für klinische Studien in Europa hatten 2008 ein Gesamtvolumen von über 20 Mrd. Euro mit jährlichen Steigungsraten von 10 % in den letzten Jahren. Am häufigsten wurden diese klinischen Studien in Großbritannien, Deutschland und der Schweiz durchgeführt mit einer sehr ähnlichen Verteilung der verschiedenen Wirkstoffgruppen, die sich in den verschiedenen Phasen der klinischen Prüfung befinden. Vielfach taucht in der Betrachtung klinischer Studien der Begriff „Sponsor“ auf. Dieser Begriff bezeichnet den Verantwortungsträger in einer genau vorgeschriebenen Rollenverteilung, die bei den klinischen Studien vorgeschrieben ist. Der Sponsor organisiert die klinische Studie, benennt den leitenden Prüfarzt und besorgt die Haftpflichtversicherung für die Probanden. Der Sponsor muss nicht identisch mit dem Kostenträger der Studie sein, ihm obliegt aber die Kontrol-
Möglichkeiten industriegesponserter Forschung in der Medizin
23
le der ordnungsgemäßen Durchführung. Bei der überwiegenden Mehrzahl der klinischen Studien sind allerdings die Pharmaunternehmen die Sponsoren. Ausnahmen sind die sogenannten Investigator-driven Studies, bei denen Mediziner an forschungsaktiven Kliniken – zumeist Hochschulkliniken – die treibenden Organisatoren sind und in diesem Fall entweder das Klinikum oder die Universität als Sponsor auftritt. In den letzten Jahren ist zu beobachten, dass dabei die Gesamtkosten für die Entwicklung neuer Medikamente stetig ansteigen. Während 1975 im Mittel 200 Mio. Euro bis zu deren Marktzulassung aufgebracht werden mussten, sind es mittlerweile über 1 Mrd. Euro, wobei hier natürlich alle Kosten eingerechnet sind für die vielen Ansätze, die auf dem langen Weg durch die Instanzen und Prüfungen an irgendeiner Stelle abstürzen. Diese hohen Kosten werden zunehmend zu einem Innovationshemmnis, weil neue Ideen nicht mehr entwickelt werden. Sie führen auch zu Selektivität bei der privaten Finanzierung, die mitunter zufällig erscheint. Dies betrifft vor allem risikoreiche Entwicklungen, wobei die Risiken durch die Neuheit oder die Höhe des Innovationssprungs bedingt sein können oder durch Risiken während oder nach der Entwicklung, z. B. in Entwicklungsbereichen, wo hohe Haftungsrisiken bestehen und dadurch die Versicherungsprämien den kalkulierten Unternehmensgewinn übertreffen. In solchen Fällen – wie vor einigen Jahren bei verschiedenen Impfstoffentwicklungen zu beobachten – nimmt die Industrie von dem Gesamtthema Abschied, was dann dazu führt, dass Neuentwicklungen aufgegeben werden und der Staat mit Förderprogrammen diese Aufgabe übernehmen muss. Neue Themen und innovative Therapieansätze leiden auch besonders unter dieser Entwicklung, weil die Industrie sich auf sichere Bereiche und kleine Innovationsschritte zurückzieht, d. h. Kombinationspräparate oder leichte Modifikationen am Präparat bevorzugt, weil hier das Risiko eines Schutzes der Entwicklung wesentlich geringer ist. Dabei entsteht eine Lücke, in der bei steigenden Kosten innovative Ansätze nicht mehr in die Klinik eingeführt werden können, zumindest nicht unter der gesetzlich vorgeschriebenen Beachtung aller Regelwerke, die zwingend vorgeschrieben sind. Davon sind vor allem seltene Krankheiten mit kleinen Märkten betroffen, für die sogenannte „orphan drugs“ erforderlich sind. Diese „Waisenkinder“ verursachen die gleichen Aufwendungen für Entwicklung und Zulassung wie die „blockbuster“, bringen aber viel weniger Umsatz und Erlös. Deshalb werden bei orphan drugs Beratungs- und Zulassungsgebühren reduziert. Damit bewegen wir uns in der Problemzone der medizinischen Forschungsangelegenheiten, d. h. bei den Grenzen der privaten Finanzierung der Medizinforschung. Eine dieser Grenzen wird zweifellos durch Marktmechanismen gesetzt. Die Pharma- und Biotech-Industrie konzentriert sich zunehmend auf große Märkte und Blockbuster. Wo bleiben dann – so müssen wir fragen – die innovativen und naturgemäß risikoreichen Neuentwicklungen bei seltenen Erkrankungen, besonders risikoreichen Entwicklungen oder gänzlich neuen Ansätzen?
24
Frank Emmrich
Ein weiterer Trend kommt hinzu: In den letzten zehn Jahren hat die Großindustrie ihre eigenen Forschungskapazitäten in erheblichem Maße umstrukturiert, teilweise aus Europa ausgelagert und reduziert. Sie ist dazu übergangen, statt Eigenentwicklungen mit langen und risikoreichen Vorlaufzeiten lieber Aquarien mit vielen bunten Fischlein zu beobachten – nämlich kleine Unternehmen, die häufig mit nur einem Produkt hochrisikoreiche Entwicklungsarbeit leisten – und dabei diejenigen rechtzeitig zu erkennen, die ein erfolgreiches Produkt haben. Dann kann das Unternehmen übernommen oder das Produkt getrennt verwertet werden. Dabei werden die Sitten rabiater. Zuweilen ist es viel billiger, aus einem insolventen Unternehmen Spezialisten, Know-how und Patente herauszukaufen und das, was wir in den letzten Wochen bei Opel und Quelle erlebt haben, spielt sich im Kleinen in der medizinischen Forschung ebenfalls ab. Aus der Sicht der Medizinforschung erhebt sich dabei die Frage, welche Konsequenzen mittel- und langfristig entstehen, wenn wirtschaftlich labile KMUs, die unter erheblichem Finanzierungsdruck stehen, verlässliche Partner für die ethische und juristisch sensible Medizinforschung sein können. Eine zusätzliche Grenzlinie der privaten Finanzierung von Medizinforschung betrifft verschiedene Interessenkonflikte. Wir haben schon festgestellt, wie beträchtlich die Summen sind, mit denen die klinisch regulierte Medizinforschung umgeht. Dies bringt Versuchungen und die Gefahr von Abhängigkeiten mit sich. Immer wieder gibt es einzelne schwarze Schafe und dies sollte uns veranlassen, die durchaus vorhandenen Verhaltensregeln und Kontrollen nicht nur genau zu beachten, sondern auch in verschiedenen Punkten weiterzuentwickeln. In letzter Zeit gab es einige Aufsehen erregende Fälle von Verfälschungen von Studienergebnissen zu Gunsten bestimmter Medikamente (Rofecoxib, Fa. Merck). Möglicherweise sind es bisher nur Einzelfälle geblieben. Aber bedeutsamer ist wahrscheinlich, dass auf verstecktem Wege die wissenschaftliche Objektivität Schaden nimmt, wenn z. B. negative Studienergebnisse zurückgehalten werden. Einem Artikel in The Journal of the American Medical Association zufolge wurde bei der Untersuchung von 74 klinischen Studien über Antidepressiva festgestellt, dass von 38 Studien mit positiven Ergebnissen 37 publiziert wurden. Von den 36 Studien mit negativen Ergebnissen hingegen wurden 33 entweder erst gar nicht veröffentlicht oder aber in einer Form, die einen positiven Ausgang vermittelte. 2 Es gibt auch einige Kritik an den Modalitäten mancher Phase IV-Studien. Dies sind die sogenannten Anwendungs- oder Beobachtungsstudien, bei denen zuweilen das Marketingbestreben der Industrie zu überhöhten Zuwendungen oder Einflussnahmen führt. Speziell im deutschen System mit der Mischfinanzierung der Hochschulklinika gibt es eine mangelnde Trennschärfe in den Finanzierungssystemen. Die 2
Quelle: Angell, M. Industry-Sponsored Clinical Research: A Broken System. JAMA. 2008;300(9):1069 – 1071.
Möglichkeiten industriegesponserter Forschung in der Medizin
25
Krankenkassen hegen den Verdacht, dass verbotenerweise mit den Beiträgen ihrer Versicherten klinische Forschung finanziert wird, während andererseits die öffentlichen Fördermittelgeber für Medizinforschung den Verdacht hegen, dass mit ihren Forschungsmitteln Defizite bei der Krankenbehandlung querfinanziert werden. Es ist nicht immer leicht, durch diese Ansprüche einen geraden Weg zu steuern. Eine ganz offenkundige Konsequenz ist, dass mittlerweile in den letzten Jahren alle kleinen Graubereiche in der Klinikfinanzierung weggedrückt worden sind, mit denen ein Klinik- oder Institutsdirektor mit Haushaltsmitteln noch forschen konnte. Man mag dies als Transparenz feiern, allerdings ist damit auch der Humus und Nährboden nahezu verschwunden, aus dem heraus tatsächlich kleine neue Pflänzchen gezüchtet werden können, die erste Hinweise für neue Ansätze bringen. Denn ohne Vorarbeiten ist heutzutage auch kein Drittmittelprojekt mehr einzuwerben. Schließlich soll aus gegebenem Anlass nicht vergessen werden, auf die Rolle der Universitäten einzugehen. Letztlich ist kein anderer Gralshüter weit und breit in Sicht, der die medizinisch-wissenschaftliche Kompetenz seiner Professoren und Mitarbeiter in Verbindung mit der erforderlichen Unabhängigkeit einbringen kann. Die Finanzierung können die Universitäten allenfalls in kleinen Teilbereichen erbringen, aber sie können Objektivität der Experten zusichern. Dies ist ein gewichtiges Argument gegen die Privatisierung von Medizinischen Fakultäten. 1998 gab es nach einer Pressemitteilung der Universität Berkeley eine große Bewegung in den USA und auch Kritik an der Universität, die einen Vertrag abgeschlossen hatte, der ihr wesentliche Mittel zuführte, dafür aber auch die Ausschließlichkeit an der Nutzung bestimmter Forschungsergebnisse und die Abgabe von Vermarktungsrechten von Patenten beinhaltete. 3 Ich will diesen besonderen Fall gar nicht qualifizieren und bewerten, aber möchte fragen, ob unsere Universitäten denn tatsächlich in der Lage sind, dem Verhandlungsgeschick in der professionellen Privatwirtschaft bei diesen Vertragsschlüssen gewachsen zu sein. Wohlgemerkt: Dies ist keine grundsätzliche Kritik. Vielleicht bleibt uns in der Zukunft gar kein anderer Weg, aber dann muss natürlich auf beiden Seiten gleiche Verhandlungsmacht gewährleistet sein. Das gleiche gilt für das intellektuelle Eigentum an Entwicklungen. Ich fände es sehr erstrebenswert, wenn Universitäten ihre Patente selbst professionell vermarkten könnten. Welche Schlussfolgerungen sind nun zu ziehen? In Bezug auf die Interessenkonflikte und die im Wesentlichen persönliche Verantwortung gilt es, Grundsätze zu beachten, die nicht neu sind, aber immer wieder in die Erinnerung zurückgerufen und im Einzelfall durchgesetzt werden müssen. Sie betreffen die Qualität, die Unabhängigkeit des Principal Investigators, die Transparenz der 3 Quelle: Pressemitteilung der University of California Berkeley: Swiss pharmaceutical company Novartis commits $25 million to support biotechnology research at UC Berkeley. 23. 11. 1998. http://berkeley.edu/news/media/releases/98legacy/11-23-1998.html.
26
Frank Emmrich
Verbindungen zum Auftraggeber, die Befolgung eines vorher festgelegten Protokolls, d. h. die Vermeidung von Nachjustierungen im laufenden Studienprozess, die Registrierung von klinischen Studien, um eine lückenlose Übersicht zu erhalten. Dies ist der Anfang auch zur Offenlegung von negativen Ergebnissen, die über vertraglich geregelte Publikationsverpflichtungen gewährleistet werden könnte. Auch für die Abwicklung der Finanzierung gibt es seit langem klare Regeln, sie müssen allerdings auch befolgt werden.
Quelle: Eigene Darstellung.
In Bezug auf die Finanzierung sind die Ministerien aufgerufen, intelligente Wege zu finden, um den Defiziten und Grenzen der privaten Finanzierung medizinischer Forschung zu begegnen. Das Bundesministerium für Bildung und Forschung beispielsweise hat eine Strategie entwickelt, mit der die modulartige und stufenweise Entwicklungsachse in der geregelten präklinischen und klinischen Forschung abgebildet wird, um Entwicklungsengpässe aufzufangen. Es versteht sich von selbst, dass wegen der Größe der erforderlichen Summen in den späteren Entwicklungsphasen nur Kofinanzierungen in Betracht kommen. Hier gilt es, in Zukunft mehr als bisher inhaltliche Prioritäten zu setzen, beispielsweise in Bezug auf die zuvor aufgezeigten Problemzonen, und die Vertragsgestaltung der Kofinanzierungen weiterzuentwickeln. Wir dürfen nicht auf eine unabhängige Medizinforschung und einen Grundsockel öffentlicher Finanzierung verzichten. Die Unabhängigkeit der verantwortlichen Personen – nicht nur, aber vor allem des Principal Investigators – muss
Möglichkeiten industriegesponserter Forschung in der Medizin
27
gesichert sein und die international gültigen Regeln für die regulierte klinische Forschung müssen durchgesetzt und in einigen Punkten weiterentwickelt werden. Es ist eine Herausforderung für die Medizinischen Fakultäten und die Universitäten – vielleicht ihre wichtigste und größte –, die führende Rolle und die Fachkompetenz bei der präklinischen und klinischen Forschung zu sichern.
Neue Ansätze zur Steuerung und Finanzzierung translationaler Forschung Die „Pharma-Initiative für Deutschland“ des BMBF setzt sich aus einer übergreifenden Entwicklungsstrategie und Maßnahmen für die gezielte Förderung auf dem Weg von der Forschung bis zur Marktreife zusammen. Öffentliche Forschung Biotechnologie-Unternehmen Klinik Pharma-Unternehmen Grundlagenforschung
TargetValidierung
LeitsubstanzGenerierung
Krankheitsmechanismen aufklären
präklinische Studien
klinische Studien
Zulassung + Vermarktung
Stärkung der klinischen Forschung
Unterstützung gründungsbereiter Forscherteams
Stärkung des Produktionsstandortes
Initiativen zur Wirkstoffentwicklung Kooperationen zwischen Unternehmen Neue, übergreifende Entwicklungsstrategien
Die übergreifende Entwicklungsstrategie: BioPharma – Der Strategiewettbewerb für die Medizin der Zukunft Fördervolumen 2007–2011: 100 Mio. Euro
Quelle: Eigene Darstellung.
Literatur Adler, Guido / Schölmerich, Jürgen (2004): Umgang mit Drittmitteln für die klinische Forschung, Positionspapier der Deutschen Gesellschaft für Innere Medizin (DGIM). Bundesärztekammer (Hrsg.) (2006): Finanzierung patientenorientierter medizinischer Forschung in Deutschland, in: Deutsches Ärzteblatt, Jg. 103, Heft 31 –32, S. A2130A2131. Pfluger, Thomas / Biedermann, Andreas (2008): Finanzierung von F&E im Bereich Medizin / Life Sciences in der Schweiz, in: Gebert Rüf Stiftung (Hrsg.): Rahmenstudie 1/2008 Basel. Schneider, Nils / Lückmann, Sara Lena (2008): Pharmasponsoring in der ärztlichen Fortund Weiterbildung, in: Zeitschrift für Allgemeine Medizin, Heft 84, S. 516 –524.
Forschungsfinanzierung in den Biowissenschaften. Das Beispiel Sachsen Von Anja Landsmann und Annette G. Beck-Sickinger 1
I. Einleitung Forschung, besonders die natur- und lebenswissenschaftliche Forschung, kostet sehr viel Geld. Nicht nur müssen die Labore (gebaut und) mit einer Vielzahl von Geräten ausgestattet und Personen eingestellt werden, die eine Reihe von Experimenten durchführen, bevor eine Erkenntnis als gesichert in einer Publikation bekanntgegeben werden kann. Die Labore müssen zudem beheizt werden, verbrauchen Wasser und Elektrizität. Es muss Computer und Internetanschlüsse geben, Verbrauchsmaterialien in Form von Chemikalien, Aminosäuren, Blutund Gewebeproben, aber auch Handschuhe und Druckerpapier werden benötigt. Wissenschaftler vom Professor bis zum Doktoranden sollen auf Konferenzen ihre Ergebnisse vorstellen können, müssen zu Kooperationspartnern reisen und Fachzeitschriften einsehen. Das alles sowie die Verwaltung dieser Forschungsprojekte und der normale Lehrbetrieb an den Universitäten kostet viel Geld. Sehr viel und in der Grundlagenforschung meist öffentliches Geld. An den ostdeutschen Universitäten kam zu diesen allgemeinen und weltweiten Problemen der biowissenschaftlichen Forschung hinzu, dass nach der Wiedervereinigung beider deutscher Staaten die veraltete Ausstattung der Laboratorien grundlegend erneuert werden musste. Dieser Umstand, 40 Jahre Nachholbedarf gegenüber den alten Bundesländern, der anfangs wie ein Nachteil gegenüber den etablierten Universitäten in Westdeutschland schien, kehrte sich im Laufe der letzten Jahre allerdings ins Vorteilhafte, da durch die aktive Einwerbung von Drittmitteln, Investitionsbeihilfen des Bundes und durch Gelder aus dem Europäischen Fonds für regionale Entwicklung (EFRE) und dem Europäischen Sozialfonds (ESF) eine moderne Forschungsinfrastruktur aufgebaut werden konnte, die den westdeutschen, aber auch vielen Universitäten weltweit voraus ist. Denn 1 Prof. Dr. Beck-Sickinger ist Inhaberin des Lehrstuhls für Biochemie und Bioorganische Chemie an der Fakultät für Biowissenschaften, Pharmazie und Psychologie der Universität Leipzig. Dipl.-Pol. Anja Landsmann ist Koordinatorin des Profilbildenden Forschungsbereichs „Molekulare und zelluläre Kommunikation: Biotechnologie, Bioinformatik und Biomedizin in Therapie und Diagnostik“ an der Universität Leipzig.
30
Anja Landsmann und Annette G. Beck-Sickinger
durch die rasante Entwicklung in den Bio- und Lebenswissenschaften und ihrer experimentellen Gerätschaften in den letzten 20 Jahren veraltete die Ausstattung z. B. an den westdeutschen Forschungseinrichtungen schneller, als hier die neuesten Geräte angeschafft wurden. Deshalb gehören die ostdeutschen Forschungslabore heute mit zu den modernsten in Deutschland, ja vermutlich in Europa. Dies ist nicht nur ein eindeutiges Zeichen der erfolgreichen Lobbyarbeit der ostdeutschen Politiker und Kommunen bei den zuständigen Bundesministerien und der Europäischen Kommission. Es ist auch ein Zeichen für den zunehmenden Erfolg der hiesigen Wissenschaftler, denen es gelungen ist, mit herausragenden Forschungsergebnissen internationale Sichtbarkeit zu erlangen und auf dieser Basis zusätzliche Forschungsgelder einzuwerben. Dieser Weg war nicht immer einfach und ist für ein ostdeutsches Bundesland wie Sachsen mit begrenzten eigenen Mitteln nicht immer einfach zu gehen, da Budgetrestriktionen einer intensiveren (finanziellen) Unterstützung der hiesigen Forschungslandschaft oft entgegenstehen. Trotz dessen setzte sich Sachsen früh das Ziel, den Freistaat in eine wissens- ja, wissenschaftsbasierte Wirtschaftsregion 2 zu wandeln und kann heute durchwachsene, aber sichtbare Erfolge zeitigen. Dieser Beitrag soll verdeutlichen, dass sich durch die finanzielle Förderung von Forschung und Entwicklung (F&E) in Sachsen, besonders in den Biowissenschaften, eine vielfältige Forschungslandschaft entwickelt hat, die grundlegend für die weitere wissenschaftliche und auch wirtschaftliche Entwicklung des Landes sein wird. Es sollen die Mechanismen der Forschungsfinanzierung, Geber, Empfänger und die Effekte der finanziellen Unterstützung sowohl für die Universitäten und Forschungseinrichtungen als auch die erhofften Effekte für Wirtschaft und Gesellschaft im Allgemeinen dargestellt werden. Teil II. wird sich mit der Einordnung der Forschungsfinanzierung in das öffentliche Aufgabenspektrum beschäftigen und die Dimensionen des finanziellen Engagements aufzeigen. Im dritten Abschnitt wird begründet, warum gerade die Universitäten als umfassende und allerdings auch schwerfällige Forschungsinstitutionen ins Zentrum der Forschungsförderung gestellt werden sollten. Abschnitt IV. beleuchtet die derzeitige Situation der Biowissenschaften im Freistaat Sachsen, stellt einzelne Projekte und Trends exemplarisch vor. Abschließend (Abschnitt V.) soll die Entwicklung in den Biowissenschaften beurteilt und insbesondere mit dem Ziel Sachsens, eine wissenschaftsbasierte Wirtschaftsregion zu werden, kontrastiert werden. Nebenbemerkung: Im Mittelpunkt dieses Aufsatzes soll die Forschungsfinanzierung in den Biowissenschaften an den sächsischen Universitäten stehen. Unter 2 So und ähnlich mehrfach die damalige Staatsministerin Dr. Eva-Maria Stange in verschiedenen Ansprachen. Ministerpräsident Tillich arbeitet mit dem Begriff Wissenschaftsland. So zuletzt in der Regierungserklärung von Ministerpräsident Tillich: „Sachsen will 2020 wirtschaftlich auf eigenen Füßen stehen“ vom 11. 11. 2009 (vgl. http://www .ministerpraesident.sachsen.de/14743.htm, Download vom 21. 11. 2009).
Forschungsfinanzierung in den Biowissenschaften
31
Biowissenschaften werden im weitesten Sinne alle Forschungsgebiete der Biotechnologie, Biochemie, Biomedizin und Bioinformatik gefasst. Aus Gründen der statistischen Validität werden auch andere zusammenfassende Bezeichnungen, wie Lebenswissenschaften oder Life Science, unter diesem Label betrachtet, da diese Forschungsfelder – so differierend ihre Materie im Einzelnen auch ist – wichtige methodische und organisatorische Merkmale, aber auch Problemstellungen gemein haben, die es rechtfertigen, sie gebündelt im Hinblick auf die öffentliche Forschungsfinanzierung zu betrachten.
II. Finanzierung von Forschung in Deutschland Forschung in Deutschland wird zu einem großen, aber nicht überwiegendem Teil aus öffentlichen Haushalten bezahlt. Warum das so ist, ist nicht für jeden (Steuerzahler) sofort einsichtig und ist oft grundlegend für jegliche Kritik hinsichtlich Verschwendung und Ergebnislosigkeit an Forschern, Universitäten und der Forschung im Allgemeinen. Zwar bringt die Wirtschaft rund zwei Drittel der Kosten für F&E auf, doch ein Drittel, immerhin rund 18 Mrd. Euro, steuern öffentliche Haushalte, vor allem Bund und Länder, aber auch die Kommunen bei. Spätestens seit dem 2. Weltkrieg und noch zunehmend im Kalten Krieg wird die Förderung von Forschung und Entwicklung zur Stärkung der heimischen Wirtschaft, der Schaffung von Wohlstand, aber auch zur Sicherung des Landes als öffentliche Aufgabe angesehen. So forderte im Jahr 1945 der damalige Präsidentenberater Vannevar Bush explizit in einem Bericht an Präsident Roosevelt: „The Federal Government should accept new responsibilities for promoting the creation of new scientific knowledge and the development of scientific talent in our youth.“ 3 Besonders die U.S.-amerikanische Förderung spezieller kriegswichtiger Forschungsprojekte (bspw. Entwicklung des Penicillins sowie des Radars und der Atombombe) während des Krieges und der Anteil, der diesen wissenschaftlichen Erfolgen am militärischen Sieg über das Deutsche Reich und Japan beigemessen wurde, verhalfen dieser Forderung zum Durchbruch. Die sicherheitspolitischen Überlegungen 4 wurden jedoch von Anfang an mit der zivilen Nutzung der wissenschaftlichen Erkenntnisse, die aus einer Förderung entstehen sollten, zusammengedacht. Die damaligen Ziele der Forschungsförderung unterschieden sich nicht sehr von den heutigen: Förderung 3
Bush (1945), S. 31 (Hervorhebung der Autorin). Auch der Systemgegner, insbesondere die Sowjetunion, setzte auf Forschungsförderung vor allem aus sicherheitspolitischen Erwägungen und finanzierte Forschung in einem Maße, das bisher nicht wieder von einem anderen Land erreicht werden konnte. Vgl. die interessante Studie von Graham (1998). Auch Graham gelingt es zu zeigen, wie wichtig die finanzielle Ausstattung für den Erfolg von Forschung ist. 4
32
Anja Landsmann und Annette G. Beck-Sickinger
der Wirtschaft und Stärkung des Wohlstands der Nation, Schaffung von Arbeitsplätzen 5 (u. a. für Kriegsheimkehrer) und besonders in der medizinischen Forschung Heilung bzw. Ausrottung von Krankheiten. 6 Diese Vorschläge betrafen nicht nur die anwendungsorientierte Forschung, sondern zielten explizit auch auf die Grundlagenforschung als „general knowledge and [...] understanding of nature and its laws“. 7 Diese Aufgabe dem Staat zuzuweisen, gründet auf zwei unterschiedlichen Sichtweisen. Einerseits wird hier dem freien Markt ein potentielles Versagen vorgeworfen, da der öffentliche Charakter von Wissen (Nichtausschließbarkeit, keine Rivalität im Konsum) 8 und die unklare Nachfrage nach den Ergebnissen dieser Forschung verhindert, dass Unternehmen in (Grundlagen)Forschung investieren, da sie von den Ergebnissen nicht profitieren bzw. andere nicht am Nutznießen dieses Wissens hindern können. Ein zweiter Ansatz betont den eher evolutionären Charakter der Forschung und der daraus entstehenden potentiellen Anwendungsergebnisse. Es wird konstatiert, dass der Staat / die Region die heimische Wirtschaft dahingehend unterstützen sollte, dass sie durch die Finanzierung von Forschung (und nicht nur der Grundlagenforschung) die Menge an Wissen und technologischen Lösungen erhöht, sodass die Unternehmen und potentielle Unternehmensgründer aus einer größeren Anzahl von Angeboten die erfolgversprechendste Lösung für ihr Problem oder auch nur ihre Geschäftsidee wählen können. Besonders letzterer Ansatz geht zu Recht davon aus, dass man Grundlagenforschung nicht fernab von der Anwendbarkeit der Erkenntnisse ansehen sollte. Gerade auf dem Gebiet der Biotechnologie hat sich gezeigt, dass Firmen in hohem Maße von den Erkenntnissen, die aus öffentlicher Forschung hervorgehen, profitieren. 9 Zu dieser hier kurz angeschnittenen Frage nach dem Warum des öffentlichen Handelns in Bezug auf Forschung kommt die Unsicherheit über die schwierige Prognostizierung potentiell marktfähiger Technologien. Auch klare Problemstellungen in der Wissenschaft lassen nicht immer das Kommerzialisierungspotential im Voraus erkennen, Forschungsansätze können falsch sein oder eine Forschungsrichtung wird durch die Anwendung einer anderen Lösung desselben Problems und einer schnelleren Kommerzialisierung und Standardisierung dieser Lösung obsolet. Aufgrund begrenzter Mittel müssen die öffentlichen Haushalte entscheiden, in welche Forschungsgebiete es zu investieren gilt, um die höchsten Erträge für die heimische Wirtschaft zu erbringen. Dies ist weniger problematisch im sogenannten Technologie- und Wissenstransfer, wo bspw. universitäre Forschungsprojekte bereits so weit vorangeschritten sind, dass es „nur“ noch dar5 6 7 8 9
Vgl. ebd., S. 10. Vgl. ebd., S. 5. Ebd., S. 17. Vgl. zur Frage, wann der Staat handelt: u. a. Blankart (1997), S. 53 ff. Vgl. McMillan / Narn / Deeds (2000).
Forschungsfinanzierung in den Biowissenschaften
33
um geht, einen Partner aus der Wirtschaft zu finden, der das Produkt oder die Technologie tatsächlich an den Markt bringt. Viel schwieriger ist die Frage nach der erfolgreichsten Technologie der nächsten Generation. Derzeit gelten sowohl die Nano- als auch die Biotechnologie als die heißesten Kandidaten, einer Region nachhaltiges Wachstum zu bescheren. Dabei gilt die vom technologischen Standpunkt her etwas ältere Biotechnologie in einigen Kreisen bereits als Enttäuschung, da sich nur wenige tragfähige Cluster weltweit entwickelt haben, die in ihrer Region tatsächlich zusätzliche Arbeitsplätze und Einkommen geschaffen haben. Aus diesen Bewertungsproblemen heraus entwickeln sich meist Fördertrends. Keine Region kann (und will) es sich leisten im globalen oder auch nur deutschlandweiten Wettbewerb zurückzustecken und z. B. Biotechnologie nicht aktiv zu fördern. Die High-Tech-Strategie der Bundesregierung 10 beispielsweise wird ergänzt durch das Ziel Sachsens, eine wissensbasierte Wirtschaftsregion zu werden, und beide gehen auf in der Lissabon-Strategie, Europa zur führenden Wissensökonomie der Welt zu machen. 11 Die bundesweiten 12 Programme der letzten Jahre werden sowohl durch Landesprogramme 13 verschiedener Größe und Zielrichtung ergänzt, als auch durch die entsprechenden Themengebiete des 7. Forschungsrahmenprogramms der EU, deren gemeinsame Annahme es ist, das Bio- und Nanotechnologie Methoden, Produkte und Technologien entwickeln, die die regionale Wirtschaft aufnehmen und vermarkten kann. Für die Forscher in den genannten – und anderen „populären“ – Gebieten hat dies den Vorteil, dass es eine Reihe von potentiellen Geldgebern für Vorhaben des Faches gibt. Forscher und auch die Nachwuchsentwicklung in diesen Fächern folgen diesen Trends und richten ihre Projekte nach den Anforderungen der Geldgeber aus. Im Folgenden sollen einige Zahlen die Größenordnung der öffentlichen Forschungsfinanzierung in Deutschland und speziell in Sachsen verdeutlichen. In Deutschland beträgt der Anteil von Forschung und Entwicklung am Bruttoinlandsprodukt (BIP) 2,54%. 14 Dies entspricht immerhin einer Summe von 61,5 Mrd. Euro. Allerdings liegt diese Summe noch immer unter dem in der Agenda 10 Sie wurde im August 2006 durch die Bundesregierung ins Leben gerufen. (Vgl. http ://www.ideen-zuenden.de/de/350.php, Download am 20. 11. 2009). 11 In der Lissabon-Agenda 2010, verabschiedet 2000, streben die Mitgliedsstaaten der Europäischen Union das Ziel an, die EU zum wettbewerbsfähigsten und dynamischsten wissensgestützten Wirtschaftsraum der Welt zu machen. (Vgl. u. a. Schlussfolgerungen des Vorsitzes, Europäischer Rat (Lissabon) vom 23. und 24. März 2000 unter: http://www .consilium.europa.eu/uedocs/cms_data/docs/pressdata/de/ec/00100-r1.d0.htm, Download am 18. 07. 2009). 12 Exemplarisch für die Förderung der biotechnologischen Forschung und der Kommerzialisierung ihrer Ergebnisse sind z. B. Maßnahmen wie GO-Bio, BioRegio, BioChance, BioFuture u. a. Eine Übersicht findet sich auf den Websites des BMBF (http://www .bmbf.de/de/962.php, 24. 11. 2009). 13 Z. B. durch die im Jahr 2000 verabschiedete Biotech-Offensive des Freistaates. 14 Diese und die folgenden Zahlen aus: Statistisches Bundesamt (2009).
34
Anja Landsmann und Annette G. Beck-Sickinger
von Lissabon angestrebten Ziel, einen Anteil von 3 % 15 in F&E zu investieren. Dieser politisch verhandelte Anteil wird als notwendig angesehen, um die wettbewerbliche Position Europas durch F&E-Förderung nachhaltig zu seinen Gunsten zu verändern. Die Wirtschaft trägt von diesem Anteil den größten Teil. Sie finanziert F&E in Höhe von rund 43 Mrd. Euro. Die öffentliche Förderung ist weitaus geringer. Nur 0,41 % des BIP (10 Mrd. Euro) gehen direkt an die Universitäten; 0,35 % (8,54 Mrd. Euro) in andere F&E-Einrichtungen und Aufgaben. Die öffentlichen Ausgaben für Forschung und Entwicklung in Deutschland erreichten damit 2007 den Stand von 18,54 Mrd. Euro. Im Freistaat Sachsen flossen (2007) 832 Mio. Euro in öffentliche Forschungseinrichtungen, davon wurden ca. 613 Mio. Euro direkt für Forschungs- und Entwicklungsaktivitäten verwendet. Finanziert werden davon 8.977 Beschäftigte an öffentlichen Forschungseinrichtungen. Rund zwei Drittel dieser Personen arbeiten direkt in der Forschung. 16 Die sächsischen Hochschulen hatten Ausgaben (2007) 17 von 1,8 Mrd. Euro zu verzeichnen. Finanziert wurden diese durch 1 Mrd. Euro Grundmittel (größtenteils für Lehre und Verwaltung), 578 Mio. Euro Verwaltungseinnahmen und immerhin 246 Mio. Euro Drittmittel. Der überwiegende Anteil der eingeworbenen Drittmittel fließt in Forschungsprojekte und kann damit die Forschungslandschaft Sachsen tiefgehend verändern und strukturieren. In Abschnitt 3 wird diesem Einfluss näher nachgegangen.
III. Universitäten als Zentren der Forschung Im Zentrum dieses Beitrages stehen die Universitäten als regionale und nationale Zentren von Wissenschaft und Forschung, die durch ihre ganz besondere und gegenüber den spezialisierten Forschungsinstitutionen umfassendere Tätigkeit eine entscheidende Rolle in der Strategie, durch Forschung wirtschaftliche Entwicklung zu induzieren, spielen. Diese Merkmale sollen an dieser Stelle überblicksmäßig aufgezeigt und diskutiert werden. Der Anlass dieses Kongresses, die Gründung der Universität Leipzig vor 600 Jahren, macht ein Argument für die herausragende Bedeutung der Universitäten 15 Der Europäische Rat vereinbarte das Ziel, 3 % des BIP in Forschung und Entwicklung zu investieren auf seiner Frühjahrstagung 2002 in Barcelona. Vgl. Europäische Kommission (2002) und unter: http://eur-lex.europa.eu/LexUriServ/LexUriServ.do?uri=COM :2002:0014:FIN:EN:PDF (Download vom 18. 07. 2009). 16 Vgl. ebd. – Zahlen für den Anteil von F&E an den Gesamtausgaben lassen sich oft nur durch Koeffizienten errechnen, da sich gerade an Universitäten der Anteil dessen, was Forschungsaufgaben sind und was nicht, selbst im Einzelfall schwer bestimmen lässt. 17 Statistisches Bundesamt (2007), S. 17.
Forschungsfinanzierung in den Biowissenschaften
35
in der regionalen Forschungslandschaft am anschaulichsten: die erstaunliche Persistenz der Institution „Universität“ in Europa und mittlerweile auch weltweit. Trotz aller organisatorischen Unterschiede im Einzelnen, hat sich das Modell der europäischen Universität, wie sie im Mittelalter entstand und sich im Laufe der Moderne gewandelt und verfestigt hat, über verschiedene Systeme und Kulturen hinweg bestätigt und sich immer wieder den Gegebenheiten angepasst. Auch wenn gerade die Universität Leipzig durch den Auszug der Scholaren aus Prag vor 600 Jahren ein Stück weit das Gegenteil beweist: im Allgemeinen und (eben fast) allen Fällen können Universitäten expandieren oder auch schrumpfen, aber sie gehen nicht einfach woanders hin. Sie bleiben am Ort Ihrer Gründung und sind damit eine der beständigsten Institutionen einer Region. 18 Allein daraus lässt sich ihr wissenschaftlicher, wirtschaftlicher und gesellschaftlicher Einfluss erahnen. Die Universitäten wuchsen und wandelten sich zusammen mit der regionalen Wirtschaft und Gesellschaft, etablierten mehr oder weniger enge institutionelle Strukturen mit allen Interessengruppen. Es gelang den Universitäten in der Mehrheit der Fälle, zum Zentrum der intellektuellen und wissenschaftlichen Kreise einer Region zu werden und diese Position dauerhaft zu halten. Eine Universität zieht Wissenschaftler und Studenten, aber auch andere – außeruniversitäre und betriebliche – Forschungseinrichtungen an. Es ist kaum vorstellbar, dass ein neugegründetes Forschungsinstitut in eine Stadt ohne universitäre Einrichtungen, d. h. ohne bereits vorhandene Forschungsinfrastruktur, zieht, es sei denn sein spezielles Forschungsgebiet erfordert dies. Institutionen, wie die Max-Planck-Institute und Helmholtz-Zentren, haben wiederum nicht nur auf professoraler Ebene personell enge Bindungen zu den Universitäten. Die Forschung dieser weltweit bekannten Einrichtungen wird – wie auch die universitäre Forschung – oftmals mit Hilfe von Doktoranden durchgeführt. Das Promotionsprivileg der Fakultäten bringt sie in eine gewisse Abhängigkeit zu den Universitäten, was allerdings durch den speziellen Lehrauftrag der Universitäten – der auch in der Promotionsphase wirksam wird – gerechtfertigt ist. Das Organisationsmodell Universität unterstützt Vielfältigkeit innerhalb der Forschungsfelder und erlaubt einen graduellen Wandel der Fachgebiete im Einklang mit dem wissenschaftlichen Fortschritt und der Wirtschaftsentwicklung. Lehrstühle können im Sinne von aufkommenden Forschungsrichtungen umgewidmet werden, Professoren haben durch den Beamtenstatus mehr Möglichkeiten fachliche und inhaltliche Grenzen ihrer Forschung auszuloten, ohne an eine kommerzielle Verwertbarkeit jedes Experimentes denken zu müssen. Gleichzeitig ist die Universität eine recht schwerfällige Institution, da der Professorenstatus eine inhaltliche Umwidmung des Lehrstuhls vor der Emeritierung des Lehrstuhlinhabers verhindert. Dies beugt in gewissem Maße dem Verfolgen jedes Forschungstrends vor. 18
Vgl. zu diesem Argument auch: Kitson / Howells / Braham / Westlake (2009).
36
Anja Landsmann und Annette G. Beck-Sickinger
Die Forschung an Universitäten ist andererseits auch Begrenzungen ausgesetzt, die aus ihrem öffentlichen Auftrag im Studienbetrieb entstehen. Dies wird oft als größtes Hindernis für die Forschung beklagt, da die Betreuung der Studierenden und die Lehre zu Recht als zeitraubend angesehen werden. Doch Studierende und noch viel mehr Doktoranden bewältigen oftmals einen nicht geringen Teil der praktischen Arbeit in den Forschungsprojekten. Ohne sie würde Forschung an Universitäten wie auch an vielen außeruniversitären Instituten nicht funktionieren. Zu den beiden klassischen Aufgaben der Universität – der Erschaffung und Weitergabe von Wissen – sind in den letzten Jahrzehnten weitere Aufgaben hinzugekommen. Der bereits erwähnte Anspruch, Forschung an Universitäten solle die regionale Wirtschaft unterstützen und für technologischen Fortschritt sorgen, ist eine sogenannte „third mission“ 19-Aktivität. Andere nicht immer klare Zielsetzungen sind hinzugekommen. Klar ist der Anspruch, zusätzliche Mittel für schrumpfende Universitätshaushalte einzuwerben, durch kompetitive Einwerbung von Drittmitteln, aber auch durch Einwerbung von Spenden, Hinwendung zu Alumni, Öffentlichkeitsarbeit, Internationalisierung und erweiterter Kommunikation und Transparenz erhofft man sich neue Kontakte und Einnahmequellen. Diese Erwartungen erfüllen sich jedoch bisher höchstens moderat. 20 Diese Ansprüche, die von anderer Seite, aber auch den Universitäten selbst, meist diffus und unter Nutzung von Schlagwörtern als (neue) Bedürfnisse der Gesellschaft dargestellt werden, führen oft zu unberechtigter Kritik an den Universitäten und Forderungen nach einem neuen Gesellschaftsvertrag 21, der alle diese Aufgaben neu regelt, aber den Universitäten nicht notwendigerweise mehr Mittel zur Verfügung stellt. Zusammengefasst müssen die Universitäten als eminent wichtige Zentren der Forschung in einer Region gesehen werden, unabhängig davon, ob sie tatsächlich im Einzelnen die meisten und größten Forschungsprojekte durchzuführen imstande sind. Im Einzelfall können sie auch als Koordinator, Netzwerker, intellektuelles Zentrum oder auch nur als Fixpunkt für Forschungsvorhaben (und auch die Ansiedlung von forschungsintensiven Branchen) gelten, da sie ein hohes Maß an Expertise in vielen verschiedenen Fachgebieten bereitstellen und zudem einen regelmäßigen Output an Absolventen unterschiedlicher Fachrichtungen gewährleisten, der die Rekrutierung von Personal durch die Industrie vereinfacht. Die Überforderung mit weiteren Aufgaben muss eher kritisch für die Intensivierung von Forschungsarbeit gesehen werden.
19
Vgl. Laredo (2007); Göransson / Maharajh / Schmoch (2009). Vgl. Krücken / Meier / Müller (2009). 21 Vgl. Samarasekera (2009). Kritisch dazu: Vavakova (1998); Hessels / van Lente / Smits (2009). 20
Forschungsfinanzierung in den Biowissenschaften
37
IV. Die Forschungsfinanzierung in den Biowissenschaften in Sachsen und an den sächsischen Hochschulen Nach der Beschreibung der allgemeinen Situation an den Hochschulen und ihren Problemen, allen Anforderungen, die heute – mehr oder weniger explizit – an sie gestellt werden, gerecht zu werden, soll im folgenden Abschnitt konkret auf die biotechnologische Forschung in Sachsen und speziell an den sächsischen Universitäten eingegangen werden. In Sachsen gibt es fünf staatliche Universitäten 22, von denen an vier Universitäten biowissenschaftliche Forschung und Ausbildung betrieben wird. An diesen Universitäten und einigen Fachhochschulen kann man sich in 17 Studienprogrammen biotechnologisch ausbilden lassen, sowohl auf Bachelor- (8 Programme) als auch auf Masterniveau (11 Programme). Zudem existieren momentan 7 neueingerichtete strukturierte Doktorandenprogramme, die sich explizit mit biotechnologischen Inhalten befassen. Hier, bei den Promovierenden, beginnt auch die eigentliche Forschung und die Aufgabe der Forschungsfinanzierung, da ein großer Teil der Drittmittel für die Bezahlung von Doktoranden und die Durchführung ihrer Forschungsvorhaben, oft im Rahmen von Verbundprojekten, benötigt wird. Forschung wird überwiegend in Form von Drittmitteln finanziert. Das sind alle Mittel (unabhängig vom Geldgeber), die Forscher / Universitäten / Forschungseinrichtungen über ihren regulären Haushalt hinaus zugewiesen bekommen. Sie können als zusätzliche Einnahmen betrachtet werden. Diese Drittmittel können zugewiesen oder kompetitiv eingeworben werden, können Spenden oder Vergütung bspw. durch eine Industriekooperation sein. Die Drittmitteleinnahmen der sächsischen Hochschulen in Höhe von 245,9 Mio. Euro (2007) setzen sich zusammen aus Einnahmen über Wirtschaftskontakte (24 %), Einnahmen von den Gebietskörperschaften (Bund 33%, Land 5%) und der EU (9 %) und Einnahmen aus anderen meist öffentlichen Quellen, vor allem der DFG (24 %) und sonstigen Stiftungen (privat und öffentlich in Höhe von 5 %). 23 In der Folge soll vor allem die Finanzierung durch öffentliche Haushalte diskutiert werden da diese in Sachsen bisher die bedeutendste Rolle im Rahmen der Entwicklung in den Biowissenschaften spielt.
22 Den vier großen sächsischen Universitäten (Dresden, Leipzig, Chemnitz und Freiberg) gleichgestellt ist das Internationale Hochschulinstitut Zittau, welches auch einen biotechnologischen Masterstudiengang anbietet. Die Technische Universität Bergakademie Freiberg bietet kein biowissenschaftliches Studium im engeren Sinne an. 23 Eigene Berechnungen nach: Statistisches Bundesamt (2007), S. 28.
38
Anja Landsmann und Annette G. Beck-Sickinger
1. Förderung durch die Gebietskörperschaften Öffentliche Geber sind die Gebietskörperschaften, Stiftungen und andere Förderinstitutionen. Von den Gebietskörperschaften sind die landeseigene Förderung, Gelder aus dem Bundeshaushalt und das Forschungsrahmenprogramm der Europäischen Union, derzeit ist es das 7. Forschungsrahmenprogramm, finanziell relevant. Zusammen finanzieren Sie fast 50 % 24 der Forschung an den Hochschulen und einen großen Teil der außeruniversitären Forschungseinrichtungen. Im Folgenden sollen einige Beispiele die verschiedenen Arten von Förderung und ihre Effekte zeigen. Einzelne Beispiele sollen nur schlagwortartig vorgestellt werden und aufzeigen, welche Art von Maßnahmen und Finanzierung am Aufbau der hiesigen forschungsrelevanten Infrastruktur beteiligt war und was aus diesen – meist unkoordinierten – Maßnahmen im Gesamtbild entstanden ist. Auch die Zuordnung zu den gliedernden Unterpunkten behauptet keine Ausschließlichkeit der Finanzierung durch eine Ebene. In den meisten Fällen setzt die Finanzierung einer Maßnahme, z. B. durch den Bund, Eigenmittel des Landes und / oder der Kommune voraus. Oft wird die Finanzierung unter den Gebietskörperschaften aufgeteilt. Hier spielen politische Kriterien der regionalen Förderung eine nicht zu vernachlässigende Rolle. Im Gegensatz dazu fördern bspw. die weiter unten aufgeführten anderen Förderinstitutionen nach anderen – mehr wettbewerblichen – Kriterien, die vor allem verstärkter Aktivität der Wissenschaftler und eines Nachweises von Exzellenz bedürfen. Aufgrund der beabsichtigten Leuchtturmfunktion dieser Maßnahmen werden hier fast ausschließlich die beiden Universitäten in Leipzig und Dresden vermerkt, da sie eine deutliche Profilierung in den Biowissenschaften bereits erreicht haben. a) Förderung aus landeseigenen Mitteln Der Freistaat Sachsen hat seit den 1990er Jahren auf vielfältige Weise die Entwicklung in den Biowissenschaften gestärkt. Hier sollen exemplarisch zwei Maßnahmen herausgegriffen werden: die Gründung der Biotech-Inkubatoren in Dresden und Leipzig und die (nicht universitätsbezogene) Förderinitiative „biosaxony“. Auf Initiative des Landes wurden in Dresden und Leipzig jeweils ein Businessinkubator 25 im Biotechnologiebereich mit Beteiligung der jeweiligen Universitäten vor Ort eingerichtet, indem sich junge Unternehmen zu günstigen Bedingungen ansiedeln können und gleichzeitig die Universitäten ein zusätzliches Biotechnologie-Zentrum mit neuester Ausstattung und je sechs zusätzliche Professorenstellen im biotechnologischen Bereich erhielten. Finanziert wurden beide 24 25
Ebd.; 47 % der Drittmitteleinnahmen (ca. 111 Mio. Euro) erfolgt über diese Geber. Leipzig: BIOCity; Dresden: BioInnovationsZentrumDresden.
Forschungsfinanzierung in den Biowissenschaften
39
Inkubatoren durch Land, Bund, EU und die kommunalen Haushalte Dresdens und Leipzigs. Die Einbindung der Zentren 26 in die Universitäten gelang durch die Anbindung der Professuren an die beteiligten Fakultäten. Hier wird das Zusammenwirken der verschiedenen Gebietskörperschaften und der Universitäten mit dem Ziel der Wirtschaftsförderung besonders deutlich. Beide Inkubatoren konnten schnell Firmen in ihren Räumlichkeiten ansiedeln. Die wirtschaftlichen Effekte durch Nutzung der Synergien und Bestrebungen der Förderung von Ausgründungen aus der Universität zeigen sich langsam, da gerade Spin-offs von Universitäten schwer zu kreieren sind. Auch die Sächsische Koordinierungsstelle für Biotechnologie „biosaxony“ 27 ist eine Initiative des Freistaates Sachsen. Hier wird nicht Forschung an sich gefördert, sondern die Einrichtung dient als Motor, Motivator, Lobbyist und Koordinator verschiedenster Maßnahmen, die die Biotechnologie und die Ansiedlung forschender Biotechnologie-Unternehmen in Sachsen fördern soll. Gegründet im Rahmen der Biotech-Offensive des Landes baut und betreut sie ein Netzwerk aus Unternehmen und Forschungseinrichtungen. 28 Auch diese universitätsferne Maßnahme unterstützt Forschung durch Vermittlung von Kontakten, Veranstaltungen und einer verstärkten Werbung für den Standort, was wiederum auch den Universitäten zugutekommt. b) Bundesförderung Aus der Bundesförderung soll an dieser Stelle lediglich ein Beispiel herausgegriffen werden, welches für den Aufbau eines Forschungsclusters in der Region mitentscheidend ist: die Einrichtung des Translationszentrums für Regenerative Medizin (TRM) in Leipzig durch das Bundesministerium für Bildung und Forschung (BMBF). Das TRM ist eine zentrale Einrichtung der Universität und wurde im Oktober 2006 gegründet, um neuartige Diagnostik- und Therapieformen der Regenerativen Medizin zu entwickeln, zu analysieren und die Erkenntnisse in die klinische Anwendung zu überführen. Finanziert wird auch diese Maßnahme durch Bundes- und Landesgelder und einen Eigenbetrag der Universität. Im Folgenden wird noch zu sehen sein, dass gerade die Regenerative Medizin einen starken Schwerpunkt in Sachsen bildet, das TRM bildet ein Element dieses Clusters. 26
Leipzig: Biotechnologisches-Biomedizinisches Zentrum (BBZ); Dresden: Biotechnology Center of the TU Dresden (biotec). 27 Im Dezember 2009 gründete sich auf diese öffentliche Maßnahme fußend und mit Unterstützung staatlicher Stellen der Verein „biosaxony e.V.“, der zukünftig die Koordinierung von Maßnahmen zur Förderung der Biotechnologie in ganz Sachsen übernehmen wird. Vgl. Pressemitteilung des SMWK vom 18. 12. 2009 unter http://www.medienservice .sachsen.de/medien/news/37854. 28 Vgl. http://biosaxony.com/de/biosaxony/info sowie Staatsministerium für Wirtschaft und Arbeit (2009).
40
Anja Landsmann und Annette G. Beck-Sickinger
c) Das Forschungsrahmenprogramm der Europäischen Union Das Forschungsrahmenprogramm der Europäischen Union fördert verschiedene Arten von Forschungsvorhaben auf individueller Forscherebene, in Netzwerken und Ausbildungskooperationen und durch die Finanzierung von Verbundprojekten. Die Verbundförderung (im Teilgebiet „Kooperation“) umfasst zwei Ausschreibungsthemen, die für die biowissenschaftliche Forschung relevant sind: das Programm „Gesundheit“ für biomedizinisch ausgerichtete Projekte und das Programm „Ernährung, Landwirtschaft, Fischerei und Biotechnologie“. Die Universitäten in Dresden und Leipzig beziehen ca. 10 % ihrer Drittmittel aus Programmen der Europäischen Union, mit steigender Tendenz. 29 Durch die Schaffung der Stelle eines EU-Koordinators (Leipzig) bzw. eines personell umfassender angelegten European Project Centers (Dresden) bemühen sich beide Universitäten durch Information, Beratung und Unterstützung der Wissenschaftler diese Art der Einwerbung von Drittmitteln weiter zu steigern. Die TU Dresden wirbt sogar einen großen Teil ihrer Drittmittel in den Lebenswissenschaften über das 7. Forschungsrahmenprogramm ein, Leipzig ist hier hingegen bisher weniger engagiert. 30 Zusätzlich kann der Freistaat Sachsen über den Europäischen Fonds für regionale Entwicklung Mittel einwerben und seit 2007 sind auch Universitäten antragsberechtigt für Gelder des Europäischen Sozialfonds. Dadurch konnten eine Reihe von Landesinnovationspromotionen, Forschergruppen, Industriekooperationen (für Promotionen) und andere Maßnahmen in der Forschung gefördert werden. Aufgrund der Phasing-out-Position der Region Leipzig werden hier in Zukunft jedoch weniger Gelder fließen. Die Einwerbung von Mittel aus dem 7. Forschungsrahmenprogramm ist stark kompetitiv und beruht vor allem auf den Kriterien Exzellenz und Neuheit des Projektes. Hier Erfolge vermelden zu können, zeigt deutlich die ausgezeichnete Entwicklung der hiesigen Arbeitsgruppen. Politische Kriterien spielen nur für die Festsetzung der sehr breitgefassten Forschungsthemen eine Rolle. Für die Bewerbung um Mittel aus dem EFREund ESF-Programm sind jedoch politische Kriterien der regionalen Entwicklung sowie Prioritäten des Landes entscheidend, da sowohl die Empfängerregionen beider Fonds anhand von politisch festgelegten Kennzahlen definiert werden, als auch die Region – hier der Freistaat Sachsen – Förderprioritäten festlegen kann.
29
Vgl. Jahresberichte der TU Dresden und der Universität Leipzig. Vgl. Deutsche Forschungsgemeinschaft (2009), S. 97. In den letzten beiden Jahren (2008/2009) konnte die Universität Leipzig jedoch deutlich mehr Drittmittel über die Europäische Union einwerben. 30
Forschungsfinanzierung in den Biowissenschaften
41
2. Forschungsfinanzierung durch andere Förderinstitutionen In Deutschland finanziert eine Reihe von Stiftungen und Institutionen Forschung und forschungsnahe Projekte kleinerer oder größerer Art. Dazu gehören neben der Deutschen Forschungsgemeinschaft (siehe weiter unten) auch gemeinnützige Stiftungen und Vereine, die allgemein Forschungsprojekte oder bspw. Konferenzen unterstützen oder sich für besondere Fragestellungen und Probleme (z. B. in der Krebsforschung, der Popularisierung von Wissenschaft, der Förderung des Wissenschaftsjournalismus, Schule und Wissenschaft u. a.) engagieren. Diese anderen Institutionen spielen – außer in der biomedizinischen Forschung – für die Finanzierung von Forschungsprojekten eine untergeordnete Rolle und sollen hier keine weitere Erwähnung finden, da ihr Fördervolumen weitaus geringer und spezialisierter ist. Herausgehoben werden sollen stattdessen zwei für Sachsen und in der Biotechnologie besonders wichtige Förderwege – die DFG-Förderung und die Exzellenzinitiative des Bundes und der Länder – und ihre Auswirkungen, da hier die Datenlage auch inhaltliche Aussagen zur fachlichen Entwicklung der Biowissenschaften in Sachsen zulässt. a) DFG-Förderung Der größte Einzelförderer von Forschung und Wissenschaft in Deutschland ist die Deutsche Forschungsgemeinschaft (DFG). 31 Sie wird durch Zuwendungen des Bundes, der Länder und von privaten Spendern finanziert. Der größte Teil des Etats (99,7 %) von rund 2 Mrd. Euro kommt aus öffentlichen Quellen (dem Bund und den Bundesländern). 32 Sie fördert deutsche (und ausländische) Wissenschaftler in einer Reihe von unterschiedlichen Programmen und durch die Verleihung prominenter Preise. Diese Förderung reicht von Investitionsbeihilfen und Einzelförderung eines Wissenschaftlers über Forschergruppen bis hin zu großen Verbundprojekten wie den Sonderforschungsbereichen (SFB), deren Förderetat mehrere Millionen Euro pro Jahr umfasst. Die DFG-Förderung für Sachsen erreichte 2007 fast 57 Mio. Euro 33 und ist vergleichbar mit dem Anteil der Drittmittel aus Wirtschaftskooperationen. Nur der Bund förderte Forschungsvorhaben in Sachsen stärker. In Sachsen fördert die DFG derzeit neun Sonderforschungsbereiche und zwei Transregio-Sonderforschungsbereiche. In 31 Erstgründung 1920 als „Notgemeinschaft der Deutschen Wissenschaft“. Diese Einrichtung wurde 1949 nach dem Zusammenbruch des Deutschen Reiches erneut gegründet und nach der Fusion mit dem „Deutschen Forschungsrat“ 1951 in Deutsche Forschungsgemeinschaft (DFG) umbenannt. Die DFG ist ein eingetragener Verein. 32 Vgl. Deutsche Forschungsgemeinschaft (2008), online verfügbar unter: http://www .dfg.de/jahresbericht, Download vom 20. 06. 2009. 33 Statistisches Bundesamt (2007), S. 28.
42
Anja Landsmann und Annette G. Beck-Sickinger
den Biowissenschaften sind dies der SFB 655 in Dresden (Von Zellen zu Geweben: Determination und Interaktionen von Stammzellen und Vorläuferzellen bei der Gewebebildung), der SFB 610 in Leipzig (Protein-Zustände mit zellbiologischer und medizinischer Relevanz, gemeinsam mit der MLU Halle) und der gemeinsame Transregio 67 (Funktionelle Biomaterialien zur Steuerung von Heilungsprozessen in Knochen- und Hautgewebe – vom Material zur Klinik) in Leipzig (Sprecheruniversität) und Dresden. In der Nachwuchsförderung finanziert die DFG in Sachsen neun Graduiertenkollegs, von denen sich zwei mit biowissenschaftlichen Fragestellungen beschäftigen. Dies sind das GRK 1097 in Leipzig (Interdisziplinäre Ansätze in den zellulären Neurowissenschaften – InterNeuro) und das GRK 1401 in Dresden (Nano- und Biotechniken für das Packaging elektronischer Systeme). Zudem befindet sich eines von nur sechs DFG-Forschungszentren deutschlandweit seit 2006 in Dresden (Regenerative Therapies: From cells to tissues to therapies – Engineering the cellular basis of regeneration). Mit insgesamt 253 Mio. Euro Forschungsförderung und gemessen an der Zahl der geförderten Vorhaben an den vier sächsischen Universitäten (Dresden, Leipzig, Chemnitz, Freiberg) liegt Sachsen im Mittelfeld im bundesweiten Vergleich. Im Ranking der Universitäten auf dem Gebiet der Lebenswissenschaften erreicht Dresden Rang 22, Leipzig Rang 28. 34 Fachlich betrachtet reüssiert die Universität Leipzig vor allem in der Grundlagenforschung und im Schwerpunkt Medizin, während das Förderprofil der TU Dresden sich im Raum zwischen der (biomedizinischen) Grundlagenund ingenieur- und materialwissenschaftlicher Forschung bewegt. 35 b) Exzellenzinitiative Trotz der häufig geäußerten Enttäuschung in Sachsen über das Ergebnis des Landes in der Exzellenzinitiative des Bundes und der Länder lässt sich feststellen, dass die sächsischen Universitäten mitnichten ein Schlusslicht im Reigen der deutschen Hochschulen darstellen. Zwar gibt es im Freistaat keine Spitzenuniversität, deren Zukunftskonzept gefördert worden wäre, doch das Exzellenzcluster und die beiden Graduiertenschulen zeigen, dass gerade die Entwicklung in den Biowissenschaften und verwandten Disziplinen durchaus Erfolge zeigen kann. So urteilte auch die DFG in ihrem in diesem Jahr veröffentlichten Förderranking zu den Jahren 2005 –2007: „Die TU Dresden konnte ihr bislang relativ technisch geprägtes Profil im Zuge der Exzellenzinitiative durch ein Exzellenzcluster und eine Graduiertenschule im Bereich der Lebenswissenschaften verstärken.“ 36 Die beiden geförderten Dresdner Projekte, die Graduiertenschule „Dresden Inter34 35 36
Vgl. Deutsche Forschungsgemeinschaft (2009), S. 92. Vgl. ebd., S. 93. Vgl. ebd., S. 128.
Forschungsfinanzierung in den Biowissenschaften
43
national Graduate School for Biomedicine and Bioengineering“ und das Cluster „Regenerative Therapies: From Cells to Tissues to Therapies: Engineering the Cellular Basis of Regeneration“ zeigen eine deutliche Schwerpunktsetzung zwischen Grundlagenforschung und der Applikation dieser Kenntnisse auf konkrete medizintechnische Fragestellungen im Bereich der Gewebewiederherstellung. Die in Leipzig geförderte Graduiertenschule „Leipzig School of Natural Sciences – Building with Molecules and Nano-objects“ ist zwar nicht in erster Linie biowissenschaftlich ausgelegt, doch auch hier findet ein beachtlicher Teil der Forschung auf dem Gebiet der Anwendung nanotechnologischer Methoden und Materialien für die Biotechnologie statt. Der zweite Teil der öffentlichen Förderung durch andere Institutionen als staatliche Einrichtungen zeigt, dass auch unabhängig von politischen Verteilungskriterien und der besonderen Behandlung der ostdeutschen Universitäten in den letzten beiden Jahrzehnten eine Forschungslandschaft entstanden ist, die aus eigener Kraft, hier im Sinne von wissenschaftlicher Exzellenz, Forschungsvorhaben kreieren und den Standort immer weiter stärken kann.
V. Diskussion: Ökonomisierung der Wissenschaft oder Wirtschaftsentwicklung durch Forschungsförderung Insgesamt lässt sich konstatieren, dass sich die biowissenschaftliche Forschung in Sachsen etabliert hat und selbst an der zuvor eher ingenieurwissenschaftlichorientierten TU Dresden sehr erfolgreich Kapazitäten entstanden sind, die weitere komplementäre Einrichtungen im Freistaat zu Kooperationen und Projekten anregen werden und weitere Forschungsprojekte und auch Wissenschaftsinstitutionen nach Sachsen zu holen imstande sind. 37 An mehreren Standorten – hervorzuheben sind Leipzig und Dresden – ist eine ausbaufähige und deutschlandweit (teilweise sogar international) wettbewerbsfähige Forschungsinfrastruktur mit starken Arbeitsgruppen und klarem Profil in den Bio- und Lebenswissenschaften entstanden. Dies gilt allerdings nur für die akademische Forschung in Sachsen, komplementäre Forschungseinrichtungen der Industrie gibt es, bis auf wenige kleine forschende Biotechnologieunternehmen, bisher nicht. Die getätigten Investitionen in die Forschung zahlen sich im Hinblick auf eingeworbene Drittmittel und damit auch auf geschaffene Arbeitsplätze aus, was hier nur anhand von Einzelbeispielen und generalisierten Aussagen verdeutlicht werden konnte. 38 37 Es muss an dieser Stelle nach einmal darauf hingewiesen werden, dass sich die vorliegende Arbeit nur mit der biowissenschaftlichen Forschung beschäftigt. Die sächsischen Ingenieurswissenschaften sind sogar – auch traditionell – noch stärker und können weit mehr Spill-Over-Effekte in die regionale Wirtschaft erzeugen.
44
Anja Landsmann und Annette G. Beck-Sickinger
Das Ziel des Freistaates Sachsen ist es, eine wissenschaftsbasierte Wirtschaftsregion zu werden. Die Förderung der bio- und lebenswissenschaftlichen Forschung ist einer der Wege, die dafür beschritten werden. Biotechnologie wird dabei sowohl als Schlüssel- als auch als Querschnittstechnologie für die Entwicklung der Wirtschaft angesehen, da erwartet wird, dass sie neben ihrer Eigenschaft als Motor der Wirtschaft durch die Schaffung von Arbeitsplätzen in der Biotechnologiebranche auch transferierbare Methoden und Materialien entwickeln wird, die in auf den ersten Blick fremden Branchen Effekte zeitigen, die neue Produkte hervorbringen oder die Herstellung von Produkten rationalisieren könnte. Dieses Programm befindet sich in Harmonie und gleichzeitiger Rivalität mit gleichen oder ähnlichen Zielen anderer Bundesländer und über- bzw. untergeordneter Gebietskörperschaften, wie der Bundesrepublik und der Europäischen Union. 39 Dies ändert nichts am legitimen Anspruch des Bundeslandes, seine Wirtschaft zu entwickeln und zu fördern und dies – wie andere auch – durch die direkte Förderung von Forschung und die Vermittlung von Forschungsfinanzierung anderer Geber zu forcieren. Wirtschaftliche Entwicklung ist, wie im ersten Abschnitt kurz dargestellt, seit vielen Jahren der Sinn und Zweck von Forschungsförderung und wird als solches von beiden Seiten – den Behörden und den Forschungseinrichtungen – anerkannt. Auch der Wunsch nach Anwendung von Forschungsergebnissen auf dem Markt und mit dem Ziel, Fortschritt und damit auch Wohlstand zu induzieren, ist nicht neu. Grundlagenforschung forscht zwar keinesfalls zweckfrei, aber ist von der Kommerzialisierung von Produkten und Technologien meist noch weit entfernt. Trotz dessen schafft sie Werte, die zwar manchmal Jahrzehnte bis zu ihrem Durchbruch benötigen, aber starke Ideengeber für Unternehmen oder Unternehmensgründer sind. Dieses immer wieder neue Wissen umfasst auch aktuelle Techniken und neuartige Methoden. Diese sollten die Hochschulen durch ihre Absolventen, aber auch in Eigenregie, noch stärker und aktiver der Industrie anbieten. Die Weiter- und Fortbildung von Fachwissenschaftlern in der Industrie durch Fachwissenschaftler an den Hochschulen muss zukünftig integrativer und zielgerichteter organisiert werden, um erworbenes Know-how langfristig in der Region zu sichern. Diese Schulungsfunktion auch jenseits des Erststudiums wird von den Universitäten bisher 38 Am aussagekräftigsten sind hier die Jahresberichte der beiden großen Universitäten, die zeigen, dass in Leipzig rund ein Drittel der Beschäftigten aus Drittmitteln bezahlt wird (1.165 Personen im Vgl. zu 2.054 Haushaltstellen, Jahresbericht 2007/2008, S. 166 f. Einsehbar unter: http://www.zv.uni-leipzig.de/uni-stadt/universitaet/rektorat-und -senat/rektorat.html). In Dresden ist das Verhältnis laut Rektoratsbericht 2008 (erhältlich unter: http://tu-dresden.de/die_tu_dresden/rektoratskollegium) sogar nahezu 1:1 (2.160 Haushaltsstellen im Vgl. zu 2.290 drittmittelfinanzierten Stellen, S. 61 und S. 95). Allerdings werden hier die wissenschaftlichen Hilfskräfte in der Berechnung der drittmittelfinanzierten Stellen, nicht jedoch in die der Haushaltsstellen miteinbezogen. 39 Vgl. oben: Bemerkungen zur High-Tech-Strategie der Bundesregierung und zur Lissabon-Strategie der EU.
Forschungsfinanzierung in den Biowissenschaften
45
wenig wahrgenommen und könnte den Hochschulen sogar zusätzliche Einnahmequellen erschließen. Die Wissenschaft und die Universitäten werden damit nicht ökonomisiert, sondern dienen ihrem genuinen Ziel des Fortschritts durch Schaffung neuen Wissens. Denn in der Wissenschaft bedeutet schon Stillstand einen Rückschritt.
Literatur Blankart, Charles B. (1997): Öffentliche Finanzen in der Demokratie, München. Bush, Vannevar (1945): Science. The endless Frontier. A report to the President of a Program for Postwar Scientific Research, Washington, D.C., Reprint July 1960. Deutsche Forschungsgemeinschaft (Hrsg.) (2008): Jahresbericht 2008, Bonn. Deutsche Forschungsgemeinschaft (Hrsg.) (2009): Förder-Ranking 2009. Institutionen – Regionen – Netzwerke. Fachliche Profile von Hochschulen und außeruniversitären Forschungseinrichtungen im Licht öffentlich geförderter Forschung, Weinheim. Europäische Kommission (Hrsg.) (2002): The Lisbon Strategy – Making Change Happen. Göransson, Bo / Maharajh, Rasigan / Schmoch, Ulrich (2009): New activities of universities in transfer and extension: multiple requirements and manifold solutions, in: Science and Public Policy, Vol. 36, No. 2, S. 157 – 164. Graham, Loren R. (1998): What Have We Learned About Science and Technology from the Russian Experience, Stanford. Hessels, Laurens K. / van Lente, Harro / Smits, Ruud (2009): In search of relevance: the changing contract between science and society, in: Science and Public Policy, Vol. 36, No. 5, S. 387 – 401. Kitson, Michael / Howells, Jeremy / Braham, Richard / Westlake, Stian (2009): The Connected University. Driving Recovery and Growth in the UK Economy, Research Report of NESTA, London. Krücken, Georg / Meier, Frank / Müller, Andre (2009): Linkages to the civil society as „leisure time activities“? Experiences at a German university, in: Science and Public Policy, Vol. 36, No. 2, S. 139 – 144. Laredo, Philippe (2007): Revisiting the Third Mission of Universities: Toward a Renewed Categorization of University Activities?, in: Higher Education Policy, Vol. 20, No. 4, S. 441 – 456. McMillan, G. Steven / Narn, Francis / Deeds, DavidL. (2000): An analysis of the critical role of public science in innovation: the case of biotechnology, in: Research Policy, Vol. 29, S. 1 – 8. Samarasekera, Indira V. (2009): Universities need a new social contract, in: Nature, Vol. 462, S. 160 – 161. Staatsministerium für Wirtschaft und Arbeit (Hrsg.) (2009): Biotechnology Report 2008, Dresden.
46
Anja Landsmann und Annette G. Beck-Sickinger
Statistisches Bundesamt (Hrsg.) (2007): Finanzen der Hochschulen, Fachserie 11, Reihe 4. 5, Wiesbaden. Statistisches Bundesamt (Hrsg.) (2009): Finanzen und Steuern. Ausgaben, Einnahmen und Personal der öffentlichen und öffentlich geförderten Einrichtungen für Wissenschaft, Forschung und Entwicklung 2007, Fachserie 14, Reihe 3.6., Wiesbaden. Vavakova, Blanka (1998): The New Social Contract Between Governments, Universities and Society: Has the Old One Failed?, in: Minerva, Vol. 36, S. 209 –228.
Verarmung des Wissens durch Evaluation? Effekte des Qualitätsmanagements in der Soziologie Von Richard Münch 1 Max Weber hat in seiner Kategorienlehre das für die Soziologie besonders charakteristische Spannungsverhältnis zwischen zwei Welten der Wissenschaft auf den Punkt gebracht. Nach seiner klassischen Definition ist die Soziologie eine Wissenschaft, „welche soziales Handeln deutend verstehen und dadurch in seinem Ablauf und seinen Wirkungen ursächlich erklären will“. 2 Die Soziologie soll also beides sein, Geisteswissenschaft und Naturwissenschaft zugleich, sie soll die soziale Wirklichkeit wie die Geschichtswissenschaft in ihrer konkreten Gegebenheit erfassen, aber auch analytisch zerlegen und in abstrakten Modellen kausale Zusammenhänge ermitteln. Soziologische Forschung soll an den Kriterien der Sinnadäquanz und der Kausaladäquanz gemessen werden. Diese Position in der Mitte zwischen zwei Welten der Wissenschaft wirkt sich unmittelbar auf die Art der Forschung, ihre Organisation und die Publikation ihrer Ergebnisse aus. In diesem Spannungsfeld sind auch verschiedene Aufgabenstellungen der Soziologie zu unterscheiden, die ebenso im Publikationsverhalten reflektiert werden. Wie sich das in der deutschen Soziologie darstellt, soll im Folgenden gezeigt werden. Dabei bietet sich ein Vergleich mit der amerikanischen Soziologie an, weil sich in diesem Vergleich die Eigenarten der deutschen Soziologie besser erklären lassen und Möglichkeiten der Entwicklung besser zu erkennen sind.
I. Der Stellenwert von Buch, Buchbeitrag, Zeitschrift, Konferenzbeitrag und Online-Veröffentlichungen Die Soziologie ist eine sehr vielfältige Disziplin mit deutlichen Differenzen im Publikationsverhalten verschiedener Teilgebiete und Aufgabenstellungen. Neben den Kerngebieten der Soziologischen Theorie, der Sozialstrukturanalyse, der 1 Prof. Dr. Richard Münch ist Inhaber des Lehrstuhls für Soziologie II an der Universität Bamberg. 2 Weber (1922,1976), S. 1.
48
Richard Münch
Methoden der empirischen Sozialforschung, der Makrosoziologie, Organisationssoziologie und Mikrosoziologie gibt es eine Vielzahl von Speziellen Soziologien, die sich über ihren Gegenstand definieren und selbst in die Praxis ihres Gegenstandsbereichs hineinwirken, zu ihr in einem reflexiven, sich gegenseitig beeinflussenden Verhältnis stehen. Religion, Familie, Jugend, Geschlecht, Stadt und Region, Wirtschaft, Arbeit, Beruf, Industrie, Betrieb, Recht, Medizin und Kriminalität sind nur einige Beispiele dafür. Was die Aufgabenstellung betrifft, lassen sich im Anschluss an eine vielbeachtete presidential address von Michael Burawoy 3 auf der Jahrestagung der American Sociological Association (ASA) im Jahre 2004 grundlegend mindestens vier mit eigenem Gewicht nennen: Die Professionelle Soziologie ist auf die Produktion soziologischer Erkenntnis für Soziologen spezialisiert. Ihr Kennzeichen ist besonders hoher methodischer Aufwand, um möglichst enggefasste spezielle Fragen der Soziologie zu beantworten. Dabei spielt die praktische Relevanz keine oder nur eine untergeordnete Rolle. Die typische Publikationsart der Professionellen Soziologie ist der begutachtete Fachzeitschriftenaufsatz. In diesem Publikationsmedium dominiert die methodisch gesicherte empirische Sozialforschung, wobei die quantitative Variante einen Vorrang vor der qualitativen hat. Eine Auszählung der mit dem Thyssen-Preis ausgezeichneten Aufsätze in den deutschsprachigen sozialwissenschaftlichen Fachzeitschriften hat für die 2000er Jahre 57,7% (14 an der Zahl) empirisch-quantitative, 26,9 % (7) empirisch-qualitative, 11,5% (3) theoretisch / ideengeschichtliche und 3,9 % (1) methodische Artikel ergeben. 4 Die Kritische bzw. Theoretische Soziologie macht sich die Soziologie, ihr begriffliches und theoretisches Instrumentarium, ihre Methodik und ihr Verhältnis zur gesellschaftlichen Praxis im Hinblick auf Sinn, Zweck und weitere Folgen und Nebenfolgen selbst zum Untersuchungsgegenstand. Diese Selbstreflexion der Soziologie findet sich breiter über verschiedene Publikationsarten verstreut, größte Beachtung findet sie jedoch in der Gestalt von Monographien, die Leitlinien für das soziologische Denken setzen. Die Maßstäbe dafür haben die Werke der soziologischen Klassiker gesetzt. Die Aufgabe der Policy-orientierten Soziologie ist die Begutachtung und Beratung der Praxis in einer Vielzahl von Handlungsfeldern. Viele Spezielle Soziologien sind aus dieser Aufgabenstellung hervorgegangen. Hier ist der Ort der Auftragsforschung für öffentliche und private Auftraggeber. Die typischen Publikationsarten dieser Soziologie sind der Forschungsbericht und das Gutachten. Diese Publikationsform strahlt auch auf die Publikationen aus, die sich an ein fachliches oder auch breiteres Publikum richten. Die Fragestellungen beziehen sich auf die soziale Wirklichkeit in ihrer ganzen Komplexität und lassen sich deshalb nicht in analytisch exakt geschnittene Forschungsprobleme umsetzen. Sie passen nicht in 3 4
Vgl. Burawoy (2005). Vgl. Alber / Fliegner / Nerlich (2009).
Verarmung des Wissens durch Evaluation?
49
die Kernzeitschriften der Soziologie, eher in entsprechende, Theorie und Praxis vermittelnde Spezialzeitschriften, wie z. B. die Zeitschrift für Sozialreform. Ein großer Teil dieser Literatur erscheint darüber hinaus in Sammelbänden. Die Öffentliche Soziologie behandelt Fragen von größerer Kulturbedeutung, gesellschaftlicher Relevanz und Aktualität. Sie wendet sich nicht an Soziologen als Soziologen und auch nicht an spezielle Auftraggeber, sondern an die breite Öffentlichkeit oder an Teilöffentlichkeiten. Publikationen zu aktuellen Problemen, Konflikten und Wandlungstendenzen der Gesellschaft, z. B. zu Armut, Ungleichheit, Religiosität, Ethnizität, Identität in der Gegenwartsgesellschaft, zu gesellschaftlichem Wandel im Kontext der Globalisierung und Europäisierung der Lebensverhältnisse repräsentieren diesen Typus von Soziologie. Es handelt sich dabei um zeitdiagnostische Werke. Ihre typische Erscheinungsform ist die Monographie, die sich an ein breiteres Publikum richtet. Die Teilgebiete der Soziologie haben jeweils eine gewisse Nähe zu einem der vier Typen der Soziologie. Die größere Zahl der Speziellen Soziologien neigt mehr zur Policy-orientierten Soziologie. Allerdings gibt es dazu auch jeweils die professionelle, in Fachzeitschriften erscheinende, weniger jedoch die öffentliche und die kritische Variante der Soziologie. Die Aufteilung der soziologischen Publikationen auf die verschiedenen Publikationsarten sagt etwas über die Anteile der verschiedenen Typen an der Soziologie insgesamt aus. Nach der 2008 veröffentlichten Pilotstudie des Wissenschaftsrates zum Forschungsrating Soziologie verteilten sich die Publikationen der deutschen Soziologie im Zeitraum von 2001 bis 2005 wie folgt: Sammelbandbeiträge 45,2 %, Zeitschriftenaufsätze 34,4 %, Monographien 7,3%, Sammelbände 6,8 %, Rezensionen 6,3 %. Die Zeitschriftenaufsätze haben sich auf über 1000 verschiedene Zeitschriftentitel verteilt. Davon wurden wiederum 375 als peer reviewed journal eingestuft. In dieser Kategorie ist demnach nur ein kleinerer Teil der erfassten Texte erschienen. 5 In dieselbe Richtung weist der Befund von Hornbostel / Klingsporn / von Ins, dass nahezu zwei Drittel der Referenzen im Jahrgang 2006 der Zeitschrift für Soziologie keine Zeitschriftenartikel waren. 6 Nicht berücksichtigt in der Pilotstudie des Wissenschaftsrates wurden Texte, die nicht in einem Verlag erschienen sind. Dazu gehört der größere Teil von Texten der Policy-orientierten Soziologie in Gestalt von auftragsgebundenen Forschungsberichten und Gutachten. Schätzungsweise handelt es sich dabei um eine erhebliche Menge an Literatur, die in der Pilotstudie des Wissenschaftsrates gar nicht in die Bewertung der Forschungsqualität der Forschungseinheiten eingeflossen ist. Darin kommt ein Problem der Evaluation soziologischer Forschung zum Ausdruck, das sich darin verdichtet hat, dass der begutachtete Fachzeitschriftenaufsatz in der Pilotstudie des Wissenschaftsrates mit großem 5 6
Vgl. Wissenschaftsrat (2008), S. 445. Vgl. Hornborstel / Klingsporn / von Ins (2008), S. 20.
50
Richard Münch
Abstand vor allen anderen Publikationsarten den größten Teil der Varianz in der Beurteilung der Forschungsqualität erklärt. In der Pilotstudie hat demnach der begutachtete Fachzeitschriftenaufsatz einen Vorrang bei der Bestimmung von Forschungsqualität erhalten, den er in der Publikationspraxis (noch) nicht hat und dem auch die Aufteilung der Soziologie in vier Typen mit je eigenen Aufgabenstellungen nicht entspricht. Die Präferenz für den begutachteten Fachzeitschriftenaufsatz in der Pilotstudie des Wissenschaftsrates erklärt sich maßgeblich daraus, dass es bei der Evaluation großer Datenmengen nicht möglich ist, die Qualität der Publikationen ohne externe Hilfe zu beurteilen. Weil begutachtete Fachzeitschriftenaufsätze schon evaluiert sind, vertraut man diesem Urteil und wertet alle anderen, nicht vorevaluierten Publikationstypen in vielen Fällen zu Unrecht ab, in mindestens ebenso vielen Fällen aber auch zu Recht. Die mangelnde Belohnung guter Sammelbände müsste am Ende dazu führen, dass sie vom Markt verschwinden und stattdessen der Zeitschriftenmarkt expandiert. 7 Zur großen Zahl von Sammelbandbeiträgen hat die deutlich gestiegene Zahl von Konferenzen beigetragen. Da die Veranstalter gegenüber ihren Förderern ihre Ergebnisse dokumentieren müssen, finden sich viele Konferenzbände mit nur halbwegs ausgearbeiteten Beiträgen unter der großen Menge an Sammelbänden. Weil alle darum wissen, ist ihr Wert jedoch äußerst gering. Auch das geht zu Lasten von qualitativ hochwertigen Konferenzbänden. Der von den Herausgebern und Autoren betriebene Aufwand wird in standardisierten Evaluationsverfahren nicht honoriert. Der noch in den Anfängen steckende Markt für Online-Publikationen wird aller Wahrscheinlichkeit nach diesem Trend folgen. Mit der wachsenden Menge an Publikationen gewinnen standardisierte Selektionsverfahren an Bedeutung. Es zählt dann weniger die Qualität eines Textes per se und mehr das in der Scientific Community anerkannte Gütesiegel in Gestalt der Reputation bzw. des Impacts der Zeitschrift oder des Verlags sowie in Gestalt von Begutachtungsverfahren als Vorselektion für die Rezipienten. Letztere können von den Vorselektionen gar nicht mehr abweichen, weil sie zu einer sozialen Tatsache geworden sind. Die Pilotstudie des Wissenschaftsrates fördert diese Entwicklung. Sie setzt Leitlinien, deren Befolgung die Publikationspraxis in der deutschen Soziologie mehr in die Richtung des begutachteten Fachzeitschriftenaufsatzes und dementsprechend in die Richtung der Professionellen Soziologie auf Kosten der Kritischen und Theoretischen, der Policy-orientierten und der Öffentlichen Soziologie verschieben wird. Herausragende Leistungen der Kritisch-Theoretischen, Policy-orientierten und Öffentlichen Soziologie finden unter dem Regime der Professionellen Soziologie nicht mehr die Anerkennung, die sie einmal hatten. 7
Vgl. Akerlof (1970).
Verarmung des Wissens durch Evaluation?
51
Dabei muss man wissen, dass die Professionelle Soziologie ihre theoretische und methodische Stringenz nur dadurch erreicht, dass sie nicht auf unmittelbare praktische Relevanz und gesellschaftliche Bedeutung zielt.
II. Die Bedeutung internationaler Publikationsorte bzw. -medien Von den in der Pilotstudie des Wissenschaftsrates erfassten Publikationen der Jahre 2001 bis 2005 sind nur 15,6% im nicht-deutschsprachigen Ausland, ganz überwiegend in englischer Sprache erschienen. 8 Das bringt einen im Vergleich zu den Naturwissenschaften und diesen nacheifernden gesellschafts- und humanwissenschaftlichen Disziplinen – wie die Volkswirtschaftslehre und die Psychologie – anscheinend sehr niedrigen Internationalisierungsgrad der Soziologie zum Ausdruck. Sie steht in dieser Hinsicht Disziplinen wie der Geschichtswissenschaft und der Jurisprudenz näher als der Ökonomie. Das hat zunächst etwas mit dem in der Soziologie nach wie vor bedeutsamen Wissenschaftsverständnis zu tun. Nach diesem Verständnis ist die Soziologie eine Wirklichkeitswissenschaft, die soziale Phänomene in ihrer an einem Ort und zu einer Zeit gegebenen konkreten Gestalt untersucht, z. B. den Korporatismus und die Deutschland AG als spezifische Formung des deutschen Kapitalismus oder das konservative Wohlfahrtsregime in Deutschland. Daran sind z. B. amerikanische Soziologen in der Regel nicht interessiert. Es hat sich jedoch die vergleichende Sozialforschung stark entwickelt, in deren Rahmen die deutschen Varianten von Kapitalismus und Sozialstaat international verglichen werden. 9 Dazu gehört auch die vergleichende Untersuchung des Wandels nationaler Institutionen im Kontext der Globalisierung und Europäisierung der Lebensverhältnisse. Einen starken Beitrag zu dieser Entwicklung hat die international vergleichende Lebenslaufforschung geleistet, die z. B. Bildungs- und Berufskarrieren, Übergänge von der Ausbildung in die Beschäftigung und von der Beschäftigung in den Ruhestand untersucht. Maßgebliche Beiträge zu dieser Entwicklung kommen aus Deutschland. 10 Dieses Forschungsfeld ist stark internationalisiert. Dementsprechend werden die deutschen Forschungsergebnisse ganz überwiegend in englischsprachigen Fachzeitschriften und Sammelbänden publiziert. Diese Forschung bewegt sich in einer sehr fruchtbaren Symbiose von Professioneller Soziologie und Policy-orientierter Soziologie. Sie ist stark international in Kooperation mit ausländischen Partnern vernetzt. Die Forschungsrahmenprogramme der Europäischen Union haben dazu wichtige Unterstützung 8
Vgl. Wissenschaftsrat (2008), S. 445. Vgl. Streeck / Thelen (2005). 10 Vgl. Mayer (2004); Blossfeld / Mills / Bernardi (2006); Blossfeld / Hofmeister (2006). 9
52
Richard Münch
geleistet. Zusammenschlüsse wie das European Consortium for Sociological Research und Fachzeitschriften wie die European Sociological Review (ESR) haben Grundlagen für eine stärkere europäische Vernetzung der empirischen Sozialforschung geschaffen. Dadurch ist in Europa ein gewichtiges Pendant zur seit Ende des Zweiten Weltkriegs dominanten amerikanischen Soziologie entstanden. Letztere hat vor allem die Entwicklung der Professionellen Soziologie, konzentriert in den führenden amerikanischen Fachzeitschriften – American Journal of Sociology (AJS), American Sociological Review (ASR) und Social Forces (SF) – vorangetrieben. Die breite Ausdifferenzierung der Soziologie in den großen amerikanischen Departments bringt es jedoch mit sich, dass auch ein Markt für Monographien existiert. Für deren Autoren gibt es die Kennzeichnung „book-people“. In der englischsprachigen Literatur sind die führenden Fachzeitschriften wie auch die führenden Universitätsverlage zu marktbeherrschenden Qualitätssiegeln geworden. Sie machen den riesigen Markt für die Rezipienten übersichtlich. In gewissem Maß ist das eine Monopolstellung, die das Potenzial für Innovationen beschränkt. Je mehr sich die Soziologie internationalisiert, umso mehr wird die von den führenden amerikanischen (nur zum Teil auch britischen) Fachzeitschriften und Verlagen repräsentierte Wissensordnung global verbindlich. Was international anerkannt werden will, muss sich in dieses System einfügen. Problematisch daran ist die Tatsache, dass jedoch insbesondere die amerikanische Soziologie gemessen an ihrer Rezeption nicht-amerikanischer Literatur überhaupt nicht internationalisiert ist. Das bedeutet auch, dass sich amerikanische Soziologen in eine ihnen weitgehend fremde Welt begeben, wenn sie zu Besuch nach Deutschland kommen. Die dominante Stellung der amerikanischen Soziologie resultiert in erheblichem Maße aus der Größe und Integration des amerikanischen Publikationsmarktes und der Nutzung des Englischen als internationale Wissenschaftssprache. Deswegen kann die Publikation in englischer Sprache nicht per se als Kennzeichen der Internationalität verwendet werden. Ein fairer Indikator der Internationalisierung müsste sich aus zwei Komponenten zusammensetzen: dem Import und dem Export von Publikationen, unabhängig von ihrer Sprache. Der Impact einer noch jungen Fachzeitschrift wie der European Sociological Review (ESR) ist noch meilenweit von demjenigen der American Sociological Review (ASR) oder des American Journal of Sociology (AJS) entfernt. Während es die beiden amerikanischen Zeitschriften im Jahr 2003 auf 5607 bzw. 4980 Zitationen gebracht haben, erreichte die europäische gerade einmal 160, etwa das Niveau der beiden führenden deutschsprachigen Zeitschriften, der Kölner Zeitschrift für Soziologie und Sozialpsychologie (KZSS) bei 224 und der Zeitschrift für Soziologie (ZfS) bei 138. Dementsprechend schwer wird es die von der Deutschen Gesellschaft für Soziologie (DGS) gegründete German Sociological Review haben. Ganz ähnlich wie für die deutsche stellt sich die Situation für die französische Soziologie dar. Die deutsche und die französische Soziologie haben mit den Klas-
Verarmung des Wissens durch Evaluation?
53
sikern Weber, Simmel und Durkheim maßgebliche und bleibende Grundlagen der Soziologie überhaupt gelegt und sind noch heute international bedeutende Träger der klassischen Traditionen und ihrer Weiterentwicklung. Wesentliche Paradigmen der theoretischen Soziologie wie die Kritische Theorie und die Systemtheorie in Deutschland und der Strukturalismus und Poststrukturalismus in Frankreich haben in anderen Ländern kein vergleichbares Pendant. Das bedeutet aber auch, dass sie in anderen Ländern selbst nur sehr wenig gepflegt werden. Das gilt insbesondere für die USA und für Großbritannien. Die entsprechende Literatur erscheint deshalb nach wie vor überwiegend in deutscher bzw. französischer Sprache. Es kann auch nur sehr begrenzt von Erfolg gekrönt sein, die entsprechenden Texte in englischer Sprache zu veröffentlichen. Das heißt, ein größerer Teil insbesondere der kritisch-theoretischen Soziologie lässt sich nur sehr begrenzt in den englischsprachigen Diskurs übersetzen. Auch darin zeigt sich, dass die Gleichung „Englisch = International“ in der Soziologie so allgemein nicht gilt. Ähnlich ist die Situation für die Öffentliche Soziologie und die Policy-orientierte Soziologie. Sie beziehen sich überwiegend auf Diskurse der nationalen Öffentlichkeit und auf Probleme nationaler Auftraggeber. Deswegen können deutsche Zeitdiagnosen und Forschungsberichte zu deutschen Problemen in englischer Sprache gar nicht die Resonanz erfahren wie in deutscher Sprache. Die renommierten Verlage lehnen entsprechende Publikationsangebote mit der Auskunft ab, dass es dafür in der englischsprachigen Welt keinen Markt gäbe. Wenn sie dort nicht erscheinen, zeugt das keineswegs von minderer Qualität, wie auch umgekehrt nicht alles, was in diesen Verlagen publiziert wird, von höherer Qualität ist. Die verschiedenen Aufgabenstellungen der Soziologie sind demnach für Internationalisierung und englischsprachige Publikationen unterschiedlich zugänglich. Am stärksten ausgeprägt ist die Internationalisierung der Professionellen Soziologie, bei einer noch bestehenden und sich nur langsam angesichts europäischer Vernetzung abschwächenden Dominanz der Vereinigten Staaten. Dagegen sperren sich die Kritisch-theoretische, die Policy-orientierte und die Öffentliche Soziologie gegen diese Form der Internationalisierung. Je mehr jedoch die Professionelle Soziologie die anderen Typen der Soziologie verdrängt, umso stärker wird sich die Soziologie als internationalisiert präsentieren, dies jedoch paradoxerweise auf Kosten einer Verengung ihres Denkhorizontes. Das ist ein kaum aufzulösendes Dilemma.
III. Traditionen der Einzel- und Ko-Autorenschaft Nach der Untersuchung von Hornbostel / Klingsporn / von Ins wurden 63 % der Artikel des Jahrgangs 2006 der Zeitschrift für Soziologie von einem einzelnen
54
Richard Münch
Autor veröffentlicht, 26% von zwei Autoren und 11 % von drei Autoren. Im American Journal of Sociology halten die von einem einzelnen Autor veröffentlichten Aufsätze auch noch die knappe Mehrheit von 51 %; 30 % wurden von zwei Autoren, 14 % von drei Autoren und 5% von vier Autoren verfasst. Das American Journal of Sociology steht etwa in der Mitte zwischen historischen und physikalischen Fachzeitschriften, die Zeitschrift für Soziologie steht den historischen Zeitschriften noch deutlich näher. 11 Die wachsende Dominanz der Professionellen Soziologie bringt eine Tendenz zur Vermehrung der Autoren mit sich. Das hat eine funktionale und eine strategische Seite. Funktional können mehrere Autoren eine Fragstellung arbeitsteilig differenzierter und tiefgehender bearbeiten. Strategisch können sie sich gemeinsam besser gegen mögliche Gutachtereinwände absichern, und sie verfügen zusammen über mehr soziales Kapital, das die Wahrscheinlichkeit erhöht, auf positiv eingestellte Gutachter zu treffen und eine größere Zahl von Rezipienten zu finden. Außerdem kann eine größere Zahl von Autoren im gleichen Zeitraum mehr Artikel veröffentlichen als eine kleinere Zahl von Autoren. Und sie können sich in größerer Zahl selbst zitieren. Je größer die Publikationszahl, die Platzierung von Publikationen in Zeitschriften mit hohem Impact und die erreichte Zitationsquote zum Erfolgskriterium für die wissenschaftliche Karriere wird, umso größeres Gewicht erhält die strategische Seite. Es kann deshalb prognostiziert werden, dass sich Ko-Autorenschaften unter diesen Bedingungen in der Zahl über die funktionale Notwendigkeit hinaus vermehren. Im American Journal of Sociology ist das schon deutlicher zu erkennen als in der Zeitschrift für Soziologie. Die wachsende Bedeutung der Professionellen Soziologie wird diesen Trend auch in Deutschland verstärken. Es ist auch klar ersichtlich, dass die am weitesten professionalisierten Forschungseinrichtungen immer größere Datenmengen verwalten und eine daran beteiligte größere Zahl von Autoren diese Daten für gemeinsame Publikationen verwenden. Dabei trägt sich das System der Datengenerierung und –analyse zunehmend von selbst, so dass der individuelle Beitrag der Autoren kaum noch zu erkennen ist. In einem solchen Forschungsverbund können auch durchschnittlich kreative Forscherinnen und Forscher hohe Publikations- und Zitationsquoten erreichen. Eine ganz eigene Form der Ko-Autorenschaft ist in dem großen Anteil von 34,4 % der Sammelbandbeiträge an allen Publikationen zu erkennen. In einer größeren Zahl der Sammelbände bringen die Herausgeber mehrere Autoren zusammen, um ein Thema in unterschiedlichen Aspekten zu untersuchen. Eine spezielle Variante davon sind international vergleichende Untersuchungen, bei denen Forscher aus mehreren Ländern zusammenarbeiten. Auch diese Koopera11
Vgl. Hornborstel / Klingsporn / von Ins (2008), S. 15.
Verarmung des Wissens durch Evaluation?
55
tionen haben eine funktionale und eine strategische Seite. Dabei verschwindet hinter dem gemeinsamen Forschungsrahmen tendenziell die kreative Leistung der einzelnen Kooperationspartner. Die Rolle der führenden Wissenschaftler solcher Forschungsverbünde verlagert sich von der kreativen Forschung weg und hin zum Forschungsmanagement. Es wird dann ein einmal gefundenes Programm aufgrund seines Erfolgs in verschiedenen Variationen fortgeführt. Durch das starke Gewicht koordinierter Programme in der Forschungsförderung der DFG und der EU ergibt sich auch in der Soziologie eine Tendenz zur Verdrängung individueller Forscherpersönlichkeiten durch Großkollaborationen in Forschungsverbünden. Dafür gibt es einerseits funktionale Gründe der arbeitsteiligen Forschung, andererseits erfolgt aber auch die strategische Nutzung solcher Kollaborationen zur sichtbaren Positionierung in der Scientific Community.
IV. Anforderungen an das Publikationsverhalten in einzelnen Karrierestufen Die klassische Karriere führte in der Soziologie wie in den geisteswissenschaftlichen Disziplinen von der Veröffentlichung der Dissertation über die Veröffentlichung der Habilitationsschrift plus einer sichtbaren Zahl von Beiträgen in Fachzeitschriften und Sammelbänden im besten Fall zur Professur, mangels verfügbarer Professorenstellen aber auch in jahrelang unsichere Beschäftigung. Dissertation und Habilitationsschrift wurden beide als Monographien verfasst. Die Habilitationsschrift sollte die Qualität eines umfangreichen und tiefschürfenden Werkes haben. Sie sollte die imposante Leistung eines jungen Gelehrten sein, der mit seiner Persönlichkeit einen prägenden Einfluss auf das Fach ausüben kann. Nach der Berufung auf einen Lehrstuhl haben die Lehrtätigkeit, die Betreuung von Diplomanden, Doktoranden und Habilitanden, Vorträge bei Konferenzen, die Pflege von Kooperationen und Austauschbeziehungen, die Teilnahme an der akademischen Selbstverwaltung und die Übernahme von Aufgaben für die soziologische Profession im Speziellen (Gutachtertätigkeit, Herausgeberschaft von Fachzeitschriften) und für die Forschungsorganisation im Allgemeinen ein so großes Gewicht bekommen, dass nur wenige Professoren während ihrer gesamten Karriere ein hohes Publikationsniveau aufrechterhalten können. Nur sehr wenige publizieren weiterhin Monographien und Fachzeitschriftenaufsätze. Für die große Mehrheit sind die Herausgabe von Sammelbänden und erbetene Beiträge zu Sammelbänden die typische Publikationsform. Die Vorträge bei Konferenzen sollen in einem Konferenzband veröffentlicht werden, außerdem kommen ständig Einladungen zu Sammelbandbeiträgen. Wer sich diesem Publikationszwang nicht entziehen oder ihn geschickt bewältigen kann, ist als Autor von Fachzeitschriftenaufsätzen oder Monographien verloren. Man könnte die Zahl von Einladungen zu solchen Publikationsprojekten als Reputationsbeweis werten. Die Pilotstudie des Wissenschaftsrats hat davon je-
56
Richard Münch
doch auch mangels Daten Abstand genommen und statt dessen ganz überwiegend Qualität anhand des begutachteten Fachzeitschriftenaufsatzes gemessen, ungeachtet der Tendenz, dass bei der zunehmenden Zahl von Autoren der einzelnen Aufsätze und der kooperativen Verwertung großer Datenmengen die einzelne Forscherpersönlichkeit hinter dem Verbundprodukt verschwindet. Das wird die schon zu beobachtende Tendenz zur Publikationspraxis der Professionellen Soziologie verstärken. Die Tendenz geht dahin, dass auch die Doktoranden versuchen sollten, aus dem Kontext ihrer Dissertation vor Abschluss und nach Abschluss des Promotionsverfahrens zwei bis drei Fachzeitschriftenaufsätze zu veröffentlichen, im Einzelfall auch einzelne Kapitel daraus, im besten Fall in englischer Sprache, was im Falle der in der Regel deutschsprachigen Dissertation auch gut möglich ist. Strukturierte Doktorandenprogramme wie die DFG-Graduiertenkollegs oder neuerdings die Graduiertenschulen befördern ein solches Publikationsverhalten, auch durch die Förderung von Konferenzteilnahmen, bei denen jeweils Papiere präsentiert werden, aus denen Aufsätze hervorgehen können. Typischerweise schließt sich an die Promotion immer weniger direkt eine Habilitationsphase mit einer Sechsjahresperspektive an, sondern eine offene Postdoktorandenphase, bei der sich in zwei bis drei Jahren entscheidet, ob es mit der akademischen Karriere weitergeht. Diese Entscheidung ergibt sich zunehmend aus der erfolgreichen Publikation von Fachzeitschriftenaufsätzen. Damit ist der Weg zur kumulativen Habilitation vorgezeichnet, zumal es kaum machbar ist, schon frühzeitig mit Fachzeitschriftenaufsätzen auf dem Publikationsmarkt sichtbar zu sein und quasi nebenher eine große Monographie zu verfassen, zumal die Zufriedenstellung der Gutachter bei den eingereichten Fachzeitschriftenaufsätzen angesichts der zunehmenden Ablehnungsquoten immer aufwändigere Revisionen verlangt. Um auf diesem Markt erfolgreich bestehen zu können, ist die strategische Nutzung von Ko-Autorenschaften ein erheblicher Wettbewerbsvorteil. Daraus folgt, dass bei den kumulativen Habilitationen der Anteil von in Kollaboration mit einem, zwei oder noch mehr Autoren verfassten Aufsätzen wächst. Wer sich in diesem Wettbewerb durchsetzt und auf einen Lehrstuhl berufen wird, ist in einer Position, in der er oder sie kollaborative Forschung in größerem Stil betreiben kann. Er oder sie wird die eingeübte Praxis der Publikation in Ko-Autorenschaft in mehr oder weniger großen Verbünden weiter pflegen können. Der Bruch zwischen der Qualifizierungsphase und der Reifephase wird weniger dramatisch ausfallen. Einen zunehmenden Einfluss auf das Publikationsverhalten hat in den vergangenen 25 Jahren die wachsende Drittmitteleinwerbung ausgeübt. Sie hat im besten Fall eine Datenbasis geschaffen, die sich kollaborativ für eine größere Zahl von Publikationen nutzen lässt. In vielen Fällen ist dadurch aber auch ein circulus vitiosus der Drittmitteleinwerbung zur Beschäftigung von Mitarbeitern entstanden. Das Schreiben von Texten erschöpft sich weitgehend in einer An-
Verarmung des Wissens durch Evaluation?
57
trags- und Berichtsprosa, die auf dem Publikationsmarkt gar nicht erscheint. Die daran beteiligten Projektmitarbeiter werden auf diesem Markt gar nicht sichtbar und haben keine akademischen Karrierechancen. Je mehr die etatmäßigen Mitarbeiter neben der Lehre in dieses Einwerbungsgeschäft einbezogen sind, umso weniger können sie sich durch Publikationen qualifizieren. Zusammen mit den aus Studiengebühren finanzierten Lehrkräften wächst ein Mittelbau heran, der kaum auf dem Publikationsmarkt erscheint. Das Rennen bei Berufungsverfahren machen deshalb immer häufiger Kandidaten, die von diesem Geschäft befreit waren und sich ganz auf die Positionierung auf dem Publikationsmarkt konzentrieren konnten, sei es in außeruniversitären Forschungseinrichtungen, sei es mit Hilfe von Promotions-, Postdoc- und / oder Habilitationsstipendien. Ihre geringe Lehrerfahrung verlangt dann wieder die Unterstützung durch eine größere Zahl von Lehrkräften. So verlaufen Forschung und Lehre zunehmend in getrennten Bahnen. Durch die frühere und schärfere Trennung der beiden Funktionen gehen für beide Seiten Talente verloren und beide Seiten können sich weniger gegenseitig befruchten.
V. Unterschiede zwischen üblichen Verfahrensweisen in Deutschland und verschiedenen anderen Weltregionen Im internationalen Vergleich setzen die USA die „Benchmark“. Die American Sociological Association (ASA) wurde 1905 gegründet und hat gegenwärtig mehr als 14 000 Mitglieder, die 1909 gegründete Deutsche Gesellschaft für Soziologie nur rund 1800. Bei einer etwa dreieinhalbfach größeren Einwohnerzahl übersteigt die Mitgliederzahl der ASA diejenige der DGS um das Achtfache. Die ASA hat 44 Sektionen mit insgesamt 21 000 Mitgliedern. Sie gibt zehn Fachzeitschriften bzw. Magazine heraus. Die jährlich stattfindenden Kongresse besuchen mehr als 6000 Teilnehmer. Die DGS hat 34 Sektionen und verfügte bis 2010 nur über ein Mitteilungsheft, das viermal pro Jahr erscheint. Erst ab 2011 wird eine eigene Fachzeitschrift publiziert. Zu den im Rhythmus von zwei Jahren durchgeführten Kongressen kommen etwa 1700 Teilnehmer (zuletzt in Jena 2008). Das sagt sehr viel über das Marktvolumen, die Differenzierung in ausreichend große Teilmärkte bzw. communities von Spezialisten und die Chancen, für spezielle Beiträge auch genug Rezipienten zu finden, um zumindest auf einem Teilmarkt sichtbar zu sein. Amerikanische Soziologen sind deshalb auch nicht darauf angewiesen, außerhalb der USA Rezipienten zu finden bzw. selbst Literatur von außerhalb zu rezipieren. Sie erreichen dementsprechend auf dem amerikanischen Publikationsmarkt allein schon aufgrund ihrer Zahl den achtfachen Impact im Vergleich zu deutschen Soziologen auf dem deutschen Publikationsmarkt. Ein Jahrgang der beiden führenden amerikanischen Fachzeitschriften wird sogar 22bis 41-mal häufiger zitiert als ein Jahrgang der beiden führenden deutschen Fach-
58
Richard Münch
zeitschriften. 12 Das erklärt sich nur in geringem Maße aus der um gut ein Drittel höheren Zahl der darin enthaltenen Aufsätze. Der weitaus größere Teil findet in der in den USA und weltweit ausgebreiteteren Rezeption der beiden amerikanischen Fachzeitschriften im Vergleich zu den deutschen seine Erklärung. Das liegt einerseits an der globalen Durchsetzung des Englischen als internationale Wissenschaftssprache, andererseits an der Größe des integrierten amerikanischen Publikationsmarktes wie auch an der Größe und Ausdifferenzierung der amerikanischen Soziologie-Departments und an der damit zusammenhängenden Anziehungskraft der amerikanischen Universitäten. Nachwuchswissenschaftler aus aller Welt finden in jeglicher Hinsicht von der Alltagssprache, dem Alltagsleben über die jeweils vorhandenen communities von Immigranten bis zu den Annehmlichkeiten des Campus-Lebens an den amerikanischen Universitäten viel leichter Zugang zur amerikanischen Soziologie-Welt als an deutschen Universitäten zur deutschen. Dazu kommen die großen Unterschiede im Studienaufbau und in der Personalstruktur. 13 Auch in dieser Beziehung sagt die Tatsache sehr viel, dass die Bevölkerung der USA diejenige von Deutschland um das Dreieinhalbfache übersteigt, die Zahl der ASA-Mitglieder diejenige der DGS-Mitglieder jedoch um das Achtfache. Das ergibt sich daraus, dass die Mitglieder in aller Regel Professorenstatus haben. In den USA beginnt dieser Status mit der Tenure-trackPosition des Assistant Professor nach der Promotion. Infolgedessen sind durchschnittlich 75 % des wissenschaftlichen Personals an amerikanischen Departments Professoren. In Deutschland ist es genau umgekehrt. Ein amerikanisches Soziologie-Department kann sich aus 30 bis 40 Professoren zusammensetzen, denen persönlich keine Mitarbeiter zur Verfügung stehen. Lediglich vorübergehend werden sie für spezifische Lehraufgaben oder Forschungsprojekte von Doktoranden als teaching oder research assistants für fünf bis zehn Stunden in der Woche unterstützt. Im Unterschied zu etatmäßig oder in Projekten beschäftigten Mitarbeitern von Professoren in Deutschland sind die Assistant Professors in den USA selbständige Anbieter und Rezipienten auf dem Publikationsmarkt. Unterhalb dieser Qualifikationsstufe bietet das institutionalisierte Promotionsstudium eine breite und international attraktive Grundlage für die Rekrutierung von Assistant Professors. Auch das fehlt in Deutschland noch weitgehend. Erst über die Graduiertenkollegs und Graduiertenschulen finden sich hier Ansätze, die dem amerikanischen Modell folgen, allerdings noch mit großen Startschwierigkeiten, insbesondere deshalb, weil es für die Promovierenden kein mit den USA vergleichbares Karrieremuster wie das amerikanische Tenure-track Modell gibt.
12 13
Vgl. Münch (2007), S. 161 – 204. Vgl. Münch (2009), S. 95 – 104.
Verarmung des Wissens durch Evaluation?
59
Diese Unterschiede haben erhebliche Konsequenzen für die Breite der Ausdifferenzierung des Faches, insbesondere in interdisziplinäre Bereiche hinein, und für das entsprechende Publikationsverhalten. In den USA können sich Nachwuchswissenschaftler in einem Spezialgebiet mit einer in einem führenden Universitätsverlag erschienenen Dissertation und einigen Fachzeitschriftenaufsätzen für eine Professur im Tenure-track Verfahren qualifizieren. Bei 30 bis 40 Professoren an einem Department gibt es dafür den nötigen Spielraum. In Deutschland können sie mit einer Spezialisierung außerhalb der Kerngebiete und außerhalb des mainstreams an einem Institut mit durchschnittlich fünf Professoren nicht zum Erfolg kommen, weil es dafür keine Professuren gibt. Der deutschen Soziologie fehlt deshalb in einer Vielzahl von Spezialgebieten die kritische Masse, um mit der amerikanischen Soziologie mithalten zu können. Spezielle Soziologien wie die Wirtschaftssoziologie, die Rechtssoziologie, die Familiensoziologie oder die Bildungssoziologie verfügen deshalb in Deutschland im Vergleich zu den USA über zu wenig kritische Masse, um international sichtbar zu sein. Dementsprechend gibt es auch weniger Potenzial für die Professionalisierung von Speziellen Soziologien in einem Markt von Fachzeitschriften, so dass sie weitgehend von Auftragsforschung absorbiert werden, die im professionellen Kern der Disziplin nicht sichtbar wird und dort keine Wirkung entfaltet. Es gibt zwar eine Vielzahl von Projektmitarbeitern, die in dieser Forschung tätig sind. Aus ihrer Antrags- und Berichtsprosa entstehen jedoch keine international sichtbaren Publikationen. Wo in den USA Spezialgebiete der Soziologie für junge und ältere Wissenschaftler – oft in gleichberechtigter Ko-Autorenschaft – einen größeren Markt für professionelle Publikationen bilden, herrscht in Deutschland das Modell vor, dass der Professor durch eine Vielzahl von Verpflichtungen sowie durch das Projektmanagement und die Mitarbeiter durch das Verfassen von Anträgen und Berichten vom professionellen Publikationsmarkt ferngehalten werden. Nur in wenigen Ausnahmefällen gelingt es, sich diesen Zwängen zu entziehen und sich dem amerikanischen Modell zu nähern. International ist das amerikanische Modell führend geworden. Es profitiert sowohl von der Größe des amerikanischen Publikationsmarktes und seiner Teilmärkte als auch von der internationalen englischen Wissenschaftssprache, maßgeblich aber auch von den Vorteilen der Personalstruktur und des Promotionsstudiums. Die Vernetzung der europäischen Soziologien hat bei weitem noch nicht einen dem integrierten amerikanischen Publikationsmarkt nahe kommenden integrierten europäischen Publikationsmarkt geschaffen, der außerdem einen ähnlichen weltweiten Einfluss ausübt. Das ist unmittelbar an dem 31bis 35-fach höheren Zitationsaufkommen des American Journal of Sociology und der American Sociological Review im Vergleich zur European Sociological Review abzulesen. Das bedeutet, dass die übrigen Weltregionen weitgehend dem amerikanischen Modell folgen und dadurch dessen hegemoniale Stellung unterstützen.
60
Richard Münch
VI. Besonderheiten des Faches im Vergleich zu anderen Disziplinen Die Soziologie steht im Spannungsverhältnis zwischen geisteswissenschaftlicher Hermeneutik und naturwissenschaftlicher Kausalanalyse, zwischen der Erfassung der konkreten sozialen Wirklichkeit wie in der Geschichtswissenschaft und der abstrakten Modellbildung wie in der Ökonomie. Sie kann als Wirklichkeitswissenschaft und als analytisch verfahrende Kausalwissenschaft betrieben werden. Das hat nachhaltige Auswirkungen auf das Publikationsverhalten. Auf der einen Seite steht die Präferenz für den Typus des Gelehrten klassischer Art, für Monographien in Alleinautorenschaft, von der Dissertation über die Habilitationsschrift bis zum opus magnum. Auf der anderen Seite steht die Professionelle Soziologie des begutachteten Fachzeitschriftenaufsatzes, deren Anforderungen aus funktionalen und strategischen Gründen fast nur noch von Forschungsverbünden und Mehrfachautorenschaften erfüllt werden können. Je mehr die Professionelle Soziologie die Oberhand gewinnt, umso mehr verschwindet der gelehrte Soziologe / die gelehrte Soziologin und umso schwerer wird es, die kreativen Köpfe aus den üblichen Autorennetzwerken herauszufinden. Der gelehrte Soziologe / die gelehrte Soziologin wird in die Philosophie, die Geschichtswissenschaft oder die Literaturwissenschaft abgedrängt oder auch in die Rolle des Schriftstellers oder Feuilletonisten. Jeweils geht dabei der Bezug zum professionellen Kern der Soziologie verloren. Auffallenderweise bietet die erwähnte breite Ausdifferenzierung der amerikanischen Soziologie auch für den Typus des / der Gelehrten in Gestalt der „book people“ einen guten Nährboden, während es dafür in Deutschland mit der wachsenden Bedeutung der Professionellen Soziologie zunehmend weniger Platz gibt. Als eine dezidiert der Unterstützung von kreativen Forscherpersönlichkeiten verpflichtete Fördereinrichtung kann die Alexander von Humboldt-Stiftung maßgeblich dazu beitragen, dass auch in der Soziologie dieser Typus des Forschers und der Forscherin innerhalb und außerhalb der Verbundforschung überlebt. Strukturell bedarf es dazu einer erheblichen Verbreiterung und Ausdifferenzierung soziologischer Forschung auf Professorenebene durch eine grundlegende Personalreform. Dann gibt es auch ein viel breiteres Potenzial an interessanten Kooperations- und Diskussionspartnern für ausländische Soziologinnen und Soziologen.
VII. Schlussbemerkungen Die deutsche Soziologie ist neben der französischen und der amerikanischen eine der großen Gründerinnen der Soziologie überhaupt und ihrer weltweiten
Verarmung des Wissens durch Evaluation?
61
Verbreitung. Auch heute noch gehört sie weltweit zu den gewichtigsten Trägern der Disziplin. Die schiere Größe des amerikanischen Publikationsmarktes, die Durchsetzung des Englischen als internationale Wissenschaftssprache und die Vorteile der amerikanischen Personal- und Studienstrukturen drohen jedoch die deutsche Soziologie in eine marginale Position zu drängen, wenn es nicht gelingt, durch eine Reform der Personalstruktur und die damit einhergehende Vergrößerung des Potenzials von Beiträgen zu den internationalen Publikationsmärkten ein breiteres Spektrum soziologischer Spezialgebiete in genügender kritischer Masse zu etablieren. Daraus würde sich eine breitere internationale Präsenz der deutschen Soziologie sowohl auf den Märkten für Fachzeitschriften als auch auf den Märkten für Monographien ergeben. Ebenso wäre es besser möglich, den verschiedenen Aufgabenstellungen der Soziologie zugleich gerecht zu werden, wie auch das Spannungsverhältnis zwischen Hermeneutik und Kausalanalyse nicht zugunsten der Kausalanalyse aufgelöst werden müsste.
Literatur Akerlof, George (1970): The Market for ‚Lemons‘: Quality Uncertainty and the Market Mechanism, in: Quarterly Journal of Economics, Vol. 84, No. 3, S. 488 –500. Alber, Jens / Fliegner, Florian / Nerlich, Torben (2009): Charakteristika prämierter Forschung in der deutschsprachigen Sozialwissenschaft. Eine Analyse der mit dem Preis der Fritz-Thyssen-Stiftung ausgezeichneten sozialwissenschaftlichen Aufsätze 1981 – 2006, Manuskript, Berlin. Blossfeld, Hans-Peter / Mills, Melinda / Bernardi, Fabrizio (Hrsg.) (2006): Globalization, Uncertainty and Men’s Careers. An International Comparison, Cheltenham. Blossfeld, Hans-Peter / Hofmeister, Heather (Hrsg.) (2006): Globalization, Uncertainty and Women’s Careers, Cheltenham. Burawoy, Michael (2005): For Public Sociology, in: Soziale Welt, Heft 56, S. 347 –374. Hornborstel, Stefan / Klingsporn, Bernd / von Ins, Markus (2008): Messung von Forschungsleistungen – eine Vermessenheit?, in: Publikationsverhalten in unterschiedlichen wissenschaftlichen Disziplinen, Diskussionspapier der Alexander von HumboldtStiftung Nr. 12, Bonn, S. 11 – 32. Mayer, Karl Ulrich (2004): Whose Lives? How History, Societies, and Institutions Define and Shape Life Course, in: Research in Human Development, Vol. 1, No. 3, S. 161 – 187. Münch, Richard (2007): Die akademische Elite. Zur sozialen Konstruktion wissenschaftlicher Exzellenz, Frankfurt / M. Münch, Richard (2009): Globale Eliten, lokale Autoritäten. Bildung und Wissenschaft unter dem Regime von PISA, McKinsey & Co, Frankfurt / M. Streeck, Wolfgang / Thelen, Kathleen (Hrsg.) (2005): Beyond Continuity: Institutional Change in Advanced Political Economies, New York.
62
Richard Münch
Weber, Max (1922/1976): Wirtschaft und Gesellschaft, Tübingen. Wissenschaftsrat (Hrsg.) (2008): Forschungsleistungen deutscher Universitäten und außeruniversitärer Einrichtungen der Soziologie, Köln.
Zur Problematik der Forschungsevaluation Von Stefan Hornbostel 1
I. Einleitung Als vor rund 30 Jahren die ersten Forschungsevaluationen in Großbritannien aufkamen, waren sie vor allem von Misstrauen in die Selbststeuerungsfähigkeit des Wissenschaftssystems geprägt. „Value for money“ war der Kampfruf, den Margaret Thatcher auch der Wissenschaft entgegen schleuderte. In den kontinentaleuropäischen Versionen spielte hingegen von Anfang an ein stärker formatives Element eine größere Rolle: Evaluation als systematische Reflexion des eigenen Handelns und die Bereitstellung von Fremdreferenz für strategische Entwicklungsentscheidungen. Beide Elemente sind auch heute noch erhalten, allerdings haben sich die Randbedingungen erheblich verändert. Evaluationen sind nicht nur ubiquitär geworden, auch die Folgen wirken tief in inhaltlich-strategische und ressourcenbezogene Entscheidungen hinein. Parallel dazu sind die Instrumente, Verfahren und Indikatoren ausgefeilter geworden und teilweise auch einem Laienpublikum ohne Weiteres zugänglich. Das hat Konsequenzen für das Management von Wissenschaft, für die Handlungsstrategien von Wissenschaftlern, für die Macht- und Konfliktkonstellationen in und zwischen Disziplinen, für die Entwicklung von Wissen und auch für die Wissenschaftspolitik. Es gilt daher vorsichtig zu bilanzieren, welche intendierten und welche nicht-intendierten Effekte mit der Ausweitung der Forschungsevaluation eingetreten sind.
II. Evaluation als business Evaluation – verstanden als systematische und organisierte Bewertung von Sachverhalten, Erkenntnisansprüchen oder Organisationsleistungen – ist keineswegs neu. Die Spur zieht sich vom sechzehnten Jahrhundert, in dem die „Indexkongregation“ der katholischen Kirche mit dem „Index der verbotenen Bücher“ ein erstes großes, sich an die juristischen Praktiken anlehnendes Evaluations1
Prof. Dr. Stefan Hornbostel ist Leiter des Instituts für Forschungsinformation und Qualitätssicherung (iFQ) Bonn.
64
Stefan Hornbostel
verfahren zur theologischen Dogmenkompatibilität auf den Weg brachte, über die Wissenschaft im siebzehnten Jahrhundert, wo in der britischen Royal Society organisierte Evaluationsprozesse in Gestalt des an ständischen Ehrenkodizes orientierten „Peer Review“ zur Prüfung wissenschaftlicher Erkenntnisansprüche eingeführt wurden, die zugleich als Legitimationsbasis für die Befreiung von staatlicher Zensur dienten, bis hin zur Ökonomie, wo mit dem Aufkommen von Börsen und Aktienunternehmen seit dem neunzehnten Jahrhundert auch Ratingagenturen zur Bewertung von Unternehmen betrieben werden. 2 In der Zeit nach dem zweiten Weltkrieg entwickelten sich Evaluationsverfahren in fast allen gesellschaftlichen Bereichen relativ schnell weiter, so dass Programmevaluationen in den USA bereits in den 1950er Jahren weit verbreitet waren und in den späten 1960er Jahren Evaluation schon als eine „growth industry“ bezeichnet wurde, die sich in den 1970er Jahren als „Evaluationsforschung“ in den USA auch als eigenständiges akademisches Feld innerhalb der Sozialwissenschaften etablierte. 3 In Europa fand diese Entwicklung etwas verzögert statt; spätestens seit den 1980er Jahren haben sich Evaluationen – im weitesten Sinne – aber auch in Europa über fast alle gesellschaftlichen Bereiche ausgebreitet, was Michael Power 1997 mit dem plakativen Begriff der „Audit-Society“ kennzeichnete. Ein wesentlicher Antrieb für die jüngste Ausbreitung (auch auf dem Gebiet der Wissenschaft) lag in vielen europäischen Ländern in der Einführung neuer Steuerungsmodelle für die staatliche Administration, die verstärkt mit Wirkungskontrollen und einer Verschiebung von der inputorientierten Steuerung hin zu einer OutputSteuerung operierte. 4 Die starke Nachfrage nach Evaluation hat auch im engeren Bereich der Forschungsevaluation zu einer ganzen Reihe von Gründungen sowohl kommerzieller wie auch non-profit Agenturen und Gesellschaften geführt. Am deutlichsten sichtbar wird der sich derzeit vollziehende Wandel aber bei den kommerziellen Anbietern von wissenschaftlicher Fachinformation. Wer heute im „Web of Science“ – besser als Science Citation Index bekannt – nach Literatur sucht, wird schnell bemerken, dass der Verkauf von Literaturnachweisen längst zu einem Nebengeschäft geworden ist. Die beiden großen Anbieter Thompson Reuters (Web of Science) und Elsevier (Scopus) haben sich inzwischen auf ein Geschäftsfeld kapriziert, das man mit ‚Managementinformation für Wissenschaftler‘ umschreiben könnte. Die Angebote beruhen zwar auf den gesammelten Nachweisen wissenschaftlicher Literatur, verkauft werden aber nicht die Literaturnachweise, sondern strukturelle Informationen, die aus den Daten generiert werden.
2 3 4
Vgl. Hornbostel (2007), Power (1997), Biagioli (2002). Rossi / Lipsey / Freeman (2004). Vgl. Hornbostel (2010).
Zur Problematik der Forschungsevaluation
65
„Science research is now such a large enterprise and the substance of scientific research is so complex and specialized that personal knowledge and experience are no longer sufficient tools for understanding trends or for making decisions“, 5 heißt es im White Paper zum Umgang mit Bibliometrie von Thompson Reuters. Im zugehörigen Produkt (InCites) finden sich – ganz im Stil graphisch ansprechend gestalteter betriebswirtschaftlicher Managementinformationssysteme – eine Fülle von Indikatoren, benchmarks und Entwicklungsverläufen, die zur Bewertung von wissenschaftlichen Einrichtungen ebenso wie zur Beurteilung einzelner Wissenschaftler anempfohlen werden. Während Thompson Reuters im White Paper noch ausdrücklich vor Verabsolutierungen warnt – „publication and citation analysis is meant to be a supplement to peer review“, 6 bewirbt es auf den eigenen Internetseiten das Produkt mit dem Vorzug unzweifelhafter Objektivität: „Base your crucial decisions on accurate, objective information and sound metrics: track research performance; establish benchmarks; make funding decisions; look for transfer opportunities; formulate strategies“. Elsevier bewirbt sein Produkt (SCIVAL), das ebenfalls sehr stark an betriebswirtschaftlichen Informationstools orientiert ist, entsprechend mit wettbewerbsorientierten Managementslogans: „Academic Executives need accurate research performance insight to make appropriate funding decisions and develop strategic blueprints that will lead their institutions to valuable breakthroughs“. 7 Neben diesen kommerziellen Anbietern wird seit gut zehn Jahren auch das Internet (insbesondere die von Google gesammelten Informationen) systematisch genutzt, um diverse Performance-Indikatoren für Wissenschaftler zu berechnen. Das wohl bekannteste Beispiel ist die von der australischen Professorin für internationales Management Anne-Wil Harzing unterhaltene Internetseite „Publish or perish“, 8 die die Literaturnachweise aus Google Scholar als Datenbasis nutzt. Wurden derartige Angebote lange Zeit eher als Kuriosität behandelt, da die zugrunde liegende Datenkollektion – anders als bei den kommerziellen Anbietern – durch kaum rekonstruierbare Auswahlprozesse zustande kommt und die Zitierungen ebenfalls auf wenig durchsichtige Weise (und mit intransparenten Verfahren der Qualitätskontrolle) ermittelt werden, ist inzwischen sowohl die Datenqualität wie auch die Nutzung dieser nach wie vor als „fuzzy“ zu bezeichnenden Verfahren massiv gestiegen. Zu den Nutzern zählen dabei nicht nur Wissenschaftler, die regelmäßig kontrollieren, ob sich ihr h- oder g-Index bewegt hat, vielmehr nutzen auch seriöse Forschungseinrichtungen dieses Instru5
Pendlebury (2008). Ebd. 7 Vgl.http://www.info.spotlight.scival.com/documents/files/content/pdf/prospectus.pdf, abgefragt am 20. 3. 2010. 8 Publish or Perish, version 2. 8. 3644, online verfügbar unter: www.harzing.com/pop .htm. 6
66
Stefan Hornbostel
ment inzwischen, um den Output ihrer Wissenschaftler zu kontrollieren und zu bewerten. 9 Derartige im weitesten Sinne scientometrische Verfahren haben zwar das klassische Peer Review in der Manuskriptbegutachtung, in der Begutachtung von Forschungsförderungsanträgen, in institutionellen Evaluationen oder in Ratingverfahren nicht vollständig ersetzt, sie werden aber immer häufiger entweder in Kombination mit dem Peer Review oder auch anstelle derart aufwändiger Begutachtungsprozesse eingesetzt.
III. Indikatoren als Qualitätsurteil? Die wissenschaftsphilosophische Frage nach der Qualität von Forschungsergebnissen wird mit scientometrischen oder bibliometrischen Indikatoren nicht beantwortet, sondern ersetzt durch Informationen, die verschiedene Aspekte wissenschaftlicher Aktivität und des „Erfolges“ dieser Aktivität sichtbar machen. „Erfolg“ ist dabei im Wesentlichen eine operationale Definition, die je nach Ermittlungsverfahren anders ausfällt. Während ökonomische Indikatoren meist auf standardisierte Wertgrößen zurückgreifen können, die im Marktgeschehen selbst produziert werden, konstruieren Wissenschaftsindikatoren derartige standardisierte „Zahlungseinheiten“ aus expliziten Bewertungen (Peer Review) oder impliziten Anerkennungen im Rahmen wissenschaftlicher Kommunikation (Zitate), um Erkenntnisproduktion quantitativ zu erfassen und qualitativ zu verorten. 10 Dabei entstehen Indikatoren, die einerseits eine Informationsbasis nutzen, die deutlich über das hinausgeht, was einzelnen Gutachtern an Wissen zur Verfügung steht. Diese „Quasi-Objektivität“ war es auch, die bibliometrischen Indikatoren – im Verein mit der Kritik an den Unzulänglichkeiten des Peer Review – zur derzeit zu beobachtenden schnellen Verbreitung verholfen hat. Andererseits stellen diese bibliometrischen Indikatoren Konstrukte dar, deren Interpretation eine sehr gute Kenntnis der Messtheorie und -praxis voraussetzt. Ohne eine angemessene Fehlerlehre ist es daher insbesondere für Laien kaum möglich, inhaltliche Aussagekraft, Stabilität, potentielle Fehler, disziplinäre Besonderheiten und mögliche technisch bedingte Verzerrungen zu beurteilen. Mit der schnellen Popularisierung, Kommerzialisierung und Verfügbarkeit der Wissenschaftsindikatoren droht daher gerade die kritische Interpretationskompetenz verloren zu gehen, so dass Indikatoren unversehens eine objektive Abbildung wissenschaftlicher Leistungsfähigkeit zugesprochen wird. Wissenschaftsindikatoren sind damit aus einer zunächst völlig unspektakulären Nutzung im Rahmen akademischer, wissenschaftssoziologischer Forschung 9 10
So beispielsweise das Wissenschaftszentrum Berlin für Sozialforschung (WZB). Vgl. Hornbostel / Klingsporn / von Ins (2008).
Zur Problematik der Forschungsevaluation
67
unversehens in das Rampenlicht der Öffentlichkeit gerückt. Sie dienen inzwischen als Orientierungswissen in wissenschaftspolitischen Steuerungsprozessen und verändern damit die traditionellen Aushandlungsspielräume zwischen Wissenschaft und Politik, sie beeinflussen wissenschaftsinterne Prozesse der Reputationszuweisung und wirken in den Randzonen des Wissenschaftssystems (Forschungsförderung, Fachzeitschriften), sie verändern möglicherweise die Interaktionsbeziehungen zwischen Akteuren in inner- und außerwissenschaftlichen Systemkontexten und sie erzeugen öffentlich zugängliche – von den wissenschaftlichen Akteuren nicht kontrollierbare – Leistungsvergleiche, die empfindlich auf die Reputation und damit indirekt auf die Ressourcenakquisition wirken können. 11 In jüngster Zeit lassen sich allerdings zwei gegensätzliche Trends beobachten: Auf der einen Seite werden derartige Metriken sehr detaillierten wissenschaftlichen Analysen unterzogen, 12 auf der anderen Seite werden Indikatoren zunehmend unbedenklich als steuerungsrelevante Kennzahlen eingesetzt. 13 Die verstärkte Nutzung quantitativer Informationen hat allerdings auch einen ganz pragmatischen Hintergrund. Die enorme Ausdehnung von Evaluationen und Begutachtungsverfahren in allen Teilen des Wissenschaftssystems führt tendenziell zu einer Überlastung des Peer Review-Systems. Da als Peers herausragende Fachwissenschaftler gesucht werden, ist das Potential begrenzt und die Gefahr, durch Überlastung oder Ausweichen auf weniger geeignete Personen die Qualität von Begutachtungen abzusenken, nicht von der Hand zu weisen.
IV. Peers und Indikatoren Die immer wieder thematisierte Differenz zwischen qualitativen (Peer Review) und quantitativen Verfahren (Indikatoren) beruht zumindest teilweise auf einem grundlegenden Missverständnis sozialwissenschaftlicher Daten. Sogenannte qualitative Daten unterliegen ähnlichen Anforderungen an Validität und Reliabilität wie dies für statistische und bibliometrische Daten oder Drittmittelstatistiken gilt. Zudem gehen auch die quantiativen Daten letztlich immer auf Entscheidungen von Peers zurück, die Manuskripte akzeptieren oder Drittmittelanträge befürworten. Insofern ist mit der Differenz zunächst nicht mehr bezeichnet als die Nutzung unterschiedlicher Methoden, die für die jeweilige Fragestellung mehr oder weniger geeignet sind. Die Probleme beider Verfahren ähneln sich durchaus. Sie betreffen auf der Seite qualitativer Verfahren vor allen Dingen die Notwendigkeit, einen subjektiven Urteilsbias kontrollierbar zu machen, auf der Seite der quantitativen Verfahren das Problem, die aus weitgehend 11 12 13
Ebd. Moed et al. (2004), van Raan (1988). Vgl. Weingart (2003); Hornbostel (2005); Butler (2003).
68
Stefan Hornbostel
entkontextualisierten Informationen und einer voraussetzungsreichen Operationalisierung generierten Indikatoren auf ihre Aussagefähigkeit und Eignung zu prüfen. 14 In der Praxis setzen sich daher zunehmend Mischverfahren durch, wie etwa das „informed peer review“, die sich gezielt eines Methodenmix bedienen, um Schwächen und Stärken der jeweiligen Verfahren austarieren zu können. Für die USA beschreibt Michelson 15 den Trend in der Forschungsevaluation folgendermaßen: „First, the standardization and harmonization of performance assessment methodologies has begun to spread across various federal R&D funding agencies. [...] Second, there has clearly been a turn toward employing quantitative methodologies as a major part of performance assessment initiatives. [...] Third, the growing use of quantitative bibliometric indicators is also being paired with a renewed focus on utilizing qualitative indicators in an effort to create more appropriate hybrid methodologies that can capture a wider range of variables related to a program’s performance.“ Inwieweit Gutachter sich indikatorisierter Informationen bedienen oder derartiges in Erwägung ziehen, ist sehr stark disziplinabhängig. Eine Befragung der Fachkollegiaten der DFG ergab hinsichtlich einer potentiellen Nutzung von Zitationsindizes folgendes Ergebnis: vgl. Abb. 1. Während in der Medizin, wo die Nutzung bibliometrischer Informationen im Rahmen von Verfahren leistungsorientierter Mittelvergabe inzwischen Standard ist, der überwiegende Teil der DFG-Fachkollegiaten eine Bereitstellung von Zitationsdaten für eine hilfreiche Unterstützung bei der Begutachtung von Drittmittelanträgen hält, zeigt sich in den Geisteswissenschaften genau das umgekehrte Bild. Der größere Teil der Fachkollegiaten verspricht sich keinen Nutzen von der Bereitstellung derartiger Informationen. Ein eher unentschlossenes Bild bieten die Ingenieure, wo immerhin knapp 40% der Befragten Zitationsangaben bei der Erstellung eines Entscheidungsvorschlags für hilfreich halten. 16 Die Fachkollegiaten gehen dabei von einer durchaus kritischen Einschätzung des Peer Review-Verfahrens aus. Da ein wesentlicher Bestandteil ihrer Arbeit darin besteht zu kontrollieren, ob die Gutachten zu den Anträgen auf Forschungsförderung den allgemeinen und fachlichen Standards entsprechen, kommt den Urteilen dieser – aus den jeweiligen Disziplinen gewählten – Experten besonderes Gewicht zu.
14 15 16
Vgl. Hornbostel (2010). Michelson (2006). Vgl. Hornbostel / Olbrecht (2007).
Zur Problematik der Forschungsevaluation
69
Quelle: Hornbostel / Olbrecht (2007). Abb. 1: Erwarteter Nutzen von Zitationsangaben zu den Veröffentlichungen des Antragstellers für eine Bewertung 17
Wie die Abb. 2 18 zeigt, gehen die Fachkollegiaten davon aus, dass rund ein Viertel der Gutachten nicht den Qualitätserwartungen entspricht. 19 Fehleinschätzungen von Forschungsleistungen sind also keineswegs ein Privileg indikatorisierter Bewertungen, die umfangreiche Literatur zur Kritik am Peer ReviewVerfahren legt davon Zeugnis ab. 20
17 Fragentext: „Wären aus Ihrer Sicht Zitationsangaben zu den Veröffentlichungen des Antragstellers zusätzlich für eine Bewertung und Formulierung eines Entscheidungsvorschlages hilfreich?“. 18 Fragetext: „Wie hoch schätzen Sie in Ihrem Fachkollegium den Prozentsatz an Gutachten mit einer angemessenen Qualität ein?“ (Angaben in %). 19 Vgl. Hornbostel / Olbrecht (2007). 20 Vgl. De Vries / Marschall / Stein (2009); Overbeke / Wager (2003); Weller (2001).
70
Stefan Hornbostel
Quelle: Hornbostel / Olbrecht (2007). Abb. 2: Schätzung des Prozentsatzes von Gutachten mit einer angemessenen Qualität durch DFG Fachkollegiaten
Aber auch bei sorgfältigem Peer Review und mit Bedacht gewählten bibliometrischen Indikatoren konvergieren Indikatoren und Expertenurteile meist nur am oberen und am unteren Ende einer Verteilung problemlos; dies sind zugleich die Bereiche, in denen die Gutachterübereinstimmung am höchsten ausfällt, ein hinreichend breites Qualitätsspektrum vorausgesetzt. Im Mittelfeld (und darum geht es bei der Bewertung von Forschungsleistungen meist) fällt nicht nur den Experten eine Urteilsbildung deutlich schwerer, auch Indikatoren liefern – wenn man eine gewisse Fehlermarge einkalkuliert – wenig trennscharfe Ergebnisse. Auch hinsichtlich der prädiktiven Validität werden Indikatoren wie Experten unter solchen Bedingungen unsicherer. Ein Beispiel für einen solchen Fall ist das Emmy Noether Postdoc-Programm der DFG. Die Antragsvoraussetzungen sind hoch, so dass die Antragsteller keinen repräsentativen Querschnitt aller Postdocs darstellen, sondern eine leistungsmäßig sehr starke Gruppe. 21 Vergleicht man nun die aufgrund des Begutachtungsverfahrens geförderten mit den abgelehnten Antragstellern, zeigt sich zwischen beiden Gruppen kein signifikanter Unterschied (im Hinblick auf Publikationen 21
Vgl. Böhmer / Hornbostel / Meuser (2007); Böhmer / Hornbostel (2009); Bornmann / Daniel (2004); Melin / Danell (2006); Van den Besselaar / Leydesdorff (2007).
Zur Problematik der Forschungsevaluation
71
und Zitationen), und zwar weder vor noch nach der Förderung (vgl. Abb. 3). Es fällt allerdings schwer zu entscheiden, ob hier im Auswahlverfahren Fehleinschätzungen entstanden sind oder ob die Gutachter anderen Kriterien als den Publikationen und Zitationen größeres Gewicht beigemessen haben. Für letzteres spricht eine deutlich höhere Berufungsquote der geförderten Antragsteller.
Durchschnittliche Anzahl an Publikationen pro Person pro Jahr
Durchschnittliche Anzahl der Zitationen pro Publikation
Quelle: Böhmer / Hornbostel / Meuser (2008). Abb. 3: Durchschnittliche Anzahl an Publikationen pro Person pro Jahr – Medizin (full counts)
V. Disziplinspezifische Nutzbarkeit von Forschungsindikatoren Die Gründe für die oben ausgeführte disziplinspezifisch sehr unterschiedliche Wertschätzung bibliometrischer Indikatoren liegen a) im disziplinär unterschiedlichen Publikationsverhalten hinsichtlich der bevorzugten Formate (Monographien, Aufsätze usw.), b) in der unterschiedlich starken Hierarchisierung von Zeitschriften und der Konzentration der relevanten Beiträge auf einzelne Journale, c) in den disziplinär unterschiedlichen Abdeckungsgraden der einschlägigen Datenbanken und d) der gewählten Publikationssprache.
72
Stefan Hornbostel Tabelle 1 Publikationen australischer Universitäten, 1999 – 2001 Anzahl der Publikationen
Abdeckungsgrad der ISI Datenbanken
Forschungsgebiet
Total Zeitin den Datenschriften- banken artikel erfasste Zeitschriftenartikel
Anteil der Publikationen in Zeitschriften
in % aller % aller ZeitPublikaschriften- tionen artikel
Chemie
1759 1703
1580
97
93
90
Physik
1772 1612
1502
91
93
85
Biologie
2422 2136
1893
88
89
78
Medizin
9469 8439
6952
89
82
73
Mathematik
1488 1273
1018
86
80
68
Agr.- Vet.- und Umwelt
1578 1257
1011
80
80
64
Erdwissenschaften
1124 921
720
82
78
64
Psychologie
903
487
74
73
54
Ingenieurwissenschaften
4765 2425
1929
51
80
40
Philosophie
336
218
107
65
49
32
Ökonomie
1004 615
269
61
44
27
Gesellschaftswissenschaften
554
363
125
66
34
23
Informatik
1218 384
669
253
32
66
21
Politikwissenschaften 548
244
108
45
44
20
Geschichte
644
338
114
52
34
18
Betriebswirtschaftslehre
1585 952
255
60
27
16
Erziehungswissenschaften
1039 598
148
58
25
14
Sprachwissenschaften 654
357
91
55
25
14
Kunstwissenschaften
182
86
23
47
27
13
Kommunikationswis- 117 senschaften
53
11
45
21
9
Architektur
318
138
28
43
20
9
Rechtswissenschaften 913
637
53
70
8
6
Quelle: Butler / Visser (2006).
Zur Problematik der Forschungsevaluation
73
Während in den Natur- und Lebenswissenschaften die Monographie zur Kommunikation von Forschungsresultaten (fast) nicht mehr existiert und durch Artikel in wissenschaftlichen Zeitschriften und mehr und mehr in Form elektronischer Pre-prints abgelöst worden ist, spielen in den Ingenieurwissenschaften und der Informatik Beiträge zu wissenschaftlichen Tagungen (Conference Proceedings) eine große Rolle, in den Sozial- und Geisteswissenschaften stehen hingegen Buch und Sammelband mindestens gleichwertig neben dem Zeitschriftenaufsatz. 22 Sehr deutlich werden diese Unterschiede, wenn man, ausgehend von der Gesamtheit aller Publikationen, danach fragt, welche dieser Publikationen etwa im Web of Science erfasst sind. Für die australischen Universitäten konnte diese Frage sehr genau untersucht werden, weil aufgrund eines formelbasierten Finanzierungssystems sehr zuverlässige Angaben zu den Publikationen der Universitätswissenschaftler vorliegen. Tabelle 1 zeigt die Ergebnisse einer derartigen Analyse. Erkennbar sind zunächst die disziplinären Publikationsgepflogenheiten. Während in den Naturwissenschaften und in der Medizin der Zeitschriftenaufsatz dominiert und diese Zeitschriftenartikel auch fast vollständig erfasst sind, zeigt sich in den Geistes-, Sozial- und Wirtschaftswissenschaften, aber auch in der Informatik und den Ingenieurwissenschaften, dass erstens der Anteil der Zeitschriftenartikel an allen Publikationen deutlich niedriger liegt und zusätzlich ein deutlich geringerer Teil dieser Zeitschriftenartikel auch in der Datenbank erfasst ist. Da Monographien und Sammelbände gar nicht oder nur rudimentär erfasst und auch Conference Proceedings nur sehr unvollständig aufgenommen werden, ergibt sich für letztere Disziplinen ein Abdeckungsgrad, der schnell unter ein Drittel aller Publikationen fällt. Da es sich hier ausschließlich um englischsprachige Publikationen handelt, muss bei nicht englischsprachigen Publikationen von einem weiteren Absinken des Erfassungsgrades ausgegangen werden. Man kann der gleichen Frage auch dadurch nachgehen, dass man kontrolliert, welche der in den Literaturlisten der im Web of Science aufgenommenen Artikel aufgeführten Quellen ihrerseits im Web of Science aufgeführt sind (als sog. source items). Das Ergebnis solcher Analysen ist den oben genannten Befunden sehr ähnlich. Während in den Naturwissenschaften über 80 % der in den Artikeln zitierten Literatur (Referenzen) in der Datenbank auffindbar sind, lassen sich in den Geistes- und Sozialwissenschaften weniger als 40 % der Referenzen in der Datenbank wieder finden. 23 Zu den disziplinären Unterschieden gehören auch die Kooperationsstrukturen bzw. die Konventionen, die die Autorschaft eines Beitrages regeln. Wer im Falle intramuraler Kooperationen als Autor genannt wird, welche Art von Beitrag (Text, Daten, Tiermodelle, Analytik, Bereitstellung von Materialien oder Geräten usw.) zur Nennung als Autor führt, in welchem Maße „Gastautorschaften“ ge22 23
Vgl. Weingart et al. (1991). Vgl. Moed (2006).
74
Stefan Hornbostel
duldet werden und in welchem Maße internationale Koautorschaften üblich sind, all das ist in hohem Maße durch disziplinäre Üblichkeiten geregelt. 24 Die Folge ist, dass insbesondere in den Lebenswissenschaften, aber auch in den Naturwissenschaften Beiträge von einem einzelnen Autor die Ausnahme bilden (dafür aber mehr als zehn Autoren keineswegs unüblich sind), während in den Geistesund Sozialwissenschaften ein bis zwei Autoren die Regel sind. Der Trend zur Mehrfachautorschaft bildet sich dabei deutlich in den einschlägigen Datenbanken ab: Waren 1980 noch rund ein Viertel aller im Web of Science registrierten Zeitschriftenartikel von einem Autor verfasst, ließen sich im Jahre 2000 nur noch knapp 11 % derartiger „Ein-Autoren-Aufsätze“ nachweisen. Parallel stieg die durchschnittliche Autorenzahl von 2,6 auf 4,2. 25 Nicht nur die missbräuchliche Verwendung von Autorschaft 26, 27, stellt für Evaluationszwecke ein Problem dar, sondern auch die Frage, wie im Falle von Mehrfachautorschaft die einzelne Publikation den Autoren zugerechnet werden soll. Gegen die übliche Strategie, jedem Autor die Publikation vollständig anzurechnen, wurde schon sehr früh eingewandt, dass es sinnvoller sei „a class of fractional authors“ einzuführen, den Autoren also nur Bruchteile einer Publikation zuzurechen. 28 Solche fraktionalen Zählungen führen insbesondere im Vergleich von Disziplinen zu völlig anderen Ergebnissen als eine vollständige Zählung. 29
VI. Richtige Mittel für den falschen Zweck oder umgekehrt? Alle medizinischen Fakultäten in Deutschland verfügen über ein System leistungsorientierter Mittelvergabe (LOM). Gegen die grundlegende Idee, Forschungsleistungen zusätzlich zum disziplinären Renomee für die Forscher auch institutionell zu belohnen (materiell und ideell), ist nichts einzuwenden. Weitaus problematischer ist es aber, Indikatoren und eine Formel zu finden, die „gute Forschungsleistungen“ auch angemessen abbilden. Trotz aller Variationen und unterschiedlichen Gewichtungsfaktoren, die es unter den LOM-Systemen gibt, zeichnet sich ein Kernbestand an genutzten Forschungsindikatoren ab, nämlich Drittmitteleinwerbungen, bibliometrische Angaben und Promotionszahlen. Unter den bibliometrischen Indikatoren ist wiederum der Journal Impact Factor (JIF) (in aufaggregierter oder gemittelter Form) besonders beliebt. 30 24
Vgl. Katz / Martin (1997); Kretschmer (1994); Glänzel (2002). Vgl. Glänzel / Schubert (2004). 26 Viele Zeitschriften geben inzwischen detailliert an, worin der Beitrag der (Ko)Autoren bestand. 27 Vgl. Klingsporn / Hornbostel (2008). 28 Vgl. de Solla Price (1963). 29 Vgl. Hornbostel / Klingsporn / von Ins (2008). 30 Vgl. DFG (2004). 25
Zur Problematik der Forschungsevaluation
75
Der Journal Impact Factor (JIF) wurde zur Unterstützung von Anschaffungsentscheidungen in Bibliotheken konstruiert und charakterisiert die „Sichtbarkeit“ einer wissenschaftlichen Zeitschrift. Er berechnet sich aus den Zitierungen der Publikationen der Fachzeitschrift und der Zahl der Publikationen in dieser Fachzeitschrift. Dabei werden inzwischen außer dem Standarduntersuchungszeitraum von zwei Jahren auch längere Publikations- und Zitierfenster angeboten. Für die Berechnung der JIFs für das Jahr 2008 werden in der Standardversion die Zitate der Artikel im Jahr 2008 in Relation zu der Zahl der Artikeln aus den Jahren 2006 und 2007 gesetzt. Genutzt wird der JIF dabei praktisch als zeitnahe Approximation der zu erwartenden wissenschaftlichen Resonanz, in der Annahme, dass die Aufnahme in eine „high impact Zeitschrift“ (das erfolgreiche Passieren des Peer Review-Verfahrens) entsprechende Aufmerksamkeit (und Zitate) garantiert. Die Konstruktion der JIFs wirft eine ganze Reihe von Problemen auf: Die „Citation peaks“ sind nicht nur zwischen Disziplinen recht unterschiedlich verteilt (ein Aufsatz aus der Mathematik wird i. d. R. über einen sehr viel längeren Zeitraum zitiert und erlebt zu einem späteren Zeitpunkt die höchste Aufmerksamkeit als ein Beitrag aus der Molekularbiologie), auch innerhalb der Medizin ergeben sich massive subdisziplinäre Unterschiede. Diese Unterschiede im zeitlichen Abstand zwischen Publikation und Reaktion in der scientific community führen zu Verzerrungen zugunsten der „schnelllebigeren“ Publikationskulturen. Ein weiteres Problem ergibt sich aus den unterschiedlichen Zitierungsraten der Publikationstypen. Viele Zeitschriften veröffentlichen neben eigentlichen Forschungsaufsätzen auch Übersichtsartikel (Reviews), sowie auch begleitende Materialien wie Editorials, Letters, Technical Notes, Discussions oder Meeting Abstracts. Häufig werden dabei Übersichtsartikel deutlich höher zitiert als Originalartikel. Dadurch werden Zeitschriften benachteiligt, die hohe Anteile von Originalartikeln publizieren, obwohl die Originalartikel die eigentlichen Forschungsleistungen und Resultate wiedergeben. Benachteiligt sind auch Zeitschriften in Forschungsgebieten, in welchen die „zitierende Literatur“ im Web of Science mangelhafte Abdeckungsgrade aufweist oder auch „industrienahe“ oder „anwendungsnahe“ Zeitschriften und Gebiete, in denen die Leserschaft die Artikel sehr wohl rezipiert, aber deutlich seltener eigene Resultate in zitierfähigen Artikeln publiziert. Schließlich wirkt sich die unterschiedliche Berücksichtigung von Dokumententypen in Zähler und Nenner der JIF-Formel aus: Als Quellenartikel werden nur Originalartikel, Review-Artikel, Meeting Abstracts und Technical Notes angesehen. Allerdings werden Zitationen auch aus anderen Dokumentententypen einbezogen (etwa „Letters“, die zwar zitiert werden, jedoch nicht als Quellenartikel berücksichtigt werden). So wird der JIF derjenigen Zeitschriften in die Höhe getrieben, die eine hohe Anzahl an „sonstigen“ Dokumenttypen veröffentlichen. Ein Umstand, der gelegentlich für gezielte Manipulationen des JIF genutzt wird. 31 31
Vgl. Adler / Ewing / Taylor (2009).
76
Stefan Hornbostel
Weitaus problematischer als diese konstruktionsbedingten Eigenheiten ist aber der Umstand, dass einer kleinen Menge hoch zitierter Publikationen eine große Zahl unzitierter oder wenig zitierter Arbeiten gegenüber steht, was verteilungsabhängige (parametrische) Maße wie etwa Durchschnittswerte methodisch höchst problematisch und schwer interpretierbar macht. 32 Die folgende Tabelle zeigt, dass die Wahl „robuster“ Indikatoren, wie der „Anteil der unzitierten Publikationen“ oder Median der Zitierungen, zu völlig anderen Ergebnissen führt als die Nutzung der JIFs: Tabelle 2 JIF-Werte, Mediane der Zitierungen und Anteil der unzitierten Publikationen in Lancet (2002) und Physical Review B (2002) Journal
Zit / Publ. (JIF)
Median Zit
% uncited
Physical Review B
11,8
7
4,5%
Lancet
27,6
2
37,3%
Quelle: Eigene Berechnungen nach Web of Science; (Zitate bis Sept. 2007).
Ein zufällig herausgegriffener Artikel aus dem „high impact journal“ Lancet wird danach wahrscheinlich deutlich weniger zitiert, als ein Artikel aus Physical Review B, obwohl der JIF von Lancet mehr als doppelt so hoch ist. Ein Rückschluss von der Zeitschrift auf einen einzelnen Artikel ist also eine äußerst fehleranfällige Charakterisierung des einzelnen Artikels. Für die ursprünglich angezielte Verwendung des JIF als Charakterisierung einer Zeitschrift (für bibliothekarische Beschaffungsentscheidungen) mag dieser Fehler noch verkraftbar sein, wird der JIF aber zur Charakterisierung der wissenschaftlichen Güte einzelner Artikel, Personen oder kleiner Arbeitsgruppen genutzt, entsteht schnell ein verzerrtes Bild. So wundert es nicht, dass der Erfinder des JIF (Eugene Garfield) sich von derartigen Evaluationspraxen distanziert: „We never predicted that people would turn this into an evaluation tool for giving out grants and funding“. 33 Zu welch unvorhersehbaren Ergebnissen die Nutzung des JIF bei der Bewertung einzelner Forscher führt, mag exemplarisch die folgende Zusammenstellung zufällig ausgewählter Nachwuchswissenschaftler aus dem Emmy Noether-Programm der DFG demonstrieren. 34 Ein Ranking der sieben Wissenschaftler nach JIF und tatsächlich erhaltenen Zitaten führt zu deutlich unterschiedlichen Ergebnissen. 35 32 33 34 35
Vgl. Seglen (1992). Eugene Garfield, nach Monastersky (2005). Böhmer / Hornbostel / Meuser (2007). Vgl. Seglen (1997).
Zur Problematik der Forschungsevaluation
77
Tabelle 3 Effektive Zitaterate und durchschnittlicher JIF ausgewählter Emmy Noether-Antragsteller im Fach Medizin mittlerer JIF
mittlere Zitationszahl
Antragsteller
Wert
Rang
Wert
Rang
1
10,9
2
9,1
7
2
6,1
6
22,8
5
3
7,0
4
41,5
2
4
21,4
1
49,4
1
5
6,7
5
21,6
6
6
8,6
3
26,4
3
7
5,3
7
22,8
4
Quelle: Böhmer / Hornbostel / Meuser (2008). Zitate pro Publikation (2 Jahre nach Publikation)
JIF
Quelle: Böhmer / Hornbostel / Meuser (2008). Abb. 4: Tatsächliche Zitate pro Artikel (mean) und durchschnittlicher JIF von Emmy Noether Antragstellern im Fach Physik 36
36
Zitationsfenster: Erscheinungsjahr plus zwei Jahre.
78
Stefan Hornbostel
Aber selbst der Vergleich von größeren Gruppen (hier die abgelehnten und die geförderten Antragsteller aus dem Emmy Noether-Programm der Jahre 1999 – 2006) ergibt nicht nur massive Fehleinschätzungen, was die tatsächliche Zitationshäufigkeit anbetrifft, sondern führt auch zu unterschiedlichen Trenddiagnosen, wenn man die Entwicklung über die Zeit betrachtet. Das oben genannte Problem fraktioneller Zählungen wird bei der Nutzung von JIF-Summen als Indikator ebenso wenig berücksichtigt, wie der Umstand, dass insbesondere in den medizinischen und biologischen Fachrichtungen die Erst- und Letztautorschaft oftmals eine besondere Bedeutung haben. So wird etwa in den „Empfehlungen zu einer ‚Leistungsorientierten Mittelvergabe‘ an den Medizinischen Fakultäten“ 37 vorgeschlagen, die Erst- und Letztautorschaft mit je einem Drittel zu berücksichtigen und das verbleibende Drittel auf die weiteren Autorennamen zu verteilen. Auch diese Methode wird allerdings nicht einheitlich verwendet und ist keineswegs unumstritten. Der praktische Einsatz des Journal Impact Factor ist insofern ein beeindruckendes Beispiel dafür, wie ein Indikator für Zwecke genutzt wird, für die er weder konstruiert wurde, noch methodisch geeignet ist.
VII. Resümee und Ausblick Evaluationen von Forschungsleistungen, Monitoring und Controlling von Forschungsaktivitäten, mit Indikatoren bewehrte Ziel- und Leistungsvereinbarungen u.Ä. sind aus dem Forschungsalltag nicht mehr wegzudenken. In einem international kompetitiven Wissenschaftssystem ist auch für die Zukunft zu erwarten, dass die Bedeutung von Informationen über Forschungsperformanz, Forschungsthemen und -akteure, Netzwerke oder „emerging fields“ weiter steigen wird. Die Verwendung derartiger Informationen verschiebt sich dabei zunehmend von einer Informationsfunktion in Richtung einer Allokationsfunktion. Zugleich wird der Zugang zu komplexen bibliometrischen Indikatoren immer einfacher, so dass die Nutzung von Forschungsindikatoren in Verwendungszusammenhänge vordringt, in denen weder eine kompetente Nutzung sichergestellt ist, noch ein hinreichendes Reflexionspotential für die Abschätzung der Auswirkungen verfügbar ist. Die Folge ist ein wachsendes Unbehagen, wie es sich – pars pro toto – in der jüngsten Initiative der DFG „Qualität statt Quantität“ artikuliert. Ziel der neuen Regelungen zur Verwendung von Literaturangaben in Förderanträgen, Abschlussberichten und im curriculum vitae ist es, der „seit Jahren steigenden Bedeutung quantitativer Faktoren im Zusammenhang mit wissenschaftlichen Pu37
DFG (2004).
Zur Problematik der Forschungsevaluation
79
blikationen entgegen[zu]wirken. ‚Ob bei der leistungsorientierten Mittelvergabe und bei Habilitationen und Berufungen oder auch bei den Bewertungen von Förderanträgen – überall haben numerische Indikatoren wie der Hirsch-Faktor oder der Impact-Faktor immer mehr Gewicht bekommen. Oft lautet die erste Frage eben nicht mehr, was jemand erforscht hat, sondern wo und wie viel er publiziert hat. Das übt einen außerordentlich starken Druck auf Wissenschaftlerinnen und Wissenschaftler aus, möglichst viel zu publizieren. Und es verleitet immer wieder zu Fällen wissenschaftlichen Fehlverhaltens, in denen falsche Angaben zum Stand einer Veröffentlichung gemacht werden. Das alles schadet der Wissenschaft‘, betonte der DFG-Präsident“. 38 Zukünftig dürfen daher im CV nur noch maximal fünf Veröffentlichungen, im Antrag pro Jahr der Förderperiode nur zwei Veröffentlichungen mit direktem Bezug zum jeweiligen Projekt angegeben werden. Niemand wird der Forderung nach stärkerer Qualitätsorientierung widersprechen wollen, gleichwohl stellen sich doch Zweifel ein, ob mit einer quantitativen Begrenzung den „quantitativen Faktoren“ entgegengewirkt werden kann, nicht nur, weil wissenschaftliches Fehlverhalten relativ unabhängig von Publikationsdruck und der Verwendung von Indikatoren stattfand und stattfindet, sondern auch deshalb weil, − kaum ein Gutachter darauf verzichten wollen wird, einen Blick auf das gesamte Œuvre eines Antragstellers zu werfen, zumal fünf umfangreiche Monographien in der Philosophie etwas anderes repräsentieren als fünf sehr kurze Artikel in der Mikrobiologie, − für die Prüfung der Befangenheit von Gutachtern auch zukünftig auf vollständige Publikationslisten zurückgegriffen werden muss, um die Koautoren zu identifizieren, − Gutachter Indikatoren zu Rate ziehen, weil sie entweder wegen der Flut von Begutachtungen keine Zeit mehr zum Lesen finden oder sich über die weltweite Resonanz der Publikationen in einem Spezialgebiet unsicher sind, − das Problem nicht eigentlich „numerische Indikatoren“ sind (die die Wissenschaft ja selbst beständig produziert und nutzt), sondern das Problem vielmehr in der Qualität der Indikatoren und der Kompetenz für ihre Interpretation liegt. Vielleicht wäre es einfacher, unbürokratischer und hilfreicher gewesen, wenn man die Antragsteller einfach gebeten hätte, einige ausgewählte Publikationen den Gutachtern zur Lektüre anzuempfehlen. Es wird insgesamt kaum möglich sein zum Status quo ante zurückzukehren, dafür hat sich die Wissenschaft in den vergangenen Jahrzehnten zu sehr verändert und keineswegs nur zum Schlechten. Man wird aber sicherlich das 38
DFG (2010).
80
Stefan Hornbostel
tun müssen, was in der Wissenschaft eigentlich selbstverständlich ist, nämlich die Weiterentwicklung einer angemessenen Indikatorik betreiben. Das ist kein grundsätzlich anderer Prozess als die Entwicklung von Indikatoren in der Medizin, der Chemie, der Ökonomie oder der Biologie, wo Zeit und Forschungskapazität sowohl für die Entwicklung einer anspruchsvollen Indikatorik, wie auch für die Entwicklung von Anwenderkompetenz benötigt wurde. Das Besondere einer Wissenschaftsindikatorik liegt jedoch in der Vagheit des zu indizierenden Phänomens „wissenschaftliche Qualität“ und in der Reaktanz der Indikatoren, denn Wissenschaftler waren in der Vergangenheit und sind auch heute auf der Suche nach Ressourcen und nach Anerkennung für ihre Arbeit und nutzen dazu die jeweils verfügbaren Mittel, um innerhalb und außerhalb ihrer community sichtbar zu werden. Davon zeugen – lange bevor die „quantitativen Faktoren“ relevant wurden – manch unfruchtbare Modewelle in der Wissenschaft und manch vollmundiges, aber uneingelöstes Versprechen durch die Wissenschaft.
Literatur Adler, Robert / Ewing, John / Taylor, Peter (2009): Citation Statistics. A Report from the International Mathematical Union (IMU) in Cooperation with the International Council of Industrial and Applied Mathematics (ICIAM) and the Institute of Mathematical Statistics (IMS), in: Statistical Science, Vol. 24, No. 1, S. 1 –14. Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF) (2000): AWMF-Vorschlag zur Verwendung des „Impact Factor“, online verfügbar unter: http://www.uni-duesseldorf.de/AWMF/bimet/impa-emp.htm. Biagioli, Mario (2002): From book cencorship to academic peer review, in: Emergences, Vol. 12, No. 1, S. 11 – 45. Böhmer, Susan / Hornbostel, Stefan (2009): Postdocs in Deutschland: Vergleich von Nachwuchsgruppenleiterprogrammen, iFQ-Working Paper No. 6, Bonn. Böhmer, Susan / Hornbostel, Stefan / Meuser, Michael (2008): Postdocs in Deutschland: Evaluation des Emmy Noether-Programms, iFQ-Working Paper No. 3, Bonn. Bornmann, Lutz / Daniel, Hans-Dieter (2004): Reliability, fairness and predictive validity of committee peer review. Evaluation of the selection of post-graduate fellowship holders by the Boehringer Ingelheim Fonds, in: B.I.F. Futura, Vol. 19, S. 7 –19. Butler, Linda (2003): Explaining Australia’s increased share of ISI publications – the effects of a funding formula based on publication counts, in: Research Policy, Vol. 32, S. 143 – 155. Butler, Linda / Visser, Martijn S. (2006): Extending citation analysis to non-source items, in: Scientrometrics, Vol. 66, No. 2, S. 327 – 343. De Vries, Dennis R. / Marschall, Elizabeth A. / Stein, Roy A. (2009): Exploring the peer review process: What is it, does it work, and can it be improved?, in: Fisheries, Vol. 34, No. 6, S. 270 – 279.
Zur Problematik der Forschungsevaluation
81
Deutsche Forschungsgemeinschaft (DFG) (Hrsg.) (2010): „Qualität statt Quantität“ – DFG setzt Regeln gegen Publikationsflut in der Wissenschaft, Pressemitteilung Nr. 7 vom 23. Februar 2010, online verfügbar unter: http://www.dfg.de/service /presse/pressemitteilungen/2010/pressemitteilung_nr_07/index.html, letzter Zugriff 14. 04. 2010 Deutsche Forschungsgemeinschaft (DFG) (Hrsg.) (2004): Empfehlungen zu einer „Leistungsorientierten Mittelvergabe“ an den Medizinischen Fakultäten. Stellungnahme der Senatskommission für Klinische Forschung der Deutschen Forschungsgemeinschaft. DFG, Bonn, online verfügbar unter: http://www.dfg.de/download/pdf/dfg_im_profil /reden_stellungnahmen/2004/stellungnahme_klinische_forschung_04.pdf, letzter Zugriff 14. 04. 2010 Garfield, Eugene (2005): The Agony and the Ecstasy. The History and Meaning of the Journal Impact Factor, online verfügbar unter: http://garfield.library.upenn.edu/papers /jifchicago2005.pdf Glänzel, Wolfgang (2002): Co-authorship patterns and trends in the sciences (1980 – 1998). A bibliometric study with implications for database indexing and search strategies, in: Library Trends, Vol. 50, S. 461 – 473 Glänzel, Wolfgang / Schubert, András (2004): Analyzing Scientific Networks Through CoAuthorship, in: Moed, Henk F. et al. (Hrsg.): Handbook of Quantitative Science and Technology Research, Dordrecht, S. 257 – 276. Hornbostel, Stefan (2005): Kennzahlen als Informations- und Steuerungselemente – ein Methodenvergleich, in: AG Fortbildung im Sprecherkreis der Universitätskanzler (Hrsg.): Einsatzmöglichkeiten und Grenzen von Kennzahlen als Informations- und Steuerungsinstrumente, Materialen Nr. 94, Weimar, S. 25 –34. Hornbostel, Stefan (2007): Neue Evaluationsregime? Von der Inquisition zur Evaluation, in: Matthies, Hildegard (Hrsg.): Wissenschaft unter Beobachtung – Effekte und Defekte von Evaluationen, LEVIATHAN Sonderheft 24, S. 59 –82. Hornbostel, Stefan (2010): (Forschungs-)Evaluation, in: Simon, Dagmar / Andreas Knie / Stefan Hornbostel (Hrsg.): Handbuch Wissenschaftspolitik, Wiesbaden, S. 293 –309. Hornbostel, Stefan / Klingsporn, Bernd / von Ins, Markus (2008): Messung von Forschungsleistungen – eine Vermessenheit?, in: Alexander von Humboldt-Stiftung (Hrsg.): Publikationsverhalten in unterschiedlichen Disziplinen. Beiträge zur Beurteilung von Forschungsleistungen, Diskussionspapiere der Alexander von HumboldtStiftung Nr. 12. Hornbostel, Stefan / Olbrecht, Meike (2007): Peer Review in der DFG: die Fachkollegiaten, iFQ-Working Paper No. 2, Bonn. Katz, J. Sylvan / Martin, Ben R.(1997): What is research collaboration?, in: Research Policy, Vol. 26, S. 1 – 18. Klingsporn, Bernd / Hornbostel, Stefan (2008): Scientific Authorship between Social Capital and Ethical Commitment, in: Vaccaro, Antonino / Hugo Horta / Peter Madsen (Hrsg.), Transparency, Information and Communication Technology: Social Responsibility and Accountability in Business and Education, S. 285 –310.
82
Stefan Hornbostel
Kretschmer, Hildrun (1994): Coauthorship networks of invisible colleges and institutional communities, in: Scientometrics, Vol. 30, S. 363 – 369. Lotka, Alfred J. (1926): The frequency distribution of scientific productivity, in: Journal of the Washington Academy of Sciences, Vol. 16, S. 317 –323. Melin, Goran / Danell, Rickard (2006): The top eight percent: development of approved and rejected applicants for a prestigious grant in Sweden, in: Science and Public Policy, Vol. 33, No. 10, S. 702 – 712. Michelson, Evan S. (2006): Approaches to research and development performance assessment in the United States: an analysis of recent evaluation trend, in: Science and Public Policy Vol. 33, No. 8, S. 546 – 560. Moed, Henk F. (2006): Evaluation of Research Performance and Funding Programme in Social Sciences; Tagung: Norface Workshop on Research Programme Development and Management vom 7. 02. 06, Bonn, online verfügbar unter: http://www.norface.org /norface/files/file_20060207014936Henk%20Moed.pdf, letzter Zugriff 23. 03. 2010. Moed, Henk F. / Glänzel, Wolfgang / Schmoch, Ulrich (Hrsg.) 2004: Handbook of Quantitative Science and Technology Research, Dordrecht. Monastersky, Richard (2005): The Number That’s Devouring Science, in: The Chronicle of Higher Education Vol. 52, No. 8, S. A12-A18. Overbeke, John / Wager, Elizabeth (2003): The state of the evidence: What we know and what we don’t know about journal peer review, in: Godlee, Fiona / Tom Jefferson (Hrsg.): Peer review in health sciences, London, S. 45 –61. Pendlebury, David A. (2008): WHITE PAPER – Using Bibliometrics in Evaluating Research Philadelphia, Philadelphia, online verfügbar unter: http://isiwebofknowledge .com/media/pdf/UsingBibliometricsinEval_WP.pdf, letzter Zugriff am 20. 03. 2010. Power, Michael (1997): The Audit Society: Rituals of Verification, Oxford. van Raan, Anthony F.J. (1988): Handbook of Quantitative Studies of Science and Technology, Amsterdam, New York, Oxford, Tokyo. Rossi, Peter H. / Lipsey, Mark W. / Freeman, Howard E. (2004): Evaluation: A Systematic Approach, 7. Aufl., Thousand Oaks, CA. Seglen, Per O. (1992): The Skewness of Science, in: Journal of the American Society for Information Science, Vol 43, No. 9, S. 628 – 638. Seglen, Per O. (1997): Why the impact factor of journals should not be used for evaluating research, in: BMJ; Vol. 314, S. 497ff. de Solla Price, Derek J. (1963): Little Science, Big Science, New York. de Solla Price, Derek J. (1976): A General Theory of Bibliometric and Other Cumulative Advantage Processes, in: Journal of the American Society for Information Science, Vol. 27, No. 5, S. 292 – 306. van den Besselaar, Peter / Leydesdorff, Loet (2007): Past Performance as Predictor of Successful Grant Applications, Den Haag. Weingart, Peter / Sehringer, Roswitha / Winterhager, Matthias (Hrsg.) (19919: Indikatoren der Wissenschaft und Technik. Theorie, Methoden, Anwendungen, Frankfurt, New York.
Zur Problematik der Forschungsevaluation
83
Weingart, Peter (2003): Evaluation of research perfomance: the danger of numbers, in: Conference Proceedings: 2nd Conference of the Central Library, Research Center Jülich. Weller, Ann C. (2001): Editorial peer review: Its strengths and weaknesses, Medford, NJ.
Wissenschaftsdidaktik zwischen Kompetenzaufbau und Bildungsauftrag für die Übernahme von Verantwortung in der Gesellschaft Von Wolfgang Nieke 1
I. Zur Rede von Ökonomisierung und Wissensgesellschaft Um das Folgende in den Kontext einzuordnen, sei kurz darauf verwiesen, dass in den Reden über Ökonomisierung und Wissensgesellschaft charakteristische Verkürzungen zu bemerken sind: Die Rede von der Wissensgesellschaft enthält zwei Argumente: (1) Es muss Geheiminformation sorgsam gehütet und weitergegeben werden, um in der Globalkonkurrenz einen kleinen Vorsprung für den Betrieb zu erhalten. (2) Das technisch relevante Produktionswissen muss aufwendig inkorporiert, d. h. gelernt werden, so dass es sinnvoll ist, in das Humankapital der Mitarbeiter zu investieren. Entsprechendes gilt volkswirtschaftlich für die Gesamtbevölkerung, also für den Anteil der Bildungsausgaben am Inlandsprodukt. Dies ist Ausdruck der ubiquitären Szientifizierung, da dieses Wissen abstrakt ist und nicht nebenbei und kurz gelernt und angewendet werden kann. Hier muss also genau zwischen Information, die technisch gespeichert und auch verarbeitet werden kann, und Wissen, nämlich der Einordnung von Information in einen Sinnzusammenhang, unterschieden werden. Wissen ist üblicherweise an Menschen gebunden. In Sonderfällen, etwa bei Assistenzsystemen der künstlichen Intelligenz, wird ebenfalls aus Informationen ein Wissen erzeugt. In vielen Diskursen über Wissensgesellschaft geht es jedoch gar nicht um Wissen, sondern um die Hütung und Verwaltung von konkurrenzrelevanten Informationen.
1
Prof. Dr. Wolfgang Nieke ist Gründungsprofessor des Lehrstuhls für Allgemeine Pädagogik an der Philosophischen Fakultät der Universität Rostock.
86
Wolfgang Nieke
Die Rede von der Ökonomisierung der Wissenschaft greift nur einzelne der verschiedenen Begriffe von Ökonomie auf. Es wird nicht verwendet: − Ökonomie als sorgsame Verwendung zu knapper Ressourcen mit dem Prinzip der Effizienzmaximierung; − Ökonomie als social entrepreneurship; − Ökonomie als Privatisierung von Universitäten, verstanden als Dienstleistungsunternehmen, das am Markt teilnimmt – das gilt vielen als effektiver denn die staatliche Finanzierung durch Transferleistungen. Es geht allein um die Anwendung von Wettbewerb und Outputsteuerung zur Motivsteuerung und Motivsteigerung. Dass Wettbewerb zur Leistungssteigerung führe, wird zwar von vielen fraglos geglaubt, ist aber eine vulgärpsychologische Vorstellung von menschlicher Motivation, die durch aktuelle Forschungen als grundlegend widerlegt angesehen werden muss. Die Outputsteuerung eignet sich für Produktionsbereiche, in denen normierte Stücke problemlos in ihrer Qualität beurteilt werden können. Sie versagt schon dort, wo sich verborgene Mängel erst später zeigen (aktuelles Beispiel sind die Rückrufaktionen von Autos, in denen Bauteile eingebaut wurden, deren Schäden durch eine direkte Endkontrolle nicht entdeckt werden können), erst recht bei komplexen Dienstleistungen mit Koproduktionen und Interaktionen mit den „Kunden“. Also muss ein Verständnis von Ökonomie, das sich nur auf diese beiden Steuerungsmedien für Wissenschafts- und Bildungseinrichtungen bezieht, in Frage gestellt werden. Ein anderes Bild würde sich ergeben, wenn auch andere Aspekte der Ökonomie einbezogen würden.
II. Neue Aktualität der akademischen Lehre Die universitäre Lehre erhielt ihre erste Aufmerksamkeit vor vierzig Jahren im Gefolge der weltweiten Jugendrevolte und der Kritik der Studenten an veralteten Lehrformen. Ohne dauerhafte Reformen wurde es danach lange Zeit wieder still darum, und alle Steuerungsmedien für die Universitäten konzentrierten sich auf den Output in der Forschung. Die Lehre lief dabei ohne besondere Förderung nebenher. Das ändert sich derzeit: Erstens wird bemerkt, dass dem Wettbewerbskonzept der Exzellenzinitiative zur Unterstützung hervorragender Forschung ein Gegenstück für die zweite Aufgabe der Universität, die wissenschaftliche Lehre, fehlt. Das zeigt sich gerade durch den verschärften Wettbewerb, der mit solchen Instrumenten für die erfolgreiche Einwerbung von Drittmitteln und die Präsentation von Forschungsergebnissen in Patenten, Ausgründungen und internationalen, d. h. faktisch englischen Publikationen erzeugt wird. Das führt unvermeidlich dazu, dass die verfügbare
Wissenschaftsdidaktik
87
Zeit des Universitätspersonals von der Lehre abgezogen und verstärkt hierauf verwendet wird, wenn es nicht ein gegenwirkendes Steuerungsmedium gibt. Da es jedoch keinerlei allgemein akzeptierte Messverfahren für die Qualität von akademischer Lehre gibt, die denen der Messung von Forschungsleistung auch nur annähernd gleichwertig wären, muss man sich einstweilen mit dem ungenauen Instrument der Preisauslobung begnügen, etwa dem Preis für gute Hochschullehre Ars legendi der Hochschulrektorenkonferenz und des Stifterverbandes für die deutsche Wissenschaft. 2 Zweitens erfordert die neu akzentuierte Kompetenzorientierung der akademischen Lehre im Gefolge der Bologna-Reform für die Zwecke einer Berufsausbildung der Professionen eine entsprechende Didaktik. Hier wirkt das angelsächsische 3 Vorbild: Ein großer Teil der Bachelor-Studiengänge im angelsächsischen Bereich entspricht der Ausbildung an Berufsfachschulen in Deutschland (da es dort keine Berufsschulen gibt), und von solchen Ausbildungskonzeptionen sind Kompetenzorientierung und Modularisierung in das deutsche Reformmodell übernommen worden, und zwar nicht freiwillig durch die Universitäten, sondern staatlich verordnet über Regelungen der Kultusministerkonferenz zu verbindlichen Auflagen für eine erfolgreiche Akkreditierung. Hier geht es also nicht um forschendes Lernen im Nachvollzug und Mitwirken an der Forschungsaufgabe der Universität, sondern um eine wissenschaftsbasierte Berufsausbildung. Naheliegenderweise orientieren sich also wissenschaftsdidaktische Konzeptionen zum Aufbau einer so bestimmten professionellen Kompetenz mit Outputmessung am Ende einer genau definierten curricularen Einheit, die beliebig mit anderen in beliebiger zeitlicher Reihenfolge kombiniert werden kann (das Baukastenmodell der Berufsbildung, konkretisiert in Modulen) an der Didaktik der angelsächsischen Berufsbildung. Dabei ist bisher die Frage ungeklärt, ob dies dem kontinentaleuropäischen Universitätssystem in Deutschland und Frankreich angemessen ist, ob sich dieses System dem angelsächsischen anpassen soll und, falls ja, aus welchen Gründen. Hier wird zunächst nur konstatiert, dass es diese Bestrebungen faktisch an vielen Stellen gibt. Es war von jeher eine Aufgabe der Universitäten, die dort in Professionen ausgebildeten Fachleute zugleich so zu bilden, dass sie eine hervorgehobene gesellschaftliche Verantwortung tragen können. Deshalb steht diese Aufgabe auch weiterhin als Aufgabe der Universitäten in den Landeshochschulgesetzen. Von der Umsetzung ist jedoch oft nicht viel zu sehen. Ein traditioneller Rest fand sich bis vor kurzem noch in dem fachunabhängigen Studium generale. Dieses 2
Vgl. http://www.hrk-bologna.de/de/projekte_und_initiativen/3001.php. Gemeint ist hier die Gesamtheit der Länder, die englischsprachig sind oder sich an diesen orientieren. Dabei gibt es zwischen dem Vereinigten Königreich und den Vereinigten Staaten von Amerika als den kulturellen Leitnationen große und markante Differenzen im Detail, was hier jedoch nicht im Einzelnen berücksichtigt werden kann. 3
88
Wolfgang Nieke
zeigte aber eine thematische Beliebigkeit, die diesem Ziel nicht (mehr) entsprach und auch die Studierenden kaum ansprach. An seine Stelle sind nun general studies getreten, die zwar auch fachunabhängig sind, nun aber im Sinne der Kompetenzorientierung auf employability zumeist extrafunktionale Qualifikationen vermitteln, und dies oft auf einem praktizistischen Niveau, für welche die Universität der falsche Ort ist (z. B. didaktisch fragwürdige Präsentationstechniken mit der Software eines dominierenden Konzerns). Die Studierenden der reformierten Studiengänge spüren diese Fehlerhaftigkeit der Konstruktion sehr deutlich und lehnen diese Lehreinheiten daher stark ab. Hier ist also ein noch ganz uneingelöster Reformbedarf der universitären Lehre zu konstatieren, der durch die Fokussierung auf das Modell der angelsächsischen Berufsausbildung an den Universitäten zugerechneten Colleges und Professional Schools ein wenig aus dem Blick geraten ist.
III. Die drei Aufgaben der universitären Lehre Die universitäre Lehre hat drei Aufgaben oder gesellschaftliche Funktionen: 1. Die Nachwuchsförderung für die Wissenschaft. Entsprechend enthalten die darauf bezogenen Studiengänge eine Disziplinorientierung mit explizitem Verzicht auf jedwede praktische Verwendung des zu Lernenden außerhalb des Wissenschaftssystems. Der hier durchaus auch vermittelte Praxisbezug ist die Anwendung der Forschungsmethoden auf Fragen der Grundlagenforschung. Die Disziplinorientierung verbietet jede Vermischung mit anderen Disziplinen, wie sie heute mit dem Schlagwort der Interdisziplinarität 4 eingefordert wird. Disziplinorientierung entwickelt sich über einen kontinuierlichen, längeren Prozess der Auseinandersetzung und der Aneignung einer spezifischen Perspektive auf die Welt, wie sie charakteristisch für eine der akademischen Disziplinen ist. Diese Perspektivität beschreibt mehr und anderes als der alte Differenzierungsversuch nach Gegenstand und Methode. 2. Die Grundlegung für eine professionelle Berufsausbildung in den disziplinbezogenen Berufsfeldern. Hierbei ist festzuhalten, dass es sich nicht um die 4
Diese Forderung entstammt der anwendungsorientierten Forschung aus dem Grenzbereich von Ingenieurwissenschaften und Naturwissenschaften, wo sich die Kooperation von zunächst durchaus monodisziplinär ausgebildeten Fachleuten als synergetisch erweisen kann. Daraus abzuleiten, die Ausbildung müsse grundsätzlich von Anfang an interdisziplinär sein, verkennt völlig, dass eine interdisziplinäre Kooperation eine langjährige Einsozialisation in eine spezifische Fachperspektive voraussetzt. Eine auf employability orientierte Kombination geeigneter Teilbereiche von Fächern entspricht hingegen nicht dem Konzept der Interdisziplinarität, sondern dem funktionalen Eklektizismus der Berufsbildung, wie er auch an Fachhochschulen praktiziert wird.
Wissenschaftsdidaktik
89
gesamte Berufsausbildung handelt, sondern um die Grundlegung, da die Einübung in komplexe Handlungsmuster in der Berufseinführungsphase – entweder informell wie bei Ingenieuren oder Diplom-Pädagog / innen oder formell in einer zweiten Ausbildungsphase wie bei Juristen und Lehrer / innen – stattfindet. Die Professionalität des Studiums ist weitaus mehr als eine Ausbildung auf wissenschaftlicher Grundlage, die Aneignung des gegenwärtig aktuellen wissenschaftlichen Wissens zur Anwendung in späterer Berufspraxis. Das wäre semiprofessionelle Berufsausbildung, die es auch gibt und geben soll, die aber ihren Ort nicht an der Universität hat. Professionalität hingegen ergibt sich durch die Fähigkeit, selbst neues wissenschaftliches Wissen erzeugen zu können, mit anderen Worten durch den Erwerb von Forschungsfähigkeit in der studierten Disziplin. 3. Bildung zur Übernahme von Verantwortung in der Gesellschaft. So steht es, aus guten Gründen, in den Hochschulgesetzen der Länder, und damit ist angesprochen, dass die Universitätsabsolvent / innen künftig Verantwortung in herausgehobenen gesellschaftlichen Positionen übernehmen werden und sollen, für welche sie weder durch die Hochschulreife noch durch das Fachstudium hinreichend qualifiziert und kompetent sind. Die Universitäten haben diese Aufgabe jedoch derzeit zumeist vergessen.
IV. Der Reflexionsort für die Aufgaben der universitären Lehre ist die Bildungswissenschaft Hieran kann deutlich werden, dass die Gestaltung der universitären Lehre keineswegs allein eine Aufgabe der Fachwissenschaften sein kann, die inhaltlich nur für die erste Aufgabe zuständig und gerüstet sind. Bereits die selektiven inhaltlichen Anforderungen eines bestimmten Berufsfeldes können aus der Struktur der Disziplin heraus nicht überblickt und bewertet werden, da das nicht deren Aufgabe in der gesellschaftlichen Arbeitsteilung ist. Vollständig gilt das für die dritte Aufgabe, die allein bildungswissenschaftlich bestimmbar ist. Die universitäre Lehre hat die Funktion und die Aufgabe, für alle drei Bereiche die erforderlichen Kompetenzen aufzubauen. Keine Bildungsinstitution, auch nicht die Universität, kann diesen Aufbau planmäßig herstellen und sein Ergebnis zuverlässig garantieren. Der Aufbau kann vorbereitet, angeregt, unterstützt und auch in seinem Ausmaß überprüft werden; geleistet muss er von den Studierenden selbst werden. Es ist deshalb fachlich unangemessen, von den Outputs und Outcomes der Studierenden Rückschlüsse auf die Qualität der Lehre ziehen zu wollen. Diese ist ein, wenngleich wichtiger, so doch nur ein Faktor unter anderem. Die Leistungsvarianz erklärt sich nur durch die Hinzunahme der anderen Bedingungen,
90
Wolfgang Nieke
die ceteris paribus gesetzt werden müssen, um den Effekt der Lehrqualität einschätzen zu können. Das ist aus der Schulforschung seit langem bekannt, aber diese Befunde scheinen aber einige Diskursteilnehmer in der Debatte über die Qualität der Lehre nicht zu kennen. Im Studium bauen die Studierenden ein komplexes Welt- und Selbstverhältnis auf (wie es der Bildungswissenschaft aus ihren Bildungstheorien geläufig ist und vielfältig in seinen Bedingungen, Abläufen und Möglichkeiten des Scheiterns analysiert wird), sie bilden sich also. Das ist weitaus mehr als Lernen, und deshalb ist die Referenzdisziplin für das Studium die Bildungswissenschaft (oder Erziehungswissenschaft) mit ihrem mehrdimensionalen Zugang zur Begründung von Zielen, Analyse von biographischen Bedingungen und Untersuchungen wirksamer Lernprozesse und ihrer Überprüfbarkeit. Die universitäre Lehre unterstützt diesen Bildungsprozess und greift dabei zum einen auf die Struktur der zu vermittelnden Disziplin zurück und zum anderen auf begründete Akzentuierungen und Auswahl von Fakten und Inhalten, die sich nicht aus der Struktur der Disziplin begründen lassen, sondern von den Zielen des Studiums her. Eine solche Begründung der Auswahl und zeitlichen Abfolge von Aneignungen von Inhalten wird Didaktik genannt, und in diesem Fall ist hier eine Wissenschaftsdidaktik 5 gefordert, und zwar spezifisch für jede Disziplin. Die Bildungswissenschaft kann hier viel beitragen, weil die Problematik im Bereich der weiterführenden Schulen als Wissenschaftspropädeutik seit langem behandelt wird. Ausgehend von der Allgemeinen Didaktik werden Fachdidaktiken entwickelt, und eine Variante davon ist die Wissenschaftspropädeutik. Viele der hierfür gewonnenen Einsichten lassen sich auf die Wissenschaftsdidaktik übertragen und entsprechend weiterentwickeln. Dabei ist eine Kooperation mit den jeweiligen Fachwissenschaften unverzichtbar. Nur in einer solchen Zusammenarbeit können die anstehenden Aufgaben der Wissenschaftsdidaktik angemessen bearbeitet werden.
Literatur Nieke, Wolfgang (2007): Ausdifferenzierung und Kapazitätsprobleme: Hauptfachstudiengänge der Erziehungswissenschaft, in: Erziehungswissenschaft, Heft 35, S. 25 –37. 5
Gegen den Terminus der Wissenschaftsdidaktik ist eingewendet worden, Wissenschaft werde nicht nur an Hochschulen vermittelt, sondern auch in der gymnasialen Oberstufe oder in der Weiterbildung, und deshalb wolle man genauer von Hochschuldidaktik sprechen. Das ist zwar zutreffend, aber der Terminus Hochschuldidaktik suggeriert, es könne eine fachunabhängige allgemeine Didaktik der Hochschullehre geben. Eben dies ist jedoch unmöglich, so dass hier trotz des Einwandes von Wissenschaftsdidaktik gesprochen wird.
Wissenschaftsdidaktik
91
Nieke, Wolfgang (2008): Was ist exzellente Lehre? – die Antwort der Erziehungswissenschaft: Wissenschaftsdidaktik statt Hochschuldidaktik, online verfügbar unter: http:/ /www.ewft.de/files/08-%20Exzellenz%20der%20Lehre%20-%20Wissenschaftsdidak tik%20statt%20Hochschuldidaktik.pdf.
„Forschendes Lernen“ als Hochform aktiven und kooperativen Lernens Von Johannes Wildt 1
I. Forschendes Lernen – Revival eines Studienreformansatzes Warum – so lässt sich angesichts der Wiederentdeckung des „Forschenden Lernens“ fragen – warum ausgerechnet heute das Revival eines in die Jahre gekommenen Studienreformkonzepts? Warum setzt sich der Wissenschaftsrat 2 schon für die Herausbildung eines „Forschenden Habitus“ in den „Empfehlungen zur Qualitätsverbesserung von Lehre und Studium“ (2008) ein? Warum haben Hochschulen „Forschendes Lernen“ in den Wettbewerb um mehr „Ehre in die Lehre“ in Stellung gebracht? Warum widmen Stiftungen diesem Thema ganze Tagungen ? 3, 4 Warum nimmt eine Hochschule wie die TU Dortmund „Forschendes Lernen“ in ihr Leitbild auf und setzt sich zum Ziel, in 13 der 16 Fakultäten „Forschendes Lernen“ oder verwandte Studienkonzepte wie problembezogenes, fallorientiertes oder an Projekten orientiertes Studieren in mindestens zwei Modulen in der Studieneingangsphase und der Phase vor der Abschlussarbeit ins Bachelor-Studium zu implementieren? Warum also greift man zurück in eine in Vergessenheit geratene Schublade aus der Zeit der Wende von den 60er zu den70er Jahren und entstaubt ein Konzept einer versunkenen Reformepoche? Warum geschieht das gegen Endes des Bologna-Prozesses, der in der BolognaKonvention 1999 auf das Ende dieses Jahrzehnts projektiert war? So neu, wie sie oft daher kommt, ist freilich Bologna 1999 und der daran anschließende Bologna-Prozess allerdings auch nicht. Was hier aufgetischt wird, vermittelt dem Beobachter der Szene so manches Déjà-vu. Die Wahrnehmung aus den Fugen geratener Bezüge zwischen Hochschulbildung und Gesellschaft, insbesondere dem Beschäftigungssystem, bildete schon 1963 den Hintergrund 1 Prof. Dr. Johannes Wildt ist Inhaber der Professur für Hochschuldidaktik und Leiter des Hochschuldidaktischen Zentrums an der Universität Dortmund. 2 Vgl. Wissenschaftsrat (2008). 3 Vgl. Körber-Stiftung (2008). 4 Vgl. Huber / Hellmer / Schneider (2009).
94
Johannes Wildt
für Georg Picht’s Diagnose einer „Deutschen Bildungskatastrophe“. 5 Der erste populäre Plan zur Einführung eines gestuften Studiensystems findet sich in Ralf Dahrendorf’s „Bildung als Bürgerrecht“. 6 In der Kritik der politischen Ökonomie der Gesamthochschule wird im Gegenzug die „Illusion der Chancengleichheit“ 7 entzaubert und dem vermeintlichen Aufstieg durch Bildung die Differenzierung zwischen „Rezeptemachern“ und „Rezepteanwendern“ 8 in der „Untertanenfabrik“ 9 als Funktion eines gestuften Studiensystems unterlegt. Bekanntlich blieb es nicht bei der Idee zur Umsetzung gestufter Studiengänge. Verschiedene Varianten der sogenannten „Integrierten Gesamthochschule“ in der ersten Hälfte der 70er Jahre hielten (bis auf die Universität Kassel) dem Ansturm der Gegenreform jedoch nicht stand. Auch Bologna 1999 mit seiner zweigestuften Studienstruktur nimmt die Figur der Reform auf der Ebene der einzelnen Institutionen nicht auf, führt aber im Gegenzug auf der Systemebene eine ubiquitäre Gesamthochschule wieder ein. Warum dann nicht auch in Anknüpfung an das Gründungsdokument der Hochschuldidaktik in der Bundesrepublik Deutschland, als das die programmatische Schrift der Bundesassistentenkonferenz 10 angesehen werden kann?
II. „Forschendes Lernen“ – Anknüpfen an einer akademischen Lehr- und Studienkultur im Bologna-Prozess? Der Entwurf des „Forschenden Lernens“ kann als Versuch betrachtet werden, den Modernisierungsbedarf in der Hochschulbildung durch deren Situierung in ein Lernen „im Medium der Wissenschaft“ 11 zu begegnen, das die Aktivität und Kooperation von Studierenden in den Mittelpunkt stellt. In der Kritik an einer vorwiegend auf die Vermittlung von Wissenschaftsinhalten abstellenden Lehre, die vorwiegend durch rezeptives Lernen oder doch mindestens stark auf dozentenzentrierte Steuerung des Studiums ausgerichtet war, sollten die Studierenden als eigenständige Akteure und Kooperanden in das Kerngeschäft von Wissenschaft und Forschung einbezogen werden. Wenn man Humboldt nicht nur mit der Brille einer aus der Wissenschaftsfreiheit begründeten „Einheit von Forschung und Lehre“ sieht, sondern den aktiven Part der Studierenden an dem 5
Picht (1965). Dahrendorf (1965). 7 Bourdieu / Passeron (1971). 8 Hickel (1970). 9 Leibfried (1967). 10 Vgl. Bundesassistentenkonferenz (BAK) (1970). 11 Asdonk / Kröger / Strobl / Tillmann / Wildt (2002). 6
„Forschendes Lernen“
95
Humboldt zufolge immer als unfertig gedachten Forschungsprozess 12, durch den sich Hochschule von Schule unterscheidet, hervorhebt, wird die Einheit von Forschung und Lehre mit der „Gemeinschaft von Lehrenden und Lernenden“ am Wissensprozess zur Leitschnur der Hochschulentwicklung. Es ist im Übrigen nicht nur interessant, bei der BAK nachzulesen, wie dieses Studienkonzept bildungstheoretisch begründet und fachspezifisch ausgestaltet, sondern ihm auch die Entwicklung derjenigen Kompetenzen zugeschrieben wird, die im heutigen Bologna-Prozess als „methodische, soziale und personale Schlüsselkompetenzen“ bezeichnet werden. „Forschendes Lernen“ wird damit zur Leitfigur und Höchstform eines hochschulgerechten Begriffs akademischen Lernens. Was lässt dieses Konzept neuerdings wieder attraktiv werden? Der BolognaProzess, in dem in kaum vorhergesehenem Tempo die zweigeteilte Studienstruktur nahezu flächendeckend umgesetzt und die Studiengänge mit Modulen, Workloads, Leistungspunkten, Supplements weitgehend parametrisiert worden sind, droht an seinem eigenen Erfolg zu ersticken. Im Resultat – so heute eine weitverbreitete kritische Wahrnehmung – hat dies zur Kompression der Studieninhalte im Korsett der neuen Rahmenvorgaben, zu einer Reglementierung des Studiums, einer starken Zunahme von administrativen Aufgaben in der Lehre und einem exorbitanten Anstieg der Prüfungsbelastung durch die Art der Umsetzung des studienbegleitenden Prüfungssystems geführt. Die Studierenden kritisieren heute in den aufgeflammten Protesten eine Verschulung des Studiums, die kaum Raum für ein selbstbestimmtes und selbstverantwortetes Lernen gibt. Die Eskalation der Unzufriedenheit war vorauszusehen. Angesichts der Beobachtung, dass der Bologna-Prozess in Deutschland an dem „Shift from Teaching to Learning“ einer lehrendenzentrierten zu einer studierendenzentrierten Auffassung von Lehre und Studium vorbeilief, hatte die vormalige Arbeitsgemeinschaft für Hochschuldidaktik (AHD) und heutige Deutsche Gesellschaft für Hochschuldidaktik (dghd) bereits 2005 eine „Zweite Welle der Reform“ 13 postuliert. Mittlerweile wird die seit 2003 erhobene rückläufige Akzeptanz der Bologna-Reform unter den Studierenden aus Sicht der Hochschulforschung bestätigt. 14 Auch viele Lehrende befürchten die Reduktion des Hochschulstudiums auf eine Sekundarstufe III. Inzwischen hat auch die HRK 15 eine deutliche Kurskorrektur angemahnt und daher aktives und kooperatives Lernen in einer studierendenzentrierten Ausrichtung in den Mittelpunkt ihrer Entstehung zur Reform der Lehre an Hochschulen gestellt. Aber auch die Argumentationslage hat sich 12 13 14 15
Vgl. von Humboldt (1964), S. 30f. Arbeitsgemeinschaft für Hochschuldidaktik (AHD) (2005). Vgl. Bargel (2009). Vgl. HRK (2008).
96
Johannes Wildt
geändert. Wurde noch zum Zeitpunkt des Erscheinens der BAK-Schrift „Forschendes Lernen“ im Wesentlichen normativ bildungstheoretisch begründet, so liegt heute ein empirischer Fundus an Erkenntnissen vor, die es hochschuldidaktisch stützen. 16
III. Forschendes Lernen: Lernen im „Format“ der Forschung Im Begriff „Forschendes Lernen“ werden mit „Forschen“ auf der einen Seite, und „Lernen“ auf der anderen Seite zwei Aufgabenbereiche der Hochschule zusammen gefügt, die dort institutionell gewöhnlich voneinander getrennt bearbeitet werden. Zwar wird nicht zuletzt von denjenigen, die sich die Wissenschaftlichkeit von Lehre und Studium auf ihre Fahnen geschrieben haben, vielfach die „Einheit von Forschung und Lehre“ beschworen. In der Tradition eines „Humboldtianismus“ 17 wird dies aber in erster Linie als Einheit in dem Sinne verstanden, dass die Lehrinhalte aus der Forschung generiert und begründet werden. Wie diese aber mit dem Lernen zusammenhängen, wird dabei zumeist nicht thematisiert. Wenn dies geschieht, so zuvörderst im Sinne einer klassischen Rollenkonfiguration, nach der der Lehrende als „Professor“ in der lateinischen Wortbedeutung von profiteri: „Wissen verkünden, öffentlich zugänglich machen“, die Wissenschaftsinhalte nach den Regeln der wissenschaftlichen Kunst, also theoretisch und methodisch geprüft präsentiert und den Studierenden überlassen bleibt, sich diese „aus eigenem Eifer anzueignen“, d. h. zu studieren, ebenfalls im lateinischen Wortsinnes eines „studere“. 18 In dieser Rollenkonfiguration erscheinen didaktische Reflexion und Gestaltung, die die Lehre vom Lernen her denkt, nicht nur unüblich oder unerheblich, sondern dem wissenschaftlichen Diskurs abträglich. Werden infolge dessen mit „Forschen“ und „Lernen“ nicht zwei Aufgabenbereiche miteinander vermischt, deren disjunkte Bearbeitung gerade institutionell mit Bedacht vorgesehen ist? Wird mit einer solchen Vermischung nicht eine zweifache Beeinträchtigung angelegt, nämlich der Forschung einerseits wie auch des Studiums andererseits? Vor dem Hintergrund dieser Fragen sehen sich Konzepte Forschenden Lernens einer doppelten Kritik ausgesetzt: von Seiten der Forschung, da der Forschungsbegriff durch die Konnotierung mit Lernen verwässert werde, von Seiten des Studiums, da durch die Zentrierung auf Forschung die Thematisierung der Lernqualität – mithin die eigentliche didaktische Frage – aus dem Blick gerate. Zu
16 17 18
Vgl. Schaeper / Wildt (2009). Bartz (2007). Wildt (2002).
„Forschendes Lernen“
97
beiden Fragerichtungen ist es erforderlich, die hochschuldidaktische Argumentationslinie klar zu markieren. Die Kritik, die den Forschungsbegriff gegen hochschuldidaktische Übergriffe in Schutz nehmen will, wird markant wohl immer wieder von Mittelstraß 19 vertreten, der sich auch zuletzt auch auf dem Hamburger Forum gegen die „inflationäre Verwendung des Forschungsbegriffs“ wandte. Huber 20 hat dem gegenüber schon 1999 aus hochschuldidaktischer Sicht den von der Forschung unterschiedenen Eigensinn des Lernens hervorgehoben, der aber nicht daran hindere, forschungstypische Tätigkeiten in den Lernprozess zu integrieren. Er zeigt vielmehr, dass viele theoretische und methodische Tätigkeiten in Projekten Forschenden Lernens analog auch in Forschungsprojekten aufzufinden sind. Dies belegen einmal mehr die Fallbeispiele der Hamburger Tagung. 21 An dieser Stelle soll hervorgehoben werden, dass Forschung und Forschendes Lernen aus einer gemeinsamen Quelle schöpfen. Beide werden von der Triebkraft in Gang gesetzt und gehalten, neues Wissen zu generieren, dessen Hervorbringung durch theoretisch und methodisch geleitete Erkenntnisvorgänge gesteuert wird. So können die Projekte Forschenden Lernens und Forschungsprojekte sui generis mit Kategorien des Forschungshandelns übereinstimmend beschrieben werden. Sie unterscheiden sich jedoch durch die Bezugssysteme, vor denen die gewonnenen Erkenntnisse interpretiert werden: zum Bezugssystem des individuellen Lerngewinns einerseits oder dem Bezugssystem des wissenschaftlichen Erkenntnisgewinns andererseits. Neu ist im Falle der didaktischen Betrachtung die Erweiterung des individuellen Wissens. Forschungsprojekte und deren Ergebnisse haben sich jedoch gegenüber dem Bezugssystem des „state of the art“ des wissenschaftlichen Erkenntnisgebiets bzw. der Disziplinen als originär neu zu legitimieren. Es ist deshalb nicht zwingend, gleichwohl aber möglich und in vielen Fällen auch wohl so, dass Forschendes Lernen über den individuellen Wissenszuwachs auch zur Wissenschaftsentwicklung beiträgt. Umgekehrt ist es auch nicht unwahrscheinlich – wenngleich nicht intentional angelegt –, in Forschungsprojekten auch das individuelle Wissen zu erweitern. Es kann vielmehr regelmäßig als spin off von Forschung betrachtet werden, dass sich gleichzeitig mit dem Fortschreiten der Forschungsarbeiten auch die Kompetenz der Forscher in ihrem Metier weiterentwickelt, also Lernen durch Erkenntnis stattfindet. 19 20 21
Vgl. Mittelstraß (1996). Vgl. Huber (1999). Vgl. Huber / Hellmer / Schneider (2009).
98
Johannes Wildt
Genauso ernst zu nehmen wie die Kritik aus der Warte der Forschung ist jedoch auch die didaktische Kritik am Forschenden Lernen, wenngleich diese bislang nicht prägnant zur Sprache gekommen ist. Dem Sinn des Studiums als Lernveranstaltung würde es nämlich auch entgegenstehen, wenn die Studierenden in Forschungsprojekten lediglich zu ausführenden Organen des Designs degradiert werden würden, ohne dass daraus für sie ein erkennbarer Lerngewinn entstünde. Manche Vorhaben, die unter dem Titel des „Forschenden Lernens“ firmieren, scheinen nicht mehr als Maßnahmen zur Erweiterung der Forschungskapazität und das studentische Engagement lediglich als Einsatz kostenfreier Hilfskräfte betrachtet zu werden. Der Erkenntnisgewinn für die Wissenschaft mag dabei hoch, der Lerngewinn für die Studierenden jedoch gering ausfallen. Die Aufgabe einer Lehre, die „Forschendes Lernen“ realisiert, besteht jedoch darin, in dieser Forschungspraxis Lernmöglichkeiten aufzutun. Forschung bildet in diesem Sinne das „Format“, d. h. den Handlungsrahmen, in dem das Lernarrangement des Forschenden Lernens getroffen wird. 22
Quelle: Eigene Darstellung. Abb. 1: Forschendes Lernen entsteht durch die Zusammenfügung von Forschen und Lernen durch eine didaktische Transformation in Forschendes Lernen
IV. Zur Kombination der Zyklen des Forschens und Lernens im „Forschenden Lernen“ Schneider / Wildt 23 haben diese didaktische Transformation in der Kombination von Forschung und Lernen ausgearbeitet. Der Transformation liegt die 22 23
Vgl. Wildt (2006). Schneider / Wildt (2009).
„Forschendes Lernen“
99
Einsicht zugrunde, dass Forschungsprojekte der Methodologie wissenschaftlicher Erkenntnisgewinnung folgend typische Zyklen von Forschungshandlungen durchlaufen, die mit einem dazu synchron konzeptualisierten Lernzyklus korrespondieren. In der Ausgestaltung der Beziehungen dieser Zyklen zueinander besteht die eigentliche hochschuldidaktische Leistung. 1. Zum Forschungszyklus Die folgende Darstellung zeigt einen typischen Zyklus von Forschungstätigkeiten, wie er in der empirischen Sozial- bzw. Bildungsforschung durchlaufen wird.
Quelle: Eigene Darstellung. Abb. 2: Forschungszyklus
In dieser Betrachtungsweise starten Forschungsvorhaben auf der Basis eines „state of the art“ mit der Entwicklung einer Forschungsfrage, die auf erkenntnisleitenden Interessen basiert. Diese Forschungsfragen werden nicht immer durch die Forscher allein generiert, sondern entstehen im Aushandlungsprozess mit an der Forschung interessierten oder davon betroffenen Personen, Gruppen oder Einrichtungen und ggf. in Abhängigkeit von deren Entwicklungsprogrammen. Aus der Analyse des Forschungstandes werden unter Hinzuziehung von theoretischen und methodischen Ansätzen dann in einem zweiten Schritt Hypothesen entwickelt, die es im Forschungsprozess zu überprüfen gilt. Die Hypothesen werden dann in einem Forschungsdesign operationalisiert und in eine überprüfbare Struktur gebracht. Diese Struktur umfasst nicht nur die Ausarbeitung der Beobachtungs- bzw. Messinstrumente oder Experimentalanordnungen, sondern auch deren Einpassung in die Handlungskontexte, in denen die Forschung ausgeführt werden soll. Erst auf diesen dritten Schritt folgt als vierter die Durchführung der
100
Johannes Wildt
Untersuchung, in der die Erhebung stattfindet. Als fünfter schließt sich daran die Auswertung an, die sechstens in eine Interpretation mündet. Häufig wird mit diesem sechsten Schritt der Forschungszyklus durch eine schriftliche Darstellung abgeschlossen. In einer zyklischen Betrachtung kann jedoch an diesem Schritt die Vermittlung und die Anwendung der Erkenntnisse in der Praxis anschließen, um von den Erfahrungen, die dabei gewonnen werden, erneut in den Forschungszyklus einzutreten. Wie leicht zu erkennen ist, folgt diese Darstellung den üblichen Verfahren der empirischen Sozial- oder Bildungsforschung, Es soll jedoch an dieser Stelle ausdrücklich hervorgehoben werden, dass je nach Forschungsansatz bzw. der beteiligten Disziplinen der konkrete Forschungszyklus durchaus variieren kann. In jedem Fall muss der Forschungszyklus auf den jeweiligen Kontext des studierten Fachs bzw. der studierten Fächer hin konkretisiert werden. 2. Zum Lernzyklus Zur Konzeptualisierung der Lernprozesse im Format der Forschung haben Schneider und Wildt auf den „Learning Cycle“ sensu Kolb 24 zurückgegriffen, der den Denktraditionen des angelsächsischen Pragmatismus entstammt.
Quelle: Eigene Darstellung. Abb. 3: Learning Cycle sensu Kolb
Ausgangspunkt des Lernprozesses ist demnach die „experience“, die mehr ist als Alltagserfahrung, indem sie im Dewey’schen Sinne „continuity“, also die Kohärenz der Erfahrung in der Alltagswelt, herstellt. Der Lernprozess wird angetrieben durch eine Distanznahme zur „experience“, die auf vielfältige Anläs24
Vgl. Kolb (1984).
„Forschendes Lernen“
101
se zurückgehen kann. Insbesondere Unstimmigkeiten, Widersprüche, Probleme, Rätsel, Unsicherheiten, die in der „experience“ virulent werden, führen zu deren „Reflexion“. Die Reflexion wiederum kann zu neuen Sichten der Wirklichkeit führen, die veränderte Wirklichkeitskonzeptionen enthalten. In einem weiteren Schritt werden diese dann im praktischem Handeln („Experiment“) überprüft. Dabei gewonnene Erfahrungen gehen wiederum in die „experience“ ein, aus der durch neuerliche Anstöße der Lernprozess erneut in Gang gesetzt und der Learning Cycle ggf. neu wiederholt in einem spiralförmig sich aufbauenden Erkenntnisgewinn durchlaufen wird. 3. Lernen im Format der Forschung Projiziert man nun den Learning Cycle in den Forschungszyklus, so werden in der Abfolge analoge Schritte sichtbar, die sich für eine Synchronisierung anbieten.
Quelle: Eigene Darstellung. Abb. 4: Der Learning Cycle im Format des Forschungsprozesses
Ist die „experience“ der vorfindlichen Praxis zuzuordnen, so entsprechen die daraus zu entwickelnden bzw. auszuhandelnden Fragestellungen der Reflexionsphase, die mit der Konstruktion von Hypothesen und Forschungsdesigns in die kognitive Rekonstruktion einmünden. Die Durchführung und Auswertung sowie Interpretation lässt sich der Phase des Experimentierens und der Gewinnung neuer Erfahrungen zuordnen, die in der Vermittlung und Anwendung wiederum in die experience einmünden, aus der dann wieder synchrone Lern- und Forschungszyklen entstehen können. Eine didaktische Ausgestaltung, die den Bezug zwischen den einzelnen Phasen des Forschungsprozesses und den Lernmöglichkeiten der Studierenden elaboriert, wird an dieser Stelle nicht eigens vorgenommen, da entsprechende Hin-
102
Johannes Wildt
weise auf die Gestaltung forschender Lernprozesse in den folgenden Beiträgen aus unterschiedlichsten Perspektiven und Disziplinen dargestellt werden.
V. „Forschendes Lernen“ als „Hochform“ aktiven und kooperativen Lehrens und Lernens Mit dem Rückgriff auf eine lernpsychologische Rekonstruktion des hochschulischen Lernens mit dem Kolb’schen „Learning Cycle“, der jüngst von Brall 25 in seiner Dissertation weiterentwickelt worden ist, gewinnt „Forschendes Lernen“ Anschluss an den didaktischen Diskurs über Konzepte aktiven und kooperativen Lernens: − aktives Lernen, insoweit im Erfahrungslernen die Aktivität der Lernenden im Durchlaufen der Lernstadien gefordert und als selbstorganisiertes Handeln angelegt wird; − kooperatives Lernen insofern, als Projekte „Forschendes Lernen“ zwar nicht zwingend – und z. B. in Form von Abschlussarbeiten auch nur ausnahmsweise (für die Ingenieurwissenschaften vgl. Junge 26) – in kooperativer Form durchführen, während es aber im Laufe des Studiums vorwiegend in Zusammenarbeit von Studierenden in Gruppen stattfindet. Reichhaltiges Material haben dazu Roters u. a. 27 im Forschenden Lernen in Praxisstudien der Lehrerbildung, das HDZ Dortmund im Journal Hochschuldidaktik 28 und die erwähnte Tagung der Körber-Stiftung 29 in einer Vielzahl unterschiedlicher Studienfächer mit repräsentativem Anspruch dokumentiert. Dabei zeigen die einzelnen Projekte viele Affinitäten zu didaktischen Konzepten, mit denen aktives und kooperatives Lernen strukturiert wird: entdeckendes, problemorientiertes, projektbezogenes und fallorientiertes Lernen. Reichhaltiges Material dazu liefert das Neue Handbuch Hochschullehre. 30 Sofern diese didaktischen Konzepte Lernen durch wissenschaftliche Erkenntnis theoretisch und empirisch vorantreiben, führen sie zu „Forschendem Lernen“, das sich gemäß der folgenden Darstellung als „Hochform“ aktiven und kooperativen Lernens erweist. Diese Kennzeichnung ergibt sich aus der Formenvielfalt und ihrem inneren Zusammenhang, wie sich in Abb. 5 darstellen lässt. Dabei sind die verschiede25 26 27 28 29 30
Vgl. Brall (2009). Vgl. Junge (2009). Vgl. Roters / Schneider / Koch-Priewe / Thiele / Wildt (2009). Vgl. Hochschuldidaktisches Zentrum der TU Dortmund (2009). Vgl. Körber-Stiftung (2008). Vgl. Berendt / Voss / Wildt.
„Forschendes Lernen“
103
nen Konzepte ausgehend vom erfahrungs- und handlungsorientierten Lernen in eine Reihung gebracht, die sich durch eine zunehmende Komplexitätssteigerung aufgrund schrittweiser Anreicherung der didaktischen Konzeptionierung mit charakteristischen didaktischen Gestaltungsmerkmalen auszeichnet. 31 1. Zwischen Erfahrungs- und Forschendem Lernen in Formaten aktiven und kooperativen Lernens Die Komplexitätserweiterung ergibt sich daraus, dass jeweils bestimmte typische Merkmale identifiziert werden können, die den Übergang von einem Konzept zum anderen markieren. Die folgende Darstellung ist allerdings insoweit idealtypisch angelegt, als im alltäglichen Sprachgebrauch die jeweiligen Merkmalszuordnungen nicht immer konsistent gehandhabt werden.
Quelle: Eigene Darstellung. Abb. 5: Konzepte des aktiven und kooperativen Lernens
Die Stufenfolge der hochschuldidaktischen Konzepte liest sich folgendermaßen: Auf der Stufe des Erfahrungslernens baut das „Entdeckende Lernen“ auf, in dem die Lernenden beim Durchlaufen des Zyklus’ Spielräume für eigenverantwortliches, selbstorganisiertes und -gesteuertes Lernen erhalten. Auf der nächsten Stufe tritt die Planung der Lernhandlungen in den Vordergrund, die sich auf die Intentionen und Arbeitsschritte einzelner Vorhaben erstreckt. Auf der darauf aufbauenden Stufe des problemorientierten Lernens werden die Handlungspläne, die sich auf die Bewältigung von Aufgaben beziehen, in ihrem methodischen Gehalt elaboriert. Häufig werden die Konzepte problem- und projektorientierten Lernens begrifflich nicht klar voneinander getrennt. Während beim problemorientierten Lernen die Aufgabenstellung oft mehr oder weniger vorgegeben ist, wird im projektorientierten Lernen die Entwicklung der Aufgabenstellung un31
Vgl. Wildt (2005).
104
Johannes Wildt
ter dem Gesichtspunkt der Relevanz der Ergebnisse zentraler Bestandteil des Lernens selbst. Im fallorientierten Lernen wird dann zusätzlich besonders Wert darauf gelegt, in welchen Kontext die Ergebnisse der Lernprozesse gestellt werden. Forschendes Lernen schließlich legt den Akzent auf die theoretische und empirische Steuerung der Lernprozesse. 2. Schlussbemerkung: Rollen und Rollenbeziehungen zwischen Lehrenden und Lernenden Kompetenzentwicklung in solchen Lernkonzepten wird allerdings nur schwer möglich, wenn sich nicht mit dem „Shift from Teaching to Learning“ auch ein nachhaltiger Wandel in den Lehrauffassungen der Lehrenden vollzieht. Kember / Kwan 32 haben in einer Metastudie zu Lehrauffassungen fünf Stufen zwischen den Polen einer lehrenden- und einer studierendenzentrierten Lehrauffassung unterschieden:
Quelle: Eigene Darstellung. Abb. 6: Unterschiedliche Lehrauffassungen
Dem dozentenzentrierten Pool werden Lehrende zugerechnet, die ihre Lehre als Vermittlung wissenschaftlicher Information behandeln. Im Mittelpunkt steht die Darstellung von Wissenschaftsinhalten, die sich an den theoretischen und methodischen Standards des Wissenschaftsgebiets orientiert. Eine davon unterschiedene didaktische Grundhaltung verfolgen Lehrende, die bemüht sind, ihre Lehrinhalte so zu strukturieren, dass sie den kognitiven Voraussetzungen und Reichweiten ihrer Studierenden angepasst sind. Treten dagegen Lehrende mit Studierenden in Interaktion, vergewissern sich über deren Lernerfolge und holen Feedbacks darüber ein, wie ihre Lehre sich auf das Lernen der Studierenden auswirkt, so lassen sich diese der Mitte der Skala zwischen beiden Polen zuord-
32
Vgl. Kember / Kwan (2000).
„Forschendes Lernen“
105
nen. Näher dem studierendenzentrierten Pol sind da schon Lehrende, die ihre Lehrtätigkeit an den Verstehensprozessen der Studierenden orientieren. In einer studierendenzentrierten Sicht werden dabei die Lernprozesse von Studierenden zum Ausgangspunkt gemacht und das Lehrverhalten lernförderlich gestaltet. Von dieser Lehrauffassung als „Facilitator“ von Lernen lässt sich dann auf dem studierendenzentrierten Pol noch eine fünfte Gruppe hervorheben. Sie sieht ihre zentrale Aufgabe darin, epistemische Neugier der Studierenden zu wecken, sie intellektuell herauszufordern und zum kritischen Denken anzuregen. Die Verwirklichung einer studierendenzentrierten Lehrauffassung erfordert eine Erweiterung des didaktischen Repertoires über eine lediglich instruktionsorientierte Lehre hinaus – wenngleich die Darstellung von Theorien, Methoden und Gegenstandskonzeptionen der studierten Wissenschaften regelhaft Teil der Lehre bleiben wird – zur Schaffung von Lernarrangements und Lernumgebungen, die selbstverantwortetes Lernen der Studierenden ermöglichen. Die Tätigkeit der Lehrenden verschiebt sich damit von der instruktionalen Seite hin zur Übernahme von Aufgaben einer Lernberatung bzw. Lernbegleitung. Der Dozent wird zum „Coach“. 33 Die Forschung über Studierende hat viel Evidenz dafür gefunden, dass eine studierendenzentrierte Lehrauffassung der Förderung eines tiefenorientierten Lernens und der Entwicklung intrinsischer, d. h. an der Sache orientierter Motivation dient. 34 Aus hochschuldidaktischer Sicht lässt sich hinzufügen, dass der Wandel in den Lehrauffassungen nachhaltig durch die Förderung von Lernprozessen von Lehrenden unterstützt werden kann. Gibbs / Coffey 35 etwa konnten in einer internationalen Vergleichsstudie zeigen, dass hochschuldidaktische Weiterbildung zu einem stabilen Wandel der Lehrauffassung in Richtung zunehmender Studierendenzentriertheit führt, während ohne hochschuldidaktische Weiterbildung Lehrende dazu neigen, dozentenzentrierte Lehrauffassungen auszuprägen. Mit den verschiedenen Lehrauffassungen korrespondieren unterschiedliche Konzeptualisierungen der Rollen von Studierenden. In Ansätzen neuer Steuerungsverfahren zur Hochschulentwicklung erscheinen Studierende häufig in der Rolle als „Kunden“. Wenn darunter Lehr-Lernverhältnisse verstanden werden, bei denen es lediglich darum geht, in der Wissenschaft gewonnenes bzw. überprüftes Wissen individuell zu erwerben, entspricht dies einer Lehrauffassung der ersten und zweiten Kategorie auf der erwähnten Skala. Davon unterscheidet sich eine Konzeption der Rolle der Studierenden als „Klienten“. Sie setzt schon eine Professionalisierung der Lehrenden voraus, die diese befähigt, den Studierenden als „Klienten“ zu ihrem Recht auf Bildung zu verhelfen. Bildung wird dabei 33 34 35
Blom (2000). Vgl. Trigwell / Prosser (1999). Vgl. Gibbs / Coffey (2002).
106
Johannes Wildt
als eigenverantwortlicher Prozess verstanden, den die Lehrenden durch Interaktion (Stufe 3) und Unterstützung des Verstehens (Stufe 4) beratend begleiten. In einer weitergehenden Rolleninterpretation lassen sich Studierende allerdings auch als Ko-Konstrukteure des wissenschaftlichen Wissens betrachten. Lehrende, die dem studierendenzentrierten Pol der Skala von Lehrauffassungen zugeordnet werden, richten sich darauf aus, die Studierenden in der Entwicklung einer forschenden Lernhaltung zu unterstützen.
Literatur Arbeitsgemeinschaft für Hochschuldidaktik (AHD) (Hrsg.) (2005): Beschluss auf der Mitgliederversammlung vom 8. 3. 2005, in: Network News, 6. Ausgabe, online verfügbar unter: www.hd-on-line.de. Asdonk, Jupp / Kröger, Hans / Strobl, Gottfried / Tillmann, Klaus-Jürgen / Wildt, Johannes (Hrsg.) (2002): Bildung im Medium der Wissenschaft. Reihe Blickpunkt Hochschuldidaktik, Bd. 109, Weinheim. Bargel, Tino (2009): Chancen und Risiken gestufter Studiengänge – eine Zwischenbilanz. Welcher Studierendentyp wird im Bachelor begünstigt?, in: Hochschulinformationssystem GmbH (Hrsg.): Perspektive Studienqualität. Themen und Forschungsergebnisse der HIS-Fachtagung Studienqualität, Bielefeld, S. 182 –195. Bartz, Olaf (2007): Der Wissenschaftsrat. Entwicklungslinien der Wissenschaftspolitik in der Bundesrepublik Deutschland 1957 – 2007, Stuttgart. Berendt, Brigitte / Voss, Hans-P. / Wildt, Johannes (Hrsg.): Neues Handbuch Hochschullehre. Loseblatt-Sammlung, Berlin, seit 2002 fortlaufend. Blom, Hermann (2000): Der Dozent als Coach, Neuwied / Kriftel. Bourdieu, Pierre / Passeron, Jean Claude (1971): Die Illusion der Chancengleichheit, Stuttgart. Brall, Stefan (2009): Arbeitsbegleitende überfachliche Kompetenzentwicklung als Element strategischer Entwicklung Technischer Universitäten, Dissertation, Dortmund. Bundesassistentenkonferenz (BAK) (Hrsg.) (1970): Forschendes Lernen – wissenschaftliches Prüfen, Schriften der BAK 5, Bonn. Dahrendorf, Ralf (1965): Bildung ist Bürgerrecht, Hamburg. Gibbs, Graham / Coffey, Martin (2002): The Impact of Training on University Teachers. Process to Teaching and on the Way their Students Learn, in: Das Hochschulwesen, Heft 2, S. 50 – 53. Hickel, Rudolf (1970): Zur Kritik der politischen Ökonomie der Gesamthochschule, in: Studentische Politik, Heft 3, 7. Jg., S. 11ff. Hochschuldidaktisches Zentrum der TU Dortmund (Hrsg.) (2009): Journal Hochschuldidaktik, Nr. 2, 20. Jg. HRK (Hrsg.) (2008): Für eine Reform der Lehre in den Hochschulen. Beschluss der Mitgliederversammlung vom 22. 04. 2008; online verfügbar unter www.hrk.de /beschluesse/109.php.
„Forschendes Lernen“
107
Huber, Ludwig (1999): An- und Aussichten der Hochschuldidaktik, in: Zeitschrift für Pädagogik, Heft 1, S. 25 –44. Huber, Ludwig / Hellmer, Julia / Schneider, Friederike (Hrsg.) (2009): Forschendes Lernen im Studium, Bielefeld. von Humboldt, Wilhelm (1964): Über die innere und äußere Organisation der höheren wissenschaftlichen Anstalten in Berlin, in: Gelegentliche Gedanken zur Universität, hrsg. von Karl Püllen, Darmstadt. Junge, Hartwig (2009): Projektstudium als Beitrag zur Steigerung der beruflichen Handlungskompetenz in der wissenschaftlichen Ausbildung von Ingenieuren, Dissertation, Dortmund. Kember, David / Kwan, Kam-Por (2000): Lectures Approaches to Teaching and their Relationship to Conceptions of Good Teaching, in: Instructional Science, Vol. 28, pp. 469 – 490. Kolb, David A. (1984): Experiential Learning: Experience as the source of learning and development, New York. Körber-Stiftung (Hrsg.) (2008): Bericht über die Tagung zum Forschenden Lernen an Hochschulen am 6. / 7. 11. 2008 in Hamburg,[http://www.koerber-stiftung.de]. Leibfried, Stephan (Hrsg.) (1967): Wider die Untertanenfabrik, Köln. Mittelstraß, Jürgen (1996): Vom Elend der Hochschuldidaktik, in: Brinek, Gertrude / Alfred Schirlbauer (Hrsg.): Vom Sinn und Unsinn der Hochschuldidaktik, Wien, S. 56 – 76. Picht, Georg (1965): Die deutsche Bildungskatastrophe, Olten / Freiburg. Roters, Bianca / Schneider, Ralf / Koch-Priewe, Barbara / Thiele, Jörg / Wildt, Johannes (Hrsg.) (2009): Forschendes Lernen im Lehramtsstudium. Hochschuldidaktik – Professionalisierung – Kompetenzentwicklung, Bad Heilbrunn. Schaeper, Hildegard / Wildt, Johannes (2009): Kompetenzziele des Studiums, Kompetenzerwerb von Studierenden, Kompetenzorientierung der Lehre, in: Hochschulinformationssystem GmbH (Hrsg.): Perspektive Studienqualität. Themen und Forschungsergebnisse der HIS-Fachtagung Studienqualität, Bielefeld, S. 64 –83. Schneider, Ralf / Wildt, Johannes (2009): Forschendes Lernen in Praxisstudien – Wechsel eines Leitmotivs, in: Roters, Bianca / Ralf Schneider / Barbara Koch-Priewe / Jörg Thiele / Johannes Wildt (Hrsg.): Forschendes Lernen im Lehramtsstudium. Hochschuldidaktik – Professionalisierung – Kompetenzentwicklung, Bad Heilbrunn. Trigwell, Keith / Prosser, Michael (1999): Relations between Teachers Approaches to Teaching and Students Approaches to Learning, in: Higher Education, Vol. 37, pp. 57 – 70. Wildt, Johannes (2002): Schlüsselkompetenzen – Leitmotiv der Studienreform?, in: Universität zu Köln (Hrsg.): Schlüsselkompetenzen und Hochschule. Konsequenzen für Studium und Beratung, Köln, S. 16 – 25. Wildt, Johannes (2005): Auf dem Weg zu einer Didaktik der Lehrerbildung?, in: Beiträge zur Lehrerbildung, Heft 23, Nr. 2, S. 183 – 190.
108
Johannes Wildt
Wildt, Johannes (2006): Formate und Verfahren in der Hochschuldidaktik, in: Wildt, Johannes / Birgit Szczyrba / Beatrix Wildt (Hrsg.): Consulting, Coaching, Supervision. Eine Einführung in Formate und Verfahren hochschuldidaktischer Beratung, Reihe Blickpunkt Hochschuldidaktik, Bd. 117, Bielefeld, S. 12 –39. Wissenschaftsrat (Hrsg.) (2008): Empfehlungen zur Qualitätsverbesserung von Lehre und Studium, Köln, online verfügbar unter: www.wissenschaftsrat.de/Veroffentlichungen /veroffentlich.htm.
Aspekte der Bildung eines allgemeinen Wirtschafts- und Gesellschaftsverständnisses Von Rolf Dubs 1
I. Die Finanz- und Wirtschaftskrise Richtig ist, dass eine Minderzahl von Manager / innen, deren Denken und Handeln ausschließlich auf eine kurzfristige Gewinnmaximierung ihrer Unternehmungen ausgerichtet war und zum Teil noch heute ist, für die Finanz- und als Folge davon für die Wirtschaftskrise weitgehend verantwortlich ist. Besonders verwerflich sind dabei ihre Maßlosigkeit und die persönliche Gier nach hohen Vergütungen und Bonuszahlungen, die von niemandem korrigiert wurden. Viele Aufsichtsräte hätten ihre Kontrollaufgabe angesichts der Profitgier vieler Manager / innen ernsthaft wahrnehmen und korrigierend eingreifen müssen. Viel ärgerlicher sind jedoch jetzt in der Krisensituation die vielen Reaktionen in der breiten Öffentlichkeit, welche allesamt nichts zur Überwindung der Vertrauenskrise beitragen. Zu denken ist in erster Linie an die verbreitete und übergeneralisierende Sündenbockpolitik, der jede Differenzierung abgeht: Alle Banken und alle Manager / innen sind schlecht und verantwortungslos, und bewiesen ist jetzt, dass eine freie Wirtschaft nur Egoist / innen dient und soziale Ungerechtigkeiten verstärkt. Aber auch die vielen Patentlösungen, welche vor allem von einzelnen Politiker / innen zur Überwindung der Krise vorgeschlagen werden, sind sehr häufig nur Ausdruck eines kurzfristigen populistischen Denkens, das nicht geeignet ist, die wirtschaftlichen Probleme unserer Tage zu lösen. Die erneut aufkommende Sündenbockpolitik und das populistische Denken lassen sich nur überwinden oder wenigstens abschwächen, wenn die gesamte Bevölkerung willens und fähig wird, über die größer werdenden gesamtwirtschaftlichen und unternehmerischen Probleme zu reflektieren.
1 Prof. Dr. Dres h.c. Rolf Dubs war Inhaber der Professur für Wirtschaftspädagogik an der Universität St. Gallen und ist heute als Berater in Schulfragen und Unternehmensentwicklung tätig.
110
Rolf Dubs
II. Längerfristige Gefahren für die Demokratie und die Marktwirtschaft Je komplexer das Geschehen in der Gesellschaft und Wirtschaft wird, je mehr sich Politik und Wirtschaft vernetzen und je stärker sich die technologischen, wirtschaftlichen und gesellschaftlichen Voraussetzungen und Bedingungen verändern, desto weniger verstehen viele Menschen, was sich in der Wirtschaft genau abspielt. Dieses Nichtverstehen von Vorgängen sowie der politischen und unternehmerischen Entscheidungen, denen sie täglich begegnen und die sie häufig persönlich treffen (z. B. Kurzarbeit, Reduktion der Sozialleistungen, Mehrwertsteuererhöhungen), verunsichert sie. Je stärker sie sich aus ihrer Sicht negativ betroffen fühlen und sie keine Reaktionsmöglichkeiten sehen, desto mehr beschleicht sie ein Gefühl des nicht mehr Ernstgenommenseins und der Ohnmacht. Dieses Gefühl führt, je weniger das Geschehen verstanden wird, zu zwei möglichen Verhaltensweisen. Entweder suchen solche Menschen nach Verantwortlichen und machen sie mit allen anderen Gleichgestellten (Manager / innen, Politiker / innen) zu Sündenböcken, welche alle behaupteten Fehlentwicklungen und Missstände zu verantworten haben. Oder sie suchen nach vermeintlich guten Lösungen, die ihnen einigermaßen plausibel erscheinen sowie ihren Wunschund Zielvorstellungen am besten entsprechen. Nicht selten stellen aber solche Lösungen Patentlösungen dar, d. h. sie werden häufig so präsentiert, als wenn sie nur Vorteile und keine Nachteile hätten. Sündenbockpolitik und Patentlösungen tragen die Tendenz zur gesellschaftlichen Polarisierung in sich, denn sie beinhalten in vielen Fällen eigene Interessen und Standpunkte, die nicht auf eine differenzierte Problemlösung ausgerichtet sind, sondern eigenen Interessen und der eigenen Machtentfaltung dienen. Je größer nun die Zahl der Menschen ist, welche sich in ihrem Denken durch eine Sündenbockpolitik und Patentlösungen leiten lässt, desto größer werden die Enttäuschungen und das Gefühl der Ohnmacht. Denn nach einer gewissen Zeit erkennen die Fehlgeleiteten, dass die Probleme mit den Patentlösungen nicht beseitigt worden sind. Die Folge davon ist entweder eine zunehmende Gleichgültigkeit gegenüber politischen und wirtschaftlichen Fragen, oder es kommt erst recht zu einer sich verschärfenden Auseinandersetzung über neue Patentlösungen, welche häufig zu dogmatischen und ideologischen Kontroversen führen und differenzierte Lösungen immer mehr abwehren. Diese Entwicklung verstärkt sich zunehmend durch massenpsychologisch wirksame Einflüsse der Medien, welche sich häufig nicht um eine Versachlichung der Diskussion bemühen, sondern die Standpunkte von Menschen und Institutionen, die hinter ihnen stehen, als beste Lösung verkaufen und damit die Polarisierung weiter vorantreiben. Auf diese Weise wird es immer schwieriger, langfristig tragfähige Lösungen zu finden, was die Polarisierung, aber auch die Ohnmacht und Gleichgültigkeit nochmals verstärkt und längerfristig den Fortbestand einer glaubwürdigen, von allen getragenen Demokratie gefährdet. Dieser Prozess lässt sich bestenfalls unterbinden, wenn es gelingt, allen Menschen
Bildung eines Wirtschafts- und Gesellschaftsverständnisses
111
denjenigen politischen und wirtschaftlichen Sachverstand zu vermitteln, der sie befähigt, von Interessenkreisen propagierte Patentlösungen zu durchschauen und tragfähige Problemlösungen zu unterstützen und durchzusetzen. Voraussetzung dazu ist das Verständnis von Zielkonflikten im wirtschaftlichen Geschehen einer hochentwickelten und globalisierten Wirtschaft.
III. Zielkonflikte als Wesensmerkmal der modernen Wirtschaft Die meisten politischen und ökonomischen Probleme unserer Zeit stellen Zielkonflikte dar (siehe Abb. 1), d. h., sie lassen sich nicht mit einer einzigen richtigen Lösung beseitigen, sondern es sind mehrere Lösungen denkbar, von denen keine absolut richtig ist, sondern jede Vorteile und Nachteile hat, die es abzuschätzen gilt. 2
Quelle: Eigene Darstellung. Abb. 1: Zielkonflikte
Langfristig denkende politisch Verantwortliche und Führungskräfte in der Wirtschaft zeichnen sich deshalb nicht mehr durch das Propagieren und Durchsetzen von ihnen kurzfristig passenden Patentlösungen aus, sondern sie verstehen es, mit Zielkonflikten umzugehen, indem sie bei jeder möglichen Lösung eines Problems zwischen Vorteilen und Nachteilen abwägen, sich für die Variante mit den meisten Vorteilen entscheiden, zugleich aber darüber nachdenken, wie sie proaktiv mit den Nachteilen umgehen sollen. Die Ermittlung der Vorteile und Nachteile setzt Kriterien voraus. Aus der Finanz- und Wirtschaftskrise sollten die Manager / innen lernen, dass die Gewinnmaximierung nicht mehr das grundlegende Entscheidungskriterium sein darf, sondern an seine Stelle das Ziel eines Gewinnes unter Nebenbedingungen treten sollte. Zu den Nebenbedingungen zählen Maßnahmen für die langfristige Erhaltung der natürlichen Grundlagen dieser Welt sowie das Bestreben um eine vertretbare soziale Gerechtigkeit. 3 2 3
Vgl. Dubs / Euler / Rüegg-Stürm / Wyss (2009), S. 239. Vgl. Dubs (2001).
112
Rolf Dubs
Das Modell eines Gewinns unter Nebenbedingungen ist allerdings nicht unbestritten. Vertreter des Neoliberalismus sind der Auffassung, dass wirtschaftliche Fehlentwicklungen nicht auf ein Marktversagen, sondern auf ein Politikversagen zurückzuführen seien. Deshalb müsse der Staat bessere Rahmenbedingungen schaffen, welche auch Grenzen für die unternehmerische Freiheit setzen, damit die Unternehmungen innerhalb solcher Begrenzungen frei nach dem Gewinnmaximum streben können, was wirtschaftliche Sicherheit für alle schafft: gute Arbeitsbedingungen, sichere Arbeitsplätze, bessere Umweltschutzmaßnahmen usw. Vertreter mit gegenteiliger Auffassung sind der Meinung, die Wirtschaft sei viel stärker zu regulieren, und das Verhalten der Unternehmungen sei mit „Codes of Conduct“, welche Verhaltensvorgaben als Richtlinien vorsehen, unter eine ethisch vertretbare Kontrolle der breiten Öffentlichkeit zu stellen. Allerdings scheiden sich die Geister an der Frage, welche Normen zugrunde zu legen sind, und welche Rolle der Gewinn in Zukunft spielen soll. Schon diese Kontroverse ist äußerst komplex und bietet Zündstoff, der zu umso stärkeren dogmatischen Positionen führt, je weniger politische und wirtschaftliche Sachkompetenz die Diskussion prägt. Die Fähigkeit zum Umgang mit Grundfragen der Ziele des Wirtschaftens und mit Zielkonflikten stellt nicht nur eine neue Herausforderung für Manager / innen dar. Ebenso bedeutsam wird sie für alle Bürger / innen, damit sie die gesellschaftlichen und wirtschaftlichen Probleme unserer Zeit besser verstehen, nicht der Sündenbockpolitik anheimfallen und nicht unsinnigen Patentlösungen nacheifern. Dieses Ziel lässt sich umso eher erreichen, je besser die wirtschaftliche Bildung an unseren Schulen umgesetzt wird. Allerdings darf aber auch diese Forderung nicht als Patentlösung verstanden werden (siehe später).
IV. Wirtschaftliche Bildung an Schulen Noch immer halten es viele Bildungspolitiker / innen und Lehrpersonen nicht für nötig, in Schulen eine systematische wirtschaftliche Bildung anzubieten. Angeführt werden seit langem immer wieder die gleichen Argumente: Gewisse Kreise meinen, wirtschaftlicher Unterricht führe die junge Generation schon früh auf die falschen Wege des egoistischen wirtschaftlichen Denkens, das durch Rücksichtslosigkeit geprägt sei. Wichtiger für die Schule sei es, die Jugend zum Guten und Wahren zu erziehen. Andere Skeptiker / innen meinen, das Leben lehre die Wirtschaft noch früh genug, so dass sich ein Unterricht im Fach Wirtschaft erübrige. Und nicht wenige Gymnasiallehrer / innen glauben auch heute noch, Wirtschaftslehre gehöre an die Berufsschulen und nicht an das Gymnasium. Schließlich vertreten noch immer viele Menschen die Auffassung, der Wirtschaftsunterricht eigne sich im Gegensatz zu anderen Fächern wie Latein oder Mathematik nicht für die Denkschulung. Diese Auffassung ist längst widerlegt. Richtig unterrichtet eignet sich jedes Lerngebiet zur Denkförderung. 4
Bildung eines Wirtschafts- und Gesellschaftsverständnisses
113
Viele pädagogische Missverständnisse lassen sich darauf zurückführen, dass bei der Gestaltung des Wirtschaftsunterrichts nicht zwischen wirtschaftsberuflicher Bildung und Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses unterschieden wird (siehe Abb. 2). Aufgrund der einleitenden Überlegungen wird hier die Auffassung vertreten, dass alle Schüler / innen einen Unterricht zur Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses erhalten müssen, damit Jedermann wirtschaftspolitische und unternehmerische Probleme mit ihren vielen Zielkonflikten mit Sachverstand beurteilen kann. Die bei der Verwirklichung dieser Forderung entscheidende Frage betrifft die normative Grundlegung (Sinn- und Wertorientierung) einer Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses. Vor allem Lehrkräfte befürchten, ein solcher Unterricht könnte unter dem Druck von Politik und Wirtschaft zur Indoktrination von wirtschaftlichen Interessenstandpunkten führen. Und die Wirtschaft selbst reagiert nicht selten kritisch, weil sie befürchtet, Lehrkräfte könnten diesen Unterricht zum Tummelfeld alternativer Ideen und antiwirtschaftlicher Parolen machen und damit der Polarisierung erst recht Vorschub leisten.
Quelle: Eigene Darstellung. Abb. 2: Wirtschaftliche Bildung
Weder das eine noch das andere ist erwünscht. Eine gesellschaftspolitisch differenzierend und ausgleichend wirkende Bildung des allgemeinen Wirtschaftsund Gesellschaftsverständnisses darf sich nicht an einer eindimensional funktionalistischen und / oder gar an einer abstrakten und werturteilsfreien Gesellschaftsund Wirtschaftstheorie orientieren, sondern sie muss Politik, Wirtschaftspolitik und Unternehmensführung mit normativen Zielvorstellungen (wirtschaftsethi4
Vgl. dazu die vielen Untersuchungen zur Förderung des Denkens (z. B. Steiner (2001), S. 198).
114
Rolf Dubs
schen Überlegungen) zu einer Ganzheit zusammenführen. Ihr Ziel muss es also sein, die ökonomische Rationalität mit einem normativen Denken zu verbinden, indem immer wieder gefragt wird, wie jedes wirtschaftliche Tun legitimiert (normativ begründet und gerechtfertigt) werden kann. Diese Legitimierung muss in der heutigen pluralistischen Gesellschaft durch Reflexion und Argumentation über alles wirtschaftliche Handeln (Diskursethik) gefunden werden. Dabei sollte als Grundregel gelten, dass alle privaten Interessen und das darauf beruhende Handeln legitim sind, wenn sie die Prüfung des Vorranges der Würde des Menschen und der Grundrechte aller Betroffenen bestanden haben. Dabei sind die Würde und die Grundrechte immer wieder neu zu überdenken. Aufgrund aller bisherigen Überlegungen sind die Voraussetzungen für die Zielsetzung einer Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses gegeben: − Sie muss der jungen Generation dasjenige volkswirtschaftliche und betriebswirtschaftliche Wissen vermitteln, das sie befähigt, gesamtwirtschaftliche und unternehmerische Zusammenhänge zu verstehen, aktuelle Probleme und Streitfragen in ihrer gesellschaftlichen, politischen und wirtschaftlichen Interdependenz zu erkennen und zu definieren, darin liegende Zielkonflikte zu erfassen und sie einer reflektierten Lösung zuzuführen. − Es darf nicht indoktriniert werden, sondern die Lernenden müssen fähig werden, zu gesellschaftlichen und wirtschaftlichen Problemen in freiem Urteil zu einer eigenen widerspruchsfrei begründeten Meinung zu gelangen, welche einer wirtschaftlichen Sachlogik nicht widerspricht, zugleich aber normativ legitimiert ist. − Die reflektierten Erkenntnisse sollen sich auch im alltäglichen Denken und Handeln niederschlagen. − Insgesamt sollen die Lernenden am Ende des Unterrichts ihren eigenen gesellschaftlichen Standort gefunden und erkannt haben, dass eine demokratische Gesellschaft und eine freie Wirtschaft nur solange funktionstüchtig bleiben, als alle ihre Angehörigen sich im sachkompetenten Diskurs um nachhaltige Lösungen gesellschaftlicher und wirtschaftlicher Probleme bemühen und bereit sind, die Regeln einer wandelbaren Rechtsordnung als Grenzen ihres Denkens und Tuns zu akzeptieren. Sie sollen zudem motiviert sein, am gesellschaftlichen Diskurs teilzunehmen und die Folgen dieses eigenen Verhaltens immer wieder selbstkritisch zu beurteilen.
Bildung eines Wirtschafts- und Gesellschaftsverständnisses
115
V. Didaktische und methodische Aspekte einer Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses 1. Betriebswirtschaftliche und / oder nur volkswirtschaftliche Inhalte Viele Befürworter / innen der Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses wollen sich inhaltlich ausschließlich auf volkswirtschaftliche und wirtschaftspolitische Themenbereiche beschränken mit der Begründung, betriebswirtschaftliche Inhalte würden ausschließlich die wirtschaftsberufliche Bildung betreffen. Diese Auffassung ist falsch, denn alle Menschen werden im Alltag als Mitarbeitende in Betrieben oder freiberuflich mit grundsätzlichen betriebswirtschaftlichen Fragen konfrontiert. Insbesondere während Krisenzeiten tragen unternehmerische Entscheidungen wie Betriebsverlagerungen und -stilllegungen, Entlassungen, Teilzeitarbeit usw. noch stärker zu oft undifferenzierten Beurteilungen und polarisierender Kritik an Unternehmensleitungen bei. Ausgewogene Urteile sind nur mit grundlegenden betriebswirtschaftlichen Kenntnissen möglich. Deshalb muss modellhaft betriebswirtschaftliches Wissen vermittelt werden, ohne jedoch eine wirtschaftsberufliche Vertiefung anzustreben. Es kann nur von Vorteil sein, die Einbettung der Unternehmung in die ökonomische, technologische, soziale und ökologische Umwelt mit einem Managementmodell darzustellen, was eine Einführung in die Grundzüge des normativen und strategischen Managements problemlos ermöglicht. 5 Mit dem Wissen über die Wertvorstellungen der Unternehmensführung und über die langfristigen Ziele einer Unternehmung lernen die Schüler / innen die vielen Zielkonflikte zu erkennen, mit welchen sich Manager täglich zu beschäftigen haben. Dadurch können sie grundlegende unternehmerische Probleme auch mit Sachkompetenz und genügender Differenziertheit beurteilen (z. B. die Frage, ob Entlassungen in einer Unternehmung im Interesse des Fortbestandes der Unternehmung gerechtfertigt sind, oder ob im Interesse der Gewinnmaximierung Arbeitsplätze abgebaut werden, ohne dass dazu ein Sachzwang besteht). Mit einem integrierten Management-Modell wie dem St. Galler Management-Modell lassen sich auch mit einer geringeren Lektionenzahl viele Einsichten erarbeiten. Eine Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses muss also sowohl betriebswirtschaftliche als auch volkswirtschaftliche Lerninhalte umfassen, wobei den volkswirtschaftlichen Themen mehr Gewicht beizumessen ist. Für die Wirksamkeit dieses Unterrichts ist in beiden Teilgebieten ein genügendes theoretisches Grundlagenwissen zu vermitteln, das ausreichen muss, um aktuelle wirtschaftliche Fragen mit ausreichender Sachkompetenz zu 5
Vgl. Dubs / Euler / Rüegg-Stürm / Wyss (2009).
116
Rolf Dubs
bearbeiten. Verzichtet werden sollte auf reine modelltheoretische und mathematisierte Unterrichtskonzepte, denn mit ihnen wird nicht nur das Ziel der Erziehung zum Wirtschaftsbürger nicht erreicht, sondern viele Lernende werden durch eine stark mathematisierte Wirtschaftsbürgerkunde mangels genügendem Können in der Mathematik wenig motiviert. 2. Der Stellenwert des Wissens und der Struktur des Unterrichts Noch immer ist der Unterricht in Wirtschaftsfächern vielerorts stark auf die Vermittlung von Wissen ausgerichtet. Dieses Wissen bleibt bei vielen Schüler / innen träges Wissen 6, d. h. sie haben es in Anwendungssituationen nicht mehr spontan verfügbar, sondern sie brauchen die Unterstützung der Lehrperson, um es wieder in Erinnerung zu rufen. Viele Lehrkräfte versuchen deshalb, ihren Unterricht auf aktuelle Probleme auszurichten, welche diskutiert werden, und sie messen dem Wissen keine große Bedeutung mehr bei, weil sie glauben, die Wissensvermittlung sei angesichts des abnehmenden Halbzeitwertes des Wissens sowie der Möglichkeit, fehlendes Wissen über Informationssysteme abzurufen, nicht mehr bedeutsam. Deshalb gewinnen neue Auffassungen über „guten“ Unterricht immer mehr an Bedeutung: Mit Modulen wird der Unterricht immer stärker auf problemorientierte oft interdisziplinäre Themen ausgerichtet, in welchen die systematische Wissenserarbeitung zu sehr vernachlässigt wird. Oder mit einem großen Missverständnis über den Konstruktivismus, der fälschlicherweise als Methode und nicht als Theorie der Wissenskonstruktion verstanden wird, herrscht die Gruppenarbeit vor, bei der dem Wissensaufbau nachweislich zu wenig Aufmerksamkeit geschenkt wird. Die heute immer häufiger zu beobachtende Vernachlässigung des Aufbaus von Wissensstrukturen behindert das Lernen massiv. Wer nicht über ein breites, gut strukturiertes Grundlagenwissen verfügt, mit welchem neues Wissen erschlossen werden kann, ist weder ein guter Problemlöser, noch kann er intellektuell kreativ sein. Wer nichts weiß, ist nicht fähig, Probleme zu erkennen und zu definieren. Und wer nichts weiß, kann auch keine innovativen Problemlösungen entwerfen. Allerdings muss sich die Schule in Hinsicht auf die Wissensvermittlung verändern. Noch immer wird in vielen Schulen zu viel Faktenwissen, das heute abrufbar ist, vermittelt und zu wenig Strukturwissen aufgebaut, d. h. vernetztes Begriffswissen in strukturierter Form, in welches die Fülle des abrufbaren Faktenwissens eingeordnet und erweiterte Wissensstrukturen aufgebaut werden können. Besonders im Unterricht zur Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses ist ein breites Strukturwissen, das häufig auch als Ori6
Vgl. Renkl (1998).
Bildung eines Wirtschafts- und Gesellschaftsverständnisses
117
entierungswissen bezeichnet wird, von größter Wichtigkeit. Wer nicht über ein solches Orientierungswissen verfügt, ist nicht fähig, in wirtschaftlichen Sachverhalten die Probleme zu erkennen, über Lösungsmöglichkeiten zu reflektieren und sachlich konsistente Lösungen zu finden, welche auch mit normativen Gegebenheiten übereinstimmen. Wissenschaftliche Untersuchungen bestätigen immer deutlicher, dass ein gut strukturiertes, jederzeit verfügbares und anwendbares Grundlagenwissen als Orientierungswissen für jedes Lernen, insbesondere auch das spätere selbständige Lernen, unabdingbar ist. 7 Dies sei an einem Beispiel verdeutlicht. Will jemand verstehen, warum in Zeiten von Deflationsgefahren eine Notenbank mit verschiedenen Mitteln den Wechselkurs so beeinflusst, dass eine Aufwertung verhindert wird, dabei aber bei der Wahl der Mittel über mögliche spätere Inflationstendenzen nachzudenken hat, so muss er über die Störungen des Geldwertes, über die Wirkungen der Wechselkurse und die Instrumente der Notenbank sowie über die Zahlungsbilanz informiert sein. Andernfalls wird es ihm nicht gelingen, richtige Schlüsse zu ziehen. Deshalb lassen sich die Ziele der Bildung eines allgemeinen Wirtschafts- und Gesellschaftsverständnisses nur erreichen, wenn die Lernenden über ein genügend breites, gut strukturiertes Grundlagenwissen verfügen, welches in vernetzter Form so angewandt werden kann, dass Probleme beurteilt werden können, um im freien Urteil zu einer eigenen sachgerechten Meinung zu gelangen. 3. Breite versus Tiefe bei der Gestaltung der Lehrpläne Immer wieder wird in Wirtschaftsfächern angesichts der Fülle der möglichen Lerninhalte eine Konzentration des Lehrplans auf einige wenige, repräsentative Lernthemen gefordert. Mit anderen Worten wird vorgeschlagen, das Prinzip des exemplarischen Unterrichts, das Wagenschein 8 für den naturwissenschaftlichen Unterricht entworfen hat, auf den Wirtschaftsunterricht zu übertragen. Dieses für den naturwissenschaftlichen Unterricht entwickelte Konzept will an ausgewählten Themenbereichen mit Beispielen in die Denkweise, die wissenschaftlichen Paradigmen und die wissenschaftlichen Arbeitsmethoden einführen, um damit Einsichten in das Wesen der jeweiligen Wissenschaft zu vermitteln. Dazu bedarf es keiner inhaltlichen Breite; an ausgewählten Inhalten, die vertieft werden, lässt sich dieses Ziel erreichen. Für die Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses eignet sich aber das exemplarische Lernen nicht. Für die realen wirtschaftlichen Probleme, die immer in einen größeren Zusammen7 8
Vgl. Dubs (2009) und die dort zitierte Literatur. Vgl. Wagenschein (1973).
118
Rolf Dubs
hang gestellt werden müssen, damit sie wirklich verstanden werden, benötigen die Lernenden ein breites Orientierungswissen, das sie anwenden können. Deshalb muss in den Lehrplänen und im Unterricht eine genügende Breite angestrebt werden. 4. Systematischer versus themenorientierter Aufbau des Lehrplans Infolge vieler Fehlentwicklungen im Wirtschaftsunterricht mit wissenschaftssystematisch aufgebauten Lehrplänen (deren Systematik immer wissenschaftlich willkürlich festgelegt wird), die häufig zu einem ausschließlich darbietenden Unterricht mit einer additiven Wissensanhäufung ohne rechte Problemorientierung geführt haben, treten heute immer mehr Pädagog / innen für eine thematische (kasuistische) Lehrplangestaltung ein. Wissenschaftlich ist jedoch bis heute immer noch nicht abschließend geklärt, welche Form die lernwirksamere ist. 9 Viele der Diskussionen über diese Streitfrage werden leider weiterhin sehr dogmatisch geführt. Aufgrund der eigenen Unterrichtserfahrung neigt der Autor dazu, im Anfängerunterricht einen systematischen Lehrplanaufbau zu wählen, damit den Wissensstrukturen genügend Sorgfalt beigemessen wird und der Unterricht nicht zu einer problemorientierten Aktualitätenschau verkommt. Ein interessanter Unterricht, der sich nur an aktuellen Problemen orientiert, entwickelt sich immer dann zu einem Palaver und verstärkt nur vorgefasste Meinungen, wenn das Orientierungswissen für eine ganzheitliche Problemerkennung und Reflexion fehlt. Zudem eignet sich ein systematischer Aufbau von Wissensstrukturen für schwächere Schüler / innen bedeutend besser. Deshalb sollte sich eine Einführung in das allgemeine Wirtschafts- und Gesellschaftsverständnis anfänglich stärker an einer zu bestimmenden begrifflichen Systematik und weniger an Themenbereichen orientieren. Im fortgeschrittenen Unterricht muss hingegen auf Themenbereiche umgestellt werden, für welche die Wissensstrukturen im Sinne von Vorwissen verfügbar sind. Solche Themenbereiche sollen dann auch interdisziplinär angegangen werden, d. h. es muss versucht werden, die Themen oder Problemfelder nicht mehr nur aus wirtschaftlicher, sondern auch aus politischer, kultureller und psychologisch-soziologischer Sicht anzugehen, nicht zuletzt deshalb, weil die Finanz- und Wirtschaftskrise deutlich gemacht hat, wie rein ökonomische Modell-Theorien in die Irre führen. 5. Lehrplan- und Unterrichtsgestaltung Leider wird immer wieder behauptet, eine an einer zu bestimmenden Systematik orientierte Lehrplangestaltung mit der Beachtung von Strukturwissen verleite 9
Vgl. Dörig (2003).
Bildung eines Wirtschafts- und Gesellschaftsverständnisses
119
zu einem bloß darbietenden Unterricht mit einem Schwergewicht auf der Wissensvermittlung und vernachlässige das aktive Lernen der Schüler / innen. Diese Gefahr besteht tatsächlich dann, wenn Lehrkräfte keine klaren Vorstellungen über die Lehrplangestaltung und die verschiedenartigen Unterrichtsansätze haben. Zu unterscheiden ist zwischen der curricularen Mesoebene und der unterrichtlichen (instruktionalen) Mikroebene. Ein Lehrplan kann durchaus systematisch und disziplinenbezogen (hier bezogen auf die Wirtschaftswissenschaften) aufgebaut werden, im alltäglichen Unterricht jedoch problem- oder handlungsorientiert umgesetzt werden. Konkreter ausgedrückt werden die einzelnen Lektionen innerhalb des systematischen Lehrplans auf kleinere, konkrete Problemstellungen ausgerichtet, an denen das notwendige Strukturwissen angewandt wird, für die das notwendige Vorwissen und erste Erfahrungen vorhanden sind. In einem solchen Fall kann man von einem Lehrplan der Inselbildung sprechen, wie es in Abb. 3 gezeigt wird. Anhand einer Problemstellung wird das notwendige Wissen erarbeitet und abschließend an ihr angewandt und vertieft. Auf diese Weise lässt sich jeder systematische Lehrplan problem- oder handlungsorientiert aufbauen sowie in gezielter Weise aktualisieren. Auch ist es bereits an Fragestellungen solcher einfacheren Probleme möglich, die Schüler / innen im Umgang mit Zielkonflikten zu stärken.
Quelle: Eigene Darstellung. Abb. 3: Lehrplan der Inselbildung
120
Rolf Dubs
6. Werterziehung im Unterricht der Wirtschaftsfächer (normative oder ethische Aspekte) Gegner / innen des Wirtschaftskunde-Unterrichts führen immer wieder an, dieser Unterricht fördere nur das rationale Denken hin bis zu einer radikalen Rücksichtslosigkeit auf der Idee der Gewinnmaximierung. Die hier vertretene Auffassung einer Wirtschaftstheorie mit der Vorstellung eines Gewinnes unter Nebenbedingungen sowie der Einführung in die Reflexion von Zielkonflikten dürfte deutlich machen, dass solche Vorstellungen über den WirtschaftskundeUnterricht nicht mehr zutreffend sind. Die Auseinandersetzung mit Problemen und Zielkonflikten stellt eine Anwendung der kognitiv orientierten Werterziehung dar, wie sie von Kohlberg eingeleitet, und von Oser und Beck 10 fortgeführt wird. Den Lernenden werden moralische Dilemmata (gesellschaftliche und wirtschaftliche Probleme, welche Zielkonflikte beinhalten) vorgelegt, die sich allein rational nicht lösen lassen, sondern Wertkonflikte beinhalten, über die zu reflektieren und zu entscheiden ist. Längst ist belegt, dass sich mit diesem didaktischen Ansatz die Reflexions- und Entscheidungsfähigkeit der Lernenden stärken lässt, auch wenn das ewige Kernproblem jeder Werterziehung nicht endgültig gelöst ist, nämlich die Tatsache, dass das Wissen über Werte nicht mit Sicherheit zu einem besseren Verhalten führt. Die Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses darf also nicht wertneutral erfolgen. Die Schüler / innen müssen fähig werden, sich offen und differenziert mit Wertfragen auseinanderzusetzen. Andernfalls erfüllt die Schule ihren erzieherischen Auftrag in einer pluralistischen, demokratischen Gesellschaft nicht. Nicht selten fehlt Lehrkräften der Mut zur Auseinandersetzung mit umstrittenen Fragen, weil sie Interventionen von Behörden und Eltern fürchten. Nicht angreifbar sind Lehrer / innen, wenn sie die moralischen Dilemmata mit Arbeitsblättern für die Lernenden dokumentieren, in denen die Vielseitigkeit der Argumentation ersichtlich ist. Und Mut machen sollten die Erkenntnisse aus einer alten Studie 11, nach welcher diejenigen Lehrkräfte im Unterricht besonders geschätzt sind, welche (1) strittige Fragen unter Beachtung des Vorwissens und des Erfahrungsschatzes der Lernenden in den Unterricht einbringen, (2) die Reflexion in neutraler Weise moderieren, (3) abschließend ihre eigene Meinung einbringen und (4) die Klasse auch darüber diskutieren lassen.
10 11
Vgl. Kohlberg (1981); Oser (1986); Beck (1996). Vgl. Hemmer (1971).
Bildung eines Wirtschafts- und Gesellschaftsverständnisses
121
VI. Umfang der Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses Vor allem Kreise aus der Wirtschaft wünschen eine Verstärkung des wirtschaftlichen Unterrichts an allen Schulen. Sie vergessen dabei die Begrenzungen durch die verfügbare Unterrichtszeit. Jedes Fachgebiet fordert mit allen möglichen Begründungen mehr Unterrichtszeit, und die Tendenz immer mehr Lerninhalte auf frühere Schulstufen vorzuziehen, lässt sich überall beobachten. Trotz vieler wissenschaftlicher Versuche ist es bislang nicht gelungen nachzuweisen, welches für bestimmte Lerninhalte mit den entsprechenden Lernzielen die optimale Lektionenzahl ist, denn die wichtigen Einflussfaktoren wie Qualität und Inhalt des Lehrplans, Intensität der Lernarbeit im Unterricht und Motivation der Lernenden sind sehr heterogen. Aufgrund langer Erfahrung in der Lehrplanarbeit, als Lehrbuchautor und als Lehrer gelangt der Autor zu den folgenden Erkenntnissen: Die Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses sollte der Sekundarstufe II vorbehalten bleiben, weil erst auf dieser Stufe die Reflexionsfähigkeit ohne einen zu großen Lektionenaufwand gefördert werden kann. Will man den Wirtschaftsunterricht schon auf der Volksschul- und der Sekundarstufe I einführen, so sollte man sich auf einfachere Lernbereiche beschränken, z. B. die Führung des Haushaltes (insbesondere Haushaltsbudget, Konsum und Werbung, Berufseinstieg). Andernfalls entstehen die Gefahren einer Simplifizierung des Unterrichts und vor allem der Wiederholung gleicher Lehrstoffe auf den verschiedenen Schulstufen. Wesentlich im Interesse einer gesunden Weiterentwicklung der Demokratie ist jedoch, dass die Bildung des allgemeinen Wirtschaftsund Gesellschaftsverständnisses an allen Schulen der Sekundarstufe II (Gymnasium, Berufsschulen) fester Bestandteil der Lehrpläne werden muss und das Fach gleichermaßen wie die übrigen bedeutsamen Fächer in das schulische Beurteilungssystem eingeht.
VII. Begrenzungen Viele Hochschullehrer aus dem Bereich der Wirtschaftswissenschaften meinen festzustellen, dass Lernende mit einer vertieften wirtschaftlichen Bildung am Gymnasium in unteren Semestern im wirtschaftswissenschaftlichen Studium nicht besser seien als Studierende ohne wirtschaftliche Bildung auf der voruniversitären Stufe. Sie vermuten, diese Lerninhalte ließen sich auf der Sekundarstufe II nicht erfolgreich unterrichten, weil sie nicht altersgemäß seien. Diese Auffassung ist widerlegt. Schon vor langer Zeit konnte gezeigt werden, dass für die Wirksamkeit des Unterrichts nicht das Alter, sondern das Vorwissen und die Vorerfahrungen sowie die Unterrichtsgestaltung maßgeblich sind. Zudem
122
Rolf Dubs
übersieht die Aussage der unwirksamen wirtschaftlichen Bildung für das Hochschulstudium die unterschiedlichen Ziele. Ein volks- und betriebswirtschaftliches Studium ist zunehmend mathematisiert, während die Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses der Bildung des Wirtschaftsbürgers dient. Deshalb werden bei dieser Behauptung ungleiche Zielvorstellungen verglichen. Zwei Begrenzungen dürfen aber nicht übersehen werden. Auf die Problematik, dass moralisches Wissen meistens nicht in Verhalten umschlägt, wurde bereits verwiesen. Deshalb bleibt die während der Wirtschaftskrise immer wieder gehörte Forderung, ein nur auf ethische Fragen ausgerichteter Unterricht müsste in Zukunft verstärkt werden und auf Sachfragen könnte verzichtet werden, eine unrealistische Vorstellung. Ein Unterricht mit moralischem Dilemma muss mit wirtschaftlichem Sachwissen verknüpft werden. Dies in der Hoffnung, dass dieser allenfalls bei einzelnen Schüler / innen auf einen fruchtbaren Boden fällt. Solange aber alle Bevölkerungsschichten den Wunsch nach immer Mehr in den Vordergrund stellen und laufend mehr Geld (höhere Löhne, höhere Renten, geringere Krankenkassenprämien) fordern, bleibt die Schule weitgehend machtlos. Im Weiteren ist zu vermuten, dass die Fähigkeit zum Umgang mit Zielkonflikten und zur differenzierten Beurteilung und Entscheidungsfindung von den individuellen Fähigkeiten abhängig ist. In einem Schulversuch mit unterschiedlichen Lehrplanmodellen und Unterrichtsansätzen ergaben sich keine signifikant unterschiedlichen Lernleistungen. Wohl aber haben alle Schüler / innen mit guten Ergebnissen in einem Wirtschaftsfähigkeitstest bei allen Ansätzen signifikant bessere Lernleistungen erbracht. Dieses Ergebnis ist ernüchternd; denn es setzt der Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses deutliche Grenzen.
VIII. Die Lehrendenfrage Vielerorts ist es üblich geworden, für den Wirtschaftsunterricht Geschichtsund Geografielehrer / innen ohne umfassende wirtschaftswissenschaftliche Ausbildung einzusetzen. Dies in der naiven Vorstellung, jede Lehrperson habe die Wirtschaft in irgendeiner Form erlebt. Deshalb könne sie Anfänger auch ohne Weiteres unterrichten. Längst weiß man aber, dass ein erfolgreicher Unterricht insbesondere von den wissenschaftlichen Kenntnissen und Fähigkeiten im zu unterrichtenden Fachgebiet abhängig ist. Im jeweiligen Fachgebiet wissenschaftlich ungenügend ausgebildete Lehrkräfte sind – wie die praktische Ausbildung von Lehrkräften immer wieder zeigt – meistens nicht in der Lage, die Lernenden in das Geschehen in der Wirtschaft und insbesondere in den Umgang mit Zielkonflikten einzuführen.
Bildung eines Wirtschafts- und Gesellschaftsverständnisses
123
IX. Nachwort Didaktisch und methodisch ist die Gestaltung des Lehrplans und die Unterrichtsführung einer Wirtschaftskunde in der Form der Bildung des allgemeinen Wirtschafts- und Gesellschaftsverständnisses außerordentlich anspruchsvoll. Lehrer / innen benötigen nicht nur eine hohe wirtschaftswissenschaftliche Kompetenz, sondern sie müssen mit der politischen und wirtschaftlichen Aktualität vertraut sein. Auch dürfen sie nicht den einfachen Weg des Darbietens von Orientierungswissen wählen, sondern sie müssen handlungs- oder problemorientiert unterrichten und sich vor allem darum bemühen, schwächere Schüler / innen in ihren Unterricht einzubeziehen. Ob es mit einem solchen Unterricht gelingt, Menschen in ihrem ökonomischen Denken und Handeln weiterzubringen, damit sie sich nicht von unrealistischen Patentlösungen leiten und durch eine Sündenbockpolitik irreführen lassen, bleibt letztlich eine Hoffnung, welche sich bei einzelnen Lernenden erfüllt und bei anderen nicht. Den pädagogischen Optimismus dürfen jedoch Lehrkräfte nie verlieren, ansonsten wirken sie für die junge Generation immer unglaubwürdig und tragen überhaupt nichts zur Entwicklung unserer Gesellschaft bei.
Literatur Beck, Klaus et al. (1996): Zur Entwicklung moralischer Urteilskompetenz in der kaufmännischen Erstausbildung, in: Zeitschrift für Betriebswirtschaft (ZBW), Beiheft 13, S. 187 – 206. Dörig, Roman (2003): Handlungsorientierter Unterricht, Stuttgart. Dubs, Rolf (2001): Grenzen ökonomischer Prinzipien aus pädagogischer Sicht, in: Wüthrich, Hans A. / WolfgangB. Winter / AndreasF. Philipp (Hrsg.): Grenzen ökonomischen Denkens, Wiesbaden, S. 289 – 303. Dubs, Rolf (2009): Lehrerverhalten. Ein Beitrag zur Interaktion von Lehrenden und Lernenden, 2. Aufl., Zürich. Dubs, Rolf / Euler, Dieter / Rüegg-Stürm, Johannes / Wyss, Christina (Hrsg.) (2009): Einführung in die Management-Lehre, 2. Aufl., Bern. Hemmer, Adrian (1971): Einflüsse des Staats- und Wirtschaftskundeunterrichts auf das Verhältnis des gewerblichen Berufsschülers zur Politik, Dissertation, St. Gallen. Kohlberg, Lawrence (1981): Essays on Moral Development, New York. Mayer, Dennis P. et al. (2000): Monitoring School Quality: An Indicators Report, Washington, DC. Oser, Fritz K. (1986): Moral Education and Values Education: The Discourse Perspective, in: Wittrock, Merlin C. (Hrsg.): Handbook of Research on Teaching, New York, S. 917 – 941.
124
Rolf Dubs
Renkl, Alexander (1998): Träges Wissen, in: Rost, Detlef H. (Hrsg.): Handwörterbuch pädagogische Psychologie, Weinheim, S. 514 – 520. Steiner, Gerhard (2001): Lernen und Wissenserwerb, in: Krapp, Andreas / Bernd Weidenmann (Hrsg.): Pädagogische Psychologie, Weinheim, S. 139 –205. Wagenschein, Martin (1973): Verstehen lernen. Genetisch-Sokratisch-Exemplarisch, Weinheim.
Zur Kapitalisierung des Bildungsbegriffs Von Wolfgang Hörner 1
I. Das terminologische Problem Bevor man das Problem der „Kapitalisierung“ von Bildung erörtern kann, muss man sich erst einmal darauf verständigen, was Bildung sei. Aus der Fülle der Definitionen nehme ich eine prägnante Formulierung heraus, die dem uns seit dem 19. Jahrhundert vertrauten Bildungsbegriff sehr nahe kommt: „Bildung ist die subjektive Seinsweise der Kultur, die innere Form und die geistige Haltung der Seele.“ 2 Wir verbinden diesen Begriff von Bildung als „innere Form“ gewöhnlich mit dem Namen Wilhelm von Humboldt. Allerdings ist dieses Bildungsverständnis weit entfernt von unserem Alltagsverständnis, wenn wir heute z. B. von „Bildungspolitik“ reden. Wie kommt das? Um die Entwicklung zu verstehen, müssen wir zuerst klären, was Wilhelm von Humboldt unter Bildung verstanden hat. 3
II. Der neuhumanistische Bildungsbegriff Unter Bezug auf den klassischen antiken Bildungsbegriff – Cicero hatte die griechische paideia mit dem lateinischen Begriff humanitas wiedergegeben, d. h. das, was den Menschen eigentlich zum Menschen macht – kritisiert Humboldt, dass die Aufmerksamkeit seiner Zeit (des beginnenden 19. Jahrhundert mit der einsetzenden Industriellen Revolution) mehr auf Sachen als auf Menschen, mehr auf Massen von Menschen als auf Individuen gerichtet sei. Dagegen setzte er die Bildung des Menschen als Individuum, nicht als Funktionsträger. Die Konzentration auf die Bildung des Menschen, die sich dieser „neue Humanismus“ durchaus in der Tradition der Antike, aber auch der Wiederentdeckung des Einzelnen in der Renaissance am Ende des Mittelalters zum Ziel setzte, kann als 1 Prof. Dr. Wolfgang Hörner war bis 2010 Inhaber der Professur für vergleichende Pädagogik an der Erziehungswissenschaftlichen Fakultät der Universität Leipzig. 2 Nohl (1949). 3 Vgl. zum Folgenden auch Hörner (2008), S. 16 – 19.
126
Wolfgang Hörner
ein kühner Versuch gewertet werden, die Entfremdung aufzuheben, die von den gesellschaftlichen Zwängen der Zeit verursacht wurde. Da es aber gerade um die Aufhebung der Zwänge von außen gehen sollte, war die Bildung, die hier in den Mittelpunkt gestellt wurde, nicht Bildung zu etwas, also die Bildung des Funktionsträgers, sondern Selbstbildung, die Bildung der eigenen Persönlichkeit, um den Zwängen der Funktionalisierung zu widerstehen. Bezogen auf den konkreten Bereich der Schule haben diese bildungstheoretischen Prämissen konkrete Konsequenzen. Wenn der Wert der erhaltenen Bildung nicht im Stofflich-Funktionalen liegt, sondern in ihrer Bedeutung für die universelle Menschenbildung, dann kann Humboldt kühn formulieren: „Auch Griechisch gelernt zu haben, könnte auf diese Weise dem Tischler ebenso wenig unnütz sein, als Tische zu machen dem Gelehrten“. 4 Allerdings, so fährt Humboldt fort, muss man mit Rücksicht auf die Verschiedenheit der Menschen dann doch die stoffliche Seite stärker gewichten. 5 Wenn die Bildung der Persönlichkeit zum vollen Menschsein dann erreicht ist, der so gebildete Mensch also weiß, was das ihm Eigene ist, was seine Möglichkeiten und Grenzen sind, kann er nicht nur Mensch, sondern auch Bürger sein. Er kann in sozialen Zusammenhängen handeln, aber er hat auch immer die Möglichkeit, dazu in Distanz zu gehen (Rollendistanz zu üben, wie die Sozialisationstheorie dies später nennen wird). Dieser bildungstheoretische Primat des Menschen über den gesellschaftlichen Rollenträger hat konkrete Folgen für die Konstituierung von Bildungsinstitutionen. Der Gedanke der allgemeinen Menschenbildung, die sich gerade deutlich von einer Standesbildung abhebt, bringt Humboldt dazu, die allgemeine Menschenbildung als Ziel aller derjenigen Schulen zu definieren, die nicht nur einen einzelnen Stand betreffen, sondern alle Stände. Humboldt erklärt: „Alle Schulen, deren sich nicht ein einzelner Stand, sondern die ganze Nation oder der Staat für diese annimmt, müssen eine allgemeine Menschenbildung bezwecken.“ 6 Denn, so argumentiert er, „es gibt gewisse Kenntnisse, die allgemein sein müssen, und noch mehr eine gewisse Bildung der Gesinnung und des Charakters, die keinem fehlen darf. Jeder ist offenbar nur dann ein guter Handwerker, Kaufmann, Soldat und Geschäftsmann, wenn er an sich und ohne Hinsicht auf einen besonderen Beruf ein guter, anständiger, seinem Stande nach aufgeklärter Mensch und Bürger ist.“ 7 Wenn diese Grundlage durch den Schulunterricht gelegt ist, erwirbt dieser Mensch die besonderen Fähigkeiten, die der Beruf später erforderlich macht, sehr leicht. Der Mensch erhält sich bei einer solchen 4 5 6 7
von Humboldt (1809/1964a), S. 24. Vgl. ebd. von Humboldt (1809/1964a), S. 23. von Humboldt (1809/1964b), S. 218.
Zur Kapitalisierung des Bildungsbegriffs
127
breiten Grundlage zudem die Freiheit, den Beruf auch zu wechseln, wenn es notwendig sein sollte. Die reine Menschenbildung soll also auch die Abhängigkeit des Menschen von einzelnen Berufen und vorgegebenen Lebenssituationen verringern. Die Organisation der Schulen bekümmert sich deshalb nach Humboldt „um keine Kaste, kein einzelnes Gewerbe“, auch nicht die „Gelehrtenkaste.“ 8 Der allgemeine Schulunterricht geht auf den Menschen schlechthin ein. Der kastenunabhängige Unterricht hat curriculare Konsequenzen, denn der universelle Anspruch der allgemeinen Menschenbildung hat, wie schon anklang, sozial integrierende Konsequenzen: „Dieser gesamte Unterricht kennt daher auch nur ein und dasselbe Fundament. Denn der gemeinste Tagelöhner und der am feinsten Ausgebildete muss in seinem Gemüt ursprünglich gleich gestimmt werden...“. 9 Das aber, was für die spezifischen Bedürfnisse des einzelnen oder die eines zukünftigen Gewerbes notwendig ist, wird später in der speziellen Bildung zu vermitteln sein. Damit tritt Humboldt gegen den Trend seiner Zeit für eine klare inhaltliche und zeitliche Trennung von allgemeiner und beruflicher Bildung ein, die in Deutschland bis heute die Organisation des Bildungswesens bestimmen sollte. Humboldt spezifiziert seine Argumente so: „Beide Bildungen – die allgemeine und die spezielle – werden durch verschiedene Grundsätze geleitet. Durch die allgemeine sollen die Kräfte, d. h. der Mensch selbst gestärkt, geläutert und geregelt werden; durch die spezielle soll er nur Fertigkeiten zur Anwendung erhalten.“ 10
III. Die Soziologisierung des Bildungsbegriffs 1. Der unverstandene begriffliche Wandel Humboldts Antagonismus zwischen der allgemeinen Menschenbildung als Persönlichkeitsbildung und der (Spezial-)Bildung des Funktionsträgers mutet heute eher wie ein Exotismus an, auch wenn das volkstümliche Verständnis den Bildungsbegriff noch unmittelbar mit Humboldt assoziiert. In der Tat hat in Deutschland zwischen Humboldt und der zweiten Hälfte des 20. Jahrhunderts eine tiefgreifende semantische Verschiebung des Begriffs Bildung stattgefunden, die es wert ist, näher betrachtet zu werden, weil sie, wie noch zu zeigen sein wird, neue Anschlussmöglichkeiten für den Bildungsbegriff bot. 11
8
von Humboldt (1809/1964b), S. 188. von Humboldt (1809/1964a), S. 24. 10 von Humboldt (1809/1964a), S. 23. 11 Vgl. zum Folgenden auch Hörner (2008), S. 38 – 41. 9
128
Wolfgang Hörner
So ist mehreren namhaften Autoren 12 aufgefallen, dass die heute gebräuchlichen Komposita des Bildungsbegriffs – Bildungspolitik, Bildungsökonomie usw. – mit dem entwickelten Humboldt’schen Bildungsbegriff nicht mehr abgedeckt werden können. Der Begriff Bildung, so ihre Folgerung, sei konturenlos geworden und habe ausgedient. Bei näherer Betrachtung ist diese Bedeutungsveränderung des Bildungsbegriffs allerdings keineswegs ein Indiz für die Sinnentleerung des Begriffs. Die Wurzel des Missverständnisses liegt einfach in einem begrifflichen Wandel, der von diesen Autoren nicht wahrgenommen wurde. Diese semantische Verschiebung war von außen veranlasst. Ursprung war die nach dem Zweiten Weltkrieg in Deutschland erfolgte Rezeption des anglo-amerikanischen Begriffs education und zusammen damit die Rezeption der Grundideen anglo-amerikanischer Erziehungswissenschaft (educational studies). Die neu-humanistischen Bedeutungskomponenten des „klassischen“ deutschen, anthropologisch fokussierten Bildungsbegriffs, wie sie sich z. B. in der Formulierung Nohls niederschlugen („... die innere Form und geistige Haltung der Seele, die alles was von draußen an sie herankommt, mit eigenen Kräften zu einheitlichem Leben in sich aufzunehmen (...) vermag“), 13 waren diesem angloamerikanischen Begriff education verständlicherweise fremd. Besonders im amerikanischen, aber auch im britischen Sprachgebrauch schwang in dem Begriff education die Komponente der formalen Qualifikation (für bestimmte Aufgaben) mit. Der englische Begriff wurde mit seinen Konnotationen zusammen mit der Rezeption der amerikanischen Arbeiten zur Bildungssoziologie (sociology of education), zur Bildungsökonomie (economy of education) und ihrer Anwendung in der Bildungsplanung (educational planning) in den 1950er/60er Jahren in Westdeutschland so mit übernommen. 2. Die gesellschaftliche Dimension von Bildung Diese Rezeption fand auf dem Hintergrund eines Wandel im deutschen Gesellschaftssystem statt, in dem die Bildung (oder genauer: die Rolle der Institutionen, die Bildung vermittelten, nämlich die Schulen und Hochschulen), einen neuen gesellschaftlichen Stellenwert bekam. Der erziehungswissenschaftliche Diskurs in der alten Bundesrepublik Deutschland entdeckte die Schule als zentrale Instanz der Zuteilung von Sozial- und Lebenschancen 14 und, logisch darauf aufbauend, Bildung als Bürgerrecht. 15 Beide Bewegungen waren so mit einander verschränkt.
12 13 14 15
Vgl. z. B. Luhmann / Schorr (1979), S. 83. Nohl (1949), S. 140f. Schelsky (1957). Dahrendorf (1965).
Zur Kapitalisierung des Bildungsbegriffs
129
Für Schelsky war die Öffnung der bisherigen selektiven höheren Bildungsgänge eine wichtige Voraussetzung, um soziale Unterschiede in der Gesellschaft, in seinen Augen Relikte der alten Ständegesellschaft, abzubauen. Ein konsequenter Ausbau der Bildungsangebote war notwendig, da die technisch-ökonomische Entwicklung einen generellen Anstieg der beruflichen Qualifikation volkswirtschaftlich erforderlich machte. Bildung wird in diesem Sinne zum entscheidenden Kriterium für die Bestimmung des sozio-professionellen Status und damit zum Motor für die Aufstiegsmobilität. Aus diesen stark ökonomisch inspirierten Gedankengängen leitete Dahrendorf in einer eher sozialpolitischen Argumentationslinie das Bürgerrecht auf Bildung ab, ein soziales Grundrecht aller Bürger. Dies machte natürlich die Herstellung von Chancengleichheit beim Zugang zur Bildung erforderlich, der durch den Abbau der Zugangsbarrieren und durch eine quantitative Expansion sozial höherwertiger Bildungsgänge für die bisher unterrepräsentierten gesellschaftlichen Gruppen erleichtert werde sollte. Dahrendorf ging es so vor allem um die politische Dimension der angestrebten Bildungsexpansion. Der neue deutsche Diskurs über Bildung war, das zeigen diese Beispiele deutlich, weit entfernt vom neuhumanistischen Bildungsbegriff. An die Stelle der philosophisch-anthropologischen Prägung trat eine soziologische. „Bildung wird nicht mehr nur als Eigenschaft, Zustand, Statusmerkmal des Einzelnen gesehen, sondern als Funktion der Gesellschaft.“ 16 Diese Gesellschaft verteilt über die Bildung Lebens- und Sozialchancen. Deshalb ist Bildung in einer demokratischen Gesellschaft in der Tat als Recht aller Bürger anzusehen. Das, was sich vollzogen hat, ist „eine Soziologisierung des Bildungsbegriffs“. 17 Unter Einbeziehung des Qualifikationsaspekts wird Bildung in diesem Kontext zu einer der Grundfunktionen der menschlichen Gesellschaft, deren Aufgabe es ist, diese Gesellschaft dadurch lebensfähig zu erhalten, dass sie die nachfolgende Generation befähigt, die in der modernen Industriegesellschaft notwendigen Rollen zu übernehmen. Zu diesen Rollen gehört nicht nur die Erzeugung und Verteilung von Gütern, sondern auch die Ordnung und Deutung der Welt, d. h. auch Recht, Kunst und Religion. 18 Da dazu schwerpunktmäßig der kognitiv akzentuierte Erwerb von Qualifikationen gehört, ist die Übernahme des deutschen Begriffs Bildung für das beschriebene gesellschaftliche Phänomen legitim und naheliegend. Der normativ gefärbte Begriff „Erziehung“ (alternativ für das engl. education) hätte in diesem Kontext falsche Konnotationen suggeriert. Die Bedeutungsverschiebung des Bildungsbegriffs in Richtung auf gesellschaftlich relevante Aspekte von Bildung als Qualifikation erlaubt dann auch 16 17 18
Lemberg (1963), S. 24. Ebd. Vgl. Lemberg (1963), S. 34.
130
Wolfgang Hörner
die sprachliche Konstruktion von Komposita, in denen unterschiedliche gesellschaftliche Aspekte des neuen Bildungsbegriffs zum Ausdruck kommen, wie Bildungsplanung, Bildungspolitik, Bildungssoziologie, Bildungsökonomie. Soweit Erziehungswissenschaft diese gesellschaftlichen Implikationen von Bildung untersucht, wird ein neuer Begriff dafür geprägt, die Bildungsforschung. Mit diesem Begriff ist die Untersuchung des Bildungswesens als gesellschaftliche Institution und mit allen seinen gesellschaftlichen Aspekten angesprochen. 19 In dem in der Reformeuphorie der 1960er Jahre in Berlin gegründeten „Max-PlanckInstitut für Bildungsforschung“ findet dieser Gedanke zudem bis heute seinen institutionellen Ausdruck.
IV. Die konzeptionelle Konsequenz: Bildung als Kapital Die Soziologisierung des Bildungsbegriffs hat, wie die wissenschaftliche Disziplin Bildungsökonomie schon andeutet, auch ökonomische Konsequenzen. Bildung hat in diesem Verständnis für die Gesellschaft nämlich eine unmittelbare ökonomische Relevanz, sie wird zur ökonomischen Ressource. Dieser Gedanke wird vor allem über den Begriff des Humankapitals vermittelt, dem eine analoge Bedeutung zugeschrieben wird wie dem Finanzkapital. Der Begriff wurde zentral für die seit Ende der 1950er Jahre stark expandierte Bildungsökonomie. 20 1. Das Humankapitalkonzept Der Begriff des Humankapitals bedeutet ganz allgemein das Gut, das in Menschen investiert wird, um wirtschaftliche Werte schaffen zu können. Er beruht auf der Prämisse, dass in modernen Gesellschaften „die Produktivität auf Schaffung, Verbreitung und Nutzung von Wissen beruht“. 21 Für Gary Becker, einen der eifrigsten Verfechter des Humankapitalkonzepts, umfasst der Begriff „Wissen und Fertigkeiten der Menschen, ihren Gesundheitszustand und die Qualität ihrer Arbeitsgewohnheiten“. 22 Der Begriff ist also sehr weit gefasst. Darunter ist außer der beruflichen Qualifikation im engeren Sinne auch die Gesamtheit der Arbeitsgewohnheiten, aber auch der sonstigen Lebensgewohnheiten zu verstehen, im positiven (Arbeitstugenden wie Fleiß und Pünktlichkeit) wie im negativen Sinn (Suchtgewohnheiten wie Rauchen und Trinken, die die Produktivität der Arbeitskräfte einschränken). 19 20 21 22
So der Untertitel von Lemberg (1963); in neuester Zeit noch Tippelt (2005), S. 9f. Vgl. zum Folgenden auch Hörner (2008), S. 41 – 47. Becker (1996), S. 220. Ebd.
Zur Kapitalisierung des Bildungsbegriffs
131
Das Humankapitalkonzept geht weiter von der zentralen Vorstellung aus, „der einzelne entscheide unter Abwägung von Kosten und Nutzen über seine Bildung, Berufsausbildung, medizinische Versorgung und andere Verbesserungen seiner Kenntnisse und seiner Gesundheit“. 23 Zu dem Nutzen gehören aber nicht nur die Verbesserung der Einkommenschancen, sondern auch kulturelle und andere immaterielle Vorteile (z. B. Status und Sozialprestige), die Kosten sind dagegen die finanziellen Aufwendungen für die Bildung sowie die investierte Zeit und Arbeit. 24 Der Begriff Humankapital hat somit zwei Dimensionen. Er kann sowohl unter volkswirtschaftlicher – also der Makroebene – als auch unter individueller („betriebswirtschaftlicher“) Perspektive – also der Mikroebene – betrachtet werden. Die Mikroebene ist die Bereitschaft des Einzelnen bzw. die seiner Familie, in Bildung zu investieren, um dadurch später bessere Verdienstmöglichkeiten und einen höheren sozialen Status zu haben. Von diesem investierten Kapital (durchaus auch im Sinne von finanziellen Aufwendungen) kann man eine bestimmte Rendite (rate of return) erwarten. Der einzelne muss abwägen, ob die zu erwartende Rendite, die das Humankapital abwirft, den Aufwand „lohnt“. Für die volkswirtschaftliche Ebene gilt eine ganz ähnliche Logik: es gilt rechtzeitig in den Infrastruktursektor des Bildungswesens (also in Humankapital auf der Makroebene) zu investieren, um innerhalb der „Wissensgesellschaft“, in der das erworbene Wissen in der Form des Humankapitals ökonomisch produktiv gemacht wird, die Volkswirtschaft auf Wachstumskurs zu bringen bzw. zu halten. Auch hier ist unter nüchternen ökonomischen Gesichtspunkten die Rendite der volkswirtschaftlichen Investition im Auge zu behalten. Der ökonomische Nutzen dieser Investition muss zuerst einmal politisch transparent gemacht werden, um ein günstiges „Investitionsklima“ zu schaffen. Dazu gehört es im Umkehrschluss auch, die volkswirtschaftlichen Kosten der Nicht-Investition in die Gesamtrechnung einzubeziehen: Zu diesen volkswirtschaftlichen Kosten gehören z. B. die sich aus mangelnder Investition in Bildung ergebende hohe Schulabbrecherquote und die strukturell von Arbeitslosigkeit bedrohten „negativ ausgelesenen“ Jugendlichen, die sich aus einer hohen Schulabbrecherquote ergeben, die die Volkswirtschaft unnötig belasten. Der Begriff Humankapital hat in der deutschen Gesellschaft noch bedeutende Akzeptanzprobleme, wie die Tatsache zeigt, dass der Begriff in Deutschland im Jahr 2004 zum „Unwort des Jahres“ gewählt wurde. Laut Erklärung der Jury wurde das Wort gewählt, um eine scharfe Kritik an der Ökonomisierung aller möglichen Lebensbezüge auszudrücken, nachdem es auch in programmatischen Verlautbarungen der EU zu einem wichtigen Begriff wurde. 25 Die Kritik richtet 23 24 25
Becker (1996), S. 29. Vgl. ebd. Vgl. Schlosser (2005).
132
Wolfgang Hörner
sich gegen die Abwertung des Menschlichen, weil hier Menschen mit Maschinen gleichgesetzt würden. Humankapital, so die Begründung der „Unwort-Jury“, degradiere nicht nur Arbeitskräfte in Betrieben, sondern Menschen überhaupt zu nur noch ökonomisch interessanten Größen. Bildung als ökonomische Investition aufzufassen, statt als Aneignung von Kultur, ist für Pädagogen auf den ersten Blick in der Tat befremdlich. Dass mit diesem Begriff neben Sachkapital und Finanzkapital menschliche Fähigkeiten und Fertigkeiten eigens gewürdigt werden sollten, wie die Vertreter der Humankapitaltheorie erklären, wird auch von der Unwort-Jury anerkannt. Zugleich wird aber angezweifelt, dass die positiven Konnotationen dieses Begriffs in der sozialen Praxis der Betriebe überhaupt ernst genommen werden. Dagegen sprächen hemmungslose Massenentlassungen, die das „Humankapital“ von Millionen von Menschen im Interesse einer höheren Rendite für die share-holder ohne Zögern entwerten. 2. Die symbolischen Kapitalien bei Pierre Bourdieu Eine kritische Sicht des Begriffs Humankapital veranlasst Pierre Bourdieu, seinerseits eine Konzeption „symbolischer Kapitalien“ zu entwerfen. Bourdieu 26 geht von einem weiten, aber im Kern durchaus klassischen Kapitalbegriff aus: „Kapital ist akkumulierte Arbeit, entweder in Form von Materie oder in verinnerlichter, ‚inkorporierter‘ Form.“ 27 Allerdings kann man nach Bourdieu dem Funktionieren der gesellschaftlichen Welt nur gerecht werden, wenn man den Begriff des Kapitals in all seinen Erscheinungsformen berücksichtigt und nicht nur in der aus der Ökonomie bekannten Form. Hier liegt eine erste implizite Kritik auch an der Theorie des Humankapitals. Bourdieu unterscheidet dagegen drei grundlegende Kapitalsorten: „Das ökonomische Kapital ist unmittelbar und direkt in Geld konvertierbar und eignet sich besonders zur Institutionalisierung in Form des Eigentumsrechts; das kulturelle Kapital ist unter bestimmten Voraussetzungen in ökonomisches Kapital konvertierbar und eignet sich besonders zur Institutionalisierung in Form von schulischen Titeln; das soziale Kapital, das Kapital an sozialen Verpflichtungen oder „Beziehungen“, ist unter bestimmten Voraussetzungen ebenfalls in ökonomisches Kapital konvertierbar und eignet sich besonders zur Institutionalisierung in Form von Adelstiteln“. 28
26 27 28
Vgl. z. B. Bourdieu (1983). Bourdieu (1983), S. 183. Bourdieu (1983), S. 185.
Zur Kapitalisierung des Bildungsbegriffs
133
Im hier zu behandelnden Zusammenhang ist vor allem das kulturelle Kapital von Interesse: Es geht um das, was im Französischen als culture bezeichnet wird, das heißt das, was sich der einzelne im Bildungsprozess angeeignet hat. „Das kulturelle Kapital kann in drei Formen existieren: − in verinnerlichtem, inkorporierten Zustand, in Form von dauerhaften Dispositionen des Organismus − in einem objektivierten Zustand, in Form von kulturellen Gütern, Bildern, Büchern, Lexika, Instrumenten und Maschinen − in institutionalisiertem Zustand, in Form von Diplomen, Titeln usw.“ 29
Der Begriff des kulturellen Kapitals erlaubt es, die Ungleichheit der schulischen Leistungen von Kindern aus verschiedenen sozialen Milieus ohne Rekurs auf einen nativistischen Begabungsbegriff zu erklären. Es wird so möglich, den Schulerfolg, der sonst nur der natürlichen Begabung zugeschrieben wird, auf „die Verteilung des kulturellen Kapitals zwischen den Klassen und Klassenfraktionen“ 30 zurückzuführen. Bourdieu kritisiert in diesem Zusammenhang die Theoretiker des Humankapitals. Diese hätten zwar als erste die Frage aufgeworfen, in welchem Verhältnis die durch Bildungsinvestition und die durch ökonomische Investition erreichten Profite stünden, der von ihnen benutzte Maßstab aber berücksichtigte nur solche Investitionen, die sich in Geld ausdrücken ließen, also z. B. Studienkosten oder die für das Studium aufgewendete Zeit (die an die Stelle von möglicher Erwerbsarbeit tritt). Zudem kann die Humankapitaltheorie weder die relative Bedeutung der verschiedenen ökonomischen und kulturellen Investitionen für die verschiedenen Akteure erklären, noch die Struktur der unterschiedlichen Gewinnmöglichkeiten auf verschiedenen „Märkten“ berücksichtigen. Schließlich bleibt ihre Analyse der Investitionsstrategien der Eltern in Bildung isoliert vom Gesamtzusammenhang der anderen Erziehungsstrategien. Dadurch, so Bourdieu weiter, bleibt ihnen die sozial wirksamste Investition verborgen, nämlich die Transmission des kulturellen Kapitals in der Familie. So übersehe z. B. Becker in seinen Überlegungen zu Begabung und Bildungsinvestition, dass Begabung auch das Produkt einer (familialen) Investition in kulturelles Kapital ist. 31 Der Hauptvorwurf Bourdieus geht aber dahin, dass die ökonomistische Verkürzung von Bildung den Beitrag des Bildungssystems zur Reproduktion der 29 30 31
Ebd. Bourdieu (1983), S. 185. Bourdieu (1983), S. 186.
134
Wolfgang Hörner
Sozialstruktur ignoriert, der in der Weitergabe des kulturellen Kapitals besteht. Der Humankapitalansatz übersieht, dass der ökonomische und soziale Ertrag des erworbenen schulischen Titels, von dem durch die Familie weitergegebenen kulturellen Kapital, aber auch von dem gleichermaßen ererbten sozialen Kapital abhängt, das zur Unterstützung des kulturellen Kapitals eingebracht wird. 32 Was soll man sich unter den verschiedenen Formen des kulturellen Kapitals vorstellen? Das inkorporierte kulturelle Kapital setzt einen Prozess der Verinnerlichung voraus, der (Lern-)Zeit erfordert. Durch den Prozess wird Kultur angeeignet, akkumuliert. Es entsteht ein Produkt „Bildung“ (franz.: culture). Dieser zeitaufwendige Prozess muss persönlich erfolgen. Ein Stellvertreterprinzip scheidet hier aus. Im Bildungsprozess wird in erster Linie Zeit investiert, das hat schon die Humankapitaltheorie festgestellt. Deshalb ist die Dauer des Bildungserwerbs auf den ersten Blick der objektivste Maßstab, um kulturelles Kapital zu messen. Inkorporiertes kulturelles Kapital wird zum Besitztum, zum festen Bestandteil einer Person, zu ihrem Habitus, in Bourdieus Terminologie: „aus ‚Haben‘ ist ‚Sein‘ geworden“. 33 Das inkorporierte Kapital ist nach dem bisher Gesagten an die Person und ihre biologischen Fähigkeiten gebunden. Es stirbt mit der Person und mit dem Verlust des Gedächtnisses. Gleichwohl wird es sozial vererbt, allerdings in einer sehr versteckten Form. Auch wenn es so nur ein „symbolisches Kapital“ darstellt, ist seine tatsächliche Wirksamkeit nicht zu unterschätzen. Wer über eine besondere Kulturkompetenz verfügt, z. B. über die Fähigkeit des Lesens in einem Milieu von Analphabeten, „gewinnt aufgrund seiner Position in der Verteilungsstruktur des kulturellen Kapitals einen Seltenheitswert, aus dem sich Extraprofite ziehen lassen“. 34 Die besondere Wirksamkeit des inkorporierten kulturellen Kapitals ergibt sich aus der Art seiner Übertragung. Seine Akkumulation ist sozusagen von dem Grundstock an kulturellem Kapital abhängig, der in der gesamten Familie verkörpert ist. Diese Akkumulation von kulturellem Kapital findet nun aber von frühester Kindheit an im Wesentlichen in denjenigen Familien statt, die bereits über einen Fundus von kulturellem Kapital verfügen: die frühkindliche Sozialisation ist also zugleich eine Zeit, in der kulturelles Kapital akkumuliert wird. Die Übertragung von Kulturkapital ist demnach eine der am besten verschleierten Formen der erblichen Übertragung von Kapital. Sie gewinnt um so mehr an Bedeutung, je mehr die direkten, sichtbaren Formen der „Vererbung“ des gesellschaftlichen Status sozial missbilligt werden. 32 33 34
Vgl. ebd. Bourdieu (1983), S. 187. Bourdieu (1983), S. 187f.
Zur Kapitalisierung des Bildungsbegriffs
135
Das objektivierte, also gegenständlich gewordene Kulturkapital kann seine Wirkung erst in Verbindung mit dem inkorporierten, verinnerlichten Kulturkapital entfalten. Materielle Träger von kulturellem Kapital wie Gemälde, Bücher usw. lassen sich zwar leicht vererben, ihr juristischer Besitz kann seine „bereichernde“ Wirkung aber nur entfalten, wenn der Besitzer die Fähigkeiten hat, den kulturellen Nutzen daraus zu ziehen, also etwa die intellektuellen oder ästhetischen Kompetenzen, das Buch oder Kunstwerk zu verstehen. Dies aber setzt das inkorporierte Kulturkapital voraus. Um das objektivierte Kulturkapital als „Produktionsmittel“ für neues Kapital zu nutzen, muss der Besitzer sich das erforderliche Kulturkapital (also z. B. das wissenschaftlich-technische Wissen, um eine Maschine adäquat einsetzen zu können) selbst erwerben oder die Dienste anderer in Anspruch nehmen, die dieses inkorporierte Kapital haben. Die Institutionalisierung von inkorporiertem kulturellem Kapital in Form von Titeln schafft aber den deutlichen Unterschied zum Autodidakten, der ständig beweisen muss, dass er dieses Kapital besitzt. Die Titel gelten formell unabhängig von der Person des Trägers: „Der schulische Titel ist ein Zeugnis für die kulturelle Kompetenz, der seinem Inhaber einen dauerhaften und rechtlich garantierten konventionellen Wert überträgt“. 35 Das impliziert, dass der Titel auch relativ unabhängig von dem inkorporierten kulturellen Kapital gilt, das der Träger zu einem bestimmten Zeitpunkt tatsächlich besitzt. Der (schulische oder akademische) Titel verleiht dem Kulturkapital einer Person eine institutionelle Anerkennung. Dadurch werden diese Personen in gewissem Sinne (auf dem Arbeitsmarkt) austauschbar, sie können füreinander die Nachfolge antreten. Der Erwerb des Titels als institutionalisiertes kulturelles Kapital ist, genau wie beim Humankapital, mit einem gewissen Aufwand an ökonomischem Kapital verbunden. Diese Konvertibilität muss in gewissem Sinn auch in umgekehrter Richtung gelten, das kulturelle Kapital muss auch wieder in ökonomisches Kapital umgewandelt werden können. Denn nur wenn diese Umkehrbarkeit zumindest zum Teil erwartet werden kann, hat die Bildungsinvestition einen ökonomischen Sinn. Hier liegt nun in der Tat ein gewisses „Restrisiko“, denn der ökonomische Gewinn, den ein solcher Titel auf dem Arbeitsmarkt erzielen kann, hängt natürlich von seinem Seltenheitswert und der Nachfrage ab. Durch die Bildungsexpansion, die in den meisten Ländern stattgefunden hat, hat sich so auch der „Wechselkurs“ zwischen institutionalisiertem kulturellem Kapital und ökonomischem Kapital nach unten verändert. So wie zwischen ökonomischem und kulturellem Kapital eine gewisse Konvertierbarkeit besteht, ist auch das soziale Kapital (die „Beziehungen“) in andere Kapitalsorten verwandelbar. Zudem kann es die Umwandlung von kulturellem in ökonomisches Kapital wirksam unterstützen. Das zeigt sich deutlich an den 35
Bourdieu (1983), S. 190.
136
Wolfgang Hörner
Unterschieden in den Erträgen, die zwei mit gleichem kulturellem Kapital (gleichen Titeln), aber mit unterschiedlichem Sozialkapital ausgestattete Personen auf dem Arbeitsmarkt erzielen. 36 Unter den Kapitalsorten ist das institutionalisierte kulturelle Kapital in Form von schulischen Abschlusszeugnissen nicht direkt durch Erbfolge übertragbar (wie der Adelstitel) und auch nicht direkt käuflich (wie der Börsentitel). Das erworbene Kulturkapital muss durch das Bildungssystem sanktioniert und damit in institutionalisiertes Kulturkapitals umgewandelt werden. Seine „Vererbung“ wird durch das Bildungssystem kontrolliert und entzieht sich dadurch dem direkten Zugriff der Eigner von ökonomischem oder sozialem Kapital. Diese können lediglich auf indirekte Weise (durch „Protektion“ usw.) möglichen Sanktionen durch das Bildungssystem mit seiner relativen Autonomie gegensteuern. 37 Am Anfang der Schullaufbahn kann das vorhandene kulturelle Kapital der Familie seine Wirkung deshalb entfalten, weil die von der Schule vermittelten Bildungsgüter und das vermittelnde Instrument, die Unterrichtssprache, das bereits vorhandene kulturelle Kapital widerspiegeln. Die Schule setzt also weitgehend das voraus, was sie zu vermitteln vorgibt. Sie besitzt eine eigene relative Autonomie, die darin besteht, dass sie in ihrem Bereich, nämlich dem Unterricht, ihre eigenen – pädagogischen – Gesetze machen kann, nach denen sie funktioniert. Diese relative (pädagogische) Autonomie dient nach Bourdieu nur zur Verschleierung ihrer sozialen Selektionsfunktion. Die scheinbar rein pädagogischen Kriterien der Selektion, die sie zur Anwendung bringt, sind nämlich in sozialer Hinsicht nicht neutral, da der Erwerb der kulturellen Kapitalien bereits einen Grundstock an kulturellem Kapital (das durch die Familie vererbt wurde) voraussetzt. Allerdings ist das Bildungssystem auch alleiniger Kontrolleur der Gültigkeit des kulturellen Kapitals und dadurch auch für die Privilegierten als Instanz zur Verteilung von Lebenschancen nicht zu übergehen.
V. Fazit Man kann sich am Ende dieser Ausführungen die Frage stellen, ob die Kapitalisierung des Bildungsbegriffs nun einen Verlust an humaner Substanz oder eine Profilierung angesichts einer drohenden Diffusität von Bildung bedeutet. Ausgehend von einer verbreiteten modernen und deshalb von deutschem Idealismus weitgehend unbelasteten Definition Adornos, „Bildung ist nichts anderes als Kultur nach der Seite ihrer subjektiven Zueignung“ 38 (wobei diese Definition, 36 37 38
Vgl. Bourdieu (1983), S. 191, Anm. 12. Vgl. Bourdieu (1983), S. 198. Adorno (1959/1972), S. 94.
Zur Kapitalisierung des Bildungsbegriffs
137
interessanterweise dennoch einige Elemente der eingangs zitierten Definition Nohls aufgreift) kann man Folgendes festhalten: Das Konzept der Bildung als Humankapital trifft zwar eine wichtige Bedeutungskomponente von Bildung, verkürzt den Bildungsbegriff aber unzulässigerweise auf eine rein ökonomische Dimension, eine Verkürzung, die nicht nur bei Pädagogen, die sich humanistischen Idealen verschrieben haben, auf Unverständnis trifft. Die Ausdifferenzierung der symbolischen Kapitalsorten bei Bourdieu dagegen erscheint als sinnvolle Form, um einer komplexen sozialen Wirklichkeit gerecht zu werden und die Wirksamkeit von Bildung zu beschreiben. Dieser große Vorteil der Mehrperspektivität erlaubt die Berücksichtigung der sozialen, einschließlich der sozialpolitischen Implikationen des Bildungsbegriffs. Damit wird es möglich, den kritischemanzipatorischen Kern des neuhumanistischen Bildungsbegriffs, der Humboldt so teuer war, zu bewahren. Bildung als kulturelles Kapital in Bourdieus Sinn schließt Humboldts Konzeption von Bildung nicht von vornherein aus. Die Parallelisierung von Bildung und kulturellem Kapital schlägt darüber hinaus eine Brücke von der gesellschaftlichen Funktion zur pädagogischen Wirklichkeit der Schule, eine Brücke, die den Begriff des kulturellen Kapitals als analytischen Begriff für die Erziehungswissenschaft besonders attraktiv macht.
Literatur Adorno, Theodor W. (1998 [1959]): Theorie der Halbbildung, in: ders.: Gesammelte Schriften, Bd. 8: Soziologische Schriften I, Darmstadt, S. 93 –121. Becker, Gary S. (1996): Familie, Gesellschaft und Politik, hrsg. von Ingo Pies, Tübingen. Bourdieu, Pierre (1983): Ökonomisches Kapital, kulturelles Kapital, soziales Kapital, in: Kreckel, Reinhard (Hrsg.): Soziale Ungleichheiten, Göttingen, S. 183 –198. Dahrendorf, Ralf (1965): Bildung ist Bürgerrecht: Plädoyer für eine aktive Bildungspolitik, Hamburg. Hörner, Wolfgang (2008): Bildung, in: Hörner, Wolfgang / Barbara Drinck / Solvejg Jobst (Hrsg): Bildung, Erziehung, Sozialisation. Grundbegriffe der Erziehungswissenschaft, Opladen & Farmington Hills, S. 9 – 69. von Humboldt, Wilhelm (1964a): Bildung des Menschen in Schule und Universität, Heidelberg. von Humboldt, Wilhelm (1964b): Werke, Bd. 4: Schriften zur Politik und zum Bildungswesen, hrsg. von Andreas Flitner und Klaus Giel, Stuttgart. Lemberg, Eugen (1963): Von der Erziehungswissenschaft zur Bildungsforschung. Das Bildungswesen als gesellschaftliche Institution, in: Lemberg, Eugen (Hrsg.): Das Bildungswesen als Gegenstand der Forschung, Heidelberg, S. 21 –100. Luhmann, Niklas / Schorr, Karl-Eberhard (1979): Reflexionsprobleme im Erziehungssystem, Stuttgart.
138
Wolfgang Hörner
Nohl, Herman (1949): Die pädagogische Bewegung in Deutschland und ihre Theorie, 3. Aufl., Frankfurt / M. Schelsky, Helmut (1957): Schule und Erziehung in der industriellen Gesellschaft, Würzburg. Schlosser, Horst Dieter (2005): Generelle Stellungnahme zum Unwort des Jahres „Humankapital“, online verfügbar unter: www.unwortdesjahres.org/2004.html (Abruf vom 20. 03. 07). Tippelt, Rudolf (2005): Handbuch Bildungsforschung, Wiesbaden.
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung Von Alfred Richartz und Volker Schürmann 1 Es ist kein Widerspruch, nicht einmal ein Paradox in der Behauptung enthalten, dass einer schlecht praktiziert, was er vorzüglich predigt. Gilbert Ryle
I. Das Problem körperlicher Bildung Das Themenfeld der körperlichen Bildung, seine öffentliche Wahrnehmung und die Debatten darum sind durch einige Charakteristika ausgezeichnet, die dafür sorgen, dass die notorische Sprachverwirrung um den Bildungsbegriff hier noch übertroffen wird. Es geht nämlich nicht nur um die Frage, was Bildung sei und wie sie möglich gemacht oder gar erzeugt werden kann – es geht sofort im Kern darum, was mit „dem Körper“ gemeint sei, und was es also heißen könnte, ihn zu bilden. Was der Körper sei ist zunächst eine merkwürdige Frage, weil unserem Alltagsverständnis in Fleisch und Blut übergegangen ist, dass es sich hierbei um das handelt, was wir dem Arzt überantworten, wenn Symptome, Schmerzen oder Funktionsausfälle auftreten. Diesem Alltagsverständnis stillschweigend vorausgesetzt ist der cartesische Dualismus von körperlich-physischer Existenz einerseits und bewusstseinsmäßiger andererseits, der das Körperverständnis in modernen Gesellschaften prägt. Ein solches Verständnis scheint heute altmodisch, aber dieser Konservatismus kann ins Feld führen, dass eine kategorial und empirisch fundierte Beschreibung der Wechselwirkungen zwischen physischen und psychischen Prozessen im Subjekt immer noch aussteht. 2 1 Prof. Dr. Alfred Richartz ist Inhaber des Lehrstuhls für Sportpädagogik an der Sportwissenschaftlichen Fakultät der Universität Leipzig. Prof. Dr. Volker Schürmann ist Inhaber des Lehrstuhls für Philosophie, insbesondere Sportphilosophie an der Deutschen Sporthochschule Köln. 2 Der Neurowissenschaftler Antonio Damasio hält in seinem Werk sehr sorgfältig zwei Beschreibungsebenen auseinander: die Ebene physischer Ereignisse und die Ebene der Vorstellungen, die in der deutschen Übersetzung als „geistige“ Existenz bezeichnet
140
Alfred Richartz und Volker Schürmann
Neben diesem naturwissenschaftlichen Bild des Körpers existiert ein zweites Assoziationsfeld, das nicht minder einflussreich ist: Der „Körper“ ist darin geradezu der Hort des „Anderen der Vernunft“. 3 Der kategoriale Schnitt trennt hier die sachliche, moralische und soziale Vernunft auf der einen Seite von allen Erscheinungsformen der Natur, des Leibes, der Phantasie, des Begehrens und der Gefühle auf der anderen – „oder besser all dies, insoweit es sich die Vernunft nicht hat aneignen können“. 4 Weil diese verschiedenen Körperbegriffe sich überlagern und unterschiedliche Resonanzen auslösen, werden in den Diskursen über den Körper und seine Bildung, den sprichwörtlichen Eisbergen gleich, erhebliche Sinnanteile unter der Oberfläche transportiert. Ein beredtes Beispiel für die Scheinplausibilitäten, die sich derart erzeugen lassen, ist die bekannte Formel des „mens sana in corpore sano“. Sie wird von Bildungsbeflissenen vorgebracht und verstanden als Beleg, schon im Altertum sei bekannt gewesen, dass ein gesunder Körper sich auf die geistige Gesundheit mindestens positiv auswirke, wenn nicht gar seine Voraussetzung sei. Heute kann jeder Leser mühelos und ohne die Textquelle aufzusuchen erfahren, dass hier eine grob verfälschende Zitation mit Täuschungsabsicht vorliegt. 5 Interessant an der ungebrochenen Popularität des Diktums 6 ist, dass die empfundene Plausibilität offenbar mühelos die kritische Aufdeckung der Täuschung überdauert. Der Rückgriff auf die Antike geschieht in legitimatorischer Absicht – als eine „alte Weisheit“ soll eine Ganzheitsvorstellung gegen den Körper-Seele-Dualismus in Anschlag gebracht werden, gleichzeitig wird an eine diffuse „Natürlichkeit“ und damit verbundene „Gesundheit“ appelliert. Damit sind die kategorialen „Problemfälle“ des Diskurses um die körperliche Bildung seit dem 18.Jahrhundert benannt. Aber es geht um mehr als um theoretische Konzepte. Es geht auch um die gesellschaftlich normierten Verwendungsweisen des Körpers: Wie antworten Fürsorgepersonen auf die körperlichen Artikulationen von Kindern? Welche Äußerungen von Körpervorgängen, von Emotionen, Bedürfnissen, Begehren, Berührungen sind in welchen Öffentlichkeiten in welcher Form erlaubt, möglich, wird. Er betont, dass dieses Vorgehen gerade nicht einem unwissentlichen Rückfall in den cartesischen Dualismus geschuldet ist, sondern gedanklicher Hygiene: Die Lücke zwischen beiden Ebenen kann heute noch nicht überbrückt werden; vgl. Damasio (2000), S. 388. 3 Böhme / Böhme (1985). 4 Böhme / Böhme (1985), S. 13. 5 „Ut tamen et poscas aliquid voveasque sacellis exta et candiduli divina tomacula porci, orandum est ut sit mens sana in corpore sano.“ – „Willst Du durchaus aber beten und Gaben dem Tempel versprechen, Eingeweide und Opferfleisch vom rosigen Ferkel, sollst Du gesunden Geist in gesundem Leibe erflehen.“ (Juvenal; zitiert nach Lenzen (1985), S. 226). 6 Vgl. Krüger (2008).
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
141
geboten? Mittels welcher Techniken, Instrumente und Vorgehensweisen wird der Körper als Angriffspunkt für die Formung und Disziplinierung von Subjekten verwandt? Norbert Elias (1969), Michel Foucault (1976) und die ihnen nachfolgenden Sozialwissenschaftler haben die historisch-kulturellen Zusammenhänge einer körperlichen Bildung aufgezeigt; sie sind für die Reflexion unserer Fragen unabdingbar, aber im Rahmen dieses Beitrags lediglich benennbar. Weil der emphatische, klassische Bildungsbegriff die vernunftorientierte Subjektwerdung betont sowie ihre Funktion „den Menschen gegenüber den Verhältnissen, in denen er lebt, frei zu machen“, 7 scheint zunächst wenig einleuchtend, welche Bedeutung die Rede vom „Körper“ in diesem Zusammenhang haben solle: Körperliche Bildung bedarf – nach wie vor – einer legitimierenden Begründung. Warum soll Sport im Schulunterricht stattfinden und nicht nur in der Pause, in der Nachmittagsbetreuung oder auch ganz außerhalb der Schule? Die traditionellen Antworten darauf vom Ende des 18. Jahrhunderts bis zur Mitte des 20. Jahrhundert variieren einige wenige Motive: − eine Kritik an einer einseitig intellektualistischen Bildung − eine Vorstellung von Gesundheit, die sowohl die physische Funktionsfähigkeit wie auch − eine normativ-moralische seelische Gesundheit beinhaltet, erworben als planmäßige Abhärtung gegen eine weichliche, ängstliche, flaue, zweifelnd-zögernde Haltung und gegen sinnliche Begierden, − eine Vorstellung von Männlichkeit, die mit Disziplin, Härte und Wehrhaftigkeit einhergeht. In modernen Konzepten der Körper- und Bewegungsbildung hat die Vorstellung von Gesundheit als physisch-psychische Funktionsfähigkeit ihren Platz verteidigt. Die Diskussionen über die motorischen Fähigkeiten und die körperliche Verfassung von Kindern und Heranwachsenden zeigen den unveränderten Stellenwert dieses Motivs. Hinzugetreten ist die Vorstellung einer allgemeinen Entwicklungsförderung als Verbesserung von Intelligenz, Leistungsmotivation, Beziehungsfähigkeit, Selbstvertrauen, Konzentrationsfähigkeit u.ä. 8 Auch die normativ-moralischen Bildungsziele sind weiterhin aktuell, nun in einem entsexualisierten Sinne, z. B. in der Olympischen Erziehung oder in der Erwartung, Sporttreiben beuge sozialen Abweichungen vor oder kuriere sie. Problematischerweise lässt sich eine Begründung für den modernen Sport als genuines Bildungsgut aus diesen Motiven nur schwerlich gewinnen, weil sie eine Nutzenfunktion von Bildung unterlegen. 9 Bei Protagonisten eines klassischen Bildungsbegriffs wie von Hentig findet sich körperliche Bildung berücksichtigt als „Wahrneh7 8 9
von Hentig (2008), S. 14. Vgl. Funke-Wieneke (2004). Dagegen ausführlicher Schürmann (2009).
142
Alfred Richartz und Volker Schürmann
mung von Geschicklichkeit, Übung und Schärfung unserer sinnlichen Wahrnehmung“ und „Befreundung mit unserem Körper“. 10 Aktuell stilbildend für die Bildungsforschung ist das „pragmatische“ Konzept eines Kerncurriculums von Jürgen Baumert, in dem (schulische) Bildung als Kultivierung von Modi der Weltbegegnung gefasst wird. Körperliche Bildung ist auch hier eingeschlossen, und zwar unter der Rubrik „ästhetisch-expressive Begegnung und Gestaltung“. 11 Weltbegegnung im Sportunterricht wird damit als „physische Expression“ verstanden. 12 Es ist also zu konstatieren, dass bei einem „klassischen“ wie einem „pragmatischen“ Bildungsbegriff ein Verständnis von körperlicher Bildung vorherrscht, das dem modernen Sport nur in einem schmalen Ausschnitt gerecht wird. Wie sich schon abzeichnete, ist das Themenfeld körperlicher Bildung durch eine Fülle von Ambivalenzen geprägt. Auf körperliche Bildung zu setzen, hat einen kritischen, in der Regel emanzipatorischen Stachel, gerichtet gegen die Vereinseitigungen und Ausgrenzungen intellektualistischer Bildung. Eine zentrale Ambivalenz liegt darin, dass sich dieser emanzipatorische Stachel dem Wortlaut nach genauso in antiemanzipatorischen Körperpolitiken wiederfindet. Die Kritik an einer einseitig intellektualistischen Bildung hat zwei Aspekte: Zunächst ist solche Kritik schlicht das Plädoyer einer quantitativen Ausweitung auf einen vermeintlich oder tatsächlich vernachlässigten Bereich. Zweitens aber, und letztlich entscheidend, wird mit dem Verweis auf körperliche Bildung die Spezifik eines, wie auch immer gefassten, nicht-diskursiven Modus von Bildung eingeklagt. Diese „andere“ Bildung kann sich beziehen auf nicht-sprachliche Symbolbildung, wie dies bei Baumert intendiert ist, erschöpft sich aber darin nicht, wenn man an die Kultivierung der spielerischen Beherrschung des eigenen Körpers oder von Spielobjekten (Bällen usw.), die Kultivierung körperlicher Kampfszenarien (Judo) oder der spielerischen Verbindung beider (Fußball) denkt. Die Eigenart körperliche Bildung verweist auf einen Tatbestand, der durchaus auch bereits für die intellektuelle Bildung gilt: Dass Bildung nicht darin aufgeht, über bewusstes „Wissen, dass“ zu verfügen, sondern wesentlich ein Können ist, ein prozedurales Wissen, das möglicherweise nie bewusst war. Am sinnfälligen Beispiel Tanz gesprochen: Tanzen zu können, ist sicher falsch beschrieben, wenn man es als Umsetzung eines Wissens in das Tun beschreibt. Es ist erheblich plausibler, hier die Logik auf den Kopf zu stellen: Man kann tanzen auch und gerade dann, wenn man sich und anderen keine Rechenschaft darüber ablegen kann, warum man wann welche Bewegung vollzieht – sich darüber Rechenschaft ablegen zu können, ist eine nachträgliche, zusätzliche Kunst – der Tanz selber funktioniert auch ohne solches Wissen. 10 11 12
von Hentig (2008), S. 14. Baumert (2002), S. 113. Baumert (2008), S. 19.
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
143
Und exakt hier, in diesem Anliegen, einen nicht-diskursiven Modus von Bildung einzuklagen, liegt die Ambivalenz: Gegen alle Emanzipationsbemühungen blühen hier nämlich die Unmittelbarkeitsanrufungen. In aller Regel, geradezu zwanghaft und scheinbar alternativlos wird aus der Differenz von Seele und Körper die Differenz von diskursivem Verstand und unmittelbarer Leiberfahrung, oder verallgemeinert: von kulturellen Vermitteltheiten und der Unmittelbarkeit eines Natürlichen. Der für jede kritische Distanznahme definitive Bruch im Erfahrungsfluss ist mit solchen Unmittelbarkeitszumutungen abgeschafft. Der Körper gerät dann unter dem Titel körperlicher Bildung zu einem Vehikel von Disziplin, Gehorsam und Funktionserfüllung eines (austauschbaren) vorgegebenen Zwecks. Oder anders gesagt: Das antiintellektualistische Plädoyer für körperliche Bildung ist strukturell dafür anfällig, zur gegenaufklärerischen Kulturkritik zu geraten. Wie schnell hier ein emanzipatorisches Interesse umkippen kann, kann man sich an den entsprechenden Lehr- / Lernformen der in Frage kommenden unterschiedlichen Wissensformen sehr leicht klar machen: Der Unterschied von „Wissen, dass“ und Können ist immer auch ein Unterschied in der Aneignung solchen Wissens. 13 Die Wissensform des Könnens ist an ein Einüben gebunden. Die moderne Expertiseforschung bestätigt eine Auffassung, die in der sportlichen, aber auch in der tänzerischen, musikalischen oder sonst körper- und könnensbezogenen Ausbildung als Gemeinplatz gilt: Dass allein die dauerhafte, zielgerichtete und systematische Wiederholung definierter Übungen zu guten und sehr guten Leistungen in diesen Domänen führt. 14 Aber wie ein Einübeprozess in der Weise organisiert werden kann, dass er nicht zu einem kritiklosen und diszipliniertem Nachvollzug eines vorgegebenen Inhalts gerät, sondern auch als Einübung auf freier Zustimmung basiert, ist alles andere als evident. Im Gegenteil: Aussichtsreiches Üben ist nach Ericsson u. a. gekennzeichnet durch Anleitung, Anstrengung sowie die Abwesenheit unmittelbarer Belohnungen oder inhärenter Freude. Es scheint deshalb alles auf den diszipinierter Nachvollzug der Anweisung von Wissenden hinauszulaufen, wenn man derartiges Können erwerben will. 15 Die Sachlage des Zwischen (Aufklärung und Gegenaufklärung) ist für das Themenfeld körperliche Bildung insofern durch einen Dreischritt charakterisiert: 1. Ausgangspunkt ist die Unterscheidung von Seele und Körper: So sehr wir das heute beinahe nur noch als old school hören, und so sehr diese Unterschei13 Eine grundlegende Sichtung des theoretischen und empirischen Status Quo zu diesem Problem leistet Neuweg (2001). 14 Vgl. Ericsson / Krampe / Tesch-Röder (1993). 15 Sowohl für den Nachwuchs- und Spitzensport wurde allerdings in neueren Studien die langfristige Bedeutung von Spiel und Freude in Trainingsprozessen gezeigt, vgl. z. B. Willimczik / Kronsbein (2005).
144
Alfred Richartz und Volker Schürmann
dung auch tatsächlich oft einem sicher falschen Dualismus das Wort redet, so ist doch zunächst darauf zu beharren, dass es sich dabei um eine kategoriale Unterscheidung handelt, die man notwendigerweise getroffen hat, wenn man überhaupt von Emanzipation resp. Mündigkeit redet: ‚Seele‘ steht als Problemtitel für das bewegende oder steuernde Prinzip, ‚Körper‘ steht als Problemtitel für dasjenige, was bewegt oder gesteuert wird. – Das Plädoyer für körperliche Bildung ist ein jeweils konkret-historisch situiertes Plädoyer dafür, hier eine historischbestimmt praktizierte Grenzziehung zu verschieben. In der klassischen Version: Typischerweise wird der menschliche Verstand, das Denken, die Handlungsabsicht als steuernde Instanz genommen – in einer solchen historisch-kulturellen Großwetterlage ist das Plädoyer für körperliche Bildung ein Plädoyer, z. B. die Sinnlichkeit oder die Emotionen aus ihrem Status des bloß Gegebenen, des bloß Gesteuerten zu befreien und diesen ‚körperlichen‘ Instanzen selber eine Steuerungsfunktion zuzubilligen. 2. Die eigentliche Pointe des Plädoyers für körperliche Bildung liegt in dem Beharren auf einer Besonderheit: Das Körperliche (was immer jetzt konkret historisch darunter fällt) habe nicht nur überhaupt eine Steuerungsfunktion, sondern eine solche, die in gänzlich anderer Weise steuert (das Körperliche ist jetzt also eine Binnendifferenzierung des Seelischen): das Körperliche steuere den Menschen, obwohl es dem direkten wollenden Zugriff gerade entzogen ist – es sei ein Irrglauben, Steuerung mit bewusst-willentlicher Steuerung zu identifizieren. 3. Die Preisgabe des emanzipatorischen Anspruchs ist mit der suggestiven Identifikation einer solchen nicht-bewusst-willentlichen Steuerung mit „unmittelbarer Steuerung“ vollzogen: Damit ist die Differenz zwischen Steuerung und Getriebensein, und folglich der emanzipatorische Gedanke der Selbststeuerung preisgegeben. Ein sichtbarer Indikator dieser Preisgabe liegt in einer unscheinbaren Verschiebung der Metaphorik resp. der gewählten Problemtitel: Dort wird die Seele-Körper-Unterscheidung mit der Unterscheidung von Kultur und Natur identifiziert: Seele=Kultur als Titel für das durch den Menschen Gestaltete vs. Körper=Natur als Titel für das dem Menschen Vorgegebene. Der Kampf um körperliche Bildung findet also, so gesehen, gleichsam an zwei Fronten statt: 1. Wo verläuft die Grenze zwischen steuernder und gesteuerter Instanz? – Dass es eine solche Grenze gibt, ist mit jeder Rede vom mündigen Menschen gesetzt. Hier liegt das notorische Folgeproblem jedes strikten Monismus von Körper und Seele. 2. Worin liegt die Besonderheit des Körperlichen? Welcher Status kommt ihm zu? – In dieser Hinsicht ist der Streit zwischen den Intellektualisten und den Körperlichen oft nur ein Gezänk, denn beide Seiten unterstellen in der Regel, dass das Körperliche im Status des unmittelbar Natürlichen vorliegt – was dann von den einen gefeiert und den anderen als irrational bekämpft wird.
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
145
Subtile Kategorien wie eine Hegelsche vermittelte Unmittelbarkeit oder eine Plessnersche natürliche Künstlichkeit finden selten Eingang – höchstens werden sie gelegentlich selber zu plakativen Formeln im Diskurs. Das Konzept einer prinzipiellen Vermitteltheit menschlichen Tuns müsste die duale Unterscheidung von Körper und Seele umstellen auf eine Dreiheit von Binnen-, Außen- und Mitwelt: mind, body, spirit. Bei der ausgesprochen verwickelten Problemlage scheint es aber nützlich, auch eine gleichsam zweite intellektuelle Strategie in Augenschein zu nehmen. Der Körper-Seele-Dualismus hat offenbar durch das historisch-kulturelle Erbe im menschlichen Denken und vor allem durch seine alltagstheoretische Evidenz eine außerordentliche Plausibilität. Damit nicht genug, lässt sich zeigen, dass die entwicklungspsychologisch außerordentlich folgenschwere und notwendige Herausbildung einer Theory of Mind und die intuitive Unterscheidung belebter von unbelebten Objekten dazu führen, dass sich in der Subjektgenese selbst ein übermächtiger intuitiver Dualismus etabliert: 16 „We all act as Dualists“, konstatiert der Neurowissenschaftler Michael Gazzaniga (2008). Es stellt sich deshalb die Frage, ob wissenschaftliche Arbeit an Kategorienklarheit gegen diese Kategoriengewohnheit eine faire Chance hat. Zudem hätte eine Kategorie, die „das Steuernde“ im Subjekt insgesamt umfassen soll, nach heutiger Befundlage eine außerordentlich komplizierte Aufgabe. Konnte Sigmund Freud noch das Unbewußte als Triebhaftes oder Verdrängtes denken und damit als Naturhaftes der Kulturerrungenschaft des Ichs gegenüberstellen („Wo Es war soll Ich werden“), wissen wir heute, das weite Teile der menschlichen Informationsverarbeitung, der Entscheidungsfindung, der Motivierung und Handlungssteuerung, der Interpretation und Bewertung von Wahrnehmungen dem Unbewussten angehören. 17 Teile dieser Prozesse können bewusst werden, andere nicht. Die bewussten Anteile entstehen häufig genug post faktum und sind also nachträgliche Interpretationen des Geschehens, obwohl dies dem Subjekt selbst kaum durchschaubar ist. Gazzaniga (1989) hat dies in vielen Experimenten gezeigt und die Existenz eines neuronalen Interpreter-Moduls plausibel gemacht. Der Interpreter ist ständig und geradezu zwanghaft damit beschäftigt, Kausalzusammenhänge in Wahrnehmungen der Außenwelt aber auch der Innenwelt zu entdecken. Dass diese Interpretationsleistungen erbracht werden, ist für Menschen offenbar unausweichlich, verbürgt aber nicht deren Triftigkeit – auch nicht, wenn es sich um Introspektion handelt. 18 Schwerer wiegt allerdings noch der Gedanke, dass eine Einheitlichkeit, die „das Steuernde“ sein könnte, eine problematische Vorstellung ist. Hatte schon Freud entdeckt, dass das subjektive Gefühl der personalen 16
Vgl. Bloom (2004). Vgl. Damasio (1999), Wilson (2002), Gigerenzer (2007), Roth (2007), Gazzaniga (2008). 18 Salopp-spöttisch bezeichnet Gazzaniga das Interpreter-Modul gern als „know-itall“, als Schlauberger. 17
146
Alfred Richartz und Volker Schürmann
Identität als eine permanent wiederhergestellte Syntheseleistung von konfligierenden Instanzen begriffen werden muss, so hat sich diese Einsicht weiter vertieft. Gerhard Roth 19 spricht von einer „Multi-Zentralität“ der Persönlichkeit und unterscheidet vier Ebenen als abgegrenzte Komponenten – die vegetativ-affektive Ebene, die Ebene der emotionalen Konditionierung, das individuell-soziale Ich und das kognitiv-kommunikative Ich. Andere Forscher gehen noch weiter: In ihren Modellen bestehen die Hirnfunktionen aus sehr vielen verschiedenen Modulen 20 oder neuralen Systemen 21, die hauptsächlich automatisch und parallel arbeiten. Jedes einzelne Modul entwickelt sich lebensgeschichtlich aus der Verarbeitung von Transaktionen zwischen genetisch angelegter Vorverdrahtung und Erfahrungsfeedback. Die Reichweite der einzelnen Module, dies ist ein entscheidender Aspekt, ist dabei viel geringer, als die „großen“ Kategorien wie „Körper“, „Verstand“, „Gefühl“ usw. erwarten lassen: So unterscheidet Gazzaniga 22 allein im Bereich des moralischen Urteils u. a. die Module „Reziprozität“, „Mitleiden“, „Hierarchie“, „In-Group / Out-Group-Unterscheidung“ und „Reinheit“. Das handelnde und das gefühlte Selbst muss deshalb verstanden werden als je aktuelle Syntheseleistung dieser modularen Vielfalt oder als Verknüpfung eines „Netzes“ 23 von Teilsystemen – möglicherweise als Ergebnis von Emergenz auf einer höherliegenden von vielen kontigenten Wirklichkeitsebenen. 24 Der Ausfall von Modulen oder Teilsystemen kann deshalb zu dramatischen Veränderungen im Syntheseergebnis führen. Aus dieser Perspektive scheint zumindest die Gefahr groß, mit Festhalten an den überkommenen Kategorien „Körper“, „Geist“ und „Seele“ Missverständnissen und Sprachverwirrungen in die Hände zu spielen. Aussichtsreicher scheint dann, ihnen geradezu aus dem Weg zu gehen und „kleinere Brötchen“ zu backen, die sich auf konkretere Zusammenhänge beziehen lassen. Diese zweite Strategie ist freilich dem Einwand ausgesetzt, nicht hinreichend zwischen Kategorien und empirischen Begriffen zu unterscheiden. Die für das Backen von kleinen Brötchen je schon notwendige Inanspruchnahme von bereitetem Teig werde geleugnet, indem notwendige kategoriale Rahmungen durch empirische Begriffe ersetzt werden sollen. 25 In den folgenden Abschnitten wollen wir diese programmatische Skizze anhand einiger Beispiele historisch und systematisch stärker konturieren.
19 20 21 22 23 24 25
Roth (2007), S. 90ff. Vgl. Gazzaniga (2008). LeDoux (2003). Gazzaniga (2008), S. 132ff. LeDoux (2003). Vgl. Gazzaniga (2009). Vgl. Schürmann (2007).
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
147
1. Der, an dem sich die Geister scheiden: Rousseau Jean-Jacques Rousseau (1712 –1778) ist die Stiftungsfigur moderner Sportpädagogik. Er ist der, neben Herder, wohl exponierteste Vertreter jener marginalen Fraktion der Aufklärer, die in der Mündigkeit des Einzelnen mehr und anderes vermutet als die Fähigkeit des Selbst-Denkens. Rousseau klagt die Rolle des Körpers in und für die individuelle Entwicklung ein, festgemacht an Sinnlichkeit, Emotionen und Leidenschaften. Eine Reduktion auf die Bildung des Verstandes komme gleichsam zu spät; der Verstand könne nur das steuern und regulieren, was körperlich-eigensinnig schon eine eigene Richtung hat 26 – und eine Erziehung, der es tatsächlich um Emanzipation geht, soll diese Eigensinnigkeit der je einmaligen Person pflegen. Es ist freien Menschen nicht würdig, vorgegebenen Entwicklungsrichtungen zu folgen. 27 Eine Erziehung in emanzipatorischer Absicht hat, so die Emphase Rousseaus, eine „negative Pädagogik“ zu sein, denn jede positive Pädagogik gibt das Erziehungsziel vor und ist insofern nicht an der Entwicklung der zu Erziehenden, sondern am eigenen Interesse des Erziehenden orientiert. Das ist der emanzipatorische Rousseau, der Theoretiker der Französischen Revolution, der emphatische Aufklärer. Aber Rousseau spielt auch mindestens zwei andere Rollen: a) die Rolle des Stifters des Rousseauismus, der Kulturkritik: Rousseaus Emile beginnt mit einem Paukenschlag: „Alles ist gut, wie es aus den Händen des Schöpfers kommt; alles entartet unter den Händen des Menschen.“ 28 Nimmt man diese Aussage allzu wörtlich – und die Geschichte der Kulturkritik kann man dadurch definieren, diese Aussage allzu wörtlich genommen zu haben –, dann wird Rousseau zur Anrufungsinstanz all derjenigen, die ein Problem mit den Vermitteltheiten der Kultur haben und sich zurück zur vermeintlichen Unschuld eines natürlich Gegebenen sehnen; b) die Rolle des Patriarchen: Das verbale Bekenntnis zur Selbst-Entwicklung der zu Erziehenden ist in dieser Rolle einfach nur die effektivere Variante der Fremdsteuerung durch den Erziehenden: Es ist sozusagen klüger, dem Kind die Illusion zu geben, es selber sei im Erziehungsprozess der Bestimmer. „Durch diese und ähnliche Mittel brachte ich ihn in der kurzen Zeit, in der ich ihn betreu26 „Der Irrtum der meisten Moralisten war schon immer, den Menschen für ein im wesentlichen vernünftiges Wesen zu halten. Der Mensch ist aber nur ein fühlendes Wesen, das einzig und allein seine Leidenschaften beim Handeln befragt, und dem die Vernunft nur dazu dient, um die Dummheiten auszubügeln, die er ihretwegen begeht“ (Rousseau (1977), S. 278). 27 „Ich predige dir, mein junger Erzieher, eine schwere Kunst: Kinder ohne Vorschriften zu leiten und durch Nichtstun alles zu tun“ (Rousseau (1762a), S. 104). 28 Rousseau (1972a), S. 9.
148
Alfred Richartz und Volker Schürmann
te, dahin, daß er alles tat, was ich wollte, ohne Vorschriften, ohne Verbote, ohne Predigten und Ermahnungen, ohne nutzlose und langweilige Belehrungen.“ 29 Diese beiden zuletzt genannten Rollen sind sowohl in den Texten Rousseaus als auch in der Rezeptionsgeschichte extrem aufdringlich, und deshalb wird Rousseau unter emanzipatorisch gesinnten Menschen auch völlig zu Recht nur noch mit spitzen Fingern angefasst oder gleich wie eine heiße Kartoffel fallen gelassen. Es verbietet sich zudem (bei emanzipatorischer Absicht) jeder eklektische Umgang mit Rousseau: Wer den Aufklärer Rousseau einstreichen will, der bekommt den Kulturkritiker und Patriarchen frei Haus. Es hilft nicht, es aufklärerisch zu meinen, denn es ist sachlich zwingend, das Konzept der negativen Pädagogik zu spezifizieren. Wenn man, wie auch Rousseau es tut, eine negative Pädagogik von einem bloßen pädagogischen Nichtstun unterscheiden will, dann muss die programmatische nicht-Vorgabe eines fixen Erziehungsziels gleichwohl verträglich gemacht werden mit legitimen pädagogischen Eingriffen. Und in dieser Hinsicht sind die kulturkritische und die paternalistische Option in der Sache naheliegende ‚Auswege‘. Der Verweis auf eine Unschuld der Natürlichkeit legitimiert das Tun des Erziehers als aktives Nichttun, das die Verbildung des Zöglings durch die Kultur verhindere; der Verweis auf die faktische Asymmetrie der Beziehung Erziehender / zu Erziehender kann unter Verweis auf die guten Absichten eines guten Erziehers jeden Paternalismus rechtfertigen. Es liegt daher nahe, diese Rezeptionsgeschichte „gegen den Strich“ zu lesen. Was geschieht, wenn man den Aufklärer Rousseau ernst nimmt? Dann sind seine Texte Lerngelegenheiten, denn dann kann man, bei emanzipatorischem Interesse, an ihnen studieren, warum und an welchen Orten sie in jene beiden arg unsympathischen Rollen umkippen. Man lernt dann die Folgeprobleme kennen, die ein Plädoyer für körperliche Bildung in emanzipatorischer Absicht wird lösen müssen. Das kann jetzt hier nur thesenartig geschehen: 1. Die beiden genannten anti-emanzipatorischen Rollen hängen auf das Engste miteinander zusammen. Beide betreffen sie die Frage, woher man den Maßstab nimmt, eine individuelle Entwicklung als eine gute Entwicklung zu beurteilen. 2. Der Paukenschlag einer vermeintlichen Entgegensetzung von menschengemachter Kultur und unschuldiger Natur darf bei Rousseau auf gar keinen Fall wörtlich genommen werden. Der Verweis auf Natur ist bei Rousseau identisch mit dem Verweis auf einen gesuchten Maßstab der Beurteilung kulturellen Tuns. Natur ist hier sozusagen als terminologische Metapher zu nehmen, und es ist der Sache nach die Figur eines kontrafaktisch anzusetzenden Ideals. Natürlichkeit verweist bei Rousseau auf angestrebte Verbindlichkeit des Ideals, nicht 29
Ebd., S. 110.
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
149
aber – auch explizit nicht 30 – auf ein von Natur aus Gegebenes, was Menschen nur hinnehmen, nicht aber gestalten könnten. 3. Die eigentliche Schwäche von Rousseau liegt darin, dass jener Maßstab bei ihm nicht intersubjektiv, nicht öffentlich ausgewiesen, begründet, umstritten ist, sondern privat durch einen einzelnen selbsternannten guten Erziehenden gesetzt wird. Exakt deshalb muss der Erziehungsprozess den genannten patriarchalen Zug bekommen. Es ist der patriarchale Rousseau, der Bekenntnisse schreibt, der also nicht mit anderen streitet, was gute Erziehung sein könnte, sondern der selbstgefällig, eitel, narzistisch nur mit sich selber ins Gericht geht. Zwischenfazit Eines der zentralen Folgeprobleme jeder Rede von körperlicher Bildung in emanzipatorischer Absicht ist die Begründung resp. Legitimierung des Maßstabes zur Beurteilung guter Bildungsprozesse. Diese normative Dimension kann schlechterdings nicht allein empirisch bestimmt werden: Prozesse sagen nicht selber, wie sie beurteilt werden wollen – das müssen wir schon selber tun. Die minimale Bedingung bei emanzipatorischer Absicht ist – dies kann anhand der Texte Rousseaus gelernt werden –, dass dieser Maßstab keine individuelle Geschmacksfrage bleibt, sondern sich in öffentlicher Auseinandersetzung legitimiert. Oder als Formel: Die jeder Rede von körperlicher Bildung zugrunde liegende Unterscheidung von Seele und Körper muss bei emanzipatorischer Absicht in eine kategoriale Dreiheit von Seele – Körper – Geist (spirit, not mind; Mitwelt) transformiert werden – jedenfalls, wenn man an diesen Kategorien festhalten will und ihnen nicht, wie in der zweiten Strategie vorgeschlagen, vorsichtshalber aus dem Weg geht und andere analytische Kategorien in den Mittelpunkt stellt. 2. Ein klarer Fall: Philanthropismus als Körperdisziplinierung Pädagogisches Nichtstun ist nicht Sache der Philanthropen. Sie bestellen den von Rousseau bereiteten Boden einer Körperpädagogik, halten sich aber mit den Ambivalenzen des Anliegens nicht weiter auf. Sie wollen wieder eine positive Pädagogik, weil sie unter „negativer Pädagogik“ nichts anderes bereit sind zu verstehen als ein Plädoyer, gar nicht in den Erziehungsprozess einzugreifen. Ihre Propaganda geht gezielt an Rousseaus Anliegen vorbei – mit dem wirkmächtigen Effekt, das Problemfeld gänzlich anders zu akzentuieren. ‚Plötzlich‘ ist nicht mehr im Blick, dass fixierte Erziehungsziele ein prinzipielles Problem je30
Vgl. exemplarisch Rousseau (1755), S. 23 und 33.
150
Alfred Richartz und Volker Schürmann
der Erziehung zur Mündigkeit sind, sondern nunmehr ist nur noch Thema, wie Erziehungsprozesse ‚besser‘, mithin restlos operationalisiert werden können. Die Parole ist jetzt, dass negative Pädagogik die Talente der Individuen brach liegen lasse, die es aber stattdessen zielgerichtet auszubilden gelte. Philanthropen verschmähen das freie Spielen; in den Philanthropinen gibt es nur noch nützliche, pädagogisch ‚wertvolle‘ Spiele und, in erster Linie, methodisch geleitete Übungen, die sich das Material der feudalen Exerzitien zunutze machen. Der Charakter des Philanthropismus schnurrt auf eine Formel zusammen, die GutsMuths geprägt hat: Gymnastik ist Arbeit! Beschönigt wird das durch den Zusatz: Arbeit im Gewande jugendlicher Freude. Gymnastik hat somit einen Nutzen für einen (austauschbaren) fixierten Zweck zu erbringen. Gymnastik im Geiste des Philanthropismus soll den Körper und dessen Eigensinn ruhig stellen und disziplinieren. 31 Das Motto lautet: Wer Gymnastik treibt, kommt nicht auf dumme Gedanken. Das Motto besteht bis heute, die Inhalte kommen und gehen. Damals: Wer Gymnastik treibt, der onaniert nicht. 32 Heute: Wer Sport treibt, der lässt sich nicht hängen. Wenn es wieder einmal gilt, die gesellschaftliche Irrelevanz körperlicher Bildung oder gar den „Verfall“ der körperlichen Kräfte der Jugend zu beklagen, dann sind die Philanthropen eine beliebte und allererste Referenzadresse: Sie hätten die „Einheit von Körper und Seele“ und damit die Relevanz des Körpers herausgestellt. Ein einziger Blick hinter die Kulissen genügt jedoch, um auch dort die reine Nutzenfunktion des Körpers begründet zu finden. Schon der Beginn des Buches von Villaume (1787) sagt alles. Der Körper ist im Vergleich zur Seele ohne eigene Dignität: Er ist endlich, sterblich und hinsichtlich seiner Kräfte nur sehr begrenzt entwicklungsfähig. Demgegenüber ist die Seele unsterblich; sie ist zwar nicht unendlich in ihrer Kraft, aber doch „unbestimmbar“. 33 Darin liegt eine feine Unterscheidung: Im Unterschied zu Gott ist die Seele des Menschen nicht perfekt (= nicht von unendlicher Kraft, d. h. nicht allwissend und allmächtig), aber doch derart, dass jede je konkret erreichte und realisierte Kraft überboten werden kann (= unbestimmbar). Es gibt daher keine prinzipielle Schranke ihrer Verbesserungsfähigkeit. Die „unbegrenzte Verbesserbarkeit“, die Perfektibilität, von der die Philanthropen reden, bezieht sich also bei Villaume nicht auf den Körper, sondern auf 31
Der körperliche Niedergang der bürgerlichen Jugend, im Vergleich zu Gesundheit und Stärke der „Naturvölker“, sei wegen des „Zusammenhangs zwischen Moralität und Körperbeschaffenheit“ gleichzeitig Symptom einer um sich greifenden Lasterhaftigkeit und Verdorbenheit, schreibt GutsMuths. Seine körperlichen Übungen konzipiert er als Teil einer umfassenden Lebensführung mit kühlen Betten, mäßigem Essen, beständiger Tätigkeit und körperlicher Abhärtung – von einem solchen Gesamttableau erwartet er die segensreichen Wirkungen körperlicher Bildung (GutsMuths (1793)). 32 Richartz (1992b), Meyer-Drawe (2004). 33 Villaume (1787), S. 6.
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
151
die Seele. Die Kräfte des Körpers kann man zwar verbessern, aber doch nur sehr begrenzt: „Gesetzt er könne die Muskelkraft des Pferdes bekommen – er wird doch nimmermehr den Elephanten erreichen.“ 34 Genau dieser Beschränktheit unterliegt die Seele aber nicht: „Aber die Seele kann mit ihrem Verstande, den Elephanten bändigen.“ Und Villaume stellt die rein rhetorische Frage: „Wo ist der Punkt, von welchem man sagen könnte: Weiter kann der Mensch nicht kommen!“ 35 „Seele“ bedeutet dort also zweierlei, und beides zugleich: Zum einen ist es ein Titel für das, was den Menschen von allen anderen Dingen der Natur unterscheidet, was in der Aufklärung typischerweise die ratio, der Verstand ist. Zum anderen, und beides wird genauso typisch miteinander identifiziert, bezeichnet ‚Seele‘ dasjenige, was sich bei allen Veränderungen des Menschen als das Identische erweist, das den Menschen zum Menschen macht. Der Körper des Menschen ändert sich permanent, aber er ändert sich in einer solchen Weise, dass es dabei ein menschlicher Körper bleibt, der in all seinen Veränderungen nicht zum Tier, Engel, Teufel oder Gott wird. Erst der Tod ist dann eine ganz andere Sorte von Veränderung des Körpers. Solange der Körper aber lebt, solange ist die Seele das „Unsterbliche“ des Körpers, denn sie verändert sich bei all diesen körperlichen Veränderungen nicht. Leibniz hatte das so ausgedrückt, dass die „Monaden“ nur mit einem Schlag entstehen und vergehen können, sich also nicht allmählich verändern. In diesem Sinne ist die Seele „das Wesen des Menschen“, 36 und daher ist es den Philanthropen möglich, jene aufgezeigte Perfektibilität der Seele mit der Perfektibilität des Menschen gleichzusetzen, denn die Seele, nicht aber der Körper, macht dort den Menschen zum Menschen. Der Körper ist dort grundsätzlich nur Mittel, nur Werkzeug. Wie schon erwähnt, betont Villaume ausdrücklich die Differenz zwischen Mensch und Gott: „Unendlich ist ihre [der Seele] Kraft freilich nicht, aber doch unbestimmbar.“ 37 Für Villaume stimmt also nicht, wenn Eugen König 38 behauptet, die Philanthropen würden dem Menschen uneingeschränkte Mächtigkeit, ja „geradezu göttliche Allmacht“ zusprechen. Die Philanthropen waren viel zu brav, um so ketzerisch sein zu können: Gott ist ja bereits allmächtig, also braucht und kann er sich auch gar nicht verbessern. Verbessern kann und muss sich nur der Mensch. Dann jedoch – auf der Basis dieser klaren und eindeutigen, und auch nirgends wieder zurück genommenen Asymmetrie von Körper und Seele – postuliert 34 35 36 37 38
Ebd., S. 5. Ebd., S. 6. Villaume (1787), S. 5. Ebd., S. 6. König (1993), S. 25.
152
Alfred Richartz und Volker Schürmann
Villaume auch eine umgekehrte Abhängigkeit der Seele von der Entwicklung des Körpers: Die Seele, besser: ihre Kräfte (denn sie selbst entwickelt sich gar nicht, da sie unsterblich ist) könne sich nur durch die Tätigkeit des Körpers entwickeln. „Freilich ist die Seele das Wesen, die eigentliche Kraft, der Leib ist nur Werkzeug. Aber er ist Werkzeug, einiges und universales Werkzeug, wodurch einzig und allein die Kräfte der Seele entwickelt werden und sich äußern können. Und ohne gutes Werkzeug kann der geschickteste Künstler nichts verrichten.“ 39 Und Villaume betont im direkten Anschluss selbst den entscheidenden Punkt: „Man bedenke dieses wohl – nicht bloß Werkzeug der Thätigkeit, sondern Werkzeug der Entwickelung und Vervollkommnung der Kräfte!“ 40 Das bedeutet, dass der Körper nicht nur das notwendige Werkzeug ist, um die Vorstellungen der Seele in die Wirklichkeit umzusetzen. Das wäre banal und nicht eigens der Rede wert; in der Analogie: Es ist nicht besonders aufregend zu betonen, dass jeder Maler einen Pinsel benötigt, um malen zu können. Was aber weder banal noch selbstverständlich wäre, ist die These, dass der Gebrauch des Pinsels, also das Malen selbst, das Mittel ist, diejenige Vorstellung erst zu bilden, die der Maler von dem hat, was er malen will. Das aber ist in der Analogie das, was Villaume in Bezug auf das Verhältnis von Seele und Körper behauptet: Dass erst der Mittelgebrauch, also das körperliche Tun, dazu führt, die Kräfte der Seele zu entwickeln und zu vervollkommnen. Also: Die These von Villaume ist nicht die Banalität, dass Menschen einen Körper benötigen, um ihre Vorhaben in die Tat umzusetzen, sondern dass sich im körperlichen Vollzug jene „Kräfte der Seele“ erst bilden. Das richtet sich kritisch gegen das damalige Schulwesen, das die körperliche Betätigung angeblich völlig vernachlässige und die Schüler nur mit Buchwissen vollstopfe. Körperliche Entwicklung bekommt also ein großes Gewicht; aber nur deshalb, weil der Körper ein Mittel, ein Werkzeug ist. Zwar sei er nicht nur ein Mittel der Ausführung, sondern ein Mittel der Bildung der Seele (ohne körperliche Betätigung würden die Kräfte der Seele „ewig unentwickelt darin schlummern“), 41 aber es geht nicht eigentlich darum, den Körper zu bilden. Dennoch redet Villaume davon, den Körper nicht „ungebildet“ 42 zu lassen. Der Körper zu bilden, heißt dort aber nichts anderes, als ihn zu üben, 43 d. h. seinen Werkzeugcharakter zu optimieren. Die sog. Bildung des Körpers bei Villaume ist nichts, was sich (im Sinne eines Herderschen Bildungsbegriffs) ergibt, sondern was aktiv hergestellt werden muss.
39 40 41 42 43
Villaume (1787), S. 7. Ebd. Ebd., S. 8. Ebd., S. 17. Vgl. ebd., S. 9.
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
153
Der Körper müsse gebildet werden, damit 1. „die Seele durch ihn ihre Kräfte entwickeln könne“; 2. damit er guter und funktionierender Befehlsempfänger der Seele sein kann; und 3. damit er wohlgeordnet und gesittet-diszipliniert ist: damit er die Seele nicht „durch Schmerzen, durch übermäßige Gefühle und Wallungen des Blutes“ und überschäumende Leidenschaften störe. 44 In Bezug auf den Körper ist die oben zitierte Charakterisierung von Eugen König also durchaus zutreffend. Philanthropen meinen, den Körper rein nach eigenem Bilde formen zu können. In Bezug auf den Körper wähnen sie den Erzieher gleichsam in Gottes Position: Den Körper nicht so zu bilden und nicht so zu beherrschen, wie man es sich vorgenommen hat, ist dort prinzipiell ein Zeichen von Schwäche und Versagen. Der ursprüngliche passivische Kerngehalt der Leidenschaften – dass Leidenschaften vom Menschen Besitz ergreifen und nicht umgekehrt – wird vollständig umgekehrt zu einem Modell der Beherrschung der Leidenschaften. Das wird u. a. und sehr schön auch daran sichtbar, dass Philanthropen keine Krankheiten als Schicksalsschläge kennen, die einem einfach zustoßen, ohne dass man für sie verantwortlich wäre. Die Notwendigkeit des Einsatzes von Medizin und Heilkunst gilt den Philanthropen immer als ein Zeichen mangelnder oder verfehlter (Vor-)Sorge. 45 Zwischenfazit Wer in emanzipatorischer Absicht an körperlicher Bildung interessiert ist, kann an die falschen Bündnispartner geraten. Die Formel von der „Einheit von Körper und Seele“ ist zum Beispiel eine Einladung zur Disziplinierung von Körpern, weil sie auf einer bloßen Dualität fußt. 3. Ein umstrittener Fall: Das Jahnsche Turnen Eine Analyse des Jahnschen Turnens verlangt von vornherein zwei unterschiedene Perspektiven. Es ist einerseits eine soziale Bewegung – die Turnbewegung als Teil der Nationalbewegung 46 –, die Eigentümlichkeiten aufweist, die ihr als soziale Bewegung zukommen. Solche Eigentümlichkeiten sind nicht reduzierbar auf das Handeln, gar auf die Motive der einzelnen Mitglieder der Bewegung, und seien diese noch so bedeutsam für die Bewegung. Eine soziale Bewegung ist in der Regel ein außerordentlich komplexes System, das lebendig gehalten wird von einem kontinuierlichen Fluss von öffentlich kommunizierten Sinnangeboten, Umarbeitungen, Umdeutungen und Koexistenzen unterschiedlicher Interpretati44 45 46
Ebd., S. 25. Vgl. König (1993), S. 42f. Vgl. exemplarisch Düding (1997).
154
Alfred Richartz und Volker Schürmann
onsgemeinschaften. Das Gefühl von Verbundheit und Gemeinsamkeit sowie die Abgrenzung gegen andere kollektive Subjekte zeichnet soziale Bewegungen aus. Es ist bisher noch im Wesentlichen ungeklärt, welche Prozesse dafür verantwortlich sind, dass die fortlaufende soziale Produktion der präsentativen oder sprachlichen Expressionsformen von Bewegungen gelingt und wie diese Prozesse in Gang kommen. Aus philosophischer Perspektive sind soziale Bewegungen als Einheit des „objektiven Geistes“ zu analysieren, wie es so unterschiedliche Denker wie Hegel, Marx, Dilthey oder Simmel eindringlich herausgestellt haben. Aus sozialwissenschaftlich-psychoanalytischer Perspektive handelt es sich um die dynamische gemeinsame Produktion von Sinnangeboten mit erheblichem latentem Anteil, die Zugehörigkeit genauso wie Abgrenzung und Gegnerschaft emotional erlebbar machen. 47 Zugleich aber – und dies verlangt eine komplementäre Perspektive – hat die Turnbewegung in klarer und unstrittiger Weise eine Stiftungsfigur, nämlich Friedrich Ludwig Jahn (1778 – 1852). Das bedeutet nicht, dass Jahn auf imposante Weise wichtig war. Beinahe im Gegenteil: Auch er war nur einer von Vielen, ohne die es keine Turnbewegung gegeben hätte. Gleichwohl gilt, dass der Gehalt der Turnbewegung ohne Jahn nicht das wäre, was er eben war. Daher sind beide Perspektiven nötig: Die Turnbewegung, die man methodisch verfehlt, wenn man sie als das Ergebnis des Wirkens von Individuen in den Blick nimmt, ist als Turnbewegung nur durch Analyse des Tuns von Jahn verständlich. 48 Es wäre eine eigene methodische Anstrengung, beide Perspektiven aufeinander zu beziehen, die freilich den Rahmen dieses Beitrags überschreitet. In der ersten Perspektive des Turnens als sozialer Bewegung wird die bedeutsame Rolle des „Turnvaters“ für die Turnbewegung nicht bestritten. 49 Aber in dieser Perspektive wird die Person Jahn nicht als Erklärungsgrund in Anspruch genommen, weil und insofern es um Strukturelemente der Turnbewegung geht. Diese Strukturelemente sind relativ klar; es sind diejenigen, die, bei allem Streit im Einzelnen, mit der „Hasenheide“ konnotiert werden, dem berühmten ersten Turnplatz vor den Toren Berlins, der zur Ursprungszelle der Bewegung wurde: 1. die Körperkultur wird institutionalisiert: Turnen findet in Vereinigungen statt, die sich obrigkeitlicher Kontrolle entziehen, eigene Normen, Zugehörigkeitszeichen und Rituale entwickeln und später zu bürgerlichen Vereinen ausdifferenzieren;
47
Vgl. Richartz (1992a). Die Rolle einer Stiftungsfigur spielt Jahn sicher nicht aufgrund seiner Schriften, sondern aufgrund seines praktischen Tuns – Husserl als Stiftungsfigur der Phänomenologie auszumachen, ist in dieser Hinsicht weniger vertrackt. 49 Vgl. exemplarisch Eisenberg (2000). 48
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
155
2. die Körperkultur wird, im Vergleich mit den Philanthropinen, in sozialer und symbolischer Hinsicht geöffnet: heraus aus der sozialen und räumlichen Enge elitärer Privatschulen hinaus in die frische Luft öffentlicher Anlagen; 3. das Turnen rehabilitiert gegenüber der philanthropischen Gymnastik das freie Spielen und Toben; 4. die Turner beschwören, gegen vermeintlich bloß „äußeren“ und förmlichen Zusammenschluss, die Sozialform einer Gemeinschaft, die durch gemeinsame „innere“ Verbundenheit („Gesinnung“) gebildet wird und aufrecht erhalten werden soll, und in der die Eigentümlichkeiten der Einzelnen hinter gleichermaßen grauer Kleidung nach Außen verdeckt bleiben und nicht recht hervorleuchten sollen. Als soziale Bewegung ist das Jahnsche Turnen damit eine Absage an philanthropische Körperdisziplinierung (3.), eine Rehabilitierung des Anliegens von Rousseau (2., 3.) und, vor allem, eine Weiterentwicklung im Hinblick auf das sachliche Folgeproblem der Körperpädagogik Rousseaus: Dort, wo Rousseau noch privatistisch bleibt – plakativ: Rousseau schreibt „Bekenntnisse“ –, dort tritt in der Turnbewegung die Öffentlichkeit ein (1., 2.). Damit ist die Frage des Maßstabes einer guten Entwicklung nicht mehr durch die einsame Entscheidung des einzelnen, ach so gütigen Erziehenden zu beantworten, sondern dem Prinzip und der Möglichkeit nach eine Frage der öffentlichen Auseinandersetzung. Dass diese Möglichkeit in der Sozialform der Gesinnungsgemeinschaft (4.) de facto durch Jahns Narzißmus und Dominanzgebaren, durch den Generationenabstand zwischen ihm und den „Vorturnern“ sowie deren Bewunderungswünsche konterkariert wird, ändert nichts an der entscheidenden Weiterentwicklung des Prinzips. Die Öffentlichkeit im „Bruderstaat“ der Turnerschaft löst allerdings das Problem der mystifizierenden Naturalisierung inhaltlich nicht – im Gegenteil. Die antiaufklärerischen Aspekte der Turnbewegung werden grell beleuchtet, wenn man ihre Erziehungsziele in Augenschein nimmt: „... vergiß in keinem Augenblick Deiner Jugend, daß des deutschen Knaben und Jünglings heiligste Pflicht ist, ein Deutscher Mann zu werden und es, geworden, zu bleiben.“ 50
Die Naturalisierung von Geschlechtscharakteren wird hier mit einer ebenfalls naturalisierenden Nationalisierung verknüpft (Deutsche als Urvolk). Der aggressive Nationalismus der Turnbewegung, ihre Leibfeindlichkeit im Hinblick 50 Jahn / Eiselen (1816), S. 252. Jahn fand an dieser Formulierung offenbar besonderen Gefallen. Sie findet sich wörtlich auch in Briefen an jugendliche Turner. Als weitere Verhaltensregel wird den Turnern z. B. verordnet: „... nichts Unmännliches mitmachen; sich auch durch keine Verführung hinreißen lassen, Genüsse, Vergnügungen und Zeitvertreib zu suchen, die dem Jugendleben nicht geziemen ... (wie) faulthierisches Hindämmern, brünstige Lüste und hundswüthige Ausschweifungen ...“ (ebd).
156
Alfred Richartz und Volker Schürmann
auf Sinnlichkeit und ihr antiaufklärerisches Frauenbild sind allesamt kein äußeres Beiwerk, sondern integraler Bestandteil jenes Vorstellungshorizonts von Männlichkeit, Körperlichkeit und Nation, der die Bewegung als soziale zusammenhält. 51 Untersucht man allerdings die körperlichen Praktiken der frühen Turnbewegung näher, erweitert sich das Bild. Am Anfang und im Zentrum des Turnens stehen nämlich keineswegs jene diszipliniert-schmerzhaften Körperübungen an Geräten, schwindelerregenden Mutproben oder drillartigen Gruppenformation, die man erwartet. Turnen ist zunächst vor allem ein abenteuerliches und spannendes Spielen. Im Vordergrund stehen dabei Spielformen, die die Kinder und Jugendlichen aus der eigenen Straßensozialisation kennen und bevorzugen. Es handelt sich vor allem um Kriegsspiele sowie um Rauf- und Tobespiele 52 – also um „rough-and-tumble-play“, jene Art symbolischer Spielformen, die in der pädagogisch unregulierten Alltagswelt von männlichen Kindern und Jugendlichen eine außerordentlich hohe Anziehungskraft genießen und denen deshalb eine bedeutende sozialisatorische Funktion zugeschrieben wird. 53 Die frühe Turnbewegung schließt in ihren körperlichen Praktiken also an die – häufig verpönten – Symbol- und Sinnfiguren der Kinder und Jugendlichen an, gibt diesen einen zunehmend institutionalisierten Raum und lädt sie mit politischem und gesellschaftlichem Sinn auf. Dieser Zusammenhang wird durch das politische Verbot des Turnens zerschlagen. Das spätere Schulturnen hat damit kaum noch etwas gemein – es ist viel stärker als praktische Umsetzung philanthropischer Körperkonzepte zu verstehen. 54 4. Die Jahrhundertwende und die „neue Körperkultur“ Grob gesprochen mit der Wende zum 20. Jahrhundert macht sich in Deutschland ein neues gesellschaftliches Konzept vom Körper bemerkbar. Das Turnen dominiert noch die Körperkultur, auch das konkurrierende Konzept des englischen Sports ist längst eingewandert und kann bereits halb soviele Aktive zählen wie die Turnerschaft. 55 Doch daneben entsteht ein breites Feld von Reformbestrebungen, die, miteinander verschlungen und sich wechselseitig beeinflussend, eine neue Bildung des Körpers als gemeinsamen Referenzpunkt beanspruchen: Rhythmische Gymnastik, Kleidungs- und Ernährungsreform, Licht- und Luft51 52 53 54 55
Vgl. Richartz (1992a). Ebd. Vgl. Oswald (1997), Maccoby (2000). Vgl. Düding (1997), Krüger (2005). Vgl. für einen Überblick: Eisenberg (1999).
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
157
bäder, Bodybuilding und Fitnessbewegung, Yoga-Schulen, Naturheilkunde usw. Die Körperkulturbewegung ist personell, theoretisch und in ihren Körperpraktiken eng mit der Lebensreformbewegung verflochten und grenzt sich von Turnen und Sport scharf ab. Bei näherem Hinsehen entpuppt sie sich als außerordentlich heterogen in ihren Körperpraktiken, Zielen und ihrem Selbstverständnis. Sie rückt Körperübungen in den Mittelpunkt, die nicht zum Kanon von Sport und Turnen gehören, sie lehnt den Konkurrenz- und Leistungsbezug des sportlichen Wettkampfs weitgehend ab und organisiert sich betont getrennt von Vereinen und Verbänden der Turner und Sportler. Bei Bedarf bedient sie sich aber freizügig aus deren Übungsgut und Spielrepertoire. Dominant in ihrem Selbstverständnis ist ein volkserzieherischer Anspruch: Körperkultur sei „die Erziehung oder planvolle Bildung des Menschen durch Arbeit am Körper“. 56 Nicht nur wegen dieses dezidierten Bildungsanspruch ist die Bewegung für unsere Fragestellung interessant. In verblüffender Weise schließt sie nämlich einerseits an zentrale Motive der philanthropische Programmatik an und nimmt andererseits bereits jene Formen der Körperkultur vorweg, die für den aktuellen Freizeit- und Gesundheitssport maßgeblich sind: − Fitnessprogramme zur Körperformung, − gesundheitsorientierte Vorsorge und Rehabilitationsverfahren, − körperorientierte Selbsterfahrung, häufig kombiniert mit der Rezeption asiatischer Körper- und Autosuggestionspraktiken, − individualisierte körperorientierte Freizeitaktivitäten ohne Wettkampfcharakter − und verknüpft dies alles mit Regeln zu Ernährung, Kleidung und Hygiene zu einem neuen körperorientierten Lebensstil. 57 Die Körperkulturbewegung stellt offenbar in vieler Hinsicht eine Brücke dar zwischen älteren Programmen körperlicher Bildung und aktuellen Trends. Keine der Strömungen der Körperkulturbewegung kommt ohne die gängigen Motive zeitgenössischer Kulturkritik aus: Eine mechanisch-wissenschaftliche, naturwidrige industriell-städtische Zivilsation habe den Menschen von seiner natürlichen Ganzheit entfremdet und eine körperliche, geistige und sittliche Degeneration herbeigeführt. Dieser Niedergang sei nur über eine umfassende körperorientierte Reform aufzuhalten. Die verlorene „Einheit von Körper, Seele und Geist“, die Wiedergewinnung eines „natürlichen Körpers“, „natürlicher Beweglichkeit“, „der Rhythmus unverdorbener Naturmenschen“ sei nur durch gezielte, dauerhafte Erziehung des Körpers wiederzuerlangen. Die Strömungen der Bewegung verordnen dazu unterschiedliche Körperpraktiken: Rhythmische und Heilgymnastik, Kraft- und Fitnesstraining, Aufenthalt in frischer Luft und 56 57
Wedemeyer-Kolwe (2004), S. 13. Vgl. ebd.
158
Alfred Richartz und Volker Schürmann
Sonne, Abhärtung und Reinigung in und mit Wasser usw. Als Gemeinsamkeit lässt sich festhalten, dass der natürliche Körper und die natürliche Bewegung paradoxerweise vor allem durch strenge Disziplin im Nachvollzug vorgegebener Bewegungs- und Übungsformen erreicht werden soll. Dies gilt für die Rhythmusund Gymnastikbewegung 58 ebenso wie für Bodybuilding und Fitnesstraining. Die Selbstdisziplinierung in den Körperübungen wurde in allen Strömungen ergänzt durch einen ausgreifenden Vorschriftenkatalog für die alltägliche Lebensführung. Sie beziehen sich auf die Ernährung, Kleidung, Abstinenz von Genussmitteln und sexuelle Enthaltsamkeit. Mit erstaunlicher Rigidität werden diese Vorschriften in Schulen der Gymnastikbewegung z. B. von Isadora Duncan oder Hedwig von Rohden in ein minutiöses Tagesregime umgesetzt. 59 Die Körperübungen werden ebenso wie die Vorschriften zur Lebensführung entwickelt und vorgegeben von Gründerfiguren, die den Status von exklusiv Wissenden beanspruchen. Schülerinnen und Schüler hatten den Anweisungen zu folgen, um am Wissen der Meister teilzuhaben und es sich anzueignen. Im Bodybuilding werden die Gründerfiguren schon von Zeitgenossen als „Propheten“ verspottet, aber auch in der Rhythmischen Gymnastik und der Freikörperkultur dominieren hierarchisch aufgebaute Bünde, Logen und Schulen. Autoritäre Meister-Strukturen sind also im Rahmen der Bewegung formbestimmend auf allen Ebenen von Bildung: Für die einzelnen Übungsprozesse, für die Organisationsstrukturen der Bildungsanstalten, für die langfristige Integration von Schülerinnen oder Schülern auf unterschiedliche Initiationsstufen, für Inklusions- und Exklusionssowie Entscheidungsprozesse und die Konturierung des weltanschaulich-gesellschaftlichen Selbstverständnisses der Gruppierungen. Die Position des Meisters ist wesentlich dadurch gekennzeichnet, dass er über exklusives Wissen verfügt, das einer diskursiven Infragestellung schon deshalb nicht ausgesetzt werden kann, da es diskursiv nicht verfügbar ist: Das Wissen des Meisters kann nicht reflektiert werden, da es nicht sprachlich vorliegt; es muss nachvollzogen werden. Diese Charakteristika der Bewegung bestätigen sich, wenn man berücksichtigt, dass häufig esoterisch-okkulte Theorien, Rassenlehren, die Rezeption asiatischer Lehren und Körperpraktiken in den Gruppierungen eine wichtige Rolle spielten und die Führungsfiguren darüber mit einer quasi-religiösen, sakralen Aura ausgestattet wurden – oder sich diese auch bewusst aneigneten. Diese autoritären Elemente spiegelten sich durchaus auch in politischen Utopien der Körperkulturbewegung. Sie besaß einen beträchtlichen völkisch-rassistischen, radikal antidemokratischen Flügel. Die „linken“, sozialistisch oder demokratisch 58 Vorführungen von Schülern des Gymnastik-Meisters Rudolf Bode etwa beurteilt Carl Diem, selbst bekanntlich körperlicher Disziplin keineswegs abhold, 1930 so: „Die sonst so geschmeidigen jugendlichen Körper machten alle rhythmischen Übungen höchst ungeschickt und verspannt, (...) mühsam dem irgendwo Geschauten nachgeahmt“ (zit.n. Wedemeyer-Kolwe (2004), S. 101). 59 Vgl. Wedemeyer-Kolwe (2004), S. 70 und 73.
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
159
gesinnten Gruppierungen zeigen allerdings die Ambivalenz der Bewegung: Inhaltliche Grundmotive wie „Ganzheit“, „Natürlichkeit“ und „Gesundheit“ sowie viele Körperpraktiken konnten also durchaus unterschiedlichen politischen Konzepten assimiliert werden. Insgesamt lässt sich jedoch festhalten, dass die ideologisch antiaufklärerischen Elemente des Jahnschen Turnens in gesteigerter Form wiederkehren und im Hinblick auf die Diätetik auch die philanthropische Körperbeherrschung aufgefunden werden kann. Wie kam es aber, dass trotz dieser autoritären Binnenstrukturen und Bildungsformen die Bewegung doch eine von Zeitgenossen geradezu als rasant erlebte gesellschaftliche Öffnung hin zu liberaleren, pluraleren und optionsreicheren Lebensstilen im Hinblick auf Körperlichkeit und Bewegung erreichte? WedemeyerKolwe führt an, 60 dass die Bewegung trotz aller antimodernistischen Redeweisen und Lebensmodelle im Grunde wesentliche Werte der säkularen Modernisierung vertrat: Leistung, Durchsetzungsvermögen, Ausdauer, Disziplin, Flexibilität und Attraktivität. Zusätzlich und vielleicht gravierender muss man berücksichtigen, dass die enorme Vielfalt und Konkurrenz von Körperpraktiken, Lebensführungsratgebern und Sinnangeboten ein ausgesprochen reichhaltiges Marktangebot darstellte, zwar nicht aus der Binnenperspektive der jeweiligen hierarchisch organisierten Gruppe, aber doch aus der Perspektive der „Abnehmer“ und Kunden. Denn die Protagonisten und Gruppierungen waren durch ihre vereins-, verbands- und staatsferne Organisationsform zu dieser Marktgängigkeit geradezu verdammt – in Form von Ratgeber- und Anleitungs-Literatur, Produkten für einen reformorientierten Lebensstil, Sportgeräten, Kursen, Ausbildungsangeboten, Vorführungen usw. Aus dieser Palette konnten die Adressaten als Kunden oder Klienten ganz nach Belieben Teilelemente wählen und sie in vielfältigen Kombinationen individuell zusammenfügen, ohne sich den jeweiligen Sekten, Schulen und Glaubensbekenntnissen anschließen zu müssen. Es fand so eine Entideologisierung der Körperpraktiken statt, und zwar sowohl über den kommerziellen Markt, den die Körperkulturbewegung früh entdeckte und in modernsten Distributionsformen nutzte, als auch über die Assimilierung vieler Körperpraktiken und -normen in die Sport- und Turnbewegung (Gymnastik, Yoga, Sportkleidung). Die antiaufklärerischen Elemente werden also wesentlich neutralisiert und umgeformt durch die schnelle Ausweitung der Sport- und Freizeitkultur in der Weimarer Republik. Sie stellt über die Mechanismen von Öffentlichkeit und Markt ein neues Verhältnis und eine neue Machtbalance zwischen „Anbietern“ und „Abnehmern“ von Körperkultur her.
60
Vgl. Wedemeyer-Kolwe (2004), S. 423ff.
160
Alfred Richartz und Volker Schürmann
5. Körperliche Bildung und das „Arbeitsbündnis“: Ein Ausblick Eine solche Machtbalance existiert natürlich prima facie nicht in Bildungsformaten, denen die Abnehmer verpflichtend ausgesetzt sind. Der schulische Unterricht ist ein solches Format. Es ist deshalb interessant zu sehen, dass die fortgeschrittenen sport- und bewegungsdidaktischen Konzepte sich seit den 1970er Jahren wegbewegen vom disziplinierten Nachvollzug vorgenormter Bewegungen hin zur Inszenierung von Bewegungsangeboten. Sehr deutlich kommt dies etwa im „dialogischen Bewegungskonzept“ von Andreas Trebels (1992) zum Ausdruck. Der Erzieher hat darin drei Aufgaben: 61 Er inszeniert ein Bewegungsangebot, das einen „Bewegungsvorschlag“ enthält. Er begleitet ohne Vorschriften die Problemlösungsversuche und er erneuert und vertieft das Angebot, indem er die Problemaufgabe auf höherem, variiertem Niveau „in den Horizont des Lernenden bringt“. Eine solche theoretische und didaktische Fassung zielt offenkundig darauf, die autoritäre Position des „Meisters“ zu ersetzen durch die eines erfolgreichen Anbieters. Diese Positionsverschiebung lässt sich mit guten Gründen rechtfertigen, nicht nur auf der normativen Ebene einer der Aufklärung verpflichteten Bildung, sondern auch pragmatisch durch die moderne Unterrichtsforschung: Die vorliegenden empirischen Befunde lassen sich am besten in einem Modell von Unterricht integrieren, das ein dynamisches, prozesshaftes Angebot-Nutzungs-Wechselspiel unterstellt. 62 Allerdings sind damit die überkommenen didaktischen Probleme keineswegs per Federstrich abgeschafft. Die Konflikte von „Anbietern“, seien es Lehrer in der Schule oder Trainer im Wettkampfsport, mit den „Nutzern“ körperlicher Bildung brechen regelhaft dort auf, wo das Angebot nicht den unmittelbaren Nutzungsinteressen entspricht – sprich: immer dann, wenn die je augenblickliche Attraktivität des Angebots nicht ausreicht, um Interesse, Lerneifer und Anstrengungsbereitschaft in ausreichendem Maß zu mobilisieren. Auf dem Markt gehen Anbieter und Abnehmer bei einer solchen mangelnden Passung jeder seiner Wege. In der Zwangssituation „Unterricht“ jedoch brechen nun die sattsam bekannten (Disziplin-)Konflikte auf. Das „dialogische Bewegungskonzept“, so muss man feststellen, fußt stillschweigend auf der Voraussetzung, das Angebot könne bei ausreichendem Bemühen des Lehrers so attraktiv arrangiert werden, dass solche Passungsprobleme ausgeschlossen sind. Tatsächlich erfreut sich der Sportunterricht großer Beliebtheit. Dennoch überzeugt bereits ein beliebiger Unterrichtsbesuch davon, dass diese Attraktivitätserwartung übertrieben optimistisch geraten ist. Auch für Trainingsprozesse im Wettkampfsport, denen sich die Athleten im Prinzip ja aus freien Stücken aussetzen, muss man dies konstatieren. 63 61 62 63
Vgl. Funke-Wieneke (2003), S. 97. Vgl. Helmke (2009). Vgl. Richartz (2000).
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
161
Der moderne Aufruf, man müsse Unterrichtsprozesse nur ausgeklügelt genug inszenieren, um Kinder, Jugendliche und Erwachsene zum Lernen zu „verführen“ statt zum Büffeln zu zwingen, 64 führt auch für den Sportunterricht in die Irre: Aktuelle Befunde belegen eine fachübergreifende und monotone Abnahme der durchschnittlichen Lernmotivation im Lauf der Schulkarriere. Jürgen Baumert (2008) warnt davor, diesen Tatbestand allein auf Mängel der Anbieterseite, also ungeschickte und unambitionierte Lehrer, zurückzuführen. Wenn das „Angebot“ also in systematischer Weise nicht so zugeschnitten werden kann, dass die Bildungsanlässe schon von sich aus die Interessen und Bedürfnisse von Schülern und Lehrern, Athleten und Trainern reibungslos zusammenfügen – was dann? Eine solche Situation scheint sich nur lösen zu lassen, indem zeitbezogene Übereinkünfte eingeführt werden über die Rollen im Bildungsprozess und die mit ihnen verbundenen legitimen Rechte und Pflichten. Für ein solches Vorgehen ist in der Psychoanalyse der Begriff des „Arbeitsbündnisses“ entstanden, der inzwischen auch in die erziehungswissenschaftliche Diskussion eingewandert ist. 65 Arbeitsbündnisse stellen explizite oder implizite Übereinkünfte dar. Sie enthalten für einen begrenzten Zeit- und Handlungsraum die Zuweisung unterschiedlicher Befugnisse und Pflichten. Kinder und Jugendliche haben im Sport und auch in der Schule fest umrissene und gut nachvollziehbare Vorstellungen von Arbeitsbündnissen, auch wenn diese eher implizit und damit nicht leicht verbalisierbar sind. 66 Die Ausarbeitung des Konzepts „Arbeitsbündnis“ könnte einen Lösungsweg eröffnen für zwei zentrale Problembereiche einer der Aufklärung verpflichteten körperlichen Bildung. Wie können Bildungsprozesse, die ein Wissen thematisieren, das nicht diskursiv präsentiert und problematisiert werden kann, körperbezogene Expertise also, so angelegt werden, dass die autoritären Fallstricke von „Meisterlehren“ vermieden werden? Wie können diese Bildungsprozesse zweitens dem Effizienz- und Zweckmäßigkeitsgebot genügen – wie können sie also tatsächlich den Weg zu jenem Könnensniveau ebnen, das die Lernenden mittelfristig anstreben (was eben auch gleichbedeutend mit „exzellent“ sein kann)? 67
II. Ein Fazit 1. Konzepte der körperlichen Bildung kämpfen mit einem enormen Ballast an Kategoriengewohnheiten. „Ganzheit“, „Natürlichkeit“, „Einheit von ...“ und 64
Vgl. Wernstedt / John-Ohnesorg (2008) als ein Beispiel unter vielen. Vgl. Meyer (2004). 66 Vgl. Richartz (2000); Richartz / Hoffmann / Sallen (2009). 67 Weitere Ansätze bietet Neuweg (2001); sie müssen allerdings auf das Gebiet körperlichen Bildung noch funktionsäquivalent „übersetzt“ werden. 65
162
Alfred Richartz und Volker Schürmann
„Gesundheit“ erweisen sich aus ganz verschiedenen Gründen als schillernde und ambivalente Kategorien. Sie verfügen über eine hohe Plausibilität und mobilisieren durchschlagende Evidenzgefühle. Sie bleiben stets ambivalent-mehrdeutig: Kritische, aber genauso autoritär-rückwärtsgewandte Assoziationsfelder und Ressentiments können damit zur Resonanz gebracht werden. Es bieten sich zwei Strategien im Umgang damit an – einerseits die kritische Klärung der Kategorien. Wer von „Mündigkeit“ spricht, hat zwischen einer steuernden und einer gesteuerten Instanz, traditionell Seele und Körper, unterschieden. Statt von einer dualen sollten wir allerdings von vornherein von einer dreifachen Unterscheidung (Seele, Körper, Geist) ausgehen. Eine zweite Strategie würde diese Ebene beim wissenschaftlichen status quo von vornherein vermeiden und auf eine Begriffs- und Analyseebene „unterhalb“ dieser synthetisierenden Großbegriffe ausweichen. 2. Die Begründung von Bildung durch einen zu erbringenden Nutzen ist generell heikel – für den Gegenstand körperlicher Bildung aber im Besonderen. Gängige Bildungskonzepte geben Raum für eine „ästhetisch-expressive“ Bildung. Nur mit Mühe wird sich der Reichtum der Körperkultur mit ihren vielfältigen Möglichkeiten der Weltbegnung darin abbilden lassen – es sei nur an die agonalen, sozialen, erlebnisorientierten Facetten des zeitgenössischen Sporttreibens erinnert. 3. Die Frage einer guten Entwicklung, erst recht die einer guten Erziehung zur Mündigkeit, sind unaufhebbar auch normative Fragen, die zivilgesellschaftlich in öffentlicher Auseinandersetzung, und nicht nur in Expertenkommissionen oder gar nur privat, verhandelt werden müssen. „Öffentlichkeit“ kann hier auch breiter verstanden werden als Austausch- und Interaktionsfeld von Akteuren mit ausgeglichener Machtbalance. Die Funktion einer solchen Balancierung kann durch implizite oder explizite Aushandlungsprozesse auch zeitlich versetzt erfolgen: Lehr-Lernprozesse im Bereich nicht-diskursiven Wissens können durch Arbeitsbündnisse solchen Aushandlungen ausgesetzt werden. 4. Wir haben und brauchen weitere wissenschaftliche Erkenntnisse zu den Steuerungsfunktionen menschlichen Tuns und zu den Syntheseleistungen, die damit verbunden sein müssen. 5. Wir brauchen logische Anstrengungen dazu, was eine „vermittelte Unmittelbarkeit“ von Handlungsprozessen sein soll.
Literatur Baumert, Jürgen (2002): Deutschland im internationalen Bildungsvergleich, in: Killius, Nelson / Jürgen Kluge / Linda Reisch (Hrsg.): Die Zukunft der Bildung, Frankfurt / M., S. 100 – 150.
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
163
Baumert, Jürgen (2008): Was sollte man unter Bildung verstehen?, in: Wernstedt, Rolf / Marei John-Ohnesorg (Hrsg.): Der Bildungsbegriff im Wandel. Verführung zum Lernen statt Zwang zum Büffeln, Berlin, S. 18 – 24. Benner, Dietrich (1999): Der Begriff moderner Kindheit und Erziehung bei Rousseau, im Philanthropismus und in der deutschen Klassik, in: Zeitschrift für Pädagogik, Heft 45, Nr. 1, S. 1 – 18. Bloom, Paul (2004): Descartes’ Baby. How the Science of Child Development Explains What Makes Us Human, New York. Böhme, Hartmut / Böhme, Gernot (1985): Das Andere der Vernunft. Zur Entwicklung von Rationalitätsstrukturen am Beispiel Kants, Frankfurt / M. Damasio, Antonio R. (2000): Ich fühle, also bin ich. Die Entschlüsselung des Bewusstseins, München. Düding, Dieter (1997): Von der Opposition zur Akklamation. Die Turnbewegung im 19. Jahrhundert als politische Bewegung, in: Diekmann, Irene / Joachim Teichler (Hrsg.): Körper, Kultur und Ideologie. Sport und Zeitgeist im 19. und 20. Jahrhundert, Bodenheim, S. 79 – 97. Eisenberg, Christiane (1999): „English Sports“ und Deutsche Bürger. Eine Gesellschaftsgeschichte 1800 – 1939, Paderborn u. a. Eisenberg, Christiane (2000): Friedrich Ludwig Jahn – der ‚Erfinder‘ des Turnens, in: Sportwissenschaft, Heft 30, Nr. 2, S. 125 – 140. Elias, Norbert (1969): Über den Prozess der Zivilisation. Soziogenetische und psychogenetische Untersuchungen, Bern. Ericsson, K. Anders / Krampe, Ralf Th. / Tesch-Römer, Clemens (1993): The Role of Deliberate Practice in the Acquisition of Expert Performance, in: Psychological Reviews, Vol. 100, pp. 363 – 406. Foucault, Michel (1976): Überwachen und Strafen. Die Geburt des Gefängnisses, Frankfurt / M. Funke-Wieneke, Jürgen (2004): Handlung, Funktion, Dialog, Symbol. Menschliche Bewegung aus entwicklungspädagogischer Sicht, in: Klein, Gabriele (Hrsg.): Bewegung. Sozial- und kulturwissenschaftliche Konzepte, Bielefeld, S. 79 –108. Gazzaniga, Michael S. (1989): Das erkennende Gehirn. Entdeckungen in den Netzwerken des Geistes, Paderborn. Gazzaniga, Michael S. (2008): Human. The Science Behind What Makes Us Unique, New York. Gazzaniga, Michael S. (2009): Free Yet Determined. The fourth in a series of Gifford Lectures by Professor Michael Gazzaniga. Recorded 19 October, 2009 at the Playfair Library Hall, the University of Edinburgh. Zugriff am 20. 02. 2010 unter: http://www .youtube.com/user/EdinburghUniversity#p/u/12/aGtZek7RPts. Gigerenzer, Gerd (2007): Bauchentscheidungen. Die Intelligenz des Unbewussten und die Macht der Intuition, München.
164
Alfred Richartz und Volker Schürmann
GutsMuths (o.J.): Gymnastik für die Jugend. Nach der Originalausgabe von 1793, Dresden (Quellenbücher der Leibesübungen, Bd. 1). Helmke, Andreas (2009): Unterrichtsqualität und Lehrerprofessionalität. Diagnose, Evaluation und Verbesserung des Unterrichts, Seelze. von Hentig, Hartmut (2008): Was sollte man unter Bildung verstehen?, in Wernstedt, Rolf / John-Ohnesorg, Marei (Hrsg.): Der Bildungsbegriff im Wandel. Verführung zum Lernen statt Zwang zum Büffeln, Berlin, S. 13 – 17. Jahn, Friedrich L. / Eiselen, Ernst B. (o.J.): Die Deutsche Turnkunst. Nach der Erstausgabe von 1816, Dresden (Quellenbücher der Leibesübungen, Bd. 4). König, Eugen (1993): Der Philanthropismus und die Entdeckung des Leibes als pädagogische Kategorie, in: Spitzer, Giselher (Hrsg.): Die Entwicklung der Leibesübungen in Deutschland. Von den Philanthropisten bis zu den Burschenschaftsturnern, Sankt Augustin, S. 17 – 40. Krüger, Michael (2005): Leibeserziehung im 19. Jahrhundert: Turnen fürs Vaterland. Einführung in die Geschichte der Leibeserziehung und des Sports, Bd. 2, Schorndorf. Krüger, Michael (Hrsg.) (2008): ‚Mens sana in corpore sano‘. Gymnastik, Turnen, Spiel und Sport als Gegenstand der Bildungspolitik vom 18. bis zum 21. Jahrhundert, Hamburg. LeDoux, Joseph (2003): Das Netz der Persönlichkeit. Wie unser Selbst entsteht, Düsseldorf. Lenzen, Dieter (1988): Nichts Halbes und nichts Ganzes – Autobiographische Variationen über die Beschädigung des Geistes durch die Ertüchtigung des Körpers, in: Gebauer, Gunter (Hrsg.), Körper und Einbildungskraft. Inszenierungen des Helden im Sport, Berlin, S. 219 – 229. Maccoby, Eleanor E. (2000): Psychologie der Geschlechter. Sexuelle Identität in den verschiedenen Lebensphasen, Stuttgart. Meyer, Hilbert (2004): Was ist guter Unterricht?, Berlin. Meyer-Drawe, Käte (2004): Hygienische Imaginationen. Der Schrecken der Selbstbefleckung im Philanthropinismus, in: Zaun, Stefanie u. a. (Hrsg.): Imagination und Sexualität. Pathologien der Einbildungskraft im medizinischen Diskurs der frühen Neuzeit, Frankfurt / M., S. 209 – 223. Neuweg, Georg Hans (2001): Könnerschaft und implizites Wissen. Zur lehr-lerntheoretischen Bedeutung der Erkenntnis- und Wissenstheorie Michael Polanyis, Münster u. a. Oswald, Hans (1997): Zur sozialisatorischen Bedeutung von Kampf- und Tobespielen, in: Renner, Erich (Hrsg.): Spiele der Kinder, Weinheim: Deutscher Studienverlag, S. 154 – 167. Richartz, Alfred (1992a): Körper – Gesundheit – Nation. Tiefenhermeneutische Analysen zur bürgerlichen Körperkultur in Deutschland in der ersten Hälfte des 19. Jahrhunderts, Dissertation, FU Berlin. Richartz, Alfred (1992b): Sexualität, Körper, Öffentlichkeit. Formen und Umformungen des Sexuellen im Sport, in: Alkemeyer, Thomas u. a. (Hrsg.): Aspekte einer zukünftigen Anthropologie des Sports, Clausthal-Zellerfeld, S. 61 –81.
Körperliche Bildung zwischen Aufklärung und Gegenaufklärung
165
Richartz, Alfred (2000): Lebenswege von Leistungssportlern. Anforderungen und Bewältigungsprozesse der Adoleszenz, Aachen. Richartz, Alfred / Hoffmann, Karen / Sallen, Jeffrey (2009): Kinder im Leistungssport. Chronische Belastungen und protektive Ressourcen, Schorndorf. Roth, Gerhard (2007): Persönlichkeit, Entscheidung und Verhalten. Warum es so schwierig ist, sich und andere zu ändern, Stuttgart. Rousseau, Jean-Jacques (1755): Abhandlung über den Ursprung und die Grundlagen der Ungleichheit unter den Menschen, hrsg. von Phillipp Rippel, Stuttgart. Rousseau, Jean-Jacques (1762): Vom Gesellschaftsvertrag oder Prinzipien des Staatsrechtes, in: Rousseau (1977), S. 59 – 208. Rousseau, Jean-Jacques (1762a): Emile oder Über die Erziehung, übersetzt von Ludwig Schmidts, Paderborn u. a. 1995 [1971]. Rousseau, Jean-Jacques (1977): Politische Schriften, Übersetzung und Einführung von Ludwig Schmidts, Paderborn u. a. 1995. Schürmann, Volker (2007): „Zurück zu Plessner!“. Kommentar zum Beitrag Von der neuen Theorie des Geistes zu einer neuen Pädagogik des Körpers? von Norbert Gissel. In: Sportwissenschaft 37 (2007) 4, 445 – 450. Schürmann, Volker (2009): Bildung der Aufklärung. Anmerkungen zur Geschichte körperlicher Bildung, in: Kolbert, Britta / Lutz Müller / Monika Roscher (Hrsg.), Bewegung – Bildung – Gesundheit. Beiträge zu Perspektiven der Sportwissenschaft, Hamburg, S. 27 – 38. Trebels, Andreas (1992): Das dialogische Bewegungskonzept. Eine pädagogische Auslegung von Bewegung, in: Sportunterricht, Heft 41, Nr. 1, S. 20 –29. Villaume, Peter (1787): Von der Bildung des Körpers in Rücksicht auf die Vollkommenheit und Glückseligkeit der Menschen oder über die physische Erziehung insonderheit, in: Schwarze, Max / Wilhelm Limpert (Hrsg.) (1929): Quellenbücher der Leibesübungen, Bd. 2/1, Dresden, S. 1 – 290. Wedemeyer-Kolwe, Bernd (2004): „Der neue Mensch“. Körperkultur im Kaiserreich und in der Weimarer Republik, Würzburg. Wagner, Hugo (1959): Humanismus – Militarismus – Leibeserziehung. Freiheit oder Zwang in der Menschenführung, München. Wilson, Timothy D.: (2002) Strangers to Ourselves. Discovering the Adaptive Unconscious, Cambridge, Mass. Willimczik, Klaus / Kronsbein, Astrid: Leistungsmotivation im Verlauf von Spitzensportkarrieren, in: Leistungssport, Heft 35, Nr. 5, S. 4 – 10.
„Die Sprachen der Bildung“ – Chancen und Risiken semantischer Pluralität Von Andreas Poenitsch 1
I. Einleitung Unter diesem Titel soll nach wenigen einleitenden Bemerkungen zunächst die Formulierung von den „Sprachen der Bildung“ näher erläutert werden. Im zweiten Schritt werden in einem historischen Rückblick drei Stationen durchlaufen, die sich mit dem Problemzusammenhang von Sprache und Bildung wirkmächtig beschäftigt haben, und die eine, wenn auch nicht zwingende, so doch nicht beliebige Entwicklungslinie markieren. Deren Logik könnte man mit fortschreitender „semantischer Pluralität oder Pluralisierung“ benennen und damit u. a. Probleme demonstrieren, die im dritten und letzten Schritt unter der Überschrift „Chancen und Risiken“ zu diskutieren sein werden. Auf den ersten Blick liegt dieses Programm zwar einiger Maßen quer zu dem, was das Kongressthema „Ökonomisierung der Wissensgesellschaft“ nahelegt bzw. was die Veranstalter angekündigt haben; allerdings weist der Untertitel des Kongressthemas, wo es um die Abwägung des Bedarfs an Ökonomie, also von Brauchen und Vertragen geht, in eine gedankliche Richtung, wo die Sprachen der Bildung, deren Chancen und Risiken, bedeutsam werden könnten. Auch weitgehend unbefragte Selbstverständlichkeiten, etwa die, mit der heute mehr als nur rhetorisch plakativ von einer „Wissensgesellschaft“ gesprochen wird, verlangen nach einer sprachbzw. bildungstheoretischen Überprüfung. „Rucke“, was genau darunter auch immer zu verstehen ist, sind in den letzten Jahren so manche durch dieses Land gegangen, und vielleicht werden noch andere dazukommen, wenn man nur etwa an die gegenwärtige Umstrukturierung der Studiengänge und der Hochschulen insgesamt denkt. 2 Dass auf diesem 1 Apl. Prof. Dr. Andres Poenitsch vertritt die Professur für Allgemeine Erziehungswissenschaft an der TU Dresden. Der folgende Beitrag ist die erweiterte Fassung des Vortrags an der Universität Leipzig am 3. Dezember 2009. Der Vortragsstil wurde beibehalten, der Text um Literatur- und Quellenhinweise ergänzt. 2 Die berühmte Formulierung, dass ein „Ruck“ durchs Land gehen müsse, entstammt der Berliner Rede des damaligen Bundespräsidenten Roman Herzog, die unter dem Titel „Aufbruch ins 21. Jahrhundert“ am 26. April 1997 im Hotel Adlon gehalten wurde.
168
Andreas Poenitsch
Wege u. a. Bildung, wie beabsichtigt, ein so genanntes „Megathema“ geworden ist, lässt sich vielfach belegen, ohne dass damit sogleich deutlich würde, was denn genau ein Megathema ist. Vielleicht zeigt die Behandlung und öffentliche Thematisierung von Bildung heute eher Züge von einem „Hype“. Darunter versteht man zwar in erster Linie die zyklische Darstellung der Phasen öffentlicher Aufmerksamkeit gegenüber neu eingeführten Technologien, etwa aus dem IT-Bereich; die Anlehnung an diesen Begriff bietet sich hier aber aus zwei Gründen an. Zum einen, weil Bildung heute ebenfalls deutliche Züge einer Technologie bzw. technologischer Behandlung und Verbreitung trägt, zum anderen, weil die Unterscheidung und Benennung von Phasen der öffentlichen Aufmerksamkeit auch auf die Phänomene passt, die die angesprochene Studienreform seit einigen Jahren begleiten. Jackie Fenn, die Beraterin der amerikanischen Marktforschungsfirma Gartner Inc., spricht vom „Auslöser“ einer Technologie, vom „Gipfel der überzogenen Erwartungen“, von dem man in ein „Tal der Enttäuschungen“ fällt, aus dem auf dem „Pfad der Erleuchtung“ letztlich ein „Plateau der Produktivität“ erreichbar wird. 3 Man könnte trefflich spekulieren, ob sich in diesen Beschreibungen die Entwicklung und Wandlungen zumindest einiger der Sprachen der Bildung in den letzten zehn Jahren widerspiegeln. Zudem ließe sich darüber nachdenken, ob der so beschriebene Phasenverlauf Spuren der Bildungsgeschichte seit der Neuzeit aufscheinen lässt, und in welcher der Phasen sich die gegenwärtige Bildungsreform akut befände.
II. Die Sprachen der Bildung Wie die meisten Megathemen, so ist auch das Thema Bildung polyglott, hier zudem mit gleichsam babylonischer Tendenz. Ohne systematisch in die Tiefe zu gehen, lassen sich zunächst zwei Ebenen unterscheiden. Auf der einen ist Bildung das Objekt, der Gegenstand, über den gesprochen wird. Hier ist etwa die möglichst differenzierte, wissenschaftliche Terminologie von der meistens weniger differenzierten Alltagssprache abzuheben und die erste zudem als eine der Diskursarten neben die anderen, etwa politischer oder ökonomischer Herkunft, zu stellen. Auf der anderen Ebene ist Bildung das Subjekt und hat bzw. beansprucht zumindest maßgeblichen Anteil an dem, was man Bildungssprachen oder gebildetes Sprechen nennen könnte. In diesem Fall ist sie ein Kennzeichen von oder der Einsatzpunkt für sprachliche Verlautbarungen, möglicherweise auch solchen der ersten Ebene. Bei deutlich mehr systematischem Anspruch lassen sich drei linguistische und bildungstheoretisch bedeutsame Perspektiven unterscheiden, die auf den
3
Vgl. Spiegel Online vom 21. 10. 2006.
„Die Sprachen der Bildung“
169
einschlägigen Protagonisten Ferdinand de Saussure zurückgehen und sich gegenseitig überlagern: 4 In der ersten Perspektive gehen Sprache und Bildung eine quasi anthropologische Verbindung ein. Die Sprachlichkeit, die ‚langue‘, kennzeichnet, ja auszeichnet die Menschen in so radikaler Weise, dass keine der menschlichen Beziehungen zu sich selbst, zu anderen Menschen und zur Welt – zusammengefasst als Bildung – außerhalb von Sprache vollständig zu denken ist. 5 Die auf Aristoteles zurückgehende Definition des Menschen als zoon logon echon, also als vernunft- und sprachbegabtes Wesen, durchzieht als Konstante, als Topos die Geschichte menschlicher Selbstbestimmungen und Selbstbeschreibungen als deren Bedingung der Möglichkeit. Sie markiert, wenn auch auf vielfältige Weise präzisiert bzw. relativiert, den erkenntnistheoretischen und bildungstheoretischen Stand, etwa in der Version einer Pädagogik, die die „Selbständigkeit im Denken“ oder mit anderen Worten die „selbstlose Verantwortung der Wahrheit“ als Ziel formuliert. 6 In der zweiten Perspektive, bei Saussure die ‚langage‘, kommen die konkreten Sprachen, die Einzelsprachen und Nationalsprachen, in den Blick. Dazu zählen auch die verschiedenen Diskurse und Terminologien oder die konkurrierenden und mitunter synonym verwendeten Nachbarbegriffe von Bildung, die eine entsprechende Verständigung, selbst in Fachkreisen, oft erschweren. Problematisch ist dabei einerseits, dass verschiedene Begriffe, etwa Bildung, Ausbildung, Erziehung, Entwicklung oder Lernen, bedeutungsgleich oder bedeutungsähnlich für eine Sache, besser ein Phänomen oder Problem, stehen und damit deren bzw. dessen möglichst präzise Ein- und Abgrenzung erschweren oder gar unmöglich machen. Problematisch ist zum anderen, dass die zahlreich im Umlauf befindlichen Bildungsbegriffe trotz ihrer denotativen Identität auf der konnotativen Seite immense Differenzen erzeugen, deren Ursprünge und Gründe u. a. in Traditionen, Konventionen, Intentionen oder Ambitionen liegen, und die maßgeblich beteiligt sind an der sachlichen Treffsicherheit, dem Passen im jeweiligen gedanklichen und argumentativen Kontext. 7 Aus der dritten Perspektive schließlich, der ‚parole‘, also der Rede und dem konkreten jeweiligen Sprechen, bekommt die Formulierung von den Sprachen 4
Vgl. de Saussure (1931). Vgl. Dörpinghaus / Poenitsch / Wigger (2009). 6 Ballauff (2004), Ruhloff / Poenitsch (2004). 7 Der sich durchhaltende Hinweis auf den sogenannten deutschsprachigen „Sonderweg“ in der internationalen Bildungsdiskussion erscheint vor diesem Hintergrund fragwürdig zu sein, denn einerseits gibt es nirgends kontextlose eins-zu-eins Übersetzungen, und andererseits bedeutet das Fehlen wörtlicher Übereinstimmungen nicht zugleich die begriffliche und kategoriale Problemlosigkeit in einer anderen Sprache. Vgl. hierzu Tenorth (1996). 5
170
Andreas Poenitsch
der Bildung ein anderes Gefahrenpotenzial, in Form weiterer begrifflicher Unschärfe und möglichem Präzisionsverlust. Das Extrem solcher Rede von Bildung ist das „Gerede“. Ohne in die Verzweigungen der einschlägigen Philologie bei Martin Heidegger einzusteigen, sind zwei Bedeutungen auseinander zu halten. 8 Zum einen bedeutet das Gerede ein leeres Reden über etwas, wo nichts Sinnvolles bei herauskommt, zum anderen bedeutet es so viel wie Gerücht. Im ersten Fall wendet man sich vom Gerede ab, weil das Beredete der Rede nicht wert zu sein scheint, oder umgekehrt, weil das wichtig zu Beredende nicht angemessen verhandelt wird. Im zweiten Fall stehen die Anerkennung und die Glaubwürdigkeit, die Integrität von Personen oder Sachen, mitunter bedrohlich auf dem Spiel. In beiden Fällen erzeugt das Gerede einen seltsamen Graubereich zwischen Kenntlichkeit und Unkenntlichkeit, zwischen Verständlichkeit und Unverständlichkeit. „Auf Dauer verleidet das Gerede die Sache, um die es sich dreht. Dementsprechend erzeugt Bildungsgerede Überdruss an Bildung.“ 9 Ein ausgeliehenes und leicht ergänztes Beispiel für ein fiktives Gerede über Bildung lautet etwa so: „Bildung hat etwas mit Zivilisation zu tun. Zivilisierte Menschen sind für mich gebildet. – Aber das reicht doch nicht aus. Sie müssen sich doch auch in der Kultur auskennen. Wer nichts von Kunst und Musik versteht, der ist doch nicht gebildet. – Und wie war es bei den Nazis? Wer fuhr denn zu den Festspielen nach Bayreuth? – Natürlich muss Bildung auch human sein. [Und ein Menschenrecht ist es überdies!] Es kommt gar nicht darauf an, viel zu wissen. Bildung ist etwas ganz Persönliches. – Ja, richtig! In der Bildung verwirklicht man sich selbst. Man muss vor allem auf sein Inneres hören. Fachidioten sind nicht gebildet. – Das hab ich doch immer schon gesagt. Aber man muss auch etwas von seinem Fach verstehen. Besonders heute. Wir sind ja ein rohstoffarmes Land. Im globalen Wettbewerb können wir uns nur mit Wissen behaupten. Also nachhaltige Bildung! – Genau! Man lernt nicht aus, und auch das Lernen muss man lernen ... [am besten lebenslang!]“ 10
Die so vielleicht etwas karikierend dargestellten Sprachen der Bildung, deren Perspektiven und Kontexte allerdings einem einschlägigen wissenschaftlichen Handbuchartikel entnommen sein könnten, sind nur ein anderer Ausdruck für das Phänomen der semantischen Pluralität oder Pluralisierung. Diese wiederum ist der gegenwärtige Stand einer historischen Entwicklung bzw. Verwicklung in der Relation von Sprache und Bildung, deren exemplarische und zugleich zentrale Stationen im Folgenden einigermaßen gerafft nachgezeichnet werden sollen.
8
Das Folgende im Anschluss an Ruhloff (2006). Ruhloff (2006), S. 288. 10 Ruhloff (2006), S. 288. 9
„Die Sprachen der Bildung“
171
III. Semantische Pluralität – Historische Erinnerungen Die drei Positionen, an denen die These von der Pluralisierung sprachlicher Bedeutung mit Blick auf Bildung festgemacht werden soll, sind Wilhelm von Humboldt, die bildungs- und sprachkritischen Ausführungen in den Frühschriften Friedrich Nietzsches, sowie die vergleichsweise junge Position der sogenannten Postmoderne, eingeschränkt auf deren Hauptvertreter Jean-Francois Lyotard. Alle drei Positionen stehen in einem systematischen Zusammenhang, der auch dann plausibel werden kann, wenn man sich den jeweiligen Theorien nicht vollständig ausliefert. 11 a) Wilhelm von Humboldt ist, entgegen manchen Stilisierungen, insofern nicht nur originell, als seine wirkmächtige Relationierung von Sprache und Bildung bereits im antiken Logos-Gedanken verankert ist. Der Logos ist in der Antike der zusammenfassende Begriff für Wort und Rede sowie die darin zur Sprache kommenden Dinge oder Sachverhalte in ihrer Bedeutung. Diesen Logos im Sinne des begrifflich Wesentlichen zu erfassen, ist der zentrale Gegenstand der paideia, einer noch nicht wie heute differenzierten Bildung und Erziehung. Mit Humboldt, der in Vielem an die griechische Antike anknüpft, kommt unter den Vorzeichen der Moderne eine Entwicklung in Gang, die bis heute entscheidend ist. Humboldt bestimmt den Menschen als Individuum und zunächst als in verschiedenen Relationen, nämlich zur Welt, zu anderen Menschen und zu sich selbst, verstrickt. Die als Aufgabe gesehene Ausgestaltung dieser Relationen, die Humboldt Bildung nennt, soll möglichst frei, rege und mannigfaltig sein. Strukturell geschieht dies als Wechselwirkung und zwar so, dass jede bildende Situation, jeder Bildungsprozess, alle bzw. alles daran Beteiligte verändert. So wie ein Individuum verändernd auf die Welt oder andere Menschen einwirkt, so verändern diese das Individuum. Ausgezeichnetes Medium, Bindeglied in solchen Situationen oder Prozessen der Bildung als Wechselwirkung ist die Sprache, denn keine der drei Relationen könnte die Sprache entbehren. So wie der erkennende Zugang zur Welt, zu Sachverhalten und Dingen, nicht ohne Bestimmung durch Wort und Begriff denkbar ist, so sind Gemeinsamkeit und Geselligkeit nicht ohne Gespräch und Kommunikation denkbar; auch das individuelle, reflexive Selbstverhältnis ist als ein innerer Dialog an die Sprache, wenn auch nicht die verlautbarte Sprache, gebunden. Entscheidend ist nun, dass Humboldts Sprachauffassung auf allen Ebenen, die Saussure differenziert hat, geeignet ist, ja als Auslöser verstanden werden kann für Relativierungen bzw. Pluralisierungen sprachlicher Eindeutigkeit bzw. Verbindlichkeit. Auf der sprach-anthropologischen Ebene etwa bedeutet das zwar 11
Vgl. zum Folgenden ausführlich Poenitsch (1992).
172
Andreas Poenitsch
traditionell und konventionell definierte, aber prinzipiell unendlich kombinierbare Repertoire der sprachlichen Möglichkeiten die je einzigartige und ungeteilte, individuelle Sprachlichkeit. Es erzeugt die sprachliche Individualität und hat, gleichsam im Umkehrschluss, die radikale Pluralität der zu äußernden Gedanken bzw. zu sprechenden Sätze zur Folge. Auf der Ebene der Sprachenvielfalt, der zahlreichen Einzelsprachen, der Terminologien, auch der Soziolekte und Dialekte, ist Humboldts zentraler Gedanke, dass jede Sprache eine eigene, andere Weltansicht und Lebensform sei. Für ihn selbst bedeutete dies den Drang, möglichst viele fremde Sprachen zu erlernen, um sich in möglichst vielen, dadurch ermöglichten Ansichten von Welt bewegen zu können. Die Pluralität der Weltansichten bedeutet zugleich die konsequente Perspektivität. Auf der dritten Ebene relativiert Humboldt die Eindeutigkeit und Verbindlichkeit konkreter sprachlicher Verständigung wie auch jeder hermeneutischen Näherung mit seinem berühmten Satz: „Alles Verstehen ist daher immer zugleich ein NichtVerstehen.“ 12 Er macht damit zum einen deutlich, dass die menschlichen Selbst-, Welt- und Fremdrelationen aufgrund der vermittelnden Rolle der Sprache weder allgemeingültig, noch eindeutig und verbindlich eingegangen bzw. ausgefüllt werden können; zum anderen bedeutet dies, dass Bildung prozesshaft und deshalb prinzipiell unabschließbar, gleichsam mit einem Restrisiko aufzufassen ist. Mit dieser Auffassung von Sprache und Bildung, die gebunden ist an humanistische und idealistische Voraussetzungen, auf die hier nicht näher einzugehen ist, steht Humboldt am Beginn einer Entwicklung, die die Sprache auf allen drei Ebenen, als erkenntnistheoretische Sprachlichkeit, als Einzelsprache oder als konkrete Rede, mit Blick auf deren Eindeutigkeit und Verbindlichkeit hin relativiert und damit deren Referenzfunktion pluralisiert. b) Nietzsches Philosophie, gerade in den frühen Schriften, kann über weite Strecken als eine Theorie und Philosophie der Sprache gelesen werden. Das ist bereits zu seinen Lebzeiten, etwa von Fritz Mauthner, hervorgehoben worden. 13 Zugleich war Nietzsche ein scharfsinniger und vorausblickender Kritiker und Skeptiker mit Blick auf Bildung und Schulbildung, zunächst als deutlicher Befürworter des von Humboldt ausgearbeiteten humanistischen Bildungsdenkens, später als dessen prominenter Antipode. Gegen die Tendenz des 19. Jahrhunderts, die Sprache in empirisch-einzelwissenschaftlichen Untersuchungen zu zergliedern, knüpft Nietzsche an die von Humboldt angeregte Sprachwissenschaft und philosophische Sprachreflexion wieder an. Seine Sprachtheorie lässt sich vereinfacht in eine philologische und ästhetische sowie eine erkenntnistheoretische bzw. -kritische Richtung unterscheiden, die sich jedoch an vielen Stellen seines Werkes gegenseitig durchdringen.
12 13
von Humboldt (1979), Bd. 3, S. 439. Vgl. Poenitsch (2009).
„Die Sprachen der Bildung“
173
Deutlich unter dem Einfluss von Arthur Schopenhauer beschäftigt sich Nietzsche zunächst skizzenhaft und ohne originellere Einsichten u. a. mit dem Problem des Sprachursprungs, der möglichen Entstehung der Sprache aus der Verbindung von Gebärde und Ton sowie, unter dem Eindruck von Richard Wagner, mit der Höhergewichtung musikalischer Ausdrucksmöglichkeiten gegenüber sprachlichen. Die intensive Auseinandersetzung Nietzsches mit der klassischen Bildung der Antike, speziell der griechischen Sprache, gipfelt in „David Strauss der Bekenner und der Schriftsteller“, der ersten der „Unzeitgemäßen Betrachtungen“, in dem nicht ohne Pathos formulierten Appell, „dass die Sprache ein von den Vorfahren überkommenes und den Nachkommen zu hinterlassendes Erbstück ist, vor dem man Ehrfurcht haben soll als vor etwas Heiligem und Unschätzbarem und Unverletzlichem.“ 14 Diese Einstellung durchzieht Nietzsches wiederholt vorgetragene pädagogische Appelle, etwa wenn er in seiner Kritik am Zustand des gymnasialen Deutschunterrichts fordert: „Nehmt eure Sprache ernst!“ 15, wenn er die „sprachliche Selbstzucht“ 16, also einen stilistisch und grammatikalisch korrekten Gebrauch der Muttersprache in Schule und Unterricht, einfordert, oder wenn er die dort um sich greifende „vollendete Stillosigkeit“ 17 beklagt. In solchen und weiteren Zitaten erscheint der Bildungskritiker Nietzsche auf der Höhe wohl nicht nur seiner Zeit; entsprechend werden seine philologisch-ästhetischen Untersuchungen, vor allem seine Aussagen zur Rhetorik, heute breit diskutiert. 18 Von theoretisch weiter reichender Bedeutung, gerade für den hier verhandelten Zusammenhang, ist allerdings der zweite Strang von Nietzsches Sprachphilosophie, die erkenntnistheoretische bzw. -kritische Richtung, weil sie im Zusammenhang steht mit der Kritik der gesamten abendländischen MetaphysikTradition. Deren Zentrum ist das Wahrheitsverständnis, und Nietzsches entscheidende Frage in der nachgelassenen Abhandlung „Ueber Wahrheit und Lüge im außermoralischen Sinn“ lautet demgemäß, ob die Sprache „der adäquate Ausdruck aller Realitäten“ 19 sei. Dagegen spricht vor allem die Vielfalt der Sprache, d. h. der Wort- und Begriffsverwendungen, so dass Nietzsche die „Conventionen der Sprache“ 20 primär als an- und verwendungsorientierte bzw. lebensdienliche Weisen der Realitätsfälschung bezeichnen kann; „Conventionen zu lügen“ 21 nennt er das. Begriffsbildung bedeutet für Nietzsche deshalb konsequent die weitgehend beliebige, weil „nicht aus dem Wesen der Dinge“ 22 oder aus der 14 15 16 17 18 19 20 21 22
Nietzsche (1980), Bd. 1, S. 235. Ebd., S. 676. Ebd., S. 684. Ebd., S. 681. Vgl. Kopperschmidt / Schanze (1994) und von Seggern (2009). Nietzsche (1980), Bd. 1, S. 878. Ebd. Ebd., S. 881. Nietzsche (1980), Bd. 1, S. 879.
174
Andreas Poenitsch
Sache stammende Fixierung von Eigenschaften und Abgrenzung von Dingen mittels sprachlicher Zeichen auf dem Wege gleichsam metaphorischer Übertragungen. Nietzsche folgert demgemäß: „Logisch geht es jedenfalls nicht bei der Entstehung der Sprache zu, und das ganze Material worin und womit später der Mensch der Wahrheit, der Forscher, der Philosoph arbeitet und baut, stammt, wenn nicht aus Wolkenkukuksheim, so doch jedenfalls nicht aus dem Wesen der Dinge.“ 23 Nur durch ein „Uebersehen des Individuellen und Wirklichen“ 24 in den an individuelle Erlebnisse gebundenen Worten, sowie deren sprachliche Gleichmachung und Anpassung an ungleiche, aber „zahllose, mehr oder weniger ähnliche [...] Fälle“ 25, entstehen nach Nietzsche die Begriffe: „Jeder Begriff entsteht durch Gleichsetzen des Nicht-Gleichen.“ 26 Die Sprache wird damit für Nietzsche zu einer Verführerin 27, weil die zentralen philosophischen Begriffe der europäischen Überlieferung, etwa Sein, Einheit, Identität, Erkennen, Subjekt, Substanz, Wahrheit, und in dramatischer Nähe dazu auch der Bildungsbegriff, an die indoeuropäischen Sprachstrukturen gebunden sind. Die gesamte überlieferte Metaphysik wird demzufolge zur „Sprach-Metaphysik“ 28 im Sinne eines folgenreichen „Irrthums, [der] unsre Sprache zum beständigen Anwalt“ 29 hat. Jeder Denkende ist nach Nietzsche deshalb „in den Netzen der Sprache eingefangen“. 30 Deren Rolle als Fundament für Wissenschaft und Erkenntnis ist folgenreich in Frage gestellt, wenn Nietzsche die Sprache als „vermeintliche Wissenschaft“ 31 bezeichnet und im irrtümlichen Glauben an die Sprache den Grund für die Illusion wissenschaftlicher Wahrheit erkennt. Trotz aller Kritik und Skepsis gegenüber dem Glauben an die Erkenntnismöglichkeiten der begrifflichen Sprache sieht Nietzsche gleichwohl deren Unverzichtbarkeit, wenn er schreibt: „Wir hören auf zu denken, wenn wir es nicht in dem sprachlichen Zwange thun wollen, wir langen gerade noch bei dem Zweifel an, hier eine Grenze als Grenze zu sehn.“ 32 Die generelle Kritik an der Kluft zwischen Sprache und Wirklichkeit ist auch das Resultat einer bildungstheoretischen Wende bzw. einer Ambivalenz, in der 23 24 25 26 27 28 29 30 31 32
Ebd. Nietzsche (1980), Bd. 1, S. 880. Ebd., S. 879f. Ebd., S. 880. Vgl. Nietzsche (1980), Bd. 5, S. 279. Nietzsche (1980), Bd. 6, S. 77. Ebd. Nietzsche (1980), Bd. 7, S. 463. Nietzsche (1980), Bd. 2, S. 30. Nietzsche (1980), Bd. 12, S. 193.
„Die Sprachen der Bildung“
175
Nietzsche den Menschen einerseits als einen konstruktiven und schöpferischen Sprachkünstler, andererseits als einen Sprachfälscher sieht, der notgedrungen, d. h. in undurchschauter Abhängigkeit von metaphysischen Traditionen und Konventionen, zum außermoralischen Lügner wurde. Diese zweite Perspektive breitet sich zu Beginn des 20. Jahrhunderts zu einer wirkmächtigen Sprachskepsis aus, die in der heraufkommenden Sprachphilosophie und dem von ihr ausgelösten berühmten „linguistic turn“ bis heute spürbar anhält. 33 In der sogenannten Postmoderne und bei deren Protagonisten Jean-Francois Lyotard spitzt sich diese sprachphilosophische Wende folgenreich zu. c) Die philosophische Diskussion der zweiten Hälfte des 20. Jahrhunderts in Frankreich kann nur plakativ und in Umrissen mit Begriffen wie Poststrukturalismus, Postmoderne oder Dekonstruktion charakterisiert werden. Sie ist maßgeblich bestimmt von sprachtheoretischen und -philosophischen Überlegungen und verschärft den Umgang mit dem Sprachproblem in einer Weise, die Nietzsches Einfluss allenthalben transparent werden lässt. Die Beschränkung auf den Namensgeber der Postmoderne, den französischen Philosophen Jean-Francois Lyotard, bietet sich an, weil dessen mittlerweile klassische Hauptwerke häufige Verweise auf Fragen und Zusammenhänge der europäischen Bildungstradition und im erweiterten Sinne bildungstheoretische Problemstellungen enthalten. 34 Der neben Nietzsche andere maßgebliche, wenn auch modifizierte Einfluss auf das Denken Lyotards ist die kritische Sprachphilosophie Ludwig Wittgensteins, vor allem dessen später Gedanke des Sprachspiels. 35 Dieser mitunter missverstandene Begriff soll zum einen die Mannigfaltigkeit möglicher Spielzüge, d. h. die gleichsam unbegrenzte Vielfalt der Sprache in ihren Ausdrucksmöglichkeiten bzw. Verwendungsweisen, deutlich machen, zum anderen die Gebundenheit dieser Mannigfaltigkeit an ein begrenztes und vorausgesetztes Gerüst von Regeln betonen. Beides zusammen genommen erzeugt die Spannung zwischen etwa grammatischer Regelnotwendigkeit bzw. -bestimmtheit und semantischer oder rhetorischer Zufälligkeit bzw. Unbestimmtheit bei der Anwendung der Regeln. Die Bedeutung von Wörtern und der Sinn von Sätzen lassen sich demnach weder vorgreifend und endgültig definieren, noch erschöpfend und unmissverständlich bestimmen, sondern nur in deren Gebrauch, d. h. im Zusammenhang der Verwendung eines Sprachspiels und dessen Pragmatik, näherungsweise verorten und aufweisen. Da das Sprachspiel der Ausdruck einer Lebensform, d. h. einer gemeinschaftlichen menschlichen Handlungsweise ist, nennt Wittgenstein es unvorhersehbar, nicht begründbar, weder vernünftig, noch unvernünftig, sondern ereignishaft vorkommend, geschehend, faktisch. „Es steht da – wie unser Leben“ ist der berühmte Satz in „Über Gewissheit“. 36 33 34 35 36
Vgl. Rorty (1992). Vgl. Lyotard (1986, 1987). Vgl. Wittgenstein (1984), Bd. 1, S. 250. Wittgenstein (1984), Bd. 8, S. 232.
176
Andreas Poenitsch
Lyotard erweitert nun diesen Gedanken, die sprachliche Faktizität gleichsam als letzte Instanz zu nehmen, zunächst um das Moment des Agonalen. Damit soll deutlich werden, dass das Sprechen als Abfolge sprachlicher Spielzüge als eine Art Kämpfen zu verstehen ist, ein Wetteifern um Zustimmung, soziale Anerkennung und um Geltungsansprüche. Ein weiteres Kennzeichen der Vielfalt von Sprachspielen und Diskursarten, wie Lyotard differenziert, ist deren Heterogenität und Unübersetzbarkeit untereinander. 37 Demnach ist beispielsweise das Sprachspiel der Erkenntnisgewinnung in der wissenschaftlichen Pädagogik generell unübersetzbar in und inkommensurabel mit demjenigen einer narrativ oder rhetorisch belehrenden, praktischen Pädagogik; ähnlich heterogen sind Sprachspiele der Belehrung gegenüber solchen des Wünschens und Hoffens. Die wissenschaftlich-pädagogische, bildungstheoretische Diskursart prallt danach disharmonisch und unüberbrückbar heterogen auf die ökonomisch-politische oder ausbildungstheoretische, wenigstens hinsichtlich ihrer originären Intentionen, Zwecke und Ansprüche. Ihre zunächst logische, sogleich aber auch soziale Zuspitzung bekommt diese Theorie dadurch, dass alle Sprachspiele und Diskursarten zwar als vielfältig und heterogen, dabei aber als gleichwertig und gleichberechtigt bestimmt werden. Die zwingende Folge davon ist, dass kein Sprachspiel und keine Diskursart denkbar sind oder bestehen, die im Sinne eines Metasprachspiels oder einer übergeordneten, höherwertigen Diskursart gleichsam wie ein Schiedsrichter geeignet wären, die streitend aufeinander treffenden Ansprüche mehrerer oder gar aller Beteiligten dauerhaft zu schlichten. Die Schlichtung wäre immer eine künstliche, weil um den Preis der Unterdrückung einseitiger Ansprüche erzeugte Harmonisierung, ein gewaltsam herbeigeführter und deshalb ein fauler Kompromiss. Entscheidend ist dabei, dass mögliche Fragen und Problemstellungen der einen Diskursart in der anderen nicht nur nicht beantwortet oder gelöst werden können, sondern dass sie dort gar nicht erst auftauchen und gestellt werden. Aus sprachlogischer Perspektive entsteht dadurch ein unauflösbarer Widerstreit, auf der sozialen Ebene äußert sich dieser Widerstreit als Ungleichheit und manifestiert sich vielfach als Unrecht. 38 Die Übertragung sprachanalytischer bzw. sprachlogischer Resultate auf das im weiteren Sinne normative Feld sozialen Handelns und umgekehrt dessen Reduktion und Verkürzung allein auf sprachliche Strukturen durch Lyotard ist in der früh einsetzenden Diskussion ebenso ausführlich kritisiert worden wie Lyotards eigene Andeutungen ethischer oder ästhetischer Bewältigungen dieser Probleme. Man kann und hat nicht übersehen, dass im unvermittelten, vielleicht unvermittelbaren Aufeinandertreffen solcher und ähnlicher pluralitäts- und heterogenitätstheoretischer Rigidität etwa mit den kommunikationstheoretischen 37 38
Vgl. Lyotard (1987) und Fromme (1997). Vgl. Koller (1999).
„Die Sprachen der Bildung“
177
Idealen oder Appellen die Verabschiedung modernen Denkens durch postmodernes oder radikal modernes Denken auf dem Spiel stehen könnte. 39 Die philologischen Durchgänge zusammenfassend könnte man die These formulieren, dass die postmoderne Situationsbeschreibung der Sprachen der Bildung als Höhepunkt der angedeuteten Entwicklungslinie semantischer Pluralisierung von Humboldt über Nietzsche bis in die Gegenwart zu lesen ist. Mit diesem Resultat, so ließe sich die These weiterdenken, ist die heutige Lage in der wissenschaftlichen und öffentlichen Diskussion über Bildung angemessen und auch treffsicher beschreibbar. Das hier nur skizzenhaft nachgezeichnete postmoderne Denken hat jedoch mit der Diagnose umfassender faktischer Pluralität mit Blick auf die Sprachen der Bildung zugleich eine offensichtliche Problemlage im Umgang mit dieser Pluralität entstehen lassen, die abschließend unter der Überschrift „Chancen und Risiken“ in Ansätzen diskutiert werden soll.
IV. Chancen und Risiken Semantische Pluralität und Mehrdeutigkeit sind tendenziell wohl auch außerhalb der beschriebenen Entwicklungslinie, ihrer Markierungen und Zuspitzungen, anzutreffen, und ihre Faktizität heute dürfte kaum hintergehbar sein. Aus der einen Sicht erscheint es als ein Merkmal, ja eine Errungenschaft gegenwärtiger und liberaler Gesellschaften, dass in ihnen eine Pluralität von widerstreitenden, konkurrierenden und dissonanten Bedeutungen, Wertvorstellungen, Leitbildern, Idealen, Weltorientierungen, Lebensentwürfen und manchem anderen vorherrscht. Dabei ist nicht ausschlaggebend, ob man diese Pluralität als einen Verlust von Eindeutigkeit und Verbindlichkeit bzw. als Risiko der Beliebigkeit beklagt, oder stattdessen als eine Ressource gesellschaftlicher Kreativität, d. h. als Gewinn und Chance begrüßt. Ungeachtet solcher Bewertung handelt es sich, noch einmal betont, nicht um eine denkmögliche oder wünschbare, sondern um eine historisch entwickelte, eine faktische Pluralität, die nicht ohne Verlust an oben erwähnter Liberalität zugunsten einer wie auch immer gearteten Einheit, Eindeutigkeit und Verbindlichkeit überwunden oder aufgegeben werden kann. Aus einer anderen Sicht erscheint die Pluralität der Sprachen der Bildung allerdings zwei Gefahren ausgesetzt zu sein, die eng beieinander liegen. Die eine Gefahr ist, gleichsam von innen, das Risiko des Referenzverlustes, die andere, gleichsam von außen, das Risiko der Depluralisierung. Kaum jemand wird heute daran festhalten, nur einen Begriff von Bildung so zu favorisieren, dass er für jeden Kontext angemessen wäre und alleinige Gültigkeit beanspruchen könnte. In der gegenwärtigen Diskussion dieses „Megathemas“ ist der Begriff allerdings in derart inflationärer Weise in Verwendung, dass mitunter nicht nur 39
Vgl. Habermas (1988).
178
Andreas Poenitsch
für Fachleute unkenntlich wird, was damit gemeint ist bzw. welche Lage oder welches Problem als Referenzpunkt denn nun – erinnert sei an die Kritik am Bildungsgerede – verhandelt wird. Was in Pädagogik, Soziologie und Psychologie, zudem in Politik, Recht und Wirtschaft bis hin zur öffentlichen Diskussion Unterschiedliches, in vielen Fällen Gegenläufiges bedeuten kann, bedeutet letztlich gar nichts mehr, es wird eine bedeutungsleere Worthülse, die ihre Herkunft vergessen und ihren Sinn, ihre Referenz verloren hat. Entsprechendes gilt für die Gefahr der Depluralisierung. Die Rede von Bildung ist gegenwärtig zwar Gegenstand verschiedener Sprachspiele und Diskursarten, an die Stelle des von Lyotard vorausgesetzten bzw. beanspruchten Gleichgewichts ist allerdings eine deutlich erkennbare Gewichtsverlagerung bzw. eine Hierarchie getreten, die aus Pluralität Uniformität und Einseitigkeit hat werden lassen. Ein offensichtliches Beispiel hierfür ist die alles andere als selbstverständliche Dominanz und Hegemonie der ökonomischen Diskursart, d. h. der auf Verwertbarkeit, Steuerbarkeit und Effektivität abzielenden Thematisierung von Bildung als Ausbildung, und zwar nicht allein gegenüber anderen Diskursarten, sondern zunehmend auch innerhalb der erziehungs- und bildungswissenschaftlichen Diskussion. Die wenn nicht exklusive, so doch primäre Sicht auf Bildung unter ökonomischen Voraussetzungen, Erwartungen und Folgen bedeutet einen eklatanten Pluralitätsverlust und damit einen Rückfall hinter die erreichte Vielfalt als Chance. Die lauter werdende Kritik am Bologna-Prozess, insbesondere in den gegenwärtigen studentischen Protesten, scheint auch von einem Gespür für diesen Verlust, für Einseitigkeit und Ausschließlichkeit, angetrieben zu sein. Wer angesichts solcher Problemlagen semantische Gehalte bzw. Semantikverschiebungen im Feld von Bildung als bloß konjunkturabhängige Phänomene und Prozesse herunterspielt, der leistet zum einen dem weiteren Referenzverlust Vorschub, zum anderen belegt und verfestigt er die Hegemonie einseitigen ökonomischen Denkens und dessen weitestgehend unbestrittener Definitionsmacht. Die knappe Diskussion der Chancen und Risiken einer so dargelegten „semantischen Pluralität“ kann sowohl Bedarf wecken als auch Platz schaffen für eine andere Auffassung von Bildung, die zwar nicht neu ist, gemessen an den vorherrschenden Perspektiven aber eher defensiv wirkt. 40 Die aufgezeigte Spannung zwischen der heute nicht mehr möglichen semantischen Eindeutigkeit auf der einen Seite und den Risiken von Referenzverlust und Rückfall hinter den erreichten Stand von Vielfalt auf der anderen Seite verlangt eine radikale Infragestellung und Problematisierung. In dieser Problematisierung könnten Chancen liegen für eine relativierende und perspektivische, skeptische und kritische Deutung von Bildung, die sich nicht in Hierarchien ein- bzw. unterordnen lässt, sondern ihrerseits die gegenwärtige Spitzenposition und Alleinherrschaft ökonomischen Vorstellens als bloß vermeintliche Selbstverständlichkeit durchdenkt 40
Vgl. Fischer (1989), Fischer / Ruhloff (1993), Ruhloff (1996).
„Die Sprachen der Bildung“
179
und entlarvt. Anders formuliert geht es um eine Bildung als „Selbständigkeit im Denken und Sprechen“ 41, die den historisch und systematisch erreichten Problemstand nicht dadurch unterbietet, dass sie semantische Gehalte einseitig setzt und verabsolutiert und damit andere an den Rand drängt oder, wie es gegenwärtig verbreitet geschieht, machtvoll und nur zögerlich widersprochen ausblendet.
Literatur Ballauff, Theodor (2004): Pädagogik als Bildungslehre, 4. Auflage aus dem Nachlass, hrsg. von Andreas Poenitsch und Jörg Ruhloff, Baltmannsweiler. Dörpinghaus, Andreas / Poenitsch, Andreas / Wigger, Lothar (2009): Einführung in die Theorie der Bildung, 3. Aufl., Darmstadt. Fischer, Wolfgang (1989): Unterwegs zu einer skeptisch-transzendentalkritischen Pädagogik. Ausgewählte Aufsätze 1979 – 1988, Sankt Augustin. Fischer, Wolfgang / Ruhloff, Jörg (1993): Skepsis und Widerstreit. Neue Beiträge zur skeptisch-transzendentalkritischen Pädagogik, Sankt Augustin. Fromme, Johannes (1997): Pädagogik als Sprachspiel. Zur Pluralisierung der Wissensformen im Zeichen der Postmoderne, Neuwied. Habermas, Jürgen (1988): Der philosophische Diskurs der Moderne. Zwölf Vorlesungen, Frankfurt / M. von Humboldt, Wilhelm (1979): Werke in fünf Bänden, hrsg. von Andreas Flitner und Klaus Giel, Stuttgart. Koller, Hans-Christoph (1999): Bildung und Widerstreit. Zur Struktur biographischer Bildungsprozesse in der (Post-)Moderne, München. Kopperschmidt, Josef / Schanze, Helmut (Hrsg.) (1994): Nietzsche oder „Die Sprache ist Rhetorik“, München. Lyotard, Jean-Francois (1986): Das Postmoderne Wissen. Ein Bericht, Graz und Wien. Lyotard, Jean-Francois (1987): Der Widerstreit, München. Nietzsche, Friedrich (1980): Sämtliche Werke, Kritische Studienausgabe in 15 Bänden, hrsg. von Giorgio Colli und Mazzino Montinari, München. Poenitsch, Andreas (1992): Bildung und Sprache zwischen Moderne und Postmoderne, Essen. Poenitsch, Andreas (2004): Bildung und Relativität. Konturen spätmoderner Pädagogik, Würzburg. Poenitsch, Andreas (2009): Sprache, in: Niemeyer, Christian (Hrsg.): Nietzsche-Lexikon, Darmstadt, S. 333 f. Rorty, Richard McKay (Hrsg.) (1992): The Linguistic Turn. Essays in Philosophical Method, Chicago. 41
s. Fn. 5.
180
Andreas Poenitsch
Ruhloff, Jörg (1996): Bildung im problematisierenden Vernunftgebrauch, in: Borrelli, Michele / Jörg Ruhloff (Hrsg.): Deutsche Gegenwartspädagogik, Bd. 2, Baltmannsweiler, S. 148 ff. Ruhloff, Jörg (2006): Bildung und Bildungsgerede, in: Vierteljahrsschrift für Wissenschaftliche Pädagogik, Heft 82, S. 287 ff. Ruhloff, Jörg / Poenitsch, Andreas (Hrsg.) (2004): Theodor Ballauff – Pädagogik der „selbstlosen Verantwortung der Wahrheit“, Weinheim und München (Pädagogische Klassiker des 20. Jahrhunderts, hrsg. von Volker Ladenthin und Jürgen Rekus). de Saussure, Ferdinand (1931): Grundfragen der allgemeinen Sprachwissenschaft, Berlin und Leipzig. von Seggern, Hans-Gerd (2009): Rhetorik, in: Niemeyer, Christian (Hrsg.): NietzscheLexikon, Darmstadt, S. 305. Tenorth, Heinz-Elmar (1996): Normalisierung und Sonderweg – Deutsche Erziehungswissenschaft in historischer Perspektive, in: Borrelli, Michele / Jörg Ruhloff (Hrsg.): Deutsche Gegenwartspädagogik, Bd. 2, Baltmannsweiler, S. 170 ff. Wittgenstein, Ludwig (1984): Werkausgabe in 8 Bänden, Frankfurt / M.
Spiritualität oder ökonomisches Kalkül – was brauchen moderne Unternehmen und Führungskräfte? Von Marcelo da Veiga 1 Ein Wirtschaftsunternehmen muss, um nachhaltig zu bestehen, sich am Markt behaupten und seinen Gewinn maximieren. Es muss seine Produkte und Dienstleistungen am Bedarf der Kunden orientieren und darum bemüht sein, entweder seine Kundschaft zu halten oder neue Kunden zu gewinnen. Kein Wirtschaftsunternehmen kann diese Logik umgehen. Es kann mittel- und langfristig nur bestehen, wenn es dieses Prinzip beachtet. Wer nicht geschäftstüchtig ist, verspielt zwangsläufig auch die Möglichkeit bzw. die Fähigkeit, Geschäfte zu machen, denn er hört auf zu bestehen. Um die Geschäftsfähigkeit zu erhalten, ist ökonomisches Kalkül erforderlich. Das ökonomische Kalkül, aus dem Wenigsten das Meiste zu machen oder mit knappen Ressourcen so effizient wie möglich umzugehen, ist eine Herausforderung, die sich im täglichen Geschäftsbetrieb stets aufs Neue stellt und die den Bestand und die Fortentwicklung eines Unternehmens sichern hilft. Das Streben nach Vorteil und Gewinn ist eine wichtige Triebfeder im Wirtschaften. Jeder Betrieb, aber auch jeder Kunde will möglichst für sich vorteilhafte Geschäfte machen. In einem Unternehmen oder Betrieb betrifft das nicht nur den Einsatz der Produktions- und Betriebsmittel, sondern auch den Einsatz der Mitarbeiter: Ein klug geleitetes Unternehmen wird nur so viel Material einkaufen und lagern, wie es tatsächlich für die Produktion benötigt, und es wird auch nur die Maschinen und Betriebsmittel anschaffen, die für die Warenerzeugung und die Ermöglichung ihres Absatzes erforderlich sind. Es würde, dem ökonomischen Kalkül folgend, im Normalfall nicht einfach Maschinen kaufen, um eine andere Firma zu fördern. Es hat ökonomisch in der Regel auch keinen Sinn, Mitarbeiter zu beschäftigen, wenn kein Bedarf besteht, es sei denn, das ökonomische Kalkül ergibt, dass es sich nur um die Überbrückung eines kurzfristigen Deltas handelt und der Mitarbeiter mittelfristig doch gebraucht wird. Wenn die Kosten, sich 1 Prof. Dr. Marcelo da Veiga ist Rektor der Alanus Hochschule für Kunst und Gesellschaft. Der folgende Beitrag ist die erweiterte Fassung des Vortrags an der Universität Leipzig am 3. Dezember 2009. Der Vortragsstil wurde beibehalten, der Text um Literaturund Quellenhinweise ergänzt.
182
Marcelo da Veiga
später einen neuen Mitarbeiter zu suchen, höher sind als die Kosten, ihn für die Zeit zu halten, in der keine Arbeit anfällt, dann ist es ökonomisch sinnvoll, so zu verfahren. Das ökonomische Kalkül scheint somit ein ebenso nüchternes, fast mechanisches Prinzip zu sein wie etwa auch der weit verbreitete Grundsatz, immer das Billigste zu kaufen und somit ethische oder rein menschliche Erwägungen auszuschließen. Ich verzichte an dieser Stelle auf die Diskussion über Definitionen der Ethik als z. B. der philosophischen Disziplin, die das menschliche Handeln untersucht und normative Kriterien für das gute bzw. schlechte Handeln aufstellt. Das würde hier nicht erheblich weiter führen, da es mir an dieser Stelle eher darum geht, eine eigene inhaltliche Positionierung vorzunehmen. Menschlichkeit und Ethik sind Kategorien, die sich auf das Denken und Handeln des Menschen anwenden lassen, und insofern das Denken eine bestimmte Form des Handelns ist, könnte man sie auch nur auf das Handeln beschränken. In Situationen, in denen nicht gehandelt wird oder kein Handeln gefordert ist, hat die Frage nach ethischen Kriterien keinen Sinn. Es ist aber dennoch nicht immer ganz leicht, eindeutig zu sagen, worin ethisches oder menschliches Tun und Verhalten genau besteht oder bestehen könnte. Negativ gesehen könnte man etwa sagen, dass ethisches Handeln nicht darin bestehen kann, jemandem oder etwas zu schaden oder gar etwas um der Zerstörung willen zu zerstören oder, insofern es einen eigenen Willen hat, ohne vernünftige Gründe über es zu verfügen. (Mögliche Gründe über jemanden zu verfügen könnten sein, dass ein unmündiges Kind Dinge tun will, die es schädigen, oder dass ein Erwachsener eingesperrt wird, weil er für andere eine Bedrohung ist oder er zuvor, z. B. bei einer Operation, darin eingewilligt hat.) Positiv könnte man umgekehrt ethisches Handeln darin sehen, sich einem Ding, einer Situation oder einem Wesen gegenüber so zu verhalten, dass es durch dieses Verhalten in seiner Existenz und der Entwicklung seiner Eigenart seinem Wesen entsprechend gefördert bzw. seine Selbstbestimmung geschützt und ermöglicht wird. Das ist natürlich nur ein ungefähres Kriterium, um eine Richtung anzudeuten, da man sich m. E. letztlich mit Aristoteles damit abfinden muss, dass es auf dem Gebiet der Ethik eine mathematische Genauigkeit nicht gibt. Die Frage nach dem richtigen Handeln ist nämlich komplex und nimmt auch unterschiedliche Gestalt an, je nachdem, ob man es mit einem Artefakt (z. B. einem Kühlschrank), einer Pflanze, einem Tier oder einem Menschen zu tun hat. Sie kann sich aber auch anders stellen, je nachdem, wer jeweils handelt. Wie differenziert auch immer man die Sache betrachten mag, man wird nur dann von menschlichem oder ethischem Handeln sprechen können, wenn man
Spiritualität oder ökonomisches Kalkül
183
sich zu den Dingen und Wesen so zu verhalten sucht, dass man dabei die jeweilige Beschaffenheit, Natur oder die Wesensmerkmale des anderen in das eigene Handeln aufnimmt und den Dingen nicht einfach die eigene Beschaffenheit, die eigenen Absichten oder den eigenen Zustand aufzwingt. Das Richtige für das Tun ergibt sich – und das macht die theoretische Unschärfe der Ethik aus – immer nur aus und in der konkreten Situation, in der das Handeln stattfindet, und auch nur mit Blick auf die Akteure und Betroffenen. Es kann daher nur bedingt verallgemeinert werden. Das soll jedoch nicht heißen, dass kategorische Verbote unter bestimmten Bedingungen nicht erforderlich und hilfreich wären, aber Handlungen zielen nicht darauf, etwas zu vermeiden, sondern sie wollen etwas erreichen und bewirken. Weit wichtiger als Regeln des Unterlassens und Tuns ist es daher, Interesse am und Erkenntnis des Anderen zu entwickeln und eine sensible Geistesgegenwart für seine Möglichkeiten und Beschränkungen. Das Richtige zu tun, bleibt stets ein situatives Problem, für das es keine theoretische Lösung gibt. Theorie ist aber insofern wichtig und hilfreich, als sie den geistigen Hintergrund kultiviert, aus dem unser Tun hervorgeht. In der Goldenen Regel, dem weltgeschichtlich wohl frühesten universellen Moralprinzip, sind diese Gesichtspunkte wirksam und auch in dem spezifisch christlichen Gebot der Nächstenliebe (Mt 7, 12 und Lk 6, 31). Allerdings wird die Goldene Regel häufig in einem negativen Sinne, als Unterlassungskriterium interpretiert, das sagt, was man nicht tun soll: „Was du nicht willst, das man dir tu‘, das füg‘ auch keinem andern zu“, während das christliche Gebot zwar nicht im Einzelnen sagt, was zu tun ist, aber doch einen positiven Appell an die schöpferische Phantasie darstellt, im Einzelfall entsprechende Handlungen zu erfinden und auszuführen. Das ökonomische Kalkül ist als handlungsleitendes Prinzip, wie gesagt, aus meiner Sicht nicht prinzipiell unethisch, denn es liefert eine gewisse Richtschnur für das, was nützlich ist und so dazu beiträgt, den Bestand eines Unternehmens zu sichern. Es ist aber für sich gesehen lediglich ein formales Prinzip, sozusagen ein Gerippe, das, wenn es nicht in einen inhaltlichen Kontext gestellt wird, nackt und gespenstisch wirkt. Es steht daher zu Recht unter Verdacht, blind zu sein für die Komplexität der Wirklichkeit und daher anfällig dafür, den Menschen, aber auch andere Wesen nicht in ihrer jeweiligen Eigenart zu beachten. In Bezug auf seinen Zweck, größtmögliche Effizienz zu erreichen, sieht es in allem nur ein Mittel oder ein Hindernis. Das ökonomische Kalkül bedarf daher der inhaltlichen Ergänzung durch Gesichtspunkte, die seinen eigenen, vergleichsweise engen Horizont übersteigen. Eine solche Ergänzung kann beispielsweise ein ökologisches oder soziales Anliegen sein, in Form des Ideals, z. B. die Naturgrundlage zu bewahren und nicht unnötig zu strapazieren oder den Menschen mit guten Produkten wirtschaftlich
184
Marcelo da Veiga
zu dienen. Das ist aber nur ein Anfang. Weitaus stärkere Richtkräfte erwachsen aus dem Versuch, umfassendere Ideen und Anschauungen auszubilden, die Natur und Mensch in einen größeren Entwicklungs- und Sinnzusammenhang zu stellen vermögen. Ich komme an dieser Stelle zum zweiten Aspekt meines Beitrags, zum Thema Spiritualität. Spiritualität ist ein Ausdruck, der durch seinen geradezu inflationären Gebrauch inzwischen leider etwas unpräzise erscheint, weshalb man sich zunächst darauf verständigen muss, was man damit meint. In dem Wort Spiritualität steckt das lateinische Wort spiritus, also Geist. Der Geist gerät in den Blick, wenn man einen Sinn für umfassende und letzte Fragen entwickelt. Das ist vor allem möglich durch Ideenbildung. Ideen sind inhaltliche Perspektiven und Hinsichten auf große Horizonte. Wer Ideen entwickelt, sieht das Mögliche, das noch nicht ist, aber auch den umfassenden Zusammenhang, in den die Dinge gestellt sind. Ideen sind Geist. Geist eröffnet sich aber auch durch den Blick auf das Allgemeine und Schöpferische in den Dingen, wie etwa im Falle der goetheschen Urpflanze, einer Idee, die das den einzelnen Pflanzen zugrunde liegende allgemeine Prinzip ihrer Bildung meint. Ich gebrauche also das Wort Spiritualität nur zur Bezeichnung einer menschlichen Haltung, die Offenheit und Interesse für umfassende Ideen und für den Geist im Sinne des Schöpferischen und Beweglichen in den Dingen meint. Das Wort Geist ist nicht nur eine Metapher für das Schöpferische, für das Bildende, Gestaltende und Ermöglichende. Es meint auch das Subtile und Sublime in der Wirklichkeit, das sich dem groben Blick entzieht und eine besondere Form des Hinsehens und Hinhörens erfordert. In seiner mystischen Bedeutung ist es das Profunde und Verborgene in den Dingen, das Seelenvertiefung beim Betrachter erfordert, um erfahren zu werden. In den Ideen gewinnt der Geist Gestalt im menschlichen Denken. Sie befähigen den Menschen in der Erkenntnis zur Überschau und dazu, große Zusammenhänge zu sehen. Im Handeln ist die Idee die Fähigkeit zur realistischen Vision im Sinne eines Blicks für das, was in Zukunft sein soll oder sein kann. Ideen nehmen die Zukunft vorweg oder organisieren und orientieren individuelles und kollektives menschliches Handeln. Vorstellungen sind hingegen konkret und limitiert und bestimmen das Handeln im Kleinen. Als Beispiel mag die Idee der Freiheit dienen: Freiheit ist kein Ding oder Gegenstand, Freiheit ist ein ideeller Gehalt, den ich denken und fühlen muss. Erst dann wird sie erlebbar und in diesem Sinne auch real. Freiheit liegt nicht als materielle Realität irgendwo vor, sondern ist eine beständige Herausforderung, die materiell umgesetzt werden muss, und insofern ist sie eine Richtkraft für das individuelle und gesellschaftliche Leben. Auf Freiheit und Selbstbestimmung beruht die Würde des Einzelnen; in ihrem Namen haben sich die Menschen im Jahre 1789 bewegen lassen, das alte Regime in Paris zu stürzen. Motiviert durch die Idee der Freiheit waren aber auch die, die 1989 die Berliner Mauer durchstoßen haben. Freiheit treibt auch den Pubertierenden, sich von seinen Eltern zu lösen, um selbstständig zu werden.
Spiritualität oder ökonomisches Kalkül
185
Eine andere große Idee ist die der Gerechtigkeit. Gerechtigkeit ist das erhabene Ziel der platonischen Staatslehre, aber unabhängig von Platon wird man wohl zugestehen, dass Gerechtigkeit als Leitbild und Richtkraft in menschlichen Gesellschaften unverzichtbar ist. Gerechtigkeit ist ein umfassendes ideelles Prinzip, das einerseits einen Vorgang oder Zustand beschreiben kann, aber weitaus häufiger ist es eine Richtkraft, die angibt, wohin sich ein Zustand entwickeln muss. Ideen können aber, wie gesagt, nicht nur das Handeln des einzelnen Menschen bewegen und ausrichten, sondern sie verbinden auch die Menschen zu Wertgemeinschaften. In einer Idee wie der der Freiheit können sich Menschen in ihrem Handeln verbunden fühlen, und zwar gleichermaßen in Bezug auf die Grundlage wie auf das Ziel ihres Handelns. Die verbindende und verknüpfende Funktion von Ideen wird jedoch besonders klar ersichtlich im Fall der Erkenntnisideen. Die Idee der Evolution ist ein Organ, ein Instrument, um eine unendliche Vielfalt von Wesen und Vorkommnissen aufeinander zu beziehen und als zusammengehörig zu betrachten. Im Lichte der Evolutionsidee gibt es nicht nur nebeneinander bestehende Einzelwesen und Arten, sondern Entwicklungen, in denen eine aus der anderen hervorgeht. Evolution denken heißt, eine große Menge von Fakten zusammen zu denken. In gleicher Weise überträgt die Idee der geistigen oder kulturellen Entwicklung den Gedanken der Evolution der biologischen Arten auf das Individuum oder ganze Völker und Gesellschaften in ihrem kulturellen Werden. Sie ist eine Erkenntnisidee, die darauf zielt, Sinn und Zusammenhang, aber auch Bedeutung in die Lebensereignisse zu bringen. Das gilt generell für alle Erkenntnisideen. Sie bringen Ordnung und Zusammenhang in die Vielfalt der Erscheinungen. Sie erklären Tatsachen und verknüpfen Einzelheiten zu einem sinnvollen Ganzen. Mit Spiritualität sind also die Offenheit und der Sinn für die zugrunde liegenden und übergreifenden ideellen Aspekte des Lebens gemeint. Als Haltung gedacht, ist sie Bereitschaft zu einer aktiven Suche nach dem, was über das Faktische und Momentane hinausführt und die großen Zusammenhänge im Sinne von Ordnungs-, Bedeutungs- und Wertkontexten sichtbar macht. Wer also in diesem Sinne spirituell, d. h. sensibel ist für Geistiges, der interessiert sich nicht nur für die analytische Seite des Denkens, den Verstand, welcher die Dinge nach Maß, Zahl und Gewicht oder nach Dauer und Geschwindigkeit usw. mathematisch bestimmt und voneinander unterscheidet, sondern auch für die verbindende und Zusammenhang stiftende Kraft des Denkens, also die Vernunft. Er sucht nach dem Sinn und der Bedeutung dessen, was er erlebt. Insofern der Zusammenhang dafür verantwortlich ist, dass der Mensch Sinn und Bedeutung empfindet, führt der Sinn für das Geistige dazu, dass solche Qualitäten für die Lebensführung relevant werden.
186
Marcelo da Veiga
Der technisch-mathematische Verstand ist heute vorherrschend. Verbindet er sich mit dem ökonomischen Kalkül, dann kann er in der Gestaltung solcher Arbeits- und Leistungsgemeinschaften, wie Unternehmen es ja letztlich sind, insofern zum Problem werden, als dann nur noch die Verwertbarkeit von Dingen und Menschen im Hinblick auf das zum Selbstzweck gewordene Wachstumsund Profitstreben berücksichtigt wird. Wachstum und Profit können ein probates Mittel des Wirtschaftens sein, aber sie sind nicht sein Zweck. Das wäre ungefähr so, wie wenn jemand nicht äße, um sich zu ernähren, sondern lediglich, um zu essen. Eine Wirtschaft, die um ihrer selbst willen betrieben wird, ist ungesund und produziert auch entsprechende Krankheitssymptome, die natürlich auch verdrängt werden können, wie uns das aus dem ungesunden persönlichen Verhalten auch bekannt ist. Das Grundproblem, das hierbei entsteht, ist, dass der, dem die Wirtschaft dienen soll, zu ihrem Diener wird: der Mensch. Die Symptome der fehlgeleiteten Wirtschaft sind an den großen, die künftige Menschheit bedrohenden Krisen zu studieren. Ich will hier nur − die ökologischen Krise − die soziale Krise − die Finanzkrise − die Kulturkrise erwähnen und sie später kurz erläutern. Zunächst möchte ich meine Grundthese vorausschicken: Wirtschaft braucht einen wertbildenden Bezugsrahmen, den sie selbst nicht erzeugen kann. Wirtschaft selbst hat ausschließlich die Aufgabe, bei knappen und endlichen Ressourcen, denen aber sich stets erneuernde Bedürfnisse gegenüberstehen, das materielle Überleben des Menschen möglichst effizient so zu organisieren, dass sie entsprechende bedarfsgerechte Güter und Dienstleistungen erzeugt und den Konsumenten zuführt. Mehr nicht! Dass die Wirtschaft stattdessen zu einem Prozess geworden ist, der den Menschen vielfach verachtet, ihn bloß benutzt und letztlich sich sogar selbst zersetzt, liegt weniger an der Wirtschaft, als daran, dass kein ausreichendes Bewusstsein davon besteht, dass eine Relativierung des einseitigen Strebens nach materiellem Gewinn und Profit nur aus dem Erleben kraftvoller ideeller Kulturwerte erwachsen kann. Aber nun zunächst kurz zu den Krisen: Man kann sie aus meiner Sicht als Ausdruck mangelnder spiritueller Kompetenz im obigen Sinne verstehen. Die ökologische Krise resultiert aus der Unfähigkeit oder Weigerung, den Zusammenhang ins Auge zu fassen zwischen dem, was die Menschen seit ca. 250 Jahren industriell und wirtschaftlich mit der Natur tun, und seinen Konsequenzen für die jetzigen und künftigen Generationen. Man hat in der Industrialisierung und im Verfolgen des wirtschaftlichen Fortschritts lange nur auf die unmittelbare Verwertung der Natur für die momentanen materiellen Bedürfnisse des Menschen geblickt. Der wirtschaftliche Aufschwung der westlichen Welt verdankt
Spiritualität oder ökonomisches Kalkül
187
sich sogar der Tatsache, dass das Konsum- und damit das Einkaufbedürfnis der Menschen zunächst künstlich aufgeheizt und schließlich sogar zum lifestyle erhoben worden ist. Der materielle Fortschritt wurde so zum Selbstzweck und am Ende zur sozialen Notwendigkeit hochstilisiert: Wer konsumiert, kurbelt die Wirtschaft an, schafft auf diese Weise Arbeitsplätze und ist folglich sozial. Wer sparsam ist und nicht oder nur wenig konsumiert, dämpft die Konjunktur und ist asozial. Wer viel Geld ausgibt, ist ein Freund seiner Mitmenschen, wer sparsam ist, ist Egoist. So lautet die sozial verbrämte Formel des Konsumismus. Für die Natur und den Menschen bedeutet die Konsumspirale zwangsläufig Raubbau, der sich dadurch zunehmend beschleunigt, dass die rasant angewachsene staatliche und private Verschuldung der letzten Jahrzehnte stets neues und höheres Wachstum fordert, um die alten Schulden mit neuen Schulden in Schach zu halten. Hier fehlt offenbar der Blick vom Ganzen der Idee auf das Einzelne. Andererseits löst man die ökologische Krise auch nicht allein damit, dass man sich darauf beschränkt, Naturverschleiß zu vermeiden, indem man fortfährt wie bisher und dabei lediglich Ressourcen schonender vorgeht. Das ist ja die zurzeit praktizierte Lösung: stetiges Wachstum, aber mit tatsächlich oder vermeintlich erneuerbaren Ressourcen. Ein wirklich vertieftes Verständnis der Natur wird hiermit immer noch verfehlt, denn eine solche Haltung versäumt es, die Natur als Ort einer geistigen Entwicklung des Menschen zu begreifen, und ferner mangelt ihr die Einsicht, dass der Mensch nicht durch materiellen Konsum reicher wird, sondern durch geistige Produktivität, d. h. durch immaterielle Kultur. Aus einem solchermaßen erweiterten Blickwinkel hingegen würde man begreifen, dass die Natur nicht nur für den momentanen materiellen Konsum die Ressourcen liefert, sondern auch die Grundlage für die geistige Entwicklung des Menschen überhaupt darstellt. Mit einer solchen Idee könnte es zu einer grundsätzlich anderen Haltung kommen, die auch zeigt, dass der bloße Naturerhalt ebenso unsinnig ist wie die Naturausbeutung. Die soziale Krise innerhalb einzelner Gesellschaften, aber vor allem in der globalen Gesellschaft ist die Folge der gleichen Bewusstseinsverweigerung und Ideenblindheit auf einem anderen Feld. Sie ergibt sich aus der Annahme, dass Wirtschaftssysteme grundsätzlich nach einem Wettkampfprinzip funktionieren, wobei es darauf ankommt, dass der Einzelne Reichtum und Wohlstand entweder ererbt oder sich mit ein bisschen Fortune erarbeiten soll. Für gute Startbedingungen sind entweder familiäre oder staatliche Strukturen erforderlich, die eine entsprechende Bildung ermöglichen, die allein wiederum den Erfolg in der Wissensgesellschaft garantieren kann. Hieraus entsteht ein allgemeiner Wettlauf, bei dem nicht das Leistungsprinzip das Falsche ist, sondern die Tatsache, dass die große Mehrheit auf der Stecke bleibt. Die Wirtschaftssysteme sind darauf angelegt, dass der Sieger besser ist als alle anderen. Es gibt wenige so genannte Sieger aber sehr, sehr viele Verlierer, vor denen die Sieger dann geschützt werden sollen – etwa durch die Zäune zwischen den USA und Mexiko oder in Nordafrika,
188
Marcelo da Veiga
durch die Patrouillen im Mittelmeer oder durch drakonische Strafen. Ein solches Verständnis von Bildung als Mittel, um sich Wettbewerbsvorteile zu verschaffen und wirtschaftlich erfolgreicher zu sein als andere, verkürzt den Geist wiederum auf seine zweckrationale Nutzung für den materiellen Wohlstand und raubt ihm somit die Kraft, als etwas Verbindendes zu wirken. Die gegenwärtige, durch beispiellos neue staatliche Verschuldungsprogramme kaschierte Finanzkrise 2 beruht auf der Loslösung der Finanzströme von den realen wirtschaftlichen Gegebenheiten. Vor dem Horizont der materialistischen Perspektivenarmut ist das Geldmachen ohne wirkliche Wertschöpfung eine konsequente und logische Folge. Wenn es nur oder vor allem darum geht, wirtschaftlichen Profit zu machen, dann erscheint ein solches Vorgehen auch durchaus naheliegend. Nur die Vorstellung, dass am Ende keiner mehr gewinnt, könnte in dieser Logik zum Umdenken zwingen. Wirkliches Umdenken wird aber auch hier erst dann stattfinden, wenn man Finanzwirtschaft im größeren Kontext zu betrachten versucht und sich nach dem Sinn des Geldes und der Funktion und dem Stellenwert von Wirtschaft für den einzelnen Menschen und die Gesellschaft fragt. Die beschriebene Loslösung der Finanzwirtschaft von der Realwirtschaft betrifft auch den staatlichen Sektor, denn auch ganze Staaten stellen seit längerem immer häufiger Wechsel auf eine sehr ungewisse Zukunft aus. Was realwirtschaftlich zu erwarten ist, ist angesichts der ökologischen und sozialen Krisen nur schwer absehbar. Allerdings ist eines klar, dass nämlich ständiges Wachstum auf einem begrenzten Planeten nur schwerlich als aussichtsreiche Lösung gelten kann. Aber auch die wählende Bevölkerung beteiligt sich an dem Hasardspiel, denn sie zwingt die Politik zu immer neuen Versprechungen, die möglicherweise auf unsicheren Grundlagen kurzfristig zu erreichen sind, sich langfristig jedoch als finanzwirtschaftliches Kartenhaus herausstellen werden. Die weltweite Überschuldung der Staatshaushalte baut die heutige Weltwirtschaft auf dem Treibsand einer permanenten Umschuldung von Krediten, die nie mehr zurückgezahlt werden können. Es ist wie ein Blutkreislauf, der immer schneller fließen muss, um die letzten Reste an Sauerstoff zu befördern. Hinter diesen Krisen aber steht – so abwegig es vielleicht klingen mag, aber ich nehme mir die akademische Freiheit, es dennoch auszusprechen – m. E. eine Kulturkrise. Denn Kultur findet sich im Wie des Umgangs des Menschen mit sich selbst, den anderen und seiner Umgebung. Wenn materieller Wohlstand das Ziel ist und Bildung darauf zielt, sich im weltweiten Wettlauf Wettbewerbsvorteile zu verschaffen, dann wird Kultur geistlos und dadurch öde und leer. Alles tritt in den Dienst einer als Selbstzweck betriebenen Wirtschaft und wird allein durch seine Tauglichkeit, ihr zu dienen, legitimiert. Nun geht es nicht darum, auf materiellen Wohlstand zu verzichten, sondern darum, ihn in den Dienst von etwas anderem zu stellen, und das ist m. E die 2
Vgl. Eichhorn / Sollte (2009).
Spiritualität oder ökonomisches Kalkül
189
Bildung des Menschen zum Menschen; man könnte sie auch die geistige Selbstschöpfung des Menschen durch Kunst, Wissenschaft und Religion nennen. Die Kulturkrise ist nicht durch die Wirtschaft verursacht, sondern umgekehrt: Die kulturelle Schwäche hat die beschriebenen Probleme zur Folge. Am Umgang mit der Wirtschaft und sozialen Fragen würde sich etwas ändern, wenn es hier zu einem Umdenken käme. Die Kulturkrise, auf die ich zum Abschluss kurz verweisen möchte, ist lange Zeit latent geblieben, hat aber nunmehr eine gefährliche Erscheinungsform im West-Ost-Konflikt angenommen. Hinter dem fundamentalistischen Terrorismus steht die Forderung, der Anspruch, der verzweifelte Versuch, der westlichen existentiellen Leere durch bedingungslose Unterwerfung unter ein religiöses Dogma zu entkommen. Im Fundamentalismus werden Wahrheiten einfach aufgestellt und verkündet. Der Westen stellt dem Fundamentalismus aber gegenwärtig keinen aufgeklärten Geist gegenüber, sondern nur eine Liberalismus genannte konsumistische Geistlosigkeit. Die Folge ist die wechselseitige Aufstachelung der beiden Extreme zu immer neuen Gewalt- und Überwachungsspiralen. Der Fundamentalismus setzt dem westlichen Überleben um des vergänglichen Daseins willen das Sterben um eines vermeintlich unvergänglichen Seins willen entgegen. Spiritualität, im Sinne des oben beschriebenen besonnenen Interesses für das Geistige, ist eine Fähigkeit, die m. E. immer wichtiger werden wird, um mit den Fragestellungen und Herausforderungen der heutigen Zeit fertig zu werden. Führungspersonen und ihre Unternehmen oder Einrichtungen werden immer mehr von den beschriebenen Krisen eingeholt und müssen damit umgehen können. Eine bewusste Vorbereitung darauf oder eine systematische Pflege entsprechender Fähigkeiten gibt es bislang nicht. Eine Führungskraft steht aber heute vor der Herausforderung, das ökonomische Kalkül durch spirituelle Fähigkeiten zu ergänzen, wenn es darum geht, dem Menschen und seinen besonderen Entwicklungsbedingungen gerecht zu werden.
Literatur Eichhorn, Wolfgang / Sollte, Dirk (2009): Das Kartenhaus Weltfinanzsystem, Frankfurt/M.
Sinn geben und / oder Sinn finden? Zur Orientierungssuche in der Wissensgesellschaft Von Matthias Petzoldt 1 Wenn in wirtschaftlichen und wirtschaftswissenschaftlichen Zusammenhängen die Sinn-Frage gestellt wird, ist das ein bemerkenswerter Tatbestand. 2 Auf diesem Kongress ist ausdrücklich hierfür Track 5 eingerichtet worden „Kultur & Sinngebung“. Dass dazu Vertreter aus der Philosophie und Theologie eingeladen werden, kommt nicht von ungefähr. Auf diesen Zusammenhang werde ich noch zu sprechen kommen. Ich stelle mich dieser Aufgabe als Theologe. Dass die Sinnfrage thematisiert wird, zeigt einen Orientierungsbedarf an. Ich behaupte: Mit der Orientierungssuche selbst steigen wir schon in die Sinnfrage ein. Dass es sich so verhält, soll mit dem folgenden Aufzeigen von Zusammenhängen sowie mit dem Vornehmen von Differenzierungen deutlich gemacht werden. Differenzierungen sind bereits angesagt, wenn – wie auf dem Kongress – die Gesellschaft unter dem Markenzeichen des Wissens zum Thema erhoben wird. Seit etwa zwei Jahrzehnten hat Jürgen Mittelstraß die Unterscheidung zwischen Verfügungs- und Orientierungswissen in die Diskussion eingebracht. 3 Alte, klassisch gewordene Unterscheidungen wie die zwischen Geistes- und Naturwissenschaften, die für heutige Verstehensbedingungen oft wenig plausibel erscheinen, werden mit dieser Unterscheidung weiterentwickelt. Mittelstraß erklärt: „Sach- und Verfügungswissen ist ein Wissen um Ursachen, Wirkungen und Mittel...“; es ist das Wissen, das Wissenschaft und Technik unter gegebe1
Prof. Dr. Matthias Petzoldt ist Inhaber des Lehrstuhls für Dogmatik an der Theologischen Fakultät der Universität Leipzig. Der folgende Beitrag stellt die erweiterte Fassung des Vortrags an der Universität Leipzig am 3. Dezember 2009 dar. Der Vortragsstil wurde beibehalten, der Text um Literatur- und Quellenhinweise ergänzt. 2 Ich erlebe dies nicht zum ersten Mal. Im Sommersemester 1999 habe ich mit Kollegen aus der Wirtschaftswissenschaftlichen Fakultät der Universität Leipzig ein interdisziplinäres Seminar durchgeführt zum Thema „Macht Geld Sinn – Geld als ökonomisches, soziologisches und theologisches Problem“. 3 Vgl. Mittelstraß (1989); Mittelstraß (1992); Mittelstraß (1994); Mittelstraß (2001).
192
Matthias Petzoldt
nen Zwecken zur Verfügung stellen. „Orientierungswissen ist ein Wissen um gerechtfertigte Zwecke und Ziele“ 4; gemeint sind Einsichten, die im Leben orientieren, z. B. als Orientierung im Gelände, in einem Fach, in persönlichen Beziehungen, aber auch solche, die das Leben orientieren und damit den „Sinn“ des eigenen Lebens ausmachen). „Sach- und Verfügungswissen ist ein positives Wissen, Orientierungswissen ist ein regulatives Wissen.“ 5 In jeder Wissenschaft findet sich beides: Verfügungs- wie Orientierungswissen. So umfasst zum Beispiel die Physik Kenntnisse (etwa über Begriffe, Definitionen, Gesetze und Verfahren) und Fähigkeiten (etwa die Beherrschung fachlicher Methoden zu Messungen usw.), die insgesamt ein instrumentelles Wissen ausmachen; ein Verfügungswissen, das beispielsweise in der Technik zur Anwendung gelangt. Physik umfasst aber auch Orientierungswissen, Kenntnisse etwa über die Eingriffsmöglichkeiten des Menschen in die Natur dank des Verfügungswissens und Fähigkeiten, etwa kommunikative Fähigkeiten, nämlich über die Auswirkungen solcher menschlichen Eingriffsmöglichkeiten in die Zusammenhänge der Natur sich austauschen zu können. 6 Wenngleich also Verfügungs- und Orientierungswissen zusammengehören, zeigen sich dennoch in den Wissenschaften charakteristische Schwerpunktsetzungen. So dominiert in den Naturwissenschaften das Verfügungswissen, insofern hier die Zusammenhänge der Natur den Untersuchungsgegenstand bilden, um dieselben sich zunutze machen und darüber verfügen zu können. In den Geisteswissenschaften hingegen bilden menschliche Kulturprodukte den Forschungsgegenstand: Texte, Artefakte verschiedenster Künste usw. Sie zu untersuchen geschieht mit der Zielstellung, (weit formuliert:) sie zu verstehen; also sich darüber auszutauschen und miteinander zu verständigen, wie Texte zu verstehen sind, aber auch wie Musik oder Bilder oder Skulpturen auf mich und auf andere wirken. Als Ziel wird hierbei verfolgt, im Orientieren an den verschiedensten Verstehensbemühungen sich miteinander zu verständigen. Ja, das Verständigungsmedium als solches – die Sprache – wird auf unterschiedlichste Art und Weise der Untersuchung unterzogen und nimmt einen großen Raum in den Geisteswissenschaften ein. Aus diesen Wissenschaften sind Philosophie und Theologie unter dem Gesichtspunkt herauszuheben, dass sie unter den Artefakten menschlicher Kultur in besonderer Weise Texte zum Gegenstand der Untersuchung machen, welche die menschliche Orientierungssuche selbst zum Inhalt haben und insofern mit ihren verschiedenen Lösungsangeboten Sinnpotentiale bereitstellen. Oft liegen solche Texte geschichtlich weit zurück. Denken wir nur an die heiligen Schriften 4 5 6
Mittelstraß (2001), S. 75 f. Mittelstraß (2001), S. 76. Vgl. hierzu Muckenfuß (2006), S. 58 – 72.
Sinn geben und / oder Sinn finden?
193
der Weltreligionen oder an die Werke großer Philosophen wie Konfuzius, Platon oder Aristoteles. Die Beschäftigung mit alten Texten wirkt auf diejenigen befremdlich, welche vorrangig mit dem Medium des Verfügungswissens zu tun haben. Denn bei ihnen zählen die Kenntnisse der neuesten Forschungsdaten und die Publikationen der neuesten Hypothesen. Den Erkenntnissen des Verfügungswissens ist unter dieser Dynamik eine schnelle Verfallsdauer eigen. Umso mehr erscheint es aus dieser Sichtweise kurios, wie andere Wissenschaften sich mit Texten befassen, die möglicherweise tausende von Jahren zurückliegen. Was soll das in der Gegenwart? Wer so fragt, übersieht leicht, dass in den Wissenschaftsdisziplinen Philosophie und Theologie sehr wohl immer neue Texte entstehen, weil immer neue Überlegungen zur Orientierung in einer sich ständig verändernden Welt angestellt werden. Doch knüpft das Orientierungswissen direkt oder indirekt an klassisch gewordenes Gedankengut aus alter Zeit an. Solche Texte gilt es im kulturellen Gedächtnis zu halten, weil sie auch in einer Welt von Nanotechnologie, steigender und sinkender Aktienkurse und bildgebender Verfahren in den Neurowissenschaften wertvolle Sinnangebote bereithalten. Vielleicht sind beim Zuhören schon Überlegungen darüber in Gang gekommen, wo die Wirtschafts- wie auch die Sozialwissenschaften einzuordnen sind: eher beim Verfügungswissen oder eher beim Orientierungswissen? Ich werde mich mit einer Erklärung zurückhalten. Wahrscheinlich fällt die Antwort unterschiedlich aus, je nachdem ob die Perspektive mehr auf die Einsichten – etwa in Marktmechanismen oder in das Zusammenspiel gesellschaftlicher Strukturen – als effektiv zu nutzender Kenntnisse fällt oder ob derartige Einsichten aus anderer Perspektive kritisch hinterfragt werden. Jedenfalls ist nicht zu übersehen, dass auch in den Wirtschafts- und Sozialwissenschaften Verfügungs- und Orientierungswissen zusammengehören. Vorläufiges Fazit dieser Überlegungen: Verfügungswissen und Orientierungswissen greifen ineinander sowohl innerhalb einer Wissenschaft als auch im Konzert der verschiedenen Wissenschaften, die je für sich unterschiedliche Gewichte setzen, dafür aber umso mehr des interdisziplinären Zusammenspiels bedürfen. Verfügungs- und Orientierungswissen gehören wissenschaftsorganisatorisch zusammen, weil beides zusammen das Wissen unserer Lebenswelt ausmacht. Die Sinnfrage, wie sie im Orientierungswissen gestellt und zu beantworten versucht wird, ist in unserer Lebenswelt verankert. Letztlich geht es immer um ein und dasselbe Medium: um das Wissen, einmal unter dem Gesichtspunkt des Verfügens, andermal unter dem Aspekt des Orientierens. 7 Bis hierhin ist jener Zusammenhang aus einer sehr freundlichen Perspektive beschrieben worden. Die Beobachtungen von Mittelstraß fallen allerdings viel kritischer aus: „Daß es mit einem Orientierungswissen heute nicht zum Besten 7
Vgl. Mittelstraß (2001), S. 16.
194
Matthias Petzoldt
bestellt ist, pfeifen die Spatzen, nicht nur die philosophischen, von allen Dächern. Die moderne Welt weiß immer mehr, und sie wird gleichwohl immer orientierungsschwächer.“ 8 Werden mit diesem Zitat Verwerfungen in unserer Gegenwart angesprochen, so will ich jetzt freilich nicht weiter den Analysen von Jürgen Mittelstraß folgen. Sie weisen in wissenschaftstheoretische Zusammenhänge. Unter dem hier anstehenden Thema der Sinnfrage im Kontext der Ökonomisierung der Wissensgesellschaft lohnt es sich vielmehr, einigen Denkspuren der Philosophie und Gesellschaftsanalyse von Jürgen Habermas zu folgen. Habermas’ „Theorie des kommunikativen Handelns“ von 1981 entwickelt eine sprachtheoretisch begründete Gesellschaftstheorie. Darin eingebettet ist eine Unterscheidung zwischen Zweckrationalität und kommunikativer Rationalität. Begreiflicherweise spielt die später von Mittelstraß eingeführte Differenzierung von Verfügungs- und Orientierungswissen hier noch keine Rolle. Diese Differenzierung im Wissen lässt sich aber mit jener Differenzierung von Rationalitäten koppeln. Denn nach Habermas unterscheiden sich die Rationalitätsbegriffe „in der Art der Verwendung des propositionalen Wissens. Unter dem einen Verwendungsaspekt erscheint instrumentelle Verfügung, unter dem anderen kommunikative Verständigung als das der Rationalität innewohnende Telos.“ 9 Sprechakttheoretisch wird die performative Pragmatik der kommunikativen Rationalität als ein regulatives Wissen analysiert, das menschliches Handeln auf Verständigung orientiert. Damit ist sprachanalytisch jene Pragmatik angesprochen 10, die sich im Medium Wissen als die regulative Ausrichtung des Orientierungswissens niederschlägt, die Zweckrationalität hingegen im Medium Wissen als die Ausrichtung des Verfügungswissens. Mit dem Sich-Ausrichten nach Zwecken ist aber zugleich das Wissen unter dem Gesichtspunkt der Orientierung berührt. Wir werden damit wieder des Zusammengehens von Verfügungs- und Orientierungswissen ansichtig. Allerdings lauert hier auch eine Gefahr. Im Orientieren geht es ja nicht nur um Zwecke und Ziele, sondern auch um die Suche nach Sinn. Wo aber das Sich-Orientieren an Zwecken zur alleinigen Ausrichtung wird, verkümmert die Sinnfrage im Orientierungswissen. Die Funktionslogik des gesellschaftlichen Teilsystems Wirtschaft kann dafür besonders anfällig sein. Zu betonen ist hier der Konjunktiv. Die Wirtschaft muss nicht automatisch in Ausschließlichkeit der Zweckrationalität verfallen. Die kritischen Diskussionen der letzten Jahre in der Wirtschaft und in den Wirtschaftswissenschaften 11 um die Einseitigkeit des Denkmodells „homo oeco8
Mittelstraß (2001), S. 44. Habermas (1981), Bd. 1, S. 30. 10 Vgl. Habermas (1981), Bd. 1, S. 369 – 452. 11 Vgl. z. B. Ulrich (1993). Von Ulrich wird Habermas’ Theorie der kommunikativen Rationalität für die Wirtschaftsethik weiterbedacht. 9
Sinn geben und / oder Sinn finden?
195
nomicus“ 12 zeigt, wie das Wissen und Denken im Kontext der Ökonomie nicht zwangsläufig der Zweckrationalität erliegt. Wo freilich das tägliche Leben sich dieser Rationalität unterwirft, da kommt es – wie Habermas erklärt – zu einer „Kolonialisierung der Lebenswelt“ 13 durch das Teilsystem Wirtschaft. Bevor wir die Auswirkung dieser Entwicklung auf die Sinnfrage in den Blick nehmen, muss noch ein wenig der weitere Theoriehintergrund der Habermasschen Gesellschaftsdiagnose ausgeleuchtet werden. Mit den Stichworten „System“ und „Lebenswelt“ wird die kritische Anknüpfung an der Systemtheorie von Niklas Luhmann 14 und Talcott Parsons 15 berührt. Stand Habermas um die Zeit seiner Ausarbeitung der Theorie des kommunikativen Handelns noch stark in der kritischen Auseinandersetzung mit jener Soziologie 16, bewegt er sich dagegen in den letzten Jahren auf deren Analyse des modernen Pluralismus auf dem Hintergrund der funktionalen Ausdifferenzierung der Gesellschaft in autopoietische Subsysteme zu. Dieser Ausdifferenzierungsprozess sei für unsere Überlegungen hier ganz kurz an markanten Punkten erläutert: 17 Am Ausgang des Mittelalters löst sich die Politik aus dem Einfluss der Religion. Umgekehrt verselbständigt sich auch die Religion gegenüber der Politik. Die Reformation hat jenen Prozess maßgeblich vorangetrieben. Sie legte Wert darauf, dass Geistliches von Weltlichem geschieden werde, damit beides nicht vermischt werde. So widmete sie kirchliches Eigentum (Ländereien, Immobilien usw.) in weltliche 12 Kirchgässner (2008); Manstetten (2000); Rost (2009); Ulrich (1993), S. 234 –243; Werhahn (1989). 13 Habermas (1981), Bd. 2, S. 522 – Dort beschreibt Habermas die „Bedingungen einer Kolonialisierung der Lebenswelt“: „die Imperative der verselbständigten Subsysteme dringen, sobald sie ihres ideologischen Schleiers entkleidet sind; von außen in die Lebenswelt – wie Kolonialherren in eine Stammesgesellschaft – ein und erzwingen die Assimilation“ (ebd.). 14 Einige Literatur von Niklas Luhmann s. unter Fn. 17. 15 Parsons (1967); Parsons (1977). 16 Vgl. Habermas / Luhmann (1974); Habermas (1981), Bd. 2, S. 295 –444. – Die Abgrenzungen zur Systemtheorie sind bei Habermas vielfältig. Hier sei sie nur an zwei Punkten festgemacht: 1. Für die Habermas’sche Kapitalismuskritik richtet sich die These von „Kolonialisierung der Lebenswelt“ zusammen auf „Macht“ und „Geld“, die als Steuerungsmedien des „Systems“ den Menschen eine von gemeinsamen kulturellen Werten und Normen abgelöste Handlungslogik aufzwingen. Auf diese Weise kommt es zu einer Entkoppelung von „System“ und „Lebenswelt“. „Heute dringen die über die Medien Geld und Macht vermittelten Imperative von Wirtschaft und Verwaltung in Bereiche ein, die irgendwie kaputt gehen, wenn man sie vom verständigungsorientierten Handeln abkoppelt und auf solche mediengesteuerten Interaktionen umstellt“ (Habermas (1985), S. 189). 2. Für Habermas stellt sich in jenen Jahren die Religion nicht als ein unersetzbares autopoietisches Subsystem der Gesellschaft dar, wie dies von der Luhmann’schen Systemtheorie gesehen wird. 17 An dieser Stelle wäre auf zahlreiche Publikationen von Niklas Luhmann hinzuweisen. Ich beschränke mich hier nur auf Luhmann (1984); Luhmann (1982); Luhmann (1992); Luhmann (1994); Luhmann (2000).
196
Matthias Petzoldt
Nutzung um. Säkularisierung wurde das genannt. Ländereien zu bewirtschaften, das habe nichts mit dem kirchlichen Auftrag – wir sagen heute: nichts mit der religiösen Funktion – zu tun. Also sollten aus Klöstern Hospitäler, Schulen oder Universitäten werden. In diesem Sinne betrieb die Reformation auch die Säkularisierung geistlicher Fürstentümer in weltliche, sprich: die Umwandlung von Fürstbistümern in weltliche Staaten. Mit der Verselbstständigung der Politik gegenüber der Religion und der Religion gegenüber der Politik kommen weitere gesellschaftliche Ausdifferenzierungsprozesse in Gang: Die Wirtschaft emanzipiert sich von der Religion. Denken wir an das Beispiel, wie das kirchliche Zinsverbot verschwindet. Diese Emanzipation der Wirtschaft gegenüber der Religion vollzieht sich in gleichzeitiger Emanzipation der Wirtschaft aus der Kontrolle der Politik. Und immer bedeutet solche Verselbständigung der Wirtschaft auch die Verselbständigung von Religion und Politik gegenüber der Wirtschaft. Auf ähnliche Weise verselbständigen sich in der Moderne die Teilsysteme Recht und Wissenschaft usw. Was wir hiermit in den Blick bekommen, ist die moderne Ausdifferenzierung der gesellschaftlichen Teilsysteme, deren gegenwärtig erlebter Pluralismus nur ein Durchgangsstadium in diesem Prozess darstellt. In der funktional ausdifferenzierten Gesellschaft gibt es keine gesellschaftliche Mitte mehr. Vielmehr agieren alle Teilsysteme nach der je eigenen Logik und lassen sich deshalb auch nicht gern von anderen Teilsystemen hineinreden. Der Verlust der gesellschaftlichen Mitte bedeutet aber nicht, dass mit solchem Pluralismus die Gesellschaft auseinander fiele. Sie wird vielmehr damit zusammengehalten, dass die gesellschaftlichen Teilsysteme über ihre jeweiligen Funktionen zusammenwirken. Freilich treten auch Szenarien in den Blick, welche Verwerfungen in den modernen Gesellschaften anzeigen. Politische Systeme wie die Diktaturen des 20. Jahrhunderts versuchten die Mitte der Gesellschaft auszufüllen und alle Lebensbereiche zu beherrschen. Wenn wir uns hier mit dem Kongress im Teilsystem Wirtschaft bewegen, denken wir zum Beispiel an die Planwirtschaften im Ostblock. Die Politik versuchte, unter anderem auch die Wirtschaft unter ihre Kontrolle zu bringen. Kolonialisierung der Lebenswelt durch die Politik. Ein anderes Szenario: Religiöse Gruppierungen missverstehen Säkularisierung als einen Prozess des Abfallens von Religion. Ja sie werfen den anderen gesellschaftlichen Teilsystemen Gottlosigkeit vor, weil religiöse Fragen oder religiöse Praxis in der Logik ihrer jeweiligen gesellschaftlichen Funktion nicht vorkommen. Und sie versuchen den Prozess zurückzudrehen hin zu einem System, in dem die Religion wieder die Mitte der Gesellschaft ausfüllt. Solche Bestrebungen können gar Züge von religiösem Fundamentalismus annehmen. 18 18
Vgl. Petzoldt (1998); Petzoldt (2009).
Sinn geben und / oder Sinn finden?
197
In der funktionalen Ausdifferenzierung der Moderne gehört es aber nicht zu den Aufgaben der anderen Teilsysteme, religiösen Fragen nachzugehen oder religiöse Praxis auszuüben. Die Aufgabe des Teilsystems Recht ist zwischen Recht und Unrecht zu entscheiden. Die Funktion des Teilsystems Wirtschaft ist, in der Knappheit der Güter die Güterbedürfnisse der Menschen zu befriedigen. Die Aufgabe des Teilsystems Wissenschaft ist, im je fachspezifischen Zugriff auf Sektoren der Wirklichkeit die Hypothesen der Theorien auf wahr und falsch hin zu überprüfen usw. usf. Da gehört nach der jeweiligen Logik der Subsysteme religiöse Praxis nicht hinein. Vielmehr ist die Pluralität der autonomen Teilsysteme darauf angelegt, dass zum Gesamtsystem der Gesellschaft auch das Teilsystem Religion hinzugehört, welches die religiöse Funktion in die Gesellschaft ausübt. Wo aus religiöser Perspektive dieser gesellschaftlich ausdifferenzierte Platz der Religion nicht wahrgenommen wird und stattdessen die Bemühungen darauf hinauslaufen, die Gesellschaft unter die Kontrolle organisierter Religion zurückzuholen, kommt eine Kolonialisierung der Lebenswelt durch Religion in Gang. Noch ein drittes Szenario: Kolonialisierung der Lebenswelt durch die Wirtschaft. Wir waren schon darauf zu sprechen gekommen. Denn diese gesellschaftliche Verwerfung hat Habermas mit seinen Analysen besonders im Auge. Zu ihrer Illustration greife ich jetzt nur ein Zitat aus einer jüngeren Veröffentlichung 19 heraus, nämlich dass sich „Bürger wohlhabender und friedlicher liberaler Gesellschaften in vereinzelte, selbstinteressiert handelnde Monaden [verwandeln], die nur noch ihre subjektiven Rechte wie Waffen gegeneinander richten. Evidenzen für ein solches Abbröckeln der staatsbürgerlichen Solidarität zeigen sich im größeren Zusammenhang einer politisch unbeherrschten Dynamik von Weltwirtschaft und Weltgesellschaft. Märkte, die ja nicht wie staatliche Verwaltungen demokratisiert werden können, übernehmen zunehmend Steuerungsfunktionen in Lebensbereichen, die bisher normativ, also entweder politisch oder über vorpolitische Formen der Kommunikation zusammenhalten worden sind.“ 20 Zu prüfen ist, wie unter der Steuerungsfunktion der Ökonomie womöglich auch der Wissenschaftsbetrieb und darüber hinaus das Medium Wissen in unserer Lebenswelt beherrscht wird. Die im Leitthema des Kongresses angesprochene Ökonomisierung der Wissensgesellschaft ist gerade auch unter dieser Perspektive kritisch zu befragen. Für die anstehende Sinnproblematik sind nunmehr die Konsequenzen in Augenschein zu nehmen. Wird ein ökonomisches Zweckdenken im Medium Wissen zur beherrschenden Rationalität, droht die Gefahr, dass in der Gesellschaft die im Orientierungswissen angelegte Suche nach Sinn Schaden nimmt. Solche Verkümmerung kann unterschiedliche Gestalt annehmen: 19 20
Habermas (2009). Habermas (2009), S. 112.
198
Matthias Petzoldt
− dass sich die Orientierung auf Sinn (z. B. in der Frage nach dem Sinn des Lebens) zu einem Zweckdenken verkürzt; − dass die in der gesellschaftlichen Erinnerung des Orientierungswissens gespeicherten Sinnangebote verloren gehen, und dass solches Vakuum mit gezielter Sinngebung zu kompensieren gesucht wird; − dass die Sinnfrage ganz verlöscht. Ein Problem tut sich an dieser Stelle unter der Frage auf: Wie steht es um die Wirkkraft der in der Kultur bereitstehenden Sinnpotentiale, die durch Artefakte unterschiedlichster Art, besonders aber durch Texte, überliefert sind und die wissenschaftlich besonders von Philosophie und Theologie immer wieder neu bedacht und für das gegenwärtige Verstehen übersetzt werden? Wie steht es um ihre Wirkkraft in einer – wie Habermas sagt – „postsäkularen“ Gesellschaft 21? Mit der Kennzeichnung unserer Gesellschaft als postsäkular ist eine Ambivalenz angesprochen. Einerseits ist sie säkular, insofern sich ein nachmetaphysisches Denken durchgesetzt hat, das die Transzendenzdimension in den überlieferten Werken nicht mehr als solche in die eigene Rationalität zu integrieren vermag, sondern das vielmehr auf eine Übersetzung in nachmetaphysische Verstehensweisen des Orientierungswissens angewiesen ist. Unter diesen Bedingungen ist es fraglich, ob die Sinnangebote religiöser Überlieferungen überhaupt noch als relevant wahrgenommen werden. Andererseits muss Habermas feststellen: Allein was die ethische Orientierung angeht, ist die Wissenschaft nicht in der Lage, als solche Ethos hervorzubringen. Ein erneuertes ethisches Bewusstsein kommt nicht als Produkt wissenschaftlicher Debatten zustande. Vielmehr ist das nachmetaphysische Zeitalter auf eine Koexistenz von Religion und säkularer Gesellschaft angewiesen. Deshalb spricht Habermas von einer notwendigen Kooperation, insofern die Religion in postsäkularer Gesellschaft 22 die Funktion übernimmt, angesichts einer „entgleisenden Modernisierung“ 23 für eine Stabilisierung der vorpolitischen moralischen Grundlagen eines freiheitlichen Rechtsstaates zu sorgen. 24 „Religiöse Überlieferungen besitzen für moralische Intuitionen, insbesondere im Hinblick auf sensible Formen eines humanen Zusammenlebens, eine besondere Artikulationskraft“. 25 Wir sehen an diesen Bemerkungen, wie sich Habermas’ Sicht von der gesellschaftlichen Rolle der Religion in den letzten Jahren gewandelt hat. Noch in Publikationen um die „Theorie des kommunikativen Handelns“ (1981) vertrat er die Überzeugung, dass die Zeit von Religion vorbei sei; „die Moderne [...] 21 22 23 24 25
Habermas (2001), S. 12 – 15. Vgl. Habermas (2001), S. 12 ff. Habermas (2009), S. 111. Vgl. ebd., S. 106 – 118; vgl. Habermas / Ratzinger (2005), S. 15 –37. Habermas (2009), S. 137.
Sinn geben und / oder Sinn finden?
199
muss ihre Normativität aus sich selbst schöpfen.“ 26 Deshalb müsse das Orientierungswissen der Religion in Diskursethik überführt werden. 27 In den letzten Jahren aber, besonders seit seiner Rede zur Verleihung des Friedenspreises des Deutschen Buchhandels 2001 28, hat sich in diesem Punkt die Sichtweise des Philosophen geändert. Zum einen wird die Leistungskraft der Wissenschaften nüchterner beurteilt. Das nachmetaphysische Denken kann aus sich selbst heraus keine verbindende Ethik hervorbringen. 29 Zum anderen ist für Habermas die Unverbrauchtheit religiösen Orientierungswissens deutlicher ins Blickfeld getreten. Deshalb ist das nachmetaphysische Zeitalter auf eine Koexistenz von Religion und säkularer Gesellschaft angewiesen. So argumentiert ein Philosoph und Gesellschaftstheoretiker, der sich selber für „religiös unmusikalisch“ hält. 30 Eine Apologetik der Religion liegt ihm völlig fern. Umso aufmerksamer sollte seine Einschätzung zur gesellschaftlichen Rolle der Religion bedacht werden. Worin sieht er ihre unersetzbare Bedeutung? Mit dieser Frage nehmen wir wieder die Spur seiner Überlegungen auf. Habermas geht es nicht nur um die systemtheoretische Einsicht in die Notwendigkeit des Subsystems Religion in einer ausdifferenzierten Gesellschaft. Freilich wird die Habermassche Gesellschaftstheorie an dieser Stelle nun kompatibel mit Luhmanns Sichtweise von der Nichtersetzbarkeit des Teilsystems Religion, welches sich über seine Funktion der Kontingenzbewältigung in die moderne Gesellschaft einbringt. Die Ausdifferenzierung in autopoietische Subsysteme bringt eben auch die Verselbständigung des Teilsystems Religion mit sich, auf dessen Funktion die Gesellschaft unabdingbar angewiesen ist. Allerdings möchte Habermas „das Phänomen des Fortbestehens der Religion in einer sich weiterhin säkularisierenden Umgebung nicht als bloße soziale Tatsache ins Spiel bringen“ 31, nämlich als jenes Subsystem, welches die in den Teilsystemen verursachten Krisen seinerseits durch Bezugnahme der gesellschaftlichen Orientierung auf einen transzendenten Sinn zu kompensieren sucht. Habermas kommt es vor allem darauf an, dass die Wissenschaft das Phänomen des unverbrüchlichen Fortbestandes der Religion in der Moderne auch gleichsam von innen heraus „als eine kognitive Herausforderung ernst“ nimmt. 32
26 27 28 29 30 31 32
Habermas (1993), S. 16. Vgl. Habermas (1981), Bd. 2, S. 118 – 169. Vgl. Habermas (2001). Vgl. Habermas (2009), S. 115. Habermas (2001), S. 30; Habermas (2009), S. 118. Habermas (2009), S. 113. Ebd.
200
Matthias Petzoldt
Habermas spricht hier von einem „doppelten“, 33 nämlich „komplementären Lernprozess“ 34: In der modernen Gesellschaft müssen nicht nur die Religionen ein reflexives Bewusstsein ausbilden und sich darauf einstellen, dass sie in einer Umwelt leben, die sich anders versteht als sie selbst, sondern auch die säkulare Gesellschaft muss ein reflexives Bewusstsein ihrer selbst ausbilden. „Für den religiös unmusikalischen Bürger bedeutet das die keineswegs triviale Aufforderung, das Verhältnis von Glauben und Wissen aus der Perspektive des Weltwissens selbstkritisch zu bestimmen. Die Erwartung einer fortdauernden Nicht-Übereinstimmung von Glauben und Wissen verdient nämlich nur dann das Prädikat ‚vernünftig‘, wenn religiösen Überzeugungen auch aus der Sicht des säkularen Wissens ein epistemischer Status zugestanden wird, der nicht schlechthin irrational ist. In der politischen Öffentlichkeit genießen deshalb naturalistische Weltbilder, die sich einer spekulativen Verarbeitung wissenschaftlicher Information verdanken und für das ethische Selbstverständnis der Bürger relevant sind, keineswegs prima facie Vorrang vor konkurrierenden weltanschaulichen oder religiösen Auffassungen.“ 35 Auf die Motivationspotentiale der Religion kann die moderne Gesellschaft nicht verzichten. Weder der säkulare Staat noch eine sich nachmetaphysisch verstehende Wissenschaft noch eine von den Marktmechanismen gesteuerte Wirtschaft verfügen selbst über derartige Formen der Lebensthematisierung. Die spannende Frage ist, „wie man sich die semantische Erbschaft religiöser Überlieferungen aneignen kann, ohne die Grenze zwischen den Universen des Glaubens und des Wissens zu verwischen.“ 36 „Im Gegensatz zur ethischen Enthaltsamkeit eines nachmetaphysischen Denkens, dem sich jeder generell verbindliche Begriff vom guten und exemplarischen Leben entzieht, sind in heiligen Schriften und religiösen Überlieferungen Intuitionen von Verfehlung und Erlösung, vom rettenden Ausgang aus einem als heillos erfahrenen Leben artikuliert, über Jahrtausende hinweg subtil ausbuchstabiert und hermeneutisch wach gehalten worden. Deshalb kann im Gemeindeleben der Religionsgemeinschaften, sofern sie nur Dogmatismus und Gewissenszwang vermeiden, etwas intakt bleiben, was andernorts verloren gegangen ist und mit dem professionellen Wissen von Experten allein auch nicht wiederhergestellt werden kann – ich meine hinreichend differenzierte Ausdrucksmöglichkeiten und Sensibilitäten für verfehltes Leben, für gesellschaftliche Pathologien, für das Misslingen individueller Lebensentwürfe und die Deformation entstellter Lebenszusammenhänge.“ 37
33 34 35 36 37
Ebd., S. 107. Ebd., S. 116. Ebd., S. 118. Habermas (2009), S. 218. Ebd., S. 115.
Sinn geben und / oder Sinn finden?
201
Bei solchem religiösen Überlieferungsgut denkt Habermas zum Beispiel an die biblische Rede von der Gottebenbildlichkeit des Menschen. 38 Das Gedankengut des Glaubens verlangt allerdings nach „Übersetzung“ in die Verstehensmöglichkeiten nachmetaphysischen Denkens unserer Zeit. 39 An der Unterschiedlichkeit von Religion gegenüber anderer Rationalität darf bei der gewünschten Transformation nichts eingeebnet werden. Dennoch gelingt dieselbe erst, wenn der rettende Gehalt religiöser Sinnpotentiale in der nachmetaphysischen Denkweise artikuliert werden kann. „Die Übersetzung der Gottebenbildlichkeit des Menschen in die gleiche und unbedingt zu achtende Würde aller Menschen ist eine solche rettende Übersetzung. Sie erschließt den Gehalt biblischer Begriffe über die Grenzen einer Religionsgemeinschaft hinaus dem allgemeinen Publikum von Andersgläubigen und Ungläubigen.“ 40 Wenn ich es recht sehe, sind diese wenigen Zeilen bisher die einzigen Ausführungen in seinen Publikationen geblieben, in denen sich Habermas substanziell auf religiöse Überlieferungen bezogen hat, in diesem Fall auf Inhalte der jüdisch-christlichen Tradition. Sonst beschränken sich seine Überlegungen auf die Struktur-Beschreibungen im Verhältnis von säkularem Staat und Religion unter den Bedingungen einer entgleisenden Modernisierung und im Verhältnis von Wissenschaft und Religion angesichts von Engführungen eines szientistischen Naturalismus. Man mag es bedauern, dass Habermas nicht umfassender auf Inhalte der religiösen Überlieferungen eingeht, um daran Beschreibung der gesellschaftlichen Rolle der Religion ausführlicher zu entwickeln. Ich meine jedoch, dass jene Zurückhaltung vielmehr die Konsequenz seiner Ansichten erkennen lässt. Als Philosoph, der den religiösen Standpunkt nicht teilt, möchte er gerade nicht zum Souffleur religiöser Inhalte werden, sondern deren Auslegung denen überlassen, die in solcher Tradition stehen. 38
Vgl. Habermas (2001), S. 29 – 31; Habermas (2009), S. 115 –116. Habermas (2001), S. 28 – 29: Die „profane, aber nichtdefaitistische Vernunft [...] weiß, dass die Entweihung des Sakralen mit jenen Weltreligionen beginnt, die die Magie entzaubert, den Mythos überwunden, das Opfer sublimiert und das Geheimnis gelüftet haben. So kann sie von der Religion Abstand halten, ohne sich deren Perspektive zu verschließen. [...] Die postsäkulare Gesellschaft setzt die Arbeit, die die Religion am Mythos vollbracht hat, an der Religion selbst fort. Nun freilich nicht mehr in der hybriden Absicht einer feindlichen Übernahme, sondern aus dem Interesse, im eigenen Haus der schleichenden Entropie der knappen Ressource Sinn entgegenzuwirken. Der demokratisch aufgeklärte Commonsense muss auch die mediale Vergleichgültigung und die plappernde Trivialisierung aller Gewichtsunterschiede fürchten. Moralische Empfindungen, die bisher nur in religiöser Sprache einen hinreichend differenzierten Ausdruck besitzen, können allgemein Resonanz finden, sobald sich für ein fast schon Vergessenes, aber implizit Vermisstes eine rettende Formulierung einstellt. Eine Säkularisierung, die nicht vernichtet, vollzieht sich im Modus der Übersetzung.“ 40 Habermas (2009), S. 115 f. 39
202
Matthias Petzoldt
Deshalb werde ich jetzt als christlicher Theologe seine Berufung auf das Gedankengut der biblischen Vorstellung von der Gottebenbildlichkeit des Menschen aufnehmen und sie auf die hier anstehende Sinnfrage beziehen. Dabei möchte ich die Problematik am Grundgesetz der Bundesrepublik Deutschland verdeutlichen. Die klassische Formulierung im ersten Artikel lautet bekanntlich: „Die Würde des Menschen ist unantastbar.“ Habermas sieht zu Recht die biblische Vorstellung von der Gottebenbildlichkeit des Menschen als normgebende Denktradition hinter dem modernen Rechtsbegriff von der unantastbaren Menschenwürde. Auch andere in Frage kommenden Denktraditionen wie die Kantsche Version – wonach der Mensch ein Zweck an sich selbst sei und deshalb nicht einem ihm fremden Zweck unterworfen werden darf, also ein Mensch von einem anderen nicht bloß als Mittel für eigene Zwecke benutzt werden darf 41 – schöpft ihre unbedingte Normativität aus dem biblischen Gedankengut von der Gottebenbildlichkeit des Menschen. Kants Argumentation stellt selbst eine Übersetzung dieses biblischen Traditionsgutes in das neuzeitliche Autonomiebewusstsein des Menschen dar. Erst aus der transzendenten Begründung in der biblischen Denkweise erhält die Norm der Unantastbarkeit der Menschenwürde ihre Plausibilität. Das heißt zum einen: Die unbedingte Würde eines jeden Menschen ist kein deskriptiver Sachverhalt, der etwa naturwissenschaftlich festzustellen wäre. Denn sobald die Würde eines Menschen an vorfindliche Bedingungen geknüpft wird, beginnt die Suche nach den aufweisbaren Erfüllungen derselben; und schon ist sie nicht mehr unantastbar. Vielmehr handelt es sich bei der Menschenwürde um eine Zuschreibung. Zum anderen gerät aber auch ein solches Verständnis in die Gefahr, seine unbedingte Normativität zu verlieren, insofern menschliche Zuschreibungen vom Willen der Zuschreibenden abhängen. 42 Dem menschlichen Willen entzogen und damit unantastbar ist Menschenwürde erst als „transempirische“ Zuschreibung. 43 Eben diese Plausibilität erwächst aus der Gewissheit der Gottebenbildlichkeit des Menschen. Die biblische Überlieferung drückt diese Überzeugung im Alten wie im Neuen Testament aus. Aus dem Alten Testament haben besonders folgende Zeugnisse eine große Wirkungsgeschichte entfaltet. In 1 Mose 1,26 wird der Schöpfergott vorgestellt, der da spricht: „Lasset uns Menschen machen, ein Bild, das uns gleich sei...“. Und in Psalm 8,5 wendet sich der Beter dankbar zu Gott: „Was ist der Mensch, dass du seiner gedenkst, und des Menschen Kind, dass du dich seiner annimmst?“ Neutestamentlich wird die Rede vom Ebenbild Gottes auf 41 Kant (1983), S. 61: „Handle so, daß du die Menschheit, sowohl in deiner Person, als in der Person eines jeden andern, jederzeit zugleich als Zweck, niemals bloß als Mittel brauchest.“ 42 Vgl. Liedke (2008). 43 Anselm / Körtner (2003), S. 203.
Sinn geben und / oder Sinn finden?
203
Christus bezogen (2. Kor 4,4): Er ist das Ebenbild des unsichtbaren Gottes (Kol 1,15). Durch seine vorbehaltlose Anerkennung werden die Menschen aus den belastenden Bindungen erlöst; und sie gewinnen die Freiheit gleich zu sein dem Bild des Gottessohnes (Röm 8,29). Durch sein Zugehen auf die Menschen finden sie seine Anerkennung. Die hier aufgeführten Zitate sind markante Beispiele der vielfältigen Rede der Bibel von der Gottebenbildlichkeit. So unterschiedlich dieses biblische Zeugnis auch ist – die Vielfalt ist gerade typisch für den poetischen Charakter der biblischen Glaubenszeugnisse – deutlich wird dabei doch Folgendes: Gottebenbildlichkeit wird nicht als etwas vorgestellt, das dem menschlichen Wesen substantiell inhärent sei und das den Menschen damit aus der sonstigen Welt dem Wesen nach herausheben würde. Die Menschen sind nicht an sich Gottes Ebenbilder. Vielmehr sind sie ein Teil der Schöpfung. Der biblischen Vorstellung entsprechend gehören sie wie die Tier- und Pflanzenwelt, ja wie „Himmel und Erde“ im Ganzen zur Schöpfung. Sie sind damit grundlegend verschieden vom Schöpfer. Die grundlegende Verschiedenheit der Menschen gegenüber Gott muss im Blick auf ihre Wesensbeschreibung festgehalten werden. Dass den Menschen darüber hinaus noch das Prädikat der Gottebenbildlichkeit beigelegt wird, begründet sich allein darin, dass Gott sie dazu beruft, dass er sie dazu einsetzt. Gottebenbildlichkeit ist also kein Wesensmerkmal des Menschen, sondern eine Zuschreibung Gottes: seine Anerkennung. Übersetzt in die Verstehenswelt einer nachmetaphysischen und zugleich postsäkularen Gesellschaft bedeutet dieses biblische Wissen die Gewissheit: Die Würde des Menschen hängt nicht ab von empirisch beschreibbaren Besonderheiten der menschlichen Gattung, welche deren Individuen z. B. gegenüber der Tierwelt auszeichnen würden, etwa in der Vernunftbegabung mit ihrer Fähigkeit zum Selbstbewusstsein. Demzufolge ist die Menschenwürde auch nicht ein Privileg derer, die einen Schulabschluss besitzen oder die ihren Arbeitsplatz auf einer Chefetage haben. Den genannten Beispielen kommt in gleicher Weise Menschenwürde zu wie Personen mit geistiger Behinderung oder wie demenzerkrankten Patienten, die schon vergessen haben, wie sie heißen und die auch ihre Angehörigen nicht mehr erkennen. Die Würde eines Menschen hängt ebenso wenig von der Anerkennung seiner Mitmenschen ab. Menschenwürde kommt dem gefeierten Star gleichermaßen zu wie dem Kind, das von seinen Eltern nicht gewollt ist, oder wie dem Kriminellen, der seine gerechte Strafe absitzt. Von den hier exemplarisch umschriebenen Bedingungen kann die Menschenwürde nicht abhängig gemacht werden; sie ist von empirischen Merkmalen wie empirischen Zuschreibungen nicht antastbar. Ist sie dann überhaupt? Ja, Menschenwürde ist: als transempirische Zuschreibung – unantastbar. Und aus dieser Begründung heraus ist somit jedem Menschen in unserer Erfahrungswelt, ganz gleich in welchem Zustand er sich physisch oder sozial befindet, diese Achtung entgegenzubringen.
204
Matthias Petzoldt
Der ehemalige Richter am Bundesverfassungsgericht Ernst-Wolfgang Böckenförde hat die in Art 1 GG festgehaltene Wertorientierung einmal so kommentiert: „Der freiheitliche, säkularisierte Staat lebt von Voraussetzungen, die er selbst nicht garantieren kann.“ 44 Eben diese inzwischen vielfach diskutierte These hat Jürgen Habermas zum Ausgangspunkt seines hier schon referierten Nachdenkens über die Unersetzbarkeit der Religion in einer postsäkularen Gesellschaft genommen. Meine Überlegungen fasse ich abschließend in zehn Punkten zusammen. 1. Wo die Sinn-Frage aufbricht, ist alles Suchen darauf zu verweisen, dass zunächst einmal Sinn vorgegeben ist, und zwar in zweifacher Hinsicht: zum einen geschichtlich, insofern wir Menschen im Zeitalter der Moderne auf einen Wissensreichtum an Lebenserfahrungen zurückgreifen können, der uns in religiösen Überlieferungen vorliegt, und zum anderen epistemisch, insofern wir Menschen von transempirisch begründeten Sinnpotentialen zehren, die wir selbst nicht geschaffen haben, sondern aus denen wir schöpfen können. Sinn in dieser ganz grundsätzlich verstandenen und in der Frage nach dem Sinn des Lebens individuell auch sehr handgreiflich zu erfahrenen Weise ist ein Orientierungspotential, das es aufzufinden gilt. 2. Je mehr freilich dieses kulturelle Wissen in der Gesellschaft verblasst, desto mehr erwächst ein Bedürfnis, Sinn zu machen. Sinn geben, dieses verständliche Bestreben des Menschen, in der vorfindlichen Welt sich einzurichten und den Dingen wie den Strukturen eine menschliche Bedeutung zu geben, verkommt zur hohlen Phrase, wo ein Imperativ des Sinn-Machens das Vakuum des nicht mehr zu findenden Sinnes ausfüllen soll. Die Ambivalenz solcher Kultur wird beispielhaft in einigen philosophischen Werken von Friedrich Nietzsche 45 und Peter Sloterdijk 46 sichtbar. Die Macher-Mentalität in der Sinnfrage muss letztlich als kultureller Ausdruck dafür gewertet werden, jene menschliche Grundpassivität 47 im Sinn-Finden statt Sinn-Geben nicht aushalten zu können. 3. In aller Deutlichkeit muss aber eine Alternativsetzung von Sinn finden und Sinn geben ausgeschlossen werden. Je klarer menschlicher Orientierung Sinn vor Augen steht, desto entschlossener kann menschliches Entscheiden in den anstehenden Problemkonstellationen Prioritäten setzen, notwendige Richtungsänderungen vornehmen, unhaltbare Positionen aufgeben und in belasteten Beziehungen einen Neuanfang starten. Sinngebung ist geradezu ein Imperativ menschlicher Verantwortung. Wird diese aktive Seite betont, muss freilich in gleichem Atemzug vor einer Überforderung gewarnt werden. Sonst geht es dem 44 45 46 47
Böckenförde (1992), S. 112, dort der Satz in Kursivdruck. Vgl. z. B. Nietzsche (1999a), S. 343 – 651; Nietzsche (1999b). Vgl. Sloterdijk (1999), Sloterdijk (2001). Vgl. Stoellger (2010).
Sinn geben und / oder Sinn finden?
205
Menschen wie in dem sarkastischen Ratschlag Friedrich Nietzsches: „Stecke Dir selber Ziele, hohe und edle Ziele und gehe an ihnen zu Grunde!“ 48 Sinngebung wird leer, wo sie nicht aus vorgegebenem, vorgefundenem Sinn schöpfen kann. 4. Bei dem eben skizzierten Wissen, welches aus den Einsichten in vorgegebenen und zu setzenden Sinn erwächst, handelt es sich – wie wir schon von Mittelstraß hörten – um ein regulatives Wissen, also um ein Orientierungswissen. 49 5. Orientierungswissen, so hatten wir uns klargemacht, lebt nicht nur von den neuesten Erkenntnissen, sondern auch von Einsichten, die schon in alten Zeiten gewachsen sind und die „über Jahrtausende hinweg subtil ausbuchstabiert und hermeneutisch wach gehalten“ werden, wie Habermas erklärte. 50 6. Solches Wissen kann allerdings verblassen, weil Anderes, vor allem zweckdienlicher Erscheinendes stärker die Aufmerksamkeit auf sich zieht. Gerade deshalb sind Religionen mit ihren Überlieferungen wichtig, welche ihre Sinnpotentiale für die individuelle wie gesellschaftliche Orientierung wach halten. 7. Religiöse Überlieferungen stellen als ein Orientierungswissen zugleich ein Verfügungswissen dar, insofern jenes Gut von gewonnenen Einsichten lebenspraktisch angewendet und umgesetzt wird, etwa in der Gesetzgebung und in der Rechtsprechung, in Initiativen individueller Nächstenliebe oder institutionalisierter Hilfsprogramme, in Bildungskonzepten wie im Alltag ihrer praktischen Umsetzung usw. usf. Auch an dieser Stelle zeigt sich ein erkennbarer Zusammenhang von Orientierungs- und Verfügungswissen, freilich mit einer deutlichen Gewichtung auf Seiten des Orientierungswissens. 8. Wo solches Orientierungswissen um letzten, transempirischen Sinn zur Diskussion steht, da täusche man sich über die Tragweite desselben nicht mit dem Hinweis auf die Kurzfristigkeit allen Wissens hinweg. Gerade das Beispiel der biblischen Überlieferung von der Gottebenbildlichkeit des Menschen und ihrer Transformation im Wissen um die unantastbare Menschenwürde zeigt jedoch folgenden Zusammenhang: Zwar treten unter den Entwicklungen in Wissenschaft und Technik immer neue Problemstellungen auf. Doch schlägt die Wirkkraft jenes Gedankens immer wieder durch, − ob als Korrektiv gegen einseitiges Verstehen und Gebrauchen ökonomischer Theoriekonstrukte wie etwa des „homo oeconomicus“ als Menschenbild − oder als kritische Motivation im Streit um die Möglichkeiten der Bioethik
48 49 50
Nietzsche (1999c), S. 651. Vgl. Mittelstraß (2001), S. 76 (s. o. Fn. 5). Habermas (2009), S. 115 (s. o. Fn. 37).
206
Matthias Petzoldt
− oder als eine sich durchhaltende Überzeugung in dem Auf und Ab, Pro und Contra wechselnder Versuche, die Frage der Menschenachtung von empirisch nachprüfbaren Fakten abhängig zu machen. Für die Nachhaltigkeit religiöser Sinnpotentiale gibt es viele weitere Beispiele. Ich will hier nur noch die strikte Unterscheidung zwischen Gott und Welt, Schöpfer und Geschöpf, erwähnen. − Schon in der Antike wird die biblische Entmythologisierung religiöser Naturverehrung wirkmächtig 51 und hält sich bis heute durch in der Abwehr esoterischer Aufladung von Naturphänomenen als Orte und Gegenstände religiöser Verehrung. Diese biblisch grundgelegte Entmythologisierung bewahrt vor dem Abhängigwerden von Dingen der uns umgebenden Natur. − Die strikte Unterscheidung zwischen Gott und Welt entfaltet ihre Kraft ebenso in der Kritik an religiöser Verklärung von politischer Gewalt (vgl. die scharfe Kritik im Alten Testament an der Institution des Königtums in Israel oder den Widerstand der Christen gegen die göttliche Verehrung des Kaisers im römischen Kaiserkult und die strikte Unterscheidung der Reformation zwischen weltlich und geistlich, welche zusammen mit anderen kulturellen Kräften die moderne Trennung von Staat und Kirche vorbereitet hat). 52 − Als letztes Beispiel sei noch erwähnt, wie nachhaltig die strikte Unterscheidung zwischen Gott und Welt der quasireligiösen Auslieferung an ökonomische Mechanismen einen Riegel vorgeschoben hat. Schon die biblische Überlieferung schärft den Blick für die Gefahr einer Mammonisierung des Mediums Geld. 53 Und aus kirchlichen Denkschriften und Enzykliken ergeht die Warnung vor der Irrationalität etwa im Glauben an die Selbstregulierungskraft des Marktes oder an das alles (er)lösende Heilmittel Wachstum. 51 So werden im alttestamentlichen Schöpfungszeugnis von 1 Mos. 1,1 –2,4a, das jüdische Priester im sechsten vorchristlichen Jahrhundert während des babylonischen Exils entwickelt haben, die Gestirne nicht wie in der Religion Babylons als Götter verehrt, sondern sie werden nüchtern in ihrer Funktion als Leuchten am Himmel beschrieben, die Orientierung geben. 52 Nicht unerwähnt bleiben soll, dass es auch zu vielen Beispielen unheilvoller Vermischung von Geistlichem und Weltlichem, Religion und Politik gekommen ist. Zu den Ursachen und Gründen gehört unter anderem das Bestreben der religiösen Instrumentalisierung des Politischen wie auch umgekehrt der politischen Instrumentalisierung von Religion, beides Denkweisen, die vom verheerenden Einzug einer Verfügungsrationalität in regulativen Orientierungen zeugen. Keine Religion ist vor solchen Abwegen gefeit. Umso wichtiger sind reformatorische Impulse innerhalb der Religionen, die derartige Verirrungen erkennen und die eigene Religion zur Umkehr befähigen. 53 Hier geht es nicht einfach um eine Kritik am Geld als solchem (etwa als „teuflisch“ usw.). Vielmehr wissen die christliche Religion und ihre wissenschaftliche Reflexion, das Geld als eine Kulturleistung zu schätzen. Christliche Geldkritik richtet sich gegen den verfehltem Umgang mit Geld, welcher dasselbe zu einer quasireligiösen Macht werden lässt, den Menschen in Abhängigkeiten treibt mit strukturellen wie individuellen Folgen von Ungerechtigkeit, Identitätsverlust usw. Vgl. Petzoldt (2001) und Petzoldt (2006).
Sinn geben und / oder Sinn finden?
207
9. Die eben aufgeführten Beispiele legen nicht nur Zeugnis ab von der nachhaltigen Wirkkraft religiöser (hier: biblischer) Sinnpotentiale. Sie zeigen nebenher auch dies: Es handelt sich vorrangig um ein Orientierungswissen bei dem, was das Teilsystem Religion an Einsichten und Sinnressourcen in die moderne ausdifferenzierte Gesellschaft einbringt und was die kritisch-kontrollierende Reflexion auf Religion in der theologischen Wissenschaft an Erkenntnissen dem Kulturgut Wissen beisteuert. Das Erfahrungspotential der Religionen greift wie alles Orientierungswissen regulierend auf den Erkenntnisgewinn im Verfügungswissen und auf dessen Anwendung ein. Diese vorwiegend regulative Struktur kommt aber noch einmal innerhalb des Orientierungswissens selbst zum Tragen, insofern die Theologie diejenige Wissenschaft darstellt, welche im nie endenden wissenschaftstheoretischen Diskurs um die Paradigmen der Wirklichkeitswahrnehmung und die Kriterien gültigen Erkenntnisgewinns die transempirische Perspektive in die Diskussion einbringt. Je mehr nämlich die Philosophie unter Deutungskoordinaten eines nachmetaphysischen Denkens sich aus dieser Funktion zurückzieht, umso mehr wird der Theologie die Aufgabe zufallen, im Streit der Fakultäten die Sensibilität für die Transzendenzdimension der Vernunft wachzuhalten. 10. Was aber passiert – so die abschließende Frage –, wenn Wissen unter das Zweckdenken der Ökonomisierung gerät? Wissen unter dem Gesichtspunkt der Effizienz zu prüfen ist nicht erst ein Markenzeichen unserer modernen Gesellschaft. Heutzutage ist dieser Aspekt aber insofern von besonderer Brisanz, als – wie oben angesprochen – das Gleichgewicht der funktional ineinandergreifenden Teilsysteme aus den Fugen gerät, indem die Ökonomie zunehmend die Steuerungsfunktion in allen Lebensbereichen der Menschen übernimmt. Hierbei greift die ökonomische Rationalität nicht nur nach dem Verfügungswissen. Dieser Zusammenhang mag ja noch ganz plausibel erscheinen – einmal aus der Praxis heraus, insofern Förderungen von Forschungsprojekten wie z. B. in der Biochemie Gewinne in der pharmazeutischen Industrie erwarten lassen und in diesem Zusammenhang die Ökonomisierung von Wissen sich dann auch regelrecht auszahlt, und ein andermal aus der verwandten Zweckrationalität im Verfügungswissen selbst wie in der Logik der Ökonomie. Die Ökonomisierung hat zu einer enormen Mobilisierung der wissenschaftlichen Ressourcen beigetragen, die den Menschen zugute kommt. Dieser Vorteil sollte bei aller kritischen Problematisierung nicht übersehen werden. 54 Wie steht es aber um die Ökonomisierung von Orientierungswissen? Macht sie Sinn? An solcher von ökonomischem Nutzdenken geleiteten Frage werden wohl manche Anträge von
54 Zu Recht hat mich Kollege Ingo Pies, Professor für Wirtschaftsethik am Institut für Volkswirtschaftslehre und Bevölkerungsökonomie an der Martin-Luther-Universität Halle-Wittenberg, in der Diskussion über meine Überlegungen auf diesen Zusammenhang aufmerksam gemacht.
208
Matthias Petzoldt
Forschungsprojekten aus den Geisteswissenschaften scheitern. 55 Die Gefahr ist jedenfalls groß, dass in einer immer weiter um sich greifenden Ökonomisierung des Wissenschaftsbetriebes das Orientierungswissen unter die Räder kommt. Wir erinnern uns noch an die nüchterne Bilanz von Mittelstraß: „Die moderne Welt weiß immer mehr, und sie wird gleichwohl immer orientierungsschwächer.“ 56 Aber gerade in diesem Wissensbereich geht es um die Lebensfragen. Und eben deshalb ist die Frage nach dem Sinn jenes Entwicklungsprozesses, der hier auf dem Kongress als Ökonomisierung der Wissensgesellschaft thematisiert wird, von so großem Gewicht. Die Organisatoren des Kongresses seien beglückwünscht für ihre Wachsamkeit, absehbare Trends bei der Ökonomisierung des Wissensgesellschaft kritisch zu prüfen, mögliche Gefährdungen einer entgleisenden Modernisierung aufzuspüren, bei der kritischen Sichtung auch die Außenperspektiven anderer Wissenschaftsdisziplinen hinzuzuziehen und gar das Gedankengut anderer Rationalitäten wie die Sinnpotentiale religiöser Überlieferungen in die Überlegungen einzubeziehen.
Literatur Anselm, Reiner / Körtner, Ulrich H.J. (Hrsg.) (2003): Streitfall Biomedizin. Urteilsfindung in christlicher Verantwortung, Göttingen. Böckenförde, Ernst-Wolfgang (1992): Recht, Staat, Freiheit. Studien zur Rechtsphilosophie, Staatstheorie und Verfassungsgeschichte, Frankfurt / M. 55 Der gesellschaftliche Resonanzboden für Forschungsprogramme im Bereich des Orientierungswissens weist allerdings erhebliche Unterschiede auf. Nur mit vier Reaktionen sei das weite Spektrum angedeutet. 1) Weit verbreitet ist eine Zurückhaltung: Was bringen schon Fragestellungen und Ergebnisse von Untersuchungen des Orientierungswissens? Sie lassen sich nicht in gleicher lukrativer Weise für den Verbrauchermarkt anwenden und in Gewinn umsetzen wie Ergebnisse des Verfügungswissens. 2) Diesem Eindruck mag man mit dem Hinweis entgegentreten, dass es doch genug Beispiele für interdisziplinäre Forschungsprogramme gibt, wo regulative Problemstellungen mit naturwissenschaftlichen Untersuchungen verbunden sind, z. B. die Forschungsprojekte in den Neurowissenschaften, welche in Zusammenarbeit mit Psychologie, Philosophie und Rechtswissenschaft die Frage der Willensfreiheit thematisieren. Hier wäre allerdings kritisch zu prüfen, inwieweit gerade solche Forschungsprojekte gefördert werden, welche die regulativen Problemstellungen des Orientierungswissens in der Verstehensweise eines szientistischen Naturalismus auf die Ebene des Verfügungswissens zu bringen suchen (vgl. Habermas [2009]). 3) Nicht zu übersehen ist aber, dass auch im Bereich des Orientierungswissens viele Forschungsprogramme laufen und (im bundesdeutschen Bereich besonders von der Deutschen Forschungsgemeinschaft wie auch von Stiftungen) gefördert werden. 4) Das Hauptaugenmerk bei der Forschungsförderung muss selbstverständlich auf der Unterstützung von Projekten liegen, die den Zusammenhang von Orientierungsund Verfügungswissen im Blick haben. 56 Mittelstraß (2001), S. 44 (s. o. Fn. 8).
Sinn geben und / oder Sinn finden?
209
Habermas, Jürgen (1981): Theorie des kommunikativen Handelns, 2 Bände., Frankfurt / M. Habermas, Jürgen (1985): Kleine politische Schriften, Frankfurt / M. Habermas, Jürgen (1993): Der philosophische Diskurs der Moderne, Frankfurt / M. (1985). Habermas, Jürgen (2001): Glaube und Wissen. Friedenspreis des Deutschen Buchhandels 2001, Frankfurt / M. Habermas, Jürgen (2009): Zwischen Naturalismus und Religion. Philosophische Aufsätze, Frankfurt / M. (2005). Habermas, Jürgen / Luhmann, Niklas (1974): Theorie der Gesellschaft oder Sozialtechnologie – Was leistet die Systemforschung?, Frankfurt / M. Habermas, Jürgen / Ratzinger, Joseph (2005): Dialektik der Säkularisierung. Über Vernunft und Religion, Freiburg i. Br. Kant, Immanuel (1983): Grundlegung zur Metaphysik der Sitten (1785), in: ders.: Werke in sechs Bänden, hrsg. von Wilhelm von Weischedel, Bd. IV, Darmstadt, S. 7 –102. Kirchgässner, Gebhard (2008): Homo oeconomicus. Das ökonomische Modell individuellen Verhaltens und seine Anwendung in den Wirtschafts- und Sozialwissenschaften, Tübingen. Liedke, Ulf (2008): Wort und Würde. Ist Menschenwürde eine kommunikative Zuschreibung?, in: Beyer, Martin / Ulf Liedke (Hrsg.): Wort Gottes im Gespräch, Leipzig, S. 163 – 180. Luhmann, Niklas (1982): Funktion der Religion, Frankfurt / M. Luhmann, Niklas (1984): Soziale Systeme. Grundriss einer allgemeinen Theorie, Frankfurt / M. Luhmann, Niklas (1992): Die Wissenschaft der Gesellschaft, Frankfurt / M. Luhmann, Niklas (1994): Die Wirtschaft der Gesellschaft, Frankfurt / M. Luhmann, Niklas (2000): Die Religion der Gesellschaft, Frankfurt / M. Manstetten, Reiner (2000): Das Menschenbild in der Ökonomie. Der homo oeconomicus und die Anthropologie von Adam Smith, Freiburg / München. Mittelstraß, Jürgen (1989): Der Flug der Eule. Von der Vernunft der Wissenschaft und der Aufgabe der Philosophie, Frankfurt / M. Mittelstraß, Jürgen (1992): Leonardo-Welt. Über Wissenschaft, Forschung und Verantwortung, Frankfurt / M. Mittelstraß, Jürgen (1994): Der unheimliche Ort der Geisteswissenschaft, in: Engler, Ulrich (Hrsg.): Orientierungswissen versus Verfügungswissen. Die Rolle der Geisteswissenschaften in einer technologisch orientierten Gesellschaft, Stuttgart, S. 30 –39. Mittelstraß, Jürgen (2001): Wissen und Grenzen. Philosophische Studien, Frankfurt / M. Muckenfuß, Heinz (1995): Lernen im sinnstiftenden Kontext. Entwurf einer zeitgemäßen Didaktik des Physikunterrichts, Berlin, 2. Druck 2006.
210
Matthias Petzoldt
Nietzsche, Friedrich(1999a): Menschliches, Allzumenschliches, in: ders.: Sämtliche Werke. Kritische Studienausgabe in 15 Bänden, hrsg. von Giorgio Colli und Mazzino Montignari, Bd. 3, Berlin / New York. Nietzsche, Friedrich(1999b): Also sprach Zarathustra, in: ders.: Sämtliche Werke. Kritische Studienausgabe in 15 Bänden, hrsg. von Giorgio Colli und Mazzino Montignari, Bd. 4, Berlin / New York. Nietzsche, Friedrich(1999c): Nachgelassene Fragmente, in: ders.: Sämtliche Werke. Kritische Studienausgabe in 15 Bänden, hrsg. von Giorgio Colli und Mazzino Montignari, Bd. 7, Berlin / New York. Parsons, Talcott (1967): Sociological Theory and Modern Society, New York. Parsons, Talcott (1977): Social Systems and the Evolution of Action Theory, New York. Petzoldt, Matthias (1998): Fundamentalismus – Reaktion auf Säkularisierung, in: ders.: Christsein angefragt. Fundamentaltheologische Beiträge, Leipzig, S. 175 –193. Petzoldt, Matthias (2001): Geld und Glaube – Sache des Vertrauens. Theologische Bemerkungen zu einer Schnittstelle zweier symbolisch generalisierte Kommunikationsmedien, in: Hiller, Doris / Christine Kress (Hrsg.): Daß Gott eine große Barmherzigkeit habe. Konkrete Theologie in der Verschränkung von Glauben und Leben, Leipzig, S. 111 – 143. Petzoldt, Matthias (2006): Geld – Gegenstand christlicher Kritik? Ein Beitrag zum Gespräch zwischen Theologie und Ökonomie, in: Beyerle, Stefan / Michael Roth (Hrsg.): Geld als bestimmender Faktor menschlicher Existenz, Leipzig, S. 121 –144. Petzoldt, Matthias (2009): Wo ist das Christentum inhärent fundamentalistisch? Thesen und Erläuterungen, in: Unger, Tim (Hrsg.): Fundamentalismus und Toleranz, Hannover, S. 226 – 251. Rost, Norbert (2009): Homo oeconomicus. Eine Fiktion der Standardökonomie, in: Humane Wirtschaft, Heft 1, S. 18 – 23. Sloterdijk, Peter (1999): Regeln für den Menschenpark. Ein Antwortschreiben zu Heideggers Brief über den Humanismus, Frankfurt / M. Sloterdijk, Peter (2001): Das Menschentreibhaus. Stichworte zur historischen und prophetischen Anthropologie, Weimar. Stoellger, Philipp (2010): Passivität aus Passion. Zur Problemgeschichte einer categoria non grata, Tübingen. Ulrich, Peter (1993): Transformation der ökonomischen Vernunft. Fortschrittsperspektiven der modernen Industriegesellschaft, Bern / Stuttgart. Werhahn, Peter H. (1989): Menschenbild, Gesellschaftsbild und Wissenschaftsbegriff in der neueren Betriebswirtschaftslehre. Faktortheoretischer Ansatz, entscheidungsorientierter Ansatz und Systemansatz im Vergleich, Bern / Stuttgart.
Wirtschaft neu denken – das Alnatura Modell Von Götz E. Rehn 1
I. Die Geschichte vom Bienenschmaus Vor zwei Jahren hatte eine Kollegin bei Alnatura die Idee, für bedrohte Bienenvölker eine spezielle Saatgutmischung von Blütenpflanzen zu entwickeln. Infolge der agrarindustriellen Landwirtschaft ist die Vielfalt der Flora so eingeschränkt, dass die Bienen oft nicht genug Blüten finden, um existieren zu können. Die Kollegin war davon überzeugt, dass viele Kunden das Alnatura Saatguttütchen kaufen und dann im eigenen Garten oder in der freien Natur kleine Oasen für die Bienen anlegen würden. Es bedurfte einiger Überredungskunst, um mich für die Idee „Alnatura Bienenschmaus“ zu begeistern. In den vergangenen zwei Jahren haben wir 120.000 Tütchen Bienenschmaus verkauft. Die Menge reicht für 420.000 Quadratmeter Blumenfelder als Bienenweide. Darüber hinaus flossen aus dem Verkaufserlös des Tütchens über 60.000 Euro als Spende an die Bieneninitiative Mellifera e.V. Dieses Beispiel zeigt, dass die Menschen heute ein neues und wacheres Bewusstsein für die Zeitsituation haben und interessiert und bereit sind, bei der nachhaltigen Gestaltung der Erde mitzuwirken. Wir beobachten eine tiefgreifende Veränderung unserer Gesellschaft. Immer mehr Menschen wenden sich von der nur am materiellen Wohlstand orientierten Handlungsweise ab und suchen nach Sinn im Leben, nach sozialer Erfüllung. Dies zeigt sich auch im Einkaufsverhalten der Menschen: An die Stelle der Überspezialisierung tritt das Interesse an einfachen, funktionsfähigen Artikeln. Die Menschen wollen in der Region einkaufen, aus der Hektik der Leistungsgesellschaft aussteigen und sehnen sich nach authentischen Produkten, die sinnvoll für Mensch und Erde sind.
1 Prof. Dr. Götz E. Rehn ist Geschäftsführer der Alnatura Produktions- und Handels GmbH und Honorarprofessor der Alanus Hochschule in Alfter. Der folgende Beitrag ist die erweiterte Fassung des Vortrags an der Universität Leipzig am 3. Dezember 2009. Der Vortragsstil wurde beibehalten, der Text aber um Literatur- und Quellenhinweise ergänzt.
212
Götz E. Rehn
II. Ganzheitlich denken – nachhaltig handeln Der radikale Paradigmenwechsel von einer auf Ökonomisierung ausgerichteten Gesellschaft hin zu einer nachhaltigen Gesellschaft ist nur möglich, wenn der gesamte soziale Organismus in seiner Komplexität gedacht wird. Der Mensch ist dann nicht mehr als ein zufällig entstandenes Gattungswesen, sondern als geistige Individualität zu begreifen, die ein einmaliges Schicksal hat und nach Selbstgestaltung und Freiheit sucht. Die Erde wird nicht mehr als bloßes Rohstofflager begriffen und missbraucht, sondern vielmehr als ein lebendiger Organismus verstanden, der nach dem Prinzip eines homöostatischen Systems immer wieder neue Gleichgewichtskonstellationen schafft. Damit ist es die Aufgabe der Menschen, im Einklang mit der Natur die Wirtschaft zu gestalten. Schließlich gilt es auch, die Vorstellung vom Unternehmen als einer Maschine zu überwinden. Jeder Betrieb, wie auch die ganze Wirtschaft, ist ein lebendiger sozialer Organismus, dessen Gestalt permanent von den Menschen neu entwickelt wird und werden muss. Denn ein sozialer Organismus gestaltet sich nicht nach den Gesetzen der Natur; er wird vielmehr von seinen Mitgliedern und Organen gestaltet. Nur ein alle Dimensionen der Realität umfassendes Handeln der Menschen kann die Herausforderung der Zukunft meistern. Es geht darum, die komplexe Wirklichkeit in ihren verschiedenen Dimensionen zu erkennen und dementsprechend jeweils situativ, aber stets im Sinne des Ganzen zu handeln. Dies setzt voraus, dass man das heute noch oft nur eindimensionale, materielle Wirklichkeitsverständnis überwindet und die Realität als geistdurchwoben und materiell begreift. Alles Sein hat eine ideale und eine physische Seite. Diese Beobachtungen hat Rudolf Steiner in seiner Erkenntniswissenschaft entwickelt. Sie stellt die Grundlage der Unternehmensphilosophie von Alnatura dar. Dies drückt das Unternehmensmotto „Sinnvoll für Mensch und Erde“ aus. Es ist Ausdruck für eine in allen relevanten Dimensionen um Nachhaltigkeit bemühte Denk- und Arbeitsweise.
III. Alnatura – Sinnvoll für Mensch und Erde Die Vision „Alnatura – Sinnvoll für Mensch und Erde“ enthält im Kern unseren ganzen Denkansatz. Der Anspruch, etwas Sinn-volles für andere tun zu wollen, verlangt danach, zuerst den Sinn zu erkennen. Die Handlung muss dann demjenigen, auf den sie sich bezieht, gerecht werden, also ihm in seiner Eigenart entsprechen.
Wirtschaft neu denken – das Alnatura Modell
213
Ein sinnvolles Handeln ist immer ein bewusstes Handeln. Die jeweilige Sinngebung für das Handeln kann nur durch den Menschen erfolgen. Die Natur für sich genommen macht Sinn und ist sinnvoll. Eine Sinngebung im sozialen Kontext ist jedoch nur durch die bewusst erfolgende menschliche Tat möglich, d. h. wir müssen unser Handeln immer wieder neu am „Sinn“ ausrichten.
IV. Sinnmaximierung als Unternehmensziel Wenn das höchste Produktionsziel eines Unternehmens die Ermöglichung der geistigen Freiheit der Menschen darstellt und alles Handeln dieser Maxime unterstellt wird, können sich die wesentlichen Ziele des Unternehmens nicht in wirtschaftlichen Kategorien (Ertragsmaximierung, Marktanteilsführerschaft etc.) ausdrücken. Gemäß unserer Vision „Alnatura – Sinnvoll für Mensch und Erde“ wollen wir aus einem ganzheitlichen Verständnis für Mensch und Erde beste Produkte und Leistungen für unsere Kunden entwickeln. Wir begreifen den Kunden als Partner, mit dem wir im Dialog unsere Leistung laufend weiterentwickeln, seine Ideen und Vorstellungen in unsere Arbeit einbeziehend. Ein laufend neu im Dialog mit den Kunden entwickeltes Angebot verlangt nach einer Arbeitsgemeinschaft, deren Mitarbeiterinnen und Mitarbeiter selbstverantwortlich und intelligent im Sinne des Ganzen handeln wollen und können. Die Förderung und Unterstützung der Mitarbeiter / innen im Hinblick auf selbstverantwortliches Denken und Handeln leitet sich deshalb unmittelbar aus der Alnatura Vision ab.
V. Die Qualitätsentwicklung als Kulturaufgabe Eine Sinngebung der Produkte und Dienste verlangt nach einer unabhängigen Beurteilung zum Beispiel der Produktqualität. Deshalb haben wir bei Alnatura die Entscheidung über die Qualität unserer Produkte in die Hände eines unabhängigen Gremiums „Arbeitskreis Qualität“ gelegt. Gemäß unserer Mission „Beste Qualität zum günstigsten Preis“ entscheiden die Qualitätsfrage nicht die Produktmanager oder Marketingverantwortlichen im Unternehmen, sondern die Fachleute im „Arbeitskreis Qualität“. Sie entscheiden letztlich als Vertreter eines unabhängigen Organs des Kulturlebens über die Beschaffenheit, die Rezepturen und Verpackungen unserer Produkte. Damit messen wir der Qualitätsfrage uneingeschränkte Priorität bei. Ist die Qualität eines Produktes definiert, beginnt der eigentliche wirtschaftliche Organisationsprozess durch die Kollegen von Alnatura in Zusammenarbeit mit den verschiedensten Partnern, die zur Verwirklichung des Artikels beitragen.
214
Götz E. Rehn
Wirtschaften bedeutet, miteinander für andere tätig sein zu wollen. Dementsprechend gestalten wir mit unseren Kooperationspartnern auf der Seite der Hersteller und Landwirte wie auf der Seite der Handelspartner den gesamten Wertbildeprozess eines Artikels in enger Abstimmung.
VI. Innovationen durch Kundendialog Die Kundinnen und Kunden von Alnatura gestalten ständig an den Produkten und Diensten mit, die wir ihnen zum Kauf anbieten. Durch das enge Abstimmungsverhältnis ist es uns gelungen, dass von zehn eingeführten Produkten maximal ein Artikel nicht erfolgreich ist. Viele Produktentwicklungen gehen auf die Ideen unserer Kunden zurück. Im Frühjahr 2009 haben wir erstmals den Versuch gewagt, unsere Kunden zu bitten, im Rahmen eines Wettbewerbs die Verpackungsgestaltung für acht Alnatura Artikel zu entwerfen. Insgesamt erreichten uns über 1.000 hochinteressante und größtenteils realisierbare Designvorschläge für die Alnatura Produkte. In einem langwierigen Entscheidungsprozess haben wir acht Entwürfe ausgewählt. Die gestalteten Produkte haben wir im Rahmen unseres 25-jährigen Jubiläums als Sonderserie „Alnatura Kundenedition“ aufgelegt und mit Erfolg verkauft. Besonders beeindruckt waren wir von dem Entwurf eines sechsjährigen Mädchens. Ihr Bild für eine 250g-Tafel Schokolade hat in kurzer Zeit die Herzen der Kunden erobert und den Artikel zu einem Bestseller gemacht. Einen Teil der Erlöse, die aus dem Verkauf der acht Kundenedition-Artikel stammen, werden wir für die Alnatura Zukunftsinitiative für mehr Bio-Bauern einsetzen. In mehreren Veranstaltungen, die von dem Forschungsinstitut für biologischen Landbau konzipiert und organisiert werden, bieten wir in verschiedenen Regionen Deutschlands konventionellen Bauern einen Beratungstag Öko-Landbau an. Insgesamt wurden im Jahr 2009 über 100 Bauern informiert. Zehn dieser Bauern haben seitdem bereits mit der Umstellung auf Öko-Landbau begonnen. Das Projekt Kundenedition, verbunden mit der Alnatura Initiative für mehr Bio-Bauern, zeigt, wie Kunden heute als Partner in sinnvoll wirtschaftenden Unternehmen aktiv an einer Weiterentwicklung von Wirtschaft und Gesellschaft mitwirken.
VII. Der Kommunikationsstil Ein persuasiver, auf Überredung angelegter Werbeansatz wird von aufgeklärten Kunden abgelehnt. Die Menschen wollen nicht mehr durch emotionale Botschaften manipuliert und in ihrer Urteilsfindung bevormundet werden.
Wirtschaft neu denken – das Alnatura Modell
215
Vielmehr haben die Menschen ein Interesse an nachvollziehbaren und authentischen Informationen, die es ihnen selbst erlauben, ein Urteil zu fällen. Der mündige Verbraucher will sich aktiv informieren und setzt dabei verstärkt auf die Informationen anderer Verbraucherinnen und Verbraucher. Erfahrungsberichte zu Produkten wie auch Informationen über Unternehmen und ihre Arbeitsweise finden sich heute in vielfältigster Form im Internet. Über dieses Medium werden Botschaften in kürzester Zeit verteilt und von vielen Kunden für eine Kaufentscheidung herangezogen. Deshalb ist auch der Kommunikationsstil, den ein Unternehmen pflegt, vollständig neu zu denken und neu zu entwickeln. An die Stelle einer persuasiven Werbung sollte eine evozierende, zum Mitdenken und Mitmachen anregende Information treten. Je authentischer und erfahrungsgetränkter die Information ist, umso eher sind die Kunden dazu bereit, sich mit dem Unternehmen bzw. seinen Produkten und Dienstleistungen zu beschäftigen.
VIII. Mitarbeiterentwicklung durch Kunsterfahrung Alnatura verfolgt ein ganzheitliches Bildungs- und Ausbildungskonzept. Jede Mitarbeiterin und jeder Mitarbeiter soll die Möglichkeit haben, sein eigenes Potenzial zu erkennen und seine Fähigkeiten, Fertigkeiten und Fantasiekräfte zu entdecken und selbst zu entwickeln. Dementsprechend verfolgen wir drei unterschiedliche Intentionen durch unsere Mitarbeiterentwicklungsaktivitäten. Einerseits geht es natürlich um das Vermitteln von Fachwissen im Bereich Naturkost. Genauso wichtig ist er aber, aus eigener Erfahrung lernen zu können. Gerade im Bereich der Lehrlingsbildung geht es darum, durch Selbsterfahrung eigene Erkenntnisse zu ermöglichen. Dementsprechend arbeiten die Alnatura Lehrlinge nach kurzer Einweisung selbstverantwortlich. Sie nehmen konkrete Aufgaben in einem Team wahr. Schließlich ist die Förderung der Fantasie durch Kunsterfahrung von besonderer Bedeutung. Regelmäßige Theater-Workshops der Lehrlinge, aber auch eine freiwillige Theatergruppe im Unternehmen unterstützen diese Intention. Weitere Kunstangebote wie Malen, Chorsingen und Plastizieren ergänzen das Bildungsangebot von Alnatura. Neben den verschiedenen Bildungsinitiativen des Unternehmens gibt es die Möglichkeit für die Mitarbeiter, eigene Bildungsinitiativen zu begründen. Zum Beispiel hat ein Kreis von 20 Mitarbeitern eine Alnatura Bienen-Initiative gegründet. Nach Zustimmung durch das Unternehmen (Kostenübernahme etc.) wurde mit einer Demeter-Imkerin Kontakt aufgenommen und ein geeigneter Platz im Garten des Unternehmens für die Aufstellung von Bienenkörben gesucht. Nachdem die Körbe aufgebaut waren, kamen die ersten Bienenvölker zu uns. Heute haben wir im Sommer über 200.000 Bienen auf unserem Gelände, die auf dem nahe gelegenen Acker, der mit „Bienenschmaus“ eingesät ist, viel-
216
Götz E. Rehn
fältige Nahrung erhalten. Die Mitarbeiter betreuen die Bienen unter Anleitung der Imkerin. Sie ernten den Honig und berichten über ihre Beobachtungen im Alnatura Bienen-Blog. Die Kunst in ihren verschiedenen Ausdrucksformen stellt eine „Sprache“ dar, die jeder versteht, ohne dass er es möglicherweise in Worten so exakt auszudrücken vermag. An und durch die Kunst lernen wir, uns individuell auszudrücken. Dies ist die Basis für eine Ästhetisierung unserer Umwelt. Ohne künstlerische Erfahrung und das Üben der künstlerischen Fähigkeiten gelingt es z. B. nicht, den Kunden schöne Läden zu präsentieren. Wechselnde Aktionen in den Läden überraschen die Kunden. Seit Mitte November 2009 können die Kunden die Abbildung eines großen Gemäldes von Botticelli, aber auch verschiedene Ausschnitte von Botticelli-Bildern in jedem der Alnatura Märkte erleben. Diese Aktion wurde gemeinsam mit dem StädelMuseum in Frankfurt unter der Leitung von Max Hollein entwickelt. Der Kurator der Botticelli-Ausstellung des Städel-Museums hat einen Folder konzipiert, der über das künstlerische Werk von Botticelli informiert. Diesen Folder verschenken wir an interessierte Kunden.
IX. Nachhaltige Ladengestaltung Die 53 Alnatura Super Natur Märkte zeichnen sich durch eine besondere Ladengestaltung aus. Die Böden sind mit Terrakotta-Fliesen belegt, die Wände mit Kalk-, Sand- oder Marmormehl verputzt. Die Decke ist plastisch, das heißt wellenförmig gestaltet. Das hierfür verwendete Material ist recyceltes Aluminium-Profilblech. Die Regale und Aktionsmöbel sind aus Holz hergestellt, das mit Naturfarben lasiert wurde. Die Information der Kunden über Angebote und Ähnliches erfolgt auf Tafeln, die mit Kreide beschriftet werden. Die Energie, mit der wir unsere Geschäfte wie auch die Serviceeinheit in Bickenbach betreiben, stammt zu 100% aus regenerativen Quellen. Türen vor den Kühltheken in den Läden sparen gegenüber offenen Möbeln 60 % des Energieverbrauchs ein. Unsere Druckerzeugnisse sind auf Papier gedruckt, das zu einem namhaften Anteil aus Holz aus nachhaltig bewirtschafteten Wäldern bzw. aus Altpapier gewonnen wurde. Weitere Optimierungsmöglichkeiten im Sinne der Nachhaltigkeit werden fortlaufend gesucht und umgesetzt.
X. Das Kooperationsprinzip Die moderne Arbeitsteilung ermöglicht eine besonders effiziente und sparsame Produktion. Sie impliziert jedoch, dass das Kooperationsprinzip Beachtung findet. Es geht nicht darum, möglichst viel selber zu machen, sondern heraus-
Wirtschaft neu denken – das Alnatura Modell
217
zufinden, wie wir miteinander im Unternehmen, aber insbesondere auch mit anderen Unternehmen für unsere Kundinnen und Kunden tätig sein können. Dementsprechend hat Alnatura vom Beginn vor 25 Jahren bis heute immer konsequent das Kooperationsprinzip angewendet. Die 940 Alnatura Produkte werden von über 100 Herstellern für Alnatura produziert. Die Entwicklung und das Management, das Design wie auch der Vertrieb liegen in den Händen von Alnatura. Die Rezeptentwicklung, Produktion und Verpackung obliegt – nach prinzipieller Freigabe durch den Alnatura Arbeitskreis Qualität – dem jeweiligen Hersteller. Alnatura arbeitet mit sieben filialisierten Handelsunternehmen (Budni, Cactus, dm Deutschland, dm Österreich, Globus, Hit, tegut) zusammen. Alle Produkte und Dienste, die wir in den zusammen 2.800 Filialen unserer Handelspartner anbieten, sind zuvor besprochen und gemeinsam entwickelt worden. Auch hier findet das Kooperationsprinzip uneingeschränkt Anwendung. Anfang November 2009 haben wir unser neues Verteilzentrum in Lorsch (Südhessen) bezogen. Das 20.800 Quadratmeter große und 14 Meter hohe Gebäude wurde von einem Projektentwickler nach unseren Vorstellungen gebaut und von uns angemietet. In dem daneben stehenden Bürogebäude arbeiten vier Firmen unter einem Dach. Neben Alnatura hat dort auch unser Logistikpartner, der das Lager betreibt, Quartier bezogen. Darüber hinaus haben die Spediteure, die die Vorhol- und Ausrolllogistik für Alnatura wahrnehmen, einen Arbeitsplatz in unserem Haus. In enger Abstimmung miteinander ist der gesamte logistische Prozess gestaltet, der physisch komplett von unseren Partnern geleistet wird. Die konsequente Gestaltung der Prozesse nach dem Kooperationsprinzip stellt eine große Effizienzquelle dar, die durch kein anderes Verfahren der Zusammenarbeit übertroffen werden kann.
XI. Wertschätzung und Wertschöpfung Der Wert eines Unternehmens ist weniger der materielle Wert seines Anlageund Umlaufvermögens. Vielmehr wird der Wert durch die Wertschätzung, das Interesse der Kunden an den Produkten und Leistungen eines Unternehmens bestimmt. Je stärker die Kunden die Leistungen eines Unternehmens schätzen und nachfragen, umso größer ist der Wert, den das Unternehmen hat, und umso stärker kann sich das Unternehmen entwickeln. Insofern ist die Wertschätzung der Kunden entscheidend für die Wertschöpfung des Unternehmens. Je nachdem wie groß das Interesse der Kundinnen und Kunden ist, gelingt es, eine Wertschöpfung zu realisieren, die nach Abzug aller
218
Götz E. Rehn
Leistungen, die zu ihrer Generierung nötig waren, „Saatgut“ für neue Investitionen übrig lässt.
XII. Ideal und Wirklichkeit Alnatura ist ein Unternehmen, das ich in seiner sozialorganischen Ideengestalt, viele Jahre bevor das Unternehmen überhaupt mit seiner praktischen Tätigkeit begann, entwickelte. Die Idee, etwas Sinnvolles für Mensch und Erde zu gestalten, entspringt aus einer Weltauffassung, die alle Dimensionen der Wirklichkeit einzubeziehen versucht. Dementsprechend geht es um die Erkenntnis des Physischen, Lebendigen, Seelischen und Geistigen. Ich bin davon überzeugt, dass hinter allem Materiellen auch ein Geistiges steht und dass die Idee damit die Quelle für die jeweilige physische Erscheinung darstellt. Die Alnatura Vision „Sinnvoll für Mensch und Erde“ ist wie ein Leitstern zu begreifen, an dem wir uns orientieren. Zugleich ist es unsere Aufgabe, in größter Wachsamkeit alle Veränderungen, die sich im Verhalten, Denken und Fühlen unserer Kunden vollziehen, aufzunehmen und unsere Produkte und Leistungen permanent so zu verwandeln, dass sie in der jeweiligen Situation die Zustimmung der Kunden finden. In der Spannung von Ideal und Wirklichkeit entfaltet sich der reale Unternehmensprozess wie in einem Gegenstrom. Ausgehend von der jeweiligen Situation und beleuchtet von unseren Idealen entwickeln wir in einer offenen und engagierten Arbeitsgemeinschaft unsere Leistungen permanent neu. Dabei versuchen wir, die Rahmenbedingungen für die aktive und selbstverantwortliche Mitwirkung der Mitglieder unserer Arbeitsgemeinschaft zu schaffen und damit eine Arbeitsgemeinschaft zu sein, die im Dienst von Mensch und Erde wirksam ist. Das Alnatura Modell zeigt, dass Wirtschaft neu gedacht und neu gemacht werden kann. Ein Paradigmenwechsel hin zum Sinn-vollen Wirtschaften ist möglich, wenn der soziale Organismus in allen Dimensionen gedacht und bewusst sinnvoll gestaltet wird. Nur ein solches Denken und Handeln kann die Herausforderungen der Zukunft meistern.
Literatur Rehn, Götz (2010, i. E.): Die Befreiung der Führung, in: Werner, Götz W. / Peter Dellbrügger (Hrsg.): Sammelband zu Führung (Arbeitstitel), Karlsruhe. Rehn, Götz (1979): Modelle der Organisationsentwicklung, Bern. Rehn, Götz (2007): Wirtschaft neu Denken, unveröffentlichter Aufsatz zur Antrittsvorlesung an der Alanus Hochschule, Alfter.
Wirtschaft neu denken – das Alnatura Modell
219
Steiner, Rudolf (1918): Die Philosophie der Freiheit, Berlin. Steiner, Rudolf (1968): Geisteswissenschaft und soziale Frage, Dornach. Steiner, Rudolf (1931): Nationalökonomischer Kurs, Dornach. Witzenmann, Herbert (1998): Sozialorganik – Ideen zu einer Neugestaltung der Wirtschaft, Pforzheim.
Ökonomisierung der Wissensgesellschaft – eine Kette von Missverständnissen Von Cornelius Weiss 1 Dieser Beitrag ist weniger Grundsatzreferat denn besorgter Zwischenruf. Der Zwischenruf eines Naturwissenschaftlers, der in der DDR fast 30 Jahre an einer zentralistisch geleiteten und den Interessen der Volkswirtschaft fast völlig untergeordneten Universität gearbeitet hat, der Anfang der 90-ger Jahre zusammen mit vielen engagierten Gleichgesinnten aus Ost und West der Freiheit der Wissenschaft an der Universität Leipzig zum Durchbruch verhelfen wollte – wir nannten das damals „geistige und strukturelle Erneuerung“ – und der nun mit Unverständnis und Sorge beobachtet, dass den deutschen Hochschulen erneut ganz ähnliche Strukturen verordnet werden wie vormals in der DDR. Ich möchte in diesem Beitrag die These aufstellen und zu belegen versuchen, dass die zur Zeit in Deutschland stattfindende Debatte zur Rolle von Wissenschaft und Wissen in der Gesellschaft leider zunehmend von einer Reihe schwerwiegender Missverständnisse, Irrtümer und Vorurteile dominiert wird. Von Missverständnissen und Vorurteilen, die zum Teil auf die simple Unkenntnis der Natur und der Antriebskräfte der Wissenschaft zurückzuführen sind, die zum Teil aber auch gezielt gepflegt und verbreitet werden: sowohl von der Politik, um von ihrem langjährigen Versagen abzulenken, als auch von der Wirtschaftslobby, um eigene wissenschaftsfremde Interessen durchzusetzen. Diese Missverständnisse werden der Wissenschaft schweren Schaden zufügen und müssen folglich alsbald ausgeräumt werden. Die Wissenschaft darf nicht mehr nur andere über sich reden und verfügen lassen, sondern muss endlich von sich aus offensiv den Dialog oder notfalls den Streit mit der Politik und der Wirtschaft und auch den Medien suchen und sich in den für sie essentiellen Fragen selbstbewusst und nachdrücklich zu Wort melden. Fast täglich kann man von Politikern aller Ebenen und aller couleur die mit bedeutungsschwerer Stimme getroffene Aussage hören, dass Wissen zur wichtigsten Ressource der Zukunft geworden sei und die Wissenschaft folglich eine 1 Prof. Dr. Cornelius Weiss war Professor an der Fakultät für Chemie der Universität Leipzig und von 1991 – 1997 Rektor der Universität Leipzig. Von 1994 bis 1999 war er Vizepräsident für Studium und Lehre der Deutschen Hochschulrektorenkonferenz.
222
Cornelius Weiss
entscheidende Rolle für die weitere Entwicklung der Gesellschaft spiele. Dieser Satz ist per se durchaus richtig, aber er ist eher trivial und rennt offene Türen ein. Die Entwicklung der Menschheit wurde, seit es sie gibt, von Wissen – sei es durch zunächst unbewusst aus der täglichen Erfahrung gewonnenes oder später bewusst durch forschende Tätigkeit gewonnenes Wissen – getragen. Dieses uralte Wechselspiel zwischen Lernen, Wissen und produktiver Nutzung von Wissen hat Ende des vorigen Jahrhunderts durch die atemberaubend schnelle Entwicklung der elektronischen Datenverarbeitung und -übermittlung in der Tat qualitative, fast revolutionäre Veränderungen erfahren. Zugleich stehen die westlichen Industriegesellschaften heute vor ihrer größten Herausforderung seit der Erfindung der Dampfmaschine und des mechanischen Webstuhls. Die Trümpfe der klassischen material-, energie- und arbeitsintensiven Großindustrie sind weitgehend ausgereizt, weil es für ihre Produkte kaum mehr expandierende Märkte gibt. Die traditionellen Industrieprodukte können heute fast überall in der Welt hergestellt werden, häufig sogar deutlich billiger: u. a. wegen der niedrigeren Lohnkosten und der weniger strengen Umweltauflagen (ein Zustand, den ich übrigens aus moralischen Gründen für sehr bedenklich halte). In der Wirtschaft findet daher eine signifikante Verschiebung der relativen Gewichte weg von den materiellen hin zu den geistigen Ressourcen statt. Bereits jetzt ist Information zum wichtigsten Rohstoff geworden und Forschungs- und Entwicklungskompetenz zur strategisch entscheidenden Ressource einer Volkswirtschaft. Denn das mit Hilfe dieser Kompetenz aus Informationen durch Selektion, Kombination, Kondensation und Abstraktion abgeleitete neue Wissen stellt bereits einen möglicherweise entscheidenden Wettbewerbsvorteil dar. Und Exklusivwissen, Wissen also, über das andere nicht verfügen, ist inzwischen ein wichtiger Handels- und Exportartikel: entweder in materialisierter Form als innovatives oder billiger hergestelltes Produkt oder in ideeller Form als Lizenz oder Patent. Genau deswegen sprechen insbesondere Politiker und Wirtschaftsmanager heute ja gern (wenn auch etwas vollmundig) von der „Wissensgesellschaft“.
I. Missverständnis Nr. 1 Allerdings sind in diesem Zusammenhang oft zwei Aussagen zu hören, die zeigen, dass einige dieser Wortgewaltigen nicht genau wissen, wovon sie reden. So wird gern behauptet, dass sich gegenwärtig alle fünf bis sieben Jahre das Menschheitswissen verdoppelt. Dies wird ebenso simpel wie falsch aus der Tatsache geschlossen, dass die Zahl der mit der Herstellung von Wissen Beschäftigten – also der Wissenschaftler – ebenso wie die Menge der von ihnen produzierten und veröffentlichten Materialien exponentiell zunimmt. (Zur Zeit etwa erscheint weltweit ungefähr alle vier Sekunden eine Fachpublikation, wo-
Ökonomisierung der Wissensgesellschaft – Missverständnisse
223
bei allerdings bewusste und unbewusste Doppel- und Mehrfachpublikationen ein und desselben Sachverhalts sowie Veröffentlichungen nach dem Prinzip der kleinsten publizierbaren Einheit mitgerechnet sind.) Daraus aber abzuleiten, dass sich auch unser Wissen im selben Tempo vermehrt, ist ein Trugschluss. Nicht das Wissen wächst exponentiell an, sondern zunächst lediglich die Menge der verfügbaren Daten und Informationen. Daraus methodisch strukturiertes, gewichtetes und gesichertes Wissen zu extrahieren, ist ein ganz anderer Prozess, ein Prozess, der – je weiter die Wissenschaft in die Geheimnisse der belebten und der unbelebten Natur und des Geistes eindringt – ideell und materiell immer aufwändiger, also teurer wird. Wirklich relevantes neues Wissen wird deshalb immer seltener und kostbarer.
II. Missverständnis Nr. 2 Auf einem ähnlichen Irrtum beruht eine zweite oft zu hörende und eigentlich höchst arrogante Aussage: dass nämlich unser Wissen eine immer kürzere Halbwertszeit besitze, also immer schneller veralte. Schon die Verwendung des aus den Naturwissenschaften – nämlich der Kernphysik – stammenden und streng definierten Begriffs Halbwertszeit ist in Bezug auf Wissen semantischer Unsinn. Die Halbwertszeit ist die Zeit, in der von einer ursprünglich vorhandenen Menge radioaktiver Atome die Hälfte zerfallen ist. Nach dem Ablauf von zehn Halbwertszeiten ist also von der Anfangsmenge nur noch knapp ein Tausendstel, nach weiteren zehn Halbwertszeiten weniger als ein Millionstel übrig. Wenn also Wissen eine – völlig beliebige – endliche Halbwertszeit besäße, würde es irgendwann vollständig verschwunden sein. Richtig ist lediglich, dass jede neue Erkenntnis unweigerlich zu neuen Fragen führt. Oder wie schon Johann Wolfgang v. Goethe es ausdrückte: „mit dem Wissen wächst der Zweifel“. Aber dass auf die neuen Fragen, die unvermeidlich aus neuem Wissen erwachsen, stets neue Antworten gesucht und gefunden werden, bedeutet gewiss nicht, dass das bereits vorhandene systematische Wissen regelmäßig antiquiert oder wertlos wird, sondern dass es laufend weiterentwickelt, vertieft und verfeinert wird. Was tatsächlich immer schneller verschleißt, sind die Arbeitsmittel, das Handwerkszeug, mit dem aus Daten und Informationen Wissen gewonnen wird, also Hypothesen, Theorien und Modelle (im Klartext: Vermutungen und Hilfskonstruktionen) sowie die experimentellen Techniken, vor allem dann, wenn sie auf sehr spezifische Fragestellungen zugeschnitten sind. Wobei sogleich einschränkend zu bemerken ist, dass auch ältere, für bestimmte aktuelle Probleme unzureichende Theorien und Methoden bei anderen Fragestellungen durchaus zu richtigen Resultaten führen können. So hat das Theoriengebäude der klassischen Physik seine Bedeutung nicht verloren, nachdem die Quantenmechanik entwickelt wurde, und die Valenzstrichschreibweise der Chemiker ist nicht generell falsch, weil es die moderne Elektronentheorie der chemischen Bindung gibt.
224
Cornelius Weiss
Es kommt allerdings darauf an, bei der Benutzung eines bestimmten Modells oder einer Versuchsanordnung deren Anwendungsbereiche und -grenzen genau zu beachten. Dazu muss man diese kennen, und das ist eben auch wertvolles Wissen. Die stete Erweiterung und Verfeinerung des methodischen Arsenals ist im Übrigen wissenschaftsimmanent, der Mensch betreibt sie kontinuierlich, seit er versucht, seine Welt zu erkennen, zu beschreiben und daraus Nutzen zu ziehen. Trotzdem scheint es mir aus den oben genannten Gründen durchaus gerechtfertigt zu sein, von einem Übergang von der Industriegesellschaft zur Wissensoder besser Informationsgesellschaft zu sprechen. Die Gesellschaft ist deshalb mehr als jemals zuvor dafür verantwortlich und sollte (jedenfalls wenn sie nicht nur im heute lebt sondern auch an morgen denkt) mehr denn je daran interessiert sein, ihren Bürgern und insbesondere der jungen Generation alle Möglichkeiten des Wissenserwerbs, also des Zugangs zu einer gediegenen Bildung, offen zu halten. Und zwar keineswegs nur aus vordergründig wirtschaftlichen Überlegungen. Die Bildungsfrage ist vielmehr zum Schnittpunkt einer zukunftsorientierten und gerechten Gesellschafts-, Wirtschafts- und Sozialpolitik geworden. Denn Bildung entscheidet einerseits immer mehr über Lebensperspektiven und Teilnahmechancen eines jeden Einzelnen. Und andererseits bedarf die demokratische Gesellschaft insgesamt, um das von der Menschheit akkumulierte Wissen optimal zu ihrem Wohle und ihrer Weiterentwicklung nutzen zu können, ja, um überhaupt funktionieren zu können, gebildeter Bürger. In Kurzform: Bildung ist und bleibt ein gemeinnütziges öffentliches Gut. Wenn die Politik diese Sachverhalte, wie sie in ihren Sonntagsreden immer wieder behauptet, wirklich verinnerlicht hätte, sähe es heute in der deutschen Bildungs- und Forschungslandschaft wohl anders aus. Der Anteil der Bildungsausgaben am Bruttoinlandsprodukt wäre nicht von 6,9 % im Jahr 1995 auf 6,2 % 2006 zurückgegangen, Deutschland stünde in Europa nicht an drittletzter Stelle bezüglich seiner Aufwendungen für Bildung, die Hochschulen wären nicht seit drei Jahrzehnten extrem überlastet und unterfinanziert, die Investitionslücke bei der Hochschulsanierung würde nicht von Jahr zu Jahr größer. Aber die meisten Politiker, gefangen in ihren beschränkten Sach- und Zeithorizonten, haben nicht verstanden oder wollen gar nicht mehr verstehen, was Wissenschaft wirklich ist, wie sie funktioniert und was sie für die Gesellschaft bedeutet. Anders ist nicht zu begreifen, dass seit Jahren die Mahnungen des Wissenschaftsrates, dass Deutschland zu wenig für Bildung und Wissenschaft tut, ignoriert werden, anders ist nicht zu begreifen, dass die Politik zwar regelmäßig mit großem Aufwand sog. Bildungsgipfel, Exzellenzinitiativen, Hochschulpakte und ähnliche öffentlichkeitswirksame Aktionen inszeniert, den Hochschulen aber zeitgleich immer neue Mittel- und Stellenkürzungen zumutet. Anders ist auch das unkritische Nachbeten der vor allem aus einflussreichen Wirtschaftsverbänden stammenden und von einer breiten Öffentlichkeit unglücklicherweise inzwischen übernomme-
Ökonomisierung der Wissensgesellschaft – Missverständnisse
225
nen neoliberalen Weisheiten von Wettbewerb, Profilbildung, Qualitätssicherung, Leistungskontrolle und Leistungsanreizen, Effizienz, und – natürlich – Exzellenz nicht zu begreifen.
III. Missverständnis Nr. 3 Inzwischen scheint die Politik angesichts der von ihr selbst leichtfertig – Stichwort Steuersenkungswahn – leer geplünderten öffentlichen Kassen und unter dem Druck der Wirtschaftslobby vollends zu resignieren und sich unter dem Deckmäntelchen „Mehr Autonomie für die Hochschulen“ aus der Verantwortung stehlen zu wollen. Die jüngere Hochschulgesetzgebung in Bund und Ländern jedenfalls öffnet einer feindlichen Übernahme der Hochschulen durch die neoliberalen sog. Reformer Tor und Tür. Nach deren Vorstellungen sollen nun die Gesetze des Marktes ungeahnte Kräfte freisetzen und die angeblich „im Kern verrotteten“ Universitäten mit ihren „verkrusteten Strukturen“ und „faulen Professoren“ entfesseln und retten. Bildung – ursprünglich nach allgemeinem Konsens ein wichtiges Bürgerrecht – soll zur Ware, die Studierenden sollen zu Kunden gemacht werden, die angeblich unvermeidliche Einführung von Studiengebühren – in mehreren Bundesländern sind sie bereits gesetzlich vorgeschrieben – soll den Wettbewerb unter den Hochschulen ankurbeln und damit die Qualität des Studienangebots verbessern. Zugleich soll dadurch der erwünschte nachfrageund preisorientierte Steuerungseffekt auf die Hochschulen entstehen. Vermutlich ist dies schon kein Missverständnis mehr, sondern eine bewusste Irreführung der Öffentlichkeit. Denn die ökonomische Grundregel, wonach ein höherer Preis die Nachfrage senkt, gilt natürlich auch auf dem angestrebten Bildungsmarkt. Tatsächlich haben nach einer Studie des Hochschul-InformationsSystems HIS im Jahr 2006 rund 18000 Abiturienten – vor allem Frauen und junge Leute aus den sozial schwachen und bildungsfernen Schichten – nur deshalb auf ein Studium verzichtet, weil sie die geforderten Studiengebühren nicht aufzubringen vermögen. Damit werden nicht nur kostbare geistige Ressourcen verschenkt, sondern die für die Stabilität und Entwicklung der demokratischen Gesellschaft wichtigen sozial- und bildungspolitischen Aufgaben des Staates klar konterkariert. Zudem birgt das permanente Schielen auf den Markt die Gefahr, dass die Hochschulen, betriebswirtschaftlichen Überlegungen und modischen Trends folgend, der Verlockung erliegen, kostenintensive Studiengänge wie die Naturwissenschaften oder die Medizin sowie die schwächer nachgefragten sog. kleinen Fächer („Orchideenfächer“) am Bedarf der Gesellschaft vorbei zugunsten der kostenarmen Massenfächer abzubauen. Die daraus resultierende geistige Armut der Gesellschaft bis hin zum Banausentum ebenso wie akuter Fachkräftemangel auf (auch volkswirtschaftlich) wichtigen Gebieten ist abzusehen.
226
Cornelius Weiss
Es kommt hinzu, dass die weiteren originären Aufgaben und Angebote der Hochschulen – die primär zweckfreie Suche nach Erkenntnis und Wahrheit, die Befriedigung des angesichts der kaum noch beherrschbaren Datenflut wachsenden gesamtgesellschaftlichen Bedarfs an geistiger Orientierung, die Moderation des Dialogs der Denkrichtungen, Kulturen und Traditionen sowie des Gesprächs der Generationen, ihre Funktion als Zentren des Geisteslebens der Gesellschaft – ohnehin nicht marktfähig gemacht werden können, da sie weder quantitativ messbar noch vordergründig „verwertbar“ sind.
IV. Missverständnis Nr. 4 Inzwischen hat auch der Hauptprotagonist der aktuellen neoliberalen Hochschul-Reformwut, das vom Bertelsmann-Konzern gegründete und jährlich mit Millionen Euro geförderte Centrum für Hochschulentwicklung (CHE), wohl begriffen, dass über die Qualität von Forschung nicht das Verhältnis von Angebot und Nachfrage Aufschluss geben kann. Es hat daher das Hochschul- und Fakultäts-Ranking als Fiktion für den Marktwettbewerb entdeckt. Das Ranking ist der Versuch, durch die Abfrage bestimmter Daten – von Drittmitteln und Publikationen pro Wissenschaftler, von Ausstattungsmerkmalen, von subjektiven Beurteilungen durch Professoren und Studenten sowie durch die Personalchefs von Betrieben, die Absolventen der Hochschulen beschäftigen, etc.- Qualität in Zahlen auszudrücken und damit Objektivität und Vergleichbarkeit vorzuspiegeln. Wie zweifelhaft sowohl die methodischen Grundlagen als auch die Ergebnisse dieser Art der Qualitätsbewertung trotz aller Erweiterungen und statistischen Raffinessen sind, wurde auf dieser Tagung bereits mehrfach belegt. Wir sollten uns lieber darauf verlassen, dass die Angehörigen der Scientific Community in der Regel sehr gut beurteilen können, wie es um die Qualität der Forschung sowohl der mit ihnen entweder kooperierenden oder konkurrierenden engeren Fachkollegen als auch ganzer Fakultäten und Hochschulen steht, ganz einfach weil auf jedes irgendwo publiziertes Forschungsergebnis irgendwann zurückgegriffen wird und dabei sein Wahrheitsgehalt ebenso wie seine Relevanz automatisch an den Tag kommt.
V. Missverständnis Nr. 5 Natürlich müssen entsprechend der neuen Wettbewerbsideologie auch die Hochschulen „unternehmerisch“ agieren, dazu brauchen sie nach Ansicht der Marktradikalen keine oder nur höchst eingeschränkte Mitwirkungsrechte der Hochschulangehörigen und keine Bottom-up-Strukturen demokratischer Willensbildung und Interessenvertretung, in denen angeblich jede geplante Neuerung zerredet und nur bürokratische Hemmnisse aufgebaut werden. Sie brauchen viel-
Ökonomisierung der Wissensgesellschaft – Missverständnisse
227
mehr streng hierarchische Unternehmensstrukturen möglichst nach dem Vorbild einer Aktiengesellschaft, ein „modernes professionelles Management“ mit fast unbegrenzten Entscheidungsbefugnissen, das von der Spitze aus bis in die letzte Verzweigung des „Unternehmens Hochschule“ straff durchregiert, mehr oder weniger selbstherrlich die strategischen Entscheidungen trifft und dem „Personal“ – gemeint sind die Wissenschaftler – ohne lange Diskussion quasi per Dekret vorgibt, was zu tun und was zu unterlassen ist, wie die Ressourcen einzusetzen sind, welches Wissens- oder Lehrgebiet Marktchancen hat und daher zu fördern ist und welches nicht. Die dieser Logik folgende Gesetzgebung schreibt inzwischen in fast allen Bundesländern die rigorose Beschneidung der Kompetenzen oder sogar die völlige Abschaffung der wichtigsten Gremien der akademischen Selbstverwaltung wie z. B. des Konzils – also des Parlaments der Hochschule – vor. In diesem Zusammenhang macht es schon sehr nachdenklich, dass kürzlich ein Ministerpräsident und Landesvorsitzender einer großen Volkspartei vor Studierenden erklären konnte, dass Demokratie, weil angeblich ineffizient, nicht in die Hochschulen gehöre. Ja, natürlich, Demokratie ist teuer, anstrengend und oft genug sehr zeitaufwendig. Und die Parlamente können für die Regierenden durchaus lästig werden, da sie deren immanente Selbstherrlichkeit und Eigenmächtigkeit begrenzen. Aber gerade das ist ja der Sinn und die Stärke der Demokratie, gerade dadurch kann sie dazu beitragen, Fehlentwicklungen zu vermeiden. Sie aus Gründen einer falsch verstandenen Effizienz in Frage zu stellen – hier hätte ich einen Aufschrei der Öffentlichkeit oder wenigstens deutlichen Widerspruch von Seiten politischer Institutionen oder etwa der Hochschulrektorenkonferenz erwartet. Ich halte es jedenfalls für einen groben Verstoß gegen unsere Sorgfaltspflicht für die nächste Generation, die Demokratie ausgerechnet an den Hohen Schulen der Nation, wo junge Menschen sie erfahren, üben und leben sollten, mit welcher Begründung auch immer zu diskreditieren, einzuschränken oder gar vollends abzuschaffen. Im Übrigen lehrt jahrhundertlange Erfahrung, dass Wissenschaft nicht von oben gelenkt oder gar befohlen werden kann. Kein Manager, und sei er noch so hoch bezahlt, gebildet und erfahren, kein Politiker, keine Kommission, nicht einmal ein ggf. mit der Evaluierung beauftragter ausgewiesener Fachkollege kann ein bestimmtes Forschungsvorhaben besser verstehen als die konkret damit befassten Wissenschaftler. Und selbst diese können nur sehr selten beurteilen, ob, wie und wann dieses Vorhaben in irgendeiner Weise Früchte tragen, also zu relevanten neuen Erkenntnissen oder gar zu wirtschaftlich verwertbaren Innovationen führen wird. Wissenschaft ist und bleibt ein mit Risiken und Irrtümern verbundener chaotischer Prozess, sie geht verschlungene, manchmal sogar spielerische Wege und braucht einen langen Atem. Ihre Ergebnisse lassen sich prinzipiell nicht rational planen. Was sich planen lässt, ist lediglich das schon grundsätzlich Bekann-
228
Cornelius Weiss
te, sind bestenfalls Präzisierungen und Weiterentwicklungen. Dagegen wurden fast alle bahnbrechenden Entdeckungen in der Geschichte eher zufällig und unerwartet gemacht, sie waren Früchte des unruhigen Geistes und des selbst bestimmten (Quer-)Denkens und Forschens und mussten sich häufig erst in langen z.T. schmerzhaften Auseinandersetzungen gegen die bis dahin herrschende Lehrmeinung (die Basis jeder „Planung“ also) durchsetzen. Jede Art von „Kommandowissenschaft“ ist daher ein Widerspruch in sich.
VI. Missverständnis Nr. 6 Natürlich soll das neu etablierte Hochschulmanagement auch die erforderlichen Leistungskontrollen veranlassen und durch geeignete materielle Leistungsanreize die Effizienz von Forschung und Lehre verbessern. So und nur so könne letztendlich Exzellenz erreicht werden. Mit derartigen Aussagen offenbaren die Apologeten des Marktes ihr absolutes Unverständnis für die wahren Antriebskräfte der Wissenschaft und für ihre bewährten Kontroll- und Selbststeuerungsmechanismen und ihr tiefes Misstrauen gegenüber den Wissenschaftlern. Sie verkennen völlig, dass die wichtigste Motivation für den leidenschaftlichen Forscher die produktive Neugier ist, der zutiefst menschliche Drang, bisher Unbekanntes zu erkunden, zu sehen, was hinter dem Horizont ist, den Dingen auf den Grund zu gehen. Das ist es, was ihn gelegentlich Feierabend, Familie und die eigene Gesundheit vergessen lässt. An zweiter Stelle steht der verständliche Wunsch, innerhalb der engeren oder weiteren Wissenschaftsfamilie bekannt zu sein und Ansehen zu genießen. Erst ganz zuletzt kommen die finanziellen Anreize. Und wer nicht vom Feuer der Wissenschaft erfasst ist, wer nicht den Drang kennt, sein Wissen mit anderen zu teilen, und die Studierenden nicht als Partner schätzt, wird auch durch ein Traumgehalt nicht zu einem erfolgreichen Forscher und guten Hochschullehrer. Ganz im Gegenteil droht die Gefahr, dass Menschen an die Hochschulen gelockt werden, die eben nicht in die Wissenschaft gehören, die weniger nach Erkenntnis denn nach Karriere und sicherem Auskommen streben und sich geistig zur Ruhe setzen, sobald sie sich eine Professur verdient haben.
VII. Missverständnis Nr. 7 Damit der Wettbewerb zwischen den Hochschulen auch richtig funktioniert, muss schließlich dafür gesorgt werden, dass der Einfluss von Staat und Politik auf ein Minimum reduziert wird. Den Parlamenten, die eigentlich für die Wahrung gesamtgesellschaftlicher Interessen gegenüber den Hochschulen verantwortlich sind, ist die Rolle von bloßen Zahlmeistern zugedacht, sie haben nur noch die staatlichen Zuschüsse zu gewähren und Finanzierungssicherheit bis zum Ende der jeweiligen Legislaturperiode zu garantieren.
Ökonomisierung der Wissensgesellschaft – Missverständnisse
229
Als Organ der Finanz- und auch Fachaufsicht wird dem Management der Hochschule nach dem Vorbild einer Aktiengesellschaft eine Art Aufsichtsrat gegenübergestellt. Dieser sog. Hochschulrat ist mit weit reichenden, die Interessen und Aufgaben der Hochschulen direkt tangierenden Kompetenzen ausgestattet und besteht in der Regel mehrheitlich aus Vertretern der Wirtschaft, des öffentlichen Lebens und des zuständigen Ministeriums, also aus eher wissenschaftsfernen Personen. Geradezu skandalös für einen demokratischen Rechtsstaat ist die Tatsache, dass dieser Hochschulrat keiner irgendwie legitimierten Instanz gegenüber rechenschaftspflichtig ist. Seine Mitglieder entscheiden vielmehr, auch wenn sie dies nach bestem Wissen und Gewissen tun, über das Schicksal der ihnen anvertrauten Hochschule und damit über das Geld der Steuerzahler allein und ohne persönliches Risiko nach ihrem subjektiven wissenschaftlichen, politischen oder ökonomischen Gusto. Die versprochene Hochschulautonomie erweist sich also als glatter Etikettenschwindel. Die bisherige Fremdsteuerung durch die Ministerialbürokratie wird lediglich gegen die Fremdsteuerung durch den Hochschulrat und die ausufernden Bürokratien der Evaluierer, Akkreditierer und Zertifizierer ausgetauscht. Mit dem Unterschied, dass die neue Fremdsteuerung für die Hochschulen deutlich teurer wird als die alte. Und mit dem gravierenden Nachteil, dass die Hochschulen in absehbarer Zeit nicht mehr primär gesamtgesellschaftlichen Interessen, sondern vor allem denen der Wirtschaft dienen werden.
VIII. Das Wissenschaftssystem der DDR In diesem Zusammenhang ist übrigens ein Blick auf die Organisation der Forschung und des Hochschulwesens in der DDR sehr lehrreich. Wissenschaft wurde in der DDR rein utilitaristisch als Produktivkraft verstanden, die sich strikt an den Bedürfnissen der Volkswirtschaft zu orientieren hatte. Selbst die Grundlagenforschung sollte möglichst „anwendungsorientiert“ erfolgen und wurde zunehmend zugunsten der Auftragsforschung vernachlässigt. Die Forschung galt grundsätzlich als planbar und war Teil der Volkswirtschaftspläne. Die strategischen Grundsatzentscheidungen fielen in der Abteilung Wissenschaft beim ZK der SED, im Ministerrat und im Forschungsrat der DDR. Die Planung, Leitung, Termin- und Ergebniskontrolle der in sog. Pflichtenheften fixierten konkreten Forschungsaufgaben erfolgte einerseits durch die Auftraggeber aus der Industrie bzw., soweit es sich um Themen der angewandten Grundlagenforschung handelte, streng zentralistisch über sog. Hauptforschungsrichtungen (HFR) und die ihnen untergeordneten Forschungsrichtungen (FR). Als Anreizsystem diente der „sozialistische Wettbewerb“ zwischen den einzelnen Forschungseinrichtungen, also auch zwischen den Hochschulen ebenso wie zwischen deren Substrukturen, sowie ein System von Erfolgsprämien und leis-
230
Cornelius Weiss
tungsbezogenen Gehaltszuschlägen (LAZ = leistungsabhängiger Zuschlag, LOZ = leistungsorientierter Zuschlag), die von den jeweils höheren Ebenen an die Berichtspflichtigen vergeben werden konnten. Die wichtigsten Kriterien für die Qualität von Forschung waren die Wirksamkeit in der Produktion und die Einhaltung der geplanten Termine. Das Ganze war verbunden mit einem umfangreichen bürokratischen Antrags- und Berichtswesen, das viel Papier und Arbeitskapazität verbrauchte. Auch die innere Struktur der Hochschulen folgte dem Prinzip des „demokratischen Zentralismus“. Der Rektor wurde nicht frei gewählt, sondern der Hochschule nach jahrelanger Vorbereitung im „Kaderentwicklungsprogramm“ und nach Auswahl und Prüfung durch den Partei- und Staatsapparat „vorgeschlagen“ und im Konzil per Akklamation bestätigt. Er und die Prorektoren besaßen in allen Fragen von Forschung und Lehre Weisungsrecht gegenüber allen Hochschulangehörigen, also auch gegenüber den Sektionsdirektoren und Wissenschaftsbereichsleitern. Ein – ebenfalls nicht gewählter – „Gesellschaftlicher Rat“ aus Vertretern der Wirtschaft und des Partei- und Staatsapparates hatte in etwa die gleichen Vollmachten wie die heutigen Hochschulräte.
IX. Fazit Es scheint nach den schlechten Erfahrungen mit der Wissenschafts- und Hochschulpolitik der DDR paradox, aber die Analogien zwischen dem damaligen und dem heute wieder weit verbreiteten grundsätzlichen Unverständnis für das Wesen der Wissenschaft, zwischen den ebenso hilflosen wie untauglichen Versuchen der Planung und Lenkung von Forschung damals und heute und zwischen der Struktur der DDR-Hochschulen und dem heute propagierten marktwirtschaftlichen Leitbild der Hochschulen sind unübersehbar. Die von der Wirtschaft und der Politik mit geradezu missionarischem Eifer verbreiteten neoliberalen Heilslehren und Patentrezepte zur Förderung der „Effizienz“ wissenschaftlichen Arbeitens erweisen sich also in Wahrheit als alte Hüte und haben ihre Untauglichkeit bereits zur Genüge bewiesen. Es ist an der Zeit, dass wir, in der besonderen Verantwortung für die Freiheit und die Entwicklung der Wissenschaft in unserem Lande, uns entschieden gegen die von blanker Ignoranz und privaten Interessen getragenen Zumutungen und Einmischungen der selbsternannten „Hochschul-Reformer“ und die damit unweigerlich verbundene Trivialisierung und Barbarisierung des Wissens zur Wehr setzen. Es würde den ostdeutschen Hochschulen mit ihren noch relativ frischen Erinnerungen an die Zeit der Plan- und Kommandowissenschaft gut zu Gesicht stehen, hierbei mutig voran zu gehen.
Ökonomisierung der Wissensgesellschaft – pro Von Bruno S. Frey 1 Herzlichen Dank für die freundliche Einleitung. Es ist natürlich eine riesige Ehre, an einer Universität zu sein, die 600 Jahre alt ist oder genauer 600 Jahre Zukunft hat. Ich komme selbst von einer Universität – genau wie Herr Schefold von der Universität Basel – und wir finden, wir sind eine sehr alte Uni, aber wir sind nur 550 Jahre alt. Sie schlagen uns um glatte 50 Jahre und man merkt es wohl auch. In welcher Richtung auch immer, das weiß ich nicht so genau. Ich finde eine Ökonomisierung der Wissensgesellschaft völlig richtig. Es ist genau das, was man tun muss, aber das Problem ist, man muss es richtig machen und heute wird es total falsch gemacht. Es findet eine Ökonomisierung der Wissensgesellschaft statt, wobei die Ökonomisierung eine Pfahlbauernökonomie ist, mit der moderne Ökonomen nichts mehr zu tun haben oder mindestens haben sollten. Ich werde also plädieren, Ökonomisierung ist gut, aber man muss dazu die richtige Ökonomie verwenden und die ist eben anders als diejenige, die im Moment angewandt wird und das führt auch zu einem ganz anderen Vorgehen. Das heutige Verständnis von Ökonomisierung bedeutet, dass man den materiellen Output, das materielle Resultat, das zählbare, das unmittelbar zählbare Resultat maximiert. Das klingt noch abstrakt, aber wenden Sie es auf Bildung an! Das bedeutet, die beste Bildung ist diejenige, die nachher zum höchsten Einkommen verhilft. Einkommen kann man gut messen und zählen, jeder versteht es und dann ist eben das Studium am besten, welches einem nachher das höchste Einkommen verschafft. Das bedeutet selbstverständlich, dass man nur noch Betriebswirtschaftslehre studieren sollte oder vielleicht Ingenieurswissenschaften, aber ganz sicher nicht Archäologie oder Philosophie oder andere Fächer. Ich finde, wenn man schon Outputmaximierung macht, dann muss man es richtig machen und nicht so halb. Da gibt es solche, die sagen, ja, jetzt müssen wir die Hochschule mal wirklich ökonomisieren – dann sollten Sie die Konklusion auch ziehen und alle Fächer abschaffen, die nichts bringen. Ich finde diese Konsequenzen natürlich, wie Sie sicher schon gemerkt haben, nicht gerade sehr 1 Prof. Dr. Bruno S. Frey ist Inhaber des Lehrstuhls für Wirtschaftspolitik und außermarktliche Ökonomik der Universität Zürich. Der folgende Beitrag entspricht dem Vortrag an der Universität Leipzig am 4. Dezember 2009. Der Vortragsstil wurde beibehalten.
232
Bruno S. Frey
sinnvoll. Was es für den Studienbetrieb bedeutet, ist auch klar: Man muss möglichst schnell, möglichst gezielt und direkt das Studium absolvieren und ja nicht irgendetwas anderes nebenbei noch anschauen. Ich möchte aber nicht allgemein bei der Wissensgesellschaft bleiben, sondern eine konkrete Anwendung versuchen, und zwar eben die falsche Ökonomisierung an den Universitäten wie z. B. an dieser hier. Und da gibt es ja zwei große Bereiche. Der erste Bereich ist in der Lehre und ich habe hier hingeschrieben, was das bedeutet. In der Lehre bedeutet diese Outputmaximierung ganz einfach, dass die Studierenden ihre Anrechnungspunkte akkumulieren müssen und das bedeutet, dass die Studierenden auf eine Punktejagd geschickt werden und das ist z. B. der Grund, weshalb die Studenten auch nicht hier anwesend sind. Wir haben das vorher besprochen, und vielleicht sollte man das nicht sagen, aber ich glaube, das ist einfach die Wahrheit. Ist doch ganz simpel: Wenn sie hier wären, gäbe das erstens keinen Punkt und würde ja zweitens nicht geprüft. Warum sollten sie denn hier sein? Wir haben es ihnen ja beigebracht. Dann sollten wir auch nicht erstaunt sein, wenn sie eben rational sind, sich ökonomisch verhalten und dann eben nicht kommen! Genauso, wenn wir an der Universität einen Gastredner einladen: Sei er auch noch so prominent, es kommt natürlich kein Student. Warum sollten sie auch? Wir haben ihnen ja gesagt, es zählen nur diese Pünktchen. Und das machen sie. Insofern bin ich ein überzeugter Ökonom. Die Studierenden verhalten sich rational, eigennützig, ökonomisch, weil wir es ihnen auch entsprechend diktiert haben. Aber ich möchte nicht über Lehre sprechen, sondern ich möchte in meinem Vortrag verstärkt auf Forschung eingehen, weil auf diesem Feld auch sehr viel passiert. Und was heute das Typische ist: Eine Universität wird als Unternehmung angesehen. Und für viele klingt das ganz toll. Unternehmung, da läuft doch was, da geschieht was. Und dann soll sich eben auch eine 600 Jahre alte Institution entsprechend wie eine Unternehmung verhalten. Die Universität sollte eine Unternehmung sein, an der Spitze ein Chief Officer und es gibt einen Chief Financial Officer und jemanden, der die Universität nach außen verkauft usw. Ein bisschen übertreibe ich, aber nicht sehr viel. Ich kenne mehrere Universitäten, wo das genau so gemacht wird. Das heißt, es wird das New Public Management auf die Universität angewandt. Was könnte das bedeuten? Das ist die Übertragung dieser Prinzipal-Agenten-Theorie der Wirtschaftswissenschaft auf die Universität. Bei Firmen haben wir ja ein Problem, nämlich dass die Inhaber, die das ganze Risiko tragen, die das Geld eingebracht haben, enttäuscht darüber sind, dass die Manager oft etwas anderes machen. Das Problem besteht also darin, das Interesse der Manager und der Firmeninhaber, Aktionäre, in die gleiche Richtung zu lenken und das macht diese Prinzipal-Agenten-Theorie. Die Vorstellung ist, man muss die Manager genau überwachen, und wenn sie nicht genau das tun, was die Aktionäre wollen, müssen wir sie bestrafen und die Bestrafung ist üblicherweise, dass Einkommensein-
Ökonomisierung der Wissensgesellschaft – pro
233
bußen erfolgen. Das Instrument, welches dann unmittelbar auf die Universität angewandt wird, ist vor allem Leistungsentlohnung. Ein gefährliches Wort, denn was kann man schon gegen Leistungsentlohnung haben? Man kann ja nicht sagen, ich entlohne Sie für keine Leistung. Jeder Journalist und jeder Politiker findet deshalb Leistungsentlohnung etwas ganz Tolles, das müssen wir jetzt endlich mal an der Universität einführen. Das ist sowieso ein langweiliger Haufen da an der Uni, die leisten ja nichts, Leistungsentlohnung muss jetzt her. Wie wird die gemacht? Selbstverständlich, es wird gezählt, nämlich Publikationen. Das ist wirklich kein Witz, es werden heute Publikationen einfach zusammengezählt und dann wird gesagt, wer die meisten Publikationen hat, ist sozusagen der Beste. Und dann gibt es ein paar Leute, die sagen, ja, das ist dann doch ein bisschen oberflächlich, denn nicht jede Publikation ist genau gleich gut wie die andere, deshalb werden dann die entsprechenden Zitierungen angesehen. Zitierungen in anderen Fachzeitschriften. Und das wird heute oder seit vielen Jahren schon alles ganz, ganz präzise erfasst in Philadelphia vom ISI, sodass wir also die Zitierungen aller Wissenschaftler praktisch auf der ganzen Welt kennen. Und dann sagt man noch, ja, Zitierungen, ist ja schon recht, aber jetzt müssen wir noch eine Stufe weitergehen. Zitiert werden in einer wichtigen Zeitschrift ist wichtiger als in einer unwichtigen Zeitschrift. Und dann nimmt man die Impact Factors. Der Impact Factor zählt ganz einfach, wie oft eine Zeitschrift im Durchschnitt zitiert wird. Und das dient dann als Gewichtung. Sie sehen also, die Leistung wird jetzt unmittelbar und ganz direkt zählbar gemacht und dann werden die Leute entsprechend entlohnt. Und es gibt bereits im deutschen Sprachraum Universitäten, die ihren jungen Leuten 3.000 und 5.000 Euro für einen Artikel in einer guten Zeitschrift zahlen. Das ist dann Leistungsentlohnung. Jetzt kommt aber die nächste Stufe und die ist vielleicht noch wichtiger: Jetzt werden nämlich die Dinge zusammengezählt. Und zwar wird dann gezählt, wie viele Publikationen, Zitierungen usw. eine bestimmte Universität hat. Das ist heute schon Gang und Gäbe. Es gibt genaue Rangfolgen von Universitäten, ich weiß jetzt nicht, wo die Universität Leipzig in solchen Rankings steht, aber ich weiß, dass z. B. die ETH in Zürich sehr stolz darauf ist, dass sie – wie ich glaube – unter den Top 50 der Welt ist usw. Blickt man auf einzelne Fachbereiche, ist auch da in der Innensicht heute genau bekannt, welcher Fachbereich im Moment z. B. in meinem eigenen Fach, in den Wirtschaftswissenschaften, der beste im deutschsprachigen Raum ist, auf welcher Stufe er in Europa und dann auf der ganzen Welt ist. Und dann werden, das ist dann das ultimative Ranking, einzelne Personen eingestuft, ganz genau. Man weiß also von jedem Kollegen inzwischen, welche Nummer er ist und wenn eben eine höhere Nummer in den Raum kommt, dann hört man ihm nicht mal mehr zu, denn der hat ja nichts zu melden. Oder die Dame hat nichts zu melden, denn der Kollege ist ja Nr. 37 oder 85 oder 1.253. Ein bisschen übertreibe ich, aber nicht sehr viel. Es kommt immer darauf an, wo man sich bewegt. Und wenn man sich wirklich dort bewegt, wo die Leute glauben, dass man sich bewegt, wenn
234
Bruno S. Frey
man wichtig ist in der Wissenschaft, dann läuft das alles heute so. Weitgehend mindestens. Und dann kommen noch, das ist mein privates Hobby, Exzellenz-Universitäten. Ich glaubte, in Deutschland gibt es unterschiedliche Universitäten mit unterschiedlichen Schwerpunkten. Längst vorbei. Es gibt nur zwei Universitäten. Solche, die es nicht geschafft haben und solche, die es geschafft haben. Und die Exzellenz-Universitäten, die haben es geschafft und die anderen sind eben nicht so exzellent. Punkt. Und was geschieht dann? Diejenigen, die ExzellenzUniversitäten sind, das ist ja jetzt gerade vor etwa einem Jahr oder so entschieden worden, die sind jetzt schon in vollem Lauf, sich diesen Status zu erhalten. Ich habe mit einem Professor von der Universität Heidelberg gesprochen und er hat gesagt: „Mir wäre es lieber, und der Universität Heidelberg hätte es auch besser getan, nicht exzellent zu werden, denn jetzt müssen sie sich intensiv bemühen, diesen Rang nicht zu verlieren.“ Denn das ist das Allerschlimmste, was auf Gottes Erden passieren kann: Zuerst exzellent zu sein und dann abzusteigen. Aber einige müssen ja absteigen, sonst hätte man ja schon vor 600 Jahren solche Exzellenz-Universitäten festlegen können. Es muss also dann ersetzt werden. Mit anderen Worten: Die Wissenschaftler beschäftigen sich nicht mehr mit Wissenschaft, sondern mit dem Schreiben von Programmen, mit Zukunftsvisionen, die dem Wissenschaftsrat oder wer immer das beschließt gut gefallen. Und die Aktivität ist nicht mehr, sich hinzusetzen und zu forschen, sondern die Aktivität ist, solche schönen Programme zu entwickeln, die alle in die Luft geschrieben sind. Ich habe mir das zum Vergnügen gemacht, mir so etwas mal anzusehen. Es gibt so ein Büchlein, ich glaube, das hat der Wissenschaftsrat rausgegeben, mit schönen vielen bunten Bildern, ist ganz wichtig, und es muss schön aussehen, Hochglanz, hat sicher sehr viel Geld gekostet. Und darin steht von jeder Exzellenz-Universität, warum sie exzellent ist. Jede schreibt genau das Gleiche, interdisziplinär muss man sein, man muss die Jungen fördern und vermutlich die Alten loswerden und so Zeug. Bei allen steht genau das Gleiche. Und von Inhalt keine Spur. Rankings, Exzellenz-Universitäten. Ich möchte weitergehen und diese Rankings mal ein bisschen schildern. Die Rankings, also die Einstufungen der einzelnen Wissenschaftler, dann Fachbereiche, Fakultäten und Universitäten, die werden auf Grundlage von Gutachten gemacht. Heute heißt das Peer Review, durch Gutachten anderer Wissenschaftler. Jetzt möchte ich betonen, ich halte das für genau das Richtige, und zwar, weil der Markt schlecht oder gar nicht darüber entscheiden kann, welche Forschung gut ist. Weil das zu lange dauert. Es kann jemand etwas sehr Interessantes, Wichtiges entwickeln, aber das dauert dann vielleicht 20, 30 oder 50 Jahre, bis es sich auf dem Markt niederschlägt und sichtbar wird. Die einzigen, die bestenfalls die Arbeiten in der Wissenschaft beurteilen können, sind andere Wissenschaftler. Also, soweit bin ich völlig einverstanden. Aber jetzt muss man auch die Probleme sehen. Das erste Problem, was ich da aufgeführt habe, ist geringe Einigkeit
Ökonomisierung der Wissensgesellschaft – pro
235
zwischen den Gutachtern. Sie sehen hier, die Korrelation ist nicht gerade hoch: 0,09 bis bestenfalls 0,5. Das heißt, normalerweise beurteilen in meiner Wissenschaft, der Wirtschaftswissenschaft, mindestens zwei Leute einen Aufsatz, der in einer wissenschaftlichen Zeitschrift eingereicht wird. Und da ist die Korrelation also so. Wenn es drei sind, sinkt natürlich die Gesamtkorrelation noch mehr und wenn es vier und fünf sind, wie das zum Teil in der Betriebswirtschaftslehre der Fall ist, ist kaum mehr Einigkeit vorhanden. Interessanterweise ist die Einigkeit etwas höher, wenn es um schlechte Papiere geht. Da können sich die Wissenschaftler besser einigen, was ein schlechtes Papier ist, aber wenn es um neuartige gute Papiere geht, ist die Einigkeit gering. Daraus resultiert dann aber auch geringe prognostische Qualität. Das bedeutet, prognostische Qualität kann man dadurch erfassen, dass man sagt, wir schauen uns an, wie die Gutachter ein Papier beurteilen. Bringt es etwas, ist es zukunftsorientiert, ist es interessant, und dann schaut man die nachherigen Zitierungen an. Die Zitierungen, die sich über die Zeit akkumulieren. Und da zeigt sich sehr wenig Übereinstimmung. Also, die Wissenschaftler, selbst die Wissenschaftler, haben große Probleme vorauszusehen, welche Aufsätze nun wirklich diejenigen sind, die ein paar Jahre später als bedeutend angesehen werden, auch wieder unter Wissenschaftlern. Dann gibt es noch die verzerrte Wahrnehmung. Neue, unkonventionelle Ideen haben fast keine Chance in einem solchen herkömmlichen Gutachterprozess und ein Grund – es gibt verschiedene Gründe – ist, dass man heute ja sehr viele Gutachten schreiben muss. Wer ein bisschen etabliert ist in einem Fach, kriegt sehr, sehr viele Anfragen. Also, z. B. ich kriege etwa jeden Tag eine Anfrage. Das kann ich natürlich nicht bearbeiten, ist ja klar. Was macht man? Man gibt es den Doktoranden weiter und sagt, schauen Sie doch das bitte mal an. Und jetzt müssen Sie sich mal das Kalkül dieser armen Menschen anschauen. Wenn jemand mit einem schönen braven Artikel kommt, den er beurteilen soll, wo nur sein Epsilon geändert ist, dann kann der Doktorand sagen, ja, das ist gut, das ist korrekt, da ist die Mathematik richtig und die statistischen Schätzverfahren sind in Ordnung und gibt das seinem Professor oder seiner Professorin weiter. Aber wenn jemand mit einer neuen Idee kommt, was soll dann der arme Doktorand sagen, denn er weiß ja nicht, was sein Meister denkt oder seine Meisterin. Infolge dessen ist es viel klüger von ihm, zu sagen, ja, diese neue Idee ist zwar ganz interessant, aber noch nicht ausgereift, die ist noch nicht soweit, dass sie publiziert werden könnte und dann schreibt das der Meister dahin und das bedeutet, dass originelle Ideen praktisch keine Chance haben. Und wenn Sie sich die großen Wissenschaftler anschauen, also die wirklich großen Wissenschaftler in unserer Vergangenheit, die wären wohl alle an einem solchen Verfahren gescheitert. Denn sie haben ja Dinge gesagt, die eben unkonventionell waren, die eben von den meisten Leuten damals als falsch angesehen wurden, aber eben zukunftsträchtig waren. Dann sind Gutachter natürlich normale Menschen, nicht besonders böse Menschen, sondern ganz normale Menschen. Und ganz normale Menschen sind
236
Bruno S. Frey
ziemlich eitel. Und wenn jemand einen Artikel einreicht, bei dem man viel zitiert ist, das hat man ganz gern und dann ist die Chance sehr viel besser. Dann kommt es natürlich zu Tauschhandel: Wenn ich in meinem Aufsatz Sie zitiere, dann werden Sie mich doch in Ihrem Aufsatz zitieren usw. Alles völlig rational. Und so läuft es dann auch. Auf der anderen Seite gibt es einige technische Mängel bei diesem ReviewVerfahren: Namen. Wenn man einen einfachen Namen hat, hat man Glück, aber wenn man aus Indien stammt mit einem so ellenlangen Namen und vielen H’s und P’s und die so durcheinander gehen, das schaffen die Computer nicht oder wenigstens die Leute, die das eintippen, schaffen es nicht. So passieren bei Leuten mit komplizierten Namen erstaunlich viele Fehler. Man denkt immer, im 21. Jahrhundert könne so was nicht passieren. Nein, ist nicht wahr. Etwa 30 % der Namen sind irgendwie falsch und dann ist natürlich die Einschätzung nicht mehr richtig auf der Ebene der Rankings. Dann ist auch nachgewiesen, ganz praktisch nachgewiesen: Wenn man die Klassifikation ein ganz kleines bisschen ändert, kommen ganz andere Ergebnisse raus. Dann ein weiteres Problem, eher methodisch, ist schon etwas grundsätzlicher. Bei den Zitierungen ist es natürlich etwas Anderes, aber wenn die Zahl der Publikationen angesehen wird, werden nur Zeitschriftenartikel in ganz bestimmten Zeitschriften gezählt. Es geht zwar um tausende, aber sobald man in einem anderen Fach publiziert, z. B. wenn ein Ökonom so unvernünftig wäre und würde auch mal in einer juristischen Zeitschrift oder in einer soziologischen Zeitschrift veröffentlichen, zählt das nicht. Denn wir schauen nur, was in den ökonomischen Zeitschriften veröffentlich ist. Von Büchern nicht zu reden oder anderen Veröffentlichungsmöglichkeiten. Der Matthäus-Effekt, der ist enorm stark geworden in diesem System. Sie müssen immer sehen, wir leben jetzt in diesem System, in dem nur die Rankings zählen. Und die Leute passen sich an und da kommen dann Dinge rein, die mit Wissenschaft furchtbar wenig zu tun haben. Der Matthäus-Effekt bedeutet, dass man bestimmte Dinge auf Knopfdruck zitiert. Das heißt, zu irgendeinem Thema gibt es die etablierte Literatur und die muss zitiert werden, weil sonst der Doktorand, der das begutachtet, findet: ach, der kennt das ja nicht mal. Dabei kennt es ja jeder, man könnte es ja weglassen, aber nein, das muss man zitieren. Und das bedeutet, wenn man Glück hat und mal da drin ist, dann wächst das und wächst das. Dann falsche Zitate. Als Nichtwissenschaftler, als Nichtwissenschaftlerin, würde man doch denken, dass Wissenschaftler Wert auf Qualität legen. Aber ganz plötzlich, bei Zitierungen, vergessen sie alles. Da wird nämlich nur die Zitierung gezählt – ob da im Text steht, das ist die dümmste Idee, die es je gab, die sollte nie jemand anschauen oder ob jemand schreibt, das ist nun wirklich eine tolle Idee und dann steht unten dann das Zitat und wessen Idee das ist. Das wird alles gleich gezählt. Und das in der Wissenschaft!
Ökonomisierung der Wissensgesellschaft – pro
237
Also, eine ganz abstruse Geschichte. Dann natürlich auch – und hier sind wir wirklich alle beteiligt, also mindestens ich bin da auch dabei – kommt es vor, dass ich Dinge zitiere, die ich mal gelesen habe, vor 20, 30 Jahren. So ungefähr weiß ich noch, was da drin steht, aber nicht genau. Aber es wird zitiert, denn man muss ja zitieren. Es könnte ja der Gutachter sein, also zitiert man darauf los. Also, ein wirklich einfacher Punkt. Der Impact Factor, der ist ja für Zeitschriften, der gilt für die Zeitschrift, für eine bestimmte Zeitschrift. Aber der einzelne Artikel, der in diesen Zeitschriften drin ist, der hat eine völlig andere Zitierhäufigkeit und es ist sehr gut nachgewiesen, dass viele Aufsätze in den führenden Fachzeitschriften praktisch nie zitiert werden und Beiträge in schlechten Zeitschriften, heute spricht man ja von ABCD-Zeitschriften, z. B. also in einer C-Zeitschrift, viel mehr Aufmerksamkeit bringen und mehr geschätzt werden von den Kollegen als eine Publikation in den allerbesten. Dennoch wird jeder Aufsatz, der in einer Spitzenzeitschrift veröffentlicht wird, mit diesem Impact Factor der entsprechenden Zeitschrift gewichtet. Das ist natürlich auch eine komische Sache. Und dann gibt es schließlich diese großen Unterschiede zwischen den Disziplinen. Es gibt Disziplinen, da ist es einfach Tradition, dass man sehr viel zitiert und es gibt andere, in denen wenig zitiert wird, aber wenn dann in Zwischendisziplinen einfach nur die Zahl der Publikationen verglichen wird, führt das natürlich zu unsinnigen Ergebnissen. Jetzt komme ich aber zu dem meines Erachtens wichtigsten Problem der Rankings-Mania, nämlich die Reaktionen. Und hier bin ich jetzt sehr Ökonom. Wenn etwas so läuft wie ich es zu beschreiben versucht habe, dann reagieren die Betroffenen systematisch darauf. Ich habe es schon einige Male anklingen lassen und möchte das jetzt noch ein bisschen vertiefen. Wenn es also etabliert ist, dass Rankings so zentral wichtig sind, dann bemühen sich die individuellen Forschenden, in diesen Rankings gut auszusehen und verhalten sich entsprechend. Zum Beispiel existiert das Multiple-Tasking-Problem, das ist der Fachausdruck in meiner Wissenschaft, wenn mehrere Aufgaben zu bewältigen sind. Jetzt aber haben wir diese Rankings. Man würde sagen, eine Professorin hat doch verschiedene Aufgaben: in der Lehre, der Selbstverwaltung, Kontakte zur Öffentlichkeit, Beratung und Forschung, also mindestens fünf Sachen. Das ist doch eine Professorin, wie wir sie uns vorstellen. Jetzt wird aber ausschließlich die Leistung einer Professorin danach beurteilt, wie viel sie veröffentlicht, also nur in Bezug auf den materiellen zahlenmäßigen Forschungsoutput. Was macht ein vernünftiger Mensch? Ist ja völlig klar: Er minimiert die Lehre bis zum absoluten Minimum. Er macht natürlich keine Selbstverwaltung mehr. Er kümmert sich nicht mehr um die Öffentlichkeit. Sie müssen mal sehen, wenn jemand 5.000 Euro kriegt für einen Aufsatz, warum sollte er dann einen kleinen Artikel in der Lokalzeitung schreiben? Warum sollte er sich längere Zeit mit einem Studierenden unterhalten, mehr als absolut notwendig ist? Ist alles daneben. Und das zeigt sich natürlich und am deutlichsten wurde mir das, als ein Kollege von mir einen Riesenpreis gewonnen hat, ich glaube den Leibnitz-Preis oder so, Millionen von
238
Bruno S. Frey
Euro. Und dann kam ein Journalist und hat gesagt: „Jetzt haben Sie so viel Geld bekommen, was machen Sie jetzt mit dem Geld?“ Und dann schaut der Kollege und sagt: „Ich reduzier’ meine Lehre auf Null!“ Das war das Schönste, was sich dieser junge Mann vorstellen konnte. Und das heißt auf Deutsch nichts anderes als: Jeder, der noch lehrt, ist ein totaler Trottel. Aber ist doch nicht erstaunlich. Da funktioniert die Ökonomie hundertprozentig. Wenn man den Leuten sagt, es zählt nur, was sie an Artikeln veröffentlichen, dann rückt die Lehre nach unten, ist doch völlig klar. Und dann darf man nicht erstaunt sein, man darf auch keinen Vorwurf machen, sondern das sind wirklich die institutionellen Bedingungen oder das System, das dazu führt. Dann eine ganz ähnliche Sache: Heute publiziert niemand mehr einen Aufsatz, der etwas Umfassendes analysiert und verschiedene Aspekte berücksichtigt, sondern es wird die kleinste publizierbare Einheit gesucht. The least publishable unit, und da sind die jungen Leute hervorragend. Die überlegen sich von allem Anfang an: Wie viele Aufsätze kann ich aus einer Idee rausquetschen? Und da sind sie sehr erfindungsreich und das ist zu belobigen. Statt nur einen Aufsatz fünf zu machen, das ist auch eine Leistung, aber ob das die Wissenschaft wirklich so nach vorne treibt, glaube ich nicht. Dann etwas viel Aktiveres noch: Da ist ein System und das bemüht man sich, zu überlisten, auf englisch „beat the system“. Das ist es, was man heute tut und dazu zählt z. B. das, was ich als akademische Prostitution bezeichne. Nehmen wir z. B. folgendes Phänomen: Wenn man einen Aufsatz einreicht, dann kommen ja schriftliche Gutachterberichte und da steht dann so: „Wir schlagen den Autoren vor“. Oder, da ja heute alles auf Englisch geht: „We suggest to the author. Was heißt „suggest“, was heißt „vorschlagen“? Wenn das nicht gemacht ist, haben Sie null Chancen, den Aufsatz zu veröffentlichen, außer Sie haben unglaublich gute Argumente, dass das, was der Referee sagt, falsch ist. Aber das können Sie höchstens unter den 10 Punkten, die ein Referee anführt, in einem halben Punkt machen, sonst sind sie sowieso auch schon draußen. Sie können doch einem Referee nicht sagen, alle ihre 10 Punkte sind idiotisch und ich möchte den Aufsatz so veröffentlichen. Völlig klar und das wissen alle. Also passt man sich an. Und es gibt empirische Evidenz – und das ist schon recht erstaunlich – von einem amerikanischen Management-Spezialisten. Der hat rausgefunden, dass 25% der Befragten zugegeben haben, dass sie Änderungen in ihre Papiere reingebracht haben, von denen sie fanden, sie seien falsch. Da stehen praktisch in jedem Aufsatz, den Sie lesen, Dinge drin, die der Autor gar nicht richtig findet, aber sie stehen unter seinem oder ihrem Namen. Dann, und das wissen die jungen Leute heute schon alles perfekt, muss man offensichtlich strategisch zitieren. Bloß nicht negativ zitieren. Darum ist das alles so eine schöne wunderbare Welt, niemand kritisiert mehr den anderen, denn es könnte ihm ja passieren, dass der mal Gutachter wird, und dann sind Sie erledigt. Also, man sagt höchstens „we could consider“ oder so was, man könnte
Ökonomisierung der Wissensgesellschaft – pro
239
in Erwägung ziehen, dass das vielleicht auch anders gesehen werden könnte. Das ist das Maximum an Kritik, das man sich heute leistet und ansonsten natürlich zitiert man darauf los. Jeder, der ein bisschen was geschrieben hat, sollte zitiert werden, denn er könnte Referee werden. Es geht aber noch strategischer. Das fängt schon bei der Auswahl der Forschungsthemen an. Man denkt doch, es gibt Probleme in der Realität. Es gibt Probleme in der Wirklichkeit und da könnten z. B. wir Sozialwissenschaftler uns ja solchen Problemen widmen. In diesem System überhaupt nicht mehr, sondern man muss hinten beginnen. Wo möchte ich publizieren? Wo ist es wichtig für meine Karriere, zu publizieren? Und da geht man rückwärts und in meiner Wissenschaft, die ist empirisch orientiert, ist das Ergebnis eigentlich immer: Wenn ich tolle Daten zur Verfügung habe – und tolle Daten sind heute Paneldaten – kann ich damit arbeiten. Aber selbst Daten zu suchen, was zwei Jahre oder ein Jahr in Anspruch nimmt, ist eine Riesenverschwendung. Macht man nicht mehr oder macht man nur unter besonders günstigen Bedingungen. Aber im Prinzip schauen die jungen Leute, wo es die guten Daten gibt und dann überlegen sie sich, was sie jetzt eigentlich mit diesen Daten machen könnten. Wirklich, es ist so – was könnte ich jetzt mit diesen Daten machen und dann wird rumgerechnet. Irgendetwas kommt schon raus. Ich meine, die Welt geht nie unter. Aber es ist nicht mehr so, dass die Probleme von draußen kommen. Und dann sagt man: Ja, jetzt probiere ich, mich irgendwie damit zu beschäftigen, vielleicht kriege ich ja gar kein tolles Ergebnis, aber mich interessiert das Thema. Das ist vorbei. Dann gibt es auf der Institutionenebene eine weitere dysfunktionale Reaktion, die interessant ist. Diese Rankings bedeuten ja, alles ist ganz genau in Zahlen festlegbar. Ich kann sagen, wie z. B. die Fakultät oder Abteilung für Soziologie an der Universität Bamberg oder Leipzig eingestuft ist. Kann ich genau nachsehen, ohne jeglichen Aufwand. Und das machen natürlich Politiker, Bürokraten und die Medien ganz genau. Und das bedeutet aber, dass die Politiker und Bürokraten enorme Eingriffsmöglichkeiten in die Wissenschaft kriegen. Und das Dumme ist, dass wir Wissenschaftler ihnen diese Grundlagen erst noch liefern. Das ist nicht besonders klug. Anstatt zu sagen, die Wissenschaft ist ein autonomes System, es ist eine Art von wissenschaftlicher Republik, die eben genau nicht so funktioniert wie eine Unternehmung und nicht so funktioniert wie die Politik. Es zählen die guten Argumente und der Austausch von Argumenten und nicht der Preis, Geld oder wie in der Politik die Stimmen. Und das sehe ich als große Gefahr an. Dann – ich glaube, ich kann das jetzt hier sagen aus verschiedenen Gründen, u. a. weil ich fortgeschrittenen Alters bin, kann ich sagen, was ich will – aber das Interessante ist: Im persönlichen Gespräch sagt Ihnen praktisch jeder Wissenschaftler, jede Wissenschaftlerin die Probleme, die ich mit ihnen diskutiert habe. Das sieht man und die jungen Leute sehen das auch, aber sie hören niemanden
240
Bruno S. Frey
in einer offiziellen Veranstaltung so reden. Denn, wenn man das tut, ist man erledigt. Denn wenn man z. B. sagt, ich entziehe mich diesem Ranking-System, ich will nicht eingestuft werden, ich mache meine Sache, ich forsche, ich strenge mich an und bemühe mich und bin motiviert, etwas herauszufinden – dann sagen sofort die anderen Kollegen: Aber das geht doch nicht, wir müssen doch das Ranking haben, damit unsere Abteilung gut gerankt ist usw. Dann kommen Sie sofort unter Druck. Und wer sich zu entziehen sucht, bei dem entsteht sofort die Vermutung, der ist schlecht gerankt. Und deshalb will er sich entziehen. Also, die Leute sind eingesperrt. Darum machen fast alle mit und dann sieht es aus, als wenn alle einverstanden wären, aber es ist praktisch niemand einverstanden mit diesem System, also eine ganz seltsame Geschichte. Dann, ich habe diesen Ausdruck von einem Philosophen übernommen: Die Forscher sprechen übereinander und nicht mehr miteinander. Man spricht übereinander, über die Rankings, und wenn Sie die jungen Leute auf Konferenzen treffen, ist das wirklich enorm. Angenommen, es hätte früher eine Konferenz gegeben, sagen wir mal, eine Konferenz in Leipzig. Da hätten sich die jungen Ökonomen auch darüber unterhalten, wie hoch jetzt die Arbeitslosigkeit ist und was gibt es für Probleme in Leipzig und Umland und wie ist es mit der Finanzsituation der Stadt Leipzig. Heute – wirklich – geht es nach zwei Minuten nur noch darum, wie publiziere ich wo am besten, wen muss ich kennen, mit wem muss ich reden, um zu publizieren? Also eine völlige Veränderung der Tätigkeit, aber wiederum bitte ist das keinerlei Kritik an den jungen Leuten, sondern die reagieren eben nur systematisch auf Anreize. Genau, was Ökonomen immer schon gesagt haben. Dann: Forschung wird vereinheitlicht. Außenseiter haben in einem solchen System sehr wenige Chancen und das ist auch empirisch nachgewiesen. In England gibt es auch eine solche Rankings-Mania mit der Research Exercise oder Research Evaluation Exercise, und da ist nachgewiesen, dass die Außenseiter in einem bestimmten Gebiet mehr oder weniger rausgeschmissen wurden aus ihrer Universität, weil die zu wenig Zählbares in die Universität reinbringen. Und genau das, von dem ich meine, was eine Universität oder ein Universitätssystem ausmacht, nämlich die Breite, die unterschiedlichen Dinge, die unterschiedlichen Meinungen, die auch harten Dispute, verschwindet dadurch. Dann etwas vom Wichtigsten: In einer Universität ist heute die Medienwirksamkeit viel wichtiger als gute Forschung. Ist das bisschen Forschung, das man hat, gut zu verkaufen? Das wissen alle Rektoren, wieder kein Vorwurf, aber so läuft es heute. Jetzt möchte ich aber doch kurz sagen, was jetzt die Alternative ist: Ich glaube, wir sollten eine modernere Ökonomie betrachten und eben nicht diese Pfahlbauernmethode auf die Universität anwenden. Und eine modernere Ökonomie ist eben psychologisch und auch soziologisch angereichert, aber ich möchte mich jetzt mehr konzentrieren auf das Psychologische. Man hat gemerkt, dass die Psychologie in Bezug auf das menschliche Verhalten außerordentlich
Ökonomisierung der Wissensgesellschaft – pro
241
Wichtiges beizutragen hat und die Herausforderung ist, dieses in die Ökonomie so einzubringen, dass es für unsere Fragen, für unsere Interessen wichtig ist. Und dazu zählt jetzt in dem Zusammenhang mit der Wissensgesellschaft und vor allem den Universitäten die Motivation. Die herkömmliche Ökonomie hat strikt nur eine Motivation, die extrinsische. Die Leute tun etwas, weil sie dafür Geld kriegen. Das stimmt. Das tun sie meistens. Das ist schon nicht falsch und dass sich die Ökonomie darauf konzentriert hat, ist auch richtig, weil andere, z. B. die Psychologen, das nicht getan haben. Also, ich bin nicht dagegen, das ist sehr wertvoll, aber das Entscheidende ist, dass es eben auch andere Motivationen gibt und man kann zwei wichtige unterscheiden. Die extrinsische und die intrinsische. Und die intrinsische ist, dass man etwas tut, ganz einfach, weil man es tun will, aus dem Bauch heraus, aus sich raus, man will es einfach tun. Es gibt Leute, die spielen – also erwachsene Männer, Frauen nicht – erwachsene Männer, die spielen mit der Eisenbahn, einfach weil sie Freude daran haben und andere lesen schöne Literatur. Einfach weil sie Freude daran haben und nicht weil jemand sagt, sie müssten oder weil jemand sagt, wenn Sie den Lyrikband gelesen haben, kriegen Sie 10 Euro oder irgend so einen Unfug. Man tut es einfach. Das ist intrinsisch. Man kann es auch ein bisschen erweitern und sagen, internalisierte Normen können auch intrinsisch sein, also wenn man Dinge, die man aus der Jugendzeit von den Eltern, von der Gesellschaft beigebracht gekriegt hat, wirklich voll in sich aufnimmt, die dann zu einem Teil von einem selbst werden, das bedeutet dann auch intrinsische Motivation. Und das jetzt Entscheidende ist: Diese outputorientierten Rankings, die heute so zentral geworden sind, die verdrängen genau die intrinsische Motivation, aber die intrinsische Motivation brauchen wir entscheidend für die Forschung. Das ist nicht nur eine Behauptung, das ist auch wirklich empirisch und auf psychologischer Ebene nachgewiesen. Zunächst mal wurden da Experimente gemacht und da wurde den Leuten gesagt, wenn Sie eine neue Idee haben, dann kriegen Sie 100 Dollar oder was auch immer. Und dann haben die Leute schon so Mini-Ideechen, sie wollen ja möglichst viele produzieren, damit sie möglichst viel Geld kriegen. Aber etwas fundamentalere Dinge erhalten Sie, das ist das Ergebnis dieser empirischen Forschung, wenn Sie den Leuten den Raum geben, die intrinsische Motivation auszuleben. Also intrinsische Motivation ist wirklich eng verknüpft gemäß psychologischer Analysen mit neuen Ideen, Innovationen, ungewöhnlichen Gedanken. Und wir wissen das auch, wenn wir die Leben der großen Forscher anschauen, da waren doch fast alle intrinsisch motiviert. Natürlich, so am Rande dann, wenn sie älter werden, sind sie natürlich am Geld interessiert. Auch Goethe hat hervorragend seine Werke verkauft, aber man kann doch nicht sagen, er hat den Faust geschrieben, weil er Geld gekriegt hat, zumindest nicht Faust I, bei Faust II vielleicht ..., aber im Großen und Ganzen ist es das. Eines der größten Ziele der traditionellen Ökonomen ist immer, irgendwo noch zu finden, dass irgendwo Geld noch eine Rolle gespielt hat. Natürlich tut es das, das wissen wir doch alle. Aber ob die Essenz der Sache
242
Bruno S. Frey
durch einen extrinsischen Anreiz hervorgerufen wurde oder eben aus sich heraus kam, das ist doch das Entscheidende und ich würde sagen, das sollten wir unbedingt aufrechterhalten! Und dann – ganz eng verknüpft damit – die unerwünschte Selektion, die solche outputorientierten Rankings hervorrufen. Natürlich, wenn das Universitätssystem klar macht, ein guter Wissenschaftler ist nur jemand, der möglichst viel publiziert und damit dann auch viel Geld verdient, weil ja jede Publikation Geld bringt, dann ziehen wir natürlich genau solche Leute in den Wissenschaftsbereich und Leute, die intrinsisch motiviert sind, gehen dann nicht mehr in die Wissenschaft rein. Wir haben einen starken Selektionseffekt. Genauso wie in den Banken haben Sie halt Leute, das ist der Selektionseffekt, die vor allem an Geld interessiert sind. Was kann man machen? Ich glaube, man kann schon etwas machen. Das erste ist, wir müssen sorgfältig auswählen und diese sorgfältige Auswahl bedeutet vor allem auch, dass geschaut wird, wer an der Sache, an der Wissenschaft selbst interessiert ist. Und dazu müssen wir uns Zeit lassen und man muss auch in die Wissenschaft sozialisiert werden, allerdings, hoffe ich, in eine vernünftige Wissenschaft. Ich meine, die Alternative, wenn ich das kurz sagen darf, wäre wirklich, dass eine Stelle ausgeschrieben wird und dann kommen die Bewerbungen rein und dann nimmt man eine Sekretärin und die zählt dann die Zahl der Publikationen und gewichtet sie mit dem Impact Factor und dann kriegt diejenige Bewerbung, die die meisten Punkte hat, die Professur. Ein bisschen extrem, es würde sicher niemand sagen, es wird jetzt schon genauso gemacht, aber ziemlich genauso. Und ich bin eben der Meinung, man muss da viel mehr Aufmerksamkeit auf das wirkliche Interesse an der Wissenschaft legen. Nehmen wir mal Garry Becker, das ist für uns Ökonomen ein Begriff, das ist derjenige, der wirklich alles mit extrinsischer Motivation erklärt und dafür den Nobelpreis gekriegt hat, ein ganz hervorragender Ökonom. Den habe ich mal gefragt: „Hätten Sie lieber einen Assistenten, der extrinsisch motiviert ist oder einen, der intrinsisch motiviert ist?“ Und ich hatte natürlich gedacht, der würde sagen extrinsisch, das ist ja sein Ding. Und da schaut er mich groß an und sagt: „Wie können Sie auch nur die Frage stellen, selbstverständlich will ich jemanden, der an der Sache interessiert ist, am intrinsischen!“ Also selbst dort gilt das. Dann, glaube ich, können wir nicht alles mit Rankings entscheiden. Wir müssen zu inhaltlichen Fragen wieder Stellung nehmen. Mit Diskussionen, mit unterschiedlichen Meinungen, die konfrontiert werden. Dann schlage ich das vor, was bisher an deutschsprachigen Universitäten üblich war: dass jeder Professor, z. B. jeder Ordinarius, bestimmte Mittel bekommt und dann sagt man, so, jetzt haben Sie die Mittel, jetzt forschen Sie mal. Und nicht dieses dauernde Rennen nach Drittmitteln. Heute, wenn Sie eine Professur kriegen, dürfen Sie nicht meinen, dass Sie sich dann hinsetzen und forschen können. Dann müssen Sie Drittmittel reinkriegen! Der Rektor sagt, wir müssen Drittmittel haben, da-
Ökonomisierung der Wissensgesellschaft – pro
243
mit wir hochgerankt werden. Und der Wissenschaftsrat benützt Drittmittel als Rankingfaktor. Also, ich bin der Meinung, fixe Ressourcen, das ist was ganz Sinnvolles. Ich würde sofort zugeben, etwa 5% machen nichts damit. Die sitzen dann da und trinken Kaffee und tun nichts mehr, aber das ist in jedem System so. In jedem gibt es 5 bis 10%, die versagen. Ich finde, wir müssen nach den anderen schauen, nach den 90 bis 95% anderen, die was Vernünftiges machen können. Darf ich da vielleicht eine persönliche Geschichte erzählen? Ich habe also solche Ressourcen an der Universität Zürich zur Verfügung gehabt und dann habe ich mich immer gewundert, warum das Sozialprodukt so im Zentrum war. Alles wurde so mit dem Sozialprodukt gemessen und dann habe ich von Psychologen gehört, dass man Glück messen kann. Und da habe ich natürlich gedacht, was für ein Unsinn, das können auch nur Psychologen und so. Und dann habe ich mir das mal angeschaut und hab dann herausgefunden, oh das macht Sinn. Wenn ich meine Kollegen hätte fragen müssen: „Darf man als Ökonom über Glück forschen?“, hätten die gedacht, jetzt ist es wirklich Zeit. Und heute ist es ein akzeptiertes Gebiet geworden und sogar eigentlich das InGebiet der Ökonomie. Jeder will heute Glücksforschung machen. Es ist eine wirklich spannende Geschichte, aber das kann man nur, wenn man unabhängig ist. Und natürlich hatte ich Glück, dass ich da vielleicht etwas den Nerv getroffen habe, aber ich würde eben allen zugestehen wollen, dass sie das machen, was ungewöhnlich ist und dann nicht sofort abgeschnitten werden und sagen, oh, für so was haben wir kein Geld. Nein, sollen sie doch, auch wenn es 5 Jahre, oder 7 oder 8 Jahre dauert, bis etwas rauskommt. Dann würde ich schließlich Auszeichnungen lieber haben als Geldanreize. Also, diese 3.000 oder 5.000 Euro pro veröffentlichtem Artikel, das gefällt mir überhaupt nicht. Auszeichnungen sind doch was Besseres. Eine Auszeichnung wird öffentlich vergeben und da sagt jemand, Sie haben toll gearbeitet, ich freue mich darüber, jetzt kriegen Sie da eine Medaille, kostet 1,20 Euro und das war’s. Und das freut die Leute natürlich viel mehr. Anerkennung ist es, was die Leute wollen, nicht Geld. Geld sagt bestenfalls indirekt in bestimmten Berufen etwas über die Anerkennung aus und nicht umgekehrt. Ich würde also viel mehr mit Auszeichnungen arbeiten. Also, meine Folgerung ist, wir sollten wegkommen von dieser falsch verstandenen Ökonomisierung der Wissensgesellschaft und besonders der akademischen Forschung, weil sie wirklich schwerwiegende negative Auswirkungen hat. Wir sollten uns mehr einer moderneren psychologischen Ökonomie bedienen, die eben genau diese Dinge, die viele Leute fühlen, eben die intrinsische Motivation, ins Zentrum stellt. Und ich glaube, in diesem Sinne ist eine Ökonomisierung eine tolle Sache. Ich bedanke mich.
Ökonomisierung der Wissenschaft – contra Die Wissensgesellschaft zwischen Wissenswirtschaft und neuem Humanismus Von Bertram Schefold 1
I. Der Austausch des Wissens Wissenskulturen hat es unter Menschen stets gegeben, da es ihn ja auszeichnet, dass er kulturelle Prägungen über mehrere Generationen weitergibt. 2 Von einer Wissensgesellschaft möchte ich sprechen, wenn sich zur Entwicklung und Tradierung irgendwelcher Wissensinhalte besondere Strukturen arbeitsteilig herausbilden, was sich in traditionsgebundenen Stammesgesellschaften schon abzeichnet und in Schriftkulturen ausgeprägte Formen annimmt. Ein bedeutendes Beispiel für viele: der große arabische Gelehrte Ibn Khaldun hat in seinem Buch Muqqadima im vierzehnten Jahrhundert die klassische Darstellung vom Aufstieg und dem Niedergang der Nationen gegeben. Seine Erfahrungen in den maghrebinischen Fürstentümern an der Küste Nordafrikas verallgemeinernd, schilderte er den Niedergang von Staaten, deren führende Dynastien und Oberschichten, an Luxus gewöhnt, ihre Untertanen mit schweren und verschiedenartigen Steuern belasteten, so dass unternehmerisches Handeln entmutigt, das Handwerk geschwächt, die Stadt korrumpiert und das Land – die Bauern – übervorteilt werden. Aber in kargen Steppen und der Wüste sah er Nomadenstämme herumziehen, deren Lebensweise und Stammesverwandtschaft Tapferkeit und Treue begünstigten. War die Stadt schwach geworden, wurde sie von einem Stamm erobert, dessen Häuptling sich zum Fürsten aufschwang. Mit seiner Familie und seinen Anhängern stellte er die Ordnung im Staat wieder her. Dank der mäßigen Ansprüche der neuen herrschenden Schicht wurden die Steuern gesenkt, die Handwerker arbeiteten wieder regelmäßig, die Bauern wurden beschützt und fanden sicheren Absatz, der Handel erschloss den Verkehr mit den benachbarten Ländern, und es setzte ein Wachstumsprozess ein, bei dem alle gewannen. Aber schließlich ließ sich auch die neue Oberschicht vom Reichtum verführen, sie 1 Prof. Dr. Bertram Schefold ist Inhaber des Lehrstuhls für Ökonomische Theorie im Fachbereich Wirtschaftswissenschaften der Johann Wolfgang Goethe-Universität Frankfurt / M. 2 Vgl. Fried / Stolleis (2009).
246
Bertram Schefold
hob die Steuern und wurde bestechlich. Der neue Niedergang führte zu neuer Eroberung; der ganze Zyklus zog sich über mehrere Generationen hin. Khalduns an scharfsinnigen ökonomischen Beobachtungen überaus reiche Beschreibung verband den Gedanken des Zyklus’ nicht mit dem eines ihn überlagernden langfristigen Wachstumsprozesses, sondern er entwarf das Bild von Schwankungen um ein im langfristigen Durchschnitt ungefähr konstant zu denkendes Niveau. Nur eines vermehrte sich ständig, wie der arabische Gelehrte emphatisch hervorhob: das in den Bibliotheken gespeicherte Wissen von Religion und Dichtung, von Geschichte, Philosophie und Rechtswissenschaft, von Sprachen, Astronomie und so fort. Dem entsprach der umfassende Charakter seiner eigenen Bildung, die er vor dem neuen Weltenherrscher Timur Lenk (Tamerlan) anlässlich ihrer dramatischen Begegnung 1401 bei der Belagerung von Damaskus ausbreitete. Wie den antiken Philosophen, wie den Mandarinen in China, wie den Gelehrten in noch anderen Schriftkulturen stellte sich Ibn Khaldun das ganze wechselvolle Leben als dienender Unterbau einer in immer mehr Büchern gerinnenden geistigen Entfaltung dar. 3 Ganz anders das unvollendete Projekt der modernen Wissenswirtschaft, das wir auf vier Ebenen beschreiben. Hier ist Wissen erstens das Humankapital des Einzelnen: der Ausbildungsaufwand wird unternommen, um in höhere Einkommensschichten aufzusteigen und aus den Erträgen eine Alterssicherung zu erlangen. Der Begriff „Humankapital“, dem ökonomischen Laien ein Greuel, ist in dieser oder ähnlicher Form unentbehrlich, um Lohnunterschiede zu erklären. 4 Spezialisiertes Wissen ist zweitens das Mittel der Unternehmen, um mit neuen Produktionsmethoden und Produkten Marktvorteile zu erlangen, die 3
Vgl. Schefold (2000); Schefold (2004). In seiner für die Humankapitaltheorie bahnbrechenden Presidential Address an die American Economic Association mußte TheodoreW. Schultz noch entschuldigend bemerken (hier: S. 2): „The mere thought of investment in human beings is offensive to some among us. Our values and beliefs inhibit us from looking upon human beings as capital goods, except in slavery, and this we abhor. ... Hence, to treat human beings as wealth that can be augmented by investment runs counter to deeply held values. It seems to reduce man once again to a mere material component, to something akin to property. And for man to look upon himself as a capital good, even if it did not impair his freedom, may seem to debase him. ... But ... there is nothing in the concept of human wealth contrary to the idea that it exists only for the advantage of people. By investing in themselves, people can enlarge the range of choice available to them. It is one way free men can enhance their welfare.“ – Marx führte Lohnratenunterschiede auf die Kosten der Ausbildung „komplizierter Arbeit“ zurück. Heute gelten als Ausbildungskosten vor allem die während der Ausbildung entgangenen Einkommen, die ohne diese hätten erzielt werden können; hinzuzurechnen sind sonstige Ausbildungskosten. Als Ertrag kann man das durch die Ausbildung ermöglichte höhere Einkommen bezeichnen. Unter Vernachlässigung anderer Faktoren wie die Minderung des Risikos der Arbeitslosigkeit und sonstiger, konsumtiver Vorteile der Ausbildung gilt dann als private Bildungsrendite der Zinsfuß, bei dem die Kosten den erwarteten Erträgen entsprechen. Als fiskalische Bildungsrendite bezeichnet man die Verzinsung der für einen Studienplatz in einem Bildungsgang ein4
Ökonomisierung der Wissenschaft – contra
247
überdurchschnittliche Gewinne ermöglichen, bis Nachahmer gleichzuziehen und zu unterbieten beginnen. Allgemeines Wissen wird drittens gezielt gefördert in nationalen Innovationssystemen. Jedes Land lässt auf seine Weise universitäre Forschung, durch Staat und Stiftungen alimentierte Forschung, durch Subventionen gestützte private Forschung, unternehmenseigene Forschung über Märkte, staatliche und halbstaatliche Forschungseinrichtungen und persönliche Kommunikation (wie beispielsweise an Tagungen) sich verzahnen. Die Traditionen einzelner Länder unterscheiden sich nicht nur im akademischen Bereich, sondern auch durch die Form der Einbettung der Wissenschaft; die nationalen Innovationssysteme weisen ein von auf Einheitlichkeit erpichten internationalen Forschungsorganisationen als hinderlich empfundenes Beharrungsvermögen auf. Der Wissensaustausch wird viertens global. Er rationalisiert nicht nur, sondern wird selbst auf allen Stufen einem Rationalisierungsprozess unterworfen, dessen Entstehung und Funktionsweise, dessen Folgen für den Wissensbetrieb und für die Gesellschaft wir zu untersuchen haben. Die Ausrichtung der Wissenswirtschaft bedeutet, dass andere Verwendungen des Wissens zur Bildung oder zum kulturellen Genuss als Konsum erscheinen, damit als Abzug von privaten, unternehmerischen, staatlichen und zwischenstaatlichen Erwerbs- und Wachstumszielen. 5 Historisch besehen erscheint Wissenswirtschaft also als ein Projekt, weil die Subordination unter Ertrags- und Wachstumsziele weder abgeschlossen ist noch allgemein als erwünscht gilt; sie wird sozusagen nie fertig. Ihr Gefühl sagt wohl den meisten, das Wissen entziehe sich monetärer Bemessung. Gewiss ist es kein homogenes ökonomisches Gut und kann nie ganz wie ein solches behandelt werden. In der Theoriegeschichte wird zwar seit alters her von verwandten Begriffen wie Ausbildung, Forschung, Technik gesprochen, aber kaum vom Wissen als solchem, und in der aktuellen Diskussion über die Wissensgesellschaft herrscht eine selbst für die Sozialwissenschaften erstaunlich große und anhaltende Begriffsverwirrung. Nur Bruchstücke können wir zu ihrer Auflösung sammeln. Wir wollen von der antiken Debatte über den Wert der Bildung über die Schulung und Forschung historisch den Weg zu den erwähnten Innovationssystemen suchen und damit gesetzten staatlichen Aufwendungen, wobei der Ertrag in den durch die höheren Löhne erhöhten Steuern besteht. Bei der Berechnung sozialer Bildungsrenditen versucht man, außerdem externe Effekte zu berücksichtigen. Vgl. Ammermüller / Dohmen (2004). 5 Nach der in der Fußnote zum Humankapital aufgeführten Studie von Ammermüller / Dohmen (2004), S. 46, liegen die privaten Bildungsrenditen in so gut wie allen Studien über den fiskalischen, was sich durch die Vernachlässigung der externen Effekte rechtfertigen ließe. Die privaten Bildungsrenditen sind besonders niedrig und zum Teil negativ in geisteswissenschaftlichen Fächern, für die Bildung wesentlich „Konsum“ bedeutet. Sie sind hoch in der Medizin – besonders Zahnmedizin (über 11%) –, und sie sind ansehnlich in den reinen Naturwissenschaften (ca. 7 %), der Jurisprudenz (ca. 9%) und der Betriebswirtschaftslehre (ca. 6 %).
248
Bertram Schefold
die Genese des Projektes der Wissenswirtschaft verfolgen, um sie zuletzt mit der zu Unrecht als altmodisch angesehenen Frage nach der Bildung in ihre Grenzen zu verweisen. Der Streit um die Ökonomisierung der Wissenskultur, also um die Anfänge einer Wissenswirtschaft, geht zurück auf die Anfänge abendländischer Wissenschaft. Sokrates, wie er uns in der Apologie, in den Dialogen Platons und im Bericht Xenophons entgegentritt, nahm für die Gespräche mit seinen Jüngern, die doch Wege zur Erkenntnis, zu einem richtigeren und besseren Leben, also eine Unterrichtung darstellten, kein Geld, wohl aber die Sophisten, die Redekünstler. Immer wieder macht sich Platon mit Spott und Ironie über diese Meister der Überredung lustig, die sich anheischig machen zu zeigen, wie man vor Gericht und der Volksversammlung siegt und die nebenher die verschiedensten Künste, von der Tugendlehre bis zum Fechten in voller Rüstung, vermitteln. Fürchterlich geben sie damit an, – ein Hippias vor allem – wie viel sie von ihren reichen Schülern einnähmen und wie man dank ihrem Unterricht in ganz Griechenland glänzen könne 6 – Anpreisungen so schön, wie wenn man heute von Exzellenzinitiativen hört. Aber warum nimmt Sokrates kein Geld? In Xenophons Memorabilien 7 erklärt er, er nehme keines, weil er sonst einen Schüler, der bezahlte, auch dann unterrichten müsste, wenn ihm der zuwider würde. Dieser Sokrates nimmt Armut in Kauf. Ihm geht es um die Bewahrung seiner Freiheit, nur mit denen zu verkehren, die seine Lehren aufzunehmen wirklich bereit sind; mit ihnen pflegt er das sokratische Gespräch, das nicht nur Wissensvermittlung, sondern, damit untrennbar verbunden, Ausdruck von Freundschaft, von Lebensgemeinschaft ist. Streng mit sich selbst darf er auch mahnen und erziehen. Platon lässt seinen Sokrates sich über die Sophisten mokieren, die sich mit ihrem Unterrichtserfolg brüsten und zugleich sich beklagen, dass einige Schüler die Bezahlung schon empfangenen Unterrichts verweigern. Da der Unterricht in einer Vermittlung von Tugend besteht: was kann er wert sein, wenn der Schüler nicht einmal lernt, dass man seine Schulden zu bezahlen hat? Ein Sophist aber, Protagoras, weiß eine Antwort. 8 Er, der so erfolgreich gewesen sein soll, dass er einer antiken Anekdote zufolge eine massive Goldstatue seiner selbst in Delphi aufstellen lassen konnte, nannte den Schülern den Preis, den sie für seinen Unterricht zu bezahlen hätten. Er stellte ihnen allerdings frei, wenn sie diesen zu zahlen nicht bereit waren, zu einem Tempel zu gehen und dort öffentlich und unter Eid zu erklären, wie viel der Unterricht für sie wert gewesen sei; diesen Betrag dann wirklich zu geben, wurden sie verpflichtet. Das Verfahren passte offenbar zur athenischen Tradition des öffentlichen freiwilligen Gebens für den Staat zur Finanzierung kultureller Leistungen wie von Theaterchören oder kriegerischen wie der Aus6 7 8
Vgl. Platon (o.J.), Hippias major 282 d-e. Vgl. Xenophon (1987), I.6.5. Vgl. Platon (o.J.), Protagoras 328 b-c.
Ökonomisierung der Wissenschaft – contra
249
rüstung von Schiffen: bei den Liturgien gab es einen Wetteifer des Gebens um der Ehre und des damit verbundenen Einflusses in der Stadt willen. 9 Ungeachtet der sokratischen Reserve entstanden in Athen die Philosophenschulen, die bis in die Spätantike Studierende aus allen Teilen der griechisch beeinflussten und später der römischen Welt anlockten und deren Unterrichtskosten durch Gebühren gedeckt wurden. 10 Auch Aristoteles richtete eine Schule ein. Aber auch er meinte, für die Wahrheit könne es keinen Preis geben. 11 Offenbar müssen wir unterscheiden. Vom Nutzen des Erwerbs bekannter Künste und Fertigkeiten können wir uns ein Bild machen, und wenn ein Lehrer sie zu entsprechenden oder geringeren Kosten anderen vermitteln konnte, wird es auch bei einem selbst möglich sein, so dass sich beide Seiten unter Heranziehung der Erfahrung einigen können. Auf die Dauer – wenn sich die Übertreibungen eines Hippias erledigt haben – bildet sich ein Lohnniveau für vertrauenswürdigen Unterricht. Für die aristotelische reine Wahrheit gibt es keinen Preis, aber für die wiederholte Vermittlung von Wahrheiten. Je bedeutender der Wissenszuwachs, je tiefer die Bildung im Sinne einer Reifung und Veränderung der Persönlichkeit, desto komplexer die Vermittlung und desto schwieriger die Einschätzung ihres Werts, und es bleibt nur der Weg des Protagoras, auf die Ehre zu setzen, oder der noch radikalere des Sokrates, ohne Dazwischenkunft des Geldes auf den geistigen Austausch zwischen Meister und Jünger zu hoffen. Es mag überraschen, aber die Vermittlung des Wissens als Gabentausch findet in elementaren Formen alltäglich und überall statt, wie ich kurz erläutern möchte – auf die erhabenere Form der Bildung des Jüngers durch den Meister kommen wir am Schluss zurück. Mit Gabentausch meinen wir die unter Ethnologen viel diskutierte Tatsache, dass in Stammes- und archaischen Gesellschaften und in anderen Kulturen bis zu unserer in manchmal sehr elaborierten traditionellen Formen Gaben getauscht werden, die typisch in verschiedene Ränge oder 9
Vgl. Schefold (1989). Die Philosophen verstrickten sich auch in römischer Zeit noch in Widersprüche, wenn es um das Bezahlen ging. Die Stoa verlangte vom Weisen, dass er sich nicht vom Geld abhängig mache. Und doch empfahl Chrysipp, wie Plutarch, die Zeitgenossen im Blick, bezeugt, Lohn von den Schülern entgegen zu nehmen, und zwar erst nach einiger Zeit, weil dies das vornehmere Verfahren (eugnomonesteron) sei. Allerdings sicherer (asphalesteron) erschien ihm das Einfordern zu Beginn (Nickel 2008, S. 766 f.). Mit der den Epikuräern geziemenden Heiterkeit spricht dagegen Philodem von der Wünschbarkeit, Vermögen zu besitzen – es erwerben oder nur vermehren zu müssen, empfindet er schon als Gefährdung der durch Vermeidung aller Beschwerlichkeit lustvollen Lebensführung. Wie es anlegen? In der Vermietung von Häusern oder Sklaven? Nur, wenn es mit Anstand geschieht. Schöner ist der Landbesitz: die Landbesitzer finden sich allabendlich beim gebildeten Gespräch in der Laube beisammen. Am schönsten (kalliston) aber sei es, wenn der Weise sein Geld mit wahrhaftigen, Spitzfindigkeiten und Zank vermeidenden Reden vor dafür empfänglichen Männern verdienen könne (Hartung 1857, S. 55). 11 Vgl. Hénaff (2002), S. 140 f. 10
250
Bertram Schefold
Klassen fallen, derart dass, wenn ich eine Gabe eines bestimmten Typs einem anderen gebe, erwarten darf, dass ich eine entsprechende Gegengabe früher oder später erhalte. Solche Tauschakte unterscheiden sich vom Verkauf einer Ware in mehrerer Hinsicht. 12 Für die Waren gibt es keine Ränge. Ihr Wert lässt sich stufenlos in Geld bemessen, und wenn die Ware verkauft wurde, sind die Kontrahenten aller Verpflichtungen ledig. Sie begegneten sich dabei, ungeachtet ihres sozialen Status, als Gleiche, und sie lernen durch die Transaktion übereinander nur, dass der andere wenigstens kein Räuber war. Die wesentliche Wirkung des Gabentauschs besteht dagegen darin, dass die beiden – Gastfreunde etwa – sich künftig einander verpflichtet fühlen. Die Ethnologie hat viel gerätselt, woraus die Verpflichtung zur Gegengabe wirklich erwächst und weshalb sie so mächtig ist, dass sie in der Regel tatsächlich erfolgt. 13 Sie hat dazu beispielsweise die Angehörigen von Jäger- und Sammlerkulturen befragt, um den Zusammenhang mit religiösen, magischen, rechtlichen Vorstellungen zu erkunden. Aristoteles, der den Gabentausch ebenfalls behandelt, hält es für das größere Wunder, dass beim Geben einer vorangeht, und er empfindet die Tatsache, dass die Spontaneität des Gebens immer wieder auftaucht, als göttlich – um ihretwillen stelle man den Chariten, den Göttinnen der Anmut und des Dankes, Altäre auf. 14 Zu den höchsten Tugenden zählt bei ihm die der großen Seele. 15 Wer über sie verfügt, wird gerne und in großartiger Form zu geben wissen, sich treulich stets erinnern, was er von anderen empfing, aber bald vergessen, was er selber einmal gab. Diese megalo-psychia gibt es glücklicherweise in der Wissenschaft auch. Sie besitzt der Forscher, der von seinen Ergebnissen frühzeitig anderen Mitteilung macht und dann hoffen darf, dass auch sie gelegentlich mit ihren neuen Geheimnissen herausrücken. Er ist bereit, viel Zeit für die Beratung seiner Schüler zu opfern und denkt dabei dankbar an die Lehrer, von denen er dieselbe Gunst einmal empfing. Zum Lob gehört auch der gelegentliche Tadel und zur Güte die Strenge, die zu ertragen der Schüler bereit sein muss. In solcher Freiwilligkeit (lateinisch: liberalitas) besteht die Freiheit überhaupt, meinte Aristoteles, denn den Sklaven wird befohlen. Vieles, was bei den alten Griechen noch vorwiegend über Gabe und Gegengabe geregelt wurde, vollzieht sich heute über den Kauf und Verkauf von Dienstleistungen, aber es scheint klar, dass eine monetäre Bewertung des angedeuteten Wissensaustauschs nicht immer effizient wäre. Denn was soll ich bezahlen für ein Wissen, das ich noch gar nicht kenne? Zu Waren eignen sich am besten Gegenstände, die offen da liegen, so dass sich ihr Gebrauchswert erkennen lässt. Oft ist der Gebrauchswert aber nicht so leicht zu ergründen. 12 13 14 15
Vgl. Gregory (1982). Vgl. Sahlins (1972). Vgl. Schefold (1989). Vgl. Schefold (1998).
Ökonomisierung der Wissenschaft – contra
251
Ein beliebtes Beispiel ist seit alters die Preisbildung auf dem Pferdemarkt: ein Pferd mag schön aussehen, aber vielleicht lässt es sich nur schwer bändigen und der betrogene Käufer wird abgeworfen. Die heutigen Lehrbücher beziehen sich auf den Markt für gebrauchte Autos; vielleicht fahren sie noch jahrelang, vielleicht lassen sie sich schon morgen nicht mehr starten. In solchen Fällen ist die Information, wie der Ökonom derzeit sagt, zwischen Käufer und Verkäufer asymmetrisch verteilt, und wenn der Käufer fürchtet, der Verkäufer verheimliche ihm den Mangel der Ware, kommt kein Handel zustande. Das erstbeste Gegenmittel besteht darin, dass der Verkäufer sich den Ruf der Ehrlichkeit erwirbt. Diese Lösung nannte schon Cicero in De officiis, 16 und die Moderne hat seither keine bessere, höchstens eine kompliziertere Theorie gefunden. Wo aber ist die Information asymmetrischer verteilt als beim neuen Wissen? Wissen wird also nie, wie manche befürchten, zu einem handelbaren Gut wie jedes andere. Da beim neuen Wissen sonst kein Markt zustande kommt, wird die Spontaneität des Gebens zum Produktionsfaktor – ein Ergebnis, das der Wissenswirtschaft für alle Zeiten eine Schranke setzt. Die Gegengabe der Öffentlichkeit wird nicht immer erbracht – wird sie es, so besteht sie vorzugsweise in der Ehre. Das Thema der Gegenseitigkeit beim Wissenstausch lässt sich noch ausspinnen. Der Philosoph Ricoeur hat darauf hingewiesen, der Gabentausch bedeute eine wechselseitige Anerkennung. Er setzt Vertrauen und einen sittlichen Rahmen schon voraus. 17 Oft sind wir aber auf einen Dienstleistungshandel angewiesen, wo wir uns als einander Fremde mit einem gewissen Misstrauen begegnen. Über welches Wissen verfügt der Anwalt, dem ich die Vertretung in meinem meine Existenz bedrohenden Prozess anvertraue? Wenn mir sein Ruf keine genügende Sicherheit bietet, besteht eine Lösung in der Übernahme einer Haftung, die der seinerseits misstrauische Anwalt allerdings wieder durch Klauseln zu beschränken suchen wird. Haftungsregeln sind wissenswirtschaftliche Notbehelfe, um etwas in das Schema des Warentauschs zu pressen, dem die erste Eigenschaft der Ware, ein Ding zu sein, fehlt. Der Markt der Wissenswirtschaft ist nicht einfach da, sondern muss, so gut es geht, organisiert werden. Schließlich gibt es noch weitere Hindernisse für den marktlichen Verkehr des Wissens. Es gibt das sogenannte implizite Wissen, das auf Erfahrungen beruht und das sich nicht oder wenigstens nicht innert nützlicher Frist und in überzeugender Weise anderen mitteilen lässt, das aber nichtsdestoweniger zur Erfüllung gewisser Aufgaben nötig ist – Wissen also, wie es fähige Mitarbeiter einer Unternehmung besitzen, die sich nur schwer ersetzen lassen und deren Abwerbung die Unternehmung als unangenehm empfinden würde. Auch diese Wissensform spielt seit jeher eine wichtige Rolle; wir unterscheiden vier Formen. Es gibt erstens sachliches Wissen, das sein Träger nicht in 16 17
Vgl. Schefold (2001). Vgl. Ricoeur (2004).
252
Bertram Schefold
Worten zu vermitteln weiß, wie das eines Handwerkers mit seinen besonderen Instrumenten, seinem Geschick und seinen Handwerksgeheimnissen. In der Aufklärung versuchten die Enzyklopädisten Diderot und d’Alembert, sowohl die bloße Bewunderung der Kunstfertigkeit als auch die intellektuelle Verachtung der Handarbeit zu überwinden und die „mechanischen“ Produktionsprozesse zu analysieren, die zu erklären den Handwerkern selbst schwer fiel, weil sie es gewohnt waren, ihr Wissen mehr durch Zeigen als durch Reden ihren Lehrlingen zu vermitteln. 18 Infolge der Systematisierung der dazu geeigneten Herstellungsprozesse trieben daraufhin die auf ein abstraktes Wissen gestützte Technik und die sich systematischem Vorgehen entziehende Kunst auseinander. Wir kennen zweitens ein Erfahrungswissen, das auf der Fähigkeit beruht, vor neuen Entscheidungen die Ergebnisse früheren Handelns in anderen Lagen im Gedächtnis aufrufen und daraus Schlüsse ziehen zu können. Erfahrung kann im Unterricht durch Geschichte und Fallstudien erleichtert und ergänzt, aber nicht völlig ersetzt werden. Es gibt drittens eine psychologische Kenntnis von Personen und ihrem Zusammenwirken als Grundlage eines Führungswissens: einem Leiter gelingt es, seiner Mannschaft viel abzuverlangen und trotz großer Anstrengung sind sie zufrieden; dieselben müssen bei einem Anderen weniger leisten und maulen doch. Viertens die Vorausschau: Prognosen lassen sich begründen, es lässt sich über sie streiten, aber nur wenige machen einen guten Gebrauch davon. Nur weil sie Glück haben? Das glauben wir kaum; wir vertrauen also darauf, dass es eine besondere Begabung zur Prognose gibt, ohne dessen stets sicher zu sein. Implizites Wissen geht auf allen hier unterschiedenen Ebenen, besonders aber der letzten, in Intuition über und ist deshalb nie ganz zu vermitteln, so dass man sich auch fragen kann, ob überhaupt von „Wissen“ gesprochen werden soll, da es am bestätigenden Nachvollzug fehlt. Jedenfalls kann sich der Austausch des Wissens nur in seinen banaleren Formen bemächtigen. Implizites Wissen ist allenfalls indirekt, über die es tragenden Personen, handelbar. Wenn es an Institutionen, an bürokratische Apparate gebunden erscheint, wenn also nicht nur das implizite Wissen Einzelner, sondern Vieler, mit der entwickelten und bewährten, keinem Vorsitzenden ganz bekannten Form ihres Zusammenwirkens ins Spiel kommt, stellen sich seiner Übertragung noch größere Hindernisse entgegen. Das auf Personen und Institutionen verteilte implizite Wissen erscheint wie eine Ganzheit, ein „soziales Kapital“, oder, im Bildungszusammenhang, ein „kulturelles“. 19
18 19
Vgl. Poni (2009). Bourdieu (1979).
Ökonomisierung der Wissenschaft – contra
253
II. Wachstum und Vermittlung des Wissens Wir wollen nun Stationen in der Entstehung der modernen Wissenswirtschaft beleuchten, indem wir uns einigen der nicht so zahlreichen Reflexionen über sie in der ökonomischen Dogmengeschichte zuwenden. Adam Smith zeigte in seiner „Theory of Moral Sentiments“ und in kleineren Schriften, dass er sich in der ganzen abendländischen Wissenstradition auskannte, aber in seinem „Wealth of Nations“, dem ökonomischen Buch, behandelt er nur eine eingeschränkte Form der Wissenswirtschaft: den Unterricht. Die Finanzierung des Unterrichts an Schulen und Hochschulen nach antikem Vorbild durch Beiträge der Studenten hält er für weit überlegen. 20 Die alten englischen Universitäten, zuvorderst Oxford, mit den festen Bezügen der Fellows in den Colleges, hält er für verrottet; kein ernst zu nehmender Unterricht findet mehr statt. Gemischte Systeme, mit Professoren, die ein Grundgehalt beziehen und darüber hinaus Hörergeld, stellen einen vernünftigen Kompromiss dar, wenn nur sichergestellt wird, dass die Studenten tatsächlich zwischen verschiedenen Veranstaltungen wählen können und nicht institutionell gezwungen werden, bei bestimmten Professoren zu hören, denn bei Zwangsveranstaltungen beziehen die Professoren auch auf dem Weg über das Hörergeld im Grunde ein festes Einkommen, und die Qualität ihrer Darbietungen wird bald abnehmen. Ehr- und Pflichtgefühl können monetäre Anreize ergänzen, aber der Autor des „Wealth of Nations“ traut ihnen keine genügende regulierende Kraft zu. Verglichen mit dem bürokratischen Evaluierungs-, Examens- und Belohnungssystem, in das die gegenwärtige Universität sich verstrickt hat, waren die Hörergelder in der Tat von bestechender Einfachheit. Der deutsche Student wählte sich noch vor 60 Jahren seinen Professor, indem er zwischen den Universitäten verglich, denn zu wechseln war ganz einfach. So evaluierten die Hörer, und ihre Einschätzung schlug sich unmittelbar im Einkommen des Professors nieder. Nicht nur in diesem Beispiel stellt sich die geschmähte Ökonomisierung der Universität nicht als Vordringen des Marktes dar – den hatten die alten Universitäten aufgrund der Hörergelder – sondern als Misslingen eines bürokratischen Interventionismus. Andere Gesichtspunkte wie die Forschungsleistung – im alten deutschen System belohnt durch die Zulagen bei Berufungen – werden von Smith merkwürdigerweise nicht in Betracht gezogen. Er sieht den wirtschaftlichen Fortschritt in der Verfeinerung der Arbeitsteilung und der Entwicklung der Maschinen, deren Entwicklung sich für ihn aus der Praxis ohne Bezug zu einer Grundlagenforschung ergibt. Die Rolle der Wissenschaft als Produktivkraft wurde in der deutschen Tradition besser erfasst, mit praktischen Folgen. Die Kameralisten, die Fürstenberater 20 Der alte Hagestolz behauptete sogar, in seinem Jahrhundert erhielten die Frauen den besten Unterricht, weil er ganz in der Familie stattfände, damit bestens auf die späteren Aufgaben vorbereitete und jeder staatliche Einfluss unterbliebe. Vgl. Smith (1976), 4. Buch, 1. Kapitel, Teil 3.
254
Bertram Schefold
schon des 17. Jahrhunderts, die oft noch Latein schrieben, waren über die primitive Überlegung, wie dem Staat möglichst viele Steuern zuzuleiten seien, bald hinaus gelangt und waren überzeugt, durch Förderung der Glückseligkeit der Untertanen auch für den Fürsten das Beste zu leisten, weil dann die allgemeine Wohlfahrt und sein Steueraufkommen stiegen. 21 Dazu war in öffentliche Einrichtungen zu investieren wie die Bewässerung des Landes und die Bewirtschaftung der Wälder, und selbst Theater sollten errichtet werden, um die besseren Unternehmer mit ihren Familien in die Hauptstadt zu locken. 22 Deshalb wurden dann auch Fachschulen für die den verschiedenen Produktionszweigen dienenden Wissenschaften gefordert. Bergwerksakademien entstanden und Lehrstühle zur Förderung der Landwirtschaft, auch Lehrstühle zur Unterrichtung und Vertiefung des Kameralismus selbst. Man begriff, was in der neueren Wachstumstheorie seit den 1980er Jahren wiederentdeckt werden musste: dass es eigentlich zweierlei für die Produktion relevantes Wissen gibt: ein spezielles zur Herstellung bestimmter Produkte, dessen Verfahrensweisen erst einfach geheim gehalten werden, dessen Anwendungen dann geschützt werden durch fürstliche Privilegien und später durch Patente, und ein allgemeines Wissen, das sich wegen seines Charakters nicht privatisieren lässt, sondern das sich in der Gesellschaft verbreitet und zur Grundlage der privat verwerteten Einzelfortschritte wird; dem dienten in jener Epoche die Gründungen von Akademien. Jedes Land musste seine eigenen Ressourcen und sein eigenes Wissen entwickeln. 23 Heinrich Friedrich von Storch, aus dieser Tradition hervorgehend, führte dann zu Beginn des 19. Jahrhunderts eine Differenzierung des Güterbegriffs ein. Er sprach von inneren Gütern, um die immateriellen kulturellen und damit auch das öffentliche Wissen zu erfassen. Innere Güter, meinte er, könnten nicht veräußert werden und hätten keinen Preis, denn sie würden in den Köpfen der Konsumenten durch die Arbeit des Unterrichtens erst erzeugt, und diese Arbeit werde, wie andere Dienstleistungen, entlohnt. Trotz der Verankerung des Wissens im Subjekt schreitet Storch fort zur Vernetzung des Wissens in der Kultur. Darin nimmt sein Ansatz die Wissenssoziologie Bourdieus vorweg. 24 In den Händen Friedrich Lists wurde daraus die berühmte Theorie von den produktiven Kräften eines Landes, die sich im Rahmen eines gegliederten Bildungssystems in einer nationalen Anstrengung entwickelten. Es kam darauf an, nicht nur Werte zu produzieren, sondern die Produktivkraft zu steigern. Um die Stufe der Industrialisierung zu erreichen, mussten die jungen Industrien nachholender Länder vorübergehend geschützt werden, und List zeigte historisch, wie das seit Smith den Freihandel predigende England selbst in den Jahrhunderten davor extreme 21 22 23 24
Vgl. Klock (2009); Schefold (2009). Vgl. Justi (1993); Schefold (1993). Vgl. Hörnigk (1997); Schefold (1997). Vgl. Jakob (2004); Schefold (2004a); Bourdieu (1979).
Ökonomisierung der Wissenschaft – contra
255
Formen des Protektionismus betrieben hatte. List forderte: „Die Nation muß materielle Güter aufopfern und entbehren, um geistige oder gesellschaftliche Kräfte zu erwerben“. 25 Er forderte also für sein nationales System der Volkswirtschaft die Förderung der produktiven Kräfte und dazu nicht nur den Ausbau der Infrastruktur, sondern des Bildungssystems auf allen Stufen, denn: „Im Manufakturstaat wird die Industrie der Massen durch die Wissenschaften erleuchtet und die Wissenschaften und Künste werden durch die Industrie der Massen ernährt“. 26 Man weiß, dass die rasch nachholende Industrialisierung in Deutschland von besonderen Vorzügen des Bildungssystems begünstigt wurde, darunter dem hohen Anspruch des altsprachlichen Abiturs ohne Vernachlässigung der Naturwissenschaften, dem Wetteifer der Universitäten unter der Hoheit verschiedener Länder, der differenzierten Ausgestaltung der Berufsbildung und der Gründung der technischen Hochschulen. Unter dem Eindruck des deutschen Idealismus, der deutschen Wissenschaft des 19. Jahrhunderts, allerdings wohl auch der Siege im deutsch-französischen Krieg, begannen nicht nur die Engländer, Deutsch zu lernen. Sie suchten den Zugang zur deutschen Wissenskultur, nicht nur den zur deutschen Wissenswirtschaft; Beobachter bewunderten, wie die einen mehr durch Theorie und die Anstrengungen auch der Geisteswissenschaften, die anderen mehr durch praktische Tätigkeit, je nach Neigung und Begabung, einen Aufstieg zustande brachten, der in nationalem Überschwang vielleicht überschätzt wurde, der sich aber nach den Ergebnissen der neueren Wachstumsforschung 27 tatsächlich in deutlich höheren Zuwächsen des Bruttoinlandsprodukts pro Kopf zwischen 1870 und 1910 als in Frankreich, England und Italien niederschlug. Die Deutschen glaubten hoffen zu dürfen, das Wachstum werde zuletzt alle Schichten ergreifen und in die Höhe tragen, und zwar nicht nur in materieller, sondern auch in – wie man das damals nannte – sittlicher und kultureller Hinsicht. Zumindest für die Anhänger der historischen Schule war der Fortschritt eben nicht nur eine Angelegenheit von technischen Erfindungen, ökonomischer Zweckorientierung und politischer Institutionenbildung, sondern sollte von einem gemeinsamen Geistigen getragen werden, das aus der deutschen Klassik nachwirkte. Die für solche Entwicklung maßgebenden Werte schienen sich aufzudrängen; nicht so sinnlich erfahrbar erschienen die Werte wie bei Epikur, der behauptete, Werte könne man erkennen, wie man seinen Honig schmecke, 28 aber neue Normen schienen aufgrund alter Werte doch aus der Entwicklung sich zu ergeben. Der sich ausdifferenzierenden Gesellschaft entsprach eine komplexere Ethik. Das Wachsen des Wissens nur unter dem Gesichtspunkt des Wachstums 25 26 27 28
List (1959), S. 152. Ebd., S. 194. Vgl. Maddison (1995), S. 194. Vgl. Epikur (2003), S. 70 ff.
256
Bertram Schefold
der Wirtschaft zu sehen, kam damals auch für hartgesottene Ökonomen nicht in Frage. Zwei Außenseiter möchte ich nennen, die das Vertrauen auf das gemeinsame Wachstum von Technik und Wirtschaft, Wissen und Sittlichkeit nicht teilten. Der eine, uns allen als solcher sogleich präsent, war Marx, der zwar nie von einer Wissenswirtschaft sprach, der aber oft die Produktivkraft der Wissenschaft betonte, soweit sie nicht zu ideologischen und apologetischen Zwecken eingesetzt wurde. Die Tendenz zur Subsumption von Technik und Naturwissenschaft unter die Bedürfnisse der Kapitalakkumulation lag in der Konsequenz seines Denkens. Er respektierte die Leistungen unabhängiger Wissenschaftler, wie die eines Ricardo oder, auf anderen Feldern, eines Liebig oder Darwin, besonders, wenn sie seinem materialistischen Ansatz entgegenkamen. Aber wo die historische Schule die Einkommen der Arbeiter steigen und ihre Bildung zunehmen sah, diagnostizierte er Ausbeutung und gesellschaftlichen Verfall, denen die Organisation des Proletariats entgegenzusetzen war. Das ist bekannt. Als einen anderen Außenseiter sehe ich Max Weber, was vielleicht in diesem Zusammenhang eher überrascht. Man weiß, dass er der wertgeladenen Fortschrittsthese der Schmollerschule seine Forderung einer wertfreien Wissenschaft entgegenstellte. 29 Für uns liegt es aber näher, seine These von der Rationalisierung im modernen Kapitalismus mit der Wissenswirtschaft in Verbindung zu bringen. Weber meinte bekanntlich, kapitalistische Tendenzen im Sinne eines leidenschaftlich verfolgten Erwerbsstrebens habe es in vielen Kulturen gegeben, aber die daraus folgende Tendenz zu anhaltender und konsequenter Kapitalakkumulation, unter Ausrichtung des Arbeitslebens auf den Beruf, mit der Rationalisierung auch des privaten Lebens unter Maximierung des Nutzens, ergab sich erst, als ein außerökonomisches Phänomen, der Aufstieg der calvinistischen Strömungen innerhalb des Protestantismus, den Boden dafür vorbereitet hatte. Früheren Kapitalismen fehlte diese Rationalität. Der antike Kapitalismus war politisch, die Merkantilperiode kam lange über einen Abenteuerkapitalismus nicht hinaus, und den Chinesen war der Konfuzianismus in seiner ursprünglichen Form ein Hindernis. Von Webers überaus komplexer Argumentation können wir hier nur dies in Erinnerung rufen: die strenge innerweltliche Askese der Berufsausübung wird im modernen Kapitalismus zur Bedingung der Selbstbehauptung im Wettbewerb. Die Rationalisierung im Beruf, gegeben die erst in der Neuzeit erreichte Trennung von Haushalt und Betrieb, ist dabei nur ein Aspekt eines umfassenderen Rationalisierungsprozesses, der alle Verkehrsformen ergreift. Die berühmte rationale Kalkulation des Unternehmers, der in der Buchhaltung den vermuteten Wert seiner Anlagen festhält, ersetzt beispielsweise die Bewertung durch den Markt, die wegen der Dauerhaftigkeit der Anlagen nicht erfolgen kann,
29
Vgl. Nau (1996).
Ökonomisierung der Wissenschaft – contra
257
durch eine neue betriebswirtschaftliche Technik. 30 Und in diese Perspektive lässt sich die Wissenswirtschaft einordnen. Wenn Berufungen und Universitätswechsel nicht ausreichen, um die Bedeutung eines Professors zu bestimmen, wird er evaluiert, wenn man die Studenten während des Bachelorstudiums gängelt und am Universitätswechsel hindert, vergrößert man das Bedürfnis, Studiengänge zu evaluieren, und wenn man die Geduld nicht hat, die Ergebnisse der Forschung reifen zu sehen, muss auch sie begutachtet und der Gutachter wieder begutachtet werden. Da die Perspektive der Fachgutachter enger ist als die der wissenschaftlichen Öffentlichkeit insgesamt, wächst damit die Gefahr, dass sich einseitige Wissenschaftstrends verfestigen. Auch die Einführung und Ausgestaltung des Patentwesens lässt sich als Rationalisierungsschritt in der Ausgestaltung des modernen Kapitalismus begreifen. Weber unterscheidet sich von Marx, indem er auslösende Momente der Entwicklung zuließ, die von den materiellen Determinanten weit ablagen, insbesondere einen autonomen Wandlungsprozess der Religion, aber mit einem dem Marx’schen nicht nachstehenden Pathos betonte er die Zwangsläufigkeit der nachfolgenden Entwicklung. Wenn er sagte, die Puritaner wollten ihren Beruf leben und wir müssten Berufsmenschen sein, können wir hinzufügen: die Griechen wollten aus der Erkenntnis das gute Leben gestalten, wir müssen heute Wissenschaft treiben, um nur zu überleben: im Konkurrenzkampf, in der sich auflösenden Gesellschaft, angesichts drohender Umweltkatastrophen.
III. Das Wissen in der ökonomischen Theorie Wir gelangen endlich zur modernen Analyse. Wir versuchen, zusammenfassend das neoklassische Bild der Wissenswirtschaft zu entwerfen, indem wir das vielleicht interessanteste Modell der neueren Wachstumstheorie von Romer kurz präsentieren. 31 Es zeigt, wie sich drei Wissensformen, die wir kennengelernt haben, in einer Wissenswirtschaft verbinden können. Da ist einmal das Wissen als ein öffentliches Gut, von dem niemand ausgeschlossen werden kann, wenn es nämlich in Schriften kodifiziert ist, die zugänglich sind, und sich im Gespräch oder sonstwie verbreitet. Das alte Beispiel des öffentlichen Guts ist der Leuchtturm, der allen vorbeifahrenden Schiffen zur Orientierung dient; kein Schiff, das ihn nutzt, beeinträchtigt die übrigen, wenn sie ihn ebenso nutzen (sog. Nichtrivalität). Es gibt ferner keinen Ausschluss anderer durch Privilegierung (sog. Nichtausschließbarkeit von Wissen, das sich nicht patentieren lässt). Und daraus folgt für den Ökonomen, dass dieses Wissen, weil es so gut wie unentgeltlich zu haben ist, erstens auf starke Nachfrage stößt, und dass es zweitens 30 31
Vgl. Schefold (2011). Vgl. Romer (1990); Barro / Sala-i-Martin (1995).
258
Bertram Schefold
von privater Seite nur unzureichend angeboten werden wird, weil eine private Produktion solchen Wissens nicht auf ihre Kosten kommt. Solches Wissen bedarf also auch von einem liberalen Standpunkt einer öffentlichen Förderung. Im Modell wird zweitens privat verwertbares Wissen berücksichtigt, das zur Herstellung besserer Produktionsmethoden eingesetzt werden kann und das den Ausschluss anderer ermöglicht, weil es sich patentieren lässt. Im Modell spielt drittens Humankapital eine Rolle, und zwar mit doppelter Wirkung: wer Humankapital akkumuliert hat, wird ein höheres Einkommen erzielen, wird aber auch mehr sparen können und deshalb im Alter einen höheren Konsum genießen. Die Idee der Wissensgesellschaft lässt sich damit wie folgt stilisiert darstellen: in einem ersten Sektor werden Konsumgüter hergestellt durch einfache Arbeiter, angeleitet durch mit Humankapital ausgestattete höherwertige Arbeit. Die Produktion stützt sich auf die Verwendung von Maschinen, die fortwährend verbessert werden. Der Einsatz zusätzlichen Kapitals würde sich bei gleichbleibender Arbeitsbevölkerung und gleichbleibender Landmenge immer weniger lohnen, wenn die Produktionsmethoden dieselben blieben, aber was der Ökonom als sinkende Grenzerträge bezeichnet, wird kompensiert durch die ständige Verbesserung der Maschinen. Diese verbesserten Maschinen werden in einem zweiten Sektor produziert. Sie können an den Konsumgütersektor zu Monopolpreisen verkauft werden, weil jede einzelne Maschine einen neuen Typus darstellt, der, so lange er neu ist, konkurrenzlos dasteht und bis zur nächsten Erfindung keine Konkurrenz zu fürchten braucht. Die Monopolgewinne aber bleiben nicht bei den Herstellern der Maschinen, sondern müssen, weil sich die Hersteller bei ihrer Nachfrage nach Ideen konkurrenzieren, abgeführt werden an die Erfinder der neuen Produktionsmethoden. Diese sind ebenfalls mit Humankapital ausgestattet. Es ist die eine Bedingung ihrer Erfindungsfähigkeit. Die andere besteht im allgemeinen Wissen, das, wie bemerkt, ein öffentliches Gut ist und mit dem Wachstum zunimmt, aber nicht individuell angeeignet und verkauft werden kann. Je mehr öffentliches Wissen es gibt, desto mehr und desto bessere neue Maschinentypen können die mit ihrem Humankapital ausgestatteten Erfinder tätigen. Die Wachstumsrate der ganzen Wissenswirtschaft hängt deshalb wesentlich vom Wachstum dieses öffentlichen Wissens ab. Die Arbeiter beziehen einen Lohn, der ihrem Beitrag zur Produktion entspricht. Das Gehalt der mit Humankapital ausgestatteten Arbeiter im Konsumgütersektor richtet sich nach dem Einkommen der humankapitalbesitzenden Erfinder. In klassischer Tradition behauptete Storch, das Wissen als inneres Gut im Kopf eines Menschen, also auch eine Erfindung, habe einen Wert, der den Kosten der zur Erzeugung des inneren Guts aufzuwendenden Arbeit gleich sei. Die moderne neoklassische Theorie behauptet umgekehrt, dass der Wert der Erfin-
Ökonomisierung der Wissenschaft – contra
259
derarbeit vom Wert der Erfindungen für die Konsumgüterproduktion abgeleitet werden müsse. Aus der Summe der nicht gesparten Einkommen werden die Konsumgüter gekauft, womit sich das Modell im Wesentlichen schließt. Wie stets in der Nationalökonomie ergeben sich aus Effizienzüberlegungen normative Schlussfolgerungen. Das öffentliche Wissen, das sich – ohne jemanden auszuschließen – spontan verbreitet und das – dies ist ein sogenannter externer Effekt – dadurch den Erfindern hilft, die neuen Maschinen zu ersinnen, vermehrt sich zwar als Nebenprodukt der Humankapitalverwendung, aber nicht in solchem Ausmaß, dass ein der Sparbereitschaft der Individuen angemessenes Wachstum zustande käme – daher die Forderung, das Wachstum dieses öffentlichen Wissens staatlich zu fördern. Die Modelle der neuen Wachstumstheorie legen so Regeln für die Rolle des Staates in der Wissenswirtschaft nahe. Das Humankapital führt zu höherem Einkommen, das die privaten Kosten des Humankapitalerwerbs durch entgangenen Lohn aus der während des Studiums nicht durchführbaren gewöhnlichen Arbeit übersteigen kann. Insoweit sollte man von den Studenten Studiengebühren verlangen, welche zur Deckung der öffentlichen Kosten des Humankapitalerwerbs beitragen. 32 Die Forschung, die zu in der Produktion verwertbarem und patentierbarem Wissen führt, ermöglicht Monopolgewinne und trägt sich insofern selbst. Jene Grundlagenforschung aber, welche das allgemeine Wissen vermehrt, sollte, obwohl sie zum Teil Nebenprodukt jeder Forschung ist, staatlich unterstützt werden. Gemischte Finanzierungen von Universitäten lassen sich so theoretisch begründen. Die empirische Anwendung stößt allerdings auf Grenzen. Wie sich zeigt, lassen sich die im Modell verwendeten Größen durch Indikatoren zwar durchaus – oft mehr schlecht als recht – für die empirische Anwendung quantifizieren, so dass die Modelle grundsätzlich ökonometrischen Test unterworfen werden können, aber es ergeben sich kaum verlässliche und stabile Beziehungen. Wird eine vor 30 Jahren in einem bestimmten Land vorgenommene Maßnahme der Humankapitalbildung wie durch Verbesserung des Schulsystems heute, eine Generation später, eine messbare Wirkung entfalten? Und lässt sich daraus ein verlässlicher Wert der Förderung ableiten? Wichtiger als ein solches Mäkeln an den Modellen, die ihre formale Eleganz immer durch eine gewisse inhaltliche Borniertheit erkaufen, scheint mir die richtige Charakterisierung des Wissenswirtschaftsprojekts im Verhältnis zur Wissenskultur zu sein. Nachdem wir uns eine theoretische Vorstellung erarbeitet haben, will ich im Vorgriff auf unsere nachfolgende Diskussion an einem Beispiel zeigen, mit welcher Konsequenz be32 Das ließe sich, streng genommen, so deuten, dass durch Studiengebühren die privaten und die fiskalischen Bildungsrenditen (vgl. Fn. 3) aneinander angenähert werden müssten, solange die sozialen Bildungsrenditen nicht umgekehrt für eine stärkere Subventionierung des Studiums sprächen.
260
Bertram Schefold
stimmte Prinzipien der Wissenswirtschaft durchgesetzt werden. Dazu möchte ich die Auswirkungen des Projekts der Wissenswirtschaft anhand einer Darstellung der europäischen Forschungsförderung beschreiben. 33
IV. Die europäische Wissensgesellschaft Die europäische Wissensgesellschaft erschien zuerst als ein nun knapp zehn Jahre altes Leitbild und Bestandteil der Lissabonner Strategie. Sie bezeichnet das Bestreben, die wirtschaftspolitischen Maßnahmen der europäischen Union in ihrer Gesamtheit auf das Innovations- und Wachstumsziel auszurichten. Damit wird ein normativer Bezugsrahmen für die Entwicklung der einzelnen Mitgliedsländer vorgegeben, um Wachstumsraten zu erreichen, die der Erhaltung des europäischen Gesellschaftsmodells dienen. Die Kommission legt dabei großes Gewicht auf die ökologische Nachhaltigkeit, die nicht auf dem Wege des Verzichts, sondern dank der Anwendung umweltgerechter neuer technischer Verfahren erreicht werden soll. Um die als notwendig angesehenen Transformationen zu erreichen, wird ein umfassendes Indikatoren- und Benchmark-System erzeugt; so will man die sozioökonomischen Entwicklungen der Mitgliedsländer beeinflussen, wenn nicht gar lenken. Der Bologna-Prozess mit der Vereinheitlichung der Studienverläufe im europäischen Raum kann als ein Anwendungsbeispiel dieser Strategie interpretiert werden. Zu den wesentlichen Zielen gehört aber auch die Herstellung eines europäischen Forschungsraums, der die Fragmentierung der Forschungstätigkeiten, Programme und Strategien in Europa überwinden und langfristig die Entwicklung einer einheitlichen europäischen Forschungspolitik gewährleisten soll. Die Kommission versucht, regionale und nationale Forschungsaktivitäten aufeinander abzustimmen. Zugleich spricht man von einem europäischen „Markt des Wissens“. Die Freiheit des einzelnen Wissenschaftlers bleibt grundsätzlich erhalten, aber die Anreize, welche Laufbahnen und Forschungsorientierungen bestimmen, dienen der Ausrichtung auf das Leitbild. Zur Zeit hat die EU ihr 7. Rahmenprogramm für Forschung und technische Entwicklung ausgeschrieben (FP 7); es läuft von 2007 – 2013 und umfasst ein Volumen von 50,5 Mrd. Euro, neben dem Euratom-Budget von 2,7 Mrd. Euro. Davon werden etwa 7,5 Mrd. Euro durch den europäischen Forschungsrat für hervorragende Einzelforschung vergeben, aufgrund von einzeln gestellten Anträgen, wobei auch hier der Anspruch erhoben wird, europäische Maßstäbe zu setzen. Der Wettbewerb ist scharf. So wurden 2008 für den Starting Grant (junge Wissenschaftler) 9167 Vorschläge eingereicht, zugeteilt wurden 299, also 3,3%. Projekte der klassischen Geisteswissenschaften finden sich unter den Gewinnern kaum; die Naturwissenschaften dominieren. Nur unter den Advanced 33
Die nachfolgenden Überlegungen zur europäischen Wissensgesellschaft stützen sich auf Schefold / Lenz (2008) und Schefold (2009a).
Ökonomisierung der Wissenschaft – contra
261
Grants spielen die Geisteswissenschaften – wenigstens im weiteren Sinne – eine etwas breitere Rolle. Außer dem Budget des Europäischen Forschungsrats gibt es zwar Programme, welche die Forscherlaufbahnen (Program People; 4,7 Mrd. Euro) und besondere Orte der Forschung (Program Capacities; 4,2 Mrd. Euro), wie Regionen und mittlere und Kleinunternehmen, unterstützen. Im Übrigen geht der Löwenanteil an Programme der Zusammenarbeit (Co-operation; 32,4 Mrd. Euro), die für solche Schlüsselgebiete wie Information und Kommunikation (9,1 Mrd. Euro), Gesundheit (6 Mrd. Euro), Transport (4,2 Mrd. Euro) oder Energie (ohne Euratom; 2,3 Mrd. Euro) da sind, während die Programme für sozioökonomische und Geisteswissenschaften zusammen 0,6 Mrd. Euro vorsehen. Betrachtet man nun aber die letzten Projekte, stellt man fest, dass sie sich sämtlich in die aktuellen politischen Problematiken einordnen, dass sich also beispielsweise die Ethnologie in den Dienst der Klimaforschung stellt, wenn es sich darum handelt, die Änderungen der Verhaltensweisen verschiedener Gruppen in verschiedenen europäischen Ländern beim Gebrauch verschiedener privater und öffentlicher Transportmittel zu erfassen. Die Projektausschreibungen verlangen regelmäßig eine Kooperation mehrerer europäischer Universitäten in verschiedenen Ländern. Konsortien aus Forschergruppen in einem halben Dutzend verschiedener Sprachgebiete kommen häufig vor, und die Zahl der beteiligten Institute kann auch doppelt so groß sein. Bei der Projektbewertung wird auf die genaue Beachtung der Projektausschreibung, auf solide Planung des Managements der Forschergruppe und auf eine wirksame Politik der Verbreitung der erhofften Resultate Wert gelegt. Entsprechend lang und kompliziert sind die auszufüllenden Formulare – in englischer Sprache, so dass Konsortien, die Wissenschaftler englischer Muttersprache einschließen, es leichter haben – Osteuropäer reüssieren bisher wenig. Diese Forschungspolitik, weitgehend geschichtslos, stellt mit ihrem Griff nach der politischen Aktualität und dem Ziel, dem langfristigen Wirtschaftswachstum zu dienen, einen eigentümlichen Kompromiss zwischen ökonomisch motivierter und nach den Maßstäben der politischen Korrektheit ausgerichteter kultureller Integration dar. Die Forschungsziele ergeben sich nicht aus dem Bestreben, sich dem kulturellen Erbe einzufügen, es zu verstehen, es zu sichern und zu vermitteln, sondern aus aktuellen politischen Zielsetzungen, die einen historischen Rückgriff nur gelegentlich erlauben und die Interpreten in die Zwangsjacke der jetzt als korrekt angesehenen Wertungen einschnüren. Wem am Erhalt bestimmter Wissenstraditionen eines Landes liegt oder wer sonst für bestimmte nationale Strategien im Forschungs- oder Technologiebereich eintreten möchte, 34 wer 34 Der Konkurrenzdruck innerhalb Europas und der OECD geht von dem statistischen Vergleich aus. Es werden nicht nur die Leistungen evaluiert, sondern vorgängig die Aufwendungen, bei denen sich Deutschland nicht auszeichnet. Z. B. betrugen die Ausgaben pro Studienplatz für die Hochschullehre in den USA 2006 $ 19.467, im OECD-Durch-
262
Bertram Schefold
vielleicht aus sozialen oder umweltpolitischen Gründen besondere Wege empfiehlt, wer noch älteren Konzeptionen der Geisteswissenschaften huldigt, wird mit dem europäischen Einfluss zu rechnen haben. Die nationalen Geldgeber der Forschung der Europäischen Union und assoziierter Staaten sind seit 1992 zu EUROHORC zusammengeschlossen, um die Vermittlung zwischen europäischen und nationalen Forschungsorganisationen zu erleichtern. Deklariert wird das Ziel der Exzellenz, aber, realistisch besehen, handelt es sich um eine neue Normalwissenschaft, die manche Messgrößen tatsächlich anhebt, aber andere ältere Maßstäbe gänzlich vergisst.
V. Wissen und Bildung So haben wir für die erstrebte Wissenswirtschaft zu opfern, zu allererst und am offensichtlichsten, indem wir eine Schematisierung der Wissenschaft hinnehmen müssen. Mehr vom Gleichen, weniger Eigenart. Der Wissenschaftshistoriker wohl jeder Disziplin erinnert sich dagegen, dass die besten Leistungen oft an ganz unerwarteter Stelle auftauchen und von den Zeitgenossen lange nicht erkannt werden. Eine die Vielfalt reduzierende Förderung sogenannter Exzellenz könnte sich insofern selbst ad absurdum führen. Jedenfalls handelt es sich auch da nicht um eine Ökonomisierung durch den Rückgriff auf Marktmechanismen, sondern um administrative Zuteilung nach für die Bürokratie überprüfbaren Kriterien. Das Projekt der Wissenswirtschaft verbindet sich mit einer Untergrabung, ja Leugnung des Lebenszusammenhangs der Wissenschaft, wenn sie, im besten Fall nämlich, auch die Persönlichkeit bildet. Vielleicht ist es nützlich, dies mit den Worten der Ökonomen zu beschreiben, um die Grenzen des ökonomischen Weltbilds mit seinen eigenen Mitteln zu bezeichnen. Zum Schönen der Bildung gehören externe Effekte. Begegne ich einem gebildeten Menschen, lässt mich dieser im Gespräch, im persönlichen Umgang an seiner Welt teilhaben und meine innere Welt wird reicher. So verändern und erweitern sich zweitens auch meine Persönlichkeit und damit meine Bewertungen. Wissen, auf das ich einmal stolz war, wird relativiert, Neues gewonnen, ich finde Anerkennung für vorher nicht gekannte oder nicht genügend gewürdigte Standpunkte. Einigermaßen reduktionistisch spricht, wie erwähnt, auch der Soziologe von kulturellem Kapital. Die Wirkung der Bildung lässt sich also mit dem Jargon des Ökonomen und Soziologen beschreiben, aber eigentlich nur metaphorisch, weil sich nur die gröbsten der externen Effekte messen lassen. 35 schnitt $ 8.418, in Deutschland $ 7.339 (Institut der deutschen Wirtschaft (2009), S. 3). Die Exzellenz soll also auf der Basis einer unterdurchschnittlichen Ausstattung erzielt werden.
Ökonomisierung der Wissenschaft – contra
263
Die Hauptleidtragenden in der Universität dürften die Geisteswissenschaften und ihnen nahestehende Gebiete wie die Wissenschaftsgeschichte oder die Morphologie sein. Sie haben schon selbst durch ihre Ausweitung das Wissen zwar gemehrt, aber seinen geistigen Nährwert sozusagen verdünnt. Der Kanon des abendländischen Wissens verliert sich an seinen Rändern durch Ausdifferenzierung. Charismatische Persönlichkeiten haben aber die geisteswissenschaftliche Tradition immer wieder belebt und erneuert. Sie haben den Blick auf neue Phänomene gelenkt und neue Sichtweisen und Interpretationen erschlossen. Vermittelt werden diese zumeist, ob wir nun von Hermeneutik oder Close reading sprechen, in einem engen Bezug zwischen Lehrer und Schüler. Vor einem Kreis persönlich bekannter Menschen wollen die jungen und noch die alten vor allem sich mit ihren Ideen und Schriften hervortun und bewähren, und mit Recht sieht ein junger Wissenschaftler oft die Zustimmung eines bewunderten älteren Lehrers als wichtigste Bestätigung an. Welcher Unsinn, davon abzulenken, indem der Erfolg bei fernen Zeitschriften in anonymisierten Referee-Verfahren bei Berufungen als allein entscheidender Maßstab aufgezwungen wird. Gewiss muss zugegeben werden, dass die bildende Kraft der Wissenschaft und insbesondere der Geisteswissenschaften schon im Klassizismus zu schwinden begann. Umso bedeutsamer wurden die Nischen, in denen sie sich gleichwohl wieder zeigte. Wohl jeder hier kennt dies aus der Literatur und, in bescheidenerer Form, aus eigenem Erleben. Als Dogmenhistoriker der Nationalökonomie habe ich mich mit verschiedenen solcher Kreise befasst: Ricardo und seine Schüler, Keynes und seine Schüler (diese, nämlich Joan Robinson, Piero Sraffa und Nicholas Kaldor, habe ich dann selbst als meine Lehrer erlebt). Besonders erforscht habe ich, etwas ungewöhnlich, die Ökonomen im George-Kreis. George beeinflusste die Geisteswissenschaften von der Jahrhundertwende bis zu einem Höhepunkt in der Weimarer Zeit, mit verborgenen Nachwirkungen, die weit in die Geschichte der Bundesrepublik hineinreichen. Das Faktum, dass auch die historisch gewendete Nationalökonomie dazu gehörte, war übersehen worden: etwa ein Dutzend zum Teil namhafter Staatswissenschaftler standen George nahe, teils direkt, teils in Vermittlung durch andere. Sie nahmen ernst, dass der George-Kreis einem sokratisch-platonischen Kreis von Meistern und Jüngern glich, und sie überlegten von daher, wie die zeitgenössische Wissenschaft erneuert und ihrer Aufgabe, dem Leben zu dienen, wieder näher gebracht werden könne. Über die Disziplinen hinweg entwickelte der George-Kreis seine Semantiken, um sich über die Anforderungen an solche Wissenschaft zu verständigen. Durch seine Staatswissenschaftler ergaben sich mir merkwürdige Verbindungen zwischen deutscher Geisteswissenschaft und Nationalökonomie; dank ihnen begriff ich zum Beispiel, wie wichtig das alte, schon für den Kameralismus typische 35 Die bei Ammermüller / Dohmen (2004), wie oben erwähnt, vorkommenden sozialen Bildungsrenditen messen – auch schon mangelhaft – Wirkungen auf Wachstum, insbesondere auf Produktivität, aber nicht auf die Kultur (Ausnahme: Reduktion der Kriminalität).
264
Bertram Schefold
Element anschaulicher Theorie als Gegenstück zur rationalen oder reinen Theorie in der deutschsprachigen Nationalökonomie gewesen ist und wieder werden könnte. 36 Jedenfalls gilt nicht nur für dieses, sondern auch für die anderen Beispiele wissenschaftlicher Kreisbildung, dass die menschlichen Strukturen eines Forschung und Lehre, geistige Orientierung und menschliche Bildung umfassenden Unterrichts immer wieder den alten, aus Antike und Humanismus bekannten Mustern gleichen. Wir dürfen hoffen, dass die menschlichen Kräfte stark genug sind, noch heute die Formung solcher Kreise zu ermöglichen, auch wenn die Wissenswirtschaft und positivistisches Wissenschaftsverständnis das nicht vorsehen. Es geht dabei nicht nur um das Interesse des Wissenschaftlers an seiner Lebenswelt, sondern um den Charakter der aus dieser hervorgehenden Wissenschaft. Zumindest in die Geistes-, in die Gesellschafts- und Wirtschaftswissenschaften geht immer ein Element persönlichen Engagements und persönlicher Verantwortung ein, das wir durch Programmatik und Praktiken der Wissenswirtschaft in Frage gestellt sehen. Es mag ein banales Beispiel sein, aber ein Zeitschriftenaufsatz gilt offenbar schon deshalb mehr als der Beitrag zu einer Festschrift, weil letzterer, indem er auch einen persönlichen Bezug zum Ausdruck bringt, im Verdacht steht, von der reinen Sachlichkeit abzuweichen, obwohl er im günstigen Fall sonst verdeckte innere Abhängigkeiten zum Ausdruck bringt. Die Fragwürdigkeit neuer Praktiken der Bewertung wissenschaftlicher Leistungen werde kurz anhand der Wirtschaftswissenschaften dargelegt, um die Kontraste zu verdeutlichen. Wettbewerb ist gut, aber man kann auch die falschen Anreize setzen. Gegenwärtig gelten nur noch Zeitschriften, die durch Herausgeber und Gutachter die Autoren disziplinieren. Die Konzentration auf das Wesentliche wird mit dem Verzicht auf den geistvollen Exkurs erkauft. Wie das Zählen von Zitaten in die Irre führt, haben andere, besonders Bruno Frey, gezeigt: Wer häufiger zitiert wird, gilt mehr, auch wenn ihn viele nur zitierten, um ihn zu kritisieren. Es wird mit dem Rang der Zeitschriften 37 gewichtet, obwohl damit das Selbstlob innerhalb einer kumulativen Schulenbildung begünstigt wird und obwohl die Wissenschaftsgeschichte zeigt, dass die wirklichen Neuerungen oft an unerwarteter Stelle auftauchen. Intrinsische Motivation wird durch extrinsische verdrängt, der Forschungsbezug auf dem Papier verdrängt den persönlichen Umgang, und der Autor verlässt seine Überzeugungen, um seinen Gutachtern zu gefallen. 38 Berufungskommissionen setzen anonyme Messverfahren an die Stelle persönlich verantworteter Strenge. Problematischer noch scheint mir die 36 Vgl. Böschenstein / Egyptien / Schefold / Graf Vitzthum (2005). Zu den Ökonomen im George-Kreis vgl. Schönhärl (2009), zur anschaulichen Theorie vgl. Schefold (2004b). 37 Das Verfahren würde verbessert, wenn man auch die Zitate in Büchern einbezöge, aber das setzte deren aus anderen Gründen fragwürdige Digitalisierung voraus. 38 Vgl. Osterloh / Frey (2009).
Ökonomisierung der Wissenschaft – contra
265
mit dem Bewertungssystem in Verbindung stehende Verstärkung des Trends zu einer Verengung der Methodenvielfalt und der disziplinären Ausrichtung. Was besser in Büchern gesagt wird als in Aufsätzen, also zum Beispiel die Diskussion historischer Entwicklungen, die zu ihrer angemessenen Erörterung eines ganzen Buchs bedürfen, wird so vergessen, 39 wie überhaupt die Technik der Modellbildung an die Stelle der Kultur der sprachlichen Erklärung tritt. Die Ökonomie greift durchaus auf Nachbargebiete aus, aber nach der Art des „ökonomischen Imperialismus“: Unter Festhalten an den eigenen Methoden, nicht von anderen lernend, sondern sie belehren wollend. Ganze Unterdisziplinen werden im Zuge methodischer Verengung aufgegeben; beispielsweise wandert die Sozialpolitik in die Soziologie ab – und Soziologen werden als Experten zur Beratung der Ministerien berufen –, oder die Theoriegeschichte wird den Wissenschaftshistorikern überlassen, die sich aber für ökonomische Theorie nicht recht erwärmen wollen. Dem überlagert sich die Tendenz, die für einige Universitäten sinnvolle Spezialisierung auf den Finanzsektor an vielen durchzuführen, mit der Konsequenz, dass man bald nicht mehr fähig sein wird, durch Berufungen die alte Breite des Fachs wiederherzustellen, selbst wenn man dies noch wollte. Eine empirische Studie bestätigt, dass die Neoklassik in der jungen Generation der akademischen Ökonomen in Deutschland vorherrscht, die Präferenz für sie aber mit dem Alter stark abnimmt, 40 während der Ordoliberalismus für die Älteren eine größere Rolle spielt. Doktoranden scheinen bei der Bewertung dessen, worauf es bei der Ökonomie als Wissenschaft ankommt, mit den Angelsachsen stärker überein zu stimmen als die älteren deutschen Kollegen: „American graduate programs thus seem to crowd out specific cultural characteristics“. 41 Diese Veränderungen nur unter dem Stichwort „Ökonomisierung der Wissensgesellschaft“ zu sehen, wäre eine Vereinfachung; ein Zusammenhang zwischen ihr und der Transformation des Bildungssystems besteht jedoch.
VI. Der Humanismus: eine Erinnerung Nach den Eingriffen des Nationalsozialismus, die die Volkswirtschaftslehre härter als die Betriebswirtschaftslehre trafen, 42 nach den Versuchen, in der noch jungen Bundesrepublik die alte deutsche Universität in der Demokratie und mit ausländischer Hilfe zu erneuern 43 und nach den auf die 68er Jahre folgenden 39 Die Unkenntnis der Wirtschaftsgeschichte und damit früherer Finanzkrisen hat zur Entstehung der gegenwärtigen beigetragen, und erst bei ihrer Bekämpfung begann man sich wieder zu erinnern. 40 Vgl. Frey / Humbert / Schneider (2009), S. 5. 41 Ebd., S. 16. 42 Dies zeigte sich besonders deutlich in meiner eigenen, der Goethe-Universität; vgl. Schefold (2004c) und Nörr / Tenbruck / Schefold (1994). 43 Vgl. Acham / Nörr / Schefold (1998).
266
Bertram Schefold
Universitätsreformen 44 haben wir es jetzt mit der vierten Umwandlung der Universität im deutschen Bildungssystem innerhalb weniger als eines Jahrhunderts zu tun. Wenn ich aufgefordert bin, in dieser Lage ein Gegenbild zur Ökonomisierung der Wissenskultur zu benennen, drängt sich ein Begriff auf, der die geschichtliche Verpflichtung, das Versäumnis vergangener Reformen und den Gegensatz zur Gewinn- und Wachstumsorientierung der Wissenschaftspolitik in Verbindung mit dem erzieherischen Auftrag gleichzeitig aufruft: der Humanismus. Es steht schlecht um ihn zur Zeit, ich weiß. Die einen sehen seine Angebote als Zeitverlust, die anderen als Ausdruck reaktionärer Gesinnung. 45 Erasmus formulierte seine Hoffnungen in den 1500 in Paris veröffentlichten Adagia, seiner dann in ganz Europa berühmten Sammlung antiker Redewendungen mit Erklärungen, beim Stichwort Delphikòn xíphos, delphisches Schwert. 46 Ein solches Schwert verwendete man sowohl um Opfertiere zu schlachten wie um Verbrecher hinzurichten. So allseitig verwendbar seien die litterae, die Wissenschaften: Delphikòn xíphos Nam litterae iuvenibus sunt necessariae, senibus iucundae, pauperibus opes suppeditant, opulentis adiungunt ornamentum, in rebus adversis solatio sunt, in secundis gloriae, claro natis genere splendorem augent, obscuro genere natis claritatis initium conciliant. Delphisches Schwert Denn die Wissenschaften sind den Jungen notwendig, den Alten erfreulich, sie bringen den Armen Unterstützung und fügen den Reichen den Schmuck hinzu, sie bringen im Unglück Trost, im Glück Ruhm, sie vermehren den Glanz der aus den im Licht stehenden Geschlechtern Geborenen, und gewähren den aus dem Dunkel Stammenden einen Eingang zur Berühmtheit.
Der Entfaltung der Persönlichkeit gemäß den Altersstufen und den sozialen Lagen also dient diese humanistische Wissenschaft. Der Vorgang entzieht sich der Wissenswirtschaft. Eine Rationalisierung durch Organisation eines Wissenshandels bei gegebenen Präferenzen wäre der eigentlichen Aufgabe, die Präferenzen zu bilden, gerade entgegengesetzt. Wenn an der Fachsprache etwas liegt, könnte man allenfalls sagen, es bildete sich in der Vernetzung ein soziales Kapital, gebunden an Individuen, mit ihren vermittelbaren und mit stillem Wissen, gebunden aber auch an Institutionen. Die Grenzen des Bildungswissens zur Kunst sind fließend. Daher werden die Wendungen solcher Wissenschaft von Individuen geprägt, ja erzeugt. Sie entdecken nicht nur unter der Oberfläche verborgene 44
Vgl. Acham / Nörr / Schefold (2006). Der schulische Erfolg altsprachlichen Unterrichts lässt sich jedoch nach wie vor belegen; vgl. z. B. Eberle (2009). 46 Erasmus (1663), S. 46. 45
Ökonomisierung der Wissenschaft – contra
267
Wahrheiten, sondern schaffen unter Erneuerung der Sprache neue Gegenstandsbereiche, aus der Tradition hervorgebracht. Lernen heißt also, neu zu sehen. Da sich der Bildungsprozess zwischen Personen – nach dem alten Muster zwischen Meister und Jüngern – vollzieht, spielt er sich in kleinen Gruppen ab. Deshalb begann unsere Untersuchung mit dem sokratischen Gespräch. 47 Der Riesenapparat moderner Wissenschaft lässt ein Beziehungsgeflecht nur unter der Bedingung extremer Spezialisierung auf dem Niveau originärer Forschung zu. Wo sich die Gegenstandsbereiche sachlich trennen lassen, kann es dann ein glückliches Nebeneinander geben; der Friede erscheint gelegentlich gefährdet, wenn sich die Disziplinen vor allem nach den Methoden unterscheiden. Wir müssen die Realitäten akzeptieren, uns in den Nischen disziplinärer Verästelung und personenbezogener Schulenbildung einrichten; deshalb haben wir auch bei Berufungen zuweilen zwischen didaktischer Begabung, charakterlicher Eignung und wissenschaftlicher Fähigkeit abzuwägen. Die disziplinenübergreifenden Bezüge lassen sich für eine nach Ganzheit strebende Bildung dann nur unter Bezug auf verbindende Denktraditionen herstellen. Es gilt also, um der Ganzheit willen, einen Kanon gemeinsamer, den Ursprüngen verbundener Wissenschaft zu pflegen. Die Anbindung an die Überlieferung rechtfertigt sich ferner, wenn wir uns erinnern, dass es immer wieder der neue Blick auf alte Autoren war, der neues Sehen ermöglichte. Nationalökonomen insbesondere werden sich, so utopisch es vorerst klingen mag, der Geschichte wieder nähern müssen, wenn sie sich der Relativität ihres Wissens und ihrer Ziele bewusst werden wollen. Zur Zeit wird die Fixierung auf ein verengtes Menschenbild vor allem durch die ökonomische Verhaltensforschung und die experimentelle Spieltheorie herausgefordert, die zuweilen ihre Ergebnisse im interkulturellen Vergleich prüfen. Die deutsche Tradition vom Kameralismus bis zur historischen Schule aber hatte einen weiteren Atem und suchte hinter Ereignissen und Erscheinungen im wirtschaftliche Bereich den kulturellen Wandel und die Veränderungen der Denkweisen und Sitten zu verstehen, gestützt auf die hermeneutische Auslegung der Texte in den Originalsprachen. Unter der modelltheoretischen Oberfläche der Werke von Keynes 48 und Schumpeter findet man eine Max Webers Bemühungen verwandte Auseinandersetzung mit dem Menschenbild der Moderne. Sollen wir die Untersuchung dieser tieferen Schichten, die grundlegend sind für das Verständnis auch des Politischen, wirklich aus dem Studium ausschließen? Offenbar besteht durchaus ein Spielraum, innerhalb dessen wir uns eher zur technokratischen Wissenswirtschaft oder zu einer humanistischen Wissenskultur 47 Zum George-Kreis als Versuch einer sinnstiftenden Verbindung von Kunst, Wissenschaft und Leben vgl. Ideal (2009). 48 Zu Keynes’ philosophischen Wurzeln vgl. Mini (1991). Ein Bezug zur historischen Schule bestand durch seinen Vater John Neville Keynes.
268
Bertram Schefold
hinbewegen können. Es wird immer wieder junge Menschen geben, die ihn nutzen wollen. Wir haben die Verantwortung, sie nicht auf beruflich aussichtslose Wege zu locken, aber wir sollten die Pforten zum geistigen Reich auch nicht verriegeln.
Literatur Acham, Karl / Nörr, Knut Wolfgang / Schefold, Bertram (Hrsg.) (1998): Erkenntnisgewinne, Erkenntnisverluste. Kontinuitäten und Diskontinuitäten in den Wirtschafts-, Rechtsund Sozialwissenschaften zwischen den 20er und 50er Jahren (Aus den Arbeitskreisen „Methoden der Geisteswissenschaften“ der Fritz Thyssen Stiftung.), Stuttgart. Acham, Karl / Nörr, Knut Wolfgang / Schefold, Bertram (Hrsg.) (2006): Der Gestaltungsanspruch der Wissenschaft. Aufbruch und Ernüchterung in den Rechts-, Sozial- und Wirtschaftswissenschaften auf dem Weg von den 1960er zu den 1980er Jahren (Aus den Arbeitskreisen „Methoden der Geisteswissenschaften“ der Fritz Thyssen Stiftung.), Stuttgart. Ammermüller, Andreas / Dohmen, Dieter (2004): Private und soziale Erträge von Bildungsinvestitionen, Köln. Barro, Robert J. / Sala-i-Martin, Xavier (1995): Economic Growth, New York. Bourdieu, Pierre (1979): Critique sociale du jugement, Paris. Böschenstein, Bernhard / Egyptien, Jürgen / Schefold, Bertram / Graf Vitzthum, Wolfgang (Hrsg.) (2005): Wissenschaftler im George-Kreis. Die Welt des Dichters und der Beruf der Wissenschaft, Berlin. Eberle, Franz u. a. (2009): Evaluierung der Maturitätsreform 1995 (EVAMAR), Schlussbericht zur Phase II. Im Auftrag der Schweizerischen Konferenz der Kantonalen Erziehungsdirektoren EDK und des Staatssekretariats für Bildung und Forschung SBF, Zürich. Epikur (2003): Wege zum Glück. Griechisch-lateinisch-deutsch, hrsg. von Rainer Nickel, Zürich. Erasmus (1663): AdagiorumD. Erasmi Roterodami Epitome. Amstelodami apud Joannem Janssonium Anno MDCLXIII. Frey, Bruno / Humbert, Silke / Schneider, Friedrich (2009): What is Economics? – Attitudes and views of German economists, Working Paper No. 451, IERE, Universität, Zürich. Fried, Johannes / Stolleis, Michael (Hrsg.) (2009): Wissenskulturen. Über die Erzeugung und Weitergabe von Wissen, Frankfurt / M. Gregory, Chris A. (1982): Gifts and Commodities, London und New York. Hartung, Johann A. (Hrsg.) (1857): Philodem’s Abhandlungen über die Haushaltung und über den Hochmuth und Theophrast’s Haushaltung und Charakterbilder. Griechisch und Deutsch, Leipzig. Hénaff, Marcel (2002): Le prix de la vérité. Le don, l’argent, la philosophie, Paris.
Ökonomisierung der Wissenschaft – contra
269
von Hörnigk, Philipp Wilhelm (1997): Oesterreich über alles, wann es nur will, Düsseldorf (Klassiker der Nationalökonomie); ergänzend: Vademecum zu einem Klassiker absolutistischer Wirtschaftspolitik (1997): Kommentarband zum Faksimile-Nachdruck der 1684 erschienenen Erstausgabe von von Hörnigk, Philipp Wilhelm: Oesterreich über alles, wann es nur will, Düsseldorf (Klassiker der Nationalökonomie). Ideal (2009): Das Ideal des schönen Lebens und die Wirklichkeit der Weimarer Republik. Vorstellungen von Staat und Gemeinschaft im George-Kreis, in: Deutsche Forschungsgemeinschaft (DFG) (Hrsg.): Wissenskultur und gesellschaftlicher Wandel, Bd. 33, hrsg. von Roman Köster, Werner Plumpe, Bertram Schefold und Korinna Schönhärl, Berlin. Institut der deutschen Wirtschaft (Hrsg.) (2009): Informationsdienst, Jg. 35, Köln. Jakob, Ludwig Heinrich [von] (2004): Grundsätze der National-Oekonomie oder National-Wirthschaftslehre, in: ders., Halle (1805). Mit einer Einleitung hrsg. von Bertram Schefold: Historia Scientiarum (Wirtschaftswissenschaften). Ein Editionsprogramm der Fritz Thyssen Stiftung zur Geschichte der Wissenschaften in Deutschland, Hildesheim. von Justi, Johann Heinrich Gottlob (1993): Grundsätze der Policey-Wissenschaft, Düsseldorf (Klassiker der Nationalökonomie); ergänzend: Vademecum zu einem Klassiker des Kameralismus (1993): Kommentarband zur Faksimile-Ausgabe der 1756 erschienenen Erstausgabe von von Justi, Johann Heinrich Gottlob: Grundsätze der PoliceyWissenschaft, hrsg. von Bertram Schefold, Düsseldorf (Klassiker der Nationalökonomie). Khaldun, Ibn (2000): Muqaddima, Düsseldorf (Klassiker der Nationalökonomie); ergänzend: Vademecum zu dem Klassiker des arabischen Wirtschaftsdenkens (2000): Kommentarband zum auszugsweisen Faksimile-Nachdruck der 1401/02 entstandenen Handschrift von Khaldun, Ibn: Muqaddima, hrsg. von Bertram Schefold, Düsseldorf (Klassiker der Nationalökonomie). Klock, Kaspar (2009): Tractatus juridico-politico-polemico-historicus de Aerario, ..., mit einer Einleitung hrsg. von Bertram Schefold: Historia Scientiarum (Wirtschaftswissenschaften). Ein Editionsprogramm der Fritz Thyssen Stiftung zur Geschichte der Wissenschaften in Deutschland, Hildesheim. Reprint der Originalausgabe von 1651 in 2 Teilbänden [S. V*-CXIII* vorn im ersten Teilband]. List, Friedrich (1959): Das nationale System der politischen Ökonomie. Volksausgabe auf Grund der Ausgabe letzter Hand, hrsg. von Arthur Sommer, Tübingen. Maddison, Angus (1995): Monitoring the World Economy 1820 –1992, in: OECD (Hrsg.), Paris. Mini, Piero V. (1991): Keynes, Bloomsbury and the General Theory, London. Nau, Heino Heinrich (Hrsg.) (1996): Der Werturteilsstreit. Die Äußerungen zur Werturteilsdiskussion im Ausschuß des Vereins für Socialpolitik (1913), Marburg. Nickel, Rainer (Hrsg.) (2008): Stoa und Stoiker. Griechisch-lateinisch-deutsch. Auswahl der Fragmente und Zeugnisse, Übersetzung und Erläuterungen von Rainer Nickel, Bd. I, Düsseldorf.
270
Bertram Schefold
Nörr, Knut Wolfgang / Schefold, Bertram / Tenbruck, Friedrich (Hrsg.) (1994): Deutsche Geisteswissenschaften zwischen Kaiserreich und Republik. Zur Entwicklung von Nationalökonomie, Rechtswissenschaft und Sozialwissenschaft im 20. Jahrhundert (Aus den Arbeitskreisen „Methoden der Geisteswissenschaften“ der Fritz Thyssen Stiftung.), Stuttgart. Osterloh, Margit / Frey, Bruno S. (2009): Research Governance in Academia: Are there alternatives to Academic rankings?, Working Paper Series No. 423, IERE, Universität, Zürich. Platon (o.J.): Sämtliche Werke, Bd. 1, Heidelberg. Platon (1961) [1903]: Platonis opera. Recognovit Ioannes Burnet. Tomus III, Oxford. Poni, Carlo (2009): The Worlds of Work: Formal Knowledge and Practical Abilities in Diderot’s Encyclopédie, in: Jahrbuch für Wirtschaftsgeschichte, Heft 1, S. 135 –150. Ricoeur, Paul (2004): La lutte pour la reconnaissance et l‘économie du don, Saint-Étienne. Romer, Paul M. (1990): Endogenous Technological Change, in: Journal of Political Economy Vol. 98, No. 5, S. 71 – 102. Sahlins, Marshall David (1972): Stone Age Economics, Chicago. Schefold, Bertram (1989): Platon und Aristoteles, in: Starbatty, Joachim (Hrsg.): Klassiker des ökonomischen Denkens, München, S. 15 – 55. Schefold, Bertram (1993): Glückseligkeit und Wirtschaftspolitik: Zu Justis ‚Grundsätze der Policey-Wissenschaft‘, in: Vademecum zu einem Klassiker des Kameralismus. Kommentarband zur Faksimile-Ausgabe der 1756 erschienenen Erstausgabe von von Justi, Johann Heinrich Gottlob: Grundsätze der Policey-Wissenschaft, hrsg. von Bertram Schefold, Düsseldorf (Klassiker der Nationalökonomie), S. 5 –27. Schefold, Bertram (1997): Ph. W. v. Hörnigk: ‚Oesterreich ueber alles / wann es nur will‘. Zum Geleit, in: Vademecum zu einem Klassiker absolutistischer Wirtschaftspolitik. Kommentarband zum Faksimile-Nachdruck der 1684 erschienenen Erstausgabe von von Hörnigk, Philipp Wilhelm: Oesterreich über alles, wann es nur will, hrsg. von Betram Schefold, Düsseldorf (Klassiker der Nationalökonomie), S. 5 –45. Schefold, Bertram (1998): Spontaneous Conformity in History, in: Hagemann, Harald / HeinzD. Kurz (Hrsg.): Political Economics in Retrospect. Essays in Memory of Adolph Lowe, Cheltenham, S. 235 – 256. Schefold, Bertram (2000): Aufstieg und Niedergang in der Wirtschaftsentwicklung. Ibn Khalduns sozioökonomische Synthese, in: Vademecum zu dem Klassiker des arabischen Wirtschaftsdenkens. Kommentarband zum auszugsweisen Faksimile-Nachdruck der 1401/02 entstandenen Handschrift von Khaldun, Ibn: Muqaddima, hrsg. von Bertram Schefold, Düsseldorf (Klassiker der Nationalökonomie), S. 5 –20. Schefold, Bertram (2001): Von den Pflichten, in: Vademecum zu einem Klassiker des römischen Denkens über Staat und Wirtschaft. Kommentarband zum Faksimile-Nachdruck der 1465 in Mainz gedruckten Editio princeps von Cicero, Marcus Tullius: De officiis, hrsg. von Bertram Schefold, Düsseldorf (Klassiker der Nationalökonomie), S. 5 – 32.
Ökonomisierung der Wissenschaft – contra
271
Schefold, Bertram (2004): Beiträge zur ökonomischen Dogmengeschichte, ausgewählt und herausgegeben von Volker Caspari, Stuttgart: [seitengleiche Ausgabe auch: Darmstadt (2004)], S. 565 – 577. Schefold, Bertram (2004a): Einleitung, in: Jakob, Ludwig Heinrich (Hrsg.): Grundsätze der National-Oekonomie oder National-Wirthschaftslehre, Hildesheim, S. V*-XLV*. Reprint der Ausgabe 1805, Halle. Schefold, Bertram (2004b): Edgar Salin and his concept of ‚Anschauliche Theorie‘ (‚Intuitive Theory‘) during the interwar period, in: Annals of the Society for the History of Economic Thought, Vol. 46, S. 1 – 16. Schefold, Bertram (2004c): Wirtschafts- und Sozialwissenschaftler in Frankfurt am Main, mit einem dokumentarischen Anhang und einer Lehrstuhlgeschichte, aus Erinnerungen zusammengestellt zum Universitätsjubiläum 1982, ergänzt und als Buch herausgegeben zum Universitätsjubiläum 1989, erweitert um einen zweiten Teil zur Hundertjahrfeier der Gründung der Akademie für Sozial- und Handelswissenschaften 2001 von Bertram Schefold, Marburg. Schefold, Bertram / Lenz, Thorsten (Hrsg.) (2008): Europäische Wissensgesellschaft. Leitbilder europäischer Forschungs- und Innovationspolitik?, in: Deutsche Forschungsgemeinschaft (DFG) (Hrsg.): Wissenskultur und gesellschaftlicher Wandel, Bd. 26, Berlin. Schefold, Bertram (2009): Einleitung, in: Klock, Kaspar: Tractatus juridico-politico-polemico-historicus de Aerario, ..., mit einer Einleitung hrsg. von Bertram Schefold: Historia Scientiarum (Wirtschaftswissenschaften). Ein Editionsprogramm der Fritz Thyssen Stiftung zur Geschichte der Wissenschaften in Deutschland, Hildesheim. Reprint der Originalausgabe von 1651 in 2 Teilbänden [S. V*-CXIII* vorn im ersten Teilband]. Schefold, Bertram (2009a): Wissen als ökonomisches Gut, in: Fried, Johannes / Michael Stolleis (Hrsg.): Wissenskulturen. Über die Erzeugung und Weitergabe von Wissen, Frankfurt / M., S. 79 – 102. Schefold, Bertram (2011) (i. E.): Einleitung, in: Weber, Max: Abriß der universalen Sozial- und Wirtschaftsgeschichte. Mit- und Nachschriften 1919 –1920, hrsg. von Bertram Schefold in Zusammenarbeit mit Joachim Schröder: Max Weber-Gesamtausgabe. Im Auftrag der Kommission für Sozial- und Wirtschaftsgeschichte der Bayerischen Akademie der Wissenschaften, hrsg. von Horst Baier et al., Abt. III: Vorlesungen und Vorlesungsnachschriften, Bd. 6, Tübingen. Schönhärl, Korinna (2009): Wissen und Visionen. Theorie und Politik der Ökonomen im Stefan George-Kreis, in: Deutsche Forschungsgemeinschaft (DFG) (Hrsg.): Wissenskultur und gesellschaftlicher Wandel, Bd. 35, Berlin. Schultz, Theodore W. (1961): Presidential Address, in: The American Economic Review, Vol. 51, No. 1, S. 1 – 17. Smith, Adam (1976): The Glasgow Edition of Works and Correspondence, The Wealth of Nations (2 Bände, hrsg. von R.H. Campbell und A.S. Skinner), Oxford. Xenophon (1987): Erinnerungen an Sokrates. Griechisch-deutsch, hrsg. von Peter Jaerisch, Darmstadt.
Podiumsdiskussion: Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissenschaft? 1 Prof. Dr. Ullrich Heilemann, Prof. Dr. Dr. h.c. Johannes Fried, Dr. Elisabeth Niggemann, Prof. Dr. Dres. h.c. Bertram Schefold Moderation: Prof. Dr. Werner Meißner Meine Damen und Herren, wir beginnen mit der Diskussion. Herr Frey konnte leider nicht teilnehmen. Wenn ich seinen Vortrag richtig verstanden habe, er hat sich ja sicher ökonomisch-rational verhalten, dann vermute ich, dass die Veranstalter mit Herrn Frey einen Vertrag gemacht haben, der nur den Vortrag abdeckte und nicht die Diskussion. Das ist eine Vermutung und keine Frage an die Veranstalter. Herr Heilemann, einer der Veranstalter hier, hat sich freundlicherweise bereiterklärt den Part der Ökonomie mit zu vertreten. Ansonsten kennen Sie schon Herrn Bertram Schefold, den Schweizer Ökonom, der Ihnen ja vorgestellt worden ist von Herrn Diedrich und der in seinem Eröffnungsreferat das Hin und Her der Wissensgesellschaft zwischen Wissenswirtschaft und – wie er sagt -„Neuem Humanismus“ beschrieben hat. Aus Leipzig und aus Frankfurt kommt Frau Dr. Niggemann, die Direktorin der Deutschen Nationalbibliothek, also der Deutschen Bibliothek in Frankfurt und der Deutschen Bücherei in Leipzig und noch ein bisschen Berlin kommt dazu. Sie vertritt übrigens heute die Naturwissenschaften auf dem Podium. Sie ist diplomierte, promovierte Biologin. Mit ihr werden wir sprechen über Wissensspeicher in Büchern, in Archiven, in Bibliotheken, Ökonomisierung, Google versus Europeana. Da möchten wir mehr von ihr wissen. Und schließlich Prof. Johannes Fried. Wenn jemand 600 Jahre alt wird, dann darf auf dem Podium ein Historiker nicht fehlen. Herr Fried hat das Mittelalter zu seinem Arbeitsgebiet gemacht und zählt zu den bedeutendsten Mediävisten in Deutschland. Er kommt von der Goethe-Universität in Frankfurt, genau wie ich. Ich bin Ökonom dort. Nun wird Ihnen auffallen, dass ein bisschen viel Frankfurt hier auf dem Podium sitzt in Leipzig. Das ist kein Zufall. Beides sind bedeutende Messestädte, Buchstädte. In Zeiten der deutschen Teilung waren Frankfurt am Main und Leipzig Partnerstädte. Ansonsten, meine Universität wird in vier Jahren 100. Dann sind Sie 604 Jahre alt. Ökonomisierung, das hat sicher auch etwas mit Konkurrenz zu tun. Die 1
Dieser Abdruck beruht auf Tonaufnahmen der Diskussion am 4. Dezember 2009. Um deren Authenzität zu wahren, wurde der Text nur geringfügig bearbeitet.
274
Podiumsdiskussion
ersten Universitäten wurden in Prag von Karl dem IV. gegründet, dann haben es ihm die Habsburger in Wien sehr schnell nachgemacht, dann die Wittelsbacher in Heidelberg und da haben wir schon die ältesten deutschsprachigen. Das war sicher der Konkurrenzgedanke und inzwischen wissen wir es alle, das stand ja auch in den Zeitungen, warum Leipzig gegründet wurde – also eine Abspaltung von Prag, als dort die Sachsen, Polen und Bayern auszogen und nach Leipzig kamen. Und der Landesherr fand es sicherlich auch aus Konkurrenzgesichtspunkten gut, hier zu gründen. Die Ironie will es dann, dass Leipzig wirklich eine bedeutende Universität wurde und Prag immer die älteste geblieben ist, das kann ihr auch niemand streitig machen. Die jüngste bleibt man nicht lange, aber die älteste bleibt man sozusagen ewig. Aber an wissenschaftlicher Bedeutung, das sage ich hier mit allem Freimut, hat Leipzig die Prager natürlich überholt. Das ist historisch belegt. Also, die Konkurrenz trieb Blüten und treibt Blüten. Studieren in Fernost, das ist ja eine Geschichte, wo Ihr Rektor, Herr Häuser, sich mal kritisch geäußert hat, kürzlich in der Presse, habe ich gerne gelesen. Lehrer, Schulen, Universitäten werben, sie bieten die beste Wissenschaft, die bequemsten Studienbedingungen, die günstigsten Wohn- und Lebensmittelpreise, das lieblichste Klima, die schönste Landschaft, auch die herrlichsten Mädchen, alles im Superlativ. Das allerdings stammt aus der Feder eines Historikers, der sich mit Universitätsgründungen befasst hat. Er sitzt auf dem Podium. Was soll ich Ihnen hier vorlesen? Er kann ja selbst sprechen. Herr Fried, das haben Sie geschrieben und uns würde jetzt interessieren, wenn wir über Ökonomisierung sprechen, ob das nicht zum Beginn des Europäischen Universitätswesens eine oder die entscheidende Triebfeder war und was wir da heute daraus lernen. Prof. Fried: Das kann man durchaus sagen, denn das, woraus ich zitiert habe, sind Werbeschreiben für Universitätsgründungen, etwa Orléans, die als Konkurrenzgründungen zu Paris entstanden sind. Und aus diesen Schreiben – rhetorisch hochstilisiert – stammen diese Zitate. Das ist also durchaus am Anfang der Europäischen Universitäten im Mittelalter zu entdecken. Aber es gibt noch hübschere Konstellationen, etwa in Bologna. Sicher mit Paris zusammen die älteste Universität der Welt. Und in Bologna streiten sich die Juristen, nicht die Ökonomen, sondern die Juristen streiten. Und es führt zu tätlichen Angriffen auf der Straße. Ein Professor – berühmt – Placentinus, wandert dann aus, wird einer der Gründerväter für die Universität Montpellier. In Bologna aber wird er überfallen, geschlagen, geprügelt vom Pedellen des Konkurrenten. Es geht um finanzielle Vorteile, denn jeder Student hat zu zahlen, und zwar viel. In Bologna muss man enorm viel zahlen, um studieren zu können. Und das Geld fließt direkt, nicht an irgendeine Universität, nicht an staatliche Kassen, sondern direkt in die Kasse der Professoren. So streiten sie sich also um die Einkünfte, und ihre Einkünfte sind gewaltig. Sie übertreffen bei weitem das, was heutzutage die Spitzenmediziner verdienen. Wer einmal in Bologna war und dort das Rathaus gesehen hat, den großen Palazzo Accursio, der ahnt, was ein Bologneser Professor in der Blütezeit des 13. Jahrhunderts verdienen konnte. Das ist der größte Palast der
Podiumsdiskussion
275
Stadt überhaupt, heute ein Riesenkomplex. Da hat der Doktor der Rechte gelehrt, da hat er Studenten untergebracht und – seine Seele belastet, nämlich mit Zinsnahmen, unrechten Vermietungen, überteuerten „Gaben“, die ihn, theologisch gesprochen, in die Hölle gebracht hätten. Noch ein Beispiel, jetzt aus Paris. Peter Abaelard, der berühmte Mann (seine Eloise ist heute genauso berühmt), konkurriert mit seinem Lehrer an der Domschule in Paris, weicht aus auf das linke Seine-Ufer. Das ist der Anfang der Universität Paris, die mithin nicht bloß aus der dortigen Domschule hervorging, sondern aus dem Konkurrenzunterricht auf dem linken Seine-Ufer. Konkurrenz von Lehrern auch jetzt, und es geht abermals um Ruhm und Geld. Der in Abaelards Augen Unterlegene wich seinerseits aus, und gründete ein Stift, in das er sich zurückzog, als er mit Abaelard nicht mehr mithalten konnte. Oder noch einmal zurück nach Bologna. Die Kommune verlangt von den Rechtsprofessoren, um ein absolutes juristisches Lehrmonopol zu behalten, einen Eid nur in Bologna zu lehren. Sonst dürfen sie nicht Doktor Iuris oder Doktor Legum, Rechtsprofessoren, werden. Dieser Exklusivitätsanspruch lässt sich nicht durchhalten. Schon im Beginn des 13. Jahrhunderts verdeutlichen es Auswanderungen in andere Städte – nach Modena, Padua oder Vercelli, verdeutlichen also Konkurrenzgründungen das Scheitern des Monopols. Vergleichbare Konkurrenz durchzieht die gesamte europäische Universitäts- und Wissenschaftsgeschichte. Man könnte vielleicht noch auf ein späteres Beispiel aus dem 19. Jahrhundert verweisen. Dem Philosophen Fichte werden in Jena die Fensterscheiben eingeschlagen, auch da spielt Konkurrenz und Neid eine Rolle; Goethe im nahegelegenen Weimar lästert: da habe man „dem absoluten Ich die Fenster eingeschlagen.“ Solches spiegelt die Kontinuität vom Mittelalter bis zur Neuzeit. Und unsere wissenschaftliche Gegenwart streitet erst recht mit Gutachten, betrügerischen Forschungen, mit Neid und Gewalt gelegentlich mit Angriffen auf Ruf, Leib und Leben. Damit berühren wir ein heikles Problem. Denn die Wissenschaftsgesellschaft, die wir darstellen, kontrolliert sich teilweise über das Gutachterwesen selbst. Die Gutachter sind nicht selten Konkurrenten. Wie wird dann entschieden? Es ist ja in Ihrem Fall ganz gut entschieden worden. Ihr Forschungskolleg in Frankfurt hat erfolgreich gearbeitet. Ich weiß nicht, ob es verlängert wird. Herr Schefold war mit dabei. Es geht ja auch um die Verwaltung, um die Speicherung und die Verfügbarmachung von Wissen. Und wie sieht es denn da mit der Ökonomisierung aus, Frau Niggemann? Welche Rolle spielen denn inzwischen oder immer schon, vielleicht auf andere Art, kommerzielle Anbieter, also Verleger, Datenbankanbieter, Google, das lässt Sie ja zusammenzucken, das Wort? Oder nicht mehr? Auf der anderen Seite der Staat oder die Europäer mit ihrer Europeana. In all diesen Dingen sind Sie ja mit dabei, nicht nur bei der Europeana, sondern Sie sind auch in Stanford dabei. Also, Sie kennen sich aus. Wie ist denn da der Stand der Ökonomisierung in Ihrem Feld? Dr. Niggemann: Ich würde gerne bei der Konkurrenz anknüpfen. Die Europeana wurde, bevor sie überhaupt existierte, schon als Konkurrenzveranstaltung
276
Podiumsdiskussion
zu Google gesehen vor allem von denen, für die Google der große Feind, der Moloch im Hintergrund ist, die aber trotzdem Google täglich nutzen. Denn unabhängig davon, ob jemand Google als Konkurrenz, als Bedrohung, als Feind ansieht, ich kenne niemanden, der nicht trotzdem täglich genau auf diese Website geht, um seinen Informationsbedarf zu befriedigen. Ich kann überhaupt nicht darüber klagen, dass Europeana als Konkurrenzgedanke entstanden ist. Dieser Konkurrenzgedanke war für uns sehr positiv. Dadurch hat es viel, viel Geld gegeben. Ich glaube, es hätte niemals so viel Geld gegeben aus Brüssel zunächst einmal, aber in dieser Woche stand in allen Zeitungen, dass jetzt auch die Bundesregierung in einem Kabinettsbeschluss gesagt hat, dass sie die Deutsche Digitale Bibliothek fördern wird und noch auf einen entsprechenden Beschluss der Länder wartet, um das gemeinsam zu tun. Es gab und gibt viele Millionen Euro zur Bereitstellung von nicht nur Texten, also Büchern, Zeitschriften, sondern eben auch Multimedia, Musik, Film, Archivalien, alles, was letztendlich der Wissenschaft dann wiederum zugutekommt. Im Fall der Europeana wird allerdings auch die allgemeine Kulturvermittlung betont, das heißt, der Bürger, der lebenslang Lernende, der kulturell und wissenschaftlich interessiert ist, soll profitieren. Ohne diesen großen Konkurrenten Google, diesen Riesen im Hintergrund, hätte es das alles nie gegeben. Warum soll ich da klagen? Abgesehen davon glaube ich, dass solche Konkurrenten immer ein Anlass sind, zu wachsen, sich ihm anzunähern, nicht besser zu werden – so vermessen will ich da gar nicht sein – aber ihm ein Angebot zur Zusammenarbeit zu machen. Ich denke, da sind auch solche großen Anbieter sehr hellhörig und eine Konkurrenz, finde ich, kann insofern sehr erfrischend sein und kann eben auch zu sehr guten Zusammenarbeiten führen. Herr Schefold, ganz freundliche Worte zur Konkurrenz und zur Ökonomisierung. Nun haben Sie in Ihrem Referat ja geschlossen mit dem Gegensatz zwischen Wissenswirtschaft und neuem Humanismus, wie Sie gesagt haben. Und mir sind die letzten zwei Sätze noch besonders schön im Ohr. Offenbar besteht durchaus ein Spielraum, innerhalb dessen wir uns eher zur technokratischen Wissenswirtschaft oder zu einer humanistischen Wissenskultur hinbewegen können. Es wird immer wieder junge Menschen geben, die ihn nutzen wollen. Nun kommt der Satz, damit haben Sie geschlossen. Immer der erste und der letzte Satz sind besonders wichtig. Also der letzte Satz von Herrn Schefold: „Wir haben die Verantwortung, sie nicht auf beruflich aussichtslose Wege zu locken, aber wir wollen die Pforten zum geistigen Reich auch nicht verriegeln.“ Das ist ein gutes Wort. Was bedeutet das für die Universität? Wenn ich richtig sehe, sind hier drei Altrektoren im Raum. Einer sitzt auf dem Podium, dann noch Herr Weiß, Universität Leipzig, Herr Steinberg, Goethe-Universität, ein Wissenschaftsminister. Also dieser Satz. Was bedeutet der denn für die Universität und wie soll sie gestaltet werden bzw. wie soll sie sich ändern? Denn offensichtlich sind Sie mit dem gegenwärtigen Zustand nicht in allen Teilen zufrieden.
Podiumsdiskussion
277
Prof. Schefold: Ja, das ist die hochnotpeinliche Frage, die nötig war und auch nicht unerwartet. Denn wie soll man konkretisieren? Die Widersprüche sind deutlich genug. Nach meiner Auffassung hat wirkliche Wissenschaft immer etwas Elfenbeinturmartiges, da lässt sich nichts daran ändern. Andererseits haben wir eine weltweite, wenn man es böse sagen will, „Vermassung“ der Universität. Wie also sich in diesen und ähnlichen Widersprüchen bewegen? Zuerst zur Universität. Einen Aspekt, den ich im Referat genannt hatte, möchte ich gerne noch einmal hervorheben. Das ist die Disziplinenbildung. Das heißt einerseits, dass es kleine Disziplinen gibt, die sehr wertvoll sind, schon deswegen, weil sich innerhalb derselben dieser Widerspruch in viel geringerem Maße und mit geringerer Intensität darstellt. Die kleinen Disziplinen aber, das sehen wir andererseits, werden bedrängt. In Frankfurt wurde die Indogermanistik abgeschafft, in Heidelberg das Mittellatein u. ä. m. Die Altpräsidenten werden es genauer sagen können. Das Faktum ist jedenfalls wohlbekannt und unbestritten. Woran liegt es? Nun, man versucht offenbar, dem Massenanspruch dadurch gerecht zu werden, dass man die ganzen Ressourcen in die großen Fächer leitet. Das hat aber zur Folge, dass, wenn die großen Fächer Forschungsorientierung in Verbindung mit der Lehre aufrechterhalten wollen, mit dem menschlichen Bezug, der immer im Mittelpunkt stehen sollte, diese sich eigentlich auch wieder in kleinere Subdisziplinen aufspalten müssten. Das kann in diesen Fakultäten dann auch wiederum zu übertriebenen Formen der Spezialisierung führen, wie wir sie manchmal hatten, dass also jeder Professor sein Spezialgebiet definiert und nur an sich denkt, so dass es in diesen Fachbereichen dann keine Kooperation mehr gibt. Hier müssen Mittelwege gefunden werden. Aber warum ist es schwierig, sie zu finden? Wohl deswegen, weil dem Bedürfnis, sich in einem Einzelfach zu profilieren, der Allgemeinheitsanspruch gegenübersteht, den alle erheben, und weil mit diesem Allgemeinheitsanspruch eben leider nicht nur der Versuch verbunden ist, sich auch in allgemeineren Zusammenhängen ausdrücken zu können und Bücher zu schreiben, die einen übergreifenden Charakter haben und entsprechende Vorträge zu halten, sondern weil ein direkter Herrschaftsanspruch erhoben wird. Dieser Herrschaftsanspruch drückt sich dann in administrativen Verfahren aus, von denen wir im Vortrag von Herrn Frey einiges gehört haben. Man darf das nicht nur im Sinne eines Systems, das sich einfach so ergeben hat, nehmen, sondern man muss sehen, dass es handelnde Personen gibt, die ihre Interessen vertreten. Diesen muss man entgegentreten; insofern ist der Kampf um die Autonomie der Universitäten ein Kampf um die Autonomie der individuellen Universitäten, es ist aber auch ein Kampf um die Autonomie der einzelnen Wissenschaftler in den Wissenschaftszusammenhängen, in denen sie sinnvollerweise am besten stehen, um ihre Aufgabe zu erfüllen. Wie macht man das persönlich, beispielsweise: wie mache ich es in meiner Einführungsvorlesung? Ich habe jetzt in der Volkswirtschaftslehre die Verantwortung für die Anfänger des neuen Bachelorstudienganges, der in Frankfurt eingeführt worden ist. Dazu gehört leider, dass es kaum mehr Seminare im alten Sinne gibt, dass also diese wich-
278
Podiumsdiskussion
tigste alte und übrigens typisch deutsche Form der Kommunikation zwischen Lehrenden und Lernenden beschränkt wurde. In meiner Einführungsveranstaltung versuche ich nun, zum Ersatz die Nationalökonomie in ihren historischen Bezügen darzustellen, denn es muss einerseits jeder seinen eigenen Weg finden, um das, was er besonders gut kann, in einem allgemeineren Zusammenhang darzustellen. Ich kann natürlich nicht jedem vorschreiben, sich besonders mit Geschichte zu befassen, aber ein historischer Bezug und der Bezug auf einen gemeinsamen Kanon scheint mir notwendig – das ist auch ein Auftrag an die Schulen; wir können ja nur noch wenig gestalten, nachdem die jungen Menschen die Schulen schon durchlaufen haben. Die historische Herangehensweise in der Einführungsvorlesung dient aber andererseits noch spezifischeren Zielen; sie dient nicht nur der Bildung und einer persönlichen Vermittlung, sondern der Einführung in die verschiedenen Teildisziplinen der Volkswirtschaftslehre, die aus einem gemeinsamen Wurzelwerk hervor gewachsen sind, heute sich aber weit auseinander entwickelt haben. Früher lernte man in den Seminaren, diesen Zusammenhang des Fachs als eines ganzen zu sehen, in der Perspektive des Seminarveranstalters. Heute muss das in einer Großvorlesung versucht werden. Mein auf die eigene Person zugeschnittener Lösungsversuch besteht in der genannten historischen Herangehensweise. Manche erinnern sich an das Besondere solcher Veranstaltungen noch nach Jahrzehnten. Das war vielleicht ein bisschen unfair, dass ich nach Ihren Ratschlägen für Leiter und Lenker gefragt habe. Insofern ist es gut, dass Sie sozusagen auch hier ganz persönlich an uns zurückkommen. Mir scheint, dass es ja nicht untypisch ist, dass Sie sich einem Forschungsverbund angeschlossen haben, indem Sie wohl der einzige Ökonom sind? Prof. Schefold: Ja, das passiert mir immer wieder. Und dass Sie Ihre Aktivitäten sozusagen als Individualist über den ganzen Erdball verstreuen. Herr Diedrich hat Sie ja vorgestellt. Das war ja atemberaubend. Sie haben ja keinen Erdteil ausgelassen in Ihren Vorlesungen und Forschungskontakten. Das heißt, für den einzelnen Forscher gibt es wohl einen Ausweg und selbst wenn er sich in Einführungsveranstaltungen bei der Bachelorausbildung ein bisschen zwingen muss. Lassen wir diese Frage nach Leitung und Lenkung mal erst ruhen. Ich möchte Herrn Heilemann etwas fragen. Ökonomisierung ist ja was Gutes, haben wir von Herrn Frey gehört. Das ist wie diese Bücher: Fotografieren, aber richtig. Und er hat gesagt, Ökonomisieren, aber richtig! Und jetzt möchte ich den Ökonom fragen, den empirischen Wirtschaftsforscher, Ullrich Heilemann: Ist denn der Fortgang oder der Stand oder der Fortschritt der Ökonomie schon so, dass man sagen kann, hier gibt es eine andere Ökonomie und daraus ergibt sich auch eine andere Ökonomisierung und mit der ist dann alles gut? Prof. Heilemann: Das sind zweifellos sehr interessante Versuche, über die Herr Frey hier berichtet hat – psychologische Experimente, die (auch) für den
Podiumsdiskussion
279
vorliegenden Zusammenhang über Einstellungen und Verhaltensweisen und Einstellungen Auskunft geben sollen. Aber die relative Erklärungskraft dieser Experimente, erst recht ihr prognostisches Potenzial, also ihre Leistungsfähigkeit außerhalb der Laborbedingungen, ist noch gering und auch über die Stabilität der Befunde im Zeitablauf wissen wir noch wenig. Also etwa bei der Berufung aufgrund derartiger Erkenntnisse Aussagen zu machen, wo die Reise des Kandidaten nach der Berufung hingehen wird, sind vorläufig nicht seriös möglich. Bis zur Anwendungsreife bleibt hier noch viel zu tun und wenn es dann soweit ist, werden es erfahrungsgemäß zuerst die Bewerber sein, die solche Erkenntnisse zu nutzen wissen. In diesem Zusammenhang komme ich daher auch auf den Vortrag von Herrn Weiß zurück: Die Instrumentalisierung des Medaillenwesens klingt ja sehr nach DDR, wo derlei Prämierung offenbar eine große Rolle spielte. Wenn man sich im Podium und im Auditorium umschaut, so hätten sicher sehr viele, so sie nicht hanseatischen Verzicht geübt hätten, die Brust voller Medaillen und voller Ehrenzeichen. Kann dann noch von Auszeichnung und von Stimulierung des Wettbewerbs die Rede sein? Es wäre interessant, etwas über die Anreizwirkungen zu erfahren – die direkten und die indirekten! Zurzeit lässt die W-Besoldung, vor allem bei den jüngeren Kollegen, unmittelbar materielle Gratifikationen erfolgversprechender erscheinen. Motivierender als Orden wäre vielleicht die erbliche Nobilitierung von Wissenschaftlern, wie im 19. Jahrhundert üblich. Die richtigen Anreizsysteme, wenn es allgemein gültige gibt, scheinen mir jedenfalls noch im Dunkeln zu liegen. Das gilt ja auch zunehmend für vergleichbare Positionen in der Wirtschaft, wo diese Debatte offenbar nur an den Banken vorbeigegangen zu sein scheint. Andererseits frage ich mich, warum nicht die weitverbreitete Kritik an der Evaluation, die gestern und heute deutlich geworden ist, nichts an diesem Bewertungskanon ändert. Wir wissen, dass andere Kriterien, z. B. Monographien (die oft nicht „zählen“) wichtig sind, es bei referierten Zeitschriften, bei Zitierhäufigkeiten usw. oft nicht mit rechten Dingen zugeht. Aber trotzdem ändert sich nichts, von Sezession keine Spur! Wie so oft, die Therapie bleibt hinter der Diagnose zurück. Eine „sachgerechtere“ Ökonomisierung – wie immer sie aussehen würde – ist jedenfalls auf dieser Seite des Problems nicht in Sicht und so bekommen wir – nur in den Wirtschaftswissenschaften? – was wir messen und das nicht nur von denen, die buchstäblich darauf angewiesen sind.. Ökonomisierung hat was mit Erträgen und Kosten zu tun. Über die Erträge, zumindest für die einzelnen Professoren, haben Sie, Herr Fried, gerade sehr schön erzählt. Fürstlich gelebt haben sie. Wie sieht es denn mit den Kosten, wie sah es denn mit den Kosten aus und welche sehen Sie heute bei der Ökonomisierung von Universitäten? Prof. Fried: Als Mediävist schaut man ja weit in die Vergangenheit zurück, 1.000 Jahre zurück und kann dann vergleichen, was Wissenschaft damals gekostet hat, was sie heute kostet. Frage ich meine Frau, wie viele Bücher ich mir noch
280
Podiumsdiskussion
leisten darf, ist ihre Antwort kurz und bündig: „Keines. Wenn du dir noch eines kaufst, mußt du fünf rausschmeißen.“ Die berühmten Bologneser Professoren, von denen ich vorhin gesprochen habe – der große Accursius etwa – besaßen Bibliotheken von vielleicht 20 oder ein wenig mehr Büchern. Ein solches Buch kostete, über den Daumen gepeilt und auf heutige Kaufkraft übertragen, heute vielleicht 50.000 bis 100.000 €, ein Buch, eine Pergamenthandschrift mit einem der wichtigen juristischen Texte, dem Codex oder den Digesten. Um in der Karolinger Zeit, also im 8. / 9. Jahrhundert ein Buch zu produzieren, mußten man zu allererst über eine Schafherde verfügen. Ein Tier ergab eine Doppelseite in einer der großen Prachtbibeln der Epoche. Allein der Beschreibstoff also war teuer. Nicht minder das Schreiben der zuvor erwähnten juristischen Handschriften. Es kostete, im 13. Jahrhundert, solche Belege habe ich einmal gesammelt, den Lebensunterhalt für zwei Notare für ein Jahr oder auch zwei. Dazu die Kosten für das Pergament, die Schaf- oder Ziegenherde, die Arbeit des Pergamenterers, die Rohstoffe für Farben und Tinte. Das sind Primärkosten für die Wissenschaft damals. Wenn solche Kosten hochgerechnet werden, dann erscheint die Finanzleistung des Mittelalters in dieser Hinsicht ungeheuerlich. Durch sie wurde das Wissen von der Antike gerettet. Im Mittelalter wurde jedes Buch aus der Antike systematisch gesucht, zum Abschreiben ausgeliehen, produziert, verteilt, diskutiert. Ungeheure Kosten. Wer hat sie getragen? Eine Antwort verweist etwa auf Karl den Großen, der den Klöstern die Wissenschaftspflege und Buchproduktion zugewiesen hat. Der Mönch aber will eigentlich in die Einsamkeit gehen, im Eremus leben. Er bekam nun Aufgaben für die nichtklösterliche Öffentlichkeit zugewiesen, sollte Unterricht auch für Fremde erteilen, für den Königshof Bücher produzieren. Die Nonnenklöster übrigens genauso. – Ich will das hier nicht weiter ausmalen, aber noch einmal den Bogen schlagen, zu dem, was Herr Schefold vorhin sagte im Hinblick auf die Reduktion der kleinen Fächer. Das sind ja durchaus kostenrelevante Fragen. Ich möchte ein wenig Advocatus Diaboli spielen. Ich mußte einmal ein Gutachten machen über ein großes deutsches Forschungsunternehmen. Was mir vorlag, war eine eigentümlich Kalkulation: Das Unternehmen bestand seit ca. 50 Jahren, in dieser Zeit waren etwa 5 Prozent der zu erwartenden Arbeit geleistet. Das durfte man gar nicht hochrechnen. Das Unternehmen arbeitet auf erneuerter Zeitbasis weiter. Eine deutsche Akademie strich, ein weiteres Beispiel, das bis dahin betreute mittellateinische Wörterbuch aus ihrem Arbeitsprogramm. Es lohnte nicht mehr. Eine andere Akademie hat es dann zum Glück übernommen, weil dort ein sachkundiger Gelehrter an den Entscheidungen mitwirkte. Aber zunächst gestrichen. Warum? Der Verdacht besteht, dass es die Trends der Wissenschaften selbst sind, die solche Entscheidungen herbeiführen. Wie viele Editoren mittelalterlicher Texte gibt es noch? Müssen wir für diese wenigen so teure Unternehmungen fortlaufen lassen? Da besteht deutlich eine Diskrepanz zwischen Bedarf, Nachfrage und Kosten. Gleiches ließe sich für die Byzantinistik ausführen, gewiß ein kleines, ein sehr kleines Fach in Deutschland, das vielfach ums Überleben kämpft. Kosten-Nutzen-Relation
Podiumsdiskussion
281
zu den Bedürfnissen der jeweiligen Fachdisziplin sind heute beliebte Planspiele. Besonders bedauernswert empfinde ich die Reduktion der Rechtsgeschichte an den juristischen Fakultäten. Eine Folge kann ich mir zu Illustration darzustellen nicht verkneifen. Sie wurde mir aus meiner Heimatuniversität Frankfurt berichtet. Geprüft wurde Öffentliches Recht, eine mündliche Gruppenprüfung. Man kam auf die Weimarer Verfassung zu sprechen. Einer der Prüfer fragte fragte: „Na wann entstand sie doch gleich?“ „Oh“, meldete sich eine Kandidatin in glücklichem Wissensbesitz: „1905“. Der Prüfer war nicht einverstanden, fragte noch einmal. Ein Student noch glücklicher im Glauben an seine richtige Antwort: „1848.“ – Alle haben mit Prädikatsexamen abgeschlossen. Das sind die Juristen, die künftig in den Staatsdienst gehen können, die potenziellen künftigen Verfassungsrichter. Wie wollen die eine Verfassung beurteilen, wenn sie die Geschichte des Verfassungsrechtes nicht kennen, wenn sie über den Zusammenhang zwischen Gesellschaft, Politik, Geschichte und Wissenschaft keine Ahnung haben, nie darüber nachzudenken gezwungen waren? Sind es also nicht der Gesetzgeber, nicht die Finanzbehörde, nicht die zentrale Universität, die das Geld verweigert, sondern sind es die Trends der Disziplinen, die Wichtiges obsolet erscheinen lassen? Eine Schafherde für ein Buch. Dann kam der Buchdruck und dann wurde es billiger und es gab mehr Bücher. Und jetzt gibt es die Budapester Erklärung zu Open Access. Die sagt eben, dass die wissenschaftliche Literatur kostenfrei allgemein zugänglich im Internet sein muss. Man kann lesen, herunterladen, kopieren, drucken, in ihnen suchen. In nationalen, internationalen Wissenschaftsorganisationen, Berliner Erklärung 2003/2004; immer gut, wenn man die Quelle rechts neben sich hat, also 2004. Die sagt, Open Access ist Teil der Förderpolitik, die DFG hat es 2006 gesagt, und auf der anderen Seite haben wir das Google Library Projekt. Google ist kommerziell, das führt aber zur Frage an Open Access, da entstehen ja auch Kosten. Frau Niggemann, wer bezahlt denn die? Dr. Niggemann: Letztendlich zahlen immer die gleichen, jedenfalls für Literatur im Umfeld von Wissenschaft und Erziehung. Es zahlt der Staat über seine Universitäten, seine Bildungseinrichtungen, seine Infrastruktureinrichtungen wie die Bibliotheken. Für mich ist Open Access zwar durchaus entstanden aus der Frage: Wie kann man Preistreiberei verhindern, wie kann man den Circulus Vitiosus irgendwie brechen? Aber grundsätzlich, glaube ich, wird heute wesentlich weniger emotional darüber diskutiert und stattdessen genauer hingesehen, welche Kosten entstehen und welche unnötig sind. Es geht mehr darum, an welcher Stelle wird denn bezahlt, denn es kostet so oder so. Es kostet auch, wenn von staatlicher Seite veröffentlicht und verlegt wird, wenn also ein Universitätsverlag entsteht und die Literatur verbreitet. Ich denke, die Frage bei Open Access konzentriert sich immer stärker auf die Frage: Zahlt derjenige, der als Autor daran ein Interesse hat, sein Wissen, seine Ergebnisse zu verbreiten und zahlt er es sozusagen als Eintrittsgebühr – egal ob in Form einer Subventionierung
282
Podiumsdiskussion
eines Universitätsverlages oder in Form einer Gebühr an einen kommerziellen Verleger? Oder zahlt der Leser, wenn er nämlich, egal ob durch ein privates Abonnement einer Zeitschrift oder die Abonnements einer Hochschulbibliothek dafür sorgt, dass die Publikation gelesen werden kann? Es gibt Hinweise darauf, dass das Modell – der Autor zahlt – grundsätzlich im Preis-Leistungsverhältnis günstiger ist, weil die Barriere wegfällt für den Leser. Das heißt, die Publikation wird häufiger gelesen. Aber ich denke, dass noch nicht feststeht, welches Modell wirklich günstig ist. Es gibt mittlerweile sehr viele Mischmodelle und Verlage, die damit experimentieren. Vorallem sollte man sehr vorsichtig sein, eine Kultur zu zerstören, die gerade in Deutschland noch sehr verbreitet ist, die Kultur der kleinen und mittleren wissenschaftlichen Verlage, die noch sehr mit Herzblut, mit hoher intrinsischen Motivation am Werke sind. Die Gefahr besteht gerade im Bereich der Geisteswissenschaften. In den NTM-Fächern, Technik, Naturwissenschaften, Medizin gibt es mehr von den großen globalen Konzernen, die mit ganz anderen Geschäftsmodellen an das Thema herangehen können. Ein weites Feld, und ich kann auf heute Nachmittag verweisen, wo Open Access von verschiedenen Seiten aus beleuchtet wird und Sie wesentlich intensiver etwas dazu hören können. Ich möchte aber noch zwei Bemerkungen zu den Kosten machen. Ich vertrete hier – Herr Meißner hat zwar gesagt die Naturwissenschaften, aber das ist ein Vierteljahrhundert her – die Infrastruktureinrichtung. Infrastruktureinrichtungen arbeiten die meiste Zeit im Verborgenen. Nur im Kontakt mit dem Nutzer, bei der Ausleihe, bei der Dokumentenbesorgung, bei der Informationsvermittlung sind wir sichtbar. Was darüber hinaus passiert, sieht keiner und alles was man nicht sieht, weiß man nicht wirklich zu schätzen. Wenn ich sage, was es kostet, Literatur dauerhaft zu archivieren und zur Verfügung zu stellen, dann bewirkt das meist ein ungläubiges Staunen. Das war schon, wenn ich erkläre, was es kostet, industriell gefertigtes säurehaltiges Papier zu entsäuern. Und das ist vor allem so, wenn ich erkläre, was elektronische Publikationen kosten, wenn man sie sicher archiviert. Archivieren ist nicht sexy, der Nicht-Fachmann sieht es nicht, er kann es nicht richtig einschätzen. Die Kosten für diesen wichtigen Bereich zu erläutern und das nötige Geld dafür einzuwerben, ist sehr mühsam. Aber es ist Teil der Wissenschaft. Ohne Archivierung wird eine kommende Generation nicht auf die Erkenntnisse von gestern und heute zugreifen können. Ein zweites Beispiel für Kosten, die ein Außenstehender nicht sieht, sind die Kosten für die Erschließung von Literatur. Auch diese Kosten sind sehr hoch, bei uns wie auch im internationalen Durchschnitt. da traue ich mich gar nicht, nicht einmal in diesem Hörsaal, zu sagen, was das kostet, ein Buch zu erschließen im internationalen Durchschnitt. Es ist schwierig, für diese internen Bereiche, die Teil der Infrastruktureinrichtung für die Wissenschaft sind, die notwendigen Mittel einzuwerben und damit dafür zu sorgen, dass verlässlich Literatur für die Wissenschaft bereitgestellt und archiviert wird. Vielen Dank, Frau Niggemann. Also wenn etwas viel kostet und man sich darauf bezieht, dann haben wir gelernt, das Schlüsselwort heißt: Sie haben Sie wohl
Podiumsdiskussion
283
nicht mehr alle? Kosten, Wissenswirtschaft und Humanismus – Herr Schefold, das Gespräch, das Sokrates mit seinen Jüngern oder Schülern, der Ausdruck Jünger fiel wohl auch bei Ihnen, führte, das war nicht so kostenträchtig. Heute ist Wissensproduktion allerdings, selbst in unserem Feld, in der Ökonomie, darüber könnte Herr Heilemann viel sagen, wird er auch tun heute Nachmittag in seinem Vortrag, sehr teuer. Wie fließt da Ihre Idee des Humanismus ein, wenn so viel Geld im Spiel ist? Prof. Schefold: Also, in dieser Allgemeinheit weiß ich jetzt nicht, was da sinnvoll darauf zu antworten wäre. Sie können die Frage ja verengen, so dass Sie antworten können. Prof. Schefold: Die konkrete Frage ist, wer diese Kosten tragen soll. So wie die Frage gestellt ist, werden die Kosten offenbar als gegeben betrachtet. Dann ist meine Antwort, nach dem, was ich zu sagen versucht hatte, eine doppelte. Einerseits gibt es eben jene Theorie der Wissenswirtschaft, die darauf hinweist, dass zu trennen ist zwischen einem allgemeinen Wissen und dem, das persönlich angeeignet wird (was in dieser Theorie der Wissenswirtschaft dann das Humankapital heißt). Dass die Kosten für dieses allgemeine Wissen von der Allgemeinheit getragen werden müssen, ist selbstverständlich. Die schwierige Frage, die dahinter steht, ist: In welchem Grade ist das Wissen, das individuell angeeignet wird, auch von der Allgemeinheit zu tragen? Das ist, glaube ich, die wirklich empfindliche Frage, und um ihretwillen sitzen so viele in den Universitäten und besetzen irgendwelche Räume. Da muss ich leider und vielleicht zu einer gewissen Überraschung sagen: es ist etwas dran, dass die Individuen etwas dazu beisteuern müssen. Das liegt in der Logik der Sache. Die Kosten des universitären Unterrichts werden in einem Ausmaß von der Allgemeinheit getragen, dass die Betreffenden, die diesen Unterricht genießen, Einkommensvorteile erlangen, weil sie zu diesen Kosten nicht das Angemessene beitragen, weder später durch Steuern, noch vorher durch Gebühren, die sie getragen haben. Es ist also eine unsoziale Situation. Sie machen den feinen Unterschied, Herr Schefold, zwischen, das Wort haben Sie gar nicht benutzt, man kann es aber aussprechen, Studiengebühren einerseits und Hörergeld andererseits. Also ich hab noch mit Hörergeld studiert. Das ist ja ein Unterschied, aber das Prinzip, dass sozusagen der private Teil der Ausbildung gezahlt wird, dafür haben Sie ja plädiert, ist mit Hörergeld ja viel gezielter. Wollen Sie das noch mal aufnehmen? Prof. Schefold: Ja, gut, das war der allererste Aufsatz, der von mir in einer kleinen Zeitschrift in Basel erschien, als ich Student war und die Studentenschaft zur Abschaffung der Hörergelder Stellung nehmen sollte. Ich bin damals tatsächlich dafür eingetreten, dass man die Hörergelder beibehält. Der Grund dafür liegt auf der Hand. Es erfolgt durch sie eine sehr direkte Evaluierung. Den einzigen möglichen Missbrauch der Sache hat man schon bezeichnet, wenn man
284
Podiumsdiskussion
sagt: Wenn den Studenten vorgeschrieben wird, zu bestimmten Professoren in die Vorlesung zu gehen, ist es dasselbe, wie wenn man den Professoren ein festes Einkommen gibt. Natürlich braucht es zusätzlich auch gewisse ökonomische Anreize jenseits der intrinsischen, um eine große Anstrengung bei den Lehrenden hervorzurufen, das lässt sich nicht bestreiten. Wir versuchen, den Wert der intrinsischen Motivation zu heben, aber wir können die Funktion der extrinsischen Motivation auch nicht leugnen. Herr Heilemann, gestern hat Herr Mittelstrass in seinem Referat, was ja sehr viel Beachtung gefunden hat, gesag, dass Wissen als Ware betrachtet wird. Also, den Ökonomen wundert es etwas, denn es schließt an das an, was Herr Schefold uns sagte. Das Wissen wird ja hier den Studenten eigentlich frei, es wird ja nicht verkauft, sondern es wird ihnen frei gegeben und wenn Autoren, das hat Frau Niggemann gerade ausgeführt, veröffentlichen wollen, dann mussten sie früher sozusagen Druckkosten bezahlen, aber bei Open Access müssen die Autoren zahlen. Wo ist denn da der Charakter von Ware? Wenn es einen Preis hat, dieses Wissen, dann einen negativen Preis. Herr Heilemann, helfen Sie mir doch als Ökonom. Prof. Heilemann: Den angesprochenen Marx beiseite, will ich mich der Frage ein bisschen auf Umwegen nähern. Zunächst zur Erinnerung: Studenten studieren nicht für umsonst, d. h. kostenlos. Die Aufwendungen des Staates und ihre eigenen sind außerordentlich groß und die Ausgaben der Studenten für das Studium einschließlich Studiengebühren sind der geringere Teil, unter Berücksichtigung der entgangenen Einkommen kann es sich leicht verdoppeln. Dies wird sehr deutlich, wenn man sich die sogenannten Bildungsrenditen anschaut, also die Relationen zwischen dem was die Studenten aufwenden einschließlich entgangenen Einkommen und dem, was sie dafür später in Form von Einkommen erzielen. Wenn man diese Relationen, diese „Bildungsrendite“ betrachtet, die die Ware Bildung als Investition ansieht, dann müsste man sagen, dass alle Lehrer aufs Studium verzichten sollten, denn sie erzielen negative Bildungsrenditen (von den „Fehlinvestitionen“ der Studienabbrecher gar nicht zu reden) – aber vielleicht verdienen sie auch nur zu wenig und die Zahnärzte zu viel? Hypothetisch gesprochen, sollten jedenfalls alle Steuerberater oder Zahnärzte werden, denn sie erreichen Bildungsrenditen von 8 oder 10 Prozent auf das eingesetzte Kapital. Hier kann in der Tat im Sinne von Herrn Schefold von einem marktfähigen Wissen gesprochen werden, ob bei Zahnärzten und Steuerberatern auch von Bildungskonsum, sei dahingestellt. Das Wissen ist eben auch eine Ware, zugegeben eine sehr besondere, wenn man ihre intertemporale und personale Übertragbarkeit berücksichtigt und die wird auch gehandelt, nebenbei gesagt. Jeder ostdeutsche Student, der seinen Arbeitsplatz in Frankfurt findet, nimmt natürlich hier ein Humankapital von deutlich mehr als 100 000 Euro mit, das in Ostdeutschland aufgewendet, „erwirtschaftet“ wurde, aber dann in Frankfurt Früchte trägt oder Blüten treibt. Mit dem „Warencharakter“ der universitären
Podiumsdiskussion
285
Bildung kommt man jedenfalls in einem Teil der Ökonomisierungsdebatte recht weit und in diesem Teil sind die Differenzen der Beteiligten – der Nachfrager und Anbieter lukrativer Bildungspatente – letztlich gering. Hier liegen auch Berührungspunkte zu dem Weberschen Verständnis des Rationalisierungsprozesses, von dem Herr Schefold sprach: Wie weit kann diese Rationalisierung getrieben werden, ohne die Produktionsbedingungen von Wissenschaft zu zerstören? Dass er sie transformiert erleben wir ja schon seit langem. Auf der anderen Seite, ob wir es gerne hören oder nicht, allein schon wegen der schieren Größe und der tatsächlichen oder vermuteten Bedeutung des Bildungssektors oder der Wissensgesellschaft, wäre es eine Illusion, dass die Ware Bildung – und von „Forschung“ oder Baumolschem Gesetz war noch gar nicht die Rede – ebenso wie die Waren Gesundheit, Innere Sicherheit oder Mobilität anders produziert wird – und produziert werden muss – als vor 100 oder auch nur vor 50 Jahren. Ob „besser“, wird sich zeigen. Frau Niggemann, die schöne Welt von Open Access, wo jeder zugreifen kann – wie ist denn die andere Seite? Wenn es digitalisiert wird, ist es ja auch in hohem Maße zentralisiert und erfassbar und vielleicht auch sperrbar? Im Gespräch sagten Sie mir mal, vielleicht kommt das dann hinter Gitter. Dieses Bild haben Sie benutzt, daran denkt eigentlich niemand, eine Nationalbibliothekarin muss auch daran denken. Lassen Sie uns doch mal an Ihren düsteren Gedanken teilhaben. Dr. Niggemann: Das Zitat mit den Gittern stammt aus einem Gespräch über Public Domain Literatur. Public Domain ist alles das, was nicht mehr unter Urheberrechtsschutz steht. Es ist also frei und kann z. B. von einer Bibliothek jederzeit digitalisiert und frei zur Verfügung gestellt werden. Es müsste keine Hindernisse mehr geben. Häufig allerdings argumentiert der Unterhaltsträger, dass die Kosten der Digitalisierung und der Bereitstellung wieder eingenommen werden müssen über Nutzungsgebühren. Das heißt, es gibt ein Geschäftsmodell das sagt, wenn etwas in der Entstehung etwas kostet, dann darf es nur gegen Kostenerstattung weitergegeben werden, auch, wenn es sich um eine Einrichtung handelt, die aus öffentlichen Mitteln finanziert wird. Das finde ich persönlich bedauerlich und ich begrüße es, dass derzeit die Stiftung, die die Europeana trägt, an einer Charta arbeitet, die zum Ausdruck bringen soll, dass die Verbände der europäischen Museen, Archive, audiovisuellen Archive und Bibliotheken dafür eintreten, dass möglichst alles, was Public Domain ist, das heißt, was urheberrechtsfrei ist, nicht „hinter Gitter“ kommt, das heißt, dass es frei verfügbar bleibt – auch in einer digitalen Welt. Ähnliches kann ich mir vorstellen für Werke, die unter einer ganz offenen Creative Common Licence zur Verfügung gestellt werden. Hier könnte ein Autor, der zwar nicht auf sein Urheberrecht kann, sagen: „Ich bin damit einverstanden, dass dieses Werk auch von Dritten weiter verbreitet werden kann.“ Ich spreche nicht grundsätzlich über urheberrechtlich geschützte Dinge. Ich spreche auch nicht über urheberrechtlich geschützte verwaiste Werke, auch wenn sich über beide Bereiche viel sagen ließe. Mir geht
286
Podiumsdiskussion
es hier in den genannten Fällen, Public Domain Werke und Werke unter einer bestimmten Creative Commons Licence, darum, dass, wenn etwas frei ist, weil es aus dem Urheberrechtsschutz herausgefallen ist oder weil der Autor etwas freigibt, es niemand wieder hinter Gitter stellt. Herr Fried, es ist schon einige Jahre her und ich muss das betonen, damit ich nicht ganz so dumm aussehe, da trafen wir uns auf einer Konferenz als Referenten in Portugal. Da holten Sie Ihr Schlüsselbund heraus und daran hing ein kleines Ding und da sagten Sie, da sind alle meine Werke darauf. Ich sagte, Herr Fried, Sie haben so viel geschrieben, das kann doch gar nicht sein. Das war ein USB-Stick, wahrscheinlich mit 256 MB seinerzeit. Also, ich dachte, ein Mittelalter-Historiker und jetzt zeigt er dem Ökonomen, wie die Dinge gehen. Wie gehen Sie denn jetzt mit den modernen Büchern, nicht mehr von Schafherden, sondern mit so digitalisierter Information um, mit Ihren Veröffentlichungen, Ihren Quellensuchen in Ihrem Fach? Prof. Fried: Ich habe nicht mehr einen Stick, sondern ich habe 10 Sticks und die sind alle mit ich weiß nicht wie vielen Gigabytes. – Zur Sache! Ich bin dringend dafür, dass wir einen Open Access schaffen, aber wir dürfen deswegen, jedenfalls wir Geisteswissenschaftler, das ausgedruckte Buch nicht vergessen. Wir bleiben auf das Buch angewiesen. Ich glaube nicht, dass wir in 100 Jahren die Texte noch haben, die heute nur im Netz stehen. Bücher können 1.000 Jahre oder länger überdauern. Elektronische Texte müssten pausenlos transformiert, die Hardware müßte neben der Software archiviert werden, Spezialisten mit allem vertraut bleiben. Gedruckte Texte aber bleiben, einmal gedruckt, für immer. Gewiß, auch eine Bibliothek kostet Geld, aber ich glaube, nicht so viel wie jene Manpower, die nötig ist, um von Jahr zu Jahr, von Jahrzehnt zu Jahrzehnt das Ganze zu transformieren oder Spezialisten für überholte Software zu unterhalten. Und was die Planung betrifft, so meine ich, Wissen ist nie abgeschlossen und lässt sich schlechterdings nicht planen und kontrollieren, schon gar nicht für die Zukunft. Niemand kann sagen, was er morgen Abend weiß. Gewiß, wir können uns vornehmen, ein Gedicht auswendig zu lernen; vielleicht wird es tatsächlich geschehen. Aber was wir zusätzlich noch an Wissen erworben haben werden, kann niemand voraussagen. Wissen bleibt grundsätzlich offen für die Zukunft. Ich möchte es an einem wunderbaren Beispiel aus dem Mittelalter illustrieren. Da hieß es: Scientia donum Dei est, unde vendi non potest – Wissenschaft ist eine Gabe Gottes, deswegen darf sie nicht verkauft werden. Was machten jene großen Juristen daraus, die – wie übrigens auch Abaelard – ein Vermögen verdienen wollten? Sie fanden den Ausweg: Nein, Wissen würden sie nicht verkaufen, aber wenn sie in ihren Codices blätterten, Akten wälzten, um etwa einen Erbrechtsstreit zu entscheiden, dann sollte man diese Arbeit teuer bezahlen. Es gibt eben immer Auswege, auch wenn Ver- oder Gebote das Wissen lenken sollten. Als der Buchdruck aufkam, erkannte die Kurie schnell die Chancen, über einen Index das Wissen zu kontrollieren und zu lenken. Nach 20 Jahren war klar,
Podiumsdiskussion
287
dass dieses ganze Unternehmen weithin gescheitert war. Das Wissen ließ sich nicht indizieren. Dort freilich, wo die Indizierung strikter befolgt wurde, geriet die Wissenschaft bald ins Hintertreffen. Wissenschaft ist der Erneuerung und Erweiterung von Wissen bedürftig. Eine strikte Trennung zwischen Bildungswissen einerseits und technischem Nutzwissen andererseits lehne ich ab. Ich habe immer das Beispiel von Werner Heisenberg vor Augen, dem Sohn eines berühmten Byzantinisten. Er las fließend Altgriechisch in seiner Musezeit, las Platon auf Griechisch. Der Nobelpreisträger in Physik. Niemand kann zur Stunde sagen, was der Physiker der Platon-Lektüre verdankte. Anders formuliert: Wir wissen nicht, wie Kreativität gefördert, erreicht, gesteigert wird. Gewiß nicht nur durch einseitige, „fachenge“ wissenschaftliche Nabelschau. Kreativitätsförderung ist die entscheidende Aufgabe für Bildung, für Wissenschaft, für das, was wir an den Universitäten zu vermitteln haben. Eine Kreativität, die solche Flexibilität entfaltet, dass sie mit einer sich wandelnden Welt mithalten kann. Welches Wissen, das in seiner Gesamtheit auf den Erfahrungen der Vergangenheit beruht, können, dürfen wir da guten Gewissens beiseitelegen? Gerade das künstlerische „Wissen“, gerade das humanistische Wissen, von dem Herr Schefold sprach, scheint mir von herausragender Bedeutung zu sein, um solche Kreativität zu fördern, die Dinge anders zu drehen als bisher, anders sehen zu lernen als bisher. Meine Damen und Herren, wir müssen zum Schluss kommen, weil eine Pressekonferenz wartet, ist mir gesagt worden. Ökonomisierung der Wissensgesellschaft. Wir haben gehört, ja, wenn sie richtig betrieben wird. Wir haben von der Nationalbibliothekarin gehört, Konkurrenz ist gar nicht so schlecht, also Google ist nicht des Teufels. Wir haben gehört von Herrn Fried, dass die Konkurrenz am Beginn der Europäischen Universitäten stand und wir haben von Herrn Schefold den Zeigefinger gesehen und er hat diesen Zeigefinger sehr gut begründet. Wenn ich ihn richtig verstanden habe, wenn ich die praktische Nutzanwendung daraus ziehe, muss es in der Wissenschaft auch die Leuchttürme, die Bewahrer geben und Herr Kollege Schefold ist sicherlich ein gutes Beispiel. Sie werden die Ökonomisierung, auch die richtige im Sinne von Herrn Frey, nicht aufhalten, aber doch begleiten und verankern und insofern kann man sagen, man kann die Hoffnung haben, dass alles nicht so schlimm wird.
Institutionen der Wissensgesellschaft
Die Aktiengesellschaft als Regelungsvorbild der Universitätsverfassung Von Tim Drygala 1
I. Einleitung Pünktlich zum 600-jährigen Jubiläum der Universität Leipzig ist ein neues Sächsisches Hochschulgesetz in Kraft getreten. Dieses Gesetz führt mit dem Hochschulrat ein neues Gremium ein, das ersichtlich Gremienstrukturen aufnimmt, die aus Wirtschaftsunternehmen bekannt sind. Zudem werden die Rechte der Hochschulleitung gestärkt. Damit schließt sich Sachsen den schon in mehreren Bundesländern zu beobachtenden Tendenzen an, bei der Regelung öffentlicher Institutionen auf Regelungsinstrumente des Privatrechts zurückzugreifen. Dieser unter dem Begriff des New Public Management bekannt gewordene Ansatz verbindet sich mit Überlegungen, Erkenntnisse, die in der Diskussion über die Corporate Governance der Aktiengesellschaft gefunden wurden, auf öffentliche Institutionen zu übertragen (sog. Public Governance). Da sich zudem die Universität Leipzig in ihrem Jubiläumsjahr vorgenommen hat, das Thema der Ökonomisierung der Wissensgesellschaft näher zu beleuchten, besteht Anlass, gerade an dieser Stelle der Frage nachzugehen, ob und inwieweit aktienrechtliche Regelungen und Institutionen sich in den neuen Hochschulgesetzen wiederfinden und ob aktienrechtliche Regelungen zur Konkretisierung von hochschulrechtlichen Fragen herangezogen werden können.
II. Die Reform der Gruppenuniversität durch New Public Management 1. Von der Gruppenherrschaft zur Zielvereinbarung und Leitungsevaluation Nach der Abschaffung der Ordinarienuniversität und der Einführung der Gruppenuniversität in den 1970ern kamen einige Ansichten zu der Erkenntnis, dass 1
Prof. Dr. Tim Drygala ist Professor für Bürgerliches Recht, Handels-, Gesellschaftsund Wirtschaftsrecht an der Juristenfakultät der Universität Leipzig.
292
Tim Drygala
auch dieser Organisationstypus gescheitert sei. 2 Geltend gemacht wurde, dass die Gremienstruktur den neuen Aufgaben der Hochschule nicht mehr gerecht werde. 3 Hauptursache hierfür sei die Tendenz zu Konsens auf kleinstem gemeinsamem Nenner und zu einer verantwortungslosen, da rechenschaftslosen, Blockadehaltung der Gruppen untereinander. 4 Angeführt wird außerdem eine Heterogenität von Wert- und Zielvorstellungen, die letztlich zu akademischem Individualismus und Qualitätsverlust führe. 5 Die Gremien- und Gruppenstruktur, die bisweilen als organisierte Unverantwortlichkeit 6 oder auch gelehrtenrepublikanisches Biotop 7 bezeichnet wird, wurde von dieser Kritik als ineffizient und zeitraubend bewertet. Es wurde daher gefordert, die Gruppenstruktur zu reduzieren und Entscheidungsprozesse zu verkürzen. 8 Mit dieser Kritik einher geht die Forderung, die Hochschule als Dienstleistungsunternehmen zu betrachten 9, das in Konkurrenz und Wettbewerb zu anderen Bildungseinrichtungen steht. 10 Diese Denkweise setzte Ende der 90er Jahre des vorigen Jahrhunderts in Deutschland ein. In England begann sie schon ein Jahrzehnt früher. 11 Gefordert wird aus diesem Ansatz heraus eine differenzierte Profilbildung der Hochschulen sowie eine effiziente Leistungserstellung. Insbesondere steigende Studierendenzahlen 12 und knappe öffentliche Ressourcen 13 (Überforderung und Unterfinanzierung) sollen zu einer verantwortungsvolleren Ressourcenverwendung führen. 14 Oberstes Verwirklichungsprinzip ist hierbei der Rückzug des Staates aus der ex-ante-Detailsteuerung der Hochschule 15, die sich bisher in überregulier2 Vgl. Müller-Böling (2000), S. 43 und 61; Müller-Böling / Fedrowitz (1998), S. 8; Klenk (2008), S. 90. 3 Vgl. Müller-Böling (2000), S. 42; vgl. auch Meier (2009), S. 120 und 125. 4 Vgl. Lange / Schimank (2007), S. 535; vgl. auch Hartmer (2001), S. 481 f.; Schimank (2002), S. 25; Schröder (2008), S. 133 und 134. 5 Vgl. Müller-Böling (2000), S. 43; Buckland (2004), p. 252 f. mit Verweis auf den Lambert Report, der gar von Inzestuosität spricht; Schelsky (1969), S. 39; Meier (2009), S. 112. 6 Wellbrock zitiert in Prußky (2000), S. 12; vgl. Klenk (2008), S. 53. 7 Müller-Böling (1999). 8 Vgl. Müller-Böling (2000), S. 24; HRK (2004), S. 7. 9 Vgl. Müller-Böling (2000), S. 24 ff.; Landtag Niedersachsen (2001), S. 63. 10 Vgl. Bogumil / Heinze / Grohs / Gerber (2007), S. 8; Lange / Schimank (2007), S. 540; Xuân-Müller (2008), S. 9 ff. 11 Buckland (2004), p. 251; Lange / Schimank (2007), S. 526. 12 Vgl. das Bonmot „Humboldt sei in der Masse erstickt“ von Erichsen (1992); vgl. Statistisches Bundesamt (2009), wonach es im Jahr 2008 die bisher höchste Studienanfängerzahl gab; Kempen (1999), S. 454 und 459; Baumgarten (1963), S. 6. 13 Vgl. Hartmer (2001), S. 480; Geis (2004), S. 18; Schenke (2005), S. 1000 f. 14 Vgl. Lange / Schimank (2007), S. 523.
Die Aktiengesellschaft als Regelungsvorbild
293
ten Hochschulgesetzen, zahlreichen Verordnungsermächtigungen und staatlichen Genehmigungsvorbehalten niederschlug. 16 Der Rückzug dabei muss im Zusammenhang mit einer effizienten Organisation des Hochschulbetriebes und einer flexiblen Entscheidungsstruktur stehen. 17 Autonomie der Hochschulen ist hierbei das geforderte Leitbild. Präferiert wird eine Mischung aus individueller Autonomie der Mitglieder sowie korporativer Autonomie der Korporation Hochschule selbst. 18 Mit dem Rückzug des Staates aus der prozessualen Detailsteuerung geht ein neues Verständnis über die staatliche Rahmensteuerung einher. 19 Diese erfolgt nun mittels Zielvereinbarungen zwischen Hochschulleitung und zuständigem Ministerium sowie Globalbudgets. Zielvereinbarungen sind dabei öffentlich-rechtliche Verträge im Gegenseitigkeitsverhältnis gem. §§ 54 ff. VwVfG, § 311 BGB. 20 Diese können aber auch auf den weiteren Ebenen, also zwischen Hochschulleitung und Fachbereichen / Fakultäten sowie zwischen Fachbereichen / Fakultäten und Lehrstühlen / Instituten geschlossen werden. Dabei soll sich die staatliche Lenkung auf die Bildung von Entwicklungszielen und Koordinationsaufgaben beschränken. Überwacht wird die Umsetzung von Effizienz und Effektivität vor allem durch Leistungsevaluationen. 21 Überschrieben werden kann diese Entwicklung letztlich mit den Begriffen der Ökonomisierung 22 und Managerialisierung 23 (New Public Management 24) der Hochschulen.
15 Vgl. Müller-Böling (2000), S. 38 ff.; siehe auch Hartmer (2001), S. 482; Epping (2008), S. 423 und 426; Schröder (2008), S. 133 f. 16 Beispielhaft Landtag Nordrhein-Westfalen (2006), S. 2; Landtag Schleswig-Holstein (2006), S. 5; Lange / Schimank (2007), S. 525. 17 Vgl. Landtag des Freistaates Sachsen (2008), S. 1. 18 Vgl. Müller-Böling (2000), S. 41; Sandberger (2002), S. 125; Meier (2009), S. 227 ff. 19 Vgl. Bogumil / Heinze / Grohs / Gerber (2007), S. 8. 20 Vgl. Müller-Böling (2000), S. 58; Stoppel (2008), S. 75 ff.; Kilian (2005), S. 195 und 197. 21 Vgl. Bogumil / Heinze / Grohs / Gerber (2007), S. 9; vgl. Hessischer Landtag (2000), S. 30; Landtag Nordrhein-Westfalen (2006), S. 134; Schmoch (2008), S. 22 f.; Horstkotte (2001), S. 14 f.; Stoppel (2008), S. 79 ff.; Gärditz (2005), S. 407 ff.; kritisch: Hartmer (2001), S. 485. 22 Vgl. Hogrebe (2004), S. 19; Klatt / Koller (2008), S. 22 f.; Simon / Knie (2008), S. 21; Ahrndt-Herbst (2003), S. 26; Knoke (2008), S. 16; Stoppel (2008), S. 68 ff. und 92; vgl. auch Nagel (2008), S. 14 ff.; Hartmer (2001), S. 488. 23 Vgl. Landtag des Freistaates Bayern (2005a), S. 45; Knoke (2002), S. 14; Kehm / Lanzendorf (2008), S. 20. 24 Siehe dazu auch Hood (1991); OECD (1995); plakativ: Forssell (2002); Stoppel (2008), S. 61 ff.
294
Tim Drygala
2. Kritische Stimmen Unumstritten sind die vorstehend wiedergegebenen Forderungen freilich nicht. Gegen den New Public Management-Ansatz werden insbesondere Bedenken vorgebracht, er führe zu einer tunnelartigen wissenschaftsfeindlichen 25 Verbetriebswirtschaftlichung, die das hochkomplexe Konstrukt Hochschule vereinfacht darstelle und letztlich monetären Erfolg über den Erkenntnisgewinn stelle. 26 Der staatliche Rückzug mit dem Ziel der Selbstorganisation der Hochschulen habe außerdem eine Zerfaserung von Staatlichkeit sowie eine Organisationsdiffusion zur Folge. 27 Kritisch wird demnach die „Privatisierung“ der Organisationsverantwortung betrachtet. 28 Insbesondere die Verringerung demokratischer Einflüsse der Gruppen, die mit dieser Entstaatlichung einhergeht, könne nicht akzeptiert werden. Auch sei das Ziel des NPM – Effizienz und Effektivität – nicht klar umrissen und aufgrund der Heterogenität der Universitäten auch nicht umreißbar. 29
III. Aktienrechtliche Analogie im Hochschulrecht? Die Sichtweise, die Hochschulen unter betriebswirtschaftlichen Aspekten als Unternehmen zu sehen, ist inzwischen weit verbreitet. 30 Angeführt werden hierfür die Buchwerte der Universitäten sowie jährliche Umsätze bzw. die verwendbaren Mittel 31 als auch die zumeist hohen Beschäftigtenzahlen. Daneben sind die Rechtshandlungen der Universitäten zu beachten. Sie schließen in gleichem Maße langfristige Verträge mit externen Anbietern 32 oder einmalige Kaufverträge zur Befriedigung des Sachbedarfs. Hingewiesen wird auch auf die verstärkte Wettbewerbssituation, in der sich Hochschulen befinden. Auch daraus wird die vergleichbare Interessenlage mit der unternehmerisch handelnden AG begründet. 33 25 26
Hartmer (2001), S. 478; vgl. Epping (2008), S. 423 und 427. Vgl. Nagel (2008), S. 14 f.; Hartmer (2001), S. 480, 483 und 490; Ipsen (2001),
S. 10. 27
Vgl. Bogumil / Heinze / Grohs / Gerber (2007), S. 4 und 6. Bogumil / Heinze / Grohs / Gerber (2007), S. 14 ff. m.w. N. 29 Vgl. Hartmer (2001), S. 485; Meier (2009), S. 155; Epping (2008), S. 423 und 444; Trute (2000), S. 134, 137 und 144 f. 30 Vgl. Buckland (2004), p. 251; vgl. Stoppel (2008), S. 71 ff.; a. A. Lüthje zitiert in: Dufner (2002), S. 16; Schipanski (2001), S. 12. 31 Warner in: Shattock (2006), S. x; Klenk (2008), S. 89; siehe auch schon Eulenburg (1909), S. 187. 32 Etwa Reinigungs-, IT-, Wartungsunternehmen. 33 Vgl. Warner in: Shattock (2006), S. ix. 28
Die Aktiengesellschaft als Regelungsvorbild
295
Weniger sicher ist, inwieweit aus diesem Befund rechtliche Konsequenzen zu ziehen sind. Denn sofern man die Universität als Großunternehmen sieht, wäre es denkbar, sich auch hinsichtlich ihrer rechtlichen Verfassung an der Organisation zu orientieren, die im Unternehmensrecht für Großunternehmen gedacht und vorgesehen ist, nämlich an der Aktiengesellschaft. Das gilt sowohl für den Gesetzgeber, der sich bei der Normierung der Hochschulverfassung an aktienrechtlichen Vorbildern orientieren könnte und dies zumindest sprachlich inzwischen auch tut. 34 Für den Rechtsanwender stellt sich die Frage, ob bei der Anwendung des neuen Hochschulrechts – etwa was die Arbeit in den neu geschaffenen Hochschulräten angeht – in Zweifelsfragen eine Orientierung an aktienrechtlichen Vorbildern möglich ist. Dazu müssten freilich die Verhältnisse in der (reformierten) Hochschule und der Aktiengesellschaft vergleichbar sein. Dieser Frage soll hier nachgegangen werden. 1. Interessenträger und Zielkonflikte a) Auf der Suche nach dem universitären Prinzipal Zweifel an der rechtlichen Vergleichbarkeit der beiden Organisationen ergeben sich aus der unterschiedlichen Interessenlage der beteiligten Akteure. Die aktienrechtliche Corporate Governance in ihrer heutigen Form wird überwiegend auf die Trennung zwischen Eigentum und Management zurückgeführt. 35 Aus dieser Trennung ergibt sich die Gefahr, dass sich das Management eigene, von der Zielsetzung der Eigentümer nicht gedeckte Handlungsspielräume eröffnet (hidden agenda) und Überwachungsdefizite zum eigenen Vorteil ausnutzt (moral hazard). 36 Es handelt sich um eine Problematik, die an die Interessenlage zwischen Auftraggeber und Auftragnehmer erinnert und deshalb mit der sog. Prinzipal-Agenten-Theorie 37 erklärbar ist. Problematisch ist insoweit, dass Universitäten, was die beteiligten Interessen angeht, auf weitaus mehr Ebenen zu regieren haben als es in Unternehmen der Fall ist. 38 Zunächst ist festzustellen, dass Hochschulen keine Eigentümer oder Anteilseigner haben. 39 Daher ist der allgemeine Prinzipal im Sinne der Prinzipal-Agenten-Theorie, der ein legitimes Interesse am Erfolg der Organisation hat, nur schwierig zu identifizieren. 40 Des34
So werden in Baden-Württemberg inzwischen das Leitungsorgan der Hochschule als Vorstand, das Überwachungsorgan als Aufsichtsrat bezeichnet. 35 Grundlegend Jensen / Meckling (1976). 36 Vgl. Engert (2006), S. 2105 f.; eingehend Martinek in: von Staudinger (2006), Vorbem. zu §§ 662 ff. Rn. 73 f; Langenbucker (2008), Rn. 18. 37 Bearle / Means (1932). 38 Vgl. Shattock (2006), S. 1; vgl. auch Klenk (2008), S. 28. 39 Vgl. Shattock (2006), S. 2. 40 Vgl. Buckland (2004), p. 245 und 253.
296
Tim Drygala
halb ist es auch nicht einfach, die Kontrollrechte in der Universität bestimmten Interessenträgern zuzuweisen. b) Handlungsgrenzen der Agenten Zweifel bestehen auch daran, ob sich die Hochschulleitungen ohne Weiteres mit dem Agenten im Sinne der Prinzipal-Agenten-Theorie gleichsetzen ließen. Eingewandt wird, dass Hochschulleitungspersonen in einem Bereich personeller Autonomie und pluraler Zielobjekte agierten. 41 In der englischen Literatur gesteht man zwar ein, dass einige HEIs (Higher Education Institutes) Unternehmensstatus und damit auch „Company-Boards“ aufweisen. 42 Jedoch stehen den Leitungsorganen Personen und Institutionen gegenüber, die stärker als die Mitarbeiter eines Unternehmens autonom und mit eigenen Rechten ausgestattet sind. Dies trifft zum einen auf das wissenschaftliche Personal als solches zu, dass hinsichtlich der Inhalte von Forschung und Lehre unter dem Schutz von Art. 5 Abs. 3 GG steht. Auch die Fakultäten sind selbst teilrechtsfähig im Rahmen der Angelegenheiten, die von Art. 5 Abs. 3 GG umfasst sind. 43 Dies verschafft ihnen die Möglichkeit der Abwehr von Eingriffen gegenüber anderen Hochschulorganen sowie dem Staat in treuhänderischer Funktion für die einzelnen Wissenschaftler 44 im Sinne von Art. 19 Abs. 4 GG. Von daher ergibt sich ein deutlicher Unterschied zum Vorstand einer Aktiengesellschaft 45, dem das arbeitsrechtliche Direktionsrecht gegenüber seinen Mitarbeitern unbegrenzt zusteht 46 und der diesen Anweisungen hinsichtlich des wo, wann und wie der Leistungserbringung erteilen kann, wenn er möchte, bis ins Tagesgeschäft hinein. Von daher ergibt sich eine deutliche grundrechtliche Überformung der Hochschulverfassung, die auch durch eine Analogie zu aktienrechtlichen Vorbildern nicht in Frage gestellt werden darf und einer Gesetzgebung Schranken setzt, die sich einseitig an wirtschaftsrechtlichen Vorbildern orientiert. c) Bestehende Gemeinsamkeiten Der vorstehend geschilderte Befund sollte aber nicht dazu verleiten, das unternehmensrechtliche Vorbild vorschnell für irrelevant zu erklären. Denn zum 41
Vgl. Shattock (2006), S. 3; ähnlich Knauff (2007), S. 380 und 392. Shattock (2006), S. 2 und 46. 43 Näher zur Rechtsnatur Knemeyer (2001), S. 539 und 546 f.; Lindner (2007), S. 254 und 359 ff.; Löwer / Sturm (2003), S. 308; Maurer (1977), S. 193 ff. 44 Lindner (2007), S. 254 und 277; Knemeyer (2001), S. 539 und 552. 45 Buckland (2004), p. 246. 46 Buckland (2004), p. 246; Spindler in: Goette / Habersack (2009), § 76 Rn. 16 f.; Raiser / Veil (2010), § 14 Rn. 1; vgl. auch Wiesner in: Hoffmann-Becking (2007), § 20 Rn. 14, 39 f. 42
Die Aktiengesellschaft als Regelungsvorbild
297
einen ist das Prinzipal-Agenten-Modell als Grundlage der Corporate Governance nicht unumstritten. Es gibt alternative Erklärungsansätze wie die StewardshipTheorie 47 oder den Ansatz, das Unternehmen als ein Netzwerk von Verträgen zu begreifen (Nexus of Contracts – Ansatz). 48 Es ist nicht ausgeschlossen, dass diese Ansätze bessere Erklärungen für das Zusammenwirken der Interessenträger in einer Hochschule liefern, als es der recht monokausale Erklärungsversuch der Prinzipal-Agenten-Theorie vermag; freilich kann das im Rahmen dieses Beitrags nicht vertieft werden. Zum anderen ist es auch in einem Unternehmen keine Seltenheit, dass die Leitung mit mehreren eigenständigen Interessenträgern konfrontiert wird. Das begegnet im deutschen Unternehmensrecht vor allem in Gestalt der Arbeitnehmerinteressen, die durch eine starke Mitbestimmung auf betrieblicher Ebene gewährleistet werden, und die bei Aktiengesellschaften mit mehr als 500 Arbeitnehmern zudem auf der Unternehmensebene durch die Beteiligung der Arbeitnehmer im Aufsichtsrat direkt auf die unternehmerischen Entscheidungen einwirken. Weiterhin ist nach nicht unbestrittener, aber überwiegender Meinung der Vorstand gehalten, sein Leitungsverhalten nicht allein an den Interessen der Anteilseigner, sondern auch an den Interessen sonstiger Beteiligter auszurichten. 49 Und drittens sind Unternehmen in Deutschland typischerweise nicht als Einzelunternehmen, sondern als Unternehmensgruppe (Konzern) verfasst. Im Konzern bestehen aber in Gestalt der Tochtergesellschaften eigenständige juristische Personen, über deren Interessen sich der Vorstand der Muttergesellschaft nicht schrankenlos hinwegsetzen darf. Das gilt vor allem, wenn es sich bei der Tochter ihrerseits um eine Aktiengesellschaft handelt, die (auch bei Bestehen eines Konzerns) von ihrem eigenen Vorstand nach dessen Ermessen geleitet wird (vgl. §§ 76, 311 AktG). 50 Daher ist gerade im deutschen Unternehmensrecht die Interessenpluralität keine wirkliche Besonderheit. Dann aber ist die Kritik, die in der englischsprachigen Literatur an dem unternehmensrechtlichen Modell geübt wird 51, möglicherweise nur deshalb nicht treffend, weil sie von einem unbeschränkt herrschenden Chief Executive Officer und einer alleinigen Ausrichtung der Leitung an den Aktionärsinteressen (Shareholder Value 52) ausgeht 47
Muth / Donaldson (1998), Vol. 6, No. 1. Vor allem Teubner (2002), S. 311 ff. 49 Sog. Unternehmensinteresse, vgl. Spindler in: Goette / Habersack (2009), § 76 Rn. 63 ff., 69 ff. m.w. N.; Schmidt (2002), § 28 II 1a, S. 805 f.; Blair (1995), S. 102 ff.; rechtsvergleichend Fleischer (2009), S. 185 ff. 50 Vgl. Spindler in: Goette / Habersack (2009), § 76 Rn. 45 ff.; Fleischer in: Spindler / Stilz (2007), § 76 Rn. 89 f.; Hüffer (2008), § 76 Rn. 19. 51 Siehe oben bei Fn. 40. 52 Vgl. Rappaport (1988), passim; zur bisherigen Dominanz dieser Theorie im englischen und amerikanischen Unternehmensrecht vgl. Blair (1995), S. 202 ff.; Groh (2000), S. 2153 ff. 48
298
Tim Drygala
und dabei die Möglichkeit einer stärker plural verfassten Unternehmung außer Betracht lässt. Schließlich ist es weder erforderlich noch wünschenswert, die Hochschule insgesamt allein aus einem unternehmensrechtlichen Blickwinkel heraus zu betrachten. 53 Es genügt, dass sich Teilähnlichkeiten ergeben, die in Gestalt eines Organisationsrechts mit administrativen, ökonomischen sowie juristischen Aspekten 54 zweifellos vorhanden sind. Ebenso wird zugestanden, dass CorporateGovernance-Reformen in England maßgeblichen Einfluss auf die Verfassungen der Universitäten hatten. 55 Von daher lohnt es sich, der Frage nachzugehen, inwieweit die Organe im Einzelnen Bezüge zu aktienrechtlichen Vorbildern aufweisen. 2. Die Organe im Einzelnen a) Vorstand und Hochschulleitung Der Vorstand einer AG leitet diese in eigener Verantwortung, § 76 Abs. 1 S. 1 AktG, Ziff. 4.1.1 S. 1 Deutscher Corporate Governance Kodex (DCGK). Hierunter fallen originäre Führungsfunktionen, wie Unternehmenskoordinierung, -kontrolle und Besetzung von Führungspositionen. 56 Daneben gehört dazu das Treffen von Führungsentscheidungen, aber auch die Bearbeitung des Tagesgeschäfts. 57 Die Schaffung einer Compliance-Organisation wird nach neuerer Diskussion ebenso zu den Leitungspflichten gezählt. 58 Zu den weiteren Pflichten gehören die Vorbereitung und Ausführung von HVBeschlüssen nach § 83 AktG sowie die Berichterstattungspflicht aus § 90 AktG, außerdem die Aufgaben aus §§ 67, 91, 92, 110 Abs. 1, 118 Abs. 2, 119 Abs. 2 i. R. d. ungeschriebenen HV-Kompetenzen, §§ 121 Abs. 2, 124 Abs. 3, 161, 170, 245 Nr. 4 AktG. Die Übertragung dieser Leitungsaufgaben an andere, untergeordnete Ebenen sowie Dritte ist nach einhelliger Ansicht unzulässig. 59 Lediglich 53
Vgl. Shattock (2006), S. 54 f.; Kehm / Lanzendorf (2008), S. 21. Vgl. Kwickers (2005), p. 73 ff. 55 Vgl. Shattock (2006), S. 40 und 44; insbesondere Lambert Code, vgl. Buckland (2004), p. 243 f. 56 Vgl. Spindler in: Goette / Habersack (2009), § 76 Rn. 16.; Hüffer (2008), § 76 Rn. 8; Fleischer in: Spindler / Stilz (2007), § 76 Rn. 15 ff. 57 Vgl. Spindler in: Goette / Habersack (2009), Vor § 76 Rn. 40; Wiesner in: HoffmannBecking (2007), § 19 Rn. 14. 58 Vgl. Spindler in: Goette / Habersack (2009), § 76 Rn. 17; Schneider (2003), S. 645 ff.; Hüffer (2008), § 76 Rn. 8. 59 Vgl. Spindler in: Goette / Habersack (2009), § 76 Rn. 19; Mertens in: Zöllner / Noack (2010), § 76 Rn. 43; Fleischer (2003a), S. 1 f.; Bürgers / Israel in: Bürgers / Körber (2008), § 76 Rn. 8, 19 f.; Hüffer (2008), § 76 Rn. 7. 54
Die Aktiengesellschaft als Regelungsvorbild
299
vorbereitende Hilfsfunktionen können ausgelagert werden. 60 Der Vorstand ist zugleich Vertretungsorgan der AG, § 78 Abs. 1 S. 1 AktG. Er vertritt die Gesellschaft als Gesamtvorstand gerichtlich und außergerichtlich. Der Vorstand entscheidet unter Beachtung der Zuständigkeitsordnung, der Satzung und der Gesetze innerhalb eines unternehmerischen Ermessensspielraums. Sein Handeln hat er dabei am Unternehmensinteresse auszurichten (vgl. Ziff. 4.1.1 S. 2 DCGK), das nach überwiegender Auffassung sowohl shareholder- als auch stakeholder-Interessen umfasst. 61 Verstöße gegen diese Vorgaben an ein ordnungsgemäßes Leitungsverhalten können zur Schadensersatzhaftung des Vorstands nach § 93 AktG führen. Die neuen Hochschulgesetze haben zu einem Rückzug des Staates aus der Detailsteuerung geführt, der mit einer Stärkung der Leitung der Universitäten einhergeht. 62 Die Kompetenzen der Leitungsebene, d. h. Rektorat oder Präsidium, sind kontinuierlich erweitert und ihre Stellung gegenüber anderen Kollegialorganen erheblich gestärkt worden. 63 Ziel dessen ist eine Professionalisierung der zentralen Führungsorgane. 64 Im Mittelpunkt steht die strategische Führung 65 durch Präsidien und Rektorate, die mit durchsetzungsfähigen Führungspersönlichkeiten besetzt sind. Leitlinie der reformierten Aufgabenverteilung ist eine stärkere Trennung von operativen Aufgaben, d. h. solchen des Finanzwesens, der Wirtschafts- und Vermögensverwaltung sowie der Mittelverteilung, von Grundsatzund Kontrollaufgaben. 66 Den Leitungsorganen wird im neuen Staats-HochschulVerständnis die Aufgabe des Abschlusses von Zielvereinbarungen zugewiesen. 67 Damit legen diese den Grundstein für die weitere Finanzierung und Entwicklung der Hochschule auf vertraglicher Ebene mit den Ländern. Außerdem erstellen diese die Struktur- und Entwicklungspläne, die vom Hochschulrat zu beschlie60 Vgl. Fleischer (2003a), S. 1 und 11; Bürgers / Israel in: Bürgers / Körber (2008), § 76 Rn. 20. 61 Vgl. hierzu Spindler in: Goette / Habersack (2009), § 76 Rn. 64 ff., 76 ff.; Hüffer (2008), § 76 Rn. 12b; Hopt (1993), S. 534 und 536; Raiser / Veil (2010), § 14 Rn. 14. 62 BVerfG, NVwZ (2005), S. 315 und 318; Müller-Böling (2000), S. 38 ff; Hartmer (2001), S. 482; Epping (2008), S. 423 und 436; Schröder (2008), S. 133 f.; Meier (2009), S. 134 ff.; a. A. für die Landesgesetzgebung Stand 2002 Sandberger (2002), S. 125 und 136 ff.; ähnlich Kilian (2005), S. 195 und 199 f. 63 Vgl. Bogumil / Heinze / Grohs / Gerber (2007), S. 5; Landtag des Freistaates Sachsen (2008), S. 2; Landtag von Baden-Württemberg (2004), S. 2; Landtag des Freistaates Bayern (2005b), S. 4; Bürgerschaft der Freien und Hansestadt Hamburg (2002), S. 1 und 20; Landtag Hessen (2000), S. 29; Landtag des Freistaates Thüringen (2006), S. 2. 64 Vgl. Landtag Brandenburg (2008). 65 Müller-Böling (2000), S. 48; Klenk (2008), S. 93. 66 Vgl. Landtag Hessen (2000), S. 35; Landtag des Freistaates Sachsen (2008), S. 2 und 5. 67 Vgl. Baden-Württemberg, § 16 Abs. 3 Satz 2 Nr. 4 HG; Bayern, Art. 20 Abs. 2 Satz 2 Nr. 2 HG; Hamburg, § 79 Abs. 2 Satz 2 HG; Sachsen, § 83 Abs. 3 Nr. 3 HG.
300
Tim Drygala
ßen sind. Als Stärkung der Leitung wird zudem die Normierung des Beschlusses über die Berufungsvorschläge auf Seiten der Leitung verstanden. 68 Die Leitung vollzieht darüber hinaus die Beschlüsse der zentralen Organe. 69 Den Präsidenten bzw. Rektoren wird eine Richtlinienkompetenz zugestanden. 70 Überdies sind sie für die Genehmigung von Satzungen außer der Grundordnung zuständig. Zudem wurde in einigen Bundesländern die Universitätsleitung als Dienstvorgesetzter des gesamten wissenschaftlichen und künstlerischen Personals eingesetzt. 71 Gegenüber den Dekanen bestehen Aufsichts- und Weisungsrechte, um die angemessene Aufgabenerfüllung in Forschung und Lehre auf der Arbeitsebene zu kontrollieren. Deutliche Zeichen für eine mittelbare Stärkung in akademischen Fragen sind aber Entscheidungsbefugnisse über Strukturänderungen unterhalb der zentralen Ebene. Der Senat nimmt hier meist nur noch Stellung zu derartigen Fragen. 72 Weiterhin kommt der Hochschulleitung eine Aufsichtsfunktion gegenüber den Gremien und Hochschulräten bzgl. deren Beschlüssen zu. Sind diese rechtswidrig, muss die Leitung dies beanstanden und die Umsetzung verweigern oder aussetzen. Auch Auflösungsbeschlüsse für die betreffenden Gremien sind möglich. 73 Die vorstehende Kompetenzbeschreibung verdeutlicht, dass die Hochschulleitung nach dem New Public Management-Ansatz (NPM) als unternehmerisch agierendes und mit Managementprinzipien vertrautes Organ verstanden wird. Dies wird auch gesetzgebungstechnisch umzusetzen versucht. 74 So wird vor allem der strukturelle Aufbau des Organs demjenigen eines Vorstands angeglichen. Es gibt einen Vorsitzenden – den Präsidenten oder Rektor –, der Vorstandsvorsitzaufgaben innehat. Zunächst ist dabei die Funktion des Vorsitzes an sich zu nennen. Er vertritt die Hochschule nach außen gerichtlich und außergerichtlich, hat außerdem eine Richtlinienkompetenz sowie die ausschlaggebende Stimme bei Stimmengleichheit. Er ist für die Geschäftsverteilung zuständig. Das Amt wird zumeist hauptberuflich ausgeübt. Eine weitere Angleichung besteht daneben in der öffentlichen Ausschreibung des Amtes, da dies auch die Bewerbung außeruniversitärer Interessenten zulässt. Es werden überdies Kollegialorgane teil68 So in Baden-Württemberg, Bayern, Brandenburg (nach Übertragung), Bremen, Hamburg, Hessen (in Einvernehmen mit Ministerium), Nordrhein-Westfalen, Saarland, Sachsen, Schleswig-Holstein, Thüringen. 69 Bspw. Baden-Württemberg, Saarland. 70 In Bayern, Hamburg, Hessen, Mecklenburg-Vorpommern, Niedersachsen, Nordrhein-Westfalen, Saarland, Sachsen, Sachsen-Anhalt, Schleswig-Holstein, Thüringen. 71 Etwa Sachsen, § 78 Abs. 2 Satz 3 HG. 72 Hessen, § 42 V LHG. 73 Vgl. Bayern, Art. 20 III 3 LHG. 74 Vgl. Landtag Niedersachsen (2001), S. 63 und 79 f.; Landtag des Saarlandes (2004), S. 80.
Die Aktiengesellschaft als Regelungsvorbild
301
weise unter Abschaffung des Kanzlers eingeführt. Dem Präsidenten steht hier häufig das Recht zu, einen starken Einfluss auf die weitere Besetzung des Leitungsorgans bis hin zum Kanzleramt zu nehmen. Dies soll Kooperationsfähigkeit und effizientes Arbeiten sichern. Grenzen ergeben sich jedoch hinsichtlich der Aufgaben des Gremiums. Trotz aller wirtschaftlicher Ausrichtung der Hochschulen ist es unumgänglich, dass die verfassungsrechtlichen Vorgaben an die Freiheit von Forschung und Lehre zu beachten sind. Das führt zu einer Trennung von finanziell-organisatorischen Aufgaben und solchen, die das BVerfG als wissenschaftsrelevante Aufgaben 75 bezeichnet. Für den letzteren Bereich ist seit jeher der Senat der Hochschulen zuständig. Er ist traditionell das Organ, in welchem die Gruppenuniversität ihre stärkste Verankerung fand. Dies wurde auch trotz der NPM-Reformen beibehalten. Im Zuge der Forcierung auf eine einheitliche und starke Leitung wurden die Senate jedoch verkleinert. 76 Ihre Aufgaben wurden in stärkerem Maße auf ihre eigentlichen akademischen Angelegenheiten konzentriert. 77 Einzelne Aufgaben entfielen oder es wurden Zustimmungsvorbehalte in Stellungnahmen und Empfehlungen umgewandelt. Die bisher im Senat beratend tätigen Dekane wurden in einigen Bundesländern in die erweiterte Hochschulleitung umorganisiert. 78 Die Trennung zwischen einem finanziell-organisatorischen und einem akademischen Aufgabenbereich findet sich auch sonst in den Aufgaben der Hochschulleitung. In Unternehmen bzw. Aktiengesellschaften gibt es diese Trennung naturgemäß nicht. Vielmehr trägt der Vorstand die Verantwortung für beide Bereiche auf strategischer Ebene. In der Universität ist die Leitung im Kern auf den finanziell-organisatorischen Bereich sowohl operativ als auch strategisch begrenzt. Die akademische Verantwortung verbleibt hauptsächlich bei den gruppengeleiteten Gremien. Im Koordinatensystem der Zuständigkeiten überschneiden sich demnach diejenigen von Vorstand und Hochschulleitung nur auf der strategischen finanziell-organisatorischen Ebene. Ferner ist die Hochschulleitung stärker als der Vorstand einer AG darauf angewiesen, mit Hochschulräten oder Senaten oder gar beiden gleichzeitig in Form von Zustimmungsvorbehalten, Stellungnahmerechten oder Empfehlungsbefugnissen zusammenzuarbeiten. Diese sind stärker ausgeprägt als im Aktienrecht, das überwiegend vom Alleinführungsrecht des Vorstands geprägt ist. 79 Im finanziell-organisatorischen Bereich ist die Hochschulleitung aber als Entscheidungsorgan mit dem Vorstand der AG vergleichbar, da auch dieser Zustim75 76 77 78 79
BVerfGE Bd. 35, S. 79 und 91. In Bayern beträgt die Mitgliederzahl nur noch 9. Vgl. Landtag des Freistaates Sachsen (2008), S. 2. Bayern, Hessen, Saarland. Vgl. Spindler in: Goette / Habersack (2009), § 76 Rn. 1; Hüffer (2008), § 76 Rn. 4.
302
Tim Drygala
mungsvorbehalte des Aufsichtsrats (§ 111 IV AktG) und Stellungnahme- und Informationsrechte des Betriebsrats nach § 80 BetrVG beachten muss. 80 b) Aufsichtsrat und Hochschulrat aa) Aufgaben der Aufsichtsräte Der Aufsichtsrat der Aktiengesellschaft ist zur Erfüllung einer Vielzahl von Aufgaben verpflichtet. 81 Hervorzuheben sind jedoch die Personalkompetenz, § 84 AktG, die Vertretung der Gesellschaft gegenüber den Vorstandsmitgliedern, § 112 AktG, und die eigentliche Überwachungsaufgabe, § 111 Abs. 1 AktG. Die zuletzt genannte Aufgabe macht den Kern der Tätigkeit aus und unterscheidet den Aufsichtsrat von anderen Gremien, z. B. den im GmbH-Recht verbreitet anzutreffenden Beiräten. 82 Die Pflicht ist als Dauerobligation ausgestaltet, beinhaltet also die regelmäßige und dauerhafte Ausübung. 83 Erfasst sind alle Geschäftsführungsmaßnahmen, die für die weitere Entwicklung und Lage des Unternehmens eine maßgebliche Bedeutung haben 84 sowie alle weiteren Funktionen eines Vorstandsmitglieds. 85 Neben einer nachträglichen Kontrolle der Tätigkeit ist der Aufsichtsrat auch zu einer vorherigen, zukunftsgerichteten Beratung verpflichtet. Weisungsrechte gegenüber dem Vorstand kommen ihm hierbei jedoch nicht zu. 86 Verwirklicht wird die Erfüllung der Überwachungsaufgabe mittels eines umfassenden Berichtssystems, § 90 AktG. Der Vorstand unterliegt danach einer Bringschuld für überwachungs- und beratungsrelevante Informationen. Darüber
80
In der Bewertung wie hier Ipsen (2001), S. 10. Dazu gehören neben den im Text genannten die Zustimmung zur Aufnahme von Wettbewerb und zum Abschluss bestimmter Verträge, §§ 88, 89, 114, 115 AktG, Aufgaben betreffend die Zusammensetzung und Delegation von Aufsichtsratsmitgliedern in den Vorstand, §§ 88, 89, 114, 115 AktG, Aufgabenzuweisung innerhalb des Aufsichtsrats, § 107 AktG, Entgegennahme des Jahresabschlusses und des Lageberichts, §§ 90, 170 AktG, Prüfung des Jahresabschlusses, Lageberichts, Konzernabschlusses, Konzernlageberichts und Gewinnverwendungsvorschlags, § 171 Abs. 1 AktG, Mitwirkung an der Feststellung des Jahresabschlusses, § 172 AktG, Billigung des Konzernabschlusses, § 171 Abs. 2 S. 5 AktG, Prüfung des Abhängigkeitsberichts, § 314 AktG und weitere in §§ 33 Abs. 1, 58 Abs. 2, 59 Abs. 3, 111 Abs. 2 S. 3, 124 Abs. 3, 161, 204 Abs. 1 S. 2 AktG geregelte Aufgaben. 82 Zu diesen Spindler / Kepper (2005), S. 1738 ff.; Bacher (2005), S. 465 ff.; Huber (2004), S. 772 ff. 83 Vgl. Spindler in: Spindler / Stilz (2007), § 111 Rn. 16; Mertens in: Zöllner / Noack (2010), § 111 Rn. 12; Habersack in: Goette / Habersack (2009), § 111 Rn. 18. 84 Hüffer (2008), § 111 Rn. 3; Habersack in: Goette / Habersack (2009), § 111 Rn. 19. 85 Habersack in: Goette / Habersack (2009), § 111 Rn. 24; Semler (1996), Rn. 122 ff. 86 Spindler in: Spindler / Stilz (2007), § 111 Rn. 16; Habersack in: Goette / Habersack (2009), § 111 Rn. 12, 29, 43; Hoffmann-Becking (2007), § 29 Rn. 26. 81
Die Aktiengesellschaft als Regelungsvorbild
303
hinaus stehen dem Aufsichtsrat ein Einsichts- und Prüfungsrecht gem. § 111 Abs. 2 S. 1, 2 AktG zu. Zur Durchsetzung der Überwachungsmaßnahmen stehen dem Aufsichtsrat sowohl repressive als auch präventive Instrumentarien zur Verfügung. Als repressiv sind beispielsweise die Inanspruchnahme aus § 93 Abs. 2 AktG 87 aber auch Stellungnahmen und Beanstandungen 88 zu werten. Ebenso sind die Möglichkeit der Abberufung aus § 84 Abs. 3 S. 1 AktG als auch die Einberufung einer HV nach § 111 Abs. 3 AktG zum Zwecke des Vertrauensentzuges hierzu zu zählen. Die Billigung des Jahres- und Konzernabschlusses kann verweigert werden. Eine Klage, die gegen rechtswidriges Vorstandshandeln gerichtet ist, soll hingegen ausscheiden. 89 Präventiv wirkt die Verankerung von Zustimmungsvorbehalten. Die Ausübung der Geschäftsordnungsbefugnis nach § 77 Abs. 2 S. 1 AktG kann ebenfalls lenkende Wirkung haben. Der Aufsichtsrat handelt mit dem Ziel, den Vorstand zu einer sorgfältigen Leitung des Unternehmens mit dem Leitbild des Unternehmensinteresses zu führen. Den Maßstab bilden sowohl die Rechtmäßigkeit als auch die Zweckmäßigkeit und Wirtschaftlichkeit des Vorstandshandelns. 90 Letzteres ist jedoch nur i. R.e. mittel- und langfristigen Planung der Überprüfung unterworfen. 91 Im Unternehmensinteresse liegt auch eine effiziente Überwachung begründet. Sie verpflichtet den Aufsichtsrat, Berichte und Informationen vom Vorstand einzuholen. Er unterliegt demnach einer Selbstverantwortung für die Wahrnehmung seiner Aufgaben. 92 Der DCGK empfiehlt in diesem Zusammenhang eine Selbstevaluation nach dem Muster einer Effizienzprüfung, Ziff. 5.6 DCGK sowie den Erlass einer Informationsordnung, Ziff. 3.4 III DCGK. bb) Aufgaben der Hochschulräte Im Zuge der universitären Reformen wurden in nahezu jedem Bundesland 93 universitäre Hochschulräte eingeführt, wobei deren Bezeichnungen differieren 87
Hüffer (2008), § 111 Rn. 4a; Habersack in: Goette / Habersack (2009), § 111 Rn. 34. Hüffer (2008), § 111 Rn. 4; Habersack in: Goette / Habersack (2009), § 111 Rn. 32; Spindler in: Spindler / Stilz (2007), § 111 Rn. 30. 89 Vgl. Habersack in: Goette / Habersack (2009), § 111 Rn. 33. 90 BGHZ, Bd. 114, S. 127 und 129 f.; Spindler in: Spindler / Stilz (2007), § 111 Rn. 14 ff.; Habersack in: Goette / Habersack (2009), § 111 Rn. 42. 91 Vgl. Hüffer (2008), § 111 Rn. 6; Habersack in: Goette / Habersack (2009), § 111 Rn. 43. 92 Vgl. Habersack in: Goette / Habersack (2009), § 111 Rn. 47; Spindler in: Spindler / Stilz (2007), § 111 Rn. 30. 93 Ausnahmen: Brandenburg mit einem Landeshochschulrat; Bremen; Schleswig-Holstein mit zusätzlichem Universitätsrat. 88
304
Tim Drygala
können. 94 Als Ziele der Einführung werden die Herstellung einer Verbindung der Hochschule zur Öffentlichkeit bzw. Wirtschaft, Profilbildung und Schwerpunktsetzung und Stärkung der Handlungsfähigkeit sowie strategischer Planungs- und Entscheidungskompetenz genannt. Vordergründig sollen die Hochschulleitungen in diesen Bereichen von der Managementkompetenz der externen Mitglieder profitieren. 95 Grundaufgaben dieser Hochschulräte sind Verhandlungen mit staatlichen Vertretern (buffer institutions), Mitwirkung an der strategischen Ausrichtung der Hochschule sowie die Aufsicht gegenüber der Hochschulleitung. Es ist festzustellen, dass die Kompetenzen je nach Bundesland erheblich divergieren. 96 So reichen die Befugnisse von einer bloßen Beratung 97 bis hin zu weitreichenden Entscheidungs- und Kontrollkompetenzen. 98 Daher ist festzustellen, dass sich Analogien zum Recht des Aufsichtsrats dort verbieten, wo der Hochschulrat keine Aufsichtsbefugnisse hat. Gerade diese kennzeichnen die Tätigkeit des Aufsichtsrats und bilden die Grundlage für seine weitergehenden Befugnisse, z. B. das Recht auf umfassende Information und Einsicht in die Geschäftsvorgänge. Organe, die keine Aufsichtskompetenz haben, sind keine Aufsichtsräte, sondern Beiräte 99, und sollten auch nicht als Aufsichtsräte bezeichnet werden, um Fehlvorstellungen in der Öffentlichkeit hinsichtlich ihrer Befugnisse vorzubeugen. Die Aufsichtsfunktion ist bei den vorhandenen Hochschulräten jedoch teilweise durchaus gegeben. Die Aufsicht umfasst hierbei sowohl Beratungs- und Mitwirkungs- als auch Kontrollrechte im Hinblick auf die Leitungsaktivitäten. Spezifische Aufgaben der Hochschulräte sind hierbei die Bestellung der Hochschulleitung 100, die Mitwirkung an der Haushaltsführung sowie dem Erlass oder der Änderung der Grundordnung. 101 Zudem werden Jahresabschlüsse und Jahresberichte entgegengenommen 102 und beraten sowie die Hochschulleitung 94 Baden-Württemberg – Aufsichtsrat; Berlin – Kuratorium; Saarland – Universitätsrat; Sachsen-Anhalt – Kuratorium. 95 Vgl. Landtag von Mecklenburg-Vorpommern (2001), S. 81. 96 Vgl. Lange / Schimank (2007), S. 539; Knauff (2007), S. 380 und 386. 97 Hessen, § 48 LHG; Mecklenburg-Vorpommern, § 86 LHG; Sachsen-Anhalt, § 74 LHG; Schleswig-Holstein, § 19 LHG. 98 Baden-Württemberg, § 20 LHG; Niedersachsen, § 60 LHG (wobei hier in der Rechtsform der Stiftung). 99 Statt vieler vgl. Lutter / Hommelhoff (2009), § 53 Rn. 61. 100 Baden-Württemberg, § 20 I 3 Nr. 1 LHG; Bayern, Art. 26 V 1 Nr. 2, 3, 4 LHG; Hamburg, § 84 I Nr. 1 LHG; Niedersachsen § 52 I 1 Nr. 2 lit. d, 3, § 60 II 2 Nr. 1 LHG; Nordrhein-Westfalen, § 21 I 2 Nr. 1 LHG; Sachsen, § 86 I 1 Nr. 1 LHG; Thüringen, § 32 I 2 Nr. 1 LHG. 101 Baden-Württemberg, § 20 I 2 Nr. 13 LHG; Bayern, Art. 26 V 1 Nr. 1 LHG; Hamburg, § 84 I Nr. 3 LHG; Niedersachsen, § 60 II 2 Nr. 8 LHG; Rheinland-Pfalz, § 74 II
Die Aktiengesellschaft als Regelungsvorbild
305
entlastet. 103 Das sind jedoch in der Aktiengesellschaft Aufgaben der Hauptversammlung (vgl. § 119 Abs. 1 AktG), und keine spezifischen Aufsichtsaufgaben. Ferner wird in einigen Bundesländern die Stellungnahme zu den Leistungsbezügen der Hochschulleitung nach § 33 BBesG ausdrücklich dem Hochschulrat zugewiesen. 104 Im Übrigen ist jedoch festzustellen, dass bei den Hochschulräten doch eher die Beratungsaufgabe im Vordergrund steht. So treffen die Hochschulräte Beschlüsse über Struktur- und Entwicklungspläne 105, tragen zur Profilbildung 106 bei und sollen bei der Hochschulorganisation (Fachbereiche, Einrichtungen) 107 Einfluss nehmen. Sie sind bei der Gründung von oder Beteiligung an wirtschaftlichen Unternehmen zu beteiligen. 108 Darüber hinausgehend wird Ihnen eine Schlüsselrolle im Rahmen des neuen Steuerungsinstruments der Zielvereinbarungen zugestanden. Hochschulräte fassen hier Beschlüsse oder nehmen zum Abschluss der Vereinbarung Stellung. Des Weiteren sind sie für die Aufsicht über deren Erfüllung und Durchführung verantwortlich. 109 Zu beachten ist ferner, dass ein Teil der originären Überwachungsaufgaben nach wie vor beim Senat angesiedelt ist. In einigen Bundesländern wird vorNr. 1 LHG; Saarland, § 20 I 3 Nr. 8 LHG; Schleswig-Holstein, § 19 I 1 Nr. 2 LHG; Thüringen, § 32 I 2 Nr. 3 LHG. 102 Baden-Württemberg, § 20 I 3 Nr. 8, 14 LHG; Bayern, Art. 26 V 1 Nr. 10 LHG; Hessen, § 48 II 2 Nr. 1 LHG; Niedersachsen, § 60 II 1 Nr. 5 LHG; Nordrhein-Westfalen, § 21 I 2 Nr. 4 LHG; Sachsen, § 86 I 1 Nr. 8, 10 LHG; Sachsen-Anhalt, § 74 I 4 Nr. 3 LHG. 103 Baden-Württemberg, § 20 I 3 Nr. 14 LHG; Hessen, § 100 f. V Nr. 2 LHG; Niedersachsen, § 60 II 2 Nr. 5 LHG; Nordrhein-Westfalen, § 21 I 2 Nr. 6 LHG; Saarland, § 20 I 3 Nr. 9 LHG; Sachsen, § 86 I 1 Nr. 9 LHG. 104 Baden-Württemberg, § 20 VII LHG; Hamburg, § 84 I Nr. 9 LHG; Rheinland-Pfalz, § 74 III LHG. 105 Baden-Württemberg, § 20 I 3 Nr. 3 LHG; Bayern, Art. 26 V 1 Nr. 5 LHG; Berlin, § 65 I 1 Nr. 5 LHG; Hamburg, § 84 I Nr. 4 LHG; Hessen, § 48 II Nr. 1 LHG; Mecklenburg-Vorpommern, § 86 III LHG; Niedersachsen, § 52 I 1 Nr. 2 lit. a LHG; NordrheinWestfalen, § 21 I 2 Nr.2 LHG; Rheinland-Pfalz, § 74 II 2 Nr. 4, 6 LHG; Saarland, § 20 I 3 Nr. 1 LHG; Sachsen, § 86 I 1 Nr. 5 LHG; Schleswig-Holstein, § 19 I Nr. 6 LHG; Thüringen, § 32 I 2 Nr. 4 LHG. 106 Baden-Württemberg, § 20 I 1 LHG; Hamburg, § 84 II 1 LHG; Mecklenburg-Vorpommern, § 86 III 1 LHG; Rheinland-Pfalz, § 74 II 1 LHG; Saarland, § 20 I 1 LHG; Sachsen, § 86 I 1 LHG; Sachsen-Anhalt, § 74 I 4 Nr. 2 LHG; Schleswig-Holstein, § 19 I Nr. 6 LHG; Thüringen, § 32 I 2 Nr. 4 LHG. 107 Baden-Württemberg, § 20 I 3 Nr. 9 LHG; Bayern, Art. 26 V 1 Nr. 6, 8 LHG; Berlin, § 65 I 1 Nr. 4 LHG; Hessen, § 48 II 2 Nr. 4. 108 Baden-Württemberg, § 20 I 3 Nr. 6 LHG; Niedersachsen, §§ 52 I 1 Nr. 2 lit. b, 60 II 2 Nr. 6 LHG; Rheinland-Pfalz, § 74 II Nr. 2 LHG; Saarland, § 20 I 3 Nr. 6 LHG. 109 Bayern, Art. 26 V 2 LHG; Hessen, § 48 II 1 Nr. 3 LHG; Niedersachsen, §§ 51 I 1 Nr. 2 lit. c, 60 II 3 LHG; Sachsen, § 86 I 2 Nr. 11 LHG; Schleswig-Holstein, § 19 I Nr. 10 LHG; Thüringen, § 32 I 2 Nr. 6 LHG.
306
Tim Drygala
rangig dieser als Aufsichtsorgan ausgestaltet. 110 Hier wird den Hochschulräten zumeist nur eine beratende und mitwirkende Funktion bei der Hochschulentwicklung zugestanden. 111 Zudem übernimmt der Senat oder der erweiterte Senat in einigen Hochschulgesetzen an Stelle des Hochschulrates die Aufgabe der Wahlbzw. Abwahl der Leitung. 112 Zumeist wirken Hochschulrat und Senat bei dieser jedoch zusammen (Prinzip der doppelten Legitimation). cc) Fazit Hochschulräte wurden demnach gebildet, um die reduzierte staatliche ex-anteLeitung auszugleichen und durch ein internes Kontrollsystem zu ersetzen. Sie sind Surrogat staatlicher Kontrolle. 113 Die strategische Führung wurde teilweise auf sie verlagert. 114 Hinsichtlich der Besetzung hat sich bisher das duale Modell etabliert, d. h. die Mitgliedschaft interner Hochschulangehöriger und externer (hochschulfremder) Mitglieder. 115 Die externen Mitglieder stammen dabei zumeist aus Wirtschaft und Wissenschaft; es soll sich bei ihnen vornehmlich um Personen mit Managementkompetenz handeln, die Erfahrung in der Verwendung sehr hoher Geldmittel haben. 116 Überdies müssen die Mitglieder mit dem Hochschulwesen und dem Wissenschaftsbetrieb vertraut sein. Ein Vergleich der Aufgaben zeigt, dass eine Übereinstimmung vor allem in Bezug auf die Personalkompetenz besteht; diese steht sowohl den Aufsichtsräten als auch den Hochschulräten im eigentlichen Sinne zu. Insofern haben sich die Ländergesetzgeber den aktienrechtlichen Aufsichtsrat an einigen Stellen ausdrücklich zum Vorbild genommen. 117 Diese Personalkompetenz hat auch der Hochschulrat fast in jedem Bundesland, sei es aufgrund einer direkten Wahl / Abwahl-Kompetenz, sei es durch ein Vorschlagsrecht bzw. Zustimmungsrecht 110 Vgl. Landtag von Mecklenburg-Vorpommern (2001), S. 82, 112; Landtag SchleswigHolstein (2006), S. 24. 111 So ausdrücklich Landtag von Mecklenburg-Vorpommern (2001), S. 114. 112 Bspw. Mecklenburg-Vorpommern; Sachsen. 113 Vgl. Bogumil / Heinze / Grohs / Gerber (2007), S. 14; Mayntz (2002), S. 21 ff.; Hoffacker (2000), S. 130; Laqua (2004), S. 32. 114 Vgl. Müller-Böling (2000), S. 50. 115 Vgl. Bogumil / Heinze / Grohs / Gerber (2007), S. 12 f. und 23 ff.; Van Bebber (2001), S. 14. 116 Vgl. Bogumil / Heinze / Grohs / Gerber (2007), S. 6. 117 Vgl. Landtag von Baden-Württemberg (2004), S. 195; Landtag des Freistaates Bayern (2005b), S. 46 und 56; Landtag Hessen (2000), S. 2 und 30, bei welcher von der „Berufswelt“ gesprochen wird; Landtag Nordrhein-Westfalen (2006), S. 148 mit dem ausdrücklichen Verweis auf § 84 Abs. 3 S. 2 AktG bzgl. der Abwahl der Leitung; Landtag Schleswig-Holstein (2006), S. 19 f.; Ipsen (2001), S. 8 ff.; kritisch dazu Hartmer (2001), S. 484; für Österreich Lange / Schimank (2007), S. 537.
Die Aktiengesellschaft als Regelungsvorbild
307
für die Wahl bzw. Abwahl. In einigen Bundesländern wird sogar ausdrücklich die Möglichkeit zur Festlegung der Bezüge i. R. d. § 33 BBesG zugestanden. Deutliche Ähnlichkeiten ergeben sich hinsichtlich der Einsichts-, Prüfungsund Informationsrechte. Hier ist vorstellbar, dass daraus ein Berichtssystem durch die Hochschulleitung entsteht, das an das in § 90 AktG vorgesehene angenähert ist. 118 Hinsichtlich der Aufsichtsfunktion ist festzustellen, dass dem Hochschulrat kaum Eingriffs- bzw. Durchsetzungskompetenzen zur Verfügung stehen. Zumeist soll dieser auf eine hochschulinterne Klärung hinwirken. Erst bei schwerwiegenden Beanstandungen ist das zuständige Ministerium zu benachrichtigen. Ferner fehlt den Hochschulräten die Kompetenz, bestimmte Maßnahmen des Vorstands durch Beschluss für zustimmungsbedürftig zu erklären, § 111 IV AktG. Die Zustimmungsvorbehalte sind vielmehr in den jeweiligen Hochschulgesetzen enumerativ aufgelistet 119 und betreffen nur wenige Punkte, wie Unternehmensgründungen und Strukturänderungen. Auch im Bereich der präventiven Beratung ergeben sich Unterschiede. Hier wurden explizite Handlungsanweisungen in den Hochschulgesetzen der Länder aufgenommen. Häufig wird dies mit den Worten Profilbildung, Entwicklung der Hochschule sowie Erhöhung der Leistungs- und Wettbewerbsfähigkeit bezeichnet. Ferner kann sich durch eine Aufgabenzuweisung an den Senat eine Aufteilung der Beratungs- und Überwachungsfunktion in sachlicher Hinsicht ergeben. 120 Im Grundsatz ist in den meisten Hochschulgesetzen eine Trennung zwischen akademischen und finanziell-strukturellen Angelegenheiten gewollt. Es ist aber auch festzustellen, dass dem Hochschulrat zuweilen Kompetenzen zugestanden werden, die über jene des Aufsichtsrats hinausgehen. So gestehen einige Hochschulgesetze direkte Geschäftsführungskompetenzen zu. 121 Überdies wird ihm die Beschlussfassung oder Stellungnahme zu Änderungen der Grundordnung übertragen. Hierfür ist in der AG die Hauptversammlung zuständig, § 179 AktG. Insgesamt ergibt sich daher ein Bild, das den Hochschulrat allenfalls als ein aufsichtsratsähnliches Gremium qualifiziert, da durch die Mitwirkung des Senats, die Übertragung von Kompetenzen, die in der AG die Hauptversammlung hat, und durch die Hervorhebung der Beratungs- gegenüber der Kontrollaufgabe deutliche Bruchlinien gegenüber dem Aufsichtsrat bestehen. Wo sich freilich die Kompetenzen decken, wird es im Einzelfall gleichwohl möglich sein, Brücken 118 119 120 121
Vgl. Nordrhein-Westfalen, § 21 Abs. 2 S. 3 LHG. Bspw. Baden-Württemberg, §§ 14 Abs. 3, 20 Abs. 1 S. 3 LHG. Vgl. Schleswig-Holstein, § 21 Abs. 1 S. 2 LHG. Bspw. Hessen, Vermögensverwaltung, § 48 Abs. 2 S. 3 LHG.
308
Tim Drygala
zu schlagen. Das trifft insbesondere auf die Personalkompetenz und auf den Umfang der Auskunfts- und Einsichtsrechte zu. Im Übrigen überwiegen aber die Unterschiede, so dass sich die Bezeichnung des Gremiums als Aufsichtsrat, die in Baden-Württemberg gewählt wurde 122, als folkloristisch und ohne rechtlichen Gehalt erweist. 3. Die Hauptversammlung – das abhanden gekommene Organ Eine Hauptversammlung existiert in der aktienrechtlichen Form in der Hochschule nicht. Hierin spiegelt sich der schon oben angesprochene Unterschied wider, dass es einen Eigentümer im eigentlichen Sinne in der Hochschule nicht gibt, so dass auch das dafür vorgesehene Repräsentationsorgan entfällt. Die Funktionen der Hauptversammlung werden hauptsächlich von den Senaten übernommen. Sie wählen und bestellen die Hochschulräte zumeist in Zusammenarbeit mit dem Ministerium (vgl. § 119 I Nr. 1 AktG) 123, beschließen die Grundordnung (vgl. § 179 I AktG) 124 und entlasten in traditionelleren Hochschulgesetzen das Leitungsorgan 125 (vgl. § 119 I Nr. 3 AktG). Die weiteren HV-Aufgaben verteilen sich verschiedentlich auf Leitung und Hochschulräte.
IV. Gesamtbewertung 1. Import aktienrechtlicher Mängel ins Hochschulrecht Insgesamt ist festzuhalten, dass die Universitätsreform in Sachsen, aber auch in den anderen Bundesländern, eine Stärkung der Hochschulleitung mit sich gebracht hat, die als solche nicht unumstritten ist. Neben den Chancen, die in einer effektiveren Entscheidungsfindung durch kürzere Entscheidungswege sowie durch Professionalisierung gesehen werden 126, werden auch die Risiken betont. Insofern wird vor allem bezweifelt, ob die richtige Balance zwischen starker Hochschulleitung und hinreichend effektiven Aufsichtsorganen gefunden wurde. Befürchtet wird sowohl, dass zu starke Führungspersönlichkeiten unkontrolliert Fehlentscheidungen treffen könnten. 127 Interessenkonflikte, Selbstbereicherung und Geltungsbedürfnis können vermehrt auftreten. Aber auch das 122
Vgl. Landtag von Baden-Württemberg (2004), S. 194. Bspw. Thüringen, § 33 Abs. 1 Nr. 2 LHG. 124 Bspw. Thüringen, § 33 Abs. 1 Nr. 1 LHG. 125 Brandenburg, Mecklenburg-Vorpommern; dies wird nunmehr hauptsächlich von den Hochschulräten übernommen. 126 Vgl. Clark (1998); Meier (2009), S. 153; Epping (2008), S. 423 und 427; Schweiger (2005), S. 146 f. Fn. 14. 123
Die Aktiengesellschaft als Regelungsvorbild
309
Gegenteil könne eintreten. Die Gefahr der Beeinflussung durch lediglich einen Teil der Interessenvertreter der Aufsichtsorgane bestehe, wenn diese innerhalb eines zu starken Aufsichtsorgans Superioritäten für sich in Anspruch nähmen. 128 Angemahnt wird außerdem, dass eine Kontrolle durch diejenigen stakeholder geschwächt wird, die in den Leitungs- und Aufsichtsorganen, d. h. nach deutschem Verständnis vor allem in den Senaten und Hochschulräten, nicht vertreten sind. 129 Diese Effekte sind aus dem Bereich des Aktienrechts durchaus bekannt. Sowohl der Vorstand, der nach Art eines Sonnenkönigs sein Unternehmen regiert, als auch der übermäßig starke Aufsichtsratsvorsitzende, der als graue Eminenz das Unternehmen aus dem Hintergrund bis in Fragen der Produktgestaltung im Detail beeinflusst, sind uns bekannte Figuren. Von daher ist der hier angestellte Blick auf das Aktienrecht auch als Mahnung zu verstehen, von einer Einführung unternehmerischer, insbesondere aufsichtsratsähnlicher, Gremien und Institutionen nicht zuviel zu erwarten. Gerade die jüngste Wirtschaftsentwicklung lässt erkennen, dass auch die aktienrechtliche Corporate Governance Fehlentwicklungen und Krisen nicht immer verhindern kann und sogar in Teilbereichen (etwa was die Vergütungsstrukturen in Aktiengesellschaften angeht 130) für deren Entstehen mitverantwortlich ist. Damit besteht die Gefahr, mit der Übernahme unternehmensrechtlicher Modelle auch deren Mängel und Defizite ins Hochschulrecht zu übernehmen. Insofern erweist sich aber gerade die Übertragung wesentlicher Kompetenzen auf die Hochschulräte unter gleichzeitiger Schwächung der Senate nicht als unproblematisch. Neben verfassungsrechtlichen Bedenken, zu denen hier nicht Stellung genommen werden soll 131, bestehen durchaus auch Gefahren, die aus dem Unternehmensrecht heraus bereits bekannt sind, und von denen abzusehen ist, dass sie auch in der Hochschule virulent werden können. a) Selbstbild der Mitglieder und Intensität der Amtswahrnehmung Zu nennen ist einmal die Gefahr der nicht hinreichenden Mandatswahrnehmung. Aus der Corporate-Governance-Diskussion heraus ist bekannt, dass Aufsichtsratsmitglieder ihr Mandat zu lange als Ehrenamt verstanden, das sich so-
127 Beispiele hierfür aus Großbritannien bespricht Shattock (2006), S. 84 ff., bspw. die Gründung wissenschaftlich schlecht ausgestatteter Institute in verschiedenen Ländern weltweit u. a. in Griechenland in einem Rotlichtviertel Athens, S. 107. 128 Vgl. Buckland (2004), p. 252. 129 Vgl. ebd. 130 Zu deren Einfluss auf das Entstehen der Bankenkrise Lutter (2009), S. 197 ff. 131 Vgl. statt dessen Thieme (2004), Rn. 1022 f. m.w. N. und Verweis auf BVerfGE 83, 60, 71; 93, 37, 66; Ladeur zitiert in Dufner (2002), S. 16.
310
Tim Drygala
zusagen „nebenbei“ erledigen ließ. 132 Daraus resultierte eine zu wenig intensive Wahrnehmung des Amtes, die sich in geringer Sitzungsfrequenz, schwacher Sitzungsvorbereitung und wenig kritischer Haltung gegenüber den Angaben des Vorstands niederschlug. Der Gesetzgeber des Aktienrechts ist seit 1994 mehr oder weniger permanent damit beschäftigt, diese Mängel abzustellen. 133 Einen wirklichen Umbruch im Selbstverständnis der Aufsichtsräte haben aber weniger diese gesetzlichen Reformen mit sich gebracht als vielmehr die Gefahr, bei einer unsorgfältigen Amtswahrnehmung finanziell zur Verantwortung gezogen zu werden. Die ersten Urteile zu dieser Frage der Aufsichtsratshaftung 134 haben ersichtlich als Weckruf auch bei den nicht persönlich betroffenen Aufsichtsräten gewirkt. Ein solcher präventiver Anreiz zur sorgfältigen und intensiven Mandatswahrnehmung fehlt aber im Hochschulrecht völlig; er ist bisher nicht einmal andiskutiert. Demgegenüber sind in der Literatur deutliche Tendenzen zu erkennen, die Mitgliedschaft im Hochschulrat als eine rein ehrenamtliche Tätigkeit zu begreifen. 135 Bei den externen Mitgliedern kommt die Gefahr hinzu, dass das Amt als ein Mittel zur Erlangung von Medienpräsenz missverstanden wird. 136 Von daher ist durchaus zu befürchten, dass sich ein aus dem Aktienrecht her bekannter Missstand, nämlich das Verständnis des Amtes als „schönste Nebensache der Welt“, in den Hochschulräten wiederholen wird. b) Orientierung am Gesamtinteresse Aus den Aufsichtsräten ist das Problem bekannt, dass sich nicht alle Mitglieder gleichmäßig am Interesse des Unternehmens orientieren, sondern dass manche von ihnen Partikularinteressen verfolgen. So ist bei den Arbeitnehmervertretern zu beobachten, dass sie zwischen „arbeitnehmerrelevanten“ und „neutralen“ Sachfragen unterscheiden und sich intensiv der Fragen annehmen, die ihre Klientel berühren. Im Übrigen wird sich vielfach der Stimme enthalten. Auch Vertreter der öffentlichen Hand in Unternehmen mit Staatsbeteiligung sind in dieser Hinsicht schon negativ aufgefallen, indem sie sich nämlich mehr als verlängerter Arm der entsendenden Körperschaft denn als unabhängiges Mitglied des Gremiums gerierten. 137 Gerade diese Gefahr ist in den Hochschulräten mit Händen zu greifen. Es steht zu erwarten, dass sich die vom Staat entsandten 132 Vgl. Lutter (2001), S. 224 und 230 f.; Lutter / Krieger (2008), Rn. 51 ff.; Drygala in: Schmidt / Lutter, § 95 Rn. 2; plakativ auch Bernhardt (1995), S. 310 und 321. 133 Näher zur Rechtsentwicklung Mertens in: Zöllner / Noack (2010), § 93 Rn. 7. 134 BGHZ, Bd. 135, S. 244 -ARAG-; BGH ZIP (2007), S. 224. 135 Vgl. Thieme (2004), Rn. 1023. 136 Vgl. Bogumil / Heinze / Grohs / Gerber (2007), S. 26. 137 Vgl. Zieglmeier (2007), S. 144 und 159 ff.
Die Aktiengesellschaft als Regelungsvorbild
311
Mitglieder vornehmlich als Vertreter staatlicher, und das heißt in nicht wenigen Fällen fiskalischer, Interessen verstehen werden. Hinsichtlich der aus der Wirtschaft rekrutierten externen Mitglieder ist zu befürchten, dass insoweit vor allem Drittmittelgeber zum Zuge kommen, denen am Nutzen ihrer Investition mehr gelegen sein kann als am Erfolg der Hochschule insgesamt. 138 c) Hinreichende Information Schließlich ist aus der aktienrechtlichen Erfahrung darauf hinzuweisen, dass die Qualität der Aufsichtsratsarbeit in besonderem Maße von der Güte der Informationen abhängt, die das Gremium erhält. 139 Gerade externe Mitglieder sind auf eine hinreichende Berichtsdichte dringend angewiesen. Eine Orientierung am Maßstab des § 90 AktG, der die Berichtsdichte des Vorstands gegenüber dem Aufsichtsrat regelt, kann hier hilfreich sein. In Bezug auf Aufsichtsräte wird gegenwärtig intensiv diskutiert, ob dies ausreicht. Viele fordern zusätzliche Informationsquellen für den Aufsichtsrat; genannt werden Direktkontakte zu Mitarbeitern des Unternehmens 140 und die Einrichtung anonymer Beschwerdestellen (neudeutsch: Whistleblower Hotlines), mit denen sich Mitarbeiter des Unternehmens direkt an den Aufsichtsrat wenden können, wenn sie Missstände oder Rechtsverstöße im Unternehmen festgestellt haben. 141 Festzustellen ist ferner, dass die Bereitschaft von Vorständen, gegenüber dem Überwachungsgremium offen und zeitnah zu berichten, oft nur dann gegeben ist, wenn sie sich auf die Vertraulichkeit der Beratungen (vgl. § 116 Satz 2 AktG) auch tatsächlich verlassen können. 142 All diese Fragen werden auch im Hinblick auf Hochschulräte noch zu diskutieren sein. 2. Fazit Insgesamt haben die Gesetzgeber des Hochschulrechts sich einen erheblichen Schritt auf unternehmerische Organisationsstrukturen hinbewegt, dabei aber mit dem Hochschulrat ein aus mehreren Gründen anfälliges Organ geschaffen, dessen Funktionalität sich im Alltag noch erweisen muss. 143 Ob es dabei hilfreich 138
Eindringlich Hartmer (2001), S. 484 und 489; Bogumil / Heinze / Grohs / Gerber (2007), S. 26 m.w. N.; vgl. auch Buckland (2004), p. 248 und 252. 139 Vgl. Hüffer (2008), § 90 Rn. 1; Spindler in: Goette / Habersack (2009), § 90 Rn. 1; Fleischer in: Spindler / Stilz (2007), § 90 Rn. 1. 140 Vgl. Dreher (2003), S. 87 und 92 ff.; Semler (1996), Rn. 172 ff.; Hopt / Roth in: Hopt / Wiedemann (2005), § 107 Rn. 511 ff.; dagegen Schefflers (2003), S. 236 und 254 f.; Lutter (2006), Rn. 316. 141 Umfassend dazu Korte (2009). 142 Näher Drygala in: Schmidt / Lutter (2008), § 116 Rn. 24. 143 In der Bewertung noch skeptischer Bogumil / Heinze / Grohs / Gerber (2007), S. 1.
312
Tim Drygala
sein kann, ähnlich wie im Aktienrecht die Funktionsweise der Gremien durch eine zusätzliche Selbstregulierung durch einen Code of Best Practice nach Vorbild des Deutschen Corporate Governance Kodex zu ergänzen, bleibt weiteren Untersuchungen vorbehalten.
V. Ergebnisse 1. Die Universitätsreformen der vergangenen Jahre, auch in Sachsen, haben zu einer Wegbewegung vom Gedanken der Gruppenuniversität und einer Hinwendung zu einer Struktur geführt, die sich an Vorbildern außerhalb des klassischen Verwaltungsrechts orientiert. Dabei ist im Bereich der Universitätsverfassung eine Hinwendung zu Strukturen zu beobachten, die ersichtlich an unternehmensrechtliche Vorbilder angelehnt sind. 2. Ob die Aktiengesellschaft insoweit ein taugliches Vorbild ist, muss bezweifelt werden, da die beteiligten Interessen in der Universität vielschichtiger sind als im Wirtschaftsleben und das Leitungsverhalten der Hochschulleitung im Bereich von Forschung und Lehre eine Begrenzung durch die Grundrechte des wissenschaftlichen Personals und der Fakultäten erfährt. 3. Bei einem Vergleich der Kompetenzen der jeweiligen Organe ist festzustellen, dass es gleichwohl relevante Ähnlichkeiten gibt, die eine vorsichtige Analogie zu aktienrechtlichen Fragestellungen in Einzelfragen erlauben. Dabei sind die neu installierten Hochschulräte aber nur dann als aufsichtsratsähnlich zu qualifizieren, wenn sie tatsächlich mit Überwachungsaufgaben ausgestattet sind. 4. Die Orientierung am Recht des Aufsichtsrats bringt die Gefahr mit sich, auch dessen unbestreitbare Mängel ins Hochschulrecht zu übernehmen. Insofern ist vor einem naivem Glauben daran, dass sich mit der Einführung unternehmensrechtlicher Strukturen alles zum Besseren wenden werde, nachdrücklich zu warnen. Vielmehr bedarf der Hochschulrat noch einer deutlichen Verstärkung im Bereich der sorgfältigen Mandatswahrnehmung, der Orientierung seiner Mitglieder am Interesse der Gesamtuniversität und der hinreichenden Informationsversorgung, wenn seine Arbeit effektiv und erfolgreich sein soll.
Literatur Ahrndt-Herbst, Mareile (2003): Hochschulmanager machen Wissen zur Ware. Dagegen wehren sich vier Autoren und fordern Bildung statt „nur“ Ausbildung, in: Unabhängige Deutsche Universitätszeitung (DUZ), Heft 3, S. 26ff. Bacher, Philipp (2005): Einrichtung eines schuldrechtlichen GmbH-Beirats, in: GmbHR, S. 465ff.
Die Aktiengesellschaft als Regelungsvorbild
313
Baumgarten, Eduard (1963): Zustand und Zukunft der deutschen Universität. Bearle, Adolf A. / Means, Gardiner C. (1932): The Modern Corporation and Private Property. Bernhardt, Wolfgang (1995): Aufsichtsrat – Die schönste Nebensache der Welt?, in: Zeitschrift für Hochschulrecht (ZHR), Heft 159, S. 310 ff. Blair, Margaret M. (1995): Ownership and Control. Bogumil, Jörg / Heinze, Rolf G. / Grohs, Stephan / Gerber, Sascha (2007): Hochschulräte als neues Steuerungsinstrument? Eine empirische Analyse der Mitglieder und Aufgabenbereiche. Buckland, Roger (2004): Universities and Industry, in: Higher Education Quarterly, Vol. 58, no. 4, pp. 248ff. Bürgers, Tobias / Körber, Torsten (Hrsg.) (2008): Heidelberger Kommentar zum Aktiengesetz, 1. Aufl. Bürgerschaft der Freien und Hansestadt Hamburg (2002): Mitteilung des Senats an die Bürgerschaft – Entwurf eines Hochschulmodernisierungsgesetzes vom 05. November 2002, Drucksache 17/1661. Clark, Burton R. (1998): Creating Entrepreneurial Universities. Dreher, Meinrad (2003): Direktkontakte des Aufsichtsrats in der Aktiengesellschaft zu dem Vorstand nachgeordneten Mitarbeitern, in: Festschrift für Peter Ulmer, S. 87ff. Dufner, Barbara (2002): Kritik geerntet, in: Unabhängige Deutsche Universitätszeitung, Heft 22, S. 16ff. Engert, Andreas (2006): Hedgefonds als aktivistische Aktionäre, in: Zeitschrift für Wirtschaftsrecht (ZIP), S. 2105ff. Epping, Volker (2008): Verwaltungsreform als Verwaltungsaufgabe – Akteure, Mechanismen, Instrumente, in: VerwaltungsArchiv (VerwArch), S. 243ff. Erichsen, Hans-Uwe (1992): FAZ vom 12. 05. 1992. Eulenburg, Franz (1909): Die Entwicklung der Universität Leipzig in den letzten hundert Jahren. Fleischer, Holger (2003a): Zur Leitungsaufgabe des Vorstands im Aktienrecht, in: Zeitschrift für Wirtschaftsrecht, S. 1 ff. Fleischer, Holger (2009) in: Hommelhoff, Peter (Hrsg.): Handbuch Corporate Governance, S. 185 ff. Forssell, Anders (2002): The Transformation of Reform Theory and Democratic Ideas: Reform Theory Meets New Public Management, in: Christensen, Tom / Per Laegreid (Hrsg.): New Public Management, pp. 261 ff. Gärditz, Klaus Ferdinand (2005): Hochschulmanagement und Wissenschaftsadäquanz, in: Neue Zeitschrift für Verwaltungsrecht, S. 407ff. Geis, Max-Emanuel (2004): Das Selbstbestimmungsrecht der Universitäten, in: Wissenschaftsrecht, S. 2ff.
314
Tim Drygala
Goette, Wulf / Habersack, Mathias (Hrsg.) (2009): Münchener Kommentar zum Aktiengesetz, Bd. 2, 3. Aufl. Groh, Manfred (2000): Shareholder Value und Aktienrecht, in: Der Betrieb, S. 2153ff. Hartmer, Michael (2001): Wozu Universitäten? – Tradition versus „institutionelle Performance“, in: Festschrift für Hartmut Schiedermair, S. 482ff. Hoffacker, Werner (2000): Die Universität des 21. Jahrhunderts. Hoffmann-Becking, Michael (Hrsg.) (2007): Münchener Handbuch zum Gesellschaftsrecht, 3. Aufl., Bd. 4, Aktienrecht. Hogrebe, Wolfram im Interview mit Niemann, Sonja (2004): „Ein weit verbreiteter Irrtum“, in: Unabhängige Deutsche Universitätszeitung, Heft 4, S. 19ff. Hood, Christopher (1991): A Public Management For All Seasons?, in: Public Administration, Vol. 69, pp. 3 ff. Hopt, Klaus (1993): Aktionärskreis und Vorstandsneutralität, in: Zeitschrift für Unternehmens- und Gesellschaftsrecht (ZGR), S. 534ff. Hopt, Klaus / Wiedemann, Herbert (Hrsg.) (2005): Großkommentar AktG, §§ 95 –117, 4. Aufl., 24. Lieferg. Horstkotte, Hermann (2001): Zukunft der Hochschulen verheißt Warentest, in: Unabhängige Deutsche Universitätszeitung, Heft 22, S. 14ff. HRK (Hrsg.) (2004): Professionalisierung als Leistungsaufgabe, Entschließung vom 08. 06. 2004. Huber, Herwart (2004): Beirat und Beiratsmitglied – praxisrelevante Aspekte für ihre Tätigkeit, in: GmbHR, S. 772ff. Hüffer, Uwe (2008): Aktiengesetz, 8. Aufl. Ipsen, Jörn (2001): Hochschulen als Unternehmen? – Zum Referentenentwurf eines „Gesetzes zur Hochschulreform in Niedersachsen“ vom 22. September 2000, in: Niedersächsische Verwaltungsblätter, S. 8ff. Jensen, Michael C. / Meckling, William H. (1976): Theory of the firm. Managerial behavior, agency costs, and ownership structure, in: Journal of Financial Economics, Vol. 3, No. 4, pp. 305 ff. Kehm, Barbara M. / Lanzendorf, Ute (2008): Der Hochschulrat, er lebe hoch?, in: Unabhängige Deutsche Universitätszeitung, Heft 5, S: 20ff. Kempen, Bernhard (1999): Bayerische Hochschulräte, in: Bayrische Verwaltungsblätter, S. 454ff. Kilian, Michael (2005): Das neue Hochschulgesetz des Landes Sachsen-Anhalt, in: Landes- und Kommunalverwaltung (LKV), S. 195ff. Klatt, Matthias / Koller, Sabine (2008): Forschungsfreiheit für die Jungen, in: Unabhängige Deutsche Universitätszeitung, Heft 3, S 22ff. Klenk, Tanja (2008): Modernisierung der funktionalen Selbstverwaltung. Knauff, Matthias (2007): Die Hochschulverfassung nach dem nordrhein-westfälischen Hochschulfreiheitsgesetz unter besonderer Berücksichtigung des Vizepräsidenten für den Bereich der Wirtschafts- und Personalverwaltung, in: Wissenschaftsrecht, S. 380ff.
Die Aktiengesellschaft als Regelungsvorbild
315
Knemeyer, Franz-Ludwig (2001): Die Fachbereiche / Fakultäten im Hochschulbinnenrecht – Aufgabenverantwortung und Aufgabenerfüllung, Rechtmäßigkeitskontrolle und Rechtsschutzmöglichkeiten, auch im Vergleich zum Kommunalrecht, in: Festschrift für Hartmut Schiedermair, S. 534ff. Knoke, Mareike (2002): Nur Berlin nicht, in: Unabhängige Deutsche Universitätszeitung, Heft 17, S. 14ff. Knoke, Mareike (2008): Graf Wettbewerb, in: Unabhängige Deutsche Universitätszeitung, Heft 12, S. 16ff. Korte, Kathrin (2009): Die Information des Aufsichtsrats durch die Mitarbeiter: Whistleblowing und Mitarbeiterbefragung als Mittel zur Verbesserung der Informationsasymmetrien in der AG. Kwickers, P. (2005): Governing Governance, in: International Journal for Education Law and Policy, Vol. 1, Issue 1 – 2, pp. 73ff. Landtag von Baden-Württemberg (2004): Gesetzentwurf der Landesregierung – zweites Gesetz zur Änderung hochschulrechtlicher Vorschriften (Zweites Hochschulrechtsänderungsgesetz – 2. HRÄG) vom 06.Oktober 2004, Landtags-Drucksache 13/3640. Landtag des Freistaates Bayern (2005a): Beschlussempfehlung und Bericht des Ausschusses für Verfassungs-, Rechts- und Parlamentsfragen zum Gesetzesentwurf der Staatsregierung zur Änderung des Bayerischen Schlichtungsgesetzes und des Gesetzes zur Ausführung des Gerichtsverfassungsgesetzes und von Verfahrensgesetzen des Bundes vom 01. Dezember 2005, Landtags-Drucksache 15/4391. Landtag des Freistaates Bayern (2005b): Gesetzentwurf der Staatsregierung eines bayrischen Hochschulgesetzes (BayHSchG) vom 06. Dezember 2005, Landtags-Drucksache 15/4396. Landtag Brandenburg (2008): Gesetzentwurf der Landesregierung – Gesetz zur Neuregelung des Hochschulrechts (Brandenburgisches Hochschulgesetz) vom 26. August 2008, Landtags-Drucksache 4/6419. Landtag Hessen (2000): Zweites Gesetz zur Änderung des Hessischen Hochschulgesetzes, Landtags-Drucksache 15/1076. Landtag von Mecklenburg-Vorpommern (2001): Gesetzentwurf der Landesregierung – Entwurf eines Gesetzes über die Hochschulen des Landes Mecklenburg-Vorpommern (Landeshochschulgesetz – LHG M-V) vom 04. Oktober 2001, LandtagsDrucksache 3/2311. Landtag Niedersachsen (2001): Stellungnahme der Landeshochschulkonferenz Niedersachsen zum Entwurf eines Gesetzes zur Hochschulreform in Niedersachsen vom 31. Mai 2001, Landtags-Drucksache 14/2541. Landtag Nordrhein-Westfalen (2006): Gesetzentwurf der Landesregierung zum Hochschulfreiheitsgesetz vom 19. Juni 2006, Landtags-Drucksache 14/2063. Landtag des Saarlandes (2004): Gesetzentwurf der Regierung des Saarlandes – Gesetz über die Universität des Saarlandes (Universitätsgesetz – UG) vom 03. März 2004, Landtags-Drucksache 12/1087.
316
Tim Drygala
Landtag des Freistaates Sachsen (2008): Gesetzentwurf der Staatsregierung – Gesetz über die Hochschulen im Freistaat Sachsen (Sächsisches Hochschulgesetz – SächsHG) vom 01. Juli 2008, Landtags-Drucksache 4/12712. Landtag Schleswig-Holstein (2006): Entwurf eines Gesetzes über die Hochschulen und das Universitätsklinikum Schleswig-Holstein (Hochschulgesetz-HSG) vom 28. September 2006, Landtags-Drucksache 16/1007. Landtag des Freistaates Thüringen (2006): Gesetzentwurf der Landesregierung – Thüringer Gesetz zur Änderung hochschulrechtlicher Vorschriften vom 20. September 2006, Landtags-Drucksache 4/2296. Lange, Stefan / Schimank, Uwe (2007): Zwischen Konvergenz und Pfadabhängigkeit: New Public Management in den Hochschulsystemen ausgewählter OECD-Länder, in: Holzinger, Katharina / Helge Joergens / Christoph Knill (Hrsg.): Transfer, Diffusion und Konvergenz von Politiken, S 539ff. Langenbucher, Katja (2008): Aktien- und Kapitalmarktrecht. Laqua, Alexander (2004): Der Hochschulrat zwischen Selbstverwaltung und staatlicher Verwaltung. Lindner, Josef Franz (2007): Zum Rechtsstatus der Fakultät, in: Wissenschaftsrecht, S. 254ff. Löwer, Wolfgang / Sturm, Markus (2003): Anatomie einer Fakultätsauflösung – Rationaler Zielvereinbarungsvollzug oder Schelmenstück?, in: Wissenschaftsrecht, S. 308ff. Lutter, Marcus (2001): Vergleichende Corporate Governance – Die deutsche Sicht, in: Zeitschrift für Unternehmens- und Gesellschaftsrecht, S. 224ff. Lutter, Marcus (2006): Information und Vertraulichkeit im Aufsichtsrat, 3. Aufl. Lutter, Marcus (2009): Bankenkrise und Organhaftung, in: Zeitschrift für Wirtschaftsrecht, S. 179ff. Lutter, Marcus / Hommelhoff, Peter (2009): GmbHG, 17. Aufl. Lutter, Marcus / Krieger, Gerd (2008): Rechte und Pflichten des Aufsichtsrats, 5. Aufl. Maurer, Hartmut (1977): Zur Rechtsstellung der Fachbereiche, in: Wissenschaftsrecht, S. 193ff. Mayntz, Renate (2002): University Councils: An Institutional Innovation in German Universities, in: European Journal of Education, Vol. 37, pp. 21ff. Meier, Frank (2009): Die Universität als Akteur. Müller-Böling, Detlef (1999): Der Tagesspiegel, 06. 03. 1999. Müller-Böling, Detlef (2000): Die entfesselte Hochschule. Müller-Böling, Detlef / Fedrowitz, Jutta (1998): Leitungsstrukturen für autonome Hochschulen, Verantwortung, Rechenschaft, Entscheidungsfähigkeit. Muth, Melinda / Donaldson, Lex (1998): Stewardship theory and board structure: a contingency approach, in: Corporate Governance, Vol. 6, No. 1, pp. 5ff. Nagel, Bernhard im Interview mit Prußky, Christine (2008): „Irgendwann gibt es sicher eine Theorie“, in: Unabhängige Deutsche Universitätszeitung, Heft 12, S. 14ff.
Die Aktiengesellschaft als Regelungsvorbild
317
OECD (Hrsg.) (1995): Governance In Transition: Public Management Reforms in OECD Countries. Prußky, Christine (2000): Allein in eisigen Höhen, in: Unabhängige Deutsche Universitätszeitung, Heft 5, S. 12ff. Raiser, Thomas / Veil, Rüdiger (2010): Recht der Kapitalgesellschaften, 5. Aufl. Rappaport, Alfred (1988): Creating Shareholder Value. Sandberger, Georg (2002): Organisationsreform und –autonomie – Bewertung der Reformen in den Ländern, in: Wissenschaftsrecht, Heft 35, S. 126ff. Schefflers, Eberhard (2003): ECLR – Aufgaben und Zusammensetzung von Prüfungsausschüssen (Audit Committees), in: Zeitschrift für Unternehmens- und Gesellschaftsrecht, S. 236ff. Schelsky, Helmut (1969): Abschied von der Hochschulpolitik oder die Universität im Fadenkreuz des Versagens. Schenke, Wolf-Rüdiger (2005): Neue Fragen an die Wissenschaftsfreiheit – Neue Hochschulgesetze im Lichte des Art. 5 III GG, in: Neue Zeitschrift für Verwaltungsrecht, S. 1000ff. Schimank, Uwe (2002): Neue Steuerungssysteme an den Hochschulen. Schipanski, Dagmar im Interview mit Küntz-Brunner, Ruth (2001): Als Dienstleister profilieren, in: Unabhängige Deutsche Universitätszeitung, Heft 22, S. 12ff. Schmidt, Karsten (2002): Gesellschaftsrecht, 4. Aufl. Schmidt, Karsten / Lutter, Marcus (2008): Aktiengesetz. Schmoch, Ulrich (2008): Weniger Kontrolle ist mehr, in: Unabhängige Deutsche Universitätszeitung, Heft 9, S. 22ff. Schneider, Uwe H. (2003): Compliance als Aufgabe der Unternehmensleitung, in: Zeitschrift für Wirtschaftsrecht, S. 645ff. Schröder, Jürgen (2008): Privat geht alles besser!? – Anmerkungen zur Novellierung des sächsischen Hochschulrechts, in: Sächsische Verwaltungsblätter, S. 133ff. Schweiger, Maximilian D. (2005): Rechtliche Grenzen der Ökonomisierung von Verwaltungshandeln – dargestellt am Beispiel der Förderung der beruflichen Weiterbildung gem. §§ 77 ff. SGB III, in: Die Sozialgerichtsbarkeit (SGb), S. 146ff. Semler, Johannes (1996): Leitung und Überwachung der Aktiengesellschaft: die Leitungsaufgabe des Vorstands und die Überwachungsaufgabe des Aufsichtsrats, 2. Aufl. Shattock, Michael (2006): Managing Good Governance in Higher Education. Simon, Dagmar / Knie, Andreas (2008): Innovation durch Vielfalt?, in: Unabhängige Deutsche Universitätszeitung, Heft 7, S. 21ff. Spindler, Gerald / Kepper, Katrin (2005): Funktionen, rechtliche Rahmenbedingungen und Gestaltungsmöglichkeiten des GmbH-Beirats, in: Deutsches Steuerrecht (DStR), S. 1738ff. Spindler, Gerald / Stilz, Eberhard (2007): Aktiengesetz, 1. Auflage. Statistisches Bundesamt (Hrsg.) (2009): Pressemitteilung Nr. 104 vom 19. 03. 2009.
318
Tim Drygala
von Staudinger, Julius (2006): Kommentar zum Bürgerlichen Gesetzbuch, §§ 657 –704 (Geschäftsbesorgung). Stoppel, Alex (2008): Die Regierung der Hochschule: eine governmentalitätstheoretische Analyse der aktuellen Strukturreformen. Teubner, Gunther (2002): Hybrid Laws: Constitutionalizing Private Governance Networks, in: Kagan, Robert A. / Martin Krygier / Kenneth Winston (Hrsg.): Legality and Community, Berkeley, pp. 311ff. Thieme, Werner (2004): Hochschulrecht, 3. Aufl. Trute, Hans Heinrich (2000): Die Rechtsqualität von Zielvereinbarungen und Leistungsverträgen im Hochschulbereich, in: Wissenschaftsrecht, S. 134ff. Van Bebber, Frank (2001): Rat ist gefragt, in: Unabhängige Deutsche Universitätszeitung, Heft 21, S. 14ff. Xuân-Müller, Christine (2008): Wie der Wettbewerb laufen lernte, in: Unabhängige Deutsche Universitätszeitung, Heft 12, S. 9ff. Zieglmeier, Christian (2007): Die Systematik der Haftung von Aufsichtsratsmitgliedern gegenüber der Gesellschaft, in: Zeitschrift für Unternehmens- und Gesellschaftsrecht, S. 144ff. Zöllner, Wolfgang / Noack, Ulrich (Hrsg.) (2010): Kölner Kommentar zum Aktiengesetz, Bd. 2/1, 3. Aufl.
Zur Industrialisierung der empirischen Wirtschaftsforschung: Das Beispiel der amerikanischen „model shops“ Von Ullrich Heilemann 1
I. Einführung Herstellungs- und Verwertungsbedingungen von Gütern und Dienstleistungen sind in der Regel unterschiedlich. Demzufolge auch die sie bestimmenden Prinzipien, so dass es zwischen den beiden zu Spannungen kommt. Besonders häufig ist dies in der geistigen, der künstlerischen und der wissenschaftlichen, Produktion der Fall. Marktbedingte Effizienzerfordernisse der Verwertungsseite scheinen im Widerspruch zu als notwendig oder gar konstitutiv erachteten Produktionsbedingungen wie „Offenheit“, „Zweckfreiheit“ und „Muße“ zu stehen. Bezogen auf die wissenschaftliche Produktion: „Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissensgesellschaft?“ – das Thema dieser Konferenz. Zwar können auch in der Wissenschaft Entstehungs- und Verwertungsbedingung harmonischer Natur sein. Aber der Eindruck konfligierender Beziehungen überwiegt – mal mehr, mal weniger, je nach Fachgebiet, seinem Entwicklungsstand, seinen Marktbedingungen, den Produzenten usw. Gegensatzpaare wie Grundlagen- / Anwendungsforschung, universitäre- / Industrieforschung, science / technology machen dies anschaulich. Sind die Beziehungen aber tatsächlich so einfach und eindeutig, wie diese Antonymien suggerieren, oder sind sie nicht, wie z. B. für die Kunst gezeigt, 2 sehr viel differenzierter, reflexiver und auch instabiler? Was bestimmt die Entstehungs- und Verwertungsbedingungen von „Wissenschaft“? Welchen Einflüssen unterliegen diese Bedingungen ihrerseits? Im Folgenden wird diesen Fragen an einem Beispiel aus den Wirtschaftswissenschaften nachgegangen, genauer am Beispiel der Industrialisierung der empirischen Wirtschaftsforschung in den Vereinigten Staaten. Anfänge dieses 1 Prof. Dr. Ullrich Heilemann war bis 2010 Inhaber des Lehrstuhls für Empirische Wirtschaftsforschung der Wirtschaftswissenschaftlichen Fakultät der Universität Leipzig. Für ihre vielfältige und engagierte Unterstützung ist der Autor Dipl.-Kff. Sissy Ißleb verbunden. Für hilfreiche Hinweise auf neuere Entwicklungen bei den model shops bin ich Prof. Dr. André Jungmittag verbunden. 2 Hacks (1988).
320
Ullrich Heilemann
Prozesses sind dort bereits in der Zeit vor dem Ersten Weltkrieg auszumachen, seine eigentliche Entfaltung setzt allerdings erst in den 1960er Jahren ein und greift dann in abgeschwächter Form auch auf die übrigen westlichen Industrieländer über. Sichtbaren Ausdruck fand er für das Fach und Teile der Öffentlichkeit in der Entstehung, vor allem aber in der Verbreitung makroökonometrischer Modelle und ihrer Ergebnisse. (Zu Begriff und Charakteristika der Modelle gleich mehr.) Bau und Anwendung dieser Modelle stellen eine der großen Leistungen der Wirtschaftswissenschaften in der zweiten Hälfte des 20. Jahrhunderts dar. Wenn dogmengeschichtlich die Zeit nach dem Zweiten Weltkrieg als „age of technique“ 3, der Professionalisierung der Ökonomen 4 bezeichnet wird, dann liegt dies maßgeblich an den makroökonometrischen Modellen und den von ihnen angestoßenen und getragenen Entwicklungen. Aber nicht nur die Modelle selbst erwiesen sich als Epochenprägend. Wie keine andere Methode veränderten sie Organisation und Betrieb der empirischen Wirtschaftsforschung und stehen in der Konjunkturforschung für deren Übergang vom Handwerk und Gewerbe zur Industrialisierung 5 und Kommerzialisierung. Gestützt auf eine strenge Arbeitsteilung und kapitalintensive Produktion entstanden in den 1960er eine Reihe von spezialisierten Forschungsinstituten („model shops“), die mit Kundenschulung, Marketing und Vertrieb erst noch zu entwickelnden Markt, zunehmend gewinnorientiert makroökonometrische Modelle entwickelten, sie anwendeten und die sie und deren Ergebnisse vertrieben. Sie erwiesen sich nicht nur als kommerziell erfolgreich, sondern bestimmen seitdem, in unterschiedlicher Intensität, in der gegenwärtigen Krise wieder fast ausschließlich, die makroökonomische Diskussion und Politik. Der Erfolg der model shops und dessen Umstände legen es nahe, an ihrem Beispiel dem Konflikt von Herstellungs- und Verwertungsbedingungen wissenschaftlicher Produktion nachzugehen. Dabei interessieren zunächst die Entstehung der Modelle bzw. der model shops und ihre Voraussetzungen, also die Rolle von „Daten“, „Methoden“ sowie – das eigentlich Neue – der für ihre Nutzung erforderlichen hardware und software einerseits und die Anforderungen und Erwartungen an die Modellarbeit andererseits. Es stellt sich aber auch die Frage nach den Konsequenzen, d. h. die weitere Entwicklung der Modelle, ihrer Struktur und ihre Anwendungspraxis im Lichte kommerzieller und wissenschaftlicher Kriterien. Aktuelle Arbeiten zum Thema liegen offenbar nicht vor, von älteren Arbeiten ist vor allem auf die Untersuchung von Daub zu verweisen. 6 Beschränkt 3
Seligman (1963), S. 694ff. Fourcade (2009), S. 129. 5 Das angelsächsische „industry“ trifft die Sache nicht ganz, vielfach ist damit lediglich Gewerbe oder Branche gemeint. 6 Vgl. Daub (1987). 4
Zur Industrialisierung der empirischen Wirtschaftsforschung
321
auf Kanada, beleuchtet sie sehr detailliert vor allem die betriebswirtschaftlichen Dimensionen des kommerziellen Erfolgs der model shops; dessen fachlichwissenschaftlichen Voraussetzungen, insbesondere die Konsequenzen der model shops für die Modell-Entwicklung, interessieren dort aber nur wenig. Diese zu beleuchten und damit zu einem differenzierten Bild des Konflikts von Produktions- und Verwertungsbedingen wissenschaftlicher Arbeit zu gelangen, ist Gegenstand der vorliegenden Darstellung. Naturgemäß kann es dabei weder um eine Geschichte des makroökonometrischen Modellbaus 7, noch der model shops, der Rolle, die der Computer bei dieser Entwicklung spielte oder den Komplex „Wissenschaftler / Unternehmer“ gehen. Die Darstellung beschränkt sich auf die Vereinigten Staaten. In Europa nahm der Modellbau zwar einen ähnlichen Weg wie dort, aber die amerikanischen model shops konnten hier und vor allem in Deutschland kaum Fuß fassen, eigene Gründungen größeren Stils sind sehr selten. 8 Ferner wird das Thema hier nur aus der Fachperspektive behandelt, wissenschaftssoziologische Aspekte werden nur am Rande angesprochen. Die Literatur dazu hat seit „Little science, big science“ 9 in einem Maße an Breite und Tiefe gewonnen, das von Fachfremden nicht mehr zu überblicken ist. Für die Natur- oder die Ingenieurswissenschaften sind die hier für einen Teilbereich der Ökonomie skizzierten Entwicklungen seit langem bekannt. 10 Inwieweit sich aus den Ergebnissen über den betrachteten Fall hinaus Schlussfolgerungen ziehen lassen, bleibt hier offen. 11 An Anknüpfungspunkten zu umfassenden Arbeiten, wie etwa der von Wingens 12, fehlt es nicht. Als Ergebnis der vorliegenden Arbeit spricht jedenfalls viel dafür, die in den Wirtschaftswissenschaften traditionell mindestens skeptisch gesehene Beziehung zwischen universitärer und außer-universitärer, kommerziell orientierter empirischer Forschung in einem neuen Licht zu betrachten. Im nächsten Abschnitt (II.) wird ein kurzer Blick auf die Bedeutung makroökonometrischer Modelle für die Entwicklung des Fachs und für die Wirtschaftspolitik geworfen. Der Abschnitt illustriert die Bedeutung des Untersuchungsgegenstandes und liefert die begrifflichen Grundlagen der weiteren Ausführungen. 7
Vgl. Bodkin / Klein / Marwah (1991); Lodewijks (1989). Eine der wenigen, vergleichbaren Ausnahmen ist die Feri AG in Bad Homburg. – Wichtigste Gründe für die Schwierigkeiten in Deutschland sind neben generellen und spezifischen Faktoren (Heilemann (1982)) vor allem, dass die staatlich alimentierten Wirtschaftsforschungsinstitute, die „Gemeinschaftsdiagnose“ und der Sachverständigenrat kurzfristige Wirtschaftsprognosen, überwiegend mehrfach im Jahr, seit Jahrzehnten kostenlos anbieten. 9 Price (1974). 10 Vgl. Malecki / Olszewski (1965); Ben-David (1968). 11 Vgl. dazu z. B: für die jüngere Geschichte der Genomen-Forschung Venter (2009) sowie allgemein den Beitrag von Bente (2010) in diesem Band. 12 Vgl. Wingens (1988). 8
322
Ullrich Heilemann
Abschnitt III geht den Ursachen und Voraussetzungen, den Produktions- und Verwertungsbedingungen der Modelle in den model shops nach. Abschnitt IV befasst sich mit der Kritik an den Modellen und den Antworten der „Industrie“. Zusammenfassung und Konsequenzen der Befunde beschließen die Ausführungen (V).
II. Makroökonometrische Modelle: Entstehung, Entwicklung, Leistung, Verbreitung Das heute sehr ausgeprägte (und zahlungsbereite) Interesse von Wirtschaft und Politik an regelmäßigen, quantitativen diagnostischen und prognostischen Aussagen zur Konjunkturentwicklung hat seinen Ursprung zu Beginn des 20. Jahrhunderts in amerikanischen Großunternehmen. Sie zielten damit nicht nur auf eine Verbesserung ihrer eigenen Kosten- und Absatzplanung, sondern hatten mit Bezug auf eine „geordnete Marktentwicklung“ auch die Informationsbedürfnisse ihrer Mitbewerber im Auge. Die Bedürfnisse trafen sich mit den eben entwickelten statistischen Prognosemethoden und deren Bündelung einzelner Datenreihen zu „Indikatoren“, zu Systemen von Indikatoren, zu „Barometern“. 13 Es kam zur Gründung von Institutionen und Einrichtungen, die diese gewerbsmäßig erstellten und vertrieben. 14 Mit dem Einsetzen der Weltwirtschaftskrise 1929 fand diese erste Phase gewerbsmäßiger Erstellung gesamtwirtschaftlicher Prognosen ihr Ende: Keines der damaligen „Konjunktur-Barometer“ hatte die Krise selbst, noch ihre Tiefe kommen sehen, wobei offen ist, ob man sie hätte sehen können. Bis in die 1950er Jahre änderte sich an dieser Situation wenig. Die methodische Entwicklung war indessen, z.T. als Reaktion auf das Prognosedebakel, nicht stehen geblieben. Auf der Grundlage der Pionierarbeiten von Jan Tinbergen, Ragnar Frisch und anderer in den 1930er und 1940er Jahren kam es zu Beginn der 1950er Jahre u.a. durch Lawrence Klein und James Duesenberry zum Bau gesamtwirtschaftlicher Modelle, die theorie- und vor allem statistisch gestützt antraten, die bisherigen Verfahren und Vorgehensweisen der Konjunkturanalyse und -prognose abzulösen. (Tinbergen und Frisch wurden für diese Arbeiten gemeinsam mit dem ersten Nobelpreis (1969) ausgezeichnet, Klein erhielt ihn 1980). Gegenstand der Modelle ist eine quantitative Erklärung oder Beschreibung der einzelnen Aktivitäten einer Volkswirtschaft und deren Zusammenwirken mit dem Ziel, Güterproduktion, Einkommen, Beschäftigung, Preisniveau, Ausgaben und Einnahmen des Staates, Einfuhr und Ausfuhr einer Volkswirtschaft zu 13 14
Vgl. hierzu und dem Folgenden Morgan (1982), S. 56ff. Vgl. Fourcade (2009), Friedman (2007).
Zur Industrialisierung der empirischen Wirtschaftsforschung
323
bestimmen und zu prognostizieren. Das Grundgerüst bildeten dabei einerseits sog. stochastische Gleichungen, die die Hypothesen (z. B. die Konsumfunktion über das Konsumverhalten der Volkswirtschaft), technische Beziehungen (z. B. die Produktionsfunktion) und institutionelle Beziehungen (z. B. die Erklärung der Steuereinnahmen) erklärten; andererseits sog. Definitionen, die vor allem die definitorischen Beziehungen der Volkswirtschaftlichen Gesamtrechnung (VGR) abbildeten. Zusammen erklärten sie die gesamtwirtschaftliche Verwendung, die Verteilung und die Entstehung des Bruttoinlandsprodukts (BIP), die Preise sowie die Einnahmen und Ausgaben des Staates. Bestimmt wurde die gesamtwirtschaftliche Entwicklung von den Interdependenzen dieser Erklärungen und der endogenen Dynamik des so entstandenen Gleichungssystems einerseits und von den Annahmen bezüglich der „exogenen“ Variablen, wie z. B. dem Welthandel, den Rohstoffpreisen, den Wechselkursen, den Zinsen oder den wirtschaftspolitischen Maßnahmen des Staates andererseits. Die Zahl der ökonometrischen Modelle nahm seit Mitte der 1950er Jahre im Gleichschritt mit den rechentechnischen Möglichkeiten stetig zu, desgleichen ihre Leistungsfähigkeit, zumindest, wenn der Begriff weit interpretiert wird (auf die Gründe dafür geht der nächste Abschnitt ein). 15 Allein in den Vereinigten Staaten stieg die Zahl der ökonometrischen Modelle im Zeitraum 1939 bis 1969 auf fast 70 an, um in der folgenden Dekade fast 200 und bis 2001 dann mehr als 300 zu erreichen (Tabelle 1). 16 Die „produktivste“ Periode scheint dabei der Zeitraum 1954/1996 gewesen zu sein. 17 Indessen nahmen nicht nur die Anzahl der Modelle, sondern auch ihr Informationsgehalt, zumindest gemessen an ihrem Umfang, zu. 18 Bis in die 1960er Jahre enthielten die Modelle, nicht zuletzt aus hard- und software-technischen Gründen 19, oft nur bis zu 30 Gleichungen – davon etwa die Hälfte Definitionen – und erklärten auf hoher Aggregationsebene das Volkseinkommen – Staatsausgaben und Exporte waren exogen bestimmt.
15 Zu einer Genealogie der amerikanischen Modelle vgl. Intriligator / Bodkin / Hsiao (1996), S. 447ff. 16 Der Begriff des ökonometrischen Modells ist dabei weit gefasst und schließt auch input-output-Modelle mit ein. 17 Gemessen an der „Wachstumsphase“ der entsprechenden logistischen Kurve (Price (1974), S. 30ff.), d. h. von dem Zeitpunkt an, von dem drei Verdopplungsphasen in beide Richtungen zu registrieren sind; dauerten die Verdopplungsperioden zwischen vier und acht Jahre. 18 Vgl. hierzu und dem Folgenden Heilemann (2002); Bodkin / Klein / Marwah (1991), S. 57ff.; Eckstein (1983), S. 1ff. 19 Die ökonometrische Schätzung der stochastischen Gleichungen und die Lösung der interdependenten Modelle „von Hand“ war extrem aufwändig. Vgl. Renfro (2004a, b); Schinck (2004).
324
Ullrich Heilemann Tabelle 1 Ökonometrische Modelle für die sieben großen OECD-Länder: Anzahl und Strukturen, 1939 –2001 Anzahl der Gleichungen 1 Modelle
Periodizität Exogene
stocha- Defini- Insgesamt stisch tionen
Variablen 1
Jahr Viertel- Sonstige jahr
1939 – 1960 Vereinigte Staaten
14
9
6
15
7
11
3
0
Japan
4
8
4
12
7
0
4
0
Bundesrepublik
2
8
2
10
5
2
0
0
Frankreich
-
-
-
-
-
-
-
-
Vereinigtes Königreich
3
9
10
19
4
3
0
0
Italien
-
-
-
-
-
-
-
-
Kanada
4
12
11
23
7
3
1
0
1960 – 1969 Vereinigte Staaten
45
17
10
40
16
16
28
1
Japan
21
20
13
62
9
6
11
4
Bundesrepublik
14
11
8
19
8
11
3
1
Frankreich
6
16
15
298
10
6
0
0
Vereinigtes Königreich
11
25
4
29
10
8
3
0
Italien
3
10
3
13
6
3
0
0
Kanada
11
21
30
51
37
6
5
0
1970 – 1979 Vereinigte Staaten
91
47
49
131
32
24
94
5
Japan
48
37
94
165
42
21
22
4
Bundesrepublik
72
27
35
97
18
31
35
6
Frankreich
25
35
48
228
27
17
8
0
Vereinigtes Königreich
53
54
43
100
26
21
31
1
Italien
28
16
12
37
13
16
12
0
Kanada
29
81
154
248
80
13
16
0
Zur Industrialisierung der empirischen Wirtschaftsforschung
325
1980 – 1989 Vereinigte Staaten
62
15
17
61
16
39
18
5
Japan
36
21
Bundesrepublik
76
51
31
79
14
21
13
2
54
290
17
49
23
4
Frankreich
53
Vereinigtes Königreich
48
43
240
552
73
35
16
2
27
29
103
13
22
23
3
Italien
33
36
56
136
36
14
16
3
Kanada
24
30
85
141
62
12
10
2
1990 – 1999 Vereinigte Staaten
23
19
7
100
9
14
8
1
Japan
12
9
7
125
6
10
2
0
Bundesrepublik
19
13
16
72
13
13
5
1
Frankreich
13
19
86
123
55
7
5
1
Vereinigtes Königreich
13
7
4
67
5
10
2
1
Italien
8
7
6
29
4
6
2
0
Kanada
10
6
5
146
2
6
4
0
1939 – 2001 Vereinigte Staaten
234
28
27
86
21
103
119
12
Japan
98
32
61
139
29
50
40
8
Bundesrepublik
183
34
38
168
16
105
65
13
Frankreich
97
36
156
395
55
65
29
3
Vereinigtes Königreich
128
36
30
90
17
64
59
5
Italien
72
24
31
80
22
39
30
3
Kanada
78
44
89
163
55
40
36
2
1
Durchschnitte. Eigene Berechnungen nach Angaben bei Uebe (2001).
326
Ullrich Heilemann
Dies änderte sich mit der „zweiten Generation“ makroökonometrischer Modelle ab Mitte der 1960er Jahre. Mit dem Brookings-Modell (1965), dem WhartonModell (1967) und dem Federal-Reserve-MIT-Penn-Modell (1972) traten Großmodelle mit mehreren hundert Gleichungen auf den Plan, die die bisherigen Analyse- und Prognosemöglichkeiten (s. unten) – von der Möglichkeit der Simulation nicht zu sprechen – um ein Vielfaches übertrafen. Große praktische Bedeutung im Sinne ständiger Anwendung für Prognose und Simulationszwecke erlangten dabei lediglich die späteren Versionen des Wharton-Modells sowie das Modell von Data Resources, Inc. (DRI) (1976, 1983); dagegen hatte das Brookings-Modell mit seinen 176 Gleichungen (1972: 300 Gleichungen) lange Zeit beträchtliche rechentechnische Schwierigkeiten, die seine Anwendung verhinderten. Sie rührten nicht zuletzt wohl auch daraus, dass es ein Produkt eines Forschungsverbundes einzelner (renommierter) Spezialisten war, dem eine klare Zielsetzung fehlte und dessen Leitung nur beschränkten Einfluss auf die Entwicklung hatte. Es zeichnete die beobachtete Entwicklung nur unzureichend nach und wurde nie zu ex ante-Prognosen eingesetzt. Der Umfang der Modelle wuchs rasch auf 200 und mehr Gleichungen an, wofür neben der Endnachfrage vor allem die Abbildung des monetären Bereichs und des Industriesektors verantwortlich waren (vgl. Tabelle 2). Bis Mitte der 1970er Jahre stieg der Umfang der amerikanischen Modelle auf ca. 1 000 Gleichungen an. Stochastische und definitorische Gleichungen sowie die Anzahl der exogenen Variablen hielten sich dabei in etwa die Waage. Mit der Verbesserung der rechentechnischen Möglichkeiten wurden die Modelle zunehmend „kurzfristiger“, d. h. sie basierten nun auf Vierteljahresdaten. Das Hypothesengebäude der Modelle – die Grundlagen der Schätzgleichungen – machte im Zeitablauf erhebliche Wandlungen durch. Zunächst dauerte es bis weit in die 1950er Jahre, bis sich für die wichtigsten makroökonomischen Aggregate wie Privater Verbrauch, Investitionen usw. und den Modellaufbau insgesamt, eine Art Erklärungsstandard herausgebildet hatte (Tabelle 2). In seinen Grundzügen war dieser zwar von der makroökonomischen Theorie und vom aktuellen wirtschaftspolitischen Prozessverständnis geprägt. Bei den in der Konjunkturanalyse verwendeten Modellen war dabei aber von Anfang an unter Bezeichnungen wie „Erweiterung“ und „Modifikation“ – wie in der makroökonomischen Theorie – ein erheblicher Eklektizismus zu registrieren, der in erster Linie einer Verbesserung der Erklärungs- und – hoffentlich! – der Prognosegüte diente. In dem Maße, wie sich die Erklärungstiefe bei einzelnen Aggregaten bzw. die Zahl der abgebildeten Sektoren vergrößerte, wurde eine konsistente oder gar einheitliche theoretische Fundierung immer schwieriger, und es musste auf Erklärungen aus unterschiedlichen Hypothesengebäuden zurückgegriffen werden.
Zur Industrialisierung der empirischen Wirtschaftsforschung
327
Tabelle 2 Zur Erklärungsstruktur ausgewählter ökonometrischer Modelle für die Vereinigten Staaten, 1955 – 1983 1 Modell KleinGoldberger (1955) Angebot
9
Endogen
14 3
3
10
1
7
6
Endogen
–
6
6
6
13
21
230
Endogen
4
2
Exogen
1
2
35
192 38
13
45
Endogen
–
4
Exogen
–
9
34
67 44
4
–
117
111
Exogen
–
26 19
118
1215
Endogen
20
76
Exogen
14
42
1
32
12
5
47 101 130
Endogen
Insgesamt
26
17
Exogen
Sonstige
24 148
– 4
207
6
8
Finanzsektor
44
17
Endogen
Staatssektor
53 231
17
– 8
267
9
Exogen Preise
13
23 2
Exogen Verteilung
DRI (1983)
320 23
6 2
Endogen
MPS 2 (1968)
32 3
Exogen Nachfrage
Wharton (1967)
171
923 292
Anzahl der Variablen. 2 Exogene Variablen nicht ausgewiesen. Eigene Berechnungen nach Angaben bei Intriligator, Bodkin, Hsiao (1996), S. 436 ff. –1) Exogene Variablen nicht ausgewiesen.
328
Ullrich Heilemann
Die Mehrzahl der hier relevanten makroökonometrischen Modelle wird mit dem Kleinste-Quadrate(KQ-)-Verfahren geschätzt. Auf die ökonometrischen und die hard- und softwaretechnischen Probleme, die bis in die 1970er Jahre wenig Alternativen zuließen (vom Nutzen abgesehen), soll hier nicht weiter eingegangen werden. 20 Die KQ-Ergebnisse weisen zwar aus rein ökonometrischer Perspektive eine Reihe von – schwer zu beziffernden – Mängeln auf, besitzen dafür aber vorteilhafte Prognoseeigenschaften. Vor allem sind sie robust gegenüber Fehlspezifikation und Unzulänglichkeiten der statistischen Basis, was für die model shops besonders wichtig ist. Überraschend war, dass sich die Modelle, ungeachtet ihrer wachsenden Anwendung und ihres zunehmenden Umfangs hinsichtlich Treffsicherheit, dem sich in der Nachkriegszeit neu herausgebildeten „informal GDP model“ („Iterative VGRMethode“) 21 als keineswegs überlegen erwiesen. Entsprechend blieb das „informal GDP model“ auch die am weitesten verbreitete Methode der Konjunkturprognose. Das änderte sich auch nicht, als die Modell-Praxis sich aus einer Reihe von Gründen von der mechanischen Anwendung der Modelle gelöst hatte, die Modellbauer an „Konjunkturerfahrung“ gewannen 22 und in die Prognosen und Simulationen, wie bei ihrem Konkurrenten, zahlreiche externe Informationen unterschiedlichen Ursprungs einflossen. Im Grunde erfolgte also eine Kreuzung von subjektiven, statistischen und theoretischen Erklärungen wie bei den Vorläufern in der Zwischenkriegszeit (s. unten). Durch diesen in der Geschichte der Wirtschaftsprognose keineswegs ungewöhnlichen Pragmatismus (s. o.) und angesichts der Wettbewerbssituation wurden zwei wesentliche, ursprüngliche Ansprüche der Modelle – Objektivität und Verwendung geprüfter Hypothesen – mehr oder weniger aufgegeben, zumal diese Korrekturen 23 selten begründet wurden und gelegentlich auch „finaler“ Natur waren, d. h. einer Annäherung der Modellergebnisse an das herrschende Prognosebild dienten. Es wurde damit immer schwieriger auszumachen, welchen Anteil an der Prognose „Otto [Eckstein]“, der Chef von DRI, oder „Larry [Lawrence Klein]“, Chef von Wharton Economic Forecasting (WEFA), hatten und welchen das jeweilige Modell. 20
Vgl. Goldberger (2004); Renfro (2004a, b). Vgl. Heilemann (1980). Das „informal GDP model“ teilt mit dem ökonometrischen Modell den Erklärungsrahmen, die Schätzungen der einzelnen Aggregate wie Privater Verbrauch, Investitionen usw. geschieht informal, d. h. aufgrund von Erfahrungsrelationen, Fallweisen Einschätzungen usw. (Zarnowitz (1992), S. 401ff. 22 Bei der Beurteilung der Treffsicherheit der Prognosen der model shops wird oft übersehen, dass diese eben nicht aus der Tradition der empirischen Konjunkturinstitute, sondern aus der akademischen makroökonomischen Forschung bzw. der Modellsphäre kamen. Der neue institutionelle Rahmen dürfte ein wichtiger Grund für den Erfolg der makroökonometrischen Modelle gewesen sein, im alten Rahmen war ihr Durchbruch sehr viel mühevoller, wie z. B. die Entwicklung in Deutschland zeigt. Der „Preis“ dieses neuen Rahmens war, dass die konjunkturelle Expertise erst noch zu erarbeiten war. 23 In der Regel in Gestalt sog. add-Faktoren, d h. Hinzufügungen zum absoluten Glied der Schätzgleichungen. 21
Zur Industrialisierung der empirischen Wirtschaftsforschung
329
Auf wenig Kritik stießen die Simulationen alternativer Entwicklungen des Prognoserahmens, fast ausschließlich der Annahmen, insbesondere der wirtschaftspolitischen, selten der in den Modellen abgebildeten Reaktionsmuster (Parameter). Hier standen die Vorzüge der großen Modelle mit ihren zahlreichen wirtschaftspolitischen „Instrumenten“ bezüglich Geschwindigkeit der Durchführung und Konsistenz der Modellergebnisse außer Frage. Auch dabei kann freilich nicht auf mehr oder weniger subjektive Korrekturen verzichtet werden. Damit wird zwar die Objektivität auch dieser Ergebnisse verletzt, immerhin aber in prinzipiell nachprüfbarer Weise, was eine erhebliche Bereicherung der fachlichen wie der wirtschaftspolitischen Diskussionen bedeutete. Mit den verschiedenen Ausdehnungen und Erweiterungen der Modelle ging ein „Schrumpfen“ der mit ihnen errechneten Fiskal-Multiplikatoren 24 einher – ganz im Sinne der Vorstellungen der Monetaristen. Inwieweit dies Folge der Modellerweiterungen, Reflex der Veränderungen der Reaktions-Parameter der Modelle und damit der beobachteten Entwicklung (z. B. der überschießenden Inflation) war oder schlicht „marktbedingte“ Anpassungen an ein verändertes wirtschaftspolitisches Credo war (das Keynesianische Credo wich zunehmend dem neoklassischen) blieb für Dritte im Dunkeln. Die Kunden der model shops interessierte dies indessen wenig.
III. Die Industrialisierung der empirischen Wirtschaftsforschung – Ursachen und Voraussetzungen Die skizzierte Entwicklung und damit der Weg zur Industrialisierung der empirischen Wirtschaftsforschung waren das Ergebnis verschiedener Entwicklungen, Akteure und Motive. Bis Ende der 1960er Jahre war ein wesentlicher Faktor das wissenschaftliche, primär das methodische, zunehmend aber auch das substanzwissenschaftliche Interesse. Besonders deutlich kommt dies in der starken Förderung, z. B. durch die seit 1958 aktive National Science Foundation (NSF) zum Ausdruck: Auf die Förderung von „large scale models“ entfiel im Zeitraum 1958 bis 1979 kontinuierlich ein wesentlicher Teil der Haupt-Förderungen. 25 Ab Ende der 1960er Jahre machten die wissenschaftlichen zunehmend erwerbswirtschaftlichen Interessen Platz, die schließlich, mit Ausnahme weniger 24 Sie geben an, wie hoch die sich aus einer Erhöhung der staatlichen Ausgaben insgesamt ergebenden Wirkungen z. B. auf das Bruttoinlandsprodukt sind. Üblicherweise liegen sie zwischen Werten von 1 und 2. 25 Allein die Forschergruppen um Lawrence Klein erhielten in diesem Zeitraum elf Förderungen von jeweils mindestens 175 000 Dollar, insgesamt wurden „large scale models“ mit 82 Projekten, also mindestens 14,4 Millionen Dollar gefördert (Newlon 1989).
330
Ullrich Heilemann
staatlich alimentierter Institute, der Zentralbanken und internationaler Organisationen, die weitere Entwicklung dominierten. Eine zentrale Rolle spielten dabei die Organisationsformen der Konjunkturforschung und deren Transformation durch die model shops. 1. Vom Virtuosentum zum Handwerk: die frühen amerikanischen Prognoseinstitute Ihren Ursprung hatten die amerikanischen Konjunkturinstitute in der Zeit vor dem ersten Weltkrieg, bis dahin waren Konjunkturanalyse und -prognose mehr oder weniger Sache einzelner und stark Personenorientiert. Für den Übergang spielten vor allem drei Entwicklungen eine Rolle. 26 Erstens, die zunehmende Nachfrage der sich herausbildenden Großunternehmen nach Einschätzungen der aktuellen und künftigen Wirtschaftsentwicklung; zweitens, die spektakuläre Verbreiterung der finanziellen Anlagemöglichkeiten als Folge der gewaltigen Expansion der Aktiengesellschaften, die ständig auch neue Broker-Institutionen und Banken mit entsprechenden Informationsbedarf hervorbrachte; drittens, das Andauern der wirtschaftlichen Schwankungen und Krisen – so die Paniken 1907 und 1920 (stets gefolgt von der Erwartung, dass auch wegen der Konzentration von Bank-Mitteln und Industrie eine Wiederholung ausgeschlossen sei). Als Reaktion auf diese Nachfrage wurden nach 1900 eine Reihe von Prognose-Agenturen oder -Instituten gegründet. Die bekanntesten und für die weitere Entwicklung wichtigsten waren: der von Roger Babson 1922 in New York, NY gegründete „Barometer Letter“ zu den gesamtwirtschaftlichen Aussichten, der „Harvard Economic Service“ und seine ebenfalls ab 1922 publizierten „Weekly / Montly Letter“ und das 1923 von Irving Fishers in New Haven, CT, ins Leben gerufene „Index Number Institute“, mit der in mehreren Zeitungen publizierten aber auch an private Abonnenten gelieferten „Business Page“. Alle drei Institutionen verfügten – in Gestalt ihrer Gründer bzw. Leiter – über beträchtliche akademische Reputation, namentlich Fisher, der als einer der führenden Ökonomen seiner Zeit (und des 20. Jahrhunderts insgesamt) gilt. Daneben beteiligte sich auch eine Reihe von „Unternehmern“ am Prognosegewerbe, darunter z. B. John Moody, aus dessen Gründung dann die Rating-Agentur „Moody’s“ hervorging. Die Motive für die Gründung der Institute variierten beträchtlich und reichten von der Unterstützung des traditionellen Geschäfts – der Verbreiterung der verfügbaren Datenbasis (Harvard Economic Committee) – bis hin zu wirtschaftspolitischen Motiven, so z. B. im Fall von Fisher, der für eine Stabilisierung des Dollars kämpfte. Generell ging es den Instituten aber in erster Linie um die Prognose. 26
Hierzu und dem Folgenden Friedmann (2007); Favero (2007); Richardson (1929).
Zur Industrialisierung der empirischen Wirtschaftsforschung
331
Auch die methodischen Grundlagen der Prognosen unterschieden sich, wobei sich kein Institut ausschließlich einer bestimmten Methode bediente oder diese zumindest nicht erkennen ließ. Im Grunde sind es bereits die gleichen, die in unterschiedlichen Kombinationen auch heute noch zum Grundstock der Konjunkturprognose zählen: 1. Befragungsbasierte bzw. subjektive Barometer-Methoden. Komplettiert durch die Ergebnisse schriftlicher Befragungen führender Geschäftleute und Bankiers, wird nach Maßgabe eines Vier-Phasen-Schemas der konjunkturellen Entwicklung aus der aktuellen Lage / Phase informal unmittelbar die künftige abgeleitet. 2. Statistikbasierte Barometer. Sie nutzen den statistischen Zusammenhang mehrerer Zeitreihen um zusammengefasst drei Gruppen von Aktivitäten – Spekulation, Geschäftsaktivität und „banking“ – zu beschreiben. Unterstellt, dass diese im Konjunkturzyklus systematisch aufeinander folgen, lässt sich so dass daraus die künftige Entwicklung ableiten. 3. Schließlich Irving Fishers kausal-orientierte Vorgehensweise. Sie ignoriert die phänomenologische oder historische / historizistische Perspektive und die Existenz von Konjunkturzyklen und stützt sich stattdessen ausschließlich auf die (Fisherschen) „Verkehrsgleichung“ 27. Letztendlich basieren seine Prognosen damit auf der Preisentwicklung und deren Konsequenzen für die Realzinsen. Vereinfachend: ein psychologischer Ansatz (Babson), ein historischer, nichttheoretischer Ansatz (Harvard Barometer), und schließlich ein theoretischer Ansatz (Fisher), wobei die Übergänge fließend waren. Die konkreten Analysen und Prognosen erfolgten in eigens dazu gegründeten Organisationen. Die Babson Statistical Organization zählte in der Produktionsabteilung, die die Forschung durchführte und die wöchentlichen Berichte verfasste etwa 300 Personen und etwa 43 Verkäufer in der Marketing-Abteilung. In mehr als 16 großen Städten wurden regelmäßig Prognosekonferenzen mit bis zu 500 Teilnehmern durchgeführt. Die Zahl der Subskribenten des „Barometer Letters“ betrug 12 000 bei einer Gebühr von 7,50 Dollar je Monat (in Preisen von 2010 ca. 100 Dollar). – Der Harvard Economic Service verfügte über einen Stab von 38 Personen, wovon 14 mit der Erstellung der Berichte befasst waren, der Rest mit Marketing, Verwaltung der Subskriptionen und allgemeiner Verwaltung. Die Verkäufer arbeiteten auf Provisionsbasis. Auf die Subskriptionen und das Anzeigengeschäft entfielen ca. ¾ der Einnahmen des akquirierten Neugeschäfts. Seinen Markt sah der Harvard Economic Service bei Unternehmen mit einem Aktienkapital von mehr als 500 000 Dollar (in Preisen von 2010: ca. 6, 5 27 Die Gleichung bezeichnet den definitorischen Zusammenhang zwischen dem Produkt aus realwirtschaftlicher Aktivität und Preisentwicklung auf der einen Seite und Geldmenge und Umlaufgeschwindigkeit auf der anderen.
332
Ullrich Heilemann
Mrd. Dollar). – Über Irving Fishers Organisation liegen offenbar entsprechende Angaben nicht vor. Der Kreis der Kunden wie auch der Mitarbeiter war international. Die Berichte gingen per Kabel auch an europäische Verlage, insgesamt saß etwa ein Fünftel der Kunden im Ausland. Was die Mitarbeiter angeht, war der Harvard Economic Service am exklusivsten, zählten zu ihnen doch u. a. auch die University of Cambridge, die London School of Economics, John Maynard Keynes und mit Ernst Wagemann auch das Institut für Konjunkturforschung in Berlin (das spätere DIW). Die Frage nach der Treffsicherheit der drei Dienste ist aus datentechnischen Gründen schwer exakt zu beurteilen. Für die weitere Entwicklung war ausschlaggebend, dass alle Prognosen den Börsenkrach von 1929 und die nachfolgende Depression zu spät erkannten und im Verlauf der Krise ihre Prognosen immer unschärfer wurden. Dies entging auch den Kunden nicht, bei allen Schwierigkeiten der Beurteilung im Detail. Der Harvard Economic Service berichtete jedoch, dass bereits die verfehlte Prognose der Rezession von 1923 einen (temporären) Rückgang der Zahl der Subskribenten zur Folge hatte. Den meisten Kunden ging es, erstens, darum, breit abgestützte, durchaus unterschiedliche Einschätzungen zu erhalten. Entsprechend nahmen sie häufig mehrere Dienste in Anspruch, auch um dadurch zu erfahren, was ihre Konkurrenten und Kunden erwarteten. Zweitens ging es um Quantifizierungen – im Unterschied zu den bei Geschäftsleuten üblichen qualitativen, partiellen Einschätzungen. Die Prognosen standen für Kompetenz und Autorität und Kompetenz, insbesondere, wenn sie mit einem Universitätssiegel versehen waren, wie im Falle des Harvard Economic Service oder Fishers. Generell wurde Glaubwürdigkeit (Plausibilität) als wichtiger erachtet als die tatsächliche Treffsicherheit; die Nicht-Prognose eines Aufschwungs wurde milder beurteilt als die eines Abschwungs. Der Börsenkrach und die nachfolgende Depression bedeutete das Ende der Mehrzahl der Prognoseinstitute oder jedenfalls ihrer konjunkturprognostischen Aktivitäten. Die von ihnen verwendeten Methoden selbst überlebten freilich bis zum heutigen Tage. 2. Vom Gewerbe zur Industrie: Die „model shops“ Das „Versagen“ der amerikanischen Prognose-Institute 1929 und in der anschließenden Depression hatte drei tiefgreifende Folgen: das Entstehen der makroökonomischen Theorie, die Entwicklung der Ökonometrie und die Ausweitung und Verbesserung des Angebots an statistischen Daten, namentlich durch die Schaffung der VGR. Methodisch kumulierten diese Entwicklungen – wie erwähnt – in der Entwicklung makroökonometrischer Modelle, ermöglicht durch die wachsende Verfügbarkeit immer leistungsfähigerer elektronischer Rechenmaschinen (Abb. 1). Die Prognosebedarfe der großen Unternehmen sowie der
1949
Keine unterschiedlichen Lösungen
Intregration von Parameterschätzung und Modellösung
Erste Onlinedatenbanken und vernetzte Software-Systeme
1983 1985 1987
Regressionsschätzung und Ergebnisübermittlung in 1 Minute
Schätzung eines 300Gleichungen-Modells in 1 Woche
Abb. 1: Stationen der rechentechnischen Grundlagen des makroökonometrischen Modellbaus.
Konstruktion eines 200-GleichungenModells durch 15 Forscher innerhalb 1 Jahres technisch möglich
1. TROLL-Version; Integration von Funktionen möglich
Erste öffentlich nutzbare elektronische Datenbanken
1980
Modellbearbeitung durch mehrere Personen gleichzeitig möglich; aber: Speicherkapazität nicht ausreichend!
1967 1968 1969 1971 1972 1973
1. Simulation
Entwicklung leistungsfähigerer Rechner; noch keine Vernetzung möglich
1962
Regressionsschätzung in 1 Stunde
Veröffentlichung des Klein- Regressionsschätzung in 1 Minute; Goldberger-Modells Ergebnisübermittlung in 8 Stunden
Speicherverarbeitung eines Rechners: 1KB
1954 1955 1957
Erste Regressions- und Matrix-Packages
Staatliche Organisationen verwenden makroökonomische Modelle
Eigene Darstellung nach Angaben bei Renfro (2004a, b) und eigene Recherchen.
Regressionsschätzung in 1 Tag
1946
Beginn Entwicklung ökonometrischer Software und Nutzung von Computern
Speicherverarbeitung eines Rechners: 32 KB
Zur Industrialisierung der empirischen Wirtschaftsforschung 333
334
Ullrich Heilemann
Banken und Versicherungen waren in der Nachkriegszeit weiter gestiegen und vor allem der des Staates als Folge seiner gestiegenen „Konjunkturverantwortung“; allein in der (amerikanischen) Bundesregierung war die Zahl der Ökonomen von 5 000 im Jahre 1938 auf 16 000 im Jahre 1982 gestiegen (bei etwa 100 000 Ökonomen insgesamt). 28 Vieles sprach mithin für eine Renaissance von „Konjunkturinstituten“. Deren Schicksal sprach jedoch nicht nur für einen inhaltlichen und methodischen Neuanfang, sondern erforderte, teils als Folge, teils davon unabhängig, auch eine Neugestaltung des Produktions- wie des Verwertungsprozesses einschließlich der Leitung der Institute – bei den Gründern / Eigentümern handelte es sich nun durchweg um renommierte Ökonomen. Aus dem Gewerbe sollte eine Industrie werden. Die Voraussetzungen für ein wesentlich verbessertes Angebot an Prognosediensten waren aus den genannten Gründen unvergleichlich günstig 29: Umfang und Qualität der Konjunkturdaten hatten sich wesentlich verbessert. Die methodischen Grundlagen zu einer konsistenten, wissenschaftsbasierten Verarbeitung und Analyse der Daten waren mit der Ökonometrie gelegt und im Fach, zunächst weniger in der Prognose-Zunft, akzeptiert, zumal die bisherigen Verfahren der Konjunkturprognose als ungenügend, veraltet, inkonsistent, als „measurement without theory“ 30 desavouiert worden waren. Zwar zeigte sich gegen Ende der 1960er Jahre, dass sich keineswegs alle mit den Modellen verbundenen Erwartungen erfüllen würden, z. B. Bau und Handhabung der Modelle weit weniger objektiv und die Treffsicherheit der Prognosen keineswegs überlegen waren, wie ursprünglich von ihren Proponenten erwartet. 31 Aber dem stand eine immer länger werdende Reihe von technischen Vorteilen gegenüber, wie z. B. die digitale Verfügbarkeit der Daten der Analysen und Prognosen, die problemlose Variation der Annahmen (Simulation) und Aktualisierung der Prognosen, vom „gadget“ Charakter der Modelle ganz abgesehen. Zwar standen diese technischen Möglichkeiten nicht nur den model shops und ihren Methoden zu Gebote, aber sie waren es, die sie am schnellsten und am breitesten aufnahmen und nutzten. Ähnlich wie in den 1920er Jahren verdrängte die neue Methode zwar nicht die in der Nachkriegszeit neu etablierten Verfahren, wie das informale GDP-model oder die traditionelle Indikatormethode, die in den Lehrbüchern bis in die 1960er Jahre vorherrschten. 32 Aber ihre Vorteile machten die Modelle zunehmend un28
Vgl. Stein (1986). DRI beschreibt seinen Kundenstamm in einer Werbebroschüre aus dem Jahre 1979 wie folgt: die meisten Industrieunternehmen der „Fortune top 200“-Liste, 2/3 der 200 größten Geschäftsbanken, mehr als die Hälfte der 50 größten Maklerfirmen und mehr als 60 staatliche Institutionen. 30 Koopmans (1947). 31 Vgl. Hickman (1972). 32 Bratt (1961), ein wichtiges Lehrbuch der Konjunkturprognose, 1. Auflage 1937, ignoriert ökonometrische Modelle vollständig. Bassie (1958) widmet dem ökonometrischen Modellansatz immerhin zehn von knapp 700 Seiten. 29
Zur Industrialisierung der empirischen Wirtschaftsforschung
335
entbehrlich. Die Kapazität der elektronischen Rechner hatte kontinuierlich zugenommen und sorgte nicht nur für eine Reduzierung der Lösungszeit der Modelle bei Prognose und Simulation, sondern erlaubte, wie gezeigt, zunehmend auch den Bau und die Verwendung immer größerer Modelle – wissenschaftlicher Fortschritt ist nicht nur in den Naturwissenschaften oft besseren Instrumenten geschuldet. Aber dies erforderte auch erhebliche Investitionen in die Entwicklung und den Ausbau der software zur problemlosen Nutzung der Modelle. Die allgemein verfügbare Ökonometrie-software beschränkte sich bis in die 1970er Jahre auf die ökonometrische Schätzung von Einzelgleichungen (Abb. 1). Erst in den 1980er Jahren, im Zuge der Entwicklung der Miniaturisierung der mainframe computer war sie in der Lage, Mehrgleichungssysteme zu bearbeiten. 33 Die model shops sahen sich daher gezwungen, eigene software zur integrierten Schätzung, Lösung und Darstellung der Ergebnisse zu entwickeln und damit auch die arbeitsteilige Bearbeitung und Entwicklung der Modelle zu erleichtern. Bei aller Begeisterung für die großen Rechenmaschinen seitens der Modellbauer – die theoretische Fundierung der Modellarbeit wurde in der Folge nur wenig verändert. Die aufkommenden Versuche der Gleichungsselektion mit Hilfe automatischer Modellerstellungssysteme oder Verfahren der Künstlichen Intelligenz fanden offenbar ebenso wenig Resonanz bei der Modellarbeit wie die in den 1960er Jahren entwickelte optimal control theory. 34 Nicht nur was die Behandlung der traditionellen Felder Theorie, Daten, Methoden und Computer, sondern auch die gleichzeitige Entwicklung und Nutzung der Modelle angeht, war die Modellarbeit zunehmend zu einem sehr arbeitsteiligen „Prozess“ geworden. Dies betraf nicht nur die eigentliche Modellarbeit, die sich auf eine Vielzahl von spezialisierten Mitarbeitern stützte, sondern auch ihr Umfeld, also die Datenarbeit, die software-Entwicklung und die hardware-Bereitstellung angeht. Möglich geworden war dies auch dadurch, dass die EinzelgleichungsÖkonometrie, weniger Modellbau und -anwendung, seit den späten 1960er Jahren zunehmend Eingang in die Curricula der Universitäten gefunden hatte. An hinreichend ausgebildetem Personal bestand zumindest für WEFA, DRI und Chase Econometrics (s.u.) offenbar kein Mangel. Ebenso auf der Seite der Kunden, d. h. den volkswirtschaftlichen Abteilungen der Unternehmen wie auch der Öffentlichen Hand, die zunehmend zu einem wichtigen Nutzer der Modelle und ihrer Ergebnisse wurde. 35 Der fachgerechte Umgang mit den Modellen, Prognose und Simulation mit den neuen Techniken wurde den Subskribenten in 33 Zu den vielfältigen Anstrengungen z. B. von DRI auf diesem Gebiet vgl. Kasputys (1985), wobei immer darauf zu achten war, dass die diese Anstrengungen den Möglichkeiten der Kunden nicht allzu weit vorauseilten. 34 Kasputys (1985) zeichnet zwar bezüglich entsprechender Versuche bei DRI ein günstigeres Bild – für einen ehemaligen DRI-Präsidenten verständlich –, Belege für unmittelbare Konsequenzen für die Modellarbeit gibt aber auch er nicht. 35 Vgl. Fourcade (2009), S. 14ff., s. auch oben.
336
Ullrich Heilemann
speziellen Kursen und Hand- und Lehrbüchern der Modell-Lieferanten 36 vermittelt oder – im Fall der Regierung 37 – seitens der Kunden selbst erschlossen. In beiden Fällen naturgemäß nicht übermäßig kritisch. Den institutionellen Rahmen fanden die neuen Form um die Mitte der 1960er Jahre – WEFA wurde 1963 (von Lawrence Klein), DRI 1968 (von Otto Eckstein und Partnern) und Chase Econometrics 1970 (von Michael K. Evans, ein ehemaliger Mitarbeiter von Klein, und der Chase Manhattan Bank) gegründet. 38 Während WEFA 1963 zunächst Teil eines „not-for-profit“-Projektes zur finanziellen Unterstützung der Wharton School war und erst 1969 „kommerzialisiert“ („incorporated“) wurde – ohne je Gewinn zu erzielen 39 – waren die beiden anderen Institutionen von Anfang an kommerziell orientiert. 40 Grundlage bildeten die Erfahrungen, die Klein, Eckstein und Evans und ihre Mitarbeiter bei den universitären Modellentwicklungen der späten 1950er und 1960er Jahre gewonnen hatten und die ihnen zu erheblichem Prestige innerhalb und außerhalb des Fachs verholfen hatten. Bei Eckstein kam seine Tätigkeit u. a. im Council of Economic Advisers (1964 –1966) hinzu, die ihm im politischen Bereich beträchtliches Ansehen verschafft hatte. 41 Die Gründungen wurden, was selten erwähnt wird, dadurch erleichtert, dass mit den Erfahrungen im Modellbau nicht nur ein erheblicher Gewinn an spezifischer Expertise verbunden war, sondern de facto auch ein erheblicher Real-Transfer. Denn die zur Modellentwicklung erforderlichen Mittel waren – wie in vielen anderen Fällen, aktuell besonders spektakulär in der Bio-Medizin 42 – zuvor von Universitäten und Stiftungen zur Verfügung gestellt worden; genaue Angaben dazu liegen nicht vor, aber der Betrag dürfte in heutigen Preisen jenseits der Zehn-Millionen-Dollar-Grenze liegen. 43 Die Schaffung neuer institutioneller Grundlagen war jedoch auch aus sachlichen Gründen erforderlich. Die Lieferung regelmäßiger, monatlicher Prognosen zu fixen Terminen, die Beratung von Kunden u. ä. sprengten Aufgabenfeld und 36
Vgl. DRI (1976), Sinai (1977); Sanderson (1981); Maroon (1985). Vgl. Gass / Sisson (1974). 38 Vgl. Bodkin / Klein / Marwah (1991), S ...; Marron (1984); Wilson (1984). 39 Vgl. Hiltzig (1985). 40 Vgl. Fourcade (2009), S. 118f. 41 Die wirtschaftspolitischen Ambitionen der Gründer scheinen sich allerdings, anders als etwa Irving Fisher, in engen Grenzen gehalten zu haben, wenn man davon absieht, dass sie wie der Keynesianismus und anders als etwa die Neoklassik oder der Monetarismus tendenziell aktivistisch orientiert waren. Wieweit politische Ambitionen die Arbeit oder die Ergebnisse prägten wäre einer Untersuchung wert. 42 Vgl. Venter (2009). 43 Vgl. dazu z. B. auch die Angaben in McCracken / Keith (2004) über die Kosten des kanadischen CANDIDE-Modells. Lodewijks (1989) berichtet für das Brookings-Modell für den Zeitraum 1963 bis 1972 von mehr als 1 Mio. Dollar (in Preisen von 1982: 2,5 Mio. Dollar) allein durch die NSF. Vgl. auch oben FN 25 bzw. Newlon 1989. 37
Zur Industrialisierung der empirischen Wirtschaftsforschung
337
Möglichkeiten des universitären Rahmens, desgleichen die Beschäftigung von Marketing- und von software- und hardware-Experten, 44 partiell auch die Verfügbarkeit der erforderlichen hardware- und software-Kapazität. Mitte der 1970er Jahren, die Gründungen der ersten model shops lagen zehn und mehr Jahre zurück, kam ein weiterer Aspekt hinzu. Die grundlegenden Techniken der Modellarbeit schienen beherrscht und ausgereizt, die wissenschaftliche Attraktivität der Modellarbeit ging zunehmend verloren 45 oder lag in mehr oder weniger radikalen Variationen des „Grundmodells“, etwa zu einem (monetaristischen) EinGleichungsmodell. 46 Die Attraktivität der Modellarbeit bestand zunehmend vor allem in der Analyse und Prognose, der Anpassung der Modelle an das, was als Forderungen des Marktes an Informationsgehalt und Anwendbarkeit gesehen wurde. Eine besondere Bedeutung gewann dabei, zumindest was DRI angeht, die Verbreiterung des Informationsgehaltes der Modelle durch deren Ergänzung um spezielle Branchen- und Regionalmodelle, vor allem Modelle für die Gebietskörperschaften, sowie Modelle anderer, wichtiger Volkswirtschaften. 47 Dass der staatliche Sektor selbst – ähnlich wie die Unternehmen – trotz seiner erheblichen Ausgaben für Modellleistungen lange Zeit auf eigene Modellentwicklungen verzichtete, hing wesentlich mit den höheren Legitimationswirkungen externer Modelle und der Medienprominenz der Leiter der model shops zusammen, die für diese durchaus zum Geschäft gehörte. 48 Hinzu trat eine sukzessive Erweiterung der Modelle um Umfrageergebnisse und Indikatoren – alles in allem also eine Integration jener Methoden, die abzulösen die Modelle angetreten waren. Das Gewinn-Motiv – wie die erzielten Gewinne selbst – dürfte bei den einzelnen Gründern und Instituten eine unterschiedlich große Rolle gespielt haben, nicht zuletzt auch angesichts der Größe der einzelnen Institute, ihres Kapitalbedarfs zwecks Expansion usw. Ihr wissenschaftliches Interesse war – wie ihre Fach-Veröffentlichungen belegen – jedenfalls ungebrochen, zumal das den model shops zur Verfügung stehende Instrumentarium und deren wissenschaftliche Kapazität unvergleichliche Möglichkeiten boten. Hinzu kam, dass sich z. B. DRI, ähnlich wie zuvor das Harvard Committee, bereits frühzeitig durch Beratungsverträge vor allem für ökonometrische Probleme prominenter Wissenschaftler
44 Zur Entwicklung der hardware und insbesondere der software für die ökonometrische Schätzung und die Modellarbeit im Allgemeinen sowie den Beitrag von DRI und Chase Econometrics im Besonderen vgl. Renfro (2004a,b), insbesondere S. 32ff. Die Integration von Regressionsschätzung, Tabellen- und Graphikerstellung einerseits und Modelllösung andererseits war mit der von DRI entwickelten software erst seit 1980 möglich. 45 Vgl. Fourcade (2009), S. 118. 46 Vgl. Elliott (1985). 47 Vgl. dazu auch Kaputsys (1985). 48 Ebenda.
338
Ullrich Heilemann
versichert hatte 49, die damit auch entsprechender Kritik die Spitze nahm und Verbündete bedeutete. Über den ökonomischen Erfolg der model shops liegen nur wenige Angaben vor. Fest steht, dass die Zahl ihrer Subskribenten mindestens bis in die 1980er Jahre ständig zunahm und insbesondere der öffentliche Bereich zu einem wichtigen Subskribenten und Auftraggeber von Spezialuntersuchungen wurde (auch wenn die hohen variablen Kosten dieser Aufträge der Geschäftsidee der „industrialisierten“ Forschung – hohe Fix-, niedrige variable Kosten – widersprach). Die Kosten für die Basis-Subskription betrugen in den 1970er Jahren ca. 12 000 Dollar (2004: ca. 65 000 Dollar), wozu dann beträchtliche Kosten für die Rechenzeit des mainframe computer und Kosten für die Telefonverbindung kamen; in den 1980er Jahren war bei DRI je Subskribent von durchschnittlich 75 000 Dollar die Rede. Es liegt auf der Hand, dass derartig aufwändige Ausgaben mit nicht für jeden unmittelbar einsichtigem Wert ebenfalls des Marketings bedurften: „economic advice, like toothpaste and widgets, is sold, not bought“ 50. Zu Beginn der 1980er Jahre wurde das Geschäftsvolumen auf 250 Mio. Dollar (in Preisen von 2008: 600 Mio. Dollar), der Gewinn von DRI auf 11 Mio. Dollar bei einem Umsatz von etwa 100 Mio. Dollar taxiert, wovon freilich die Hälfte auf timesharing-Einnahmen entfiel. 51 Die geschäftliche Entwicklung der model shops verlief indessen nicht ohne Brüche. Anders als die Vorgänger der 1920er überstanden die Institute – wie alle anderen – die Fehlprognosen im Zuge der Ölkrise und der anschließenden Inflationsperiode sowie der Rezession 1981f., namentlich auch den Fehlschlag bei der Beurteilung der Reaganschen „supply side“-Politik. Obwohl, wie erwähnt, die Treffsicherheit nicht im Zentrum des Interesses der Kunden stand, reagierten die model shops durch Erweiterung der Modelle um „Angebotsbedingungen“ usw. 52 Hart traf dagegen die model shops – wie die Computerindustrie insgesamt – erstens, der Technologie-Schock, der mit dem Aufkommen der Personalcomputer und damit dem Abschied vom mainframe computer und dem damit verbundenen timesharing Einnahmen verbunden war. Sie erlaubten es kleinen Unternehmen und Einzelpersonen im Verbund mit den elektronischen Datenbanken und ubiquitären software-Paketen, die Datenanalyse und -bearbeitung mit vergleichsweise geringen Kosten am eigenen Schreibtisch zu erledigen. Zweitens, aus einer Reihe von Gründen, sank das Bedürfnis nach einer konsistenten, statistisch-ökonometrisch fundierten Sicht der gesamtwirtschaftlichen Entwicklung – viele Unternehmen schafften im Zuge der Divisionalisierung ihre 49 Vgl. Marron (1984) nennt Lawrence Klein, Martin Feldstein, Lester Thurow, Marc Nerlove, Dale Jorgenson und Robert Hall. 50 Ebd., S 539. 51 Vgl. Hiltzik (1985). 52 Heilemann (2002).
Zur Industrialisierung der empirischen Wirtschaftsforschung
339
Volkswirtschaftlichen Abteilungen ab. Drittens, durchliefen die Vereinigten Staaten die schwerste Krise der Nachkriegszeit und auch bei den Großunternehmen wurde nach Einsparmöglichkeiten gesucht. Die Modell-Industrie konnte sich angesichts erheblicher Preissenkungen sowie des durch den Wegfall der Einnahmen aus dem Verkauf der Rechenzeit, Überarbeitung der software usw. verursachten Erlöseinbruchs einer drastischen Konsolidierung nicht entziehen. Nach einer Reihe von Übernahmen und Fusionen führte dies dazu, dass seit 2002 DRI, WEFA und Chase Econometrics mit IHS Global Insight verschmolzen sind, einem weltweit tätigen Unternehmen der Informationsindustrie. 53 Neue, kleinere Institute traten auf den Plan und wurden zumindest in Washington einflussreich. 54 An der Praxis der model-shops scheint sich allerdings nichts Wesentliches geändert zu haben, wenn man von der im Vergleich zu ihren Vorgängern entschiedeneren Vertretung ihrer theoretischen und modellkonzeptionellen Vorstellungen absieht. 55
IV. Mängel, Kritik und Reaktion der „Industrie“ Die Arbeit der model shops erfuhr – wie angesichts ihres Erfolges zu erwarten war – von unterschiedlichen Seiten und aus unterschiedlichen Gründen vielfache, z.T. durchaus widersprüchliche Kritik. Zwar zielten nur sehr wenig davon direkt auf die model shops und die „Industrialisierung“ der empirischen Wirtschaftsforschung – indirekt waren aber durchaus sie gemeint. 56 Ehe darauf eingegangen wird, ist jedoch eine Relativierung erforderlich. Aus kognitiver Sicht ist die Modellentwicklung nicht ganz so eindrucksvoll, wie zunächst vermutet werden könnte. Zwar belegt Tabelle 2 ein bemerkenswertes Größenwachstum der Modelle. Lawrence Klein mag dabei aus kognitiven Gründen eine disaggregierte Perspektive und damit ein Abrücken von der hochaggregierten Perspektive des damaligen Keynesianismus bereits in den 1950er Jahren vorgeschwebt haben. 57 Für die model shops aber war die Disaggregation in erster Linie die Antwort auf die spezifischen Interessen einzelner Nutzer und Nutzergruppen – Zentralbanken, Industrie, Finanzsektor – an der Verbreiterung (Finanzsphäre) und Vertiefung 53 Das Unternehmen verfügt zur Zeit über „325+ professional analysts, researchers, and economists on our staff of 700 employees bring expertise spanning more than approximately 170 industries and over 200 countries“. Vgl. www.ihsglobalinsight.com, Abruf vom 3. Mai 2010. 54 So z. B. die 1982 in St. Louis, MI, gegründeten Macro Advisers, die das Washington University Macro Model für die Vereinigten Staaten betreibt. 55 Vgl. dazu z. B. die sehr kritische Auseinandersetzung mit der Lucas-Kritik und den Real Business Cycle Modellen von Morley (2010). 56 Hierzu und dem folgenden vgl. Heilemann (1980, 2002) und die dort aufgeführte Literatur, namentlich Brunner (1973). 57 Vgl. Lodewijks (1989).
340
Ullrich Heilemann
(Industrie) des sektorspezifischen Informationsgehalts der Modelle. 58 Die detaillierte Abbildung des Finanzsektors in der zweiten und dritten Generation des DRI-Modells z. B. veränderte zwar dessen Reaktionen in Richtung „monetaristischer“ Vorstellungen und Erwartungen der 1970er Jahre. 59 Die Treffsicherheit des Modells verbesserten diese (rekursiven) Modellerweiterungen naturgemäß nicht. Hinzu kam – auch das störte die staatlichen und privaten Subskribenten wenig – dass die Modelle, sowohl was ihre Reaktionen als auch was ihre Erklärungsgüte angeht, angesichts gleicher Daten, ähnlicher theoretischer Grundlagen, ähnlichen Aufbaus und gleicher Methoden, wenig nicht zu erklärende Differenzen aufwiesen. Offensichtlich hatte sich auch in dieser Hinsicht ein „Industriestandard“ herausgebildet. Gelegentliche öffentliche Debatten über die Aktualität der jeweiligen Modelle schloss dies nicht aus, wie ein Streit zwischen Evans und Eckstein über die Rolle der „supply side“ – das seinerzeit neue Paradigma – illustriert. 60 Umgekehrt geht der seit den 1970er Jahren geäußerte Vorwurf, die Makromodelle seien „big and ugly“ an der Sache vorbei: Größe ist per se kein Nachteil, schon gar nicht, wenn sie von den Kunden gefordert wird. Dass der akademische Bereich angesichts beschränkter Erklärungsinteressen und Ressourcen kleine, überschaubare Modelle präferiert, bedarf wenig Erklärung. 61 Daneben konzentrierte sich die Kritik des Fachs vor allem auf vier Aspekte: die bereits genannte endogene und klassische Kritik, die verwendeten Schätzverfahren und die Spezifizierung der Modelle. Letztere mündete ab Mitte der 1970er Jahre in der Monierung der fehlenden theoretischen / mikroökonomischen Fundierung der Schätzgleichungen und letzten Endes in dem Vorwurf der Vernachlässigung des Parameterwandels und damit in einer Fundamentalkritik an der Aussagekraft wirtschaftspolitischer Simulationen („Lucas-Kritik“). 62 Die Kritik betraf zwar alle makroökonomischen und -ökonometrischen Modelle und Aussagen, aber sie musste solche mit empirischem wirtschaftspolitischem Geltungsanspruch besonders treffen. – Eine explizite Auseinandersetzung mit diesen Vorwürfen fand seitens der model shops nicht statt, aber es erwies sich auch als unmöglich, überzeugende Belege für die Hypothese der „Rationalen Erwartungen“ zu finden oder den Nachweis für inakzeptable Ergebnisse der KQ58 Zu den entsprechenden Möglichkeiten vgl. z. B. Adams 1986. – Mit dem wachsenden Interesse an detaillierten Aussagen zur Entwicklung einzelner Branchen oder des Staatssektors führte dies dazu, dass dem nicht mehr innerhalb des immer umfangreicheren Grundmodells, sondern in Gestalt von sog. Satellit-Modellen Rechnung getragen wurde, die mit dem Hauptmodell (rekursiv) verbunden waren. Inwieweit hinter diesen Wechseln wirtschaftliche Überlegungen standen (Rechenzeit!), muss für Dritte offen bleiben. 59 Eckstein (1983), S. 2ff. 60 Vgl. dazu die Debatte der Beiden im „Wallstreet Journal“ vom 27. und 29. August 1979. 61 Im Einzelnen dazu Heilemann (2002), Fair (2000) sowie, umfassend zur Kritik an makroökonometrischen Modellen, Bodkin / Klein / Marron (1991), S. 551 ff. 62 Vgl. z. B. Zellner / Peck (1973).
Zur Industrialisierung der empirischen Wirtschaftsforschung
341
Methode zu führen. 63 Dem Vorwurf der fehlenden mikroökonomischen Fundierung wurde mit Verweis auf die seit den 1970er Jahren gestiegene Varianz der wirtschaftlichen Entwicklung begegnet. 64 Das Problem der Parameter- bzw. Reaktionsstabilität fand gleichwohl in den model shops unerklärlicherweise kein Interesse, obwohl ja seit den 1970er Jahren auch wegen möglicher Parameter- / Reaktionsänderungen die Modelle regelmäßig neu geschätzt werden. Auf den ersten Blick scheinbar weniger bedeutsam, letzten Endes aber doch sehr belastend und ärgerlich war der Vorwurf des „pragmatic numberism“, d. h. die für Außenstehende undurchsichtige, zu komplexe Modellstruktur. Sie mache für sie ein Nachvollziehen der Modellergebnisse unmöglich, insbesondere wenn – wie in der Tat der Fall – bei Prognosen bei vielen Gleichungen zusätzliche Informationen einbezogen wurden, was den statistisch-ökonometrisch fundierten Erklärungsanspruch relativierte. Davon abgesehen, wäre hinzufügen, näherten sich damit die Modelle dem informalen GDP model und deren Vertreter können dann auf die noch immer größere Flexibilität ihres Ansatzes verweisen. Letztlich damit zusammenhängend, eine Reihe eher impliziter Vorwürfe: der Keynes- / Klein-Ansatz befriedige theoretisch nicht oder bestimmte Einflüsse seien in den Modellen unterrepräsentiert (supply side-Effekte, die Selbstfinanzierung von Steuersenkungen, die sog. Laffer-curve, usw.), die Modelle seien unzureichend spezifiziert (Sims-Kritik). Die Modellbauer – nicht nur die in den model shops – kümmerten sich wenig oder gar nicht um Transparenz ihrer Modelle 65 und Struktur, Stärke und Verlauf der Modellreaktionen. Die Erklärungsgüte werde wenig untersucht, die Untersuchung der ex ante-Treffsicherheit der Modellprognosen finde kein Interesse. Die Modellbauer reagierten auf die Vorwürfe selten und dann eher zurückhaltend: Eckstein etwa wollte die Analyse der Treffsicherheit der DRI-Makroprognosen prinzipiell Dritten überlassen. 66 Die Einstellung ist bei Prognostikern weit verbreitet, im Falle der Modellprognosen vergibt sie freilich die im Vergleich etwa zum GDP model die beträchtlichen analytischen Möglichkeiten der Modelle. Unabhängig davon entstand eine reichhaltige Literatur zu diesen Fragen. 67 Zum Teil erledigte sich die Kritik von selbst. Die Blüte monetaristischer 63
Vgl. Eckstein (1983), S. 40ff.; Fair (2000); Evans (2003), S 403ff. Vgl. Eckstein (1983), S. 35; Mayer (1995), S. 26ff. 65 Modell-Dokumentationen – schriftlich oder gar elektronisch – sind von den Modellbauern nur schwer zu erhalten, Monographien der Modelle sind mittlerweile gänzlich unüblich geworden, auch in der akademisch orientierten Modellarbeit. 66 Vgl. Eckstein (1983), S. 24. – Kaputsys (1985) berichtet allerdings, dass intern die Analyse Prognosefehler sehr intensiv sei und alle neueren theoretischen und methodischen Entwicklung auf den Prüfstand gekommen seien – aber regelmäßig mit negativem Ergebnis. 67 Vgl. McNees (1986). 64
342
Ullrich Heilemann
Modelle auf der Basis der Fisherschen Verkehrsgleichung erwies sich als sehr kurz. 68 Vor allem aber ihr geringer Informationsgehalt – sie erklärten nur das Wachstum des BIP und die Inflationsrate – entsprach in keiner Weise dem Bedarf der model shop-Kunden. Neue Entwicklungen wie die Angebotsprobleme im Anschluss an die Ölkrise wurden dagegen rasch aufgenommen – wirtschaftspolitische Aktualität ist in der Regel ebenso ein Muss für die model shops wie die empirische (s. o.)! Eine weitere Ausnahme bildete die Untersuchung der prognostischen Leistungsfähigkeit der in den 1970er Jahren aufkommenden Zeitreihenmodelle, 69 die aber die hochgespannten Erwartungen (außerhalb der model shops) nicht erfüllten, ganz abgesehnen von ihrem geringen Informationsgehalt. 70 Das zunehmend verfügbare und dank verbesserter Rechner auch anwendbare Instrumentarium zur Modellanalyse der Modelle und ihrer Reaktionen fand indessen praktisch keine Resonanz in den model shops. Weder wurde versucht, mit Hilfe der Analyse der Modellverflechtung noch mit der Analyse des dynamischen Verhaltens der Modelle, der Identifikation einflussreicher Parameter / Variablen oder Beobachtungen Licht in die „black box“ zu bringen und so dem Komplexitätsvorwurf zu begegnen. 71 Systematische Modell- und Prognoseüberprüfungen, wie sie seit Mitte der 1980er Jahre in Großbritannien in vorbildlicher Weise unternommen wurden, 72 fehlten. Die in den 1960er Jahren begonnenen „ModellKonferenzen“, bei denen die Simulations- und Erklärungsleistungen untersucht wurden, fanden in den 1980er Jahren kaum noch Fortsetzungen. Gerechterweise darf jedoch nicht verschwiegen werden, dass auch die akademische Modellgemeinde wenig Interesse an der Transparenz und analytischen Durchleuchtung ihrer Systeme zeigte. Statt im „deepening“ schien vor allem seit Mitte der 1980er Jahre der wissenschaftliche Ertrag im „widening“, d. h. in der Exploration neuerer Entwicklungen, wie der Hypothese der Rationalen Erwartungen, Ko-Integration, real business cycles, Gleichgewichtsorientierung usw., zu liegen. Eine Entwicklung, die auch in den Zentralbanken zu beobachten war, 73 ohne dass diese durch externe Interessen oder übermäßige Ressourcenknappheit eingeschränkt gewesen wären. Seitens der Kunden wurde offenbar wenig Kritik an den model shops geübt, was damit zusammenhängt, dass diese vor allem an dem Produkt bzw. den 68
Vgl. Elliott (1985). Vgl. Chazen (1977). 70 Vgl. Evans (2003), S. 444ff. 71 Vgl. Belsley / Kuh / Welsch (1980); Hickman (1980); Belsley / Kuh (eds.) (1986). – Die entsprechenden Arbeiten waren übrigens ebenfalls maßgeblich von der NSF gefördert worden. (Newlon 1989). 72 Vgl. Wallis et al. (1985). 73 Vgl. Fagan / Henry / Mestre (2004). 69
Zur Industrialisierung der empirischen Wirtschaftsforschung
343
Prognosen interessiert sind, wobei die Treffsicherheit überraschenderweise nachrangig ist. 74 Die eigene Arbeit mit den Modellen bildet eher die Ausnahme, und entsprechend gering ist das Interesse am Verständnis der Modelle. Der Wunsch nach größerem Informationsgehalt findet jedenfalls unmittelbaren Eingang in Modellstruktur und Systemaufbau, wie die unmittelbare Verbreiterung des Informationsgehaltes oder die Verbindung mit Modellen z. B. für den Energie-, Landwirtschafts-, Holz- oder den Automobilsektor oder die ständige Ausweitung des Datenangebots – es war von 3 000 Zeitreihen in den späten 1960er auf über 100 Millionen bereits Mitte der 1980er Jahre angestiegen – illustrieren. Der Mangel an Informationen über die Modellvalidität, die Modellstrukturen und ihre Konsequenzen oder die Prognoseleistungen wird jedenfalls nicht als großes Hindernis empfunden. Wohl auch deshalb, weil viele Nutzer auf eigene Simulationen verzichten und nur auf die von den model shops angebotenen Model-Lösungen („Otto’s view“) zurückgreifen. Wie bei ihren Vorläufern in den 1920er Jahren sehen eben viele Subskribenten die Modell-Ergebnisse nur als eine von mehreren Quellen ihrer eigenen Prognose an, zumal sie verglichen mit eigener Produktion preisgünstig sind.
V. Zusammenfassung und Ergebnis Ab Mitte der 1960er Jahre durchlief die Konjunkturanalyse und -prognose in den Vereinigten Staaten eine tiefgreifende Transformation. Neben die bis dahin primär handwerklich-kleinbetriebliche trat zunehmend eine industriell-großbetriebliche Produktionsweise. Methodische Grundlage dieses Wandels bildeten makroökonometrische Modelle. Den organisatorischen Rahmen lieferten kommerziell ausgerichtete „model shops“, Institute, die ihren Subskribenten regelmäßig quantitative gesamtwirtschaftlichen Analysen und Prognosen sowie die dazu verwendeten Modelle, Daten und software zur Verfügung stellten. Der wichtigste Unterschied zu Vorgänger-Instituten der 1920er Jahre bestand dabei, erstens, in den radikal veränderten produktionstechnischen Bedingungen. Die Kapitalintensivierung in Gestalt der Computerkapazität und der zu dessen Nutzung erforderliche Ausbau komplementärer Dienstleistungen – software-Entwicklung und -Pflege – hatte enorm zugenommen. Der hohe Anteil an Fixkosten bzw. die stark degressiven Grenzkosten für die Nutzung der Dienste drängten die model shops nach einer möglichst großen Ausschöpfung des Kunden-Potentials. Die Verwertungsbedingungen führten, zweitens, nicht nur zu erheblichen MarketingAnstrengungen, sondern vor allem auch zu Anpassungen und Zugeständnissen an die Kundenwünsche bei der Produktion. Forschung und Fach profitierten von dieser Industrialisierung und Professionalisierung der Wirtschaftsforschung beträchtlich. Zwar waren makroökonome74
Vgl. Daub (1987), S. 110ff.
344
Ullrich Heilemann
trische Modelle seit den 1950er Jahren verfügbar. Aber es war den model shops vorbehalten geblieben, diese anwendungsreif zu machen und einzusetzen. Auch wenn dieses Angebot bei der Prognose konkurrierende Methoden und Produzenten eher ergänzte als verdrängte – auf längere Sicht waren die inhaltlichen und methodischen Konsequenzen der Industrialisierung erheblich. Die gesamtwirtschaftliche Analyse legte Annahmen und Hypothesen stärker offen, argumentierte zunehmend quantitativer und in wissenschaftlichen Kategorien (Annahmen / Hypothesen), verbesserte das Verständnis von der branchenmäßigen Reaktionen und Verflechtungen, den Wirkungen gesamtwirtschaftlicher Instrumente und internationaler Zusammenhänge. Die gesamtwirtschaftliche Analyse wurde lernfähiger, weniger personengebunden, prinzipiell formaler und theorieorientierter und offener im Sinne der Diskussion alternativer Entwicklungen. Die empirische Wirtschaftsforschung verbuchte einen beachtlichen Bedeutungsgewinn innerhalb und außerhalb des Fachs, der letztlich auch den Wirtschaftswissenschaften insgesamt zugute kam. In der zweiten Hälfte der 1970er Jahre zeigten sich freilich auch Grenzen der Industrialisierung: Es wurde deutlich, dass die Modell-Ergebnisse um gegenüber Alternativen wettbewerbsfähig zu werden, modellexterner Ergänzungen, fachspezifischer Kenntnisse jenseits der Modelle bedurften. Gleichwohl war die Treffsicherheit der Prognosen der model shops denen des informal GDP models nicht überlegen, wenngleich sich letztere zunehmend auch der Ergebnisse der model shops versicherten. Bedeutsamer war daher, dass sich das wissenschaftliche Interesse zunehmend vom kommerziell geprägten Forschungsinteresse der model shops separierte: der „Markt“ – aber nicht nur er, sondern auch die Mehrzahl der nicht-kommerziellen Modellbauer – prämierten weder die Verbesserung der Treffsicherheit, noch die weitere wissenschaftliche Fundierung der Methode oder die Nutzung der analytischen Möglichkeiten der Modelle. Ebenso wenig hatten die Vorwürfe der Intransparenz der Modelle und Prognosen für die model shops bei ihren Kunden keine nachteiligen Folgen. Das ModellInteresse blieb fast ausschließlich auf die produktionsseitige Verbesserung der Verwertungsbedingungen und auf die Ausweitung der Subskribentenzahl beschränkt. Daran änderte sich auch nichts, als sich die „Industrie“ in der ersten Hälfte der 1980er Jahre infolge fundamentaler technischer und großer ökonomischer Veränderungen konsolidierte und schließlich in einem Unternehmen der Informationsindustrie mit einem breiteren Spektrum an Methoden und Diensten aufgingen. Das Verhältnis zwischen Produktions- und Verwertungsinteresse, zwischen Industrialisierung, Ökonomisierung und wissenschaftlichen Erfordernissen und Desiderata war in diesem Teil der empirischen Wirtschaftsforschung also nicht frei von Konflikten. Sie wurden bislang nicht gelöst. Der Grund dafür liegt fraglos in den „Verwertungsbedingungen“, dem Markt. Allerdings unterscheidet sich die Praxis der wissenschaftlich orientierten Modellbauer und -betreiber in
Zur Industrialisierung der empirischen Wirtschaftsforschung
345
Hochschulen, Zentralbanken und internationalen Organisation bis heute kaum von der der model shops. Transparenz und Erhöhung des Modellverständnisses finden im Fach eben bis heute nur geringes Interesse, ungeachtet der nun bereits seit langem bestehenden Möglichkeiten ihm leicht Rechnung zu tragen. Mit anderen Worten: Die seitens des Fachs reklamierten „Defizite“ der Modellarbeit sind letztlich also entweder Ausdruck fehlenden wissenschaftlichen Wettbewerbs oder Eingeständnis, dass die wissenschaftlichen Monita von geringer Relevanz für die akademische und die wirtschaftspolitische Praxis sind. Vermutlich verzeichnen andere Disziplinen ähnliche Konflikte. Aber Naturwissenschaften, Technik oder Medizin können oder wollen sich offenbar nicht die gleiche Souveränität gegenüber wissenschaftlichen Erfordernissen leisten wie die Wirtschaftswissenschaften oder zumindest der hier betrachtete Teil. 75 Auch die „invisible hand of truth“ leidet eben gelegentlich unter Arthrose. Wir sollten die Verwertungsbedingungen wissenschaftlicher Produktion nicht nur als Limitierungen, sondern eben nicht nur als Anreger und Ideengeber, sondern auch als Schiedsrichter akzeptieren, was in den Wirtschaftswissenschaften bislang kaum der Fall ist. „Wie viel Ökonomie braucht die Wissensgesellschaft?“ – so gesehen vielleicht mehr, als sie sich eingesteht. Aber darüber entscheidet bei uns die Wissensgesellschaft bislang weitgehend selbst – schöne Aussichten?
Literatur Adams, F. Gerard (1986): The business forecasting revolution. Nation – industry – firm, New York, Oxford. Bassie, Lewis V. (1958): Economic forecasting, New York. Belsley, David A. / Kuh, Edwin (Hrsg.) (1986): Model reliability, Cambridge, MA. Belsley, David A. / Kuh, Edwin / Welsch, Roy E. (1980): Regression diagnostics, New York. Ben-David, Josef (1968); Scientific entrepreneurship and the utilization of research. Excerpt from: Fundamental research and the universities, Paris (OECD), S. 56 –61. Wiederabgedruckt in Barnes, Barry (Hrsg.): Sociology of science, (Penguin modern sociology readings), Harmondsworth, S. 181 – 187. Ben-David, Josef / Zloczower, Awraham (1972): The growth of institutionalized science in Germany. Excerpt from ‚Universities and academic systems in modern societies‘, in: European Journal of Sociology, Vol. 3, S. 45 – 84. Wiederabgedruckt in Barnes, Barry (Hrsg.): Sociology of science, (Penguin modern sociology readings), Harmondsworth, S. 181 – 187. Bente, Klaus (2010): Quantifizierte Stromlinienform oder diversifizierte Qualität – Ein Beitrag – nicht nur – aus der Praxis, in diesem Band, S. 469ff.
75
Wie weit sich die Praxis von Venter (2009) durchsetzt bleibt abzuwarten.
346
Ullrich Heilemann
Bodkin, Ronald G. / Klein, Lawrence R. / Marwah, Kanta (1991): A history of macroeconometric model-building, Aldershot. Bratt, Elmer C. (1961): Business cycles and forecasting, 5th ed., Homewood, IL. Brunner, Karl (1973): Book review – Economic models of cyclical behavior, in: Journal of Economic Literature, Vol. 11, S. 926 – 933. Chazen, Stephen (1977): Forecasting with ARIMA models, in: Data Resources Review, Vol. 6, September, S. I12-I25. Data Resources Inc. (Hrsg.) (1976): Operations overview, Lexington, MA. Daub, Mervin (1987): Canadian economic forecasting – in a world where all’s unsure, Kingston and Montreal. Eckstein, Otto (1983): The DRI-model of the U.S. economy, New York. Eckstein, Otto / Green, Edward W. / Sinai, Allan (1974): The Data Resources Model: uses, structures, and analysis of the U.S. economy, in: International Economic Review, Vol. 15, S. 595 – 615. Elliott, Donald E. (1985): The St. Louis Fed’s monetary model: when it came – how it thrived, 1970 – 1983, New York. Evans, Michael. K. (2003): Practical business forecasting, Oxford, UK. Fagan, Gabriel / Henry, Jerome / Mestre, Ricardo (2004): Structrual modelling of the Euro area, in: Hall, Stephen G. / Ullrich Heilemann / Peter Pauly (Hrsg.): Macroeconometric models and European Monetary union, RWI Schriften, 73, Berlin, S. 115 –129. Fair, Ray C. (2000): Structural macroeconometric modeling and the ‚modern‘ view of macroeconomics. Cowles Commission, Yale University, New Haven, CT. mimeo. Favero, Govanni (2007): Weather forecast or rain-dance? On inter-war business barometers, Ca’Foscari University of Venice Working Paper 14, Venice, Italy. Fourcade, Marion (2009): Economists and societies, Princeton. Friedman, Walter A. (2007): The rise of business forecasting agencies in the United States, Harvard Business School Working Paper 07 – 045, Cambridge, MA. Gass, Saul I. / Sisson, Roger L. (1974): A guide to models in governmental planning and operations, prepared for Office of Research and Development Environment Protection Agency, Washington, D.C. Goldberger, Arthur S. (2004): Econometric computing by hand, in: Journal of Economic and Social Measurement, Vol. 29, S. 115 – 117. Hacks, Peter (1988): Schöne Wirtschaft – Ästhetisch-ökonomische Fragmente, Berlin. Heilemann, Ullrich (1980): Zur Praxis ökonometrischer Modelle in den USA, in: Jahrbücher für Nationalökonomie und Statistik, Heft 195, S. 61 –76. Heilemann, Ullrich (1982): Zur Akzeptanz ökonometrischer Modelle in der empirischen Wirtschaftsforschung – die Beispiele USA und Bundesrepublik, in: Bendisch, Jürgen / Peter Hoschka (Hrsg.): Möglichkeiten und Grenzen sozio-ökonomischer Modelle, GMD-Studien, Nr. 68., St. Augustin, S. 19 – 44.
Zur Industrialisierung der empirischen Wirtschaftsforschung
347
Heilemann, Ullrich (2002): Small is beautiful? – Entwicklungslinien im makroökonometrischen Modellbau, in: Jahrbücher für Nationalökonomie und Statistik, Heft 222, S. 656 – 682. Hickman, Bert G. (Hrsg.) (1972): Econometric models of cyclical behavior, in: Studies in income and wealth, Vol. 36, 2 Bde., New York. Hickman, Bert G. (1980): EMF7 model comparison: key relationships and parameters. EMF 7.3. Energy modelling forum, Stanford, CA. Hiltzig, Michael A. (1985): Big forecasters failed to predict own misfortune, Los Angeles Times, March 3, 1985. Intriligator, Michael D. / Bodkin, Ronald G. / Hsiao, Cheng (1996): Econometric models, techniques, and applications, Saddle River, NJ. Kasputys, Joseph E. (1985): Moving econometrics from theory to application, Eastern Economic Journal, vol. XI, S. 16 – 27. Koopmans, Tjalling C. (1947): Measurement without theory, in: The Review of Economic Statistics, Vol. 29, No. 3, S. 161 – 172. Lodewijks, John (1989): Macroeconometric models and the methodology of macroeconomics, in: History of Economics Society Bulletin, Vol. 11, S. 33 –58. Malecki, Ignazy / Olszewski, Eugeniusz (1965): Regularities in the development of contemporary science. Revised by the authors for this volume from their translation, in: Orgon, Vol. 13, S. 193 – 212. Wiederabgedruckt in Barnes, Barry (Hrsg.): Sociology of science, Penguin modern sociology readings, Harmondsworth, S. 147 –165. Marron, Donald B. (1984): Otto Eckstein and the founding of Data Resources Inc., in: Review of Economics and Statistics, Vol. 66, S. 537 – 546. Mayer, Thomas (1995): Doing economic research – Essays on the applied methodology of economics, Aldershot. McCracken, Michael C. / May, Keith (2004): Issues in the development of early solution facilities for very large macroeconometric models, in: Journal of Economic and Social Measurement, Vol. 29, S. 167 – 171. McNees, Stephen K. (1986): Forecasting accuracy of alternative techniques: a comparison of US macroeconomic forecasts, in: Journal of Business and Economic Statistics, Vol. 4, S. 16 – 23. Morgan, Mary S. (1992): The history of econometric ideas, Cambridge. Morley, James (2010): The emperor has no clothes, in: Macroeconomic Advisors’ Macro Focus, vol. 5, no. 2, S. 1 – 14. Newlon, Daniel H. (1989): The role of the NSF in the spread of ideas, in: Colander, David H. / Alfred William Coats (Hrsg.), The spread of economic ideas, Cambridge. Renfro, Charles G. (2004a): Econometric software: The first fifty years in perspective, in: Journal of Economic and Social Measurement, Vol. 29, S. 9 –107. Renfro, Charles G. (2004b): The early development of econometric modelling languages, in: Journal of Economic and Social Measurement, Vol. 29, S. 145 –166.
348
Ullrich Heilemann
Richardson, J. H. (1929): Business forecasting in the United States: recent developments by individual companies, in: International Labour Review, Vol. 19, S. 175 –192. Sanderson, Allan R. (1981): DRI-readings in macroeconomics, New York. Schink, George R. (2004): Simulations with large econometric models: The quest for a solution, in: Journal of Economic and Social Measurement, Vol. 29, S. 135 –143. Seligman, Ben B. (1963): Main currents in modern economics – economic thought since 1870, New York. Sinai, Allan (1977): Distributed lags, Lexington, MA. Sinai, Allan (1992): Criteria for judging macroeconomic forecasting, in: Cato Journal, Vol. 12, S. 161 – 165. Stein, Herbert (1986): The Washington economics industry, in: American Economic Review, Vol. 76, No. 2, Papers and Proceedings, S. 1 –9. Uebe, Götz (2001): Goetz Uebe’s list of macroeconometric models. The survey of macroeconometric / economic models in chronological order, online verfügbar unter: http ://www.Unibw-hamburg.de (November 2009). Venter, J. Craig (2009): A life decoded – my genome: my life, New York. Wallis, Kenneth F. (Hrsg.) (1985): Models of die U.K. economy – a second review by the ESRC Macroeconomic Modelling Bureau, Oxford. Wilson, Thomas A. (1984): Otto Eckstein: Applied economist par excellence, in: Review of Economics and Statistics, Vol. 66, S. 531 – 536. Wingens, Matthias (1988): Wissensgesellschaft und Industrialisierung der Wissenschaft, Wiesbaden. Zarnowitz, Victor (1992): Business cycles – theory, history, indicators, and forecasting, Chicago. Zellner, Arnold / Peck, Scott C. (1973): Simulation experiments with a quarterly macroeconometric model of the U.S. economy, in: Powell, Alan / Ross A. Williams (Hrsg.): Econometric Studies of macro and monetary relations, Amsterdam and New York, S. 149 – 167.
Der Beitrag der Bildungsökonomie zur Schulqualitätsforschung – eine kritische Würdigung Von Manfred Weiß 1
I. Einleitung Innerhalb der Bildungsökonomie hat sich im Zuge ihrer thematischen Ausdifferenzierung in den 1970er Jahren ein Forschungsstrang entwickelt, der sich in systematischen Untersuchungen mit Fragen der internen Effizienz im Schulbereich befasst. 2 Dieser Forschungsstrang hat in den letzten Jahren einen beträchtlichen Bedeutungszuwachs erfahren. Im Mittelpunkt des Interesses stehen dabei bildungspolitisch beeinflussbare Bedingungsfaktoren der Qualität der Schulbildung. Dass diese Thematik zu einem zentralen Forschungsschwerpunkt avanciert ist, hat verschiedene Gründe: die hohe öffentliche Aufmerksamkeit, die Schülerleistungen im Gefolge von TIMSS und insbesondere PISA erfahren haben, wachsende Zweifel an der Effizienz herkömmlicher Strategien der Qualitätsverbesserung sowie die in neueren Studien der Humankapitalforschung herausgestellte Bedeutung der Ergebnisse internationaler Leistungstests als wichtige Prädiktoren des Wirtschaftswachstums von Ländern. 3 Die von der Bildungsökonomie in diesem Schwerpunkt bearbeiteten Fragestellungen haben eine größere thematische Schnittmenge mit den Forschungsprogrammen anderer Bildungswissenschaften, insbesondere der Erziehungswissenschaft, entstehen lassen. Welchen spezifischen Forschungsbeitrag leistet dabei die Bildungsökonomie, worin besteht der „Mehrwert“ ihrer Mitwirkung im Ensemble der anderen Referenzdisziplinen der Bildungsforschung? Bei der Erforschung der Bedingungsfaktoren von Schulqualität gilt das Hauptaugenmerk der Bildungsökonomie Ressourcen und Institutionen (im Sinne von verhaltenssteuernden Regelsystemen). In den Forschungsprogrammen der an1 Prof. Dr. Manfred Weiß ist assoziierter Wissenschaftler am Deutschen Institut für Internationale Pädagogische Forschung sowie Honorarprofessor für Bildungsökonomie und Bildungsforschung an der Universität Erfurt. 2 Vgl. Weiß (1982). 3 Vgl. Hanushek / Kimko (2000); Hanushek / Wößmann (2008).
350
Manfred Weiß
deren Bildungswissenschaften finden solche distalen, vom Unterrichtsgeschehen entfernte „Oberflächenvariablen“ wenig Beachtung. Die Bildungsökonomie bringt zudem neuartige theoretische Zugangswege in die Bildungsforschung ein, z. B. Erklärungsansätze der Neuen Institutionenökonomie 4 bei ihren Analysen institutioneller Einflussfaktoren. Zugleich hat sie deren Methodenarsenal um Verfahren aus der Ökonometrie erweitert. Auf wachsendes Interesse der anderen Bildungswissenschaften stoßen vor allem Verfahren, die die Schätzung kausaler Effekte auch bei Vorliegen nicht-experimentell erhobener Daten erlauben. 5 Alleinstellungsmerkmal der Bildungsökonomie ist die Bereitstellung von Effizienzinformationen durch Zusammenführung von Wirksamkeits- und Kostendaten. Das qualifiziert sie in besonderer Weise zur Unterstützung von Entscheidungen unter verschärften Knappheitsbedingungen.
II. Der Forschungsansatz der Bildungsökonomie Bei der empirischen Erforschung der Qualitätswirksamkeit von Ressourcen und Institutionen bedient sich die Bildungsökonomie vorrangig des Konzepts der Bildungsproduktionsfunktion. 6 Die untersuchten Variablenzusammenhänge werden darin als Input-Output-Beziehungen modelliert; unterstellt wird ein direkter Einfluss von Ressourcen und institutionellen Merkmalen auf Lernergebnisse. Theoretisch zu begründen ist indes nur ein indirekter, über „unterrichtsnahe“ prozessuale Bedingungsfaktoren vermittelter Einfluss: die angebotenen Lerngelegenheiten, die Qualität der Instruktion und die Nutzung der Lerngelegenheiten durch die Schüler. 7 Der Produktionsfunktions-Ansatz der Bildungsökonomie 4 Die Neue Institutionenökonomie beschäftigt sich mit den Auswirkungen von Institutionen (z. B. Verfügungsrechten, Verträgen, Organisationsstrukturen, Märkten) auf menschliches Verhalten. Sie untersucht insbesondere Möglichkeiten der effizienten Gestaltung von Institutionen. Die der Neuen Institutionenökonomie zurechenbaren Ansätze (Theorie der Verfügungsrechte, Transaktionskostentheorie und Principal-Agent-Theorie) sind durch weitgehend übereinstimmende Annahmen zum menschlichen Verhalten gekennzeichnet: individuelle Nutzenmaximierung und begrenzte Rationalität des Handelns (vgl. Picot / Dietl / Franck (1999), S. 54ff.). 5 Vgl. die Übersicht bei Schneider et al. (2007). 6 Das üblicherweise der Effektschätzung zugrunde liegende Modell einer Bildungsproduktionsfunktion lässt sich formal wie folgt darstellen: Q = F´β1 + R´β2 + I´β3 + ε, mit Q als Qualitätsindikator (meist Testleistungen der Schüler), F´ als Vektor von Merkmalen des familiären Hintergrunds, R´ als Vektor von Merkmalen der schulischen Ressourcen, I´ als Vektor von institutionellen Merkmalen der Bildungssysteme und ε als Fehlerterm. Die Parametervektoren β1 bis β3, die die Stärke des Zusammenhangs zwischen dem Qualitätsindikator (Testleistungen) und den jeweiligen Einflussfaktoren (unabhängigen Variablen) widerspiegeln, werden in einer multivariaten Regressionsanalyse geschätzt. 7 s. z. B. Fend (1998), S. 268 ff.
Bildungsökonomie und Schulqualitätsforschung
351
blendet diese Einflussebene als „black box“ aus; er erlaubt deshalb nur eine unterkomplexe Erfassung von Wirkungsbeziehungen. Die Belastbarkeit der Forschungsergebnisse ist dadurch, wie zu zeigen sein wird, eingeschränkt.
III. Untersuchungen zur Ressourcenwirksamkeit Mithilfe des Produktionsfunktionsansatzes ist in der Vergangenheit von der Bildungsökonomie vor allem der Einfluss in der Realität vorfindbarer Unterschiede in der finanziellen, personellen und materiellen Ressourcenausstattung von Schulen und Schulsystemen auf Schülerleistungen untersucht worden. Das aus verschiedenen Forschungsauswertungen gezogene Resümee 8 fällt für die Bildungspolitik ernüchternd aus: Zwischen Schulressourcen und Schülerleistungen zeigt sich kein enger und konsistenter Zusammenhang. Dieses Ergebnis problematisiert die weit verbreitete Praxis des „Mehr desselben“. Auf eine generelle Bedeutungslosigkeit schulischer Ressourcen kann daraus nicht geschlossen werden: Erstens gelten die Ergebnisse nur für den jeweils untersuchten Variationsbereich, zweitens wird Schulqualität auf ein schmales Segment messbarer Bildungsergebnisse (fachspezifische Schülerleistungen) reduziert, drittens decken die Studien nicht das gesamte Spektrum an Möglichkeiten der Mittelverwendung ab. Einschränkungen ihres Aussagegehalts ergeben sich auch daraus, dass sowohl die Nutzung 9 als auch die Qualität der Ressourcen 10 meist nur unzureichend erfasst werden. 11 Für die Mittelbereitstellung und die Ausgabenpolitik im Schulbereich sind die bildungsökonomischen Befunde zur Ressourcenwirksamkeit bislang weitgehend folgenlos geblieben: In nahezu sämtlichen OECD-Staaten ist über Jahre hinweg ein Anstieg der realen Ausgaben je Schüler zu verzeichnen. 12 8
Vgl. z. B. Hanushek (1997); Hanushek / Luque (2003). Dass man z. B. von der Verfügbarkeit von Computern in der Schule (oder zu Hause) nicht ohne Weiteres Rückschlüsse auf Lernleistungen ziehen kann, sondern dass Art und Intensität der Nutzung entscheidend sind, verdeutlicht eine multivariate Auswertung von PISA-Daten durch Fuchs / Wößmann (2005). 10 Die inadäquate Erfassung der Ressourcenqualität zeigt sich besonders augenfällig beim Lehrpersonal. Meist begnügt man sich hier mit kruden Indikatoren wie Ausbildungsdauer / formale Abschlüsse, Berufserfahrung und Lehrergehälter. Wenn für diese Merkmale oftmals kein signifikanter Zusammenhang mit Schülerleistungen festgestellt wird, dann kann daraus nicht auf eine geringe Relevanz der Lehrerqualität geschlossen werden. So gelangen z. B. Rivkin / Hanushek / Kain (2005) in einer in Texas durchgeführten Studie zu dem Ergebnis, dass der von vergleichbaren Schülern (unter identischen Bedingungen) erreichte Lernzuwachs bereits nach einem Jahr erheblich differiert, je nachdem, von welchem Lehrer sie unterrichtet wurden. Auf welchen Lehrereigenschaften diese Unterschiede beruhen, sagt die Studie indes nicht. 11 Vgl. zu weiteren Kritikpunkten Weiß / Timmermann (2008). 12 Vgl. OECD (2008), S. 243. 9
352
Manfred Weiß
Besonders kontrovers wird zwischen Wissenschaft und Praxis die Bedeutung der Klassengröße für Schülerleistungen diskutiert. Die Bildungsökonomie hat sich in diese Debatte nicht bloß mit dem Hinweis auf die beträchtlichen Mehrkosten einer Verkleinerung der Klassen eingeschaltet, sondern auch mit eigenen Wirkungsstudien. Klassengrößeneffekte werden darin mit Methoden untersucht (z. B. Effektschätzungen für Instrumentvariablen, IV-Methode), die eine angemessene Berücksichtigung der Tatsache erlauben, dass häufig Schüler nicht zufällig, sondern etwa in Abhängigkeit von ihren Leistungen in unterschiedlich großen Klassen unterrichtet werden (Problem der Ressourcenendogenität). 13 Diese Studien können keine Leistungsüberlegenheit kleiner Klassen nachweisen und reihen sich damit in das Bild ein, das auch die Ergebnisse aus anderen Forschungsprogrammen zu leistungsbezogenen Klassengrößeneffekten vermitteln. 14 Ein Manko der Studien besteht darin, dass sie nicht theoriegeleitet sind und die Interaktions- und Unterrichtsprozesse ausblenden. So bleibt die Frage nach der Ergebnisgenese unbeantwortet: warum Leistungseffekte ausbleiben, obwohl ein lernförderndes Potenzial kleiner Klassen theoretisch überzeugend begründet werden kann. 15 Im bildungsökonomischen Schrifttum finden sich bislang nur wenige Arbeiten, die Informationen aus empirischen Produktionsfunktions-Schätzungen mit Kosteninformationen zusammenführen, um zu faktoriellen Effizienzaussagen zu gelangen. 16 Diese Studien zeigen vielfach, dass sich durch Mittelumschichtungen – budgetneutral – Qualitätsverbesserungen (höhere Leistungsniveaus) erreichen ließen. Verschiedene Studien lassen ferner auf die Existenz differenzieller Ressourceneffekte schließen. Auf die Leistungen in „typischen“ Schulfächern wie Mathematik und Naturwissenschaften ist danach eher ein Einfluss von Ressourcen zu erwarten als auf Leistungen in Fächern, die stärker vom Elternhaus geprägt sind. 17 Hinweise finden sich auch auf eine Effektabhängigkeit von familiären Hintergrundmerkmalen der Schüler: Positive Ressourceneffekte fallen für Kinder aus benachteiligten Elternhäusern häufig stärker aus. Die weit verbreitete Praxis einer differenzierten Ressourcenzuweisung an die Schulen auf der Basis von Belastungs- und Deprivations-Indikatoren findet dadurch ihre wissenschaftliche Fundierung.
13 14 15 16 17
Vgl. dazu z. B. Wößmann / West (2006); Leuven / Oosterbeek / Ronning (2008). Vgl. z. B. Arnhold (2005); Altrichter / Sommerauer (2007). Vgl. z. B. Petillon (1985). Vgl. z. B. Pritchett / Filmer (1999); Levacic et al. (2005). Vgl. z. B. Levacic et al. (2005).
Bildungsökonomie und Schulqualitätsforschung
353
IV. Untersuchungen zur Wirksamkeit von Institutionen Die insgesamt wenig ergiebigen Befunde zur Wirksamkeit schulischer Ressourcen sind in der bildungsökonomischen Forschung in der letzten Zeit zum Anlass genommen worden, das Augenmerk stärker auf andere Strategien der Qualitäts- und Effizienzverbesserung zu richten: die als Anreizstrukturen wirkenden institutionellen Rahmenbedingungen des Schulsystems. „Aus ökonomischer Sicht versprechen solche institutionellen Rahmenbedingungen den größten Erfolg, die für alle Beteiligten Anreize schaffen, die Lernleistungen der Schüler zu erhöhen: [...] Regelungen und Regulierungen des Schulsystems, die explizite oder implizite Belohnungen und Sanktionen für unterschiedliches Verhalten der Akteure erzeugen“. 18 Als besonders leistungsfördernd gelten Dezentralisierung und Schulautonomie, extern gesetzte Standards in Verbindung mit zentralen Abschlussprüfungen sowie Wettbewerbselemente. Die empirische Untersuchung der Wirksamkeit dieser Maßnahmen wird durch den Zugang zu Datensätzen aus internationalen Schulleistungsstudien begünstigt. Sie erfüllen die Voraussetzung einer für das Auffinden von Effekten hinreichenden Varianz der institutionellen Faktoren, wie sie im nationalen Kontext meist nicht gegeben ist. Dieser Vorteil wird freilich mit den bekannten Problemen des internationalen Vergleichs erkauft (vgl. z. B. Klieme / Stanat (2002); Fend (2004)). Sie manifestieren sich, wie die nachfolgende Übersicht zeigt, augenfällig in Effektunterschieden für einzelne Variablen, die nicht nur die Effektstärke sondern auch die Effektrichtung betreffen. Im Bemühen um generalisierbare Aussagen berechnete Durchschnittseffekte können sich dann als höchst problematisch erweisen, wenn damit – ungeachtet der jeweiligen Kontextbedingungen – nationale Politikempfehlungen begründet werden. Kontextuelle Wirkungsabhängigkeiten werden in bildungsökonomischen Untersuchungen, die den Leistungseinfluss von Institutionen auf der Basis internationaler Datensätze analysieren, nicht angemessen berücksichtigt. Entsprechend kontextinsensibel fallen ihre Politikempfehlungen aus. Darin manifestieren sich unzureichende Institutionenkenntnisse. Langjährige Erfahrungen der international vergleichenden Bildungsforschung haben zur Einsicht geführt, dass sich auf diese Weise weder ubiquitäre Einzelfaktoren noch Faktorenkonstellationen erfolgreicher Schulsysteme identifizieren lassen: „... it is not possible to identify a small set of factors that jointly explain why some countries perform better than others; the best „policy mix“ for one country is not likely to be the same as that for any other country“. 19 Damit korrespondierend gelangt die OECD in einer clusteranalytischen Auswertung der Daten aus der dritten PISA-Erhe18 19
Wößmann (2005a), S. 19. Willms (2006), S. 68.
354
Manfred Weiß
bung 20 zu dem Ergebnis, dass ähnliche Bildungssysteme völlig unterschiedliche Schülerleistungen in den Naturwissenschaften hervorbringen. Tabelle 1 Schulische Faktoren und ihr Einfluss auf die Lesekompetenz in verschiedenen Ländern (Zuwachs an Punkten bei Veränderung der Prädiktoren um eine Standardabweichung)
Länder
Arbeitshaltung SchülerLehrerSchulSchul- LeistungsSchulklima 1 und Stimmung Lehrer2 2 autonomie autonomie disziplin 3 druck 3 der Lehrer 1 Verhältnis 3
Australien
8
7
–6
14
8
19
Kanada
4
2
2
18
18
10
–6 –3
Finnland
–3
8
6
–4
11
6
–13
Deutschland
4
1
–11
–8
32
1
0
Schweiz
–8
4
–2
9
11
10
–11
Vereinigtes Königreich
17
5
–2
18
19
15
–8
MetaEffekt
4
3
–2
4
16
10
3
1
Einschätzung des Engagements des Lehrkörpers durch Schulleiter Summierung von Entscheidungsmöglichkeiten 3 nach Einschätzung der Schüler 2
Quelle: Fend (2004), S.32.
1. Zentrale Abschlussprüfungen Von der Einführung zentraler Abschlussprüfungen erwartet die Bildungspolitik nachhaltige Qualitätsverbesserungen im Schulbereich. Diese Erwartung wird durch die bildungsökonomische Forschung theoretisch und empirisch gestützt. Die Leistungswirksamkeit zentraler Abschlussprüfungen ist mehrfach auf der Basis der Daten internationaler Schulleistungsstudien (TIMSS, PISA) untersucht worden. 21 Weitgehend übereinstimmend zeigt sich, dass Schüler in Ländern mit externen Abschlussprüfungen in den internationalen Leistungstests im Durchschnitt besser abschneiden als Schüler in Ländern ohne solche Prüfungen. Trotz dieser Evidenz sind aufgrund der höchst unterschiedlichen Ausgestaltung, Durchführung und Relevanz zentraler Prüfungen in den einzelnen Ländern Zweifel am Aussagegehalt der Studien angebracht. 22 Weniger problematisch sind in dieser Hinsicht Untersuchungen, die Variationen innerhalb eines Landes nut20 21 22
Vgl. OECD (2007a), S. 329 ff. Vgl. die Übersicht bei Wößmann (2007). Vgl. Schümer / Weiß (2008).
Bildungsökonomie und Schulqualitätsforschung
355
zen, um den Einfluss zentraler Prüfungen auf Schülerleistungen zu überprüfen. Für Deutschland können Jürges / Schneider / Büchel (2005) in einer Analyse von TIMSS-Daten einen moderaten Effekt von Zentralprüfungen auf Schülerleistungen nachweisen. Erklärungsbedürftig bleibt jedoch, wie sich zentrale Abschlussprüfungen am Ende der Sekundarstufe II auf die Leistungen von Siebt-und Achtklässlern auswirken. Auch steht das Ergebnis unter dem Vorbehalt, dass es von unbeobachteten Unterschieden zwischen den Bundesländern beeinflusst wurde. 23 2. Schulautonomie Eine weitere institutionelle Rahmenbedingung, über deren Qualitätsrelevanz breiter Konsens besteht, stellt der Autonomiegrad der Schulen dar. Die Bildungsökonomie bezieht dazu eine differenziertere Position als die Bildungspolitik, indem sie – gestützt auf Erkenntnisse der Neuen Institutionenökonomie – bereits in ihrer theoretischen Argumentation auf eine Ambivalenz hinweist: Größere Handlungsautonomie erlaubt auf der einen Seite die leistungsfördernde Nutzung des in der größeren „Geschehensnähe“ liegenden Informationsvorteils der schulischen Akteure; auf der anderen Seite begünstigt sie opportunistisches, von Eigennutzmotiven geleitetes Handeln. Welches Verhalten sich letztlich durchsetzt, hängt zum einen von der Bedeutung einzelner Handlungsfelder für die Verfolgung individueller Wohlfahrtsziele ab, zum anderen von den jeweiligen verhaltenssteuernden institutionellen Rahmenbedingungen. Auswertungen des internationalen Datensatzes aus der ersten PISA-Erhebung durch Wößmann 24 verweisen wiederum auf die besondere Bedeutung externer Abschlussprüfungen. Positive Autonomieeffekte zeigen sich danach nur in Verbindung mit solchen Prüfungen. Fehlt diese Bedingung, dann geht ein hoher Autonomiegrad meist mit niedrigeren mittleren Schülerleistungen einher. Wößmann sieht darin die These bestätigt, dass die schulischen Akteure ihre Autonomie nur dann zur Leistungsförderung der Schüler statt zum eigenen Vorteil nutzen, wenn die Schulen durch externe Leistungsprüfungen zur Rechenschaft gezogen werden. Deshalb sollte eine effiziente Bildungspolitik „Zentralprüfungen mit Schulautonomie verbinden, sie sollte Standards extern vorgeben und überprüfen und es gleichzeitig den Schulen überlassen, wie sie diese Standards erreichen wollen“. 25 Diese Indifferenz gegenüber der Mittelwahl kontrastiert auffällig mit der die Lehrerschaft unter Generalverdacht stellenden Opportunismusthese. Übersehen wird offenbar, dass das Verhaltensrepertoire der schulischen Akteure weit größer ist als einfache ökonomische Erklärungsansätze unterstellen und dass sich darun23 24 25
Vgl. ausführlich Schümer / Weiß (2008). Vgl. zusammenfassend Wößmann (2007). Wößmann (2005b), S. 166, Hervorhebung des Autors.
356
Manfred Weiß
ter Verhaltensreaktionen befinden, die unerwünschte Wirkungen hervorbringen. Deren Genese steht in engem Zusammenhang mit der „Produktionsspezifik“ im pädagogischen Feld. Zu nennen ist erstens die hohe Unsicherheit bezüglich der eigenen „Technologien“; Lehr-Lernprozesse und der Wissenserwerb als intendiertes Ergebnis dieser Prozesse laufen nicht auf der Basis klarer Kausalitäten und beherrschbarer Technologien ab. Eine zweite Spezifität ist der starke Einfluss „externer Mitproduzenten“ auf das Leistungsergebnis. 26 Unter diesen Bedingungen ist es für Schulen oftmals Erfolg versprechender, vorgegebene Leistungsstandards, insbesondere wenn daran Belohnungen und Sanktionen geknüpft sind, über Mechanismen der Schülerselektion und andere nicht-pädagogische Maßnahmen zu sichern. Solche unerwünschten Verhaltensreaktionen sind durch die internationale Bildungsforschung hinreichend dokumentiert. 27 Ihre Vernachlässigung in der bildungsökonomischen Forschung verweist wiederum auf theoretisch-konzeptionelle Schwächen des Produktionsfunktionsansatzes. Aufgrund des Fehlens der schulischen Handlungsebene kann das Zustandekommen gefundener Zusammenhänge nicht befriedigend erklärt werden. Nicht auszuschließen ist, dass höhere Leistungen mit unerwünschten Handlungen erzielt wurden. Dies kann nur ein Forschungsansatz aufspüren, der auf die Frage fokussiert ist, wie externe Steuerungsvorgaben von den Schulen „verarbeitet“ werden. Dazu sind die Forschungsprogramme der anderen Bildungswissenschaften zu befragen. Und sie gelangen zu einer eher vorsichtigen Einschätzung der von einer Stärkung der Eigenverantwortlichkeit von Schulen zu erwartenden prozessbezogenen Qualitätsverbesserungen. 28 3. Wettbewerb Wie von Dezentralisierung und Autonomie, so werden auch von Wettbewerb nachhaltige Qualitäts- und Effizienzverbesserungen im Schulbereich erwartet. In einer ganzen Reihe von Ländern, insbesondere im angelsächsischen Raum, wurden Steuerungssysteme im Bildungsbereich etabliert, die Wettbewerbselemente als konstitutiven Bestandteil beinhalten: Schulwahlfreiheit, die Stärkung der Konkurrenz durch private Bildungsangebote und Formen nachfrageorientierter Finanzierung der Schulen (Pro-Kopf-Zuweisungen, Bildungsgutscheine). Für viele Ökonomen steht die Wirksamkeit von Wettbewerb im Schulbereich 26 In PISA z. B. lassen sich durchschnittlich mehr als 60% der Leistungsunterschiede zwischen den Schulen eines Landes auf den sozio-ökonomischen Hintergrund der Schüler und den der Schule zurückführen (Willms (2006), S. 38). 27 Vgl. zusammenfassend de Wolf / Janssens (2007); Bellmann / Weiß (2009). 28 Dazu vorliegende Befunde lassen auf eine relativ steuerungsinvariante innerschulische Arbeitskultur schließen (Eckholm (1997)); sie werfen die grundsätzliche Frage auf, in welchem Maße neue Steuerungsinstrumente überhaupt bis auf die Ebene des Unterrichts durchgreifen.
Bildungsökonomie und Schulqualitätsforschung
357
außer Frage: „Die Nutzen stiftenden Wirkungen von Wettbewerb sind in anderen Handlungsfeldern so gut dokumentiert, dass es kaum vorstellbar ist, mehr Wettbewerb sei für Schulen nicht vorteilhaft“. 29 Die empirische Evidenz fällt indes weniger eindeutig aus. Die bislang wohl umfangreichste Dokumentation von US-amerikanischen Studien zur Effizienzwirksamkeit von Wettbewerb im Schulbereich stammt von Belfield / Levin (2002). In einer meta-analytischen Auswertung ermitteln sie einen positiven, aber geringen Effekt von Wettbewerb auf Schülerleistungen. Bis zu zwei Drittel der in den Einzelstudien berichteten Effektschätzungen sind nicht signifikant. Auch die aus anderen Ländern vorliegenden Forschungsergebnisse fallen widersprüchlich aus und legen insgesamt eine eher zurückhaltende Einschätzung des leistungsfördernden Potenzials von Wettbewerb im Schulbereich nahe. 30 Die Erwartungen an Wettbewerb dämpft auch die mehrebenenanalytische Auswertung des internationalen Datensatzes aus der dritten PISA-Erhebung durch die OECD (2007b): Ein positiver Effekt konkurrierender Schulen auf die Leistungen der 15-Jährigen lässt sich nicht belegen. 31 Wettbewerb ist offensichtlich kein uneingeschränkt einsetzbares Universalmodell. Diese Schlussfolgerung drängt sich noch mehr auf, wenn die für andere Qualitätsdimensionen empirisch hinreichend belegten Dysfunktionalitäten der Wettbewerbssteuerung im Schulbereich berücksichtigt werden: steigende Unitcosts, zunehmende Leistungsdisparitäten und eine Verstärkung der sozialen Segregation. Immerhin machen zum Teil auch bildungsökonomische Studien auf diese negativen Wettbewerbswirkungen aufmerksam. 32 Die bescheidene Erfolgsbilanz der Wettbewerbssteuerung im Schulbereich nährt Zweifel an der Belastbarkeit der dem Wettbewerbsmodell zugrunde liegenden Verhaltensprämissen, die einem deterministischen Verständnis von Anreizstrukturen folgen. Das Damoklesschwert „Klientenverlust“, so die zentrale Modellannahme, sorge für eine besondere Anstrengungsbereitschaft der Schulen, um mit hohen Leistungsstandards im Wettbewerb bestehen zu können; Wettbewerb zwinge die Schulen, stärker auf die Präferenzen der Bildungsnachfrager einzugehen und setze das Schulwesen insgesamt unter Innovationsdruck. Diese Modellannahmen sind hinsichtlich ihres Realitätsgehalts kritisch zu hinterfragen. Unter realen Wettbewerbsbedingungen im Schulbereich verhalten sich Anbieter und Nachfrager oftmals völlig anders als im theoretischen Wettbewerbsmodell unterstellt wird. Die Bandbreite dokumentierter anbieterseitiger „Verhaltensanomalien“ reicht von Selektionsstrategien, die die Schulen gezielt zur „Optimierung der Schülerpopulation“ entwickeln, über die Umverteilung von Unterrichtszeit zugunsten von Testfächern und getesteten Inhalten bis hin zu Ma29 30 31 32
Hanushek / Wößmann (2007), S. 70. Vgl. Oelkers (2007); Weiß (2009). Vgl. OECD (2007b), S. 309. Vgl. z. B. Andersen / Serritzlew (2007); Böhlmark / Lindahl (2007).
358
Manfred Weiß
nipulationen von Testergebnissen und dem Einsatz materieller Leistungsanreize für Schüler. 33 Englische Fallstudien zeigen zudem, dass identische lokale Wettbewerbsbedingungen mit höchst unterschiedlichen Reaktionen der schulischen Akteure einhergehen können, die von Nischenmarketing über aggressive Strategien der Marktpositionierung bis hin zu kooperativen Arrangements reichen. 34 Andere Studien machen deutlich, dass eine anhand objektiver Indikatoren (z. B. „Angebotsdichte“; Privatschüleranteil) ausgewiesene Wettbewerbssituation keine Verhaltensreaktionen evoziert, wenn von den schulischen Akteuren kein Konkurrenzdruck wahrgenommen wird. 35 Das ist etwa im Fall segmentierter Bildungsmärkte zu erwarten. Auch die Nachfrager verhalten sich in der Realität oftmals wenig modellkonform. Zu den empirisch vielfach belegten Auffälligkeiten zählt etwa, dass ein Großteil der Eltern von ihrem Recht auf freie Schulwahl keinen Gebrauch macht, dass sie sich bei ihren Entscheidungen oftmals von pragmatischen Gesichtspunkten (z. B. der Wohnortnähe) leiten lassen, schlechte Leistungswerte von Schulen ihre Wechselbereitschaft nicht unbedingt beflügeln und bisweilen von ihnen gezielt „inferiore“ Anbieter gewählt werden, um sonst nicht erreichbare Berechtigungen für ihre Kinder zu erlangen.
V. Resümee „Die Bildungsökonomie lebt, und weil sie lebt, ändert sie sich“. Mit diesen Worten kommentierte Friedrich Edding, der Nestor der Bildungsökonomie im deutschsprachigen Raum, Anfang der 1970er-Jahre programmatische Differenzierungsprozesse in der Disziplin. Besser denn je charakterisieren diese Worte aktuelle Entwicklungen in der Bildungsökonomie. Sie hat – pessimistischen Prognosen zum Trotz – in den letzten Jahren einen bemerkenswerten Bedeutungszuwachs erfahren. Das betrifft ihre Position in den Wirtschaftswissenschaften ebenso wie ihre Funktion in der Politikberatung. Die Sensibilisierung für Effizienzfragen als Folge der verschärften Engpasssituation in den öffentlichen Haushalten bietet dafür ebenso eine Erklärung wie die Aufwertung von Bildung als strategische Ressource für die Bewältigung wirtschaftlicher und gesellschaftlicher Probleme. Aber auch innerdisziplinäre Entwicklungen lassen sich anführen: z. B. die stärkere Ausrichtung des Forschungsprogramms der Bildungsökonomie an politiknahen Themen. Besonderes Interesse gilt dabei seit einiger Zeit der Qualität der Schulbildung. Die Beschäftigung mit diesem Schwerpunkt hat eine größere thematische Schnittmenge mit den Forschungsprogrammen anderer Re33 34 35
Vgl. ausführlich Bellmann / Weiß (2009). Vgl. Davies / Adnet / Mangan (2002). Vgl. z. B. Levacic / Woods (2000); Buddin / Zimmer (2005).
Bildungsökonomie und Schulqualitätsforschung
359
ferenzdisziplinen der Bildungsforschung entstehen lassen. Doch bleiben Synergiepotenziale wegen der vorherrschenden disziplinären Forschungsorganisation weitgehend ungenutzt. 36 In den Empfehlungen des Wissenschaftsrats zum Ausbau der Bildungsforschung war dies einmal anders vorgesehen. 37 Hinzu kommt eine ausgeprägte Selbstreferenzialität der Bildungsökonomie. Eine Auseinandersetzung mit konkurrierenden Hypothesen und konträren Forschungsergebnissen anderer Disziplinen findet kaum statt. Innerhalb der Qualitätsthematik hat sich in den letzten Jahren eine deutliche Verlagerung des bildungsökonomischen Forschungsinteresses von Ressourcen zu Institutionen vollzogen. Ihnen wird eine Überlegenheit gegenüber ressourcenbezogenen Strategien der Qualitätsverbesserung attestiert. Die empirische Basis liefern „Produktionsfunktionsschätzungen“. Die ihnen zugrunde liegende Input-Output-Logik trägt der Komplexität schulischer Bildungsprozesse nicht angemessen Rechnung. Die auf der Basis internationaler Datensätze gewonnenen Forschungsergebnisse zum Einfluss von Institutionen sind wegen ihrer geringen Kontextsensibilität weniger belastbar, als dies die Sicherheit suggeriert, mit der darauf rekurrierend Politikempfehlungen formuliert werden. Mit anspruchsvollen Analysemethoden – dem „Markenzeichen“ der neuen Bildungsökonomie – lassen sich die grundlegenden Schwächen ihres Forschungsansatzes und die eingeschränkte Tauglichkeit international generierter Daten für Wirkungsanalysen nicht kompensieren.
Literatur Altrichter, Herbert / Sommerauer, Sonja (2007): Klassenschülerzahl, Schülerleistungen und Unterrichtsqualität, in: Erziehung und Unterricht, Heft 7/8, S. 740 –752. Andersen, Simon C. / Serritzlew, Soren (2006): The unintended effects of private school competition, in: Journal of Public Administration Research and Theory, Vol. 17, pp. 335 – 356. Arnhold, Grit (2005): Kleine Klassen – große Klassen? Eine empirische Studie zu der Bedeutung der Klassengröße für Schule und Unterricht, Bad Heilbrunn. Belfield, Clive / Levin, Henry M. (2002): The effects of competition between schools on educational outcomes: A review for the United States, in: Review of Educational Research, Vol. 72, No. 2, pp. 279 – 341. Bellmann, Johannes / Weiß, Manfred (2009): Risiken und Nebenwirkungen Neuer Steuerung im Schulsystem. Theoretische Konzeptualisierung und Erklärungsmodelle, in: Zeitschrift für Pädagogik, Heft 55, Nr. 2, S. 286 – 308. 36 In Deutschland wird bildungsökonomische Forschung fast nur noch in wirtschaftswissenschaftlichen Fachbereichen von Universitäten und in Einrichtungen der außeruniversitären Wirtschaftsforschung betrieben. In Bildungsforschungsinstituten wie dem Max-Planck-Institut für Bildungsforschung und dem Deutschen Institut für Internationale Pädagogische Forschung, in denen die Bildungsökonomie in der Vergangenheit eine bedeutende Rolle spielte, ist sie nicht mal mehr rudimentär vertreten. 37 Vgl. Wissenschaftsrat (2001), S. 54ff.
360
Manfred Weiß
Böhlmark, Anders / Lindahl, Mikael (2007): The impact of school choice on pupil achievement, segregation and costs: Swedish evidence, Bonn (IZA Discussion Paper 2786). Buddin, Richard / Zimmer, Ron (2005): Is Charter School competition in California improving the performance of traditional public schools?, Santa Monica, Calif. Davies, Peter / Adnet, Nick / Mangan, Jean (2002): The diversity and dynamics of competition: evidence from two local schooling markets, in: Oxford Review of Education, Vol. 28, No.1, pp. 91 – 107. Eckholm, Mats (1997): Steuerungsmodelle für Schulen in Europa: Schwedische Erfahrungen mit alternativen Ordnungsmodellen, in: Zeitschrift für Pädagogik, Heft 43, Nr. 4, S. 597 – 608. Fend, Helmut (1998): Qualität im Bildungswesen. Schulforschung zu Systembedingungen, Schulprofilen und Lernleistung, Weinheim. Fend, Helmut (2004): Was stimmt mit den deutschen Bildungssystemen nicht? Wege zur Erklärung von Leistungsunterschieden zwischen Bildungssystemen, in: Schümer, Gundel / Klaus-Jürgen Tillmann / Manfred Weiß (Hrsg.): Die Institution Schule und die Lebenswelt der Schüler, Wiesbaden, S. 15 – 38. Fuchs, Thomas / Wößmann, Ludger (2005): Computer können das Lernen behindern, in: ifo Schnelldienst, Heft 58, Nr. 18, S. 16 – 23. Hanushek, Eric. A. (1997): Assessing the effects of school resources on student performance. An update, in: Educational Evaluation and Policy Analysis, Vol. 19, No.2, pp. 141 – 164. Hanushek, Eric A. / Kimko, Dennis D. (2000): Schooling, labor force quality, and the growth of nations, in: American Economic Review, Vol. 90, No.5, pp. 1184 –1208. Hanushek, Eric. A. / Luque, Javier A. (2003): Efficiency and equity in schools around the world, in: Economics of Education Review, Vol. 22, No.5, pp. 481 –502. Hanushek, Eric A. / Wößmann, Ludger (2007): The role of education quality in economic growth, Washington (World Bank Policy Research Working Paper 4122). Jürges, Hendrik / Schneider, Kerstin / Büchel, Felix (2005): The effect of central exit examinations on student achievement: Quasi-experimental evidence from TIMSS Germany, in: Journal of European Economic Association, Vol. 3, No. 5, pp. 1134 –1155. Klieme, Eckhard / Stanat, Petra (2002): Zur Aussagekraft internationaler Schulleistungsvergleiche – Befunde und Erklärungsansätze am Beispiel von PISA, in: Bildung und Erziehung, Heft 55, Nr. 1, S. 25 – 45. Leuven, Edwin / Oosterbeek, Hessel / Ronning, Marte (2008): Quasi-experimental estimates of the effect of class size on achievement in Norway, Bonn (IZA Discussion Papers 3474). Levacic, Rosalind / Woods, Philip A. (2000): Quasi-markets and school performance: evidence from a study of English secondary schools, in: Weiß, Manfred / Horst Weishaupt (Hrsg.): Bildungsökonomie und Neue Steuerung, Frankfurt / M., S. 53 –95. Levacic, Rosalind et al. (2005): Estimating the relationship between school resources and pupil attainment at key stage 3, London. OECD (2007a): Bildung auf einen Blick, Paris.
Bildungsökonomie und Schulqualitätsforschung
361
OECD (2007b): Naturwissenschaftliche Kompetenzen für die Welt von Morgen, Paris. OECD (2008): Bildung auf einen Blick, Paris. Oelkers, Jürgen (2007): Expertise Bildungsgutscheine und freie Schulwahl, Bern. Petillon, Hanns (1985): Klassenfrequenz: Überlegungen zu einem systematischen Erklärungsansatz, in: Ingenkamp, Karlheinz / Hanns Petillon / Manfred Weiß (Hrsg.): Klassengröße: Je kleiner desto besser?, Weinheim und Basel, S. 147 –202. Picot, Arnold / Dietl, Helmut / Franck, Egon (1999): Organisation. Eine ökonomische Perspektive, 2. Aufl., Stuttgart. Pritchett, Lant / Filmer, Deon (1999): What education production functions really show: A positive theory of education expenditures, in: Economics of Education Review, Vol. 18, pp. 223 – 239. Rivkin, Steven G. / Hanushek, Eric A. / Kain, John F. (2005): Teachers, schools, and academic achievement, in: Econometrica, Vol. 73, No. 2, pp. 326 –354. Schneider, Barbara et al. (2007): Estimating causal effects, Washington. Schümer, Gundel / Weiß, Manfred (2008): Bildungsökonomie und Qualität der Schulbildung. Kommentar zur bildungsökonomischen Auswertung von Daten aus internationalen Schulleistungsstudien, Frankfurt / M. Weiß, Manfred (1982): Effizienzforschung im Bildungsbereich, Berlin (Volkswirtschaftliche Schriften, Heft 316). Weiß, Manfred (2009): Schule und Wettbewerb, in: SchulVerwaltung Hessen und Rheinland-Pfalz, Heft 14, Nr. 2, S. 34 – 36 und S. 69 – 71. Weiß, Manfred / Timmermann, Dieter (2008): Bildungsökonomie und Schulstatistik, in: Helsper, Werner / Jeanette Böhme (Hrsg.): Handbuch der Schulforschung, 2. Aufl., Wiesbaden, S. 239 – 281. Willms, Douglas J. (2006): Learning divides: Ten policy questions about the performance and equity of schools and schooling systems, Montreal. Wissenschaftsrat (Hrsg.) (2001): Empfehlungen zur künftigen Struktur der Lehrerbildung, Köln. Wößmann, Ludger (2005a): Leistungsfördernde Anreize für das Schulsystem, in: ifo Schnelldienst, Heft 58, Nr. 19, S. 18 – 27. Wößmann, Ludger (2005b): Ursachenkomplexe der PISA-Ergebnisse: Untersuchungen auf Basis internationaler Mikrodaten, in: Tertium Comparationis. Journal für International und Interkulturell Vergleichende Erziehungswissenschaft, Heft 11, Nr. 2, S. 152 –176. Wößmann, Ludger (2007): Extern überprüfte Standards, Schulautonomie und Wettbewerb: Chancen für das deutsche Schulsystem, in: Recht der Jugend und des Bildungswesens, Heft 55, Nr. 1, S. 64 – 83. Wößmann, Ludger / West, Martin R. (2006): Class-size effects in school systems around the world: Evidence from between-grade variation in TIMSS, in: European Economic Review, Vol. 50, No. 4, pp. 695 – 736. de Wolf, Inge F. / Janssens, Frans J. G. (2007): Effects and side effects of inspections and accountability in education: an overview of empirical studies, in: Oxford Review of Education, Vol. 33, No. 3, pp. 379 – 396.
Ökonomische Argumente in der Schulpädagogik – Kooperation oder Abgrenzung? Von Klaus-Jürgen Tillmann 1
I. Einleitung Liebe Kolleginnen und Kollegen, meine Damen und Herren, wenn man Erziehungswissenschaftler im Allgemeinen und Schulpädagogen im Besonderen darum bittet, einmal ihre Nachbardisziplinen zu benennen, dann wird man vor allem auf Psychologie und Soziologie, auf Philosophie – vielleicht sogar auf die Theologie – verwiesen. Dass ein Schulpädagoge die Ökonomie als seine Nachbarwissenschaft bezeichnet, dürfte extrem selten vorkommen. Wenn er es dennoch täte, würden seine Fachkollegen wohl mit Verblüffung, vielleicht auch mit Distanzierung reagieren. Wenn man die Geschichte der akademischen Subdisziplin „Schulpädagogik“ auch nur ein wenig überblickt, kann man über diesen Sachverhalt nicht überrascht sein: Geboren wurde die Schulpädagogik aus den Ausbildungserfordernissen der Lehrerseminare des 19. Jahrhunderts, zur geisteswissenschaftlich orientierten universitären Disziplin wurde sie in der ersten Hälfte des 20. Jahrhunderts, durch engen Austausch mit Psychologie und Soziologie modernisierte sie sich seit den 1970er Jahren zu einer auch empirisch arbeitenden Sozialwissenschaft. Mit ihren Theoriekernen in der Allgemeinen Didaktik, der Schultheorie und der Schulentwicklung versteht sie sich zugleich immer auch als „Berufswissenschaft“ für Lehrerinnen und Lehrer. Zur Bildungsökonomie, aber auch zur Rechtswissenschaft und zur Verwaltungswissenschaft hat es im Modernisierungsprozess der 1970er Jahre (und später) zwar punktuelle Kontakte gegeben, die Disziplin wurde dadurch jedoch nicht nachhaltig geprägt. Deshalb ist auch die Beschäftigung mit bildungsökonomischen Aspekten in der Schulpädagogik bis heute randständig geblieben. 1 Prof. Dr. Klaus-Jürgen Tillmann war bis 2008 Inhaber des Lehrstuhls für Schulpädagogik an der Fakultät für Erziehungswissenschaften der Universität Bielefeld und ist heute stellvertretender Vorsitzender der Deutschen Gesellschaft für Erziehungswissenschaft. Der folgende Beitrag ist die erweiterte Fassung des Vortrags an der Universität Leipzig am 4. Dezember 2009. Der Vortragsstil wurde beibehalten, der Text aber um Literatur- und Quellenhinweise ergänzt.
364
Klaus-Jürgen Tillmann
Vor dem Hintergrund dieser etwas holzschnittartigen Einordnung möchte ich mich nun mit der Frage befassen: An welcher Stelle in der Schulpädagogik spielen ökonomische Argumente dennoch eine Rolle? Wo also wird die Randständigkeit zumindest in Ansätzen durchbrochen? Im Unterschied zu meinem Vorredner Manfred Weiß bin ich kein Bildungsökonom, sondern ein empirisch arbeitender Schulpädagoge. Und aus dieser Perspektive trage ich Ihnen meine Analyse vor. Es ist also – wenn Sie so wollen – ein fremder, zugleich aber sehr interessierter Blick auf bildungsökonomische Argumente. In der Kürze der Zeit möchte ich Ihnen zunächst eine Übersicht – eine Art „Landkarte“ bieten: Welche bildungsökonomischen Argumente spielen gegenwärtig in deutschsprachigen Schulpädagogik eine Rolle? Dabei identifiziere ich drei – wie ich finde – sehr unterschiedliche Zugänge. Diese Beschreibung provoziert dann die Frage, welche Kommunikation, welche Kooperation zwischen den beiden Disziplinen ich denn für angemessen halte. Ich antworte mit einem Forschungsbeispiel, das mir besonders am Herzen liegt: die schulpädagogischen und die ökonomischen Argumente gegen das Sitzenbleiben. Soweit die Programmankündigung – und dann geht es auch gleich los.
II. Ökonomische Argumente in der Schulpädagogik heute – eine Übersicht Fragt man danach, welche Rolle in den erziehungswissenschaftlichen Diskussionen der Schulpädagogik gegenwärtig ökonomische Argumente spielen, so ist es m. E. notwendig, dabei zwischen drei Zugängen zu unterscheiden. Ich differenziere zwischen − Theorien und Analysen, die der jüngeren bildungsökonomischen Forschung entstammen, − systematischen Darstellungen über Bildungsausgaben in der Bundesrepublik, die überwiegend der amtlichen Statistik entnommen sind und − Darlegungen, die ich unter die Überschrift einer „pädagogischen Distanz gegenüber ökonomischen Argumenten“ setzen möchte. Zunächst möchte ich knapp skizzieren, was ich unter diesen drei Zugängen verstehe. 1. Forschungsergebnisse der Bildungsökonomie Zum einen gibt es – Manfred Weiß hat das ja soeben sehr schön aufgezeigt – die wissenschaftliche Disziplin der Bildungsökonomie mit ihren Theori-
Ökonomische Argumente in der Schulpädagogik
365
en und Analysen, die sich zum erheblichen Teil auch auf die Schule beziehen. Dort gibt es viele Untersuchungen, die sich im engeren Sinne mit dem Ressourceneinsatz in der Schule (und deren Wirkung) befassen. So beschreiben Jürgens / Schneider vor allem US-amerikanische Studien, die sich mit der Frage beschäftigen, ob Gehaltsanreize für Lehrkräfte die Schülerleistungen erhöhen. 2 Andere Studien fragen im internationalen Vergleich nach der „Bildungsrendite“: Lohnt es sich auch unter ökonomischen Gesichtspunkten, ein Studium zu absolvieren? 3 Die z.T. durchaus widersprüchlichen Ergebnisse solcher bildungsökonomischen Forschung – die stets in aufwändigen quantitativ-statistischen Verfahren gewonnen werden – werden in der deutschsprachigen Schulpädagogik kaum oder gar nicht rezipiert. Das erklärt sich z.T. durchaus aus einer pädagogischen Abwehrhaltung gegenüber einer ökonomischen Sicht auf Bildung. Dazu später mehr. Das hat aber auch – ich erlaube mir einmal diese zugespitzte Formulierung – mit der selbstbezogenen Veröffentlichungspraxis in der Ökonomie zu tun: Auch deutsche Autoren veröffentlichen fast ausschließlich in englischsprachig-internationalen Fachzeitschriften der Wirtschaftswissenschaft, so dass man die aktuelle Debatte z. B. zu Klassengröße und Schulleistungen nur verfolgen kann, wenn man regelmäßig Zeitschriften wie das „European Economic Review“, das „Journal of Public Economics“ oder gar die „Working Papers“ der Weltbank liest. 4 Eine Kommunikation mit den Disziplinen, die sich in Deutschland mit der Bildungsforschung befassen, wird mit einer solchen Veröffentlichungspraxis wirklich nicht befördert. Vor diesem Hintergrund möchte ich mich ausdrücklich bei den Bildungsökonomen bedanken, die sich mit ihren Veröffentlichungen um einen Transfer ihrer Erkenntnisse in die deutsche Schuldiskussion bemühen. Zu nennen sind hier vor allem Ludger Wößmann 5, Manfred Weiß und Dieter Timmermann. 6 Kurz: die im engeren Sinn bildungsökonomische Forschung, bei der es um Ressourceneinsatz in der Schule geht, wird in der Schulpädagogik viel zu wenig rezipiert. Schulpädagogische Analysen, die sich auf solche Forschungsergebnisse beziehen, gibt es recht selten. Anzumerken ist nun aber, dass die Bildungsökonomie in den letzten Jahren ihr Forschungsfeld inhaltlich massiv erweitert hat – im Grunde hat sie sich inzwischen das gesamte Geflecht der Schulqualität und seiner institutionellen Rahmung angeeignet. Dahinter steckt die Vorstellung, die Wirksamkeit von Bildungsinstitutionen insgesamt als Gegenstand der Bildungsökonomie anzusehen. 7 2 3 4 5 6 7
Vgl. Jürgens / Schneider (2008), S. 244ff. Vgl. Strauß / Boarini (2008). Vgl. Weiß (2008), S. 179ff. Vgl. Wößmann (2007). Vgl. Weiß / Timmermann (2008). Vgl. Buchanan (1995).
366
Klaus-Jürgen Tillmann
In einer solchen Sichtweise wird z. B. auch die Frage, ob das Schüler-LehrerVerhältnis einen positiven Einfluss auf die Lesekompetenz hat, zu einer bildungsökonomischen. Und in dieser Linie findet man auch immer wieder Arbeiten, die Datenanalysen ohne jede Kenntnisnahme erziehungswissenschaftlicher Arbeiten vorlegen. So gibt es z. B. eine bildungsökonomische Studie, die behauptet, Sitzenbleiben sei günstig, um das Abitur zu erreichen. 8 Zu einem solchen Ergebnis kann man auch nur kommen, wenn man die vorliegende pädagogische und psychologische Forschung konsequent ignoriert. Ich finde, dass man sich generell gegen eine solche Landnahme der Bildungsökonomie im genuin erziehungswissenschaftlichen Feld wehren muss. Und dass man im konkreten Fall die inhaltliche Dürftigkeit solcher Studien auch benennen muss. Weil hier die Forschung der Bildungsökonomen in eine allgemeine Schulqualitätsforschung übergeht, die ich als eine erziehungswissenschaftliche, nicht als eine ökonomische betrachte, werde ich diese Studien im Folgenden auch nicht als „Bildungsökonomie“ verhandeln. Bleibe ich bei der bildungsökonomischen Forschung im engeren Sinne, also bei den ökonomischen Rahmenbedingungen pädagogischer Prozesse, so lässt sich als Fazit ziehen: Die aktuelle, stark international ausgerichtete Forschung zu Ressourcen- und Steuerungsproblemen ist bei uns nur wenigen schulpädagogischen Spezialisten bekannt. Im gegenwärtigen schulpädagogischen Diskurs kommt sie praktisch nicht vor. Dies ist ein unbefriedigender Zustand; beide Seiten sind aufgerufen, daran etwas zu ändern. 2. Statistiken zur Verteilung von Bildungsausgaben Die Frage, wie viel Geld eigentlich in welche Bereiche unseres Bildungssystems fließt, wird seit längerem durch einen anderen methodischen Zugriff bearbeitet – durch die Aufbereitung und Präsentation der amtlichen Statistik. Hier wird vergleichend dargestellt, wie viel – meist öffentliche – Gelder dem Bildungssystem in seinen verschiedenen Sparten zur Verfügung stehen. Dies geschieht im internationalen Vergleich vor allem durch die Berichte der OECD, 9 im nationalen Bereich finden sich dazu differenzierte Darstellungen der Statistischen Landesämter, 10 die inzwischen regelmäßig Eingang finden in die nationale Bildungsberichterstattung. 11 Solche Bildungsberichte werden inzwischen auch auf Länderebene erstellt, auch sie enthalten differenzierte Daten zu den Bildungsausgaben. 12 8
Vgl. Fertig (2004). Vgl. OECD (2003). 10 vgl. z. B. Statistische Ämter (2008)). 11 vgl. Autorengruppe Bildungsberichterstattung (2008). 9
Ökonomische Argumente in der Schulpädagogik
367
Hier handelt es sich nicht – wie beim ersten Zugang – um empirische Zusammenhangsanalysen, sondern um die deskriptive und vergleichende Darstellung finanzieller Aufwendungen. Diese Daten sind gut aufbereitet und relativ leicht zugänglich, so dass jede / r Erziehungswissenschaftler / in die Möglichkeit hat, sie in die eigene Argumentation einzubeziehen. Einige Kerndaten möchte ich kurz erwähnen: Aus der OECD-Statistik (2000) lässt sich entnehmen, dass Deutschland mit seinen Bildungsausgaben im Mittelfeld der OECD-Länder liegt – sowohl was die absoluten Summen als auch den Anteil am BIP betrifft. 13 Dabei liegen die Ausgaben im Grundschulbereich relativ niedrig: Im Durchschnitt wurden 2005 in Deutschland für einen Grundschüler 4.500 Euro ausgegeben, während der Mittelwert in der OECD bei 5.600 Euro lag. 14 In der Sekundarstufe II hingegen wurden in Deutschland 9.200 Euro ausgegeben – also mehr als doppelt so viel wie für einen Grundschüler. Dieser Betrag liegt deutlich über dem OECD-Durchschnitt von 7.500 Euro. 15 Solche Daten liegen auch für den Vergleich zwischen den Bundesländern vor. Daraus lässt sich z. B. entnehmen, dass Hamburg mit etwa 7.700 Euro eine vergleichsweise hohe Summe pro Kopf für Schüler / innen ausgibt. Das sind (im reichen Hamburg) allerdings nur 1,8 % des BIP. Das Land Berlin gibt die gleiche Summe pro Kopf aus, dort sind es aber 3,5 % des BIP. 16 Das heißt: Berlin muss sich wesentlich stärker anstrengen, um seinen Schülern etwa die gleichen Bedingungen wie in Hamburg zu bieten. Diese bildungsökonomischen Daten werden nicht so sehr von den Allgemeinen Didaktikern, aber doch von vielen Schultheoretikern und Schulforschern rezipiert und dann in ihre Argumentationen eingebaut. Hierzu nenne ich einige besonders erwähnenswerte schulpädagogische Texte: So wird in dem bedeutsamen Vorschlag zur Reform der Grundschule, der 1996 von Faust-Siehl u. a. vorgelegt wurde, explizit auf die OECD-Vergleichszahlen verwiesen. Höhere Ausgaben für die angestrebte Grundschulreform (z. B. für mehr Ganztagsschulen) werden auch mit den bisher vergleichsweise niedrigen Ausgaben für die deutsche Grundschule gerechtfertigt. 17 Und Gabriele Bellenberg verknüpft in einer Analyse die Daten über Bildungsausgaben mit der mittelfristigen Schülerzahlenentwicklung, um auf diese Weise zu einer Kostenschätzung für künftigen Lehrerbedarf zu kommen. 18 Horst Weishaupt wiederum beschreibt Probleme der Schulentwicklungsplanung bei sinkenden Schülerzahlen und sucht nach Varianten, die durch 12 vgl. z. B. Bildungsbericht Hamburg (2009), Bildung in Berlin und Brandenburg (2008). 13 Vgl. OECD (2000), S. 216 und 219. 14 Statistische Ämter des Bundes und der Länder (2008), S. 61. 15 Ebd. 16 Ebd., S. 65. 17 Vgl. Faust-Siehl (1996), S. 276ff. 18 Vgl. Bellenberg (1997).
368
Klaus-Jürgen Tillmann
Standortkonzentrationen zu pädagogisch und ökonomisch gelungenen Lösungen führen. 19 Und Klaus Klemm hat dazu nicht nur einen Grundsatzartikel zur Bildungsfinanzierung geschrieben, 20 sondern auch eine ganz aktuelle Analyse beigesteuert: Er hat die Absichtserklärung der Bundesregierung, die gesamtstaatlichen Bildungsausgaben auf 10% des Bruttoinlandsprodukts zu steigern, zum Ausgangspunkt eines ausführlichen Gutachtens gemacht. Dabei formuliert er die anstehenden Reformaufgaben für die unterschiedlichen Stufen des Bildungssystems und beziffert die dafür notwendigen Zusatzausgaben. Für den Elementar-, Primar- und Sekundarbereich führt er als Reformaufgaben u. a. an: die Ausweitung des Angebots an Krippenplätzen, die Gebührenfreiheit des Kindergartens, die Ausweitung des schulischen Ganztagsangebots, die verstärkte Förderung der „Risikoschüler“, die Ausweitung der schulischen Berufsausbildung. 21 Während er für den Vorschulbereich eine Mittelausweitung von 9,1 Mrd. Euro errechnet, stellt sich im Schulbereich die Situation anders dar. Weil hier die Schülerzahlen mittelfristig sinken, können die zusätzlichen Maßnahmen mit der vorhandenen Etatsumme bewältigt werden. An dieser Stelle lässt sich als Fazit ziehen: Die differenzierten Statistiken über die Bildungsausgaben im föderalen System – und ihre kontinuierliche Fortschreibung – werden von etlichen Schulpädagogen als Datengrundlage herangezogen, um erziehungswissenschaftliche Analysen zu fundieren. Dabei geht es vor allem darum, Reformmaßnahmen auch unter dem Aspekt ihrer Kostenkonsequenzen zu beleuchten. Auf diese Weise gewinnen Argumente, die auf Schulentwicklung und Schulreform zielen, an Realitätsgehalt und an bildungspolitischer Relevanz. Bezogen auf diesen zweiten Zugang lässt sich sagen, dass bildungsökonomische Informationen in der Schulpädagogik als relevant angesehen und in weiterführenden Analysen angemessen verarbeitet werden. Hier scheint mir die Kommunikation zwischen Schulpädagogik und Bildungsökonomie noch am ehesten geglückt. 3. Pädagogische Distanz gegenüber ökonomischen Argumenten Während bei den ersten beiden Zugängen versucht wurde, ökonomische Argumente in schulpädagogische Überlegungen einzubeziehen, setzt der dritte Zugang deutlich anders an: Er formuliert eine eigenständige pädagogische Sichtweise, die gegenüber ökonomisch motivierten Anforderungen verteidigt werden muss.
19 20 21
Vgl. Fickermann / Weishaupt (1997). Vgl. Klemm (2008a). Vgl. Klemm (2008b), S. 28.
Ökonomische Argumente in der Schulpädagogik
369
Dieser Zugang (oder auch: Nicht-Zugang) beginnt mit einer bildungstheoretischen Argumentationsfigur: Die Aufgabe der Schule ist es, die Bildung des jungen Menschen zu ermöglichen, zu stützen, zu sichern. Dabei geht es darum, jeden Einzelnen, jede Einzelne in optimaler Weise zu fördern und ihm / ihr so eine bestmögliche Entwicklung zu bieten. Die „Schule (ist) ein Lebensraum“, so formuliert es Hartmut von Hentig, und in dem „muss sich der ganze Mensch ... entfalten können“. 22 Pädagogik hat die Aufgabe, diese Entfaltungschancen zu schaffen und dabei auch auf die individuelle Bedürfnisse der Lernenden einzugehen. Wenn man sich in einer solchen Weise an dem Anspruch einer umfassenden Bildung orientiert, kann man nicht zugleich einer Begrenzung der pädagogischen Aktivitäten das Wort reden. Anders formuliert: Eine solche Perspektive kalkuliert nicht mit der Knappheit der Mittel, sondern fordert all die Ressourcen und Konzepte ein, die für die Entwicklung des heranwachsenden Menschen gut und teuer sind. Dazu gehören Zeit und Unterstützung, kompetente Zuwendung, breite Bildungsangebote und gezielte Herausforderungen. Dies ist eine konsequente, allein pädagogische Sichtweise, bei der eine ökonomische Kalkulation bewusst verweigert wird. Vielmehr werden ökonomisch begründete Begrenzungen von Bildungsmöglichkeiten prinzipiell kritisch hinterfragt; denn sie stehen unter dem Verdacht, pädagogisch nicht akzeptabel oder gar inhuman zu sein. Man kann im Zeitalter des Bildungsmanagements und der „Bildungsproduktionsmodelle“ eine solche subjektorientierte Position als idealistisch und „vormodern“ belächeln; doch man muss damit kalkulieren, dass viele Schulpädagogen genau hier ihre disziplinäre Identität sehen: Sie treten als Anwalt des Kindes auf, für das optimale Bedingungen einzuklagen sind. Und dies führt dann dazu, dass sie in aller Regel für ihr Klientel bessere Bedingungen (und damit mehr Ressourcen) fordern: kleinere Klassen, eine bessere Besoldung der Grundschullehrerinnen, bessere Bedingungen für die Integration behinderter Kinder etc. Anders formuliert: Der Hinweis auf die Knappheit der Mittel wird nicht akzeptiert, wenn es um das „Wohl des Kindes“ geht. Wer eine solche pädagogische Sichtweise kultiviert, wird ökonomischen Argumenten im Bildungsprozess in aller Regel skeptisch bis ablehnend entgegentreten, weil er darin vor allem eine Begründung von Bildungsbeschränkungen sieht. Bildungsökonomen und Bildungsmanager haben große Probleme, mit Pädagogen umzugehen, die in einer solchen Weise argumentieren. Der Volkswirt und Unternehmensberater Axel Koetz 23 bezeichnet sie als „pädagogische Gutmenschen“, die allein „aus dem Bauch heraus argumentieren“, die gegenüber Steuerungsanforderungen ein „liebgewordenes Feindbild“ pflegen und sich von allem abgrenzen, „was mit der ökonomischen Seite des Systems zu tun hat“. Solche Aussagen lassen erkennen, wie stark die Kommunikationsstörungen zwi22 23
von Hentig (1993), S. 226. Koetz (1997), S. 96.
370
Klaus-Jürgen Tillmann
schen Schulpädagogen und Bildungsökonomen sein können, wenn auf der schulpädagogischen Seite das Engagement für die Bildung der Heranwachsenden so stark dominiert, dass man sich ökonomischen Kalkulationen zum Bildungsprozess verweigert. Aktuell findet man solche Argumentationsfiguren vor allem in reformpädagogischen Kreisen – aber auch bei universitären Schulpädagogen, die ihnen nahe stehen. 24 Zugleich lässt sich aufzeigen, dass viele „Klassiker“ der deutschen Pädagogik eine solche Abwehr gegenüber ökonomischen Anforderungen und Argumenten auch theoretisch begründet haben. So heißt es etwa bei Derbolav, dass die „ökonomische Betrachtungsweise“ von Bildung und Erziehung die „wissenschaftliche Selbstauslegung der Pädagogik“ nicht tangieren könne. 25 Weil es bei der Ökonomie um materielle Basisprobleme gehe, könne sie zu den pädagogisch relevanten Fragen der Personwerdung gar nichts sagen. Auf solche Weise, nämlich durch „Revierverteidigung und Hierarchisierung“, hält die „traditionelle“ Pädagogik die ökonomischen Probleme auf Distanz“. 26 Doch nicht nur traditionell-pädagogische, auch jüngere sozialwissenschaftliche Theorien verteidigen die Eigenständigkeit des Bildungssystems gegenüber ökonomischen Einflüssen. Dabei werden aktuelle Tendenzen der Schulentwicklung – höhere Autonomie, Kontextsteuerung, mehr Wettbewerb etc. – unter den zusammenfassenden und kritisch gemeinten Begriff der „Ökonomisierung“ gefasst. 27 Gemeint ist damit die Ausrichtung von Bildungseinrichtungen auf Markt und Wettbewerb, die stärkere Orientierung an Effektivitäts- und Effizienzkriterien, die Durchsetzung betriebswirtschaftlicher Steuerungsinstrumente. Damit – so sehen es die Kritiker dieser Prozesse – sei die Ablösung eines umfassenden Bildungsanspruchs durch eine Konzentration auf verwertbare Kompetenzen verbunden. Dies führe auch dazu, dass die Ungleichheit im Bildungswesen stabilisiert oder gar verschärft werde. 28 In dieser Sichtweise ist die Bildungsökonomie – und zwar Arm in Arm mit privaten Stiftungen und privilegierten Elterninteressen – ein politischer Akteur, der immer mehr Marktorientierung im Bildungswesen durchzusetzen versucht. Und nicht wenige Erziehungswissenschaftler und Schulpädagogen sehen sich in der Pflicht, diesem Prozess der „Ökonomisierung“ entgegenzuarbeiten. Was kann man hier als Fazit ziehen? Es zeigt sich, dass das Verhältnis zwischen Schulpädagogik und Bildungsökonomie nicht zwingend auf Kooperation und wechselseitige Ergänzung angelegt ist, sondern dass die wissenschaftstheoretische Grundannahmen beider Disziplinen auch Konfliktstoffe bieten. Denn 24 25 26 27 28
Vgl. z. B. Ramseger / Wagener (2008). Derbolav (1987), S. 172. Bellmann (2001), S. 229. Vgl. Radtke (2009). Vgl. z. B. Lohmann (2005).
Ökonomische Argumente in der Schulpädagogik
371
sowohl die konsequente Orientierung an den Bildungsbedürfnissen des Einzelnen wie auch die politisch begründete Abwehr einer Ökonomisierung des Bildungswesens erweisen sich als widerständig, wenn es um die Rezeption bildungsökonomischer Erkenntnisse durch die Schulpädagogik geht. Mir scheint, dass man den hier wechselseitig bestehenden Vorwurf der Borniertheit nur dann überwinden kann, wenn man in einer sehr grundsätzlichen, zugleich aber auch respektvollen Debatte die verschiedenen Herangehensweisen auf den Prüfstand stellt. 4. Zusammenfassung Wenn man so will, habe ich eine knappe Bilanz über die Verarbeitung bildungsökonomischer Argumente in der Schulpädagogik gezogen. Das Ergebnis erweist sich als recht heterogen: − Am intensivsten verarbeitet werden in der Schulpädagogik die deskriptiven Zahlen zu den Bildungsausgaben im nationalen und internationalen Vergleich. Sie fließen in unterschiedliche schulpädagogische Analysen ein und dienen vor allem dem Ziel, die finanzielle „Machbarkeit“ bestimmter Reformen abzuschätzen. − Wenig bis gar nicht zur Kenntnis genommen werden in der Schulpädagogik die stark international ausgerichteten bildungsökonomischen Analysen zum Ressourceneinsatz in den Schulen, über die Manfred Weiß hier zuvor referiert hat. Hier bestehen starke Rezeptionshemmnisse, die überwunden werden sollten. − Ein kontroverses, in Diskussionen immer wieder aufflackerndes Thema ist die Frage, wie stark sich schulpädagogische Konzepte und Überlegungen von bildungsökonomischen Bedingungen beeinflussen oder gar begrenzen lassen dürfen. Zu dieser Kontroverse gehört auch die kritische Debatte über die „Ökonomisierung“ des Bildungswesens. Nach meinen Beobachtungen ist diese Debatte weniger auf Verständigung und viel stärker auf wechselseitige Abwehr angelegt. Nach einer solchen, im Ergebnis ja nicht sehr erfreulichen, Analyse wird in der Regel danach gefragt, was denn zur Verbesserung der Lage getan werden kann. Ich mache hierzu keine systematischen Vorschläge, sondern stelle ein – wie ich finde – gelungenes Beispiel an den Schluss. Damit soll deutlich werden: Ich bin gegen eine pädagogische Abwehrhaltung gegenüber ökonomischen Argumenten, wehre mich aber auch gegen eine Okkupation des erziehungswissenschaftlichen Feldes durch eine bildungsökonomische Institutionenanalyse. Vielmehr hänge ich der Vorstellung an, dass bestimmte schulpädagogische Analysen an Überzeugungskraft gewinnen können, wenn sie bildungsökonomisch fundiert werden. Was ich damit meine, soll das folgende Beispiel zeigen.
372
Klaus-Jürgen Tillmann
III. Das Beispiel „Sitzenbleiben“: ökonomische Argumente in einer schulpädagogischen Analyse Ich beschäftige mich seit vielen Jahren mit dem in Deutschland so beliebten Verfahren des „Sitzenbleibens“ und habe dazu im Rahmen von PISA-2000 auch etliche eigene Forschungsergebnisse vorgelegt. 29 Bei den schulpädagogischen Analysen zu diesem Thema habe ich die Ergänzung durch gesicherte bildungsökonomische Argumente als äußerst hilfreich empfunden. Dies will ich im Folgenden knapp skizzieren. 1. Die schulpädagogische Analyse In Deutschland gehört das Sitzenbleiben zur Schule wie Tafel und Kreide. Dass es viele andere Länder gibt, die völlig ohne dieses Instrument auskommen (z. B. Japan, Norwegen) und zugleich bei PISA bestens abschneiden, ist im Bewusstsein der Deutschen bisher ohne Bedeutung. Bei uns hält sich vielmehr hartnäckig das Vorurteil, Sitzenbleiben nutze den Betroffenen. In Deutschland wird vom Sitzenbleiben vergleichsweise häufig Gebrauch gemacht. Die jährliche Sitzenbleiberquote von ca. 2,6% erscheint zwar eher gering, doch hat jede / r Schüler / in jedes Jahr erneut die Chance, sitzen zu bleiben. Deshalb finden wir bei PISA unter allen 15jährigen insgesamt mehr als 23 %, die in ihrer Schullaufbahn mindestens einmal sitzengeblieben sind. 30 Und bei den Knaben in den Hauptschulen sind es sogar fast 50%. 31 Nun entzaubert seit mehr als 30 Jahren die pädagogisch-psychologische Forschung das Sitzenbleiben als eine pädagogisch unsinnige Maßnahme. Ingenkamp hat schon 1972 festgestellt: „Die Sitzengebliebenen und überalterten Schüler finden auch durch die Wiederholungsjahre durchschnittlich nicht den Anschluss an die mittleren Leistungen der glatt versetzten Schüler“. 32 Und eine Schweizer Längsschnittstudie zeigt: Wer trotz schwacher Leistungen versetzt wird, lernt im folgenden Jahr mehr dazu als jemand, der wegen gleich schwacher Leistungen wiederholen musste. 33 Eine Meta-Analyse von 60 angloamerikanischen Untersuchungen zeigt: „Über alle Studien hinweg zeigen sich im Durchschnitt Vorteile der versetzten Schüler im Vergleich zu den nicht-versetzten ... Der Vergleich ... ergibt deutliche Leistungsunterschiede zuungunsten der Sitzen29 30 31 32 33
Vgl. z. B. Krohne / Meier / Tillmann (2004). Vgl. Drechsel / Senkbeil (2004), S. 286. Vgl. Krohne / Meier (2004), S. 122. Vgl. Ingenkamp (1972), S. 106. Vgl. Bless u. a. (2004).
Ökonomische Argumente in der Schulpädagogik
373
bleiber ..., wobei der Leistungsabstand in den folgenden Schuljahren noch zunimmt.“ 34 Dieses Ergebnis wird durch die PISA-2003-Daten bestätigt. Dort zeigt sich, dass fast 40 % der Neuntklässler, die wegen schlechter Mathematiknoten sitzengeblieben sind, sich im Wiederholungsjahr in Mathematik nicht verbessern können. 35 Kurz: Als Instrument der Förderung taugt das „Sitzenbleiben“ wenig oder gar nichts. Zugleich wird damit die Schulzeit verlängert, ohne dass für die betroffenen Schüler damit ein Gewinn verbunden ist. Wir haben es hier somit mit einer Maßnahme zu tun, die nicht zu den erwünschten Zielen führt und die man deshalb besser abschaffen sollte. Soweit also der schulpädagogische Teil meiner Analyse, der mit seiner Abschaffungs-Empfehlung – die ich bereits nach PISA 2000 formuliert habe – sowohl auf Zustimmung wie auch auf Widerspruch stößt. Ergänzen lässt sich diese Analyse nun um einen bildungsökonomischen Teil, indem nach den Kosten des Sitzenbleibens gefragt wird. 2. Die bildungsökonomische Ergänzung Welche Kosten werden durch das „Sitzenbleiben“ verursacht? Eine erste (aber vorschnelle) Einschätzung könnte zu dem Ergebnis kommen: Das kostet gar nichts, weil es doch egal ist, in welcher Klasse ein / e Schüler / in sitzt. Dies ist ein Irrtum! Denn Sitzenbleiben führt dazu, dass ein / e Schüler / in ein oder gar zwei Jahre länger zur Schule geht und auf diese Weise die Schülerzahl erhöht: 3% jährliche Sitzenbleiberquote heißt eben, dass eine Schule 3 % mehr Schüler hat. Das sind bei einer Realschule von 750 Schüler / innen etwa 23 – oder auch eine ganze Klasse. Weil die Lehrerzuweisung an die Schulen in den meisten Bundesländern (so z. B. in Nordrhein-Westfalen und Bayern) nach den Schülerzahlen erfolgt, heißt dies: Diese Realschule erhält mehr als eine Lehrerstelle zusätzlich, weil sie diese 23 Sitzenbleiber hat. In anderen Bundesländern werden die Lehrer nach der Zahl der gebildeten Klassen zugewiesen (so z. B. in Hessen oder Brandenburg). Sitzenbleiber verursachen unter dieser Regelung nur dann zusätzliche Lehrerkosten, wenn es durch sie zu einer Neubildung zusätzlicher Klassen kommt. Weil dies nicht so oft vorkommt, sind bei dieser Regelung die Kosten zwar insgesamt geringer, aber durchaus nicht unerheblich. Nun hat ein Bundesland nicht eine, sondern tausende von Schulen. Hierzu ein konkretes Beispiel: Im Schuljahr 2003/04 sind in Schleswig-Holstein 10.034 Schüler / innen sitzengeblieben, das entspricht einer Quote von 3,3 %. Diese Schüler / innen bleiben fast alle ein Jahr länger in der Schule. Weil in SchleswigHolstein die Lehrerstunden nach der Kopfzahl der Schüler zugewiesen werden, 34 35
Tietze / Rossbach (2001), S. 644. Vgl. Ehmke u. a. (2008), S. 370ff.
374
Klaus-Jürgen Tillmann
verursacht jede / r Sitzenbleiber / in in diesem Jahr zusätzliche Kosten – insbesondere anteilige Lehrergehälter – in der Höhe von 4.700 Euro. Damit entstehen im Bundesland Schleswig-Holstein in nur einem Jahr durch das Sitzenbleiben Kosten von mehr als 47 Mio. Euro. 36 Bezieht man sich auf die jährlichen Gesamtkosten in der ganzen Bundesrepublik, so kommt eine Modellrechnung der GEW aus dem Jahr 2005 auf einen Gesamtbetrag von 1,2 Mrd. Euro. Wer an dieser Stelle gegenüber gewerkschaftlichen Berechnungen misstrauisch ist, der kann sich zusätzlich auf eine Modellrechnung des nordrhein-westfälischen Kultusministeriums aus dem Jahr 2006 beziehen. Dort kommt man zu dem Ergebnis, dass das Sitzenbleiben pro Jahr bundesweit 892,5 Mio. Euro kostet – und zwar nur an Personalkosten. 37 Weil die GEW nicht nur die Personalkosten, sondern die Schüler-Gesamtkosten veranschlagt hat, kommt sie auf einen höheren Betrag. Und zum dritten: Eine neue und besonders differenzierte Berechnung der Kosten des Sitzenbleibens wurde 2009 von Klaus Klemm erstellt und von der Bertelsmann-Stiftung veröffentlicht. Dabei werden die Kosten bundesland- und schulformspezifisch errechnet und dann zusammengefasst. Klemm kommt auf diese Weise für das allgemeinbildende Schulwesen der Bundesrepublik auf eine jährliche Gesamtsumme von 931 Mio. Euro – und liegt damit zwischen den beiden zuvor genannten Werten. 38 Insgesamt lässt sich aufgrund dieser tendenziell übereinstimmenden Berechnungen der Merksatz formulieren: Das Sitzenbleiben in deutschen Schulen kostet jährlich etwa 1 Mrd. Euro. Bezieht man sich jetzt wieder auf die zuvor angestellte schulpädagogische Analyse, so kann man feststellen, dass 1 Mrd. Euro jährlich für eine pädagogisch offensichtlich unsinnige Maßnahme ausgegeben werden. Klaus Klemm formuliert das etwas seriöser: „Die hohen Ausgaben für Klassenwiederholungen sind angesichts der empirischen Belege, die die Unwirksamkeit dieses Instruments für die einzelnen Schülerinnen und Schüler zeigen, nicht zu rechtfertigen“. 39 Die Kritik des Sitzenbleibens, wenn man sie in dieser Weise pädagogisch und bildungsökonomisch zuspitzt, hat in der öffentlichen Diskussion Wirkung gezeigt und etwa seit 2004 in etlichen Schulministerien – so in Schleswig-Holstein, in Hamburg und in NRW – zu einem Umdenken geführt: Die Reduzierung oder gar die Abschaffung des Sitzenbleibens wurde in diesen Ländern zum politischen Programm. Allerdings muss in einer pädagogischen Perspektive angemerkt werden, dass allein die Abschaffung nicht ausreicht. Vielmehr ist es notwendig, die Schüler / 36 37 38 39
Vgl. GEW (2005). Vgl. Möller (2006), S. 39f. Vgl. Klemm (2009), S. 14. Klemm (2009), S. 15.
Ökonomische Argumente in der Schulpädagogik
375
innen mit Lernproblemen, die sonst sitzenbleiben würden, nun auch frühzeitig und gezielt zu fördern. Erfolgreiche Modelle dafür sind in den letzten Jahren an etlichen Schulen (so z. B. an der Martin-Luther-King-Hauptschule in Köln, am Evangelischen Gymnasium in Siegen) erprobt worden. Jetzt kommt es darauf an, das Geld, das durch reduzierte Sitzenbleiberquoten eingespart werden kann, gezielt für solche Fördermaßnahmen einzusetzen. Damit zeigt dieses Beispiel zum einen: Das Geld ist da, man muss es nur pädagogisch vernünftig einsetzen. Zum anderen zeigt es aber auch: Solche Felder lassen sich nur identifizieren, wenn pädagogische und ökonomische Analysen ineinander greifen.
IV. Fazit Ich wünsche mir von der Erziehungswissenschaft, speziell von der Schulpädagogik, dass sie ihre Distanzierung gegenüber ökonomischen Analysen abbaut, ohne damit den kritischen Blick gegenüber Zumutungen durch das Wirtschaftssystem zu verlieren. Ich wünsche mir von der Schulpädagogik, dass sie auch die Frage des effektiven Mitteleinsatzes im Großsystem Schule als ernsthaftes Problem behandelt, und dass sie dazu bildungsökonomische Daten und Analysen stärker als bisher rezipiert. Eine solche stärkere Öffnung bedeutet keineswegs, dass die Schulpädagogik ihren disziplinären Focus – nämlich das Interesse am gelungenen Bildungsprozess der Heranwachsenden – aufgibt oder gar „verkauft“. Von der Bildungsökonomie wünsche ich mir, dass sie sich viel stärker als bisher als Teil einer interdisziplinären Bildungsforschung versteht; und dass sie die vorhandenen Erkenntnisse der Psychologie, Soziologie und Erziehungswissenschaft zur Kenntnis nimmt, wenn sie eigene Analysen zum Bildungssystem vornimmt. Und ich wünsche mir, dass die Bildungsökonomie auch mit ihren Veröffentlichungen bewusst den Diskurs mit den deutschen Schulpädagogen sucht, und nicht nur den mit den US-amerikanischen Ökonomen. Soweit mein kleiner Wunschzettel, der insgesamt auf mehr Kooperation ausgerichtet ist. Für Weihnachten 2009 wird es mit der Wunscherfüllung wohl nichts mehr werden, aber für die Jahre danach sollte man die Hoffnung nicht aufgeben. Doch allein Hoffen hilft nicht, man muss auch die eigene wissenschaftliche Arbeit auf mehr Kooperation ausrichten.
376
Klaus-Jürgen Tillmann
Literatur Autorengruppe Bildungsberichterstattung (2008): Bildung in Deutschland 2008. Ein indikatorengestützter Bericht mit einer Analyse zu Übergängen im Anschluss an den Sekundarbereich I, Bielefeld. Behörde für Schule und Berufsbildung, Institut für Bildungsmonitoring (Hrsg.) (2009): Bildungsbericht Hamburg 2009, Hamburg. Bellenberg, Gabriele (1997): Bedarfs- und Ausgabenentwicklung im Schulbereich, in: Böttcher, Wolfgang / Horst Weishaupt / Manfred Weiß (Hrsg.): Wege zu einer neuen Bildungsökonomie, Weinheim, S. 130 – 141. Bellmann, Johannes (2001): Knappheit als Bildungsproblem. Die Konstruktion des Ökonomischen im Diskurs der Allgemeinen Pädagogik, Weinheim. Bless, Gerard / Schüpbach, Marianne / Bonvin, Patrick (2004): Klassenwiederholungen. Determinanten, Wirkungen und Konsequenzen, Bern. Buchanan, John M. (1995): Economics Science and Cultural Diversity, in: Kyklos, Vol. 48, S. 193 – 200. Derbolav, Josef (1987): Grundriß einer Gesamtpädagogik, Frankfurt / M. Drechsel, Barbara / Senkbeil, Martin (2004): Institutionelle und organisatorische Rahmenbedingungen von Schule und Unterricht, in: Prenzel, Manfred u. a. (Hrsg.): PISA 2003. Der Bildungsstand der Jugendlichen in Deutschland, Münster, S. 284 –291. Ehmke, Timo / Drechsel, Barbara / Carstensen, Claus H. (2008): Klassenwiederholen in PISA-I-Plus: Was lernen Sitzenbleiber in Mathematik dazu?, in: Zeitschrift für Erziehungswissenschaft, 11. Jg., Heft 3, S. 368 – 387. Faust-Siehl, Gabriele / Garlichs, Ariane / Ramseger, Jörg / Schwarz, Hermann / Warm, Ute (1996): Die Zukunft beginnt in der Grundschule, Reinbek. Fertig, Michael (2004): Shot Across the Bow, Stigma or Selection? The Effect of Repeating a Class on Educational Attainment, in: Rheinisch-Westfälisches Institut für Wirtschaftsforschung Essen (Hrsg.), Discussion Paper No. 19, Essen. Fickermann, Detlef / Weishaupt, Horst (1997): Optimierung von Schulstrukturen als Spareffekt, in: Böttcher, Wolfgang / Horst Weishaupt / Manfred Weiß (Hrsg.): Wege zu einer neuen Bildungsökonomie, Weinheim, S. 216 – 228. GEW (Hrsg.) (2005): „Zahl der Sitzenbleiber drastisch verringern“, Presseerklärung vom 7. 7. 2005, Frankfurt / M. von Hentig, Hartmut (1993): Die Schule neu denken, München. Ingenkamp, Karlheinz (1972): Zur Problematik der Jahrgangsklasse, Weinheim. Institut für die Schulqualität der Länder Berlin und Brandenburg und Amt für Statistik Berlin-Brandenburg (Hrsg.) (2008): Bildung in Berlin und Brandenburg 2008. Ein indikatorengestützter Bericht zu Bildung im Lebenslauf, Berlin. Jürgens, Hendrik / Schneider, Kerstin (2008): Ressourcen und Anreize im Bildungswesen. Aufgaben und Handlungsmöglichkeiten des Staates aus der Sicht der Bildungsökonomie, in: Zeitschrift für Erziehungswissenschaft, 11. Jg., Heft 2, S. 234 –252.
Ökonomische Argumente in der Schulpädagogik
377
Klemm, Klaus (2008a): Bildungsausgaben: Woher sie kommen, wohin sie fließen, in: Cortina, Kai-Stefan u. a. (Hrsg.): Das Bildungswesen in der Bundesrepublik Deutschland, Reinbek, S. 245 –280. Klemm, Klaus (2008b), in: Friedrich-Ebert-Stiftung (Hrsg.): Bildungsausgaben im föderalen System. Zur Umsetzung der Beschlüsse des „Bildungsgipfels“, Berlin. Klemm, Klaus (2009): Klassenwiederholungen – teuer und unwirksam. Eine Studie zu den Ausgaben für Klassenwiederholungen in Deutschland, Gütersloh. Koetz, Axel. (1997): Schule und ökonomische Vernunft, in: Böttcher, Wolfgang / Horst Weishaupt / Manfred Weiß (Hrsg.): Wege zu einer neuen Bildungsökonomie, Weinheim, S. 84 – 97. Krohne, Julia / Meier, Ulrich (2004): Sitzenbleiben, Geschlecht und Migration, in: Schümer, Gundel / Klaus-Jürgen Tillmann / Manfred Weiß (Hrsg.): Die Institution Schule und die Lebenswelt der Schüler. Vertiefende Analysen der PISA-2000-Daten, Wiesbaden, S. 149 – 164. Krohne, Julia / Meier, Ulrich / Tillmann, Klaus-Jürgen (2004): Sitzenbleiben, Geschlecht und Migration. Klassenwiederholungen im Spiegel der PISA-Daten, in: Zeitschrift für Pädagogik, 50. Jg., Heft 3, S. 373 – 391. Lohmann, Ingrid (2006): Marktorientiertheit vs. Chancengleichheit: Widersprüche und Perspektiven moderner Bildungsentwicklung, in: Friedrich, Bodo u. a. (Hrsg.): Robert Alt (1905 – 1978), Frankfurt / M., S. 69 – 89. Möller, Gerd (2006): Sitzenbleiben in Deutschland: hohe Kosten durch Klassenwiederholungen, in: SchulVerwaltung spezial, Sonderheft 4, S. 38 –40. OECD (Hrsg.) (2003): Bildung auf einen Blick: OECD-Indikatoren 2003, Paris. Radtke, Frank Olaf (2009): Ökonomisierung, in: Andresen, Sabine / Rita Casale / Thomas Gabriel u. a. (Hrsg.): Handwörterbuch Erziehungswissenschaft, Weinheim, S. 621 – 637. Ramseger, Jörg / Wagener, Matthea (Hrsg.) (2008): Chancenungleichheit in der Grundschule. Ursachen und Wege aus der Krise, Wiesbaden. Statistische Ämter des Bundes und der Länder (Hrsg.) (2008): Internationale Bildungsindikatoren im Ländervergleich, Wiesbaden. Strauß, Hubert / Boarini, Romina (2008): Der Einfluss von Bildungs- und Wirtschaftspolitik auf den Ertrag des Hochschulstudiums in 21 OECD-Ländern, in: Zeitschrift für Erziehungswissenschaft, 11. Jg., Heft 2, S. 183 – 213. Tietze, Wolfgang / Rossbach, Hans-Günther (2001): Sitzenbleiben, in: Rost, Detlef H. (Hrsg.): Handwörterbuch Pädagogische Psychologie, 2. Aufl., Weinheim, S. 641 –646. Weiß, Manfred (2008): Stichwort: Bildungsökonomie und Qualität der Schulbildung, in: Zeitschrift für Erziehungswissenschaft, 11. Jg., Heft 2, S. 168 –182. Weiß, Manfred (2009): Der Beitrag der Bildungsökonomie zur Schulqualitätsforschung – eine kritische Würdigung. Manuskript des Vortrags in der Universität Leipzig am 4. 12. 2009. Weiß, Manfred / Timmermann, Dieter (2008): Bildungsökonomie und Schulstatistik, in: Helsper, Werner / Jeanette Böhme (Hrsg.): Handbuch der Schulforschung, 2. Aufl., Wiesbaden, S. 239 – 281. Wößmann, Ludger (2007): Letzte Chancen für gute Schulen, Gütersloh.
Pisa-Erfolg Finnlands aus der Perspektive der Lehrerbildung Von Matti Meri 1
I. Pisa ist ein kleines Dorf in Lappland Wenn wir über den Pisa-Erfolg Finnlands reden, fängt man sofort an, über die notwendigen Kompetenzen von Lehrern zu sprechen, weil mit richtigen Kompetenzen eine besondere Qualität einhergeht. Gewisse Lehrerkompetenzen gelten nicht nur für Deutschland oder Finnland, sondern sie kann man global sehen. Zunächst möchte ich für das „Kompetenzengespräch“ etwas demonstrieren. Nehmen wir eine Gruppe Erstklässler, in Finnland wären sie 7 Jahre alt. Es wäre doch interessant zu erfahren, wie sie sich einen kompetenten Lehrer vorstellen. Natürlich würde man Kinder nicht so fragen, sondern eher: Was ist ein guter Lehrer? „Einer, der gut rechnen kann.“ – „Einer, der gut zuhört.“ – „Einer, bei dem ich lachen kann.“ – „Einer, der alles weiß.“ Ja, so antworten die Kinder. Wir Lehrer meinen häufig, dass es bei einem kompetenten Lehrer um ganz andere Dinge geht. Aber wenn man unsere Vorstellungen mit den Antworten der Kinder vergleicht, gibt es häufig viel mehr Ähnlichkeiten als angenommen. Wir benutzen nur andere Begriffe und Konzepte In meinem Artikel widme ich mich den Kompetenzen, die Lehrer in ihrer Ausbildung erhalten müssen. Dafür ist es wichtig zu wissen, welche Modelle der Lehrerbildung es überhaupt gibt. Einige dieser Modelle sind hier dargestellt: Schule als Basis, Erfahrungsorientierung, bedeutet, dass man die Erfahrungen mit der Schule stärker wahrnimmt und berücksichtigt. Wir alle haben viele und vielfältige Erfahrungen mit Schule – schon allein deshalb, weil wir selbst Schüler gewesen sind. In der Lehrerbildung haben solche Erfahrungen eine große Bedeutung: Erfahrungen als Schüler, aber auch Erfahrungen mit den Leistungen eines Lehrers oder einer Lehrerin im Unterricht. Jeder hat sehr unterschiedliche positive und auch negative Erfahrungen mit der Schule gemacht. Darum ist in der Lehrerbildung auch eine Schulorientierung äußerst wichtig: Die Studentin1 Prof. Dr. Matti Meri ist Inhaber des Lehrstuhls für Allgemeindidaktik an der Universität Helsinki und war von 2004 bis 2006 Leiter des Lehrerausbildungsinstituts der Universität Helsinki.
380
Matti Meri
Quelle: Eigene Darstellung. Abb. 1: Modelle der Lehrerbildung
nen und Studenten müssen in ihrer Ausbildung eine ganz gewöhnliche Schule und gewöhnliche Schülerinnen und Schüler kennen lernen können. Denn diese Erfahrungen brauchen sie unbedingt: Was passiert tagtäglich in einer Klasse / einer Schule? Natürlich sind diese Erfahrungen nicht nur positiv, aber in jedem Fall vielfältig. In einigen Ländern ist die Lehrerbildung sehr stark auf Rezeptwissen ausgerichtet. 2 Es gibt viele Unterrichtsrezepte, die die Mentoren den Studenten mitgeben, um möglichst sicherzustellen, dass der Unterricht nach richtigen pädagogisch-didaktischen Konzepten abläuft. Während so ein Modell dem traditionellen Meister-Lehrling-Lehrerausbildungssystem folgt, haben dagegen solche Systeme, in denen Problemlösung und Problemlösungsstrategien eine große Rolle spielen, andere Zielsetzungen: Die Studenten sollen lernen, oder zumindest üben, verschiedene pädagogische und didaktische Probleme zu lösen. Und dafür braucht man gewisse Werkzeuge. Tatsächlich ist die Situation in einer Klasse immer sehr komplex, und mit vielen verschiedenen Arten von Problemen behaftet. Weil allerlei Forschungsmethoden als ein Werkzeug für Unterrichts- und Handlungsanalyse dienen können, sind forschungsorientierte Phasen in der Lehrerbildung für die Entwicklung der Lehramtsstudenten ganz bedeutend: Studenten, die Lehrer werden wollen, sollten richtige Forschung in ihrer Klasse betreiben und mögliche Themen intensiv bearbeiten und Ergebnisse analysieren. 2
Vgl. Meri (1995), S. 89 – 100.
Pisa-Erfolg Finnlands
381
In einem nicht-föderalistischen Land wie Finnland ist eine einheitliche Lehrerbildung unproblematisch. Auch die Umstellung auf das für alle Universitäten geltende modularisierte Lehrerstudium war einfach: Am 1. 8. 2005 wurden die bis dahin geforderten Studienwochen in eine nach Schulstufen differenzierte Anzahl von einzubringenden „credit points“ (ECTS) umgewandelt. Die finnische Lehrerbildung orientiert sich an den Schulstufen des einheitlichen Schulsystems und ist dementsprechend überschaubar. Das finnische Unterrichtsprinzip: „Wir unterrichten Menschen, nicht Fächer“ widerspiegelt sich auch in der Lehrerbildung. 3 Das Studium von Grundstufenlehrer / Klassenlehrer wird mit einem höheren akademischen Grad, dem Masterstudium, (300 Studienpunkte; ein Studienpunkt entspricht 27 Stunden Studienarbeit) im Hauptfach Pädagogik abgeschlossen. Der finnische Klassenlehrer entspricht etwa dem deutschen Grund- und Hauptschullehrer für die Klassen 1 –6. Das Studium dauert fünf Jahre und umfasst folgende Einheiten: Sprach- und Kommunikationsstudien, Hauptfachstudien, pädagogische Studien, übergreifende Studien in den Gesamtschulfächern, ein bis zwei Nebenfächer und fakultative Fächer. Zum Pädagogikstudium gehört auch ein gleichzeitig mit dem Studium zu absolvierendes ca. 15 Wochen langes (20 ECTS) Unterrichtspraktikum an einer mit anderen Studienfächern an der Universität kooperierenden Schule. Ausgangspunkt des Studiums ist, die Studierenden mit der ganzheitlichen Entwicklung des Menschen, der Wechselwirkung von Lehrer und Schüler sowie Erziehungs-, Lern- und Entwicklungstheorien und deren praktischer Anwendung in der Erziehungs- und Unterrichtsarbeit vertraut zu machen. Ziel ist es, den Studierenden die Fähigkeit zu vermitteln, selbständig Probleme in Erziehung und Unterricht analysieren und lösen zu können und die eigene Arbeit mit wissenschaftlichen Mitteln zu entwickeln. Absolventen erhalten die Befähigung für weiterführende Studien in den pädagogischen Fächern. Genau in diesem Punkt unterscheidet sich das finnische Modell erheblich von der Lehrerbildung in anderen Ländern. In Finnland müssen alle Lehrer, auch Grundstufenlehrer, einen Magister, die höhere Universitätsprüfung mit Masterthesen, ablegen. Natürlich taucht hier die Frage auf: Welche Bedeutung hat diese Orientierung zur Lehrerbildung? Man sollte sich bewusst machen: Schon eine ganz normale Situation in einem Klassenzimmer bietet viele interessante Themen, die man erforschen kann. Die Ergebnisse der Forschung können dem Lehrer geeignete Mittel an die Hand geben, sie helfen ihm in der Praxis bei der Problemlösung, indem er eine Methode anwenden kann. Die Masterarbeit ist eine eigenständige Forschungsarbeit, mit Thesen sowie einem theoretischen und einem praktisch-empirischen Teil. 3
Meri (2010), S. 234f.
382
Matti Meri
Neben Forschungskompetenzen sollte man als kompetenter Lehrer natürlich auch eine Fähigkeit zur Argumentation haben. Häufig bezieht man sich auf eine subjektive Theorie, also auf eine Theorie, die man selbst entwickelt hat. Das ist ein guter Anfang, aber nicht genug. Man sollte die eigene subjektive Theorie mit anderen Theorien vergleichen und auch lesen, was andere zum Thema geschrieben haben, welche Unterschiede und Ähnlichkeiten es gibt und warum. Niemi 4 klärt im Rahmen der Evaluierung der Lehrerausbildung, wie die Absolventen die Anfertigung der Examensarbeit als Teil ihrer Ausbildung beurteilen. Hauptsächlich wurde der Prozess als sehr positiv und kognitiv bedeutend eingeschätzt. Man lernt, selbstständig Informationen zu sammeln und kritisch zu sein. Viele Studierende betonten die Wichtigkeit einer geglückten Themenwahl. Je näher das Thema an den eigenen Interessen und der zukünftigen Unterrichtsarbeit liegt, desto mehr Nutzen zieht man aus der Examensarbeit. Dieser langfristige Arbeitsprozess wird als wertvolle Lernerfahrung angesehen; das erarbeitete Wissen kann man in der Evaluierung und Entwicklung der eigenen Lehrarbeit anwenden. Diejenigen Absolventen, die die Masterarbeit als problematisch und sinnlos einschätzten, kritisierten gewöhnlich die Themenwahl und die Anleitung. Forschung zur Lehrerausbildung wird in Finnland vorwiegend in den Bereichen der Erziehungswissenschaften betrieben, von Bedeutung sind aber auch Forschungsergebnisse aus den Gesellschaftswissenschaften, der Psychologie und den Geisteswissenschaften. Die Stärke der erziehungswissenschaftlichen Forschung ist ihre Wissenschaftsvielfalt. Die Forschung deckt die zentralen Bereiche von Ausbildung und Ausbildungssystem ab. Die auf den Schulalltag bezogene Forschung ist im Hinblick auf die Entwicklung des Wissenschaftsbereichs sowie der praktischen Arbeit an der Schule von Bedeutung. Erziehungspsychologie und Fachdidaktik sind traditionell wichtige Faktoren in der erziehungswissenschaftlichen Forschung und der Entwicklung der Lehrerausbildung in Finnland. Sie sind inhaltlich an allen Universitäten vertreten, die Lehrerausbildung anbieten. Ist der Lehrerberuf jedermanns Sache? In Finnland wird momentan eine ziemlich harte und kontroverse Diskussion darüber geführt, ob wir für unsere Lehrerausbildung die innerlich motivierten Studenten auswählen. Häufig wird danach gefragt, ob und wie wir eine geeignete Auswahl treffen können. In einem Jahr hatten wir allein in Helsinki etwa 1300 Bewerber für die Grundstufenlehrerbildung, konnten aber nur 100 Studenten aufnehmen. Mann hat bei uns festgestellt: „Wer alles zu wissen glaubt, weiß nichts von der Erziehung. Wer die ganze Prüfung über nicht einmal lacht, den nehmen wir nicht. Wer zu viel redet, den nehmen wir nicht“ und „Wir brauchen niemanden, der wunderbar Flöte spielt, wir brauchen Menschen, die sich fragen: Wie erreiche ich, dass die Kinder Flöte spielen lernen und dieses auch gern tun?“ 4
Vgl. Niemi (1995).
Pisa-Erfolg Finnlands
383
Da muss man natürlich sehr genau überlegen, welche Kompetenzen die Studenten schon haben müssen, wenn sie zum Lehramtsstudium kommen und welche Qualifikationen wir ihnen anbieten müssen, damit das Studium ordentlich läuft. Bei der Auswahl der Lehramtsstudenten ist das Dreieck aus Befähigung / Motivation, Qualifikation und Kompetenzen von großer Bedeutung. Ziel der Lehrerbildung ist ein bestimmter Lehrertypus: ein reflektierender Didaktiker (Denker und Forscher) mit Theoriewissen, Berufswissen und Handlungskompetenz. 5 Über die Bedeutung der Forschungsorientierung eines Lehrers habe ich bereits geschrieben. Ein Lehrer sollte während seines Studiums eine wissenschaftliche Grundlage erhalten, die nicht nur pädagogische, sondern auch andere, zum Beispiel psychologische und soziologische, Komponenten hat. Zielorientierung hat bei uns in Finnland schon sehr früh einen großen Stellenwert. Bereits in der Grundschule üben Erstklässler, sich Ziele / Lernziele zu setzen. Ein Schüler setzt sich am Anfang des Tages ein Lernziel: Heute versuche ich, dieses und jenes zu lernen. Er schreibt seine Ziele auf eine kleine Karte, damit er am Ende des Schultages seinen Erfolg genau sehen kann: Dieses Ziel habe ich geschafft, und dieses nicht. Allerdings reicht das noch nicht aus. Letztlich geht es darum zu verstehen, warum man Ziele nicht erreicht hat, die man sich selbst gesetzt hat. Das ist nicht einfach. Wie bekannt ist in der Unterrichtspraxis vieler Länder, dass auch die Schüler fähig sind, sich eigene Lernziele zu setzen? In Didaktikliteratur schreibt man viel darüber, aber man findet es selten in der Unterrichtswirklichkeit wieder. Ein guter Lehrer braucht, wie z. B. Hilbert Meyer in seinen vielen Didaktikbüchern darstellt, bestimmte Persönlichkeitsmerkmale wie Selbstvertrauen, Berufsethos, Soziale und emotionale Intelligenz, pädagogische Reflexionsfähigkeit, wie Selbstkritik, sowie Handlungsfähigkeit, Theoriewissen, Biografische Kompetenz, Fallverstehen, Methodenrepertoire, Soziale und emotionale Integrationsfähigkeit, Curriculum- und Planungskompetenzen. Die meisten hier aufgeführten Aspekte werden dem Leser klar sein. Ich will nur einzelne Punkte erläutern. Mit Berufsethik meine ich vor allem: Ein Lehrer sollte ein Verständnis dafür haben, was Kindern wichtig ist und warum. Biografische Kompetenz bedeutet: Es reicht nicht aus, wenn ich den Namen eines Schülers kenne. Ich sollte genauer wissen, was in seinem Kopf vorgeht. In Finnland wird gegenwärtig viel darüber diskutiert, wir mit den Eltern zusammenarbeiten können, um die Kinder besser zu verstehen. Wir suchen nach gemeinsamen Lösungen, die für die Kinder zu Hause und in der Schule die besten sind. Leider ist es in Finnland oft so – und das ist hier vielleicht nicht anders –, dass bei Elternabenden die Mütter kommen und nur zwei Väter (Zuruf: einer!), oder sogar nur einer. Ich bin davon überzeugt, dass die Väter auch kommen würden, wenn sie irgendetwas Interessantes in der Schule zu tun hätten. 5
Vgl. Meyer (1980).
384
Matti Meri
Zur Handlungsfähigkeit: Ein Lehrer sollte beispielsweise dazu fähig sein, sofort zu verstehen und sofort zu reagieren, nicht lange abzuwarten, wenn irgendetwas passiert. Bei der Gestaltung des Unterrichts kann ihm ein Methodenrepertoire sehr helfen. Ab und zu sollten Lehrer individuellen Unterricht organisieren, sodass Schüler lernen können, selbstständig zu sein und etwas Wichtiges zu verstehen: Ich bin selbst verantwortlich für das, was ich hier mache. Weitere wichtige Kernkompetenzen des Lehrers sind Selbstvertrauen, Kreativität und das Wissen, wie die Potenziale einer Lernumgebung ausgeschöpft werden können. Diesen interessanten Punkt möchte ich an einem Beispiel erklären. Eine junge Lehrerin hatte ihren ersten Schultag. Das Klassenzimmer der Erstklässler war völlig leer, ohne Pulte, ohne Stühle, ohne Pflanzen, nichts. Und die Erstklässler kamen mit ihren Eltern und fragten: „Was bedeutet das? Wir kommen und da gibt es nichts?“ Da fragte die Lehrerin die Schüler: „Was meint ihr, wo seid ihr?“ Sie bekam mehrere Antworten: „Wir sind in der Schule! Wir sind im Klassenraum!“ – und so weiter. Dann hat sie gefragt: „Seid ihr schon mal in der Schule gewesen, in einem Klassenraum?“ Und die Schüler antworteten: „Ja, waren wir!“ – „Und wie war es da?“ – „Nicht so wie hier! Da waren Tische, Stühle und Schränke, Pulte, Bilder und Pflanzen.“ – „Aha, und wo könnten wir nun die Tische holen?“ Und die Kinder haben geantwortet: „Wir glauben, hier irgendwo in der Schule gibt es einen Raum, wo es Tische und Stühle für uns gibt.“ – „Und wer besucht so einen Raum?“ – „Der Schulrektor, der Direktor, eine Krankenschwester...“ – „Eine Krankenschwester? Was macht eine Krankenschwester dort?“ – Und die Kinder überlegten weiter: „Es gibt auch einige Damen, die uns das Essen vorbereiten, aber die haben keine Tische und Stühle für uns, aber der Hausmeister, ja, der Hausmeister ...!“ Und dann waren die Kinder auf dem Gang, um den Hausmeister zu suchen. Und das war interessant: Als die Kinder mit den Eltern im Lagerraum waren, was haben sie zuerst gemacht? Sie haben Überlegungen angestellt, richtige Messungen: So einen Stuhl brauche ich, für ihn brauchen wir einen etwas größeren Stuhl, oder einen kleineren. Wie hoch soll eigentlich der Tisch sein? Die Kinder haben ganz viel gemacht, und nicht einfach nur da gesessen. Und die Väter trugen die Stühle und die Pulte, sie hatten also eine richtige Position. Und alle haben gemeinsam die Lernumgebung gebaut, sodass jede Sache eine persönliche Bedeutung für das Kind erhielt. Die Kinder haben verstanden: Wir setzen uns Ziele, aber um dafür irgendwelche Mittel zu bekommen, müssen wir sie erst einmal finden. Äußerst bedeutsam ist die Wechselwirkung zwischen Lehrer und Studenten, aber auch, was die Studenten von der Sache, vom Unterrichten und Lernen, verstehen. Von großer Bedeutung ist auch, was im Kopf vor sich geht: Können wir als Lehrer erkennen, was bei unseren Studenten und Schülern passiert, wenn sie eine Beziehung zur Sache haben? Das heißt: Kann ich beispielsweise bei einem Schüler, der Mathematik lernen soll, bemerken, was in seinem Kopf
Pisa-Erfolg Finnlands
385
passiert, wenn er eine mathematische Aufgabe zu lösen versucht? Manchen Lehrern reicht es aus, zu wissen: Diese Kinder können es, und diese können es nicht. Wenn Kinder etwas nicht können, ist es diesen Lehrern egal, sie können es ja zu Hause üben, zum Beispiel mit den Eltern. Ein Lehrer sollte aber nicht nur realisieren, dass ein Schüler Fehler macht, sondern auch versuchen zu verstehen, warum er diese Fehler macht. Lehrer sind meistens gut darin, Unterricht zu planen und durchzuführen, und auch nachher zu reflektieren, was geschehen ist. Sehr schwierig ist jedoch, dieses nötige Verständnis für den Schüler zu entwickeln. Lehrer sollten auch spontan richtig reagieren können, also ein sehr intuitives Wissen haben, das schwer zu erklären ist. Letztlich brauchen sie nicht nur kognitive, sondern auch soziale und emotionale Kompetenzen. Schließlich passieren in der Klasse viele Dinge, bei denen Emotionen eine große Rolle spielen. Durch die pädagogischen Studien erhalten Lehrer ihre Lehrbefähigung für alle Bildungseinrichtungen. Deshalb müssen diese Studiengänge einheitliche Studien zur Stärkung der Lehreridentität enthalten, so auch spezielle Fachstudien, die auf verschiedene Lehraufgaben ausgerichtet sind. Im Hinblick auf lebenslanges Lernen ist es wichtig, dass Lehrer den Gedanken eines einheitlichen Lehrerbildes teilen und verinnerlichen. Dies ist unabdingbar für eine gute Zusammenarbeit zwischen den Bildungseinrichtungen. Nach Studien von Saari 6 und Piesanen et al. 7 werden Lehrerausbildern und Studierenden zufolge im Rahmen der pädagogischen Studien folgende Inhalte am besten realisiert: Kenntnis des Lernprozesses, Planungs- und Evaluierungsfähigkeiten, Einsatz von Informations- und Kommunikationstechnik und ethische Verantwortung des Lehrers. Die Ansichten von Lehrerausbildern und Studierenden unterschieden sich im Hinblick auf den Einsatz von Informations- und Kommunikationstechnik. Die Studierenden waren mit den vermittelten informations- und kommunikationstechnischen Kompetenzen weniger zufrieden als die Lehrerausbilder. Als schwach schätzten Lehrerausbilder und Studierende die Behandlung von multikulturellen Fragen, die Vermittlung von Fähigkeiten zur Konfliktlösung und zur Vorbeugung von Diskriminierung ein.
II. Pisa-Erfolg setzt Ressourcen für die Lehrerausbildung und Lehrerfortbildung voraus Die Finanzierung der Lehrerausbildung ist Teil der Gesamtfinanzierung der Universitätsausbildung, die sich nach den im staatlichen Haushaltsplan ausge6 7
Vgl. Saari (2003). Vgl. Piesanen (2006).
386
Matti Meri
wiesenen Ausgaben richtet. Die Budgetfinanzierung einer einzelnen Universität erfolgt auf der Grundlage der Finanzverteilung im staatlichen Haushaltsplan. Die Höhe der Zuwendungen wird anhand von Kalkulationskriterien festgelegt, deren Grundlage die Studien zum Erwerb höherer akademischer Grade und Doktorgrade bilden. Da die Lehrerausbildung mehrere Fächer betrifft, kann sie unter finanziellen Gesichtspunkten nicht gesondert aufgeführt werden. Examensorientierte Studien sind an finnischen Universitäten kostenlos, so dass Bewerber für ein Lehrerstudium keine Semestergebühren bezahlen müssen. Zwar nimmt der Anteil der gebührenpflichtigen Ausbildungsgänge zu. Trotzdem bieten die Universitäten examensorientierte Studiengänge der Lehrerausbildung kostenlos an. Die für das Lehramt vorauszusetzenden Qualifikationen werden für verschiedene Bildungseinrichtungen durch Verordnungen geregelt. Die Qualifikation für das Lehramt wird hauptsächlich bei der Auswahl auf der Grundlage der Examenszeugnisse der Bewerber festgestellt. Es gibt in Finnland keine gesonderten Bescheinigungen und auch keine zweite Phase für das Lehramt. Zustand und Qualität der Lehrerausbildung werden gesondert oder im Zusammenhang mit den Universitäts- und fachspezifischen Evaluierungen eingeschätzt. Für die Einschätzung ist der Evaluierungsrat der Hochschulen verantwortlich. Die jüngsten, speziell auf die Lehrerausbildung ausgerichteten Einschätzungen wurden 1998/99 in allen Universitäten mit Lehrerausbildung durchgeführt. Auf der Grundlage der Evaluierungen werden für gewöhnlich Entwicklungsempfehlungen erteilt, deren Umsetzung durch Befragungen von Studierenden und Lehrerausbildern verfolgt wird, wie zuletzt im April 2002. Die Ergebnisse wurden im Frühjahr 2003 veröffentlicht. Die Bewertungsergebnisse wirken aber sich nicht auf die Finanzierung der Universitäten aus und verpflichten diese nicht zu Maßnahmen. Das Unterrichtsministerium hat die praktische Umsetzung der haushaltsfinanzierten Bildungsmaßnahmen dem Zentralamt für Unterrichtswesen zugewiesen. Das Zentralamt bestellt Bildungsmaßnahmen bei Universitäten, Fachhochschulen und beim Kurszentrum der Unterrichtsverwaltung. Gewöhnlich umfasst eine Schulungsmaßnahme 6 –10 ETCS. Die Höhe der jährlichen Zuschüsse beträgt 9 –11 Mio. Euro, aus denen für etwa 15.000 Lehrer Fortbildungsmaßnahmen angeboten werden. An den Fortbildungsmaßnahmen können Lehrer aus dem Grundunterricht, der gymnasialen Oberstufe, der Berufsbildung sowie Unterrichtende in Einrichtungen freier Bildungsträgerschaft, u. a. der Erwachsenenbildung, teilnehmen. 8, 9, 10 8
Vgl. Hakala et al. (1999). Vgl. Jakku-Sihvonen / Rusanen (1999). 10 Vgl. Luukkainen (2000). 9
Pisa-Erfolg Finnlands
387
Eine anspruchsvolle Unterrichts- und Erziehungsarbeit setzt voraus, dass Lehrer regelmäßig ihre Fachkompetenz aktualisieren und entwickeln können. Die Möglichkeiten an Fortbildungsmaßnahmen teilzunehmen, sind gegenwärtig derart unterschiedlich, dass man von einer Ungleichheit zwischen Lehrergruppen und verschiedenen Regionen sprechen muss. Im Entwicklungsprogramm wird betont, dass Gemeinden und andere Bildungsträger ausreichende Ressourcen für die Lehrerweiterbildung bereitstellen müssen. In der Fortbildung wird der Lehrerberuf noch als recht einheitliche Erscheinung behandelt, ohne die verschiedenen Berufsphasen zu berücksichtigen. Fortbildungsmaßnahmen richten sich hauptsächlich an einzelne Personen und gehen nicht von der Gesamtheit der in der Schule Lehrenden aus. Angebot und Finanzierung der Fortbildung basieren gegenwärtig selten auf einem festen Konzept. Fortbildungslehrgänge werden in Form von einzelnen Schulungstagen und Kursen angeboten, durch die die Gesamtheit der in der Schule Lehrenden als solche und die einzelnen Lehrer keine planmäßige Unterstützung für ihre Arbeit erhalten. Im Entwicklungsprogramm wird gefordert, dass Inhalte und Realisierung der Fortbildung im Hinblick auf ihre unterstützende Rolle in den verschiedenen Phasen des Lehrerberufs und der Gesamtheit der in der Schule Lehrenden erneuert werden müssen. So wird gleichzeitig das Durchhaltevermögen der Lehrer gefördert. Erneuerungsbedarf zeigt sich auch bei der Einführung von Berufsanfängern des Lehramts. Die Ausbildung und die Fortbildung von Lehrern sind nur in geringem Maße miteinander verbunden. Wenn die Fortbildung nicht planmäßig erfolgt, versucht man, alle für das Lehramt als notwendig erachteten Themen in die Grundausbildung einzubringen. Das Entwicklungsprogramm fordert, ein Kontinuum zwischen der Grundausbildung und der Fortbildung zu entwickeln. So können die im Hinblick auf die Unterrichtsarbeit zentralen Inhalte der Aus- und Fortbildung noch zweckmäßiger aufgeteilt werden. Im Entwicklungsprogramm wird betont, dass Universitäten und Fachhochschulen mehr Verantwortung bei der Planung und bei den Inhalten der Fortbildung übernehmen sollen. Wenn Lehrer an freiwilligen Fortbildungsmaßnahmen teilnehmen, können sie vom Arbeitgeber finanzielle Unterstützung bekommen. Der Arbeitgeber entscheidet, ob der Lehrer an der Fortbildung während der Arbeitszeit teilnehmen kann. Die Teilnahme an Fortbildungsmaßnahmen wirkt sich nicht auf die Gehalts- und Karriereentwicklung der Lehrer aus. Die Untersuchungen zeigen, dass Lehrer viel Freizeit für Fortbildung aufwenden. Während der drei Jahre des untersuchten Zeitraums nutzten 41% der Lehrer mindestens zehn Freizeittage für Fortbildung. Etwa 16% der Lehrer gaben an, überhaupt keine Freizeit für Fortbildung zu nutzen. 11 Diese Untersuchung zeigt auch, dass die Fortbildung von 11
Vgl. Jakku-Sihvonen / Rusanen (1999).
388
Matti Meri
Lehrern hauptsächlich vom Arbeitgeber finanziert wird (41 %). In 24 % der Fälle trugen Arbeitgeber und Lehrer gemeinsam die Kosten für die Fortbildung. An eigenfinanzierter Fortbildung nahmen in dem Untersuchungszeitraum 70 % der Lehrer teil, ein Drittel von ihnen zahlte dafür eine Summe von 100 – 500 Euro, fast ein Fünftel zahlte in der gleichen Zeit 500 –800 Euro. 10 % der Lehrer gaben an, ihre Fortbildung selbst zu finanzieren. Zum gleichen Zeitpunkt wurde auch ein umfangreiches Prognoseprojekt zu den Bedürfnissen der Lehreraus- und -fortbildung bis zum Jahr 2010 durchgeführt. Im Rahmen des Projekts wurden mehrere Berichte zu den Veränderungen der Lehrerarbeit und zu quantitativen und qualitativen Ausbildungsbedürfnissen sowie zahlreiche Entwicklungsempfehlungen erstellt. Beteiligt waren neben Vertretern von Unterrichtsverwaltung und Forschung auch Vertreter von Universitäten, Fachhochschulen, Studierenden, Lehrern, Kommunen und Arbeitsmarktorganisationen. Das Projekt veröffentlichte seinen Endbericht im Sommer 2000. 12 Auf Grundlage der Ergebnisse und Empfehlungen der Evaluierungs- und Prognosearbeit erstellte das Unterrichtsministerium ein Entwicklungsprogramm für die Lehrerausbildung, in dessen Vorbereitung auch in großem Umfang Gutachten eingeholt wurden. Das Entwicklungsprogramm wurde im Herbst 2001 veröffentlicht. Es richtete sich an die für die Lehreraus- und Fortbildung zuständigen Organisationen. 13
III. Das finnische Lehrerbildungssystem – Anregungen für die Zukunft der deutschen Lehrerbildung? „Damit man die besten Schüler der Welt bekommt, muss man die besten Lehrer der Welt ausbilden“.
Das finnische Lehrerbildungsystem sollte man nicht zu positiv bewerten, denn es bringt auch neue Probleme mit sich. Schon die Auslegung der Tatsache, dass „nur die Besten in Finnland Lehrer werden“, ist fragwürdig. Kann man mit den gegenwärtigen Aufnahmeverfahren die „richtigen“ Studierenden wählen? Sicher wird eine Reihe von Bewerbern ausgesiebt, die eventuell gute Pädagogen wären. Man kann auch in diesem Zusammenhang fragen: „Warum muss die pädagogische Eignung z. B. für Mathematiklehrer gemessen werden, wenn noch nicht einmal alle Studienplätze besetzt werden können?“ Auch die viel gelobte finnische Lehrerfortbildung, die für alle verpflichtend und von den Gemein12 13
Vgl. Luukkainen (2000). Vgl. Entwicklungsprogramm für die Lehrerausbildung (2001).
Pisa-Erfolg Finnlands
389
den als Schulträger organisiert und bezahlt wird, ist wegen der Finanznöte der Kommunen nicht immer so, wie sie sein sollte. Die Gemeinden verwenden die vom Staat erhaltenen Gelder für die Lehrerfortbildung gerne für andere Zwecke. Nach einer neuen Untersuchung des Ministeriums nimmt der finnische Lehrer an durchschnittlich zehn Tagen im Jahr an Fortbildungen teil, zum Teil auf eigene Kosten und in seiner Freizeit. So könnte man zusammenfassend folgern: Vorbildlich ist die positive Wertschätzung des Lehrerberufs in Finnland und das auf Förderung der Schüler ausgerichtete professionelle Ethos in der Lehrerausbildung. Auch die hohe Wertschätzung des Klassenlehrers, der Pädagogik in dessen Ausbildung, die in das Studium integrierte Praxisphase sowie die Zusatzausbildung für Mentoren und deren zusätzliche Honorierung sind positiv zu bewerten. Ebenso ist die straffe praxisintegrierende Studienzeit bei gleichzeitigem hohen professionellen Erfolg (PISA-Sieger) sicherlich kein Nachteil, sondern setzt finanzielle Ressourcen z. B. für eine pädagogisch sinnvolle Hochschullehrer-Studenten-Relation frei. Problematisch ist die relativ geringe Bezahlung der Lehrer (am Anfang 2300 Euro im Monat), die Notwendigkeit zu vorwiegend auch privater Fortbildungsfinanzierung und der geringe Zahl der geeigneten männlichen Bewerber für den Zugang zur Lehrerbildung. So lässt sich für die Konstruktion einer zukünftigen Lehrerbildung in Deutschland vor allem lernen, wie wichtig die Wertschätzung des Lehrerberufs und die Herausbildung des professionellen Fördergedankens ist und wie eine Theorie-Praxis-integrierte einphasige Lehrerausbildung sinnvoll zu gestalten ist. Auch der geeignetere Umgang mit schulischen Mentoren ist u. a. aus gewerkschaftlicher Sicht wünschenswert. Pisa ist ein kleines Dorf in Lappland. In Pisa wohnen 54 Einwohner. Pisa hat keine Schule.
Literatur Hakala, Juha / Kiviniemi, Kari / Teinilä, Saila (1999): Opetusalan täydennyskoulutustarjonta vuosina 1996 – 1998. Opettajien perus-ja täydennyskoulutuksen ennakointihankkeen (OPEPRO) selvitys 2, Opetushallitus. (Fortbildungsangebot im Unterrichtswesen 1996 – 1998. Bericht 2 des Prognoseprojekts der Lehreraus- und Fortbildung, Zentralamt für Unterrichtswesen.) Jakku-Sihvonen, Ritva / Rusanen, Sinikka (1999): Opetushenkilöstön täydennyskoulutukseen osallistuminen vuosina 1996 – 1998. Opettajien perus-ja täydennyskoulutuksen ennakointihankkeen (OPEPRO) selvitys 1, Opetushallitus. (Teilnahme des Ausbildungspersonals an Fortbildungsmaßnahmen in den Jahren 1996 –1998. Bericht 1 des Prognoseprojekts der Lehreraus- und Fortbildung, Zentralamt für Unterrichtswesen.) Jussila, Juhani / Saari, Seppo (Hrsg.) (1999): Opettajankoulutus tulevaisuuden tekijänä. Yliopistoissa annettavan opettajankoulutuksen arviointi, Korkeakoulujen arviointineu-
390
Matti Meri
voston julkaisuja 11:1999. (Lehrerausbildung als Zukunftsfaktor. Evaluierung der Lehrerausbildung der Universitäten, Veröffentlichungen des Evaluierungsrats der Hochschulen, Vol. 11.) Luukkainen, Olli (2000): Opettaja vuonna 2010. Opettajien perus-ja täydennyskoulutuksen ennakointihankkeen (OPEPRO) selvitys 15. Loppuraportti, Opetushallitus. (Der Lehrer im Jahr 2010. Bericht 15 des Prognoseprojekts der Lehreraus- und Fortbildung. Abschlussbericht, Zentralamt für Unterrichtswesen.) Meri, Matti (1995): Warum auch Rezepte? Einige Leitfäden zum Expertenwissen, in Kansanen, Pertti (Hrsg.): Diskussionen über einige pädagogische Fragen V, Research Report 140, Department of Teacher Education, University of Helsinki. Meri, Matti (2010): Finnland, in: Döpert, Hans et al. (Hrsg.): Die Bildungssysteme Europas. Meyer, Hilbert (1980): Leitfaden zur Unterrichtsvorbereitung, 11. Aufl. Niemi, Hannele (1995): Opettajan ammatillinen kehitys. Opettajankoulutuksen arviointi oppimiskokemusten ja uuden professionaalisuuden viitekehyksessä, Tampereen yliopiston opettajankoulutuslaitoksen julkaisuja A3/1995. (Fachliche Entwicklung des Lehrers. Evaluierung der Lehrerausbildung im Bezug auf Lernerfahrungen und neue Professionalität, Veröffentlichungen des Lehrerausbildungsinstituts der Universität Tampere A3/1995.) Opetusministeriö (Hrsg.) (2001): Opettajankoulutuksen kehittämisohjelma 2001. (Entwicklungsprogramm für die Lehrerausbildung 2001, Unterrichtsministerium.) Piesanen, Ellen / Kiviniemi, Ulla / Valkonen, Sakari (2006): Opettajankoulutuksen kehittämisohjelman seuranta ja arviointi 2005. Opettajien peruskoulutus 2005 ja seuranta 2002 –2005, Koulutuksen tutkimuslaitos 2006. (Evaluierung des Entwicklungsprogramms für die Lehrerausbildung in den Jahren 2002 –2005). Saari, Seppo (2003): Saadut ennakkotiedot Korkeakoulujen arviointineuvoston suorittamasta arvioinnin seurannasta. (Prognosedaten aus der Evaluierungsstudie des Evaluierungsrats der Hochschulen.)
Der Zugang zu wissenschaftlicher Literatur in der Informationsgesellschaft – Lizenzgebühren oder „free flow of information“? Von Christian Berger und Thomas Busch 1
I. Einleitung Der Zugang zu wissenschaftlicher Literatur durchlebt eine Phase des Wandels, seit die Möglichkeit besteht, Inhalte zu digitalisieren und ohne größeren Aufwand den Rezipienten zur Verfügung zu stellen. War es zuvor eine Selbstverständlichkeit, dass die relevanten Informationen nur Büchern und Zeitschriften und damit urheberrechtlich geschützten Werken entnommen werden konnten, mittelbar also nur gegen Zahlung von Lizenzgebühren zu erhalten waren, gilt dies heute nicht mehr uneingeschränkt. Verlage und Bibliotheken können – zumindest theoretisch – bei der Informationsvermittlung umgangen werden. Die frei verfügbare Publikation des Wissenschaftlers auf der (instituts-)eigenen Webseite macht dies exemplarisch deutlich. Der „free flow of information“ ist damit technisch realisierbar. Ob er tatsächlich möglich, zweckmäßig und effizient ist, dieser Frage soll im Folgenden nachgegangen werden. Die damit angesprochene Frage hat eine eminent ökonomische Bedeutung. Freier Zugang zu Informationen – „free flow of information“ also – bedeutet auch kostenfreier Zugang zu Informationen. Soweit jedoch für digitale Inhalte Lizenzen abzuschließen sind, ist der Lizenznehmer zur Zahlung einer Lizenzgebühr verpflichtet.
II. Schutz von Informationen in der wissenschaftlichen Literatur Grundsätzlich sind Informationen urheberrechtlich nicht geschützt und daher auch nicht einer Person ausschließlich zugeordnet. 2 Gleiches gilt für Ideen und 1 Prof. Dr. Christian Berger ist Inhaber des Lehrstuhls für Bürgerliches Recht, Zivilprozessrecht und Urheberrecht an der Juristenfakultät der Universität Leipzig; Thomas Busch ist Wissenschaftlicher Mitarbeiter an diesem Lehrstuhl. 2 Vgl. etwa Loewenheim in Schricker (2006), § 2 Rn. 61 m.w. N.
392
Christian Berger und Thomas Busch
Forschungsergebnisse. 3 Indes kann ein mittelbarer Schutz der Informationen dadurch entstehen, dass ihnen eine bestimmte Form gegeben wird. Die Form ist sehr wohl schutzfähig, durch sie aber auch ihr Inhalt. Sind die Informationen also in Wissenschaftspublikationen, etwa einem Beitrag oder einem Buch enthalten, so kann ein Urheberrecht an diesen Werken entstehen. 4 Sie genießen dann den Urheberschutz v. a. als Sprachwerk i. S.v. § 2 Abs. 1 Nr. 1, als Lichtbildwerk gem. § 2 Abs. 1 Nr. 5 und als Darstellungen wissenschaftlicher oder technischer Art gem. § 2 Abs. 1 Nr. 7 UrhG. Dementsprechend stehen den Autoren und – soweit jene den Verlagen Nutzungsrechte einräumen – auch diesen die Rechte der §§ 15 ff. UrhG, insbesondere das Vervielfältigungsrecht (§ 16 UrhG), das Verbreitungsrecht (§ 17 UrhG) und das Recht der öffentlichen Zugänglichmachung gem. § 19a UrhG zu.
III. Wissenschaftliche Informationsversorgung 1. Zugang zu Wissen im analogen Zeitalter Im sog. analogen oder „Printzeitalter“ wurde dem Phänomen des mittelbaren Informationsschutzes dadurch Rechnung getragen, dass der schlichte Werkgenuss urheberrechtlich irrelevant war und zahlreiche Schrankenbestimmungen den Zugang zu werkgebundenen Informationen ermöglichten. So ist beispielsweise das Lesen eines Zeitschriftenartikels keine dem Urheber vorbehaltene Verwertungshandlung. Digitale Technologien aber können die schlichten Nutzungshandlungen in den Bereich dieser dem Urheber vorbehaltenen Handlungen rücken. Hierauf wird später näher einzugehen sein. Es war die Bedeutung der gedruckten Bücher und Zeitschriften sowie der sie herstellenden und öffentlich anbietenden Institutionen eine andere als heute. a) Bedeutung von Büchern und Zeitschriften Wie bereits angeklungen, konnte die Bedeutung von Büchern und Zeitschriften im analogen Zeitalter kaum überschätzt werden. Es gab praktisch keine äquivalente Quelle, aus der sich der Wissenschaftsrezipient bedienen konnte. In Betracht wäre hier wohl nur die mündliche Überlieferung oder die Überlassung beispielsweise von selbst erstellten Skripten unter Kollegen und Kommilitonen gekommen. Deren Nachteile gegenüber den genannten Medien bedürfen keiner Erläuterung.
3 Loewenheim in Schricker (2006), § 2 Rn. 50; Nordemann in Fromm / Nordemann (2008), § 2 Rn. 43 f. und 46. 4 Berger / Glas in Siegrist (2007), S. 157 (166 ff.).
Der Zugang zu wissenschaftlicher Literatur
393
b) Rolle der Verlage Eine wichtige Funktion hatten und haben die Verlage inne. Ihnen obliegt die Aufgabe, aus der Flut der Informationen diejenigen herauszufiltern, die Wissenschaftler tatsächlich gebrauchen und weiterverwerten können. Zudem übernehmen Verlage das wirtschaftliche Risiko, das mit der Herstellung von Druckwerken einhergeht. Sie „veredeln“ die Schriften der Autoren, indem Sie u. a. ein ansprechendes Layout schaffen, inhaltliche und stilistische Verbesserungen vornehmen und durch sog. Peer-Reviews maßgeblich zur Qualitätssicherung der Veröffentlichungen beitragen. Nicht zuletzt ist auch die Werbung für eine Publikation Verlagsaufgabe. c) Rolle der Bibliotheken In dem Maße, wie die Bedeutung von Büchern und Zeitschriften ob ihres Inhaltes im analogen Zeitalter nicht unterschätzt werden durfte, galt dies für Bibliotheken als öffentlicher Anbieter der Publikationen. Kein Rezipient von wissenschaftlicher Literatur wäre in der Lage gewesen, diese jeweils käuflich zu erwerben. Zudem erfüllen Bibliotheken ebenso wie die Verlage eine gewisse Filterfunktion, indem Sie eine Auswahl darüber treffen, welche Bücher sie anschaffen, welche Fachzeitschriften sie abonnieren. Soweit dies, was in der Praxis wohl leider nicht allzu selten vorkommt, nicht vorrangig auf Budgetknappheit zurückzuführen ist, entsteht auch hier ein Mehrwert im Sinne einer besseren Orientierung für die Rezipienten. Schließlich machen Bibliotheken Literatur auch transparent, beispielsweise durch Kataloge, welche Kategorisierungen vornehmen und das Auffinden von Informationen erleichtern. Sie dienen deshalb auch der Orientierung. Insofern liegt die überragende Bedeutung der Bibliotheken im Printzeitalter auf der Hand. d) Schrankenbestimmungen Bereits im analogen Zeitalter gab es urheberrechtliche Schrankenbestimmungen, die darauf abzielten, den Zugang zu werkgebundenen Informationen zu ermöglichen. Urheberrecht ist geistiges Eigentum im Sinne von Art. 14 GG. Schranken finden ihre Legitimation in der Sozialbindung des Eigentums, Art. 14 Abs. 2 GG. 5 Bedeutung erlangt in diesem Zusammenhang auch die Informationsfreiheit, Art. 5 Abs. 1 S. 1 GG. 6 Konkrete Schrankenbestimmungen sind etwa das Recht auf Privatkopie, § 53 Abs. 1 UrhG, sowie die Schranke bezüglich der Berichterstattung über Tageser5 6
BVerfGE 31, 229. Vgl. Wandtke in Wandtke / Bullinger (2009), Einl. Rn. 43 f.
394
Christian Berger und Thomas Busch
eignisse aus § 50 UrhG. Für die letztgenannte Schranke ist gar keine Vergütung zu zahlen, für die Privatkopie erfolgt lediglich eine mittelbare Vergütung über die sog. Geräte- und Leermedienabgabe, 7 also einem Anteil am Verkaufspreis der Vervielfältigungsgeräte, welcher über Verwertungsgesellschaften an die Urheber ausgeschüttet wird. Einen erheblichen Einfluss auf Lizenzverträge hatten die Schrankenbestimmungen damit jedenfalls nicht. Es fehlte insofern zumeist an der Substitutionstauglichkeit der ausnahmsweise erlaubten Handlungen. Die ökonomische Relevanz der Schranken im analogen Zeitalter war demnach als eher gering einzuschätzen. 2. Zugang zu Wissen im digitalen Zeitalter Der Zugang zu Wissen hat sich seit Etablierung der Digitalisierungsmöglichkeiten nicht unwesentlich verändert. Wesentlich ist dabei Folgendes: Im analogen Zeitalter freie Nutzungshandlungen (der Werkgenuss) können nunmehr urheberrechtlich relevant werden. Beispielsweise muss, wer eine CD mit Fachinformationen einsehen will oder einen Online-Beitrag lesen möchte, eine Vervielfältigungshandlung im Arbeitsspeicher des Computers vornehmen, die auch nach herkömmlichem Urheberrecht der Zustimmung des Rechteinhabers bedarf. Zudem kann der Zugang zu Informationen durch digitale technische Schutzmaßnahmen, etwa Passwörter, erschwert werden. Andererseits gelangen digitale Beiträge wesentlich schneller zum Rezipienten. Ganze Bibliotheken passen auf eine Festplatte. Es fallen keine Druckkosten an. Nur von den technischen Gegebenheiten begrenzt, können Werke zahlreichen Nutzern, sogar gleichzeitig, zugänglich gemacht werden. Der „free flow of information“ stößt nur noch an wenige Grenzen. Dies bedingt aber ein Umdenken der involvierten Institutionen. a) Neuorientierung der Verlage und Bibliotheken Die Digitalisierung beeinflusst das Medienverhalten der Nutzer. Die Bedeutung von Büchern und Zeitschriften schwindet zusehends. Waren sie im Printzeitalter notwendig, um an Informationen zu gelangen, so sind sie dies heute nicht mehr. In naher Zukunft werden sie eher Luxusartikel für die Rezipienten sein, die sich an Printausgaben gewöhnt haben oder mit diesen besser arbeiten können. Der Jurist findet nahezu alle relevanten Fachzeitschriften, Urteile und Gesetzestexte etwa bei beck-online und juris. Hierfür sind freilich Lizenzgebühren zu zahlen. Sich dennoch der Printausgabe zu widmen, hat beinahe etwas Nostalgisches. Hierauf müssen Verlage und Bibliotheken reagieren. Verlage tun dies, indem sie digitale Angebote, meist neben den Printausgaben, anbieten. Die Verlagsaufgaben der Druckerzeugung und Verbreitung treten dadurch in den Hin7
Vgl. dazu Dreier in Dreier / Schulze (2008), § 54 Rn. 3.
Der Zugang zu wissenschaftlicher Literatur
395
tergrund. Andere Verlagsaufgaben hingegen haben an Bedeutung nicht verloren. So ist auch und gerade bei digitalen Inhalten eine Auswahl vorzunehmen, um den Rezipienten nicht vor die unlösbare Aufgabe zu stellen, sich mit jedweder Veröffentlichung – unabhängig von deren Qualität – auseinander setzen zu müssen. Diese Aufgabe wird in der Zukunft wohl eine der bedeutendsten der Verlage sein. Daneben sind natürlich die digitalen Möglichkeiten auszuschöpfen. Dazu gehört vor allem das Verfügbarmachen in Netzwerken, ebenso die Einfügung von Querverweisen, etwa durch Hyperlinks. Benutzerorientierte Angebote sind denkbar, etwa nach Themengebieten oder Schlagwörtern. Je nach Fachgebiet können auch multimediale Angebote zweckdienlich sein. Auch Bibliotheken müssen umdenken. Sicher, auf absehbare Zeit werden die gedruckten Medien nicht völlig verschwinden. Insofern behalten die Bibliotheken vorerst ihre berechtigte Stellung, die sie in der analogen Zeit erworben haben. Doch je mehr digitale Angebote es gibt, desto mehr sind auch Bibliotheken aufgerufen diese für die Nutzer zugänglich zu machen. Denn soweit die digitalen Inhalte gegen Lizenzgebühren angeboten werden, besteht das gleiche Bedürfnis einer zentralen Einrichtung wie im analogen Zeitalter. Zudem wurde eine neue Schrankenbestimmung speziell für elektronische Leseplätze in Bibliotheken geschaffen. Hierauf wird im Folgenden einzugehen sein. b) Neue Schrankenbestimmungen Nicht nur Verlage und Bibliotheken, sondern auch der Gesetzgeber war aufgerufen, sich den neuen Herausforderungen im digitalen Umfeld zu stellen. Während die Schrankenbestimmungen im analogen Zeitalter eher eine geringe ökonomische Relevanz aufwiesen, ist diese im digitalen Zeitalter enorm. Digitale Kopien unterscheiden sich nicht von deren Vorlage. Digitale (Online-)Publikationen können Printpublikationen durchaus substituieren. Wird die Nutzung der digitalen Publikation nun durch eine Schranke von den Ausschließlichkeitsrechten der Urheber und Verlage ausgenommen, so entfällt die Möglichkeit, Lizenzgebühren in Verträgen auszuhandeln. Meist ist in den Schrankenbestimmungen angeordnet, dass eine angemessene Vergütung zu zahlen ist. Trotzdem ist die Nutzung den Kräften von Angebot und Nachfrage entzogen. Ist keine Vergütung vorgesehen, wie dies bei open access der Fall wäre, so kann dies zum Wegfall ganzer Institutionen, beispielsweise der Bibliotheken führen. Als Schranken-Schranke wirkt hier jedoch der Dreistufentest aus Art. 5 Abs. 5 der Richtlinie 2001/29/EG (sog. Info-Richtlinie). Demnach dürfen Schrankenbestimmungen nur bestimmte Sonderfälle betreffen, die weder die normale Auswertung des Werks beeinträchtigen, noch die berechtigten Interessen des Urhebers oder Rechtsinhabers ungebührlich verletzen. 8 Deshalb ist die ökonomische Relevanz der Schranken 8
Vgl. dazu Senftleben (2004), S. 200 ff.
396
Christian Berger und Thomas Busch
für digitale Inhalte zwar hoch, aber begrenzt. Wie hoch sie im Bereich der Bibliotheken ist, soll im Folgenden de lege lata anhand von § 52b UrhG und de lege ferenda an einer open-access-Schranke erörtert werden. aa) Elektronische Leseplätze – § 52b UrhG Der Gesetzgeber hat mit § 52b UrhG den Versuch unternommen, die Bibliotheken und ihre Leser in den „free flow of information“ einzubinden. Neben den herkömmlichen Leseplätzen sollen nunmehr auch elektronische Leseplätze eingerichtet werden können. An diesen können die im analogen Bestand der Bibliothek vorhandenen Werke auch elektronisch dargestellt werden. Die Werke sollen in gleicher Weise wie in analoger Form genutzt werden können. 9 Rechtstechnisch handelt es sich hier wohl um eine öffentliche Zugänglichmachung der Werke gem. § 19a UrhG. Freilich sind die Tatbestandsmerkmale „von Orten und zu Zeiten ihrer Wahl“ bei Leseplätzen in Bibliotheken nicht völlig unproblematisch. Die Bindung an den analogen Bestand, die sog. Bestandsakzessorietät, erweist sich auf den ersten Blick als hinderlich für den „free flow of information“. Denn ein solcher würde wohl eher dann gegeben sein, wenn an den Leseplätzen alle digitalisierten Werke abrufbar wären. Doch dann stellte sich die Frage der Finanzierung der Werke. Eine Gebühr pro Abruf wäre augenscheinlich unzureichend und würde dazu führen, dass Anzahl und Qualität der wissenschaftlichen Werke deutlich nachlassen. Wohl deshalb hat sich der Gesetzgeber für die grundsätzliche Bestandsakzessorietät entschieden. Er geht davon aus, dass sich das Anschaffungsverhalten der Bibliotheken nicht ändern wird. 10 Die Reichweite der Bestandsakzessorietät ist allerdings nicht endgültig geklärt. Einigkeit besteht zunächst darüber, dass die Werke gem. § 52b S. 1 UrhG im Bestand der privilegierten Institutionen analog vorhanden sein müssen. Dies allein würde aber bedeuten, dass eine Bibliothek nur ein Exemplar anschaffen müsste, um die Nutzung an unbegrenzt vielen Leseplätzen zu ermöglichen. Da so aber die soeben genannten Gefahren in ähnlicher Weise bestehen würden, als wenn gar keine Bestandsakzessorietät gefordert wäre, wurde eine zweite Bindung an den analogen Bestand eingeführt, sog. doppelte Bestandsakzessorietät. Gem. § 52b S. 2 UrhG dürfen grundsätzlich nur so viele Werke an den elektronischen Leseplätzen zugänglich gemacht werden, wie im analogen Bestand vorhanden sind. Das „grundsätzlich“ soll Ausnahmen für Belastungsspitzen ausdrücken. Dann soll die Nutzung eines analogen Werkes an maximal vier elektronischen Leseplätzen gleichzeitig möglich sein. 11 Sind also fünf Exemplare eines Wer9
Bundestagsdrucksache 16/1828 S. 26. Bundestagsdrucksache 16/1828 S. 26. 11 Bundestagsdrucksache 16/5939 S. 44. 10
Der Zugang zu wissenschaftlicher Literatur
397
kes im analogen Bestand der Bibliothek vorhanden, so ist grundsätzlich auch die gleichzeitige Nutzung an fünf elektronischen Leseplätzen möglich, bei Belastungsspitzen sogar an zwanzig. Der Gedanke des „free flow of information“ scheint hier deutlich hervor. Unklarheit besteht allerdings dahingehend, ob es darüber hinaus eine sog. dreifache Bestandsakzessorietät geben muss. 12 Es geht hier um die Frage, woher die Bibliotheken die Digitalisate, welche sie an den elektronischen Leseplätzen zugänglich machen, bekommen, ob also die Vorlage für die Digitalisierung ein eigenes Werkstück sein muss. Dies würde den Bibliotheken die Nutzung der Schranke erheblich erschweren, denn die Digitalisierung etwa von regelmäßig erscheinenden, umfangreichen Kommentaren, ist sehr zeit- und kostenintensiv. § 52b UrhG schweigt sich zu diesem Problem aus, enthält dementsprechend aber auch keine Beschränkungen. Letztlich hängt die Antwort auf die Frage davon ab, worauf diese „Annexvervielfältigungskompetenz“ der Bibliotheken gestützt wird. Dass den Bibliotheken die Möglichkeit gegeben sein muss, Digitalisate herzustellen, ergibt sich deutlich aus dem gesetzgeberischen Anliegen, den analogen Bestand auch elektronisch nutzen zu können. 13 Anderenfalls liefe die Schranke weitgehend leer. 14 Eine Regelung wie in § 52a Abs. 3 UrhG fehlt jedoch. Hier wird man wohl eine planwidrige Regelungslücke sowie eine vergleichbare Interessenlage annehmen können. Damit kommt eine Analogie zu § 52a Abs. 3 UrhG in Betracht. 15 Demnach wären alle erforderlichen Vervielfältigungen zulässig. Als erforderlich wird zumindest die Digitalisierung an sich, also eine vorgelagerte Vervielfältigung i. S.v. § 16 UrhG, einzustufen sein. Führte man die Kompetenz also auf eine Analogie zurück, so dürften Bibliotheken zum einen überhaupt Werke digitalisieren, zum anderen gälte keine Beschränkung auf eigene Werke, wenn man die Kopie des Fremddigitalisats als erforderlich qualifiziert. 16 Es dürften demnach auch Digitalisate benutzt werden, die etwa andere Bibliotheken hergestellt haben. Das Werk müsste aber trotzdem als analoges Exemplar im eigenen Bestand vorhanden sein. Zum gleichen Ergebnis gelangte man, wenn die Annexvervielfältigungskompetenz aus § 52b UrhG selbst abgeleitet würde. 17 Dies könnte im Wege teleolo-
12
Vgl. Steinhauer (2009), S. 688 (691 f.). Bundestagsdrucksache 16/1828 S. 26. 14 Vgl. Berger (2007), S. 754 (756). 15 Kritisch Heckmann (2008), S. 284 (287). 16 Kritisch bezüglich des Vorliegens einer insoweit planwidrigen Regelungslücke Steinhauer (2009), S. 688 (691). 17 So auch OLG Frankfurt a. M., Urt. v. 24. 11. 2009, Az. 11 U 40/09, ZUM 2010, S. 265 (269), jedenfalls hinsichtlich der Digitalisierung. 13
398
Christian Berger und Thomas Busch
gischer Auslegung erreicht werden. 18 Da die Bestimmung keine ausdrückliche Regelung diesbezüglich enthält, bestünden auch keine ausdrücklichen Beschränkungen. Fraglich bleibt hingegen, ob der Zweck über die Notwendigkeit der Herstellung eines Digitalisats hinaus auch die Notwendigkeit einer kooperativen Nutzung umfasst. 19 Festzuhalten ist somit, dass je nach Auslegung eine dreifache, jedenfalls eine doppelte Bestandsakzessorietät besteht, mithin der „free flow of information“ durch § 52b UrhG aufgrund der Rechtsunsicherheit bisher eher tröpfelt als fließt, also eher schlecht als recht an den elektronischen Leseplätzen ankommt. Es schließt sich in diesem Zusammenhang aber auch die Frage der nachgelagerten Vervielfältigungen an, also das Abspeichern beispielsweise auf USB-Sticks oder das Ausdrucken. Diese sog. „Anschlussnutzungen“ sind in § 52b UrhG ebenfalls nicht ausdrücklich geregelt. 20 Es könnte nach der ratio des Gesetzes zu unterscheiden sein zwischen digitalen und analogen Anschlussnutzungen. Während die analoge Anschlussnutzung, also etwa ein Ausdruck eines kleinen Teils des Werkes auf Papier möglich sein müsste, um eine der analogen Nutzung vergleichbare Wirkung zu erzielen, könnte die digitale Speicherung (USB-Stick) gegen die gesetzgeberische Intention verstoßen, dass die Werke elektronisch nur in den Räumen der Bibliothek genutzt werden sollen. 21 Freilich schweigt sich § 52b UrhG auch hierzu aus, was das OLG Frankfurt a. M. daran hinderte, zwischen analogen und digitalen Vervielfältigungen unterscheiden zu können. 22 Eine weitere Frage betrifft die Subsidiaritätsklausel in § 52b S. 1 UrhG, nach der die Nutzung nur gestattet ist, soweit vertragliche Regelungen nicht entgegenstehen. Es geht darum, dass eine Digitalisierung und Zugänglichmachung an den elektronischen Leseplätzen dann nicht gestattet sein soll, wenn lizenzvertragliche Regelungen zwischen Bibliothek und Verlag bestehen, welche die elektronischen Nutzungen erlauben. Umstritten ist in diesem Punkt aber, ob tatsächlich ein Vertrag zustande gekommen sein muss, oder ob ein (einseitiges) Angebot der Verlage genügt. 23 Der Wortlaut „vertragliche Regelungen“ spricht eher für einen 18 So bereits LG Frankfurt / M., Urt. v. 13. 5. 2009, Az. 2 –06 O 172/09, ZUM 2009, S. 662 (664). 19 Verneinend Steinhauer (2009), S. 688 (691). 20 Berger (2007), S. 754 (756). 21 In diesem Sinne etwa Jani in Wandtke / Bullinger, (2009), § 52b Rn. 26; ebenso LG Frankfurt / M., ZUM 2009, S. 662 (664 f.). 22 OLG Frankfurt / M., ZUM 2010, S. 265 (269), wonach ein generelles Vervielfältigungsverbot an Leseterminals bestehen soll. Das Urteil ist in diesem Punkt weitgehend auf Ablehnung gestoßen: Peifer (2009), S. 60; Jani (2010), S. 27; Weller, jurisPR-ITR 3/2010 Anm. 2; Niedostadek, jurisPR-WettbR 2/2010 Anm. 3. 23 Vgl. Berger in Schmitz (2008), S. 35 (40 ff.).
Der Zugang zu wissenschaftlicher Literatur
399
Vertrag. Auch eine systematisch vergleichende Betrachtung mit § 53a Abs. 1 S. 3 UrhG führt zum selben Ergebnis. Dort wird ausdrücklich auf ein „Ermöglichen“ einer vertraglichen Regelung abgestellt, also zwischen Vertrag und Vertragsangebot differenziert. Demnach genügte ein Angebot nicht. 24 § 52b UrhG ist indes die Umsetzung von Art. 5 Abs. 3 lit. n) der Richtlinie 2001/29/EG (Info-Richtlinie). Danach dürfen Rechte an Werken nur beschränkt werden, wenn „keine Regelungen über Verkauf und Lizenzen“ gelten. Die Richtlinie spricht insofern gerade nicht davon, dass vertragliche Abreden tatsächlich zustande gekommen sind. Mithin muss die Möglichkeit eines Vertragsabschlusses genügen. 25 § 52b UrhG muss daher zumindest richtlinienkonform ausgelegt werden, gelingt dies nicht, ist er europarechtswidrig. 26 Wäre eine vertragliche Vereinbarung notwendig, so hätten es die Bibliotheken in der Hand, durch Verweigerung des Abschlusses eines Lizenzvertrages die Bestimmung ins Leere laufen zu lassen. 27 Auf der anderen Seite, soweit ein Angebot genügen soll, hätten faktisch die Verlage es selbst in der Hand durch unangemessen hohe Angebote (übertrieben: ein Aufsatz für 10.000.000 €) die Bestimmung leerlaufen zu lassen. Soweit die Verlage hier Monopolstellungen innehaben, können zwar kartellrechtliche Konsequenzen Abhilfe schaffen. Dennoch ist zu fordern, dass das Angebot zu „angemessenen Bedingungen“ erfolgen muss. 28 Für die Bestimmung der Angemessenheit kann bedingt auf § 32 Abs. 2 S. 2 UrhG zurück gegriffen werden, wobei die Kriterien dieser Regelung sich nicht ohne Weiteres auf sekundäre Urheberverträge übertragen lassen. Als zusätzlich maßgebliche Kriterien sollte zumindest darauf abgestellt werden, dass die Bibliotheken das Werk bereits im Bestand haben und dass bei Belastungsspitzen eine intensivere Nutzung stattfindet. 29 Auch wird hier von Bedeutung sein, ob die Digitalisierung kooperativ erfolgen kann oder jeweils selbst vorgenommen werden muss. bb) De lege ferenda – open access Beim Thema open access geht es um den „free flow of information“ außerhalb von Bibliotheken. Heutzutage hat jeder wissenschaftlich Interessierte seinen eigenen elektronischen Leseplatz zu Hause oder im Büro, in Form seines Computers. Besonders Fortschrittliche haben ihn sogar in der Manteltasche, in 24 25 26 27 28 29
So LG Frankfurt / M., ZUM 2009, S. 662 (664). Berger (2007), S. 754 (760); a. A. OLG Frankfurt / M., ZUM 2010, S. 265 (268 f.). Vgl. Berger in Schmitz, (2008), S. 35 (41 f.). Dies übersieht auch nicht LG Frankfurt / M., ZUM 2009, S. 662 (664). Berger (2007), S. 754 (756). Berger in Schmitz, (2008), S. 35 (45).
400
Christian Berger und Thomas Busch
Form eines E-Book-Readers. 30 Von daher erscheint es geradezu anachronistisch, dass § 52b UrhG eine Beschränkung auf bibliotheksinterne Leseplätze vorsieht. Aktuelle Bestrebungen gehen deshalb dahin, wissenschaftliche Publikationen von überall digital abrufen zu können. Bisher ist dies nur gegen Zahlung einer Lizenzgebühr an Verlag und Urheber möglich. Soweit die Werke der Urheber aber bereits mit öffentlichen Mitteln finanziert sind, etwa solche von Hochschullehrern, zeigt sich ein neuralgischer Punkt. Eine Universität beispielsweise muss, um die von den eigenen Wissenschaftlern geschaffenen Werke per Internet nutzen zu können, für diese Lizenzgebühren bezahlen. Hier soll mittels einer weiteren urheberrechtlichen Schrankenbestimmung angesetzt werden. Diskutiert wird zunächst eine „urhebervertragsrechtliche“ Lösung, nämlich die Erweiterung des § 38 Abs. 1 UrhG um einen Satz 3. 31 An wissenschaftlichen Beiträgen, die im Rahmen einer überwiegend mit öffentlichen Mitteln finanzierten Lehr- und Forschungstätigkeit entstanden sind und in Periodika erscheinen, soll dem Urheber auch bei Einräumung eines ausschließlichen Nutzungsrechts das unabdingbare Recht zustehen, den Inhalt längstens nach sechs Monaten seit der Erstveröffentlichung anderweitig öffentlich zugänglich zu machen, soweit dies zur Verfolgung nicht kommerzieller Zwecke gerechtfertigt ist. 32 Eine solche Regelung ist in Wahrheit aber eine versteckte Schrankenregelung und muss mit Blick auf den effet-utile-Grundsatz ebenfalls an Art. 5 der Richtlinie 2001/29/ EG (Info-Richtlinie) gemessen werden. 33 Der dort aufgeführte Schrankenkatalog ist abschließend und würde eine solche Regelung nicht umfassen. Zudem dürfte ein Verstoß gegen den Dreistufentest vorliegen, weil das ausschließliche Verwertungsrecht der Verlage substantiell beeinträchtigt würde. Nicht zuletzt deshalb hat sich die Bundesregierung gegen eine Einführung des § 38 Abs. 1 S. 3 UrhG gewandt. 34 Ein anderer dogmatischer Ansatz ist die Einführung eines § 43 Abs. 2 UrhG. Der an einer Hochschule beschäftigte Autor soll verpflichtet werden, die im Rahmen seiner Forschungstätigkeit entstandenen Werke der Hochschule zur Veröffentlichung anzubieten. Während einer Frist von zwei Monaten soll die Hochschule ihre Zugriffsrechte geltend machen können. Danach gelten die üblichen Regelungen. Auch hier handelt es sich letztlich um eine Schrankenbestimmung in Form einer Zwangslizenz, die gegen die Vorgaben des Art. 5 Richtlinie 2001/29/ EG (Info-Richtlinie) verstößt. Zudem bestehen verfassungsrechtliche Bedenken mit Blick auf die Wissenschaftsfreiheit aus Art. 5 Abs. 3 S. 1 GG. 35 30 Zu dessen (noch) begrenzter Bedeutung vgl. Giesecke (2009) in SZ vom 14. 03. 2009. 31 Vgl. dazu Heckmann / Weber (2006), S. 995. 32 Bundesratsdrucksache 257/06 S. 6. 33 Ebenso Hirschfelder (2009), S. 444 (445 f.); a. A. Heckmann / Weber (2006), S. 995 (998); Hansen (2009), S. 799 (802). 34 Bundestagsdrucksache 16/1828 S. 47.
Der Zugang zu wissenschaftlicher Literatur
401
Es ist daher vor der Einführung einer open-access-Klausel eine Änderung der Info-Richtlinie und eine genauere gesetzliche Umrahmung erforderlich. Unabhängig davon, wie eine open-access-Regelung rechtstechnisch ausgestaltet wäre, ergeben sich ferner allgemeine Fragestellungen. Wie soll beispielsweise eine open-access-Veröffentlichung geschehen? Auf welcher Plattform sollen die Beiträge veröffentlicht werden? Und wer soll die Kosten dafür übernehmen? Technische Infrastrukturen kosten viel Geld. Kommen dazu noch Verlagsaufgaben, etwa das Peer-Review und die Layouterstellung, steigen diese Kosten nochmals. 36 Zudem stellt sich die Frage, ob die Zitierfähigkeit bewahrt wird. Sollten all diese Fragen gelöst werden können, so verbleibt letztlich die bereits angesprochene Problematik der fehlenden Orientierung. Ein „free flow of information“, der völlig ungefiltert auf die Rezipienten einfällt, mag – bildlich gesprochen – dazu führen, dass sie darin zu ertrinken drohen. Deshalb kann bis auf Weiteres auf die Arbeit der Wissenschaftsverlage und die der Bibliotheken nicht verzichtet werden.
IV. Fazit und Ausblick Neben dem bestehenden System sollte dennoch ein open-access-Modell etabliert werden, das zunächst im Einklang mit den bisherigen Distributionswegen koexistiert. Das bedeutet zunächst also Lizenzgebühren und „free flow of information“. Die digitalen Möglichkeiten müssen ihren Beitrag zur Wissensgesellschaft erbringen können. Letztlich muss sich durch Marktprozesse ein System herauskristallisieren, das den „free flow of information“ effizient macht. Vielleicht sind eines Tages Wissenschaftsverlage Verwalter von open-accessPlattformen und Bibliotheken PC-Pools mit beratendem Fachpersonal. Somit ist der Bogen zur Ausgangsthematik „Ökonomisierung der Wissensgesellschaft“ gespannt, der mit einem Plädoyer für ein Minimum an Ökonomisierung schließen soll. Selbst wenn die Wissensgesellschaft nicht gänzlich an ökonomischen Kriterien ausgerichtet werden sollte, wo Lernende nur noch Kunden sind, Lehrende nur noch Anbieter der „Ware Wissen“, im Wettbewerb auf dem Wissensmarkt, so sollte doch wenigstens ein ökonomisches Prinzip gelten – das Maximalprinzip. Aus den gegebenen Mitteln den maximalen Nutzen ziehen – zumindest soviel Ökonomie braucht und verträgt die Wissensgesellschaft.
35
Vgl. zum Ganzen Hirschfelder (2009), S. 444 (446 f.) Zwar gibt es bereits heute sog. Open-Peer-Reviews, aber diese sind noch nicht mit den herkömmlichen vergleichbar, dennoch scheinen sie zukunftsfähig. Vgl. http://de .wikipedia.org/wiki/Offenes_Peer-Review (Abruf: Dezember 2009). 36
402
Christian Berger und Thomas Busch
Literatur Berger, Christian (2007): Die öffentliche Wiedergabe von urheberrechtlichen Werken an elektronischen Leseplätzen in Bibliotheken, Museen und Archiven, in: Gewerblicher Rechtsschutz und Urheberrecht, S. 754 ff. Dreier, Thomas / Schulze, Gernot (Hrsg.) (2008): Urheberrechtsgesetz Kommentar, 3. Aufl. Fromm, Friedrich Karl / Nordemann, Wilhelm / Nordemann, Axel / Nordemann, Jan Bernd (Hrsg.) (2008): Kommentar zum Urheberrechtsgesetz, 10. Aufl. Giesecke, Michael (2009): Zwischen diesen Deckeln liegt weder Fisch noch Fleisch. Der Erfurter Medienforscher Michael Giesecke über das E-Book und wirklich bedeutsame Veränderungen unserer Wissenskultur, in: Süddeutsche Zeitung vom 14. 03. 2009. Hansen, Gerd (2009): Für ein Zweitveröffentlichungsrecht für Wissenschaftler – zugleich Besprechung von Marcus Hirschfelder: Anforderungen an eine rechtliche Verankerung des Open Access Prinzips, in: Gewerblicher Rechtsschutz und Urheberrecht Internationaler Teil (GRUR Int), S. 799 ff. Heckmann, Jörn (2008): Die fehlende Annexvervielfältigungskompetenz des § 52b UrhG, in: Kommunikation und Recht (K&R), S. 284 ff. Heckmann, Jörn / Weber, Marc Philipp (2006): Open Access in der Informationsgesellschaft – § 38 UrhG de lege ferenda, in: Gewerblicher Rechtsschutz und Urheberrecht Internationaler Teil (GRUR Int), S. 995 ff. Hirschfelder, Marcus (2009): Open Access – Zweitveröffentlichungsrecht und Anbietungspflicht als europarechtlich unzulässige Schrankenregelungen? §§ 38 und 43 UrhG de lege ferenda im Lichte der RL 2001/29/EG, in: Multimedia und Recht (MMR), S. 444 ff. Jani, Ole (2010): Eingescannte Literatur an elektronischen Leseplätzen – Was dürfen Bibliotheken?, in: Gewerblicher Rechtsschutz und Urheberrecht – Praxis im Immaterialgüter- und Wettbewerbsrecht (GRUR Prax), S. 27 ff. Niedostadek, André (2010): Urheberrechtliche Probleme im Zusammenhang mit elektronischen Leseplätzen in Bibliotheken, in: juris PraxisReport Wettbewerbs- und Immaterialgüterrecht (jurisPR-WettbR) 2/2010 Anm. 3. Peifer, Karl-Nikolaus (2009): OLG Frankfurt a. M.: Leseplatzschranke des § 52b UrhG erlaubt es Bibliotheken nicht, Anschlussvervielfältigungen durch den Nutzer zu ermöglichen, in: Gewerblicher Rechtsschutz und Urheberrecht – Praxis im Immaterialgüterund Wettbewerbsrecht (GRUR Prax), S. 60. Schmitz, Wolfgang / von Becker, Bernhard / Hrubesch-Millauer, Stephanie (Hrsg.) (2008): Probleme des neuen Urheberrechts für die Wissenschaft, den Buchhandel und die Bibliotheken. Schricker, Gerhard (Hrsg.) (2006): Urheberrecht Kommentar, 3. Aufl. Senftleben, Martin (2004): Grundprobleme des urheberrechtlichen Dreistufentests, in: Gewerblicher Rechtsschutz und Urheberrecht Internationaler Teil (GRUR Int), S. 200ff.
Der Zugang zu wissenschaftlicher Literatur
403
Siegrist, Hannes (Hrsg.) (2007): Entgrenzung des Eigentums in modernen Gesellschaften und Rechtskulturen. Steinhauer, Eric W. (2009): Probleme kooperativer Digitalisierung für elektronische Leseplätze in Bibliotheken, in: Kommunikation und Recht (K&R), S. 688 ff. Wandtke, Artur-Axel / Bullinger, Winfried (Hrsg.) (2009): Praxiskommentar zum Urheberrecht, 3. Aufl. Weller, Michael (2010): Urheberrechtliche Probleme im Zusammenhang mit elektronischen Leseplätzen in Bibliotheken, in: juris PraxisReport IT-Recht (jurisPR-ITR) 3/2010 Anm. 2.
Die Aporie der Universalbibliothek: Das Open-Access-Problem der Wissenschaftswelt Von Oliver Jungen 1 Vor vier Jahren veröffentlichte die Deutsche Forschungsgemeinschaft (DFG) das „Positionspapier: Elektronisches Publizieren“. 2 Gleich zu Beginn wird darin eingeräumt, dass die in einem wegweisenden Initiativpapier 3 bereits zehn Jahre zuvor formulierten Desiderate „bisher erst in Ansätzen realisiert“ wurden: Der konkrete Dienstleistungsbedarf für die einzelnen Fächer sei noch immer nicht ermittelt worden. Gleichwohl ist auch das neue Positionspapier eine Eloge auf das „e-Publishing“, spricht von zahlreichen Vorzügen und von „bislang kaum ausgeloteten vielfältigen Möglichkeiten“. Vorauseilende Begeisterung sowie ein gewisses Innovationspathos kann man dem nicht absprechen. Geradezu euphorisiert aber benutzt man bei der DFG in den letzten Jahren den Begriff Open Access, der hier weniger eine schlichte Publikationsalternative zu bezeichnen scheint denn eine Wunderformel, um endlich „Roh- und Primärdaten“ so erfolgreich kommunizieren zu können, dass der Forschung ganz neue Dimensionen offen stehen. Die DFG möchte die von ihr geförderten Wissenschaftler dazu bewegen, die Ergebnisse neben der herkömmlichen Publikation in einer kostenfrei öffentlich einsehbaren Variante zu veröffentlichen (der sogenannte „grüne Weg“ im Gegensatz zum „goldenen Weg“, einer reinen Open Access-Veröffentlichung). Die Kosten trägt hierbei der Autor, in der Regel also das jeweils zuständige Forschungsinstitut respektive die Fördereinrichtung. Zur Zeit wird von der DFG das Portal „Leibniz-Publik“ aufgebaut, mit dem man aktiv für den Open Access werben möchte: Zunächst werden die Leibniz-Preisträger „die zehn Beiträge, die sie selbst für ihr Schaffen am wichtigsten halten, im Open Access verfügbar machen“. 4
1
Oliver Jungen ist Redakteur im Bereich Feuilleton – Literatur der FAZ. Deutsche Forschungsgemeinschaft (2005a), online verfügbar unter: http://www.dfg .de/download/pdf/foerderung/programme/lis/pos_papier_elektron_publizieren_0504.pdf. 3 Vgl. Deutsche Forschungsgemeinschaft – Bibliotheksausschuss (1995). 4 Kleiner (2009) (Zitat S. 642). 2
406
Oliver Jungen
Bei ihrer Unterstützung von Open Access-Verfahren stützt sich die DFG unter anderem auf eine von ihr im Jahre 2004 durchgeführte Umfrage unter Wissenschaftlern. 5 Zwei Drittel aller Befragten haben sich demnach für eine Stärkung des Open Access-Gedankens ausgesprochen. Allerdings wird dabei eine erneute Entzweiung der beiden im Sinne der Interdisziplinaritäts-Ideologie zusammengezwungenen Kulturen deutlich. Die Geisteswissenschaftler nämlich scheinen von Open Access weit weniger begeistert als Lebens-, Natur- und Ingenieurwissenschaftler. Dass besonders jüngere Geisteswissenschaftler sich skeptisch zeigen, erklärt die DFG mit Beharrungskräften: „Offenbar schlägt sich hier zum einen der Umstand nieder, dass es in den Geistes- und Sozialwissenschaften bislang nur wenige wirklich renommierte Open Access Zeitschriften gibt, mit denen junge Wissenschaftler ihre Sichtbarkeit deutlich erhöhen und so ihre Karrierechancen erhöhen könnten. Zum anderen dürfte die Bedeutung der Habilitation bzw. des sog. ‚Zweiten Buchs‘ im Hinblick auf den eher an einer Zeitschriftenkultur entwickelten Open Access Gedanken für eine etwas größere Zurückhaltung nicht zu vernachlässigen sein.“ 6 In der Umfrage selbst werden allerdings andere Gründe für die Ablehnung deutlich, durchaus ernstzunehmende Bedenken: Nicht einmal ein Drittel der Geisteswissenschaftler glaubt, dass die Qualität bei Open Access in ähnlicher Weise sichergestellt werden kann wie bei konventionellen Verfahren. Zudem gehen zwei Drittel der Geisteswissenschaftler davon aus, dass die langfristige Verfügbarkeit nicht gewährleistet sei. Man kann durchaus argwöhnen, hier würden Einwände wegerklärt mit dem Hinweis, die Geisteswissenschaftler wüssten eben noch zu wenig über das digitale Publizieren. Aber reicht das aus, um den Furor zu erklären, mit welchem zwei Philologen seit einem Jahr in deutschen Feuilletons gegen Open Access zu Felde ziehen? Von „Machtergreifung“ und „Enteignung“ spricht Roland Reuß (Heidelberg): „Open Access“, so schrieb er am 11. Februar 2009 in der Frankfurter Allgemeinen Zeitung, sei „prima vista unglaublich vielversprechend“, doch es komme damit eine verdeckte Kostenexplosion auf uns zu. Das Modell rechne sich nur, weil die Kosten „komplett auf die Autoren abgewälzt“ würden. 7 Diese Publikationsform bedrohe grundlos die Wissenschaftsverlage in ihrer Existenz und führe allenfalls zu typographisch minderwertigen Ergebnissen. Auch Uwe Jochum (Konstanz) wird nicht müde, gegen die Open Access-Ideologie anzurennen: Obwohl die DFG doch die Selbstverwaltung der Wissenschaft sei, hätten sich in ihr die Technokraten durchgesetzt, die Strukturen über Inhalte setzten. 5 Vgl. Deutsche Forschungsgemeinschaft (2005b), online verfügbar unter http://www .dfg.de/download/pdf/dfg_im_profil/evaluation_statistik/programm_evaluation/studie_pu blikationsstrategien_bericht_dt.pdf. 6 Ebd., S. 61. 7 Reuß (2009).
Das Open-Access-Problem der Wissenschaftswelt
407
Vorbehalte gegen Open Access würden einfach überhört, „Masterpläne“ würden im obskur besetzten Unterausschuss für elektronische Publikation ausgeheckt, die Forschungs- und Publikationsfreiheit stehe auf dem Spiel. 8 Ist es schon erstaunlich, dass es zu einer solch unterkomplexen Frontstellung überhaupt kommen konnte – das offene Internet als Grab respektive als Allheilmittel des wissenschaftlichen Publizierens – so verwundert die weitere Entwicklung immer mehr. Tausende Unterzeichner – darunter viele Autoren, Verleger, Publizisten und Geisteswissenschaftler – fand der im März 2009 von Roland Reuß initiierte „Heidelberger Appell“, der auf nicht nachvollziehbare Art die Kritik an der „Google Buchsuche“ mit Vorbehalten gegenüber den Open Access-Plänen der Wissenschaftsorganisationen vermischt. Beide Akteure hätten grundgesetzwidrige Eingriffe in die Publikationsfreiheit im Sinn: „Jeder Zwang, jede Nötigung zur Publikation in einer bestimmten Form ist ebenso inakzeptabel wie die politische Toleranz gegenüber Raubkopien, wie sie Google derzeit massenhaft herstellt.“ 9 Das hat frappierender Weise auch Politiker überzeugt. Die ehemalige Bundesjustizministerin Brigitte Zypries (SPD) unterstützte den Aufruf ebenso wie der ehemalige Chef des Bundeskanzleramtes und jetzige Innenminister Thomas de Maizière (CDU). Letzterer machte deutlich, man werde auch im Falle der Open-Access-Bewegung nötigenfalls regulatorisch eingreifen. Mit viel Häme wurde der Appell dagegen in netzaffinen Kreisen überzogen. Auch die dezidiert angegriffene Allianz der Wissenschaftsorganisationen antwortete noch im selben Monat mit einer „Gemeinsamen Erklärung“: „Der Vorwurf einer ‚Enteignung der Urheber‘ entbehrt jeder Grundlage“, heißt es darin. Die bei ihnen beschäftigten Wissenschaftler blieben „nach wie vor alleinige Urheber ihrer Werke“ und seien „frei in der Wahl ihrer primären Publikationsformen“. 10 Man erwarte lediglich, dass zudem ein einfacher und finanziell wenig belastender Weg zu ihren Publikationen eröffnet werde. Wie konnte es zu einer solchen Zuspitzung kommen? Warum wird statt eines nüchternen Abwägens der Vor- und Nachteile eine hoch emotionalisierte Debatte um Open Access geführt? Im sehr informativen Open Access-Handbuch der Deutschen UNESCO-Kommission versucht man es mit der Standarderklärung eines materiellen Interessenkonflikts: „In der Open-Access-Debatte kollidieren die Interessen von großen und mächtigen kollektiven Akteuren wie der Wissenschaft, dem Verlagswesen, der Öffentlichkeit und dem politischen Gemeinwe-
8 Vgl. Jochum (2009a), online verfügbar unter http://www.textkritik.de/digitalia /akteure.htm; sowie Jochum (2009b). 9 Heidelberger Appell: http://www.textkritik.de/urheberrecht/. 10 Helmholtz-Gemeinschaft (2009), online verfügbar unter http://www.helmholtz.de /aktuelles/presseinformationen/artikel/detail/gemeinsame_erklaerung_der_wissenschafts organisationen/.
408
Oliver Jungen
sen.“ 11 Die Heftigkeit der Auseinandersetzung aber liegt wohl kaum daran, dass die Wissenschaftsverlage, die tatsächlich Hauptleidtragende der neuen Publikationsstrategien werden könnten, plötzlich ihre Macht spielen ließen. Jeder weiß schließlich, dass ihre Preispolitik überhaupt erst zu der Open Access-Bewegung geführt hat. Durch Abonnementspreise von teils mehreren 10.000 Euro im Jahr pro Fachzeitschrift und durch den Zwang, ganze Pakete abzunehmen, sind immer noch große Teile der Bibliotheksetats der Universitäten gebunden. Allein der jährliche Umsatz des britisch-niederländischen Branchenführers Reed Elsevier belief sich 2007 mit 6,1 Mrd. Euro auf zwei Drittel des gesamten deutschen Buchhandelsumsatzes (9,6 Mrd.). 12 Freilich wird von Verlagsseite gegen Open Access polemisiert, teils auch erfolgreich. So gelang es dem amerikanischen Verlegerverband AAP im Jahre 2007, aus der Kostendiskussion eine Qualitätsdebatte zu machen. Das wichtigste Argument war dabei, das „Peer Review“Verfahren, eine Begutachtung auf Augenhöhe, sei bei Open Access nicht gesichert. 13 Doch scheinen selbst die kleinen Fachverlage heute davon auszugehen, dass dem elektronischen Publizieren die Zukunft gehört. Im Directory of open access Journals (DOAJ) sind bereits 4474 Zeitschriften aufgeführt, vor zwei Jahren waren es knapp dreitausend: Es gibt wohl keinen Weg mehr zurück. Für die Verlage geht es heute vor allem darum, sich als Dienstleister neu zu definieren, um auch im Open Access-Zeitalter wirtschaftlich sein zu können. Nach Einschätzung des Max-Planck-Instituts ist das auch möglich. Zwar sinken dabei die Gewinne von etwa 30 auf etwa 10 % des Umsatzes, aber dafür ist auch deutlich weniger Arbeit zu investieren. 14 Längst werden diverse Modelle erfolgreich erprobt: Der wissenschaftliche Springer-Verlag etwa bietet einen offenen Zugang gegen satte dreitausend Dollar Gebühr an. Anders als bei den Zeitschriften dürften die Preise wegen des Konkurrenzdrucks aber schnell fallen. Im Bereich der Kernphysik ist bereits eine gütliche Einigung erzielt: Die Förderinstitutionen zahlen den Verlagen künftig die Open-Access-Bereitstellung der Daten statt teurer Zeitschriftenabonnements. Auch das Argument verschwiegener Kosten, die Open Access teurer machten als das klassische Publizieren, scheint unhaltbar zu sein: Nach den Untersuchungen der EU und der OECD hat im letzten Jahr auch eine Studie des australischen Ökonomen John Houghton bestätigt, dass der Nutzen von Open Access signifikant die Kosten übersteige. Seine Empfehlung ist eindeutig: „Our analysis suggests that there is evidence to support a move towards more open access to research findings“. 15 11 Schimmer (2007), online verfügbar unter http://www.unesco.de/fileadmin/medien /Dokumente/Kommunikation/Handbuch_Open_Access.pdf. 12 Vgl. Drösser (2008). 13 Vgl. Association of American Publishers (2007). 14 Vgl. Helmes (2006). 15 Houghton (2009).
Das Open-Access-Problem der Wissenschaftswelt
409
Der Autor selbst könnte vom Author-Pay-System sogar profitieren, denn die Kosten dürften ja meist von den Universitäten getragen werden. Während aber die traditionellen akademischen Zeitschriften verlangen, dass das Copyright – also das Verwertungsrecht, nicht das Urheberrecht an sich – vom Autor an den Verlag übergeht, so ist das beim Open Access-Publizieren nur noch in Ausnahmen der Fall. Eine an der Universität Groningen durchgeführte Umfrage kam bereits 2006 zu dem Ergebnis, dass in der Hälfte aller Fälle die Wissenschaftler sämtliche Rechte an ihren Texten behielten, ein Drittel der Befragten befürwortete Creative Commons-Lizenzen und nur eine kleine Minderheit transferierte noch die Verwertungsrechte an den jeweiligen Herausgeber. 16 Die eigene Verwertung der Rechte kann sich finanziell durchaus auszahlen gegenüber der alten Regelung, nach der nur in seltenen Fällen (hohe) Honorare an den Autor gezahlt wurden. Es gibt also viele gute Gründe für das digitale Open Access-Publizieren von bereits einmal staatlich geförderten wissenschaftlichen Ergebnissen. Warum dann die Vehemenz der Ablehnung durch viele Geisteswissenschaftler, die ja nicht in völliger Unzurechnungsfähigkeit den „Heidelberger Appell“ unterzeichnet haben und sich auch sonst kritisch zu Wort melden? Der Verdacht liegt nahe, dass es mit der inneren Verfasstheit der beiden wissenschaftlichen Kulturen zu tun hat. Zwei miteinander zusammenhängende Thesen sollen im Folgenden skizziert werden. Die erste These lautet: Die Ablehnung betrifft vor allem die Form (digitale Datenpräsentation), nicht die Norm (Open Access). Trotz aller Modernisierung weist die geisteswissenschaftliche Forschungsmethode in der Regel immer noch von außen nach innen, vom Referenten auf seine Interpretation. Dadurch erhält die Publikation der Ergebnisse einen anderen Status als im Falle der Naturwissenschaften: Sie ist – sehr vereinfacht gesprochen – Zweck und nicht Mittel, Endziel und nicht Etappe. Anschlussfähigkeit gilt denn beinahe auch als Schimpfwort in den Geisteswissenschaften. Wo es schon keine Rückwirkung auf den Referenten gibt, keine sichtbare Anwendung der Ergebnisse, da will man diese zumindest in eine haptisch ansprechende, eine (be)greifbare Form gebracht sehen. Und die Aura eines Bücherregals verhält sich zur Aura eines Online-Repositoriums nun einmal, um es mit Adorno zu sagen, wie die Aura der Toskana zu derjenigen Gelsenkirchens. Aber vielleicht darf man noch weiter gehen: Der in Deutschland besonders heftig tobende Streit um Open Access könnte auch deshalb wie ein Kulturkampf anmuten, weil es sich ganz einfach um einen Kulturkampf handelt, auch wenn der mit Open Access nur am Rande zu tun hat. Die gegenwärtige Debatte lässt, so die These dieses Vortrags, eine viel tiefer liegende, lange Zeit verdrängte 16
Vgl. Hoorn / van der Graaf (2006).
410
Oliver Jungen
Kränkung der Geisteswissenschaften wieder aufbrechen, deren Ursprung bis auf Wilhelm Diltheys zwar trotzig-selbstbewusst vorgetragene, aber inhaltlich doch defensive Definition dieses Wissenschaftszweigs zurückgeht. So sehr man sich in den Humanities bis heute an die kantische Philosophie klammert, kann kaum geleugnet werden, dass ausgerechnet das Noumenon, das unerkennbare Ding an sich, Karriere machte, nicht die idealistische Komponente. Hans-Ulrich Gumbrecht nennt es das „Geburtstrauma der Geisteswissenschaft“: Mit der auf einen kleinen Teilbereich des Menschen beschränkten und damit die gesamte natürliche Welt preisgebenden Konturierung stand man den Naturwissenschaften nie auf Augenhöhe gegenüber. Die Asymmetrie besteht seither darin, dass sich empirisch-mathematische Verfahren ganz selbstverständlich auf alle möglichen Objekte beziehen, während das beim hermeneutischen Verfahren trotz mancher Aufweitung nicht der Fall ist. Einen einzigen Trumpf aber hielten die Geisteswissenschaften in den Händen: Auch die Naturwissenschaftler mussten sich am Ende ihrer noch so exakten Forschungen einer Instanz unterwerfen, die traditionell zum Hoheitsbereich der Geisteswissenschaften gehörte: der Buchbranche. Selbst rein wissenschaftliche Verlage hantierten mit Papieren, Schriftarten und Buchformaten. Wie viele Physiker findet man wohl unter den Lektoren? Die moderne Naturwissenschaft hatte damit einer Form zu huldigen, die ihr nicht wirklich angemessen war. Dieses letzte, formale Mitspracherecht der Geisteswissenschaftler ging spätestens verloren, als Naturwissenschaftler begannen, ihre Ergebnisse – unendliche Testreihen oder ganze Computerprogramme – digital auszutauschen. Nun scheint sich aus Sicht der Geisteswissenschaftler das Blatt vollends zu wenden: Sie selbst sollen jetzt gezwungen werden, in einem Format zu publizieren, das wiederum ihnen nicht angemessen scheint, das für mathematisch-physikalische Datenmassen optimiert ist. Viele ohnehin in der Sinnkrise steckende Geisteswissenschaftler haben die Open Access-Vorstöße daher nicht als Kampfansage gegenüber den wenigen naturwissenschaftlichen Großverlagen mit prohibitiven Preisvorstellungen verstanden, sondern als eine Kampagne gegen ihr Arkanum, das Bücherregal, die Toskana. Tatsächlich ist es verwunderlich, in welcher kulturrevolutionären Form die Open Access-Philosophie in den Wissenschaftsbetrieb einbrach: Appelle und Manifeste, Petitionen und Erklärungen jagten einander, wie der folgende Rückblick zeigt. Trotz dieser Partisanentaktik aber war es eine Revolution von oben, denn lanciert wurden diese Appelle von den großen und den ganz großen Verbünden. Dass sich hinter diesen scheinbaren Bottom-Up-Vorstößen Top-DownStrukturen verbargen, hat das Vertrauen in sie wohl nicht unbedingt gestärkt. Die Idee, staatlich geförderte, wissenschaftliche Ergebnisse sollten kostenfrei für alle Bürger zugänglich sein, schloss gegen Ende der neunziger Jahre an die Entwicklung des elektronischen Publizierens an. Die „Scholarly Publishing and Academic Resources Coalition“ (SPARC), eine mächtige, transnationale Allianz
Das Open-Access-Problem der Wissenschaftswelt
411
von Wissenschaftsorganisationen, die sich für Open Access einsetzt, existiert seit 1997. Seit 2001 bereits gibt es einen europäischen Ableger. Die Gründung alternativer, nicht mehr den traditionellen Verlagen zugehöriger Zeitschriften wird von SPARC ebenso forciert wie von der „Budapester Open Access Initiative“ (BOAI) aus dem Jahre 2002, die vom New Yorker Open Society Institute initiiert wurde. Dieses wiederum ist bekanntlich eine Gründung des schillernden amerikanischen Multimilliardärs und Investmentbankers George Soros. In der Budapester Erklärung, die bis heute von über 5.000 Einzelpersonen und über 500 Institutionen unterzeichnet wurde, heißt es im wohl typisch zu nennenden revolutionär-messianischen Sound: „Der Abbau bisher bestehender Zugangsbeschränkungen wird zu einer Beschleunigung von Forschung und zu verbesserten (Aus-)Bildungsmöglichkeiten beitragen, zum wechselseitigen Lernen der ‚Armen‘ von / mit den ‚Reichen‘ und der ‚Reichen‘ von / mit den ‚Armen‘“. Ob aber beschleunigte Forschung das Maß aller wissenschaftlichen Dinge ist, bleibt doch wohl fraglich. Es folgten schnell weitere Open-Access-Manifeste von mächtiger Seite, so etwa die ECHO-Charter 17, hinter der das 2003 gegründete EU-Projekt European Cultural Heritage Online steht, eine gemeinsame Plattform von mehr als 100 Forschungsinstituten und Museen. Auch zu nennen ist das BethesdaStatement führender Biomediziner aus dem Jahre 2003. 18 Von zentraler Bedeutung für die deutsche Open Access-Bewegung ist die „Berliner Erklärung“ 19 vom Oktober 2003, die von der DFG, der Fraunhofer-Gesellschaft, der Max-Planck-Gesellschaft, der Leibniz-Gemeinschaft, der HelmholtzGemeinschaft, dem Wissenschaftsrat, der Hochschulrektorenkonferenz und zahlreichen weiteren Organisationen unterzeichnet wurde und die „Vision von einer umfassenden und frei zugänglichen Repräsentation des Wissens“ formuliert. Die hohe Politik mischte von nun an ebenfalls mit, sowohl aus eigener Initiative wie auf Betreiben der Wissenschaftsorganisationen. Die UNESCO 20 hat schon im Dezember 2003, die OECD 21 kurz darauf im Januar 2004 angeregt, öffentlich geförderte Forschungsergebnisse sollten allgemein zugänglich sein. Seit dem Jahr 2006 ist auch die EU in der Open Access-Debatte aktiv, weil ein optimierter Wissenszugang die Umwandlung der Europäischen Union in einen wissensbasierten Wirtschaftsraum fördere (Lissabon-Strategie). 22 17
Echo-Charter; http://echo.mpiwg-berlin.mpg.de/policy/oa_basics/charter. Bethesda Statement on Open Access Publishing; http://www.earlham.edu/~peters /fos/bethesda.htm. 19 Berliner Erklärung über den offenen Zugang zu wissenschaftlichem Wissen; http:/ /oa.mpg.de/openaccess-berlin/Berliner_Erklaerung_dt_Version_07-2006.pdf. 20 Abschlusserklärung des UN-Weltgipfels zur Informationsgesellschaft; Declaration of Principles – Building the Informations Society (Document WSIS-03/GENEVA / DOC/ 4-E). 21 Science, Technology and Innovation for the 21st Century. Meeting of the OECD Committee for Scientific and Technological Policy at Ministerial Level, Final Communique, January 2004. 18
412
Oliver Jungen
Im Januar 2007 erreichte den europäischen Kommissar für Wissenschaft und Forschung eine von den großen Wissenschaftsorganisationen initiierte Petition pro Open Access mit über 20.000 Unterschriften. Einen Monat später regte eine Mitteilung der EU-Kommission an, dass öffentlich finanzierte Forschungsdaten „im Prinzip allen zugänglich sein“ sollten. 23 Es folgte im April 2008 eine entsprechende Empfehlung der Kommission: Der offene Zugang zu Forschungsdaten werde gefördert, Beschränkungen im Zusammenhang mit der kommerziellen Verwertung würden Rechnung getragen. 24 Die amerikanische Regierung hat sich inzwischen zumindest partiell hinter die Open Access-Idee gestellt. Eine erste Gesetzesinitiative zugunsten eines Federal Research Public Access Act (FRPAA) war noch im Jahre 2006 gescheitert. Im vergangenen Jahr aber setzte die Behörde National Institutes of Health durch, dass alle NIH-finanzierten Forschungsergebnisse innerhalb eines Jahres nach der konventionellen Publikation (digital oder analog) in dem Open-Access-Repositorium PubMed Central abgelegt werden müssen. Mitte 2009 haben nun die amerikanischen Open-Access-Anhänger mit breiter Unterstützung einen neuen Vorstoß im Hinblick auf FRPAA gestartet: Die 11 größten staatlichen Fördereinrichtungen der Vereinigten Staaten sollen damit zu ähnlichen Abkommen wie dem des NIH verpflichtet und ermächtigt werden. Zuletzt haben im November dieses Jahres 41 Nobelpreisträger – allesamt Naturwissenschaftler – einen Offenen Brief an den amerikanischen Kongress gerichtet, in dem sie sich für die Unterzeichnung des Gesetzes stark machen. Auch im Petitionsausschuss des Deutschen Bundestag steht zur Zeit eine Online-Petition in der Mitzeichnung, die den Open Access-Zugang zu öffentlich geförderter Forschung verlangt (3. 12. 2009: 18009 Mitzeichner; Mitzeichnungsfrist bis 22. 12. 2009). Dabei wird die NIH-Praxis explizit als Vorbild genannt. Bei so viel Agitation im Hinblick auf Open Access auf allen Ebenen muss es geradezu verwundern, dass dieser sich noch nicht auf breiter Front durchgesetzt hat. Die kritischen Geisteswissenschaftler jedenfalls werden diesen Prozess kaum aufhalten. Die Verzögerungen in der Umsetzung resultieren allenfalls noch aus der Kollision von Zuständigkeiten. So reagierte der Bundesrat im Mai 2007 auf die erwähnte Mitteilung der EU-Kommission zugunsten von Open Access mit dem Beschluss 139/07: Zunächst findet sich darin der Hinweis, der möglichst freie, sofortige und offene Zugang zu wissenschaftlichen Informationen stehe in einem Spannungsfeld mit dem Schutz des geistigen Eigentums und insbesondere des Urheberrechts. 25 Den Open Access betrachte der Bundesrat als ergänzenden Weg der Informationsvermittlung: „Er weist aber darauf hin, dass Open-access 22 23 24 25
Vgl. Ramjoué (2008). Europäische Kommission (2007). Vgl. Europäische Kommission (2008). Vgl. Bundesrat (2007).
Das Open-Access-Problem der Wissenschaftswelt
413
die Kosten der Wissensaufbereitung und -vermittlung nicht vermeidet, sondern von den Nutzern auf die Autoren verlagert, und es auch Gründe gibt, die für die Veröffentlichung wissenschaftlicher Publikationen durch einen Verlag sprechen.“ Nur in unerlässlichen Fällen solle in den funktionierenden Wettbewerb im Markt für wissenschaftliche Informationen eingegriffen werden. Damit übernimmt der Bundesrat – vielleicht zum letzten Mal – die Position der wissenschaftlichen Verlage, wie sie in der „Brüsseler Erklärung“ 26, der Antwort auf die EU-Petition im Jahre 2007, formuliert wurde: Die Verlage präsentieren sich hier als die natürlichen Partner der Wissenschaft. Es geht den Open-Access-Befürwortern allerdings um deutlich mehr Wettbewerb unter den Verlagen, die vielleicht in Zukunft Open-Access-Agenturen sein könnten. Was bei der erregten Diskussion seltsamerweise nie erwähnt wird: dass das Problem eines nicht vorhandenen Open-Access überhaupt nicht besteht. Spätestens die modernen Universitätsbibliotheken bieten schließlich den offenen Zugang zum Wissen. Wann immer ein Wissenschaftler Zutritt zu einer funktionierenden Bibliothek im internationalen Bibliotheksverbund hat – und welcher Wissenschaftler hat das nicht? – ist die kostenfreie Nutzung von Büchern und Artikeln selbstverständlich. Jedes entlegene Forschungsergebnis konnte per Fernleihe auch hier schon besorgt werden. Was sich mit dem digitalen Open Access ändern wird, ist also vor allem die Geschwindigkeit des Zugangs und die Öffnung der Forschungsbibliotheken auch für Nicht-Wissenschaftler. Ob letztere mit den wissenschaftlichen Publikationen aber viel anzufangen wissen, ist keineswegs ausgemacht. Auch würde hiermit eine einzige Universalbibliothek entstehen, die alle anderen, realen Bibliotheken mehr und mehr überflüssig machen und zu reinen Altbestandsmagazinen degradieren könnte. Damit aber wäre höchst bedeutsames Expertenwissen gefährdet, denn Bibliotheken tun ja weit mehr als lediglich Publikationen zu sammeln: Sie strukturieren das Wissen, und das nicht ohne Erfolg. Es geht bei Open Access also weniger um eine Runderneuerung der Forschung, wie sie die DFG stets aus Nutzerperspektive propagiert, als um Kostenersparnis auf Seiten der Wissenschaftsorganisationen, zumal die Fachzeitschriften auf Dauer immer teurer, die Bereitstellung im Internet aber auf Dauer immer günstiger werden dürfte. 27 Dagegen ist kaum etwas einzuwenden. Wozu all dies aber führen könnte, ist ebenfalls deutlich: zu einer erneuten Explosion des wissenschaftlichen Ausstoßes. Vielleicht liegt in der Angst vor dem weiteren expo26 International Association of Scientific, Technical & Medical Publishers (2007), online verfügbar unter http://www.stm-assoc.org/public_affairs_brussels_declaration.php. 27 Auch wenn selbst der DFG-Präsident neuerdings das Gegenteil behauptet: „Die Kosten für die Produktion der Publikation dürften sich nicht wesentlich unterscheiden. Wir machen uns ja auch nicht für Open Access stark, weil es weniger kostet, sondern weil es Forschungsergebnisse und deren Autoren weltweit noch sichtbarer macht.“ Fragen an der DFG-Präsidenten (siehe Fn. 3), S. 642.
414
Oliver Jungen
nentiellen Anschwellen der längst schon überquellenden Wissensspeicher der eigentliche Grund für die Ablehnung einer beschleunigten Informationszugänglichkeit. Schon vor 200 Jahren, also vor der Trennung des Denkens in Geistesund Naturwissenschaften, war die Angst vor dem Wuchern der Diskurse verbreitet. Gottfried Wilhelm Leibniz beispielsweise hat geweissagt, was Johann Gottfried Herder in die „Briefe zur Beförderung der Humanität“ aufnahm: „Wenn die Welt noch tausend Jahre steht und so viel Bücher wie heutzutage fortgeschrieben werden, so fürchte ich, aus Bibliotheken werden ganze Städte werden, deren viele dann durch mancherlei Zufälle und schwere Zeitumstände ihr Ende finden werden.“ 28 Was aber, wenn sie einfach immer weiter wucherten? Das physische Problem – und nur dieses ist ja beim digitalen Publizieren gelöst – erschien dabei noch als das harmloseste. Viel entscheidender war die immer größer werdende Unübersichtlichkeit. So schmerzen etwa Albano de Cesara, den Helden von Jean Pauls „Titan“-Roman (1800), „Bibliotheken, weil er sie nie auslesen konnte“. 29 Welche Schmerzen würden ihm und seinem „Trieb nach Komplettierung“ erst Online-Repositorien bereiten? Auch für Goethe war es 1805 schon beinahe zu spät. Die Sammlungen seiner Zeit forderten den ordnenden Geistern kaum noch zu vollbringende Höchstleistungen im Hinblick auf das Trennen von Spreu und Weizen ab, was ein halbes Jahrhundert zuvor ganz anders gewesen sei: „Die Bibliotheken waren wirkliche Schatzkammern, anstatt dass man sie jetzt bei dem schnellen Fortschreiten der Wissenschaften, bei dem zweckmäßigen und zwecklosen Anhäufen der Druckschriften mehr als nützliche Vorratskammern und zugleich als unnütze Gerümpelkammern anzusehen hat, so dass ein Bibliothekar weit mehr als sonst sich von dem Gange der Wissenschaft, von dem Wert und Unwert der Schriften zu unterrichten Ursache hat.“ 30 Ganz ähnlich urteilt der Romantiker Joseph Freiherr von Eichendorff in seiner autobiographischen Schrift „Erlebtes“, entstanden zwischen 1849 und 1857: „namentlich die großen Bibliotheken kann nur der Gelehrte, der sich bereits für ein bestimmtes Studium entschieden und gehörig vorbereitet hat, mit Nutzen gebrauchen“, weil ihm nämlich sonst alles gleich zuhanden wäre: „Auch hier also droht abermals ein vager Dilettantismus und der lähmende Dünkel der Vielwisserei.“ 31 Die schlimmste aller Vorstellungen für Goethe und Eichendorff wäre wohl: eine Volltextsuche, ein wildes Durchstöbern der gesamten Bibliothek, ohne dass die Ergebnisse hierarchisiert würden von vertrauenswürdigen Führern. Doch scheinen Bedenken dieser Art keine Rolle zu spielen im Zeitalter der Anbetung von „Roh- und Primärdaten“, von denen es offenbar nicht genug geben kann. Oder hätte man je gehört, dass DFG und Konsorten vor Dilettantismus 28 29 30 31
Herder (1971), S. 337. Paul (1961), S. 182. von Goethe (1973), S. 499. von Eichendorff (1970), S. 949.
Das Open-Access-Problem der Wissenschaftswelt
415
und Vielwisserei warnen? Es könnte also im schlimmsten Fall dazu kommen, dass der digitale Open Access den bewährten Open Access, die Bibliotheken, in seiner Existenz bedroht, diese aber nicht zu ersetzen in der Lage ist.
Literatur Association of American Publishers (Hrsg.) (2007): Partnership for Research Integrity in Science and Medicine (PRISM). Bundesrat (2007): Beschluss – Mitteilung der Kommission der Europäischen Gemeinschaften an das Europäische Parlament, den Rat und den Europäischen Wirtschaftsund Sozialausschuss über wissenschaftliche Informationen im Digitalzeitalter: Zugang, Verbreitung und Bewahrung vom 11. Mai 2007, Bundestags-Drucksache 139/07. Deutsche Forschungsgemeinschaft – Bibliotheksausschuss (Hrsg.) (1995): Elektronische Publikationen im Literatur- und Informationsangebot wissenschaftlicher Bibliotheken, Bonn. Deutsche Forschungsgemeinschaft (Hrsg.) (2005a): Positionspapier: Elektronisches Publizieren. Deutsche Forschungsgemeinschaft (Hrsg.) (2005b): Publikationsstrategien im Wandel? Ergebnisse einer Umfrage zum Publikations- und Rezeptionsverhalten unter besonderer Berücksichtigung von Open Access. Drösser, Christoph (2008): Das Denken ist frei, in: Die Zeit, 8. April 2008. von Eichendorff, Joseph Freiherr (1970): Erlebtes, in: Hillach, Ansgar (Hrsg.): Werke, Bd. 1. Europäische Kommission (Hrsg.) (2007): Mitteilung der Kommission an das Europäische Parlament, den Rat und den Europäischen Wirtschafts- und Sozialausschuss über wissenschaftliche Informationen im Digitalzeitalter: Zugang, Verbreitung und Bewahrung (KOM 56). Europäische Kommission (Hrsg.) (2008): Empfehlung der Kommission zum Umgang mit geistigem Eigentum bei Wissenstransfertätigkeiten und für einen Praxiskodex für Hochschulen und andere Forschungseinrichtungen, (K 1329). von Goethe, Johann Wolfgang (1973): Winckelmann und sein Jahrhundert, in: Seidel, Siegfried (Hrsg.): Berliner Ausgabe, Bd. 19. Helmes, Ina (2006): Die neue Offenheit des Wissens, in: Max Planck Forschung, Nr. 3, S. 30. Helmholtz-Gemeinschaft (Hrsg.) (2009):Gemeinsame Erklärung der Wissenschaftsorganisationen: Open Access und Urheberrecht: Kein Eingriff in die Publikationsfreiheit. Herder, Johann Gottfried (1971): Briefe zur Beförderung der Humanität, in: Stolpe, Heinz / Hans-Joachim Kruse / Dietrich Simon (Hrsg.): Briefe zur Beförderung der Humanität, Bd. 1. Hoorn, Esther / van der Graaf, Maurits (2006): Copyright Issues in Open Access Research Journals. The Authors’ Perspective, in: D-Lib Magazine, Vol. 12, Heft 2.
416
Oliver Jungen
Houghton, John u. a. (2009): Economic Implications of Alternative Scholarly Publishing Models: Exploring the Costs and Benefits. Report to The Joint Information Systems Committee (JISC). International Association of Scientific, Technical & Medical Publishers (Hrsg.) (2007): Brussels Declaration on STM Publishing. Jochum, Uwe (2009a): ‚Open Access‘ gepusht. Rösser und Reiter. Jochum, Uwe (2009b): Open Access. Zur Korrektur einiger populärer Annahmen, in: Göttinger Sudelblätter. Kleiner, Matthias (2009): „Die Freiheit der Autoren ist nicht bedroht“. Fragen an den DFGPräsidenten zur Open-Access-Initiative der Allianz der Wissenschaftsorganisationen, in: Forschung & Lehre, Heft 9, S. 640 – 642. Paul, Jean (1961): Titan, in: Miller, Norbert (Hrsg.): Sämtliche Werke, 1. Abt. Bd. 3. Ramjoué, Celina (2008): Open Access. Den Zugang zu Forschungsergebnissen fördern, in: UNESCO heute, Vol. 1, S. 33 – 36. Reuß, Roland (2009): Eine heimliche technokratische Machtergreifung, in: Frankfurter Allgemeine Zeitung, 11. Ausgabe. Schimmer, Ralf (2007): Spannungsverhältnisse im Zusammenhang mit Open Access, in: Deutsche UNESCO-Kommission (Hrsg.): Open Access. Chancen und Herausforderungen – ein Handbuch.
Vom Wissen des Nichtwissens. Medien und Kommunikation in der „Wissensgesellschaft“ Von Walter Hömberg 1 Mit Eifer hab’ ich mich der Studien beflissen; Zwar weiß ich viel, doch möcht‘ ich alles wissen. Wagner in Faust I
I. Prolog Wenn man als Kommunikationswissenschaftler gebeten wird, auf einer Veranstaltung anlässlich des Jubiläums der Universität Leipzig einen Vortrag zum Thema „Medien und Kommunikation in der ,Wissensgesellschaft‘“ zu halten, dann kann man nur mit Freude zusagen. Jeder, der sich in der Historie auch nur ein wenig auskennt, weiß um die Rolle, die diese Stadt in der Geschichte der Medien und der Kommunikation gespielt hat. 2 Da ist zunächst die Messestadt Leipzig, eine Drehscheibe des Handels zwischen Ost und West. Diese Tradition lässt sich bis ins 12. Jahrhundert zurückverfolgen. Und ich erinnere mich, dass noch mein Vater, ein westfälischer Kaufmann, Jahr für Jahr wie selbstverständlich zur Messe nach Leipzig gefahren ist – obwohl das wegen der deutschen Teilung nicht ganz unkompliziert war. Im Jahre 1409 kamen 46 Magister mit ihren Scholaren aus Prag in diese Stadt, auf der Flucht vor den Unruhen als Folge der Huss’schen Reformen. Am 2. Dezember 1409 dann die feierliche Eröffnung der Universität Leipzig, fast auf den Tag genau vor 600 Jahren.
1 Prof. Dr. Walter Hömberg ist Inhaber des Lehrstuhls für Journalistik und Kommunikationswissenschaft an der Universität Eichstätt-Ingolstadt. 2 Der folgende Beitrag ist die stark erweiterte Fassung eines Vortrags an der Universität Leipzig am 4. Dezember 2009. Der Vortragsstil wurde beibehalten, der Text um Literaturund Quellenhinweise ergänzt. Zur Einleitung vgl. insbesondere Kirchner (1958,1962), Stöber (2005) und Wilke (2008).
418
Walter Hömberg
Da wir ein Jahresjubiläum begehen, an dieser Stelle ein paar Jahreszahlen aus der Mediengeschichte dieser Stadt: 1481 wird das erste Buch in Leipzig gedruckt. Und 1650 erscheint hier unter dem Titel „Einkommende Zeitungen“ die erste Tageszeitung überhaupt. Auch in der Zeitschriftengeschichte hat Leipzig historische Marksteine gesetzt: − 1682 gibt Otto Mencke, Professor der Moral und der Politik an der hiesigen Universität, das erste wissenschaftliche Universalorgan im deutschen Sprachraum heraus. Seine „Acta Eruditorum“, fortgeführt von seinem Sohn und seinem Enkel, brachten es auf hundert Jahrgänge. Gottfried Wilhelm Leibniz war einer der bedeutendsten Mitarbeiter dieses Gelehrtenjournals. − 1687 hält Christian Thomasius, der auch als „Vater der Aufklärung“ bezeichnet wird, in Leipzig die erste Vorlesung in deutscher Sprache. Der Philosoph Ernst Bloch, der fast dreihundert Jahre später an dieser Universität gelehrt hat, hat ihn als „Anti-Perücke“ charakterisiert. 3 Thomasius, der später dann mit den „Monatsgesprächen“ eine populär gehaltene wissenschaftskritische Zeitschrift herausgibt, verfolgt das Ziel, die Bildung immer mehr Menschen zugänglich zu machen. − 1690 entsteht hier die erste überlieferte Dissertation über das Pressewesen: „De relationibus novellis“ von Tobias Peucer – eine bis heute lesenswerte Studie, die sich schon mit den Nachrichtenwerten im Journalismus befasst. − Von 1749 bis 1763 gibt Peter Freiherr von Hohenthal in Leipzig die „Oekonomischen Nachrichten“ heraus – eine nutzwertorientierte Zeitschrift mit volksaufklärerischen Impulsen. Es wäre reizvoll, dieses Periodikum, in dem 1751 zum ersten Mal der Begriff „Zeitschrift“ auftaucht, mit Blick auf die Thematik unseres Kongresses durchzusehen. Das 19. Jahrhundert ist geprägt durch politische, soziale, ökonomische und technologische Umwälzungen. Auch in dieser Phase eines rasanten kommunikativen Wandels stößt der Kommunikationshistoriker in dichter Folge immer wieder auf diese Stadt: − 1825 wird der „Börsenverein der Deutschen Buchhändler“ ins Leben gerufen – natürlich in der alten Verlags- und Buchmesse-Stadt Leipzig. − Hier ist seit 1833 das „Pfennig-Magazin der Gesellschaft zur Verbreitung gemeinnütziger Kenntnisse“ erschienen – wohl das früheste Beispiel der Massenpresse im deutschen Sprachraum. − Mit dem „Leipziger Literatenverein“ entsteht 1842 die erste Berufsorganisation, die sich in Sachen Pressefreiheit sowie Urheber- und Verlagsrecht engagiert. − Die „Illustrierte Zeitung“, die 1843 in Leipzig erscheint, repräsentiert einen neuen Zeitschriftentyp, der bis heute viele Leser findet. 3
Bloch (1967a), S. 13.
Vom Wissen des Nichtwissens
419
− Unter dem treffenden Titel „Leipziger Reibeisen“ kommt hier nach der Revolution von 1848 eines der ersten politischen Witzblätter heraus. − 1853 wird in Leipzig die „Gartenlaube“ konzipiert und gedruckt, die sich dann zur erfolgreichsten Familienzeitschrift des 19. Jahrhunderts entwickelt. Was das 20. Jahrhundert betrifft, so nenne ich als Innovation nur das erste „Institut für Zeitungskunde“, gegründet durch den Nationalökonomen und ehemaligen Journalisten Karl Bücher. Bücher war vor hundert Jahren Rektor der Universität Leipzig. Zum 500. Geburtstag dieser Universität stiftete Edgar Herfurth, der Verleger der „Leipziger Neuesten Nachrichten“, eine namhafte Geldsumme für Forschung und Lehre auf dem Gebiet der Presse – ein finanzieller Grundstock für die Errichtung des Instituts sieben Jahre darauf. 4 Dieses Institut hatte dann eine wechselvolle Geschichte, die über lange Zeit weniger durch intellektuelle Exzellenz als durch politische Anpassungsleistungen gekennzeichnet war. Im Folgenden beschäftige ich mich zuerst mit der Frage: Leben wir in einer Wissensgesellschaft? Dann folgt ein kurzer Rückblick in die Geschichte. Am Ende stehen einige Bemerkungen zu unterschiedlichen Wissensformen und Wissenstypen. Dabei wird auch auf Aporien und Paradoxien verwiesen. 5
II. Leben wir in einer Wissensgesellschaft? „Wir leben in einer Wissensgesellschaft, sind Wissensarbeiterinnen und -arbeiter, arbeiten in wissensintensiven Geschäftsprozessen, an der Herstellung wissensintensiver Produkte und erbringen wissensintensive Dienstleistungen. Wir erstellen Wissensbilanzen, sind Teile von Wissensnetzwerken, zeichnen Wissenslandkarten, rufen Informationen aus Wissensdatenbanken ab, betreiben Wissensentdeckung und Wissenskooperation. Wir generieren, verteilen, internalisieren, externalisieren, kombinieren, sozialisieren, managen, gestalten, repräsentieren, verarbeiten, identifizieren, erwerben, modellieren, entwickeln, transformieren, kodifizieren, transferieren, bewerten, schützen und speichern Wissen. Wissen findet sich in Büchern, Informationssystemen, Daten, Organisationen, neuen Medien, Gehirnen, Produkten, Prozessen, kognitiven Strukturen, Patenten, Handlungen und sozialen Systemen ...“. 6 So beginnt Boris Wyssusek seinen Sammelband zum Thema „Wissensmanagement komplex“. Was der Autor hier mit Emphase (und auch mit Sinn für 4
Vgl. Meyen / Löblich (2006), S. 50ff. Der Verfasser greift dabei zurück auf seinen Eröffnungsvortrag zur Jahrestagung der Deutschen Gesellschaft für Publizistik- und Kommunikationswissenschaft zum Thema „Medien und Kommunikation in der Wissensgesellschaft“ (Hömberg [2008]). 6 Wyssusek (2004), S. 1. 5
420
Walter Hömberg
Selbstpersiflage) formuliert, ist seit gut vier Jahrzehnten in ungezählten Publikationen und politischen Deklamationen behauptet und verkündet worden. Den Begriff „Wissensgesellschaft“ hat wohl zuerst der amerikanische Politologe Robert E. Lane verwendet: In einem Aufsatz aus dem Jahre 1966 prognostiziert er mit dem Bedeutungszuwachs wissenschaftlichen Wissens zugleich einen Niedergang irrationaler Politik und Ideologie. 7 Der Soziologe Nico Stehr konstatiert einen Übergang von der Industriegesellschaft zur Wissensgesellschaft. Dabei verweist er auf ökonomisch induzierte gesellschaftliche Folgen und Probleme: Eines „der Hauptmerkmale für ein Wirtschaftssystem, in dem Wissen zur wichtigsten Quelle des Wertzuwachses wird und eine erhöhte Produktion unter geringerem Einsatz von Arbeit möglich sein wird“, sei der Verlust der Vollbeschäftigung. 8 In der binnenwissenschaftlichen Diskussion, aber auch in der öffentlichen Debatte ist der Begriff „Wissensgesellschaft“ heftig umstritten. Kritiker sehen darin ein modisches Etikett, entstanden im Umfeld eines technologischen Determinismus, geprägt in der Absicht, innerhalb einer sich beschleunigenden Paradigmenkonkurrenz Aufmerksamkeit zu erhaschen. Skeptiker wie Hans-Dieter Kübler sprechen vom „Mythos Wissensgesellschaft“ (2005). „In welcher Gesellschaft leben wir eigentlich?“ Ende der neunziger Jahre machte sich der junge Soziologe und Journalist Armin Pongs auf, um Antworten auf diese Frage zu bekommen (1999; 2000). Er besuchte insgesamt 24 Gesellschaftsanalytiker und -theoretiker – und er kam mit fast ebenso vielen Antworten zurück. Seine Gesprächspartner vertraten ganz unterschiedliche Gesellschaftskonzeptionen, so die Weltgesellschaft (Martin Albrow), die postindustrielle Gesellschaft (Daniel Bell), die Bürgergesellschaft (Ralf Dahrendorf), die multikulturelle Gesellschaft (Claus Leggewie), die Arbeitsgesellschaft (Claus Offe), die Verantwortungsgesellschaft (Amitai Etzioni), die gespaltene Gesellschaft (Axel Honneth), die postmoderne Gesellschaft (Ronald Inglehart), die dynamische Gesellschaft (Renate Mayntz) und die flexible Gesellschaft (Richard Sennett). Besonders oft musste sich der Autor nach Bamberg auf den Weg machen, denn hier haben in den achtziger und frühen neunziger Jahren gleich drei Soziologieprofessoren der dortigen Universität veritable Gesellschaftstheorien entwickelt: − Kurz nach dem Reaktorunfall in Tschernobyl hat Ulrich Beck sein Buch über die „Risikogesellschaft“ (1986) veröffentlicht. Darin werden einerseits globale Technik- und Umweltgefahren, andererseits wachsende Risiken aufgrund der Individualisierung der Lebensführung als konstitutiv für die Gegenwart herausgestellt. 7 8
Vgl. Lane (1966); s. auch Stehr (1994), S. 14 und 26f. Stehr (1994), S. 524.
Vom Wissen des Nichtwissens
421
− Gerhard Schulze sieht als Folge des Übergangs von der Knappheits- zur Überflussgesellschaft eine wachsende Erlebnisorientierung. In seinem Buch „Die Erlebnisgesellschaft“ (1992) unterscheidet er verschiedene soziale Milieus aufgrund von Alter, Bildung und Lebensstilen. − Peter Gross schließlich betont als Folge technischer Innovationen und gestiegenen Wohlstands die Vervielfältigung von Waren, Dienstleistungen und möglichen Lebensentwürfen. Die von ihm konstatierte „Multioptionsgesellschaft“ (1994) bietet Wahlmöglichkeiten in nie gekannter Fülle. Die Kehrseite ist allerdings ein „Steigerungsimperativ“, der zur Zerstörung der menschlichen Lebensgrundlagen führen kann. Diese drei genannten Theorieansätze haben auch der Kommunikationswissenschaft manche Impulse gegeben: etwa innerhalb der Risikoforschung, im Bereich der Publikumsforschung und bei der Beschäftigung mit dem Ratgeberjournalismus. Näher an unserem Thema sind Konzepte, die unter Etiketten wie „Informationsgesellschaft“ oder „Bildungsgesellschaft“ populär geworden sind. Der Londoner Soziologe Scott Lash etwa hat sich in seinem Buch über „Die globale Kulturindustrie“ (2000) mit der Verschiebung von der industriellen Produktion zur Informationsproduktion beschäftigt. Er konstatiert ein Verschmelzen von Technik und Kultur und einen zunehmenden Einfluss der Ökonomie auf die Kultur angesichts globaler Informationsstrukturen. „Die Informationsgesellschaft besteht aus einem Netzwerk“; und durch „die Interaktion MenschMaschine entwickelt sich Kommunikation“. 9 Als Anwalt der „Bildungsgesellschaft“ gilt Karl Ulrich Mayer, der das MaxPlanck-Institut für Bildungsforschung in Berlin leitete. Auf Basis einer empirischen Lebensverlaufsstudie hat er die Schwächen des herkömmlichen hierarchischen Schulsystems in Deutschland analysiert (1990). Er plädiert dafür, dass angesichts der schnell wandelnden Anforderungen der Arbeitswelt die Schule primär die Basis für lebenslange Aus- und Weiterbildungsprozesse legen muss. „In welcher Gesellschaft leben wir eigentlich?“ Die „Wissensgesellschaft“ ist in den Sammelbänden von Pongs gleich zweimal repräsentiert: Helmut Willke diagnostiziert einen Wandel der Kernressourcen: Während die Industriegesellschaft auf den Produktionsfaktoren Land, Kapital und Arbeit aufbaut, sind heute Wissen und Expertise dominant (1998). Nicht makro-, sondern mikrosoziologisch geht Karin Knorr-Cetina das Thema an: In ihren Büchern „Die Fabrikation von Erkenntnis“ (1984) und „Wissenskulturen“ (2002) hat sie die Institutionen und Prozesse untersucht, durch die Wissen erzeugt wird. Diese „fact factories“ sind nach ihrer Einschätzung gegenwärtig von ähnlicher Bedeutung wie die Fabriken im Industriezeitalter. 9
Nach Pongs (2000), S. 175f.
422
Walter Hömberg
Als Zwischenbilanz muss man festhalten, dass die zeitgenössische Sozialwissenschaft viele Gesellschaftskonzeptionen im Angebot hat. Bereits Thomas S. Kuhn hat darauf verwiesen, dass in den Naturwissenschaften ein dominantes Paradigma durch ein neues abgelöst wird (1973). In den Geistes- und Sozialwissenschaften dagegen bestehen häufig mehrere Paradigmen nebeneinander. Die monoperspektivische Blickverengung, die in der Fixierung auf Bindestrichgesellschaften der geschilderten Art zum Ausdruck kommt, ist sicherlich problematisch. Ein solcher Tunnelblick ignoriert, dass unterschiedliche, zum Teil auch gegenläufige Entwicklungen gleichzeitig ablaufen. So hat etwa die Globalisierung auch zum Aufblühen regionaler Kulturen geführt, zur sogenannten Glokalisierung. Allerdings enthalten solche fokussierten Analysen auch ein positives heuristisches Potenzial: Sie lenken den Blick auf charakteristische Kennzeichen, die sich dann unter dem Vergrößerungsglas des Sozialforschers genauer beobachten lassen. Vor fast hundert Jahren hat Wolfgang Riepl das später so genannte Komplementaritätsgesetz formuliert. 10 Danach verdrängt ein neues Medium ein älteres niemals völlig, kann aber sehr wohl dessen Formen und Funktionen verändern. Die gleiche Beobachtung lässt sich auch bezüglich der sozialen Entwicklung machen: Ältere Gesellschaftsformationen sind in neueren „aufgehoben“, und zwar im dreifachen Hegel’schen Sinne. So ist es mehr als ein Gag, wenn ein Kollege aktuell von einer „informationstechnologiebasierten Wissensdienstleistergesellschaft mit industriellem Kern“ spricht. 11
III. Ein Blick zurück Diese historisch-evolutionäre Sichtweise möchte ich aufgreifen, indem ich kurz einige Entwicklungsschritte der „Wissensgesellschaft“ beleuchte, und zwar unter der Leitformel „Wissen ist Macht“. Diese Formel geht zurück auf Francis Bacon. In der ersten Ausgabe seiner „Essays“, 1597 unter dem Titel „Meditationes sacrae“ veröffentlicht, schreibt er: „Nam et ipsa scientia potestas est.“ In der ein Jahr später erschienenen englischen Fassung heißt es: „For knowledge itself is power“ 12. Und dann nochmals 1620 im „Novum organon scientiarum“: „Scientia et potentia humana in idem coincidunt“ – „Human knowledge and human power come to the same thing“. 13 Bacon war nicht nur ein brillanter Jurist und später ein erfolgreicher Politiker, der es bis zum Lordkanzler von England brachte – er war auch ein philosophi10 11 12 13
Riepl (1913), S. 5. Rust (2002), S. 66. John (1993), S. 520. Bacon (1990), Bd. 1, S. 80; sowie Bacon (2000), S. 33.
Vom Wissen des Nichtwissens
423
scher Schriftsteller von Rang. Wegweisend vor allem seine erkenntnistheoretischen Schriften: In Abkehr von Aristoteles und von der Scholastik favorisiert er die Methode der Induktion; Beobachtung und Experiment gelten ihm als sichere Quellen des Wissens. Angetrieben vom Fortschrittsglauben, sieht er eine Kumulation des menschlichen Wissens, das freilich schon durch ein einziges Gegenbeispiel falsifiziert werden kann. Bacon war Wegbereiter des Empirismus. Der Zeitgenosse von Galilei und Kepler hat auch eine Sozialutopie verfasst, die freilich eher eine Technik-Utopie ist: Im Zentrum von „Nova Atlantis“, als Fragment posthum 1627 erschienen, steht mit dem Haus Salomons eine große naturwissenschaftlich-technische Forschungsstätte. Ihr Zweck „ist die Erkenntnis der Ursachen und Bewegungen sowie der verborgenen Kräfte in der Natur und die Erweiterung der menschlichen Herrschaft bis an die Grenzen des überhaupt Möglichen“. 14 Das Haus Salomons ist ein Laboratorium der Antizipation: Telefon und Mikrofon, Dampfmaschine und Wasserturbine, Flugzeug und Unterseeboot – in Kooperation von Wissenschaftlern und Technikern werden hier viele Erfindungen späterer Jahrhunderte vorweggenommen. 15 Energiegewinnung durch Sonne und Wind, die Produktion künstlicher Wettererscheinungen, Züchtung von Tieren und Pflanzen, die experimentelle Entwicklung medizinischer Heilmittel – das Wissen der Gegenwart und der Zukunft materialisiert sich in Techniken zur Beherrschung der Natur und bestimmt das Handeln. Das Haus Salomons ist eine Vorform der gelehrten Gesellschaften, die vor allem in der zweiten Hälfte des 17. Jahrhunderts gegründet wurden – in Florenz, London, Paris, Schweinfurt, Berlin und anderswo. Damit änderten sich auch die Kommunikationsformen. 16 Als gesellschaftlich dominante Kraft hatte die Kirche im Mittelalter Inhalte und Formen der Wissensvermittlung geprägt. Die direkte Weitergabe des Wissens im mündlichen Austausch zwischen Lehrern und Schülern war der vorherrschende Kommunikationsmodus. Mit den Reformationen begann sich ein religiöser und weltanschaulicher Pluralismus auszubreiten, das Wissensmonopol der Kirche und der von ihr beeinflussten Bildungsinstitutionen wurde brüchig. Die wissenschaftlichen Gesellschaften standen an der Wiege eines neuen Medientyps. Die zeit- und ortsgebundenen Formen direkter Kommunikation können die steigenden Anforderungen ebenso wenig erfüllen wie das kompakte Speichermedium Buch und das Individualmedium Brief. Aus den geschriebenen 14
Bacon (1966), S. 205. Vgl. Bloch (1967b), Bd. 2, S. 763ff. 16 Eine fundierte Gesamtdarstellung der Geschichte der Wissen(schaft)skommunikation fehlt bis heute. Zum Folgenden vgl. insbesondere Kieslich (1969) und Hömberg (1985). 15
424
Walter Hömberg
oder gedruckten Sitzungsprotokollen der frühen gelehrten Gesellschaften ging schließlich ein neues, mechanisch vervielfältigtes Gruppenmedium hervor, das die Kriterien Publizität, (Fach-)Aktualität, Periodizität und damit Kontinuität aufweist: die Zeitschrift. Die frühen Gelehrtenzeitschriften wie das „Journal des Sçavans“, die „Philosophical Transactions“ (beide seit 1665) und die „Acta Eruditorum“ (seit 1682) orientierten sich am polyhistorischen Wissenschaftsideal. Sie praktizierten einen engen Rollenverbund in Bezug auf Produktion, Distribution und Rezeption. Eine Öffnung für weitere Zielgruppen erreichte dann Christian Thomasius, der nicht nur als einer der ersten Professoren in deutscher Sprache lehrte, sondern in seinen „Monatsgesprächen“ (seit 1688) auch ein gesellschaftsbezogenes und wissenschaftskritisches Popularisierungsprogramm verfolgte. Damit war eine neue Stufe auf dem Weg zur Wissensgesellschaft beschritten: ein großes gesellschaftliches Lernprojekt, das wir gemeinhin als Aufklärung bezeichnen. Die Geburt des neuen Mediums Zeitschrift ist ein wichtiger Impuls für die weitere Funktionsdifferenzierung der periodischen Pressemedien. Im 18. Jahrhundert geht – ohne dass das Idealbild des Universalgelehrten schon abgelöst wäre – die Spezialisierung voran, und zahlenmäßig überflügeln die Fachorgane bald die wissenschaftlichen Universalzeitschriften. Neben der horizontalen beginnt in Ansätzen bereits eine vertikale Differenzierung wirksam zu werden: Zwar sind die Produzenten und die Vermittler von wissenschaftlichem Wissen noch meist identisch, aber mit der Gruppe der „Gebildeten“ erweitert sich der Rezipientenkreis – die Trennung zwischen wissenschaftlichem Sonderwissen, Bildungswissen und technologischem Anwendungswissen beginnt. Das „Prinzip Öffentlichkeit“ beherrscht die Aufklärung ganz zentral. Immanuel Kant hat im gleichen Jahrzehnt, in dem er seine drei „Kritiken“ herausgebracht hat, auch die Magna Charta der Epoche formuliert. Den Beginn seines Aufsatzes „Was ist Aufklärung?“ aus der „Berlinischen Monatsschrift“ vom Dezember 1784 kann man nicht häufig genug zitieren: „Aufklärung ist der Ausgang des Menschen aus seiner selbst verschuldeten Unmündigkeit. Unmündigkeit ist das Unvermögen, sich seines Verstandes ohne Leitung eines anderen zu bedienen. Selbstverschuldet ist diese Unmündigkeit, wenn die Ursache derselben nicht am Mangel des Verstandes, sondern der Entschließung und des Muthes liegt, sich seiner ohne Leitung eines andern zu bedienen. Sapere aude! Habe Muth dich deines eigenen Verstandes zu bedienen! ist also der Wahlspruch der Aufklärung.“ 17 Dieser Appell beschreibt präzise, welchen Menschentyp die Aufklärung vor Augen hatte: Es ist der Typ des „Selbstdenkers“. Verstand und Vernunft sind demnach die Prüfinstrumente des Individuums; die Erkenntnisse müssen sich durch die Erfahrung bewähren und auch in der Praxis anwendbar sein. Der Kö17
Kant (1784), S. 481.
Vom Wissen des Nichtwissens
425
nigsberger Philosoph war ein solcher Selbstdenker, und er hat sehr bewusst seine Erkenntnisse über die akademische Binnenöffentlichkeit hinaus einem breiteren Publikum zu vermitteln versucht. Das Spannungsverhältnis zwischen Information und Emanzipation, zwischen Selbstaufklärung und Fremdaufklärung darf nicht ausgeblendet werden. 18 Es zeigt sich vor allem in der so genannten Volksaufklärung. Ein Protagonist ist Rudolph Zacharias Becker, und genau hundert Jahre nach dem ersten Erscheinen der „Monatsgespräche“ kann er sensationelle publizistische Erfolge feiern. Mit seinem „Noth- und Hülfsbüchlein für Bauersleute“ und den begleitenden Schriften wendet er sich sozusagen im Medienverbund direkt oder indirekt (unter gezieltem Einsatz einer kommunikativen Zwei-Stufen-Strategie) an die Landbevölkerung. Die Einflussnahme der urbanen Hochkultur auf die bäuerlich-lokale Volkskultur, in der noch religiöses und magisches Wissen den Lebensvollzug weitgehend bestimmen, tritt hier auf in der spätaufklärerischen Form des Perfektibilismus: im „Streben nach ständiger Menschen- und Weltverbesserung, wobei das Gemeinwohl und Problemlösung nach dem Vernunftprinzip im Vordergrund stehen“. 19 Die Wissenspräferenzen und Wissensprofile einer Zeit hängen – genauso wie die Medienentwicklung – eng zusammen mit den ökonomisch-sozialen Anforderungen und Bedürfnissen. Das frühe 19. Jahrhundert war eine Zeit des gesellschaftlichen, wirtschaftlichen und politischen Umbruchs. Die Signatur der Epoche ist von widersprüchlichen Tendenzen gekennzeichnet: Politische Stagnation und soziale Dynamik, fürstenstaatliche Restauration und Ansätze liberaler Konstitution, technischer Fortschritt und repressive Kommunikationskontrolle standen neben- und gegeneinander. 20 Das starke Anwachsen der Bevölkerung, die zunehmende Landflucht und die wachsende Verstädterung sind teilweise Ursache, teilweise Folge des tiefgreifenden Wandels von einer Agrar- zu einer Industriegesellschaft. Mit der Auflösung der alten Sozialstrukturen und neuen beruflichen Anforderungen wächst der Bedarf an Information und Orientierung. Wissen und Bildung gelten als Motor sowohl für den allgemeinen gesellschaftlichen Fortschritt als auch für den individuellen sozialen Aufstieg. Der Bereich der Wissenschaft entwickelt sich immer mehr zu einem gesellschaftlichen Teilsystem, das durch eigene Binnennormen und – zumindest – einen methodischen Minimalkonsens definiert ist. Während zuvor die Lehre im Zentrum stand, ja sie allein honoriert wurde, führt jetzt das Humboldt’sche Univer-
18 19 20
Vgl. Schneiders (1974), S. 195 – 200. Siegert (1978), S. 589. Vgl. Hömberg (1975), S. 7ff.
426
Walter Hömberg
sitätsprogramm zu einer institutionellen und personellen Verknüpfung von Forschung und Lehre und sichert damit der Forschung die ökonomische Basis. Mit der Ausdifferenzierung nach Gegenstandsbereichen entstehen immer neue Disziplinen. Die Universitäten entwickeln sich tendenziell zu Multiversitäten. Die Wissenschaft wird zunehmend respektiert als Quellsystem des Wissens, und ihre Erkenntnisweisen beanspruchen einen immer größeren Geltungsraum bis hin zum Methodenmonopol. Neu entstehende Weltanschauungen und politischsoziale Bewegungen wie Sozialismus und Kommunismus berufen sich auf ihre wissenschaftliche Grundlage. Viele Schriftsteller und Intellektuelle betonen den Zusammenhang von Bildungsniveau und sozialer Mobilität und sehen sich als Vermittler zwischen wissenschaftlicher Forschung und breiten Volkskreisen. Ludolf Wienbarg, ein Vordenker des Jungen Deutschland, formuliert im Jahre 1838: „Allein der Lesekreis, welcher sich um die Wissenschaft versammelt, ist bedauerlicherweise nur sehr enge, und vielleicht ist es auch ein Verdienst, ein populaires Schallrohr auf die Lippe der Gelehrsamkeit zu setzen.“ 21 „Volksbildung“ lautet der neue Imperativ. Volksbüchereien werden eröffnet, Volkshochschulen gegründet. Ganz unterschiedliche Gruppierungen tragen die Volksbildungsbewegung: die Kirchen, aber auch manche der sich langsam herausbildenden politischen Parteien. „Bildung macht frei“ heißt die Devise, und das „Sich-empor-lesen“ gilt als Königsweg des Wissenserwerbs. Besonders die Arbeiter- und Handwerkerbildungsvereine engagieren sich hier. Wilhelm Liebknecht, Mitbegründer zunächst der Sozialdemokratischen Arbeiterpartei und später der Sozialistischen Arbeiterpartei Deutschlands, dreht vor dem Bildungsverein in Dresden am 5. Februar 1872 den bürgerlichen Leitsatz um: „,Durch Bildung zur Freiheit‘, das ist die falsche Losung, die Losung der falschen Freunde. Wir antworten Durch Freiheit zur Bildung! Nur im freien Volksstaat kann das Volk Bildung erlangen.“ 22 „Wissen ist Macht – Macht ist Wissen“ lautet der Titel seiner Rede, die in immer neuen Auflagen gedruckt wird. Wilhelm Liebknecht lebte übrigens von 1865 bis 1890 in bzw. bei Leipzig. Auf den wachsenden Wissensbedarf der beginnenden Industriegesellschaft reagiert auch die zeitgenössische Publizistik: einerseits mit einer breiten Palette von neuen Fachzeitschriften, andererseits mit populärwissenschaftlichen Blättern wie dem „Pfennig-Magazin der Gesellschaft zur Verbreitung gemeinnütziger Kenntnisse“, das den Beginn der Massenpresse im deutschen Sprachraum einläutet. Wie schon ein Jahrhundert zuvor bei den Intelligenzblättern, die in ihren gelehrten Beilagen eine Art staatlich verordnete Wissensverbreitung im Sinne des Merkantilismus betrieben, wird hier die Anpassung an neue ökono21 22
Wienbarg (1838), S. VII f. Liebknecht (1920), S. 52.
Vom Wissen des Nichtwissens
427
misch-soziale Bedürfnisse deutlich. Fast unnötig zu erwähnen, dass auch das Buchangebot explodiert. Wenn man für diese Zeit von „Bildungsrevolution“ sprechen kann 23, dann ist dies vor allem dem Ausbau des Schulwesens zu verdanken. Die konsequente Umsetzung der allgemeinen Schulpflicht in den Volksschulen, die Realisierung der neuhumanistischen Bildungskonzepte in den Gymnasien, die Einführung von Realschulen – all dies sind Ergebnisse des 19. Jahrhunderts. Dadurch wurde unser Schulsystem bis heute geprägt. Wer die einschlägigen Bildungsdebatten verfolgt, hat permanent Déjà-vu-Erlebnisse – was auch ein Licht auf die Reformfähigkeit des dreigliedrigen Schulsystems hierzulande wirft. Soweit ein kurzer Streifzug durch die Geschichte des Wissens und die Geschichte des Wissens über das Wissen. Der wachsende Stellenwert des Wissens kennzeichnet die Moderne, und seit dem Beginn der Neuzeit prägt er das jeweils aktuelle Selbst-Bewusstsein mit. Im letzten Teil meiner Bemerkungen möchte ich zunächst auf unterschiedliche Formen und Typen des Wissens und dann auf einige Aporien und Paradoxien eingehen.
IV. Formen, Typen, Aporien und Paradoxien des Wissens Aktuelle Bestandsaufnahmen der „Wissensgesellschaft“ operieren vor allem mit ökonomischen und technologischen Argumenten und Daten. In ökonomischer Perspektive wird eine „Verlagerung von Erwerbstätigkeit, Wertschöpfung und sozialer Anerkennung vom güterproduzierenden Sektor in den Bereich der Dienstleistungen und dort in wachsendem Maße in die Bereiche der Wissensproduktion, -vermittlung und -rezeption“ registriert. 24 Wissen gilt als Produktionsfaktor und als Produktivkraft. Im internationalen Vergleich zählt zum Beispiel der Anteil der Ausgaben für Forschung und Entwicklung am Bruttoinlandsprodukt. In Deutschland lag er 2005 bei 2,5 Prozent – und damit höher als in Großbritannien und Frankreich, niedriger als in den USA und Japan und insbesondere als in kleineren europäischen Ländern wie Finnland und Schweden. Die deutsche Bundesregierung strebt für das Jahr 2010 eine Steigerung auf drei Prozent an. Ein weiterer Indikator ist die stark wachsende Zahl von Menschen, die in Informations- und Kommunikationsberufen arbeiten. Der technologische Fortschritt hat besonders die Medienproduktion revolutioniert. Nachdem die Drucktechnik sich über lange Zeiträume hin kaum verändert 23 24
Nipperdey (1993), S. 451. Brockhaus Enzyklopädie (2006), Bd. 30, S. 217.
428
Walter Hömberg
hatte, sind seit Beginn des 20. Jahrhunderts in immer kürzeren Zeitabständen neue Medien auf die Welt gekommen: Radio – Schallplatte – Tonband und Tonkassette – Fernsehen – Video – CD-ROM – Online-Medien und so weiter. Nach dem Aufkommen neuer Medien wurde das Angebot der alten nur in einigen Fällen reduziert; in vielen Fällen ist es sogar noch gewachsen, wie sich an den Beispielen Buch, Zeitschrift, Hörfunk und Fernsehen leicht zeigen lässt. Hinzugekommen ist als ganz neuer Kommunikationsraum das Internet. Das Angebot ist unermesslich groß und wächst von Minute zu Minute. Acht Milliarden Seiten durchsucht nach eigenen Angaben allein die Suchmaschine Google regelmäßig. Die Digitalisierung hat zu einer weiteren gigantischen Expansion geführt. Amerikanische Kognitionsforscher haben vor gut einem Jahrzehnt die Weltproduktion an Informationen gemessen und sind auf eine Größenordnung von 4604 Petabytes bzw. 4,6 Exabytes pro Jahr gekommen. Dem steht die begrenzte Speicherkraft des menschlichen Gedächtnisses gegenüber: Ein Mensch kann während eines sechzigjährigen Lebens nur etwa 150 bis 225 Megabyte dauerhaft „abspeichern“ – eine Menge, „die auf einer der handelsüblichen Festplatten gleich mehrmals Platz findet“ (Krech [1998]). Kübler bemerkt dazu: „Multipliziert man die menschliche Speicherkapazität mit der Anzahl der Menschen, die auf der Welt leben, also mit rund sechs Milliarden, so kommt man auf eine theoretische Speicherfähigkeit von etwa 1350 Petabytes, also auf weniger als ein Drittel, was jährlich an ‚Wissen‘ produziert wird.“ 25 Zunächst einmal gilt: Wer sich mit künstlicher Intelligenz beschäftigt, muss immer auch mit natürlicher Dummheit rechnen. Aber selbst wenn man dieser ziemlich abstrusen Berechnung folgt: Geht es hier wirklich um „Wissen“? Erst einmal geht es ja einfach um Daten. Bestenfalls geht es um Informationen, also um Daten, die sich auf einen Kontext beziehen. Wissen verlangt viel mehr: Zum Wissen gehört die Frage nach dem Sinn und die Bewertung von Beobachtungen, Geschehnissen, Mitteilungen. Noch etwas kommt hinzu: die Erfahrung bzw. – mit Hegel gesprochen – die Aneignung. Hartmut von Hentig hat einmal folgendes Bild gebraucht: „Wissen ist nicht wie das Wasser in der Wasserleitung. Wissen ist nur, was man sich angeeignet hat. Die uns versprochene Kassette von der Größe einer Zigarettenschachtel, auf der das Wissen der gesamten Welt unterzubringen sei, werde ich mir, wenn sie im Laden zu haben ist, kaufen, um sie genußvoll in den nächsten Gully fallen zu lassen.“ 26 Inzwischen haben wir diesen Zustand erreicht: Der Chip der neuesten Handtelefone, mit denen wir uns ins World Wide Web einwäh-
25 26
Kübler (2005), S. 126. von Hentig (2002), S. 179.
Vom Wissen des Nichtwissens
429
len können, ist kleiner als eine Zündholzschachtel. Und die damit verbundene universelle Wissensillusion ist reif für den Gully. Die neue Technik hat den Zugang zur Information und zu den Speichern des Wissens völlig verändert. In den Jahrhunderten nach Gutenberg war bekanntlich der Druck Hauptweg der Weitergabe des Wissens einer Zeit, und die Lektüre war der übliche Rezeptionsmodus. „Lesen“ heißt in der germanischen Ursprungsbedeutung „die Runen enträtseln“ – gemeint ist das Auflesen der Buchenstäbe, in die Runenzeichen geritzt waren –, und später heißt es dann allgemeiner „auswählend sammeln, aufheben“. 27 Lesen bedeutet entdecken, auswählen, bewerten, und das Ergebnis solcher langwieriger Kultivierungsarbeit bezeichnete man früher als „Lesefrucht“. Heute hetzt man die elektronischen Suchhunde durchs Internet – sie apportieren dann in Windeseile Stellenangaben, Schlagwörter und Satzfetzen. Statt „empor-lesen“ lautet die Devise „down-loaden“. Man muss kein verträumter Nostalgiker sein, um in der digitalen Speicherung von Informationen im Netz neben den großen Potenzialen und Chancen der Zugangserweiterung auch die Gefahren zu sehen: Sie liegen im fortschreitenden Verlust der Fähigkeit zur Aufnahme und Analyse komplexer Texte und Werke und auch in der Forcierung von Plagiaten, wie Stefan Weber in seinem Buch „Das Google-Copy-Paste-Syndrom“ (2007) eindrucksvoll nachgewiesen hat. Schon die frühe Wissenssoziologie hat ihren Gegenstand typologisch einzuordnen versucht. Einflussreich war etwa die Einteilung von Max Scheler (1926) in Bildungswissen, Erlösungswissen und Herrschaftswissen. 28 Das Spektrum solcher Versuche reicht bis zu der elaborierten „Wissensordnung“ von Helmut F. Spinner: Er entwickelt eine „dritte Grundordnung hochindustrialisierter Gesellschaften“ neben Rechts- und Wirtschaftsordnung. 29 Damit profiliert er sich als eine Art Linné der Wissensarten und -gattungen. Es wäre reizvoll, eine Metaanalyse der – im Übrigen sehr heterogenen – Typologien vorzulegen. 30 Hier bleibt nur Zeit und Raum für einige wenige Anmerkungen zu vier ausgewählten Wissenstypen. 1. Wissenschaftliches Wissen Die Entwicklung der Wissenschaft lässt sich in drei Stichworten skizzenhaft umreißen: Institutionalisierung, Expansion und Differenzierung. Über die sozialen Normen der „scientific community“ herrscht weitreichender Konsens: Robert K. Merton (1972) hat sie mit den Begriffen Universalismus, Kommunalis27 28 29 30
Kluge (1963), S. 436. Scheler (1960), S. 205; vgl. Stehr (1994), S. 59 und 245f. Spinner (1994), S. 11. Vgl. u. a. Machlup (1962), S. 13ff.; Bell (1976), S. 179ff.; Kübler (2005), S. 128ff.
430
Walter Hömberg
mus bzw. Wissens-Kommunismus, Uneigennützigkeit und organisierter Skeptismus beschrieben. Der Bedeutungsgewinn wissenschaftlichen Erkennens hat dazu geführt, dass einige Autoren von „Wissenschaftsgesellschaft“ sprechen – so der Titel eines Buches von Rolf Kreibich (1986), das den Entwicklungsprozess der Wissensproduktion und -verwertung als treibendes Moment des gesellschaftlichen Wandels von Galilei bis zur sogenannten High-Tech-Revolution beschreibt. 2. Professionelles und fachliches Wissen Eine wissenschaftliche Vor- und Ausbildung ist für die klassischen Professionen Conditio sine qua non und wird für immer mehr Berufe faktisch zur Zugangsvoraussetzung. Daneben gibt es Qualifikationen, Kompetenzen, Kenntnisse und Routinen, die erst bei der Berufsausübung erworben werden. Ein Hauptziel der aktuellen Studienreformen ist ein stärkerer Berufsbezug und eine Verbindung von „Theorie“ und „Praxis“. Das führt unter anderem dazu, dass immer mehr Berufspraktiker ihr Wissen als Lehrbeauftragte an Universitäten und Hochschulen vermitteln. 3. Bildungswissen Ein wichtiges Element der schulischen Bildung ist die Qualifizierung für den Arbeitsmarkt. Neben diesem Aspekt, der in der PISA-Debatte im Zentrum stand, darf man nicht vergessen, dass die deutsche Schultradition stark geprägt ist von (neu-)humanistischen Bildungsidealen: Die vermittelten Inhalte sollen sich nicht beschränken auf ein funktionales Verfügungs- und Anwendungswissen, sondern auch mit den historischen und kulturellen Grundlagen unserer Gesellschaft bekannt machen. Dazu gehören die Begegnung und die Auseinandersetzung mit kulturellen Manifestationen der Vergangenheit in Literatur, Kunst, Musik, Philosophie und Religion. Neben der Gegenwartskunst pflegen Kulturinstitutionen wie Theater, Opernhäuser und Museen weiter den klassischen Kanon – in den Lehrplänen kommt er hingegen immer weniger vor. Dass dies als Defizit empfunden wird, zeigen die Bestseller-Erfolge von neuen „Bildungs“-Bibeln wie jener von Dietrich Schwanitz (1999); im Untertitel seines Kompendiums heißt es bescheiden: „Alles, was man wissen muß“. 4. Alltagswissen Für die Lebensbewältigung im Alltag ist ein praktisches Handlungswissen weit wichtiger als das methodisch-theoretisch reflektierte Erkenntniswissen. Es wird vor allem vermittelt von den traditionellen Sozialisationsinstanzen und sozialen Netzwerken. Angesichts der Individualisierungstendenzen und der Fragmentierung der Gesellschaft gewinnt allerdings auch die Ratgeberfunktion der
Vom Wissen des Nichtwissens
431
Massenmedien an Bedeutung. In der Angebotsfülle der Waren, Dienstleistungen und Lebensstiloptionen bieten sie Orientierung. 31 Die Medien sind noch in einem weiteren Punkt bedeutsam. Dazu eine kurze Erinnerung an ein Gespräch mit Niklas Luhmann: Im Sommer 1974 habe ich ihn in seinem Haus in Oerlinghausen besucht und ihn unter anderem gefragt, worin er die Hauptfunktion der Massenmedien sähe. Die knappe Antwort war: „In der Unterstellbarkeit des Wissens.“ Wie er darauf komme? Sein Sohn habe ihn kurz zuvor gefragt, wer Werner Höfer sei – eine Frage, die der fernsehabstinente Vater nicht beantworten konnte. Unterstellbarkeit des Wissens: Die aktuellen Massenmedien liefern mit ihren Informationen auch zentrale Themen der Alltagsgespräche – sozusagen das Kleingeld der ganz normalen Konversation. In ähnlicher Weise gilt das übrigens für die anderen drei genannten Wissensarten – auch wenn es hier speziellere Medien sind, etwa Bücher und Fachzeitschriften. Nicht zufällig nannten sich die beliebtesten Wissensspeicher für das Bürgertum seit dem 19. Jahrhundert „Konversationslexikon“. Darüber hinaus gibt es heute viele „Handbücher nutzlosen Wissens“ – Sammlungen von Superlativen oder Kuriosa vom Typ „1936 wurde in England ein Schwein zum Tode durch den Strick verurteilt und exekutiert, weil es ein Kind getötet hatte“. 32 Da fällt einem ein einschlägiges Graffiti ein: „Wissen ist Macht – nicht wissen macht auch nichts.“ Solche Handbücher machen ihrem Namen alle Ehre – aber wenn man Glück hat, kann man mit solcher Art Wissen heute im Fernsehen immerhin Millionär werden. Im Alltag vermischen sich häufig die verschiedenen Wissensformen. Da kann es dann durchaus passieren, dass man seinen Kardiologen im Sprechzimmer eines Heilpraktikers wiedertrifft. Und man wundert sich kaum noch, dass eine berühmte Fachkollegin, die nach dem Kriege hierzulande die empirische Sozialforschung populär gemacht hat, privat auf Nostradamus schwörte. Wie mächtig ist das Wissen? Diese Frage stellt sich nicht nur im Hinblick auf individuelle, sondern auch auf gesellschaftliche Lernprozesse. Die europäische Mentalitätsgeschichte der vergangenen Jahrzehnte zeigt, dass es in der Problemwahrnehmung zwischen den Hauptakteuren in unterschiedlichen Wissensklassen einen großen „time lag“ gibt. Die „knowledge gaps“ zwischen wissenschaftlichem Wissen und Alltagswissen sind in diversen kommunikationswissenschaftlichen Studien untersucht worden, und zwar sowohl in Medieninhaltsanalysen als auch innerhalb der Kampagnenforschung sowie der Publikums- und Wirkungsforschung. 31 Vgl. dazu die Studie „Experten des Alltags“ von Hömberg / Neuberger (1995). Hörning (2001) hat den Titel später übernommen. 32 Behmer (2000), S. 202.
432
Walter Hömberg
„Gesellschaften lernen langsam“ – auf diese Formel lassen sich die Erkenntnisse einer bisher erst ansatzweise entwickelten Theorie kollektiver Lernprozesse bringen. 33 Gegenwärtig erleben wir gerade wieder einen solchen Lernprozess: Die aktuelle Klima-Debatte zeigt, wie lang der Weg von der Erkenntnis über politische Entscheidungen bis zum Alltagshandeln ist. Der Optimismus der Aufklärung hat historisch manchen Dämpfer erhalten. Wissen kann auch Ohnmacht bedeuten – nicht ohne Grund ist die „Dialektik der Aufklärung“ (Horkheimer / Adorno [1947/1969]) zum sprechenden Buchtitel geworden. Zum Schluss bleibt mir nur, auf einige Paradoxien und Aporien hinzuweisen. Die erste hat schon Goethe offenbart: „Eigentlich weiß man nur, wenn man wenig weiß; mit dem Wissen wächst der Zweifel“, schreibt er in den „Maximen und Reflexionen“. 34 Dabei hätte er auf Descartes verweisen können, von dem die moderne Wissenschaft den methodischen Zweifel geerbt hat. „Cogito, ergo sum“ – diese Erkenntnis bleibt als einzige Gewissheit. Außer dem Zweifel wächst mit dem Wissen auch das Nichtwissen. Hubert Markl hat dafür ein treffendes Bild gefunden: 35 Er vergleicht das Wissen mit einer Kugel, die im All des Nichtwissens schwimmt und immer größer wird. Mit dem Wachsen ihrer Oberfläche vermehren sich auch die Berührungspunkte mit dem Nichtwissen. Die Konsequenz: „Je weiter [...] die Wissenschaft ausgreift, um so länger wird der Weg für den, der die Grenzen der Erkenntnis in einem Fach zu erreichen sucht, um so dicker werden die Lehrbücher, um so länger die Vorlesungen. Es ist abzusehen, wann ein Leben – bei aller Steigerung unserer Lebenserwartung – für ein erfolgreiches Studium nicht mehr ausreicht. Kommen wird der Tag, an dem ein Vater mit dem Studium beginnt, sein Sohn die Promotion erreicht und erst der Enkel sich habilitieren kann!“ Zwischen Wissen und Nichtwissen gibt es noch einen dritten Bereich, den man mit Michael Schmolke als „Aberwissen“ charakterisieren kann. 36 Im Mittelalter lieferte der kirchlich präformierte Glaube das Wahrheitsmodell, das generelle Gültigkeit beanspruchte. Die davon nicht erfassten weißen Flecken in der Realitätserfahrung wurden ausgefüllt vom „Aberglauben“, der die Umwelt deuten und bewältigen half. Wir alle leben heute mit einer immer weiter zunehmenden Anzahl von „black boxes“, deren undurchschaubaren Inhalt wir mit Aberwissen füllen. Jörg Becker hat das Dilemma so formuliert: „Mit zunehmender Informationsmenge wächst auch die Menge des Informationsmülls, wachsen die steigenden Erwartungshaltungen der Nutzer, wächst aber auch das Unvermögen des gesam33 34 35 36
Langenbucher (1993), S. 60; nach Hondrich (1992), S. 25. von Goethe (1973), S. 466. Markl (1987), S. 22. Schmolke (1999), S. 46.
Vom Wissen des Nichtwissens
433
ten Informationssystems zwischen guten und schlechten, zwischen wahren und falschen Informationen zu entscheiden.“ 37 Schließlich das Halbwissen. Dazu hat Nietzsche das Nötige gesagt: „Das Halbwissen ist siegreicher als das Ganzwissen: es kennt die Dinge einfacher, als sie sind, und macht daher seine Meinung faßlicher und überzeugender.“ 38 Last but not least das Nicht-mehr-Wissen: das Vergessen des einst Gewussten. 39
V. Epilog Ein berühmter Aphorismus der Wissenschaftsgeschichte versichert uns: „Ein Zwerg, der auf den Schultern eines Riesen steht, kann weiter sehen als der Riese selbst.“ Robert K. Merton hat in seinem wunderbaren „Leitfaden durch das Labyrinth der Gelehrsamkeit“ (1980) diesen Satz, der unter anderem Newton zugeschrieben wird, bis ins 12. Jahrhundert zurückverfolgt. Dabei ist er auch in der Universitätsstadt Bamberg fündig geworden: Das Fürstenportal des Bamberger Doms zeigt in der unteren Reihe die Propheten, und auf ihren Schultern stehen die Apostel. Dies ist ein eindrucksvolles Bild für die Kumulation des Wissens: Wie die Apostel auf dem Propheten stehen, so steht jede neue Generation von Wissenschaftlern auf den Schultern ihrer Vorgänger. Das gilt jedenfalls für die Naturwissenschaften. In Bezug auf die Sozialwissenschaften wird allerdings von manchem vermutet, dass dort „jede neue Generation ihren Vorläufern auf der Nase herumtanzt“. 40 Wissenschaftliche Kongresse sollen zur Vermehrung des Wissens beitragen. Wissenschaft bedeutet aber immer auch gewusstes Nichtwissen. 41 Und wenn es ganz gut läuft, können wir am Ende mit Sokrates sagen: „οῖδα οὐκ εἰδώς“ – „Ich weiß, dass ich nichts weiß“.
Literatur Bacon, Francis (1966): Neu-Atlantis, in: Heinisch, Klaus J. (Hrsg.): Der utopische Staat, Reinbek bei Hamburg, S. 171 – 215 [zuerst London 1627].
37
Becker (2008), S. 158. Nietzsche (1994), Bd. 1, S. 707. 39 Vgl. Weinrich (2005). 40 Merton (1980), S. 223; nach Zeaman (1959), S. 167. 41 Vgl. Weiß (2006), S. 20. Vor einiger Zeit ist ein „Lexikon des Unwissens“ erschienen, das erstaunliche Wissenslücken aufspürt (Passig / Scholz [2007]). Der Klappentext verspricht: „Das erste Buch, nach dessen Lektüre Sie garantiert weniger wissen als zuvor.“ 38
434
Walter Hömberg
Bacon, Francis (1990): Neues Organon. Lateinisch-Deutsch, hrsg. von Wolfgang Krohn, 2 Teilbände, Hamburg [zuerst 1620]. Bacon, Francis (2000): The New Organon, hrsg. von Lisa Jardine und Michael Silverthorne, Cambridge [zuerst 1620]. Beck, Ulrich (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne, Frankfurt / M. Becker, Jörg (2008): Kommunikation verbindet – wirklich? Paradoxien der Informationsgesellschaft, in: Communicatio Socialis, 41. Jg., Heft 2, S. 153 –170. Becker, Rudolph Zacharias (1980): Noth- und Hülfsbüchlein für Bauersleute. Nachdruck der Erstausgabe von 1788, hrsg. von Reinhart Siegert, Dortmund. Behmer, Markus (2000): Archive des Absonderlichen. Streifzüge durch zentrale Randgebiete des Wissens und Nichtwissens, in: Hömberg, Walter / Eckart Klaus Roloff (Hrsg.): Jahrbuch für Marginalistik I, Münster, Hamburg, London, S. 199 –212. Bell, Daniel (1976): Die nachindustrielle Gesellschaft, 2. Aufl., Frankfurt / M., New York. Bittlingmayer, Uwe H. / Bauer, Ullrich (Hrsg.) (2006): Die „Wissensgesellschaft“. Mythos, Ideologie oder Realität?, Wiesbaden. Bloch, Ernst (1967a): Christian Thomasius, ein deutscher Gelehrter ohne Misere, Frankfurt / M. Bloch, Ernst (1967b): Das Prinzip Hoffnung, 3 Bände, Frankfurt / M. Brockhaus (2006): Enzyklopädie in 30 Bänden, Bd. 30, 21. Aufl., Leipzig, Mannheim. Drucker, Peter F. (1969): The Age of Discontinuity. Guidelines to our Changing Society, New York, Hagerstown, San Francisco, London. von Goethe, Johann Wolfgang (1973): Maximen und Reflexionen, in: Goethes Werke. Hamburger Ausgabe, hrsg. von Erich Trunz, Band XII, 7. Aufl., München, S. 365 – 547. Gross, Peter (1994): Die Multioptionsgesellschaft, Frankfurt / M. von Hentig, Hartmut (2002): Der technischen Zivilisation gewachsen bleiben. Nachdenken über die Neuen Medien und das gar nicht mehr allmähliche Verschwinden der Wirklichkeit, Weinheim, Basel. Hömberg, Walter (1975): Zeitgeist und Ideenschmuggel. Die Kommunikationsstrategie des Jungen Deutschland, Stuttgart. Hömberg, Walter (1985): Glashaus oder Elfenbeinturm? Zur Entwicklung und zur Lage der Wissenschaftskommunikation, in: Schreiber, Erhard / WolfgangR. Langenbucher / Walter Hömberg (Hrsg.): Kommunikation im Wandel der Gesellschaft. Festschrift für OttoB. Roegele, 2. Aufl., Düsseldorf, S. 79 – 96. Hömberg, Walter (2008): Wissen ist Macht!? Medien – Kommunikation – Wissen, in: Raabe, Johannes / Rudolf Stöber / AnnaM. Theis-Berglmair / Kristina Wied (Hrsg.): Medien und Kommunikation in der Wissensgesellschaft, Konstanz, S. 25 –45. Hömberg, Walter / Neuberger, Christoph (1995): Experten des Alltags. Ratgeberjournalismus und Rechercheanzeigen, Eichstätt.
Vom Wissen des Nichtwissens
435
Hondrich, Karl Otto (1992): Lehrmeister Krieg, Reinbek bei Hamburg. Horkheimer, Max / Adorno, Theodor W. (1969): Dialektik der Aufklärung. Philosophische Fragmente, Frankfurt / M. [zuerst 1947]. Hörning, Karl H. (2001): Experten des Alltags. Die Wiederentdeckung des praktischen Wissens, Weilerswist. John, Johannes (1993): Reclams Zitaten-Lexikon, Durchgesehene und erweiterte Ausgabe, Stuttgart. Kant, I[mmanuel] (1784): Beantwortung der Frage: Was ist Aufklärung?, in: Berlinische Monatsschrift, S. 481 – 494. Kieslich, Günter (1969): Kommunikationskrisen in der Wissenschaft. Antrittsvorlesung, gehalten am 25. März 1969 an der Universität Salzburg, Salzburg, München. Kirchner, Joachim (1958/1962): Das deutsche Zeitschriftenwesen, 2 Teile, Wiesbaden. Kluge, Friedrich (1963): Entymologisches Wörterbuch der deutschen Sprache, 19. Aufl., bearbeitet von Walther Mitzka, Berlin. Knorr-Cetina, Karin (1984): Die Fabrikation von Erkenntnis. Zur Anthropologie der Naturwissenschaft, Frankfurt / M. Knorr-Cetina, Karin (2002): Wissenskulturen. Ein Vergleich naturwissenschaftlicher Wissensformen, Frankfurt / M. Krech, Hartmut (1998): Der Weltgeist: 1350 Petabytes. Wieviel Wissen gibt es auf der Welt? Kognitionsforscher wagen eine quantitative Antwort, in: Die Zeit, Nr. 46 vom 5. 11. 1998, S. 46. Kreibich, Rolf (1986): Die Wissenschaftsgesellschaft. Von Galilei zur High-Tech-Revolution, Frankfurt / M. Kübler, Hans-Dieter (2005): Mythos Wissensgesellschaft. Gesellschaftlicher Wandel zwischen Information, Medien und Wissen. Eine Einführung, Wiesbaden. Kuhn, Thomas S. (1973): Die Struktur wissenschaftlicher Revolutionen, Frankfurt / M. Lane, Robert E. (1966): The Decline of Politics and Ideology in a Knowledgeable Society, in: American Sociological Review, Vol. 31, No. 1, pp. 649 –662. Langenbucher, Wolfgang R. (1993): Zukunft: Medien und gesellschaftliches Lernen. Skizzen zu einem theoretischen und empirischen Forschungsprogramm für das Projekt Lerngesellschaft, in: Bonfadelli, Heinz / WernerA. Meier (Hrsg.): Krieg, Aids, Katastrophen ... Gegenwartsprobleme als Herausforderung der Publizistikwissenschaft, Konstanz, S. 59 – 79. Lash, Scott / Urry, John (2000): Die globale Kulturindustrie. Die politische Ökonomie der Zeichen im Raum, Frankfurt / M. Liebknecht, Wilhelm (1920): Wissen ist Macht – Macht ist Wissen. Festrede, gehalten zum Stiftungsfest des Dresdener Bildungsvereins am 5. Februar 1872, Neue Aufl., Berlin. Machlup, Fritz (1962): The Production and Distribution of Knowledge in the United States, Princeton, New Jersey.
436
Walter Hömberg
Markl, Hubert (1987): Das akademische Ökosystem, Konstanz. Mattelart, Armand (2003): Kleine Geschichte der Informationsgesellschaft, Berlin. Mayer, Karl Ulrich (Hrsg.) (1990): Lebensverläufe und sozialer Wandel, Opladen. Meja, Volker / Stehr, Nico (Hrsg.) (1982): Der Streit um die Wissenssoziologie, 2 Bände, Frankfurt / M. Merton, Robert K. (1972): Wissenschaft und demokratische Sozialstruktur, in: Weingart, Peter (Hrsg.): Wissenschaftssoziologie 1. Wissenschaftliche Entwicklung als sozialer Prozeß, Frankfurt / M., S. 45 – 59. Merton, Robert K. (1980): Auf den Schultern von Riesen. Ein Leitfaden durch das Labyrinth der Gelehrsamkeit, Frankfurt / M. Meyen, Michael / Löblich, Maria (2006): Klassiker der Kommunikationswissenschaft. Fach- und Theoriegeschichte in Deutschland, Konstanz. Nietzsche, Friedrich (1994): Menschliches, Allzumenschliches, in: ders.: Werke in drei Bänden, hrsg. von Karl Schlechta, Bd. 1, München, Wien, S. 435 –1008 [zuerst 1878]. Nipperdey, Thomas (1993): Deutsche Geschichte 1800 –1866. Bürgerwelt und starker Staat, 6. Aufl., München. Passig, Kathrin / Scholz, Aleks (Hrsg.) (2007): Lexikon des Unwissens. Worauf es bisher keine Antwort gibt, Berlin. Pongs, Armin (1999/2000): In welcher Gesellschaft leben wir eigentlich? Gesellschaftskonzepte im Vergleich, 2 Bände, München. Pongs, Armin (2007): In welcher Gesellschaft leben wir eigentlich? Auf dem Weg zu einem neuen Gesellschaftsvertrag, Bd. 1, 3. Aufl., München. Riepl, Wolfgang (1913): Das Nachrichtenwesen des Altertums. Mit besonderer Rücksicht auf die Römer, Leipzig, Berlin [Reprographischer Nachdruck: Hildesheim, New York 1972]. Rust, Holger (2002): Am ehesten: Ideengesellschaft, in: Bertelsmann Stiftung (Hrsg.): Was kommt nach der Informationsgesellschaft. 11 Antworten, Gütersloh, S. 40 –67. Scheler, Max (1960): Die Wissensformen und die Gesellschaft, hrsg. von Maria Scheler, 2. Aufl., Bern. Schmolke, Michael (1999): Stereotypen, Feindbilder und die Rolle der Medien, in: ders.: Aufklärung und Aberwissen. Ausgewählte Beiträge zur Publizistik, hrsg. von Walter Hömberg, Heinz Pürer, Franz Rest und Thomas Steinmaurer, München, S. 37 –47. Schneiders, Werner (1974): Die wahre Aufklärung. Zum Selbstverständnis der deutschen Aufklärung, Freiburg, München. Schulze, Gerhard (1992): Die Erlebnisgesellschaft. Kultursoziologie der Gegenwart, Frankfurt / M., New York. Schwanitz, Dietrich (1999): Bildung. Alles, was man wissen muß, Frankfurt / M. Siegert, Reinhart (1978): Aufklärung und Volkslektüre. Exemplarisch dargestellt an Rudolf Zacharias Becker und seinem „Noth- und Hilfsbüchlein“. Mit einer Bibliographie zum Gesamtthema, Frankfurt / M.
Vom Wissen des Nichtwissens
437
Spinner, Helmut F. (1994): Die Wissensordnung. Ein Leitkonzept für die dritte Grundordnung des Informationszeitalters, Opladen. Spinner, Helmut F. (2000): Ordnungen des Wissens: Wissensorganisation, Wissensrepräsentation, Wissensordnung, in: Ohly, Peter H. / Gerhard Rahmsdorf / Alexander Sigel (Hrsg.): Globalisierung und Wissensorganisation: Neue Aspekte für Wissen, Wissenschaft und Informationssysteme, Würzburg, S. 3 – 23. Stehr, Nico (1994): Arbeit, Eigentum und Wissen. Zur Theorie von Wissensgesellschaften, Frankfurt / M. Stöber, Rudolf (2005): Deutsche Pressegeschichte. Von den Anfängen bis zur Gegenwart, 2. Aufl., Konstanz. Weber, Stefan (2007): Das Google-Copy-Paste-Syndrom. Wie Netzplagiate Ausbildung und Wissen gefährden, Hannover. Weinrich, Harald (2005): Lethe. Kunst und Kritik des Vergessens, München. Weiß, Johannes (2006): Wissenselite, in: Tänzler, Dirk / Hubert Knoblauch / Hans-Georg Soeffner (Hrsg.): Zur Kritik der Wissensgesellschaft, Konstanz, S. 13 –29. Wienbarg, Ludolf (1838): Geschichtliche Vorträge über altdeutsche Sprache und Literatur, Hamburg. Willke, Helmut (1998): Systemisches Wissensmanagement, Stuttgart. Wilke, Jürgen (2008): Grundzüge der Medien- und Kommunikationsgeschichte, 2. Aufl., Köln, Weimar, Wien. Wyssusek, Boris (2004): Einleitung und Überblick: Soziale Aspekte des Wissensmanagement, in: ders. (Hrsg.): Wissensmanagement komplex. Perspektiven und soziale Praxis, Berlin, S. 1 – 8. Zeaman, David (1963): Skinner’s Theory of Teaching Machine, in: Galanter, Eugene (Hrsg.): Automatic Teaching: The State of the Art, 3. Aufl., New York, S. 167 – 176.
Das Mediensystem als Wissensportal der Gesellschaft – Eintritt nur für Zahlungskräftige? Von Wolfgang Seufert 1
I. Gleiche oder ungleiche Zugangschancen zu Wissen und Bildung? Eine der zentralen Debatten der Medienökonomie dreht sich um die Frage, welche Folge die Gewinnorientierung von Medienunternehmen für das Medienangebot hat. Im Zusammenhang mit den traditionellen Massenmedien wird dabei oft der Begriff der „Ökonomisierung des Mediensystems“, d. h. einer zu beobachtenden stärkeren Ausrichtung des Medienangebotes am Gewinnziel der Medienunternehmen verwendet. 2 Dieser ist negativ besetzt. Eine Kritik an der Ökonomisierung der Medien richtet sich auf die Qualität des Medienangebotes: sie führe zur Produktion medialer Massenware anstelle von Qualitätsware. Unterhaltung verdränge Informations- und Bildungsangebote. Eine weitere Kritik richtet sich auf die Verteilungswirkungen. In einem ökonomisierten Mediensystem würden zwar auch in einem bestimmten Umfang Special-Interest-Angebote produziert, die beispielsweise das Bedürfnis nach Wissen und Bildung bedienen. Diese seien jedoch in der Regel vergleichsweise teurer und nicht für jeden erschwinglich. 3 Blickt man 15 Jahre zurück zu den Anfängen des Internets, dann war damals häufig vom „elektronischen Kiosk“ oder von einem neuen „Archiv des Weltwissens“ die Rede. 4 Die erste Metapher stand für die Vorstellung einer fast unbegrenzten Vielfalt an medialen Angeboten, da man ja nun bei der Verteilung von medialen Inhalten nicht mehr auf knappe Regalflächen oder begrenzte Rundfunkfrequenzen angewiesen war. Die zweite Metapher stand für die Vorstellung, 1 Prof. Dr. Wolfgang Seufert ist Inhaber des Lehrstuhls für Kommunikationswissenschaft mit dem Schwerpunkt Ökonomie und Organisation der Medien an der FriedrichSchiller-Universität Jena. 2 Vgl. u. a. Kiefer (2005), S. 20. 3 Vgl. u. a. Pitzer / Scheithauer (2008). 4 Vgl. Aktionsplan der EG-Kommission zur Informationsgesellschaft (2004).
440
Wolfgang Seufert
dass das gesamte Wissen der Menschheit – sofern es einmal digital abgespeichert ist – für jedermann jederzeit und an jedem Ort verfügbar sei. Das Internet wurde und wird also vielfach als enorme qualitative Verbesserung der Qualität unseres Medienangebotes angesehen. Allerdings kam in der Diskussion auch relativ schnell der Begriff der „digitalen Spaltung“ auf. 5 Gemeint ist die Gefahr, dass diejenigen Teile der Gesellschaft, die keinen Zugang zum Internet haben, von wichtigen Informationen und Wissensbeständen ausgeschlossen bleiben. In einer Wissensgesellschaft, in der die soziale Stellung mehr und mehr von der Verfügung über diese Ressourcen abhängt, führt dies dazu, dass diese Gruppen der Bevölkerung an den Rand gedrängt werden. Diese These erinnert zunächst an die im Rahmen der Medienwirkungsforschung in den 1970er Jahren postulierte „Kultivierungshypothese“. 6 Danach verstärke das damals neue Medium Fernsehen die Spaltung in Gebildete und weniger Gebildete, weil erstere das Fernsehen eher zur Information und Bildung und letztere es mehr zu Unterhaltungszwecken nutzen. Ein wichtiger Unterschied besteht jedoch darin, dass man die „digitale Spaltung“ nicht als Problem der Nutzung diskutierte, sondern als Problem des technischen Zugangs und der technischen Medienkompetenz. Es gelte, jeden mit preiswerten Anschlüssen an die neuen Datenautobahnen zu versorgen und ihm die technischen Fähigkeiten zur Bedienung der Endgeräte zu vermitteln. Nicht thematisiert wurde damals weder das Nutzungsverhalten im Internet noch die Frage, welche Rolle eventuell die Kosten für qualitativ hochwertige Inhalte für eine digitale Spaltung spielen könnten. Dass das Internet nicht ohne Weiteres mit einem unbeschränkten Zugang aller zum Weltwissen gleichgesetzt werden kann, zeigt unter anderem die Auseinandersetzung zwischen dem Unternehmen Google und den Buchverlegern um das Projekt, alle existierenden alten Buchbestände zu digitalisieren. Diese Vorstellung hat für Wissenschaftler angesichts sinkender Bibliotheksetats sicher etwas Positives. Für diejenigen Unternehmen, die bislang davon leben, dass sie uns alte Wissensbestände und neues Wissen – vorwiegend in gedruckter Form – zur Verfügung stellen, ist diese Vorstellung jedoch eine Bedrohung. 7 Ich möchte mich heute also mit der Frage beschäftigen, inwieweit es durch die Gewinnorientierung von Medienunternehmen zu einem ungleichen Wissenszugang in unserer Gesellschaft kommt. Und ich möchte insbesondere fragen, ob 5 Vgl. Bericht der Bundesregierung zur Informationsgesellschaft (2000) sowie Bittlingmayer / Bauer (2006). 6 Vgl. Tichenor et al. (1970). 7 Vgl. u. a. Hess (2006); Kooths (2009); Picot (2009).
Das Mediensystem als Wissensportal der Gesellschaft
441
es durch die Veränderung des Mediensystems, d. h. vor allem durch das Internet mit seinen neuen Playern wie Google oder YouTube eher zu einem Abbau von Zugangsbarrieren kommt, oder ob die Ungleichheit der Zugangschancen eher zunehmen wird? Eine Zunahme der Ungleichheit könnte dabei in zweierlei Hinsicht auftreten. Der eine Aspekt betrifft mögliche regionale Unterschiede. Ist der technische Zugang überall möglich oder gibt es insbesondere in dünnbesiedelten ländlichen Regionen auch künftig noch viele weiße Flecken, was einen preiswerten Breitband-Internetzugang angeht? Der zweite Aspekt betrifft eine mögliche soziale Ungleichheit. Ist der Zugang zu alten und neuen Wissensbeständen im Internet kostenlos oder zumindest für jedermann bezahlbar – oder wird es eher zu einem Gut, das sich nicht jeder leisten kann?
II. Was ist Wissen und welche Rolle spielen Medienunternehmen beim Wissenszugang? Zunächst stellt sich aber die Frage, was ist eigentlich Wissen? Wer produziert es und welche Rolle spielen die Medien, wenn es um den Zugang zu diesem Wissen geht? Es gibt viele unterschiedliche Versuche, Wissen zu definieren bzw. unterschiedliche Arten des Wissens zu systematisieren. Betriebswirte, die sich mit dem Wissensmanagement in Unternehmen beschäftigen, unterscheiden beispielsweise zwischen Daten, Informationen und Wissen. Informationen sind nach bestimmten Ordnungsprinzipien strukturierte Daten bzw. Fakten. 8 Von Wissen wird erst gesprochen, wenn einzelne Informationen in einen Kontext mit anderen Informationen gebracht werden, und dadurch die Grundlage für Entscheidungen liefern können. Aus einer Makroperspektive kann man auch sagen, Wissen ist alles, was dazu geeignet ist, in modernen Gesellschaften, die sich durch eine zunehmende Individualisierung der Lebensumstände und ein breiteres Spektrum an Wertvorstellungen auszeichnen, Unsicherheit zu reduzieren. 9 Der Wissensbegriff umfasst insofern nicht nur naturwissenschaftlich-technische Erkenntnisse, sondern auch sozialwissenschaftliche oder kulturwissenschaftliche. Die Forschung zur künstlichen Intelligenz bzw. die Versuche, sogenannte Expertensysteme zu entwickeln, hat uns die Erkenntnis gebracht, dass es sinnvoll ist, nicht nur zwischen Informationen und Wissen zu unterscheiden, sondern auch zwischen explizitem und implizitem Wissen. 10 Implizites Wissen ist Er8
Vgl. u. a. Joel (2008). Vgl. u. a. Beck (1986); Luhmann (2004). 10 Vgl. Polanyi (1966). 9
442
Wolfgang Seufert
fahrungswissen, das ebenfalls in Entscheidungen eingeht, ohne dass man in der Lage ist, die Regeln seiner Anwendung ohne weiteres zu benennen. Derartiges Erfahrungswissen entsteht immer und überall in der Gesellschaft. In unseren modernen Gesellschaften mit ausdifferenzierten gesellschaftlichen Teilsystemen hat sich das Wissenschaftssystem herausgebildet, das die Funktion hat, möglichst viel explizites Wissen zu produzieren und anderen Teilsystemen der Gesellschaft, wie dem Wirtschaftssystem oder dem Politiksystem, zur Problembewältigung zur Verfügung zu stellen (Abb. 1). Zu diesem Wissenschaftssystem zählen dabei nicht nur Hochschulen und außeruniversitäre staatlich geförderte Forschungsinstitute sondern auch private Forschungseinrichtungen. Letztere konzentrieren sich dabei überwiegend auf die Produktion von solchem expliziten Wissen, das sich kurz- und mittelfristig in neuen Produkten und Produktionsverfahren verwerten lässt.
Quelle: Eigene Darstellung. Abb. 1: Das Mediensystem als Vermittler expliziten Wissens
Wir wissen zudem alle, dass scheinbar gesicherte Wissensbestände auch veralten können. Neue wissenschaftliche Erkenntnisse ergänzen den Wissensbestand nicht nur um neue Informationen, sondern führen auch immer wieder zu neuen Ordnungsprinzipien, die uns zwingen, die alten Informationen neu einzuordnen. Die Vermittlung des im Wissenschaftssystem produzierten expliziten Wissens in die anderen Teilsysteme der Gesellschaft erfolgt deshalb nicht allein über das Ausbildungssystem, d. h. über Schulen, Hochschulen und andere Institutionen zur Aus- und Weiterbildung. Einen Teil dieser Vermittlungsfunktion übernimmt auch das Mediensystem, genauer die Medienunternehmen, die sich auf eine inhaltliche Aufbereitung des im Wissenschaftssystem produzierten Primärwissens und auf seine Vermarktung und Verbreitung spezialisiert haben.
Das Mediensystem als Wissensportal der Gesellschaft
443
Nach der jeweiligen Zahl der Nachfrager und dem Grad der redaktionellen Aufbereitung lassen sich drei Typen von Wissensmedien unterscheiden: − Wissenschaftsmedien für die hochspezialisierten Produzenten im Wissenschaftssystem selbst: also wissenschaftliche Fachzeitschriften bzw. Fachbücher oder auch wissenschaftlich-technische Datenbanken. Eine redaktionelle Aufbereitung findet dort kaum statt, die Verlage und Datenbankanbieter konzentrieren sich vielmehr auf die Vermarktung und Verbreitung dieser Angebote. − Lehrmedien für das Ausbildungssystem: beispielsweise Schulbücher, Lehrbücher für die Hochschulausbildung oder auch interaktive Lernsoftware für Schulungszwecke in Unternehmen. Der Grad der Aufbereitung des Primärwissens, der bei diesem Typ von Wissensmedien notwendig wird, ist schon deutlich höher. In der Regel funktioniert dieser Prozess der Aufbereitung als Abstimmung zwischen den Lektoren als Mitarbeitern der Medienunternehmen und den meist freien Autoren der Lehrinhalte. − Schließlich populäre Wissensmedien, die sich an ein breiteres Publikum wenden. Der notwendige Grad der Aufbereitung ist dabei vor allem davon abhängig, wie groß die anvisierte Zielgruppe ist. Bei Special-Internet-Angeboten, wie den auf Wissenschaftsthemen spezialisierten Publikumszeitschriften, ist er meist geringer als für Dokumentationen und Wissenschaftssendungen im Fernsehen, die sich an ein noch breiteres Publikum wenden. Die Aufbereitung der Inhalte populärer Wissensmedien erfolgt zum größten Teil durch professionelle Wissenschaftsjournalisten in den Medienunternehmen selbst. Sie steht auch im Fokus der Kommunikationswissenschaft, die sich mit Wissenschaftskommunikation beschäftigt. 11 Der größere Aufwand, den Medienunternehmen für die Aufbereitung des Primärwissens in populären Wissensmedien leisten müssen, entsteht durch die Notwendigkeit der Produktion von Zusatzinformationen, ohne die es dem Rezipienten nicht möglich wäre, die Wissensinhalte seinem Vorwissen zuzuordnen. Wissenssendungen im Fernsehen müssen aber nicht nur kognitiv verständlich sein, sondern auch „interessant“, damit sie ein größeres Publikum erreichen. Ein breites Interesse entsteht vor allem dann, wenn dem Rezipienten ein persönlicher Nutzwert vermittelt werden kann, oder wenn die Gestaltung der Sendung als unterhaltend empfunden wird. 12 Die Produktion solcher Angebote mit entsprechenden Infotainment-Elementen ist um vieles aufwändiger – aber in der Regel auch reichweitenstärker – als das klassische Format des Bildungsfernsehens, das gerne einen Dozenten vor einer Tafel zeigt.
11 12
Vgl. u. a. Göpfert (2006); Kohring (2007); Milde (2009). Vgl. Milde (2009), S. 44.
444
Wolfgang Seufert
III. Rentabilitätskalküle und Erlösmodelle von Wissensmedien Was bedeutet nun die Gewinnorientierung von Medienunternehmen, die sich auf Wissensmedien spezialisiert haben, für die Qualität und den Umfang des über Medien vermittelten Wissens? Aus der Sicht eines Ökonomen ist die negative Konnotation des Begriffes „Ökonomisierung“ erst einmal überraschend. Ökonomische Kalküle bei der Produktion von Gütern werden von ihm nicht als Problem, sondern vielmehr als Lösung eines Problems angesehen – nämlich Ressourcen so einzusetzen, dass ein maximaler Nutzen entstehen kann. 13 Ökonomen gehen in ihrer Mehrheit erst einmal davon aus, dass ein ausreichend intensiver Wettbewerb zwischen Unternehmen dazu führen wird, dass ein Gut wahrscheinlich in solchen Mengen und Qualitäten produziert wird, die es den Zahlungsbereitschaften der Nachfrager entspricht. Entsprechend den Zahlungsbereitschaften heißt dann, dass nicht jeder seine Spezialwünsche an Wissensmedien erfüllt bekommt. Bei allen Medieninhalten hängt die Entscheidung, ob etwas produziert wird oder nicht, zum einen von der erwarteten Zahl der Nachfrager ab und zum anderen von den Erlösen, die je Rezipient wahrscheinlich zu erzielen sind. Da die Kosten für die Produktion und die Vermarktung eines Medienproduktes zum großen Teil unabhängig von der Zahl der Nutzer sind, errechnen sich die Stückkosten als Division dieser fixen Gesamtkosten durch die Zahl der Nachfrager. Die Stückkosten je Zeitschriftenheft oder je Zuschauer sinken also umso stärker, je größer die Zahl der Rezipienten ist (Abb. 2). Produziert werden von gewinnorientierten Unternehmen nur Wissensmedien, bei denen die Chance besteht, dass die Stückkosten letztlich unter den Stückerlösen liegen. Die Stückerlöse sind entweder der Preis je Exemplar oder die Werbeeinnahmen je 1000 Rezipienten. Ist die Zielgruppe für ein spezielles Angebot klein, müssen entweder die fixen Gesamtkosten sehr niedrig liegen (gestrichelte Linie) oder die Zahlungsbereitschaft der Rezipienten müsste sehr hoch sein. Für große Zielgruppen können sich auch aufwändigere Produktionen lohnen, obwohl eine niedrigere Zahlungsbereitschaft besteht – die Zahl potenzieller Rezipienten muss nur genügend groß sein. Die Prognose der erwarteten Nachfragerzahlen ist für Medienunternehmen allerdings nicht einfach. Fachbuchverlage, aber auch andere Medienunternehmen betreiben deshalb häufig eine interne Risikostreuung. Man nimmt viele Titel ins Programm auf und hofft, dass die wenigen Erfolgstitel die Verluste der meisten anderen Titel ausgleichen. Das kaufmännische Problem der Medienunternehmen besteht unter anderem darin, dass man trotz langjähriger Erfahrung nie genau weiß, welche Titel letztlich die Erfolgstitel sein werden und welche die 13
Vgl. Heinrich (1994), S. 29.
Das Mediensystem als Wissensportal der Gesellschaft
445
Quelle: Eigene Darstellung. Abb. 2: Einfluss von Kostenniveau, Zahlungsbereitschaft und Marktgröße auf die Produktionsentscheidungen für einzelne Wissensmedien
Verlustbringer. Tendenziell erhöht dieses Verhalten der Risikostreuung damit die Vielfalt des Angebotes sogar über das Maß hinaus, das es bei einer vollständigen Kenntnis über die Zahlungsbereitschaften der einzelnen Rezipienten gäbe, denn die Verlustbringer würden gar nicht erst produziert. Nun wird in der Ökonomie aber auch eine Reihe von Gründen diskutiert, die zu systematischen Abweichungen zwischen den Wünschen der Nachfrager und dem Medienangebot führen. 14 Ein generelles Problem für jede Form von Güterproduktion entsteht beispielsweise immer dann, wenn Eigentumsrechte an dem produzierten Gut nur schwer oder gar nicht durchgesetzt werden können. Dies trifft gerade für Medienprodukte zu, da ihre Nutzung durch einen Rezipienten nicht zum endgültigen Verbrauch des Gutes führt. Es kann durch andere Rezipienten danach (bei Printmedien) oder zeitgleich (bei elektronischen Medien) immer neu konsumiert werden. Die Kontrolle der Nutzung bzw. der Ausschluss von Menschen, die nicht bereit sind für das Medienprodukt zu zahlen, werden dadurch stark erschwert. Dies gilt umso mehr, je leichter es dem einzelnen Rezipienten fällt, eigene Kopien anzufertigen. 15 Das Urheberrecht begründet zwar einen Anspruch auf die Durchsetzbarkeit von Zahlungsansprüchen gegenüber den Nutzern von Medien. Dies sagt aber noch nichts über die praktische Durchsetzbarkeit dieses Anspruches aus. In jedem Fall gilt: wenn gewinnorientierte Unternehmen keine Chance sehen, ausreichende Zahlungen für die Nutzung der von ihnen produzierten Medieninhalte zu bekommen, wird deren Produktion 14 15
Vgl. Heinrich (1994), S. 36; Kiefer (2005), S. 336. Picot (2009), S. 644.
446
Wolfgang Seufert
und eine anschließende Vermarktung erst gar nicht stattfinden. Solche Güter sind dann nicht mehr marktfähig. Eine Möglichkeit, die Nutzung von Medienprodukten besser zu kontrollieren, ist die Verbindung von Inhalten mit einem physischen Trägermedium, also mit Papier oder mit einem elektronischen Speichermedium. Dagegen ist die Kontrolle der Nutzung von Inhalten, die elektronisch über Rundfunk- oder Telekommunikationsnetze verbreitet werden, technisch komplizierter. Allerdings ermöglicht die digitale Technik einen preiswerteren Ausschluss der Nichtzahler durch Verschlüsselung und Zugangscodes als es zur Zeit der analogen TVVerbreitung noch der Fall war. Ein aus der Sicht der Medienunternehmen noch weniger aufwändiges Refinanzierungsmodell für Medieninhalte ist in die Werbefinanzierung, sofern sich das Medienprodukt gleichzeitig als Transportmittel für Werbebotschaften eignet. Werbefinanzierung kann aber zu einer Abweichung des Angebotes von den Präferenzen der Nachfrager führen. Die Produktion ist dann nicht mehr von der Zahlungsbereitschaft der Rezipienten abhängig sondern davon, ob diese Rezipienten als Werbezielgruppe von Interesse sind. Wissensmedien, die überwiegend Rezipienten interessieren, die keiner relevanten Werbezielgruppe angehören oder die Werbung nicht akzeptieren, werden bei einem solchen Erlösmodell nicht produziert. Eine systematische Abweichung zwischen Angebot und Nachfrage kann es auch beim Erlösmodell „paid content“ geben – insbesondere dann, wenn es für Rezipienten schwierig ist, Qualitätsunterschiede zu erkennen. Sie werden dann nicht bereit sein für einen aufwändiger produzierten Medieninhalt mit höherer Qualität mehr zu zahlen. Gewinnorientierte Medienunternehmen verlieren dadurch den Anreiz, überhaupt Wissensmedien mit hoher Qualität zu produzieren. Schließlich kann auch eine zu hohe Anbieterkonzentration zu Abweichungen des Angebots von der Nachfrage führen. Monopole oder Oligopole sind in der Lage überhöhte Preise durchzusetzen, um ihre Gewinnmargen zu erhöhen. Dadurch werden aber auch solche Rezipienten von der Nutzung ausgeschlossen, die eigentlich bereit wären, die bei der Produktion und Distribution entstehenden Kosten zu tragen, die sich die aber die Nutzung zu höheren Preisen nicht leisten können oder wollen. Betrachtet man die Anbieterkonzentration bei den Wissensmedien, stellt dies für alle drei Typen – Wissenschaftsmedien, Lehrmedien und populäre Wissensmedien – eine reale Gefahr dar.
IV. Das Angebot von Wissensmedien im Vor-Internet-Zeitalter Wenn man in die 1990er Jahre, also in das Vor-Internet-Zeitalter zurückblickt, würde man aus dem Blickwinkel von Ökonomen sagen, dass es trotz der
Das Mediensystem als Wissensportal der Gesellschaft
447
genannten Grundsatzprobleme durchaus funktionierende Märkte für Wissensmedien gegeben hat. Wenn man sich die Finanzierungsformen ansieht, dominiert bei den Wissenschaftsmedien und Lehrmedien das Erlösmodell „paid content“. Dabei ist allerdings zu berücksichtigen, dass diese Nachfrage zum großen Teil durch die öffentliche Hand finanziert wird, beispielsweise über Schuletats oder die Etats der öffentlichen Bibliotheken. Dagegen lässt sich feststellen, dass die Produktion populärer Wissensmedien für größere Rezipientengruppen – also im Wesentlichen Wissensinhalte innerhalb der Mediengattungen Zeitung, Zeitschrift und Fernsehen – zum großen Teil nur rentabel ist, wenn sie teilweise oder ganz über Werbung refinanziert wurde. Eine Ausnahme bilden hier einerseits die Sachbücher sowie anderseits die Wissenssendungen der überwiegend gebührenfinanzierten öffentlich-rechtlichen Rundfunkanstalten. Wenn man sich die Gestaltungsformen der Wissensmedien im Vor-InternetZeitalter ansieht, zeigt sich, dass Text-Bild-Angebote dominieren. Dies gilt insbesondere für die Wissenschaftsmedien, wie wissenschaftliche Fachzeitschriften oder Fachbücher, die oft nur Auflagen von wenigen hundert Exemplaren erreichen. Das Kostenniveau von audiovisuellen Wissensmedien oder von interaktiv nutzbarer Lernsoftware liegt um ein Vielfaches über dem von Druckmedien, so dass sie nur im Bereich der Lehrmedien und bei den populären Wissensmedien eine größere Rolle spielen – also dort, wo es vergleichsweise große Rezipientengruppen oder wenige, aber sehr zahlungskräftige Nachfrager (wie bei Schulungsvideos für Unternehmen) gibt. Wissensmagazine und Dokumentarfilme im öffentlich-rechtlichen wie im privaten Fernsehen erreichen dabei in etwa die Einschaltquoten für politische Magazine, d. h. jeweils mehrere Millionen Menschen. Die Auflagenzahlen von Zeitschriften wie Geo oder National Geografic liegen dagegen zwischen 250 – 400.000. Eine Größenordnung, für die sich die Produktion vergleichbarer audiovisueller Angebote nie rechnen würde. Auffällig ist zudem die Tatsache, dass sich in den 1990er Jahren das Angebot der Wissensmedien fast ausschließlich auf neues Wissen konzentriert hat. Die Vermarktung alter Wissensbestände in Form von elektronischen Datenbanken hat nur bei naturwissenschaftlich-technischem und juristischem Wissen größere Umsätze erbracht. Bei den Text-Bild-Medien sind hier die Lexika zu nennen, die aber auch nur vergleichsweise geringe Auflagen hatten. Für alle trägergebundene Wissensmedien gilt generell, dass alte Produkte mit den jeweils neuen Wissensmedien um knappe Plätze im Verkaufsregal konkurrieren müssen. Neue Wissensmedien haben deshalb generell bessere Chancen in die Distribution zu gelangen als alte. Auch eine zentrale Lagerhaltung von trägergebundenen Wissensmedien und eine Auslieferung „on demand“ lohnt sich nur, wenn für den
448
Wolfgang Seufert
spezifischen Titel auf Dauer eine zwar geringe, aber kontinuierliche Nachfrage besteht. So gibt es Jahr für Jahr circa 70.000 Buchneuerscheinungen in Deutschland, der lieferbare Katalog des Buchgroßhandels umfasst aber immer nur rund 300.000 Titel.
V. Veränderung des Angebots an Wissensmedien durch das Internet Durch die schnelle Verbreitung des Internets haben sich vier wesentliche Veränderungen der Angebots- und Nachfragebedingungen für Medienunternehmen ergeben, die im Hinblick auf den Umfang, die Qualität und Kosten von Wissensmedien in unterschiedliche Richtungen wirken: − Erstens die Möglichkeit zu Kostensenkungen bei gedruckten Text- / Bild-Angeboten: Der elektronische Vertrieb von Wissensmedien per Download ist deutlich kostengünstiger als der für Druckschriften. Ebenso gilt dies für die „elektronische Lagerhaltung“ auf einem Server. − Zweitens die Gefahr der Erosion der traditionellen Erlösmodelle: die Anbieter von Wissensmedien müssen sich mit veränderten Zahlungsbereitschaften der Rezipienten und institutionellen Nachfrager sowie mit einem veränderten Werbeverhalten auseinandersetzen. − Drittens ein neuer Typ von Konkurrenten: Insbesondere durch die Web 2.0Technologie steigt der Umfang der durch die Nutzer im Internet selbst generierten Inhalte. − Viertens das Auftreten neuer Intermediäre zwischen den Produzenten und Rezipienten von Wissensmedien: gemeint sind zum einen die Betreiber von Suchmaschinen und anderer Zugangsportale zu den Inhalten des Internets, wie Google oder YouTube, zum anderen die Betreiber der leitergebundenen oder mobilen Telekommunikationsnetze, die den technischen Transport der Inhalte organisieren. Für alle an materielle Träger (Papier, CD-ROM etc.) gebundenen Wissensmedien erhöht sich durch die Einsparung der Kosten von Vervielfältigung und physischer Distribution beim Übergang zum Internet-Vertrieb – bei gleicher Zahlungsbereitschaft – prinzipiell die Chance, dass ihr Umfang bzw. ihre Qualität steigt. So sind Online-Varianten von wissenschaftlichen Fachzeitschriften oder wissenschaftlichen Fachbüchern, bei denen ja der Bearbeitungsaufwand der Verlage nicht allzu hoch ist, bei noch geringeren Auflagen rentabel als ihre jeweiligen Druckversionen. Die geringeren Speicherkosten verbessern zudem auch die Zugangsmöglichkeiten zu alten wissenschaftlichen Publikationen. Ein Problem stellen hier für einzelne Nachfrager vor allem die Vertriebskonditionen der wenigen wissenschaftlichen Fachverlage dar, die für den Zugang zu
Das Mediensystem als Wissensportal der Gesellschaft
449
einzelnen Zeitschriften oder Büchern im Verhältnis zum Zugang zum gesamten Verlagsprogramm extrem hohe Preise nehmen. Einen solchen Kostensenkungseffekt gibt es allerdings nicht für den Teil der audiovisuellen populären Wissensmedien, der über das Fernsehen verbreitet wird. Bei der TV-Produktion spielen die Distributionskosten im Vergleich zu den Herstellungskosten schon immer kaum eine Rolle und die Verbreitung über das Internet per Download- oder Streaming-Technologie ist auch nicht wesentlich kostengünstiger als die über Rundfunknetze. Erleichtert wird allerdings auch dort der Zugang zu audiovisuellem Archivmaterial, da knappe Frequenzen keine Rolle mehr spielen. Theoretisch könnte sich so auch im Bereich der populären Wissensmedien das Angebot um alte Produktionen erweitern, vorausgesetzt dafür gibt es auch eine entsprechende zusätzliche Zahlungsbereitschaft, die es rentabel macht, derartige Angebote zum Download bereit zu halten. Allerdings kommt es nur zu einer Erweiterung des Angebotes an Wissensmedien, wenn durch das Internet keine Erosion der traditionellen Erlösmodelle ausgelöst wird, wie es die Anbieter von aktuellen Pressemedien, die Musikindustrie und nun zunehmend auch die Filmindustrie Hollywoods erleben mussten. 16 In diesen Medienbranchen wirken sich illegale Downloads in peer-to-peer Netzwerken, aber auch ein verändertes Werbeverhalten negativ auf die Gesamterlöse aus. Aus ehemaligen Wachstumsbranchen wurden teilweise Schrumpfbranchen mit sinkenden Gesamtumsätzen. Die aktuelle Auseinandersetzung zwischen der News Corporation und Google verdeutlicht das Problem. Die Werbung wandert nicht nur von den Druckausgaben zu den Online-Ausgaben der gleichen Presseprodukte (und erbringt dabei wesentlich geringere Einnahmen). Sie wandert auch verstärkt zu den Betreibern der Suchmaschinen bzw. der anderen Portale, über die die Webseiten der Medienunternehmen angesteuert werden. Diese Entwicklung wird es in Zukunft nicht nur bei den Portalen für aktuelle Nachrichten geben, sondern mit hoher Wahrscheinlichkeit auch bei den Portalen für audiovisuelle Inhalte aller Art, z. B. auch für audiovisuelle Wissensmedien. Wenn das Erlösmodell Werbung im Internet aber geringere Einnahmen erbringt als für die traditionellen Mediengattungen Publikumszeitschrift und Fernsehen, dann führt eine Verlagerung der Nutzung populärer Wissensmedien ins Internet letztlich zu einer Reduzierung von Umfang und Qualität. Es sei denn, die Rezipienten sind bereit, für ihre Internetnutzung zusätzlich zu zahlen. Bislang beschränkt sich die Zahlungsbereitschaft im Internet allerdings auf die Nachfrager von Wissenschaftsmedien und Lehrmedien, auch weil es sich hier vielfach um institutionelle Nachfrager handelt. Alle Erfahrungen mit Web-Angeboten für das breite Publikum sprechen eher dagegen, dass es für populäre Wissensmedien im Internet eine hohe Zahlungsbereitschaft geben wird. 16
Kooths (2009), S. 647.
450
Wolfgang Seufert
Denkbar wäre nun aber auch eine Erweiterung des Angebotes durch user generated content. Der wäre dann sogar kostenlos. Die Möglichkeiten des Web 2.0 lassen jedoch eine kostenlose Produktion von populären Wissensmedien durch die Nutzer nicht zu, da sie ja einen hohen Grad an Aufbereitung von Primärwissen erfordern, um wirklich „populär“ zu sein. Wikipedia kann als nutzergenerierter Inhalt zwar für Text-Bild-Angebote wie den Brockhaus oder andere Lexika ein kostenloses Substitut darstellen. Die Vorstellung, dass Internetnutzer in ihrer Freizeit audiovisuelle Angebote produzieren, die das Qualitätsniveau von Publikumszeitschriften mit Wissensschwerpunkt, von wissenschaftlichen Dokumentarfilmen oder von populären Wissensmagazinen im Fernsehen erreichen, halte ich jedoch für realitätsfern. Eine bislang im Zusammenhang mit Inhalten im Internet weniger beachtete Gruppe neuer ökonomischer Akteure beim Vertrieb von Medieninhalten im Internet sind die Betreiber der Internetinfrastruktur, d. h. die Telekommunikationsunternehmen. Dies sind zum einen die Fest- und Mobilfunknetzbetreiber, deren traditionelles Kerngeschäft der Telefondienst war, und zum anderen die Betreiber großer TV-Kabelnetze, die diese zunehmend für Triple-Play-Angebote aufrüsten, d. h. für Angebotsbündel aus TV- und Hörfunk, Telefondienst und Internetzugang. Alle Telekommunikationsunternehmen leiden unter nur noch geringen Umsatzsteigerungen in ihrem Kerngeschäft. 17 Es gibt deshalb Überlegungen, für die Datenübertragung im Internet andere Preise zu nehmen als bisher. Im Ergebnis müssten die Anbieter und Nutzer breitbandiger Informationen, beispielsweise von audiovisuellen Wissensinhalten, für die Möglichkeit der Internetverbreitung ihrer Inhalte mehr bezahlen. Dies hätte natürlich negativere Auswirkungen auf den Umfang des Angebots und seine Qualität. Noch ist dies ein spekulatives Szenario. Aber man sollte nicht übersehen, dass es nur eine geringe Zahl von Netzbetreibern gibt, denen es nicht schwer fallen würde, ihr Verhalten in dieser Hinsicht abzustimmen.
VI. Regionaler Zugang zum Angebot an Wissensmedien im Internet Sichtbarer ist die Bedeutung der Internetinfrastrukturbetreiber für die unterschiedlichen regionalen Zugangsmöglichkeiten zum Breitband-Internet in Deutschland. Nach den aktuellsten Daten des Bundesministeriums für Wirtschaft leben immer noch mehr als 20% aller Haushalte in den neuen Bundesländern in Regionen, in denen es keinen Zugang zu Breitband-Internet gibt, wobei hierbei Übertragungsgeschwindigkeiten von 1Mbit / s und höher verstanden werden. 18 Warum gibt es diese regionale Ungleichheit? 17 18
Vgl. Bundesnetzagentur (2009). Vgl. Bundesministerium für Wirtschaft (2009).
Das Mediensystem als Wissensportal der Gesellschaft
451
Für einen Netzbetreiber gilt ein ähnliches ökonomisches Kalkül wie für die Anbieter von Medieninhalten (Abb. 3). Die Investitionskosten für ein neues Netz oder für dessen technische Aufrüstung hängen primär von der Fläche ab, die mit diesem Netz erschlossen werden soll. Dies bedeutet, dass die Investitionskosten je Teilnehmer in dichtbesiedelten Regionen niedriger sind als in dünn besiedelten Regionen, beispielsweise in den Vororten von Städten oder auf dem flachen Land. Dabei sind Funknetze in der Regel kostengünstiger als leitergebundene Netze, allerdings haben Funknetze in der Regel auch weniger Bandbreite als Kabelnetze. Wenn nun die zu erwartenden Umsätze je Teilnehmer in einer Region wegen der niedrigen Bevölkerungsdichte (oder einer sehr geringen Kaufkraft) niedriger sind als Investitions- und laufende Betriebskosten je Teilnehmer, wird die Infrastruktur für einen Breitband-Internet-Zugang in dieser Region gar nicht erst errichtet. Dies gilt teilweise auch für die kostengünstigeren Funknetze.
Quelle: Eigene Darstellung. Abb. 3: Einfluss von Investitionskosten, Zahlungsbereitschaft und Bevölkerungsdichte auf die Produktionsentscheidungen für regionale Netzinfrastrukturen
Da das Internet immer mehr audiovisuelle Inhalte enthält, steigen die Anforderungen an die Übertragungsgeschwindigkeit der Anschlüsse immer weiter an. Was gestern noch „Breitband“ war wird heute eher belächelt, beispielsweise ein ISDN-Anschluss. Die aktuellen Förderprogramme für einen Netzausbau in den unterversorgten Gebieten definieren wie schon erwähnt Zugangstechniken ab 1 Mbit / s als Breitbandanschlüsse. Ich bin fest davon überzeugt, dass in einigen Jahren eine Übertragungsrate von weniger als 50 Mbit / s als nicht mehr angemessen erachtet werden wird. Dadurch entsteht bei den Telekommunikationsunternehmen aber noch über längere Zeit ein Druck, ihre Netze immer weiter aufzurüsten. Der Versorgungsvorsprung der dichtbesiedelten gegenüber den dünnbesiedelten Regionen in Deutschland wird damit weiter anhalten, zu-
452
Wolfgang Seufert
mindest solange der Infrastrukturaufbau allein im Wettbewerb zwischen privaten Telekommunikationsunternehmen erfolgt. Der Bevölkerung in ländlichen Räumen bleibt dann wie bisher nur die überall verfügbare Alternative des InternetZugangs über Satellit. Der ist aber deutlich teurer als es mobile oder stationäre Zugänge über Kabelnetze sind.
VII. Schlussfolgerungen Im Hinblick auf die Frage nach gleichen Zugangschancen zu altem und neuen Wissen, das über Wissensmedien vermittelt wird, komme ich aus diesen Überlegungen zu den Rentabilitätskalkülen gewinnorientierter Telekommunikationsund Medienunternehmen zu folgenden Schlussfolgerungen: − Regionale Unterschiede beim technischen Zugang zum Internet innerhalb von Deutschland werden nur dann verschwinden, wenn man den Zugangsdienst zum Breitband-Internet als sogenannten Universaldienst definiert, wie es bisher nur für den Telefondienst der Fall ist. Das Telekommunikationsrecht bietet dann die Möglichkeit, alle Anbieter zu einem flächendeckenden und preiswerten Angebot eines solchen Universaldienstes zu zwingen, wobei der Bund allerdings für dünnbesiedelte Regionen entsprechende Zuschüsse gewähren müsste. − Die Vorstellung, dass mit dem Internet ein neues Wissensportal für die gesamte Gesellschaft entstanden ist, das den Umfang und die Qualität des für alle zugänglichen Wissens deutlich erweitert, gilt nur für den Typ der Wissenschaftsmedien und eingeschränkt für den der Lehrmedien. Also für das Wissensangebot in den Feldern, in denen der Bearbeitungsaufwand der Medienunternehmen nicht sehr hoch ist und in denen das Erlösmodell Inhalte gegen Bezahlung („paid content“) auch im Internet funktioniert. − Dagegen sehe ich für das Angebot an populären Wissensmedien, die sich an ein breites Publikum wenden, deshalb einen hohen Bearbeitungsaufwand erfordern und sich nur über Werbung voll refinanzieren lassen, eher negative Auswirkungen, da weder das Erlösmodell „paid content“ noch das Erlösmodell „Werbung“ im Internet so funktioniert wie in der Vor-Internet-Zeit. Auch wenn es zwischen den Betreibern der Suchmaschinen und Internet-Portale und den Medienunternehmen, die die Inhalte produzieren, irgendwann eine tragfähige Vereinbarung über die Verteilung der Internet-Werbegelder geben sollte, trägt dies bestenfalls zur Aufrechterhaltung des Status-Quo bei. Der Zugang zu populären Wissensmedien wird in Zukunft also eher noch stärker von der Zahlungsbereitschaft und -fähigkeit der einzelnen Rezipienten abhängen als heute. Ein umfangreicheres kostenloses oder kostengünstiges Angebot populärer Wissensmedien für die breite Bevölkerung – insbesondere von professionell aufbereiteten audiovisuellen Inhalten – ist nur zu erwarten, wenn es
Das Mediensystem als Wissensportal der Gesellschaft
453
von gemeinnützigen Unternehmen und Institutionen produziert wird, die weder auf die Bezahlung durch die Nutzer oder auf eine Werbefinanzierung angewiesen sind. Also beispielsweise von den öffentlich-rechtlichen Rundfunkanstalten oder von den öffentlich finanzierten Institutionen des Wissenschaftssystems. Das Modell Wikipedia ist für diesen Typ von Wissensmedien wegen seiner immanent hohen Produktionskosten keine adäquate Alternative.
Literatur Beck, Ulrich (1986): Risikogesellschaft. Auf dem Weg in eine andere Moderne, Frankfurt / M. Bericht der Bundesregierung: Info 2000. Deutschlands Weg in die Informationsgesellschaft, BT-Drucksache 13/4000, Bonn. Bittlingmayer, Uwe H. / Bauer, Ullrich (2006): Die ‚Wissensgesellschaft‘. Mythos, Ideologie oder Realität?, Wiesbaden. Bundesministerium für Wirtschaft (Hrsg.) (2009): Breitbandatlas 2009_02, Berlin. Bundesnetzagentur (Hrsg.): Tätigkeitsbericht 2008/2009 Telekommunikation, Bonn. EG-Kommission (2004): Europas Weg in die Informationsgesellschaft – ein Aktionsplan, KOM (94) 347), Brüssel. Göpfert, Winfried (2006): Wissenschafts-Journalismus. Ein Handbuch für Ausbildung und Praxis, 5. Auflage, Berlin. Heinrich, Jürgen (1994): Medienökonomie, Bd. 1, Opladen. Hess, Thomas (2006): Plattenlabels, Verlage und Fernsehstationen: Wie können sie langfristig erfolgreich sein?, in: Hess, Thomas / Stefan Doeblin (Hrsg.): Turbulenzen in der Telekommunikations- und Medienindustrie, Berlin. Joel, Kristin (2008): Knowledge Management and innovation in the knowledge economy – Enhancing internal and external knowledge process, Dissertation an der Universität Jena. Kiefer, Marie Luise (2005): Medienökonomik. Einführung in eine ökonomische Theorie der Medien, München. Kohring, Matthias (2007): Wissenschaftsjournalismus. Forschungsüberblick und Theorieentwurf, Konstanz. Kooths, Stefan (2009): Online-Journalismus: Raus aus der Gratisfalle, in: Wirtschaftsdienst, Heft 10, S. 647 – 651. Luhmann, Niklas (2004): Die Realität der Massenmedien, 3. Auflage, Wiesbaden. Milde, Jutta (2009): Vermitteln und Verstehen. Zur Verständlichkeit von Wissenschaftsfilmen im Fernsehen, Wiesbaden. Picot, Arnold (2009): Erlöspolitik für Informationsangebote im Internet, in: Wirtschaftsdienst, Heft 10, S. 643 – 647. Pitzer, Sissi / Scheithauer, Ingrid (Hrsg.): Rendite ohne gesellschaftliche Dividende? Die Ökonomisierung des Rundfunks und ihre Folgen, Dokumentation des DLM-Symposiums vom März 2008 in Berlin.
454
Wolfgang Seufert
Polanyi, Michael (1966): The tacit dimension, Garden City. Tichenor, Phillip J. / Donohue, George A. / Olien, Clarice N. (1970): Mass Media Flow and Differential Growth in Knowledge, in: Public Opinion Quarterly, 34. Jg., S. 159 –170.
Recht und Ökonomik – gestern, heute und morgen Von Lars Klöhn 1
I. Eingebettete (embedded) und nicht-eingebettete (non-embedded) Rechtswissenschaft Die Rechtswissenschaft kennt zwei grundsätzlich verschiedene Denkstilrichtungen. 2 Man kann sie als „eingebettete“ und „nicht eingebettete“ Forschung bezeichnen. 3 Das Ziel der eingebetteten Forschung hat der Rechtswissenschaftler Karl Larenz vor 40 Jahren wie folgt umschrieben: „Die Aufgabe der Rechtswissenschaft (...) ist eine dreifache. Sie legt die Gesetze aus, sie bildet das Recht gemäß den der Rechtsordnung immanenten Wertmaßstäben (...) fort und sie sucht immer aufs Neue die Fülle des Rechtsstoffes unter einheitlichen Gesichtspunkten zu erfassen“. 4 Diese Rechtswissenschaft ist eingebettet in das geltende Recht. Das geltende Recht gibt die Regeln und Prinzipien vor, in deren Rahmen die wissenschaftliche Erkenntnis des Rechts stattfindet. Die Erkenntnis des Rechts ist nach diesem Forschungsprogramm immer Erkenntnis des geltenden Rechts. Die Methoden dieser Wissenschaft sind spezifisch juristisch. Ihre Instrumente verstehen und beherrschen nur gestandene Juristinnen und Juristen: Auslegung, Analogie, teleologische Reduktion oder Extension, europarechtskonforme, verfassungskonforme Gesetzesinterpretation und Rechtsfortbildung. Nicht eingebettete Forschung versucht, Rechtsfragen aus dem von Larenz beschriebenen systemimmanenten Zusammenhang herauszulösen und mit Instrumenten außerhalb des juristischen Repertoires zu analysieren. Ihr Ziel kann die Erkenntnis des geschriebenen Rechts sein, ebenso kann sie sich auf die Suche nach alternativen Lösungsmöglichkei1 Prof. Dr. Lars Klöhn ist Professor am Institut für Handels-, Wirtschafts- und Arbeitsrecht der Universität Marburg. Die Vortragsform wurde weitgehend beibehalten. Die Fußnotenangaben beschränken sich auf die zum Verständnis notwendigen Angaben. 2 Grundlegend zum Begriff des Denkstils: Fleck (1935). 3 Rakoff (2002), S. 1279; Rezeption bei Fleischer (2007). 4 Larenz (1966), S. 12.
456
Lars Klöhn
ten machen, um ein besseres oder gar das beste Recht zu finden. Methodisch versucht sie, das Rechtsdenken mit Ansätzen anderer Sozialwissenschaften zu kombinieren. Ihre Instrumente verstehen daher nicht nur Juristen, sondern auch andere Geisteswissenschaftler. Beide Ansätze haben Vorzüge: Eingebettete Forschung hat eine hohe praktische Relevanz, denn sie beschäftigt sich mit dem geltenden Recht. Sie ist für das Fachpublikum relativ leicht verständlich (man spricht dieselbe Sprache) und hat innerhalb ihrer Grenzen die Aussicht nach erschöpfender Erkenntnis. Nicht eingebettete Forschung kann besser umgebettet, d. h. außerhalb der Rechtskreisund Fachgrenzen rezipiert werden. Sie birgt ein höheres Innovationspotential und wird nicht so leicht Opfer der berühmten „drei berichtigenden Worte des Gesetzgebers“, die nach einem legendären Ausspruch des Staatsanwalts von Kirchmann ganze Bibliotheken zur Makulatur werden lassen. 5
II. Ökonomische Analyse des Rechts Der prominenteste Ansatz innerhalb der nichteingebetteten rechtswissenschaftlichen Forschung ist die Ökonomische Analyse des Rechts, die Economic Analysis of Law. Sie begann in den 50er Jahren des letzten Jahrhunderts als interdisziplinäres Arbeitsprojekt an der Universität von Chicago und hielt schnell Einzug in die amerikanischen Law Schools und Gerichtssäle. Auch in Deutschland ist sie rezipiert worden, wenngleich sie – gerade unter Juristen – deutlich weniger Anhänger gefunden hat. Der folgende Beitrag hat das Ziel, die Entstehungsgeschichte der Economic Analysis of Law in den USA und ihre Rezeption in Deutschland nachzuzeichnen (s. u. IV.) und die Gründe herauszuarbeiten, derentwegen die Kombination von Recht und Ökonomik im Denken amerikanischer Juristen ungleich populärer ist als bei ihren deutschen Kollegen (V.). Es wird dann möglich sein, ein genaueres Bild von dem zu zeichnen, was Recht und Ökonomik in Deutschland eigentlich ist, und Ansätze eines Forschungsprogramms für die Zukunft zu entwerfen (VI.).
III. Die Geschichte der Economic Analysis of Law in den Vereinigten Staaten 1. Erste Ansätze ökonomischen Rechtsdenkens Je nachdem, wie großzügig man in der Betrachtung ist, reichen die Ansätze der Ökonomischen Analyse des Rechts weit in die Geschichte zurück. So mag man 5
von Kirchmann (1848), S. 23.
Recht und Ökonomik – gestern, heute und morgen
457
bereits Machiavelli 6 oder Adam Smith 7 als erste Rechtsökonomen ansehen. Eine erste Law-and-Economics-Bewegung 8 fand zwischen 1830 und 1930 zunächst in Europa, dann in den Vereinigten Staaten statt. Aus ihr hervorgegangen ist etwa die sogenannte Alte Institutionenökonomik (berühmteste Vertreter wohl Thorstein Veblen und JohnR. Commons). 9 Auch die deutsche Staatswissenschaft geht auf sie zurück. 10 2. Die „Neue“ Law & Economics-Bewegung in den USA a) Beginn an der University of Chicago und Yale Law School Diese Bewegung konnte sich aber letztlich nicht durchsetzen, und so liegen die Ursprünge des neuen Law & Economics zum einen in dem grundlegenden Aufsatz von Ronald Coase aus dem Jahre 1937 über die Theorie des Unternehmens (The Nature of the Firm) 11 sowie im Wirken des Ökonomen Aaron Director in den 1950er Jahren an der University of Chicago. In seinem Aufsatz aus dem Jahr 1937 „entdeckte“ der spätere Nobelpreisträger Ronald Coase das Phänomen der Transaktionskosten und schuf damit einen zentralen Begriff für die spätere Ökonomische Analyse des Rechts. Aaron Director gab an der Chicago Law School Kurse für Juristen aus ökonomischer Perspektive, vor allem im Kartellrecht, und inspirierte dadurch viele spätere Vertreter der Ökonomischen Analyse des Rechts, die bei ihm studierten. Im Jahre 1958 gründet Aaron Director das Journal of Law & Economics, dessen erster Herausgeber er wurde. Zwei Jahre später erscheint in dieser Zeitschrift der zweite grundlegende Beitrag von Ronald Coase zur Ökonomischen Analyse des Rechts, The Problem of Social Cost. 12 Es ist die Geburtsstunde des berühmten CoaseTheorems. 13 Unabhängig von Coase veröffentlicht ungefähr zur selben Zeit der Rechtswissenschaftler Guido Calabresi im Yale Law Journal einen grundlegen-
6
Pearson (1997), S. 19. Mackaay (2000), S. 68. 8 Es ist umstritten, ob man von einer Bewegung sprechen sollte. Vorsichtig ablehnend Mackaay (2000), S. 69. 9 Dazu Hutchinson (1984); Richter / Furubotn (2003), S. 45 f. 10 Vgl. Mackaay (2000), S. 69. 11 Coase (1937). 12 Coase (1960). 13 Der Begriff „Coase-Theorem“ wurde – soweit ersichtlich – zuerst verwandt von Demsetz (1972), S. 19: „The criticism centered around two allegations – that the Coase theorem neglects long-run considerations that negate it (...)“. 7
458
Lars Klöhn
den Aufsatz zur Ökonomischen Analyse des Deliktsrechts, in dem er einige Gedanken von Coase nachzeichnet, ohne dessen Aufsatz zu kennen. 14 Das Besondere an diesen beiden Beiträgen ist, dass sie nicht-marktmäßiges Verhalten (non-market behavior) mit den Mitteln des ökonomischen Denkens analysieren und hieraus Schlüsse für die Gestaltung des Rechts ziehen. Dies findet gerade bei Juristen Anklang, wobei der Motor der Bewegung an der University of Chicago bleibt. Hier ist es vor allem die Forschung des Ökonomen und späteren Nobelpreisträgers Gary Becker, 15 der Juristen und Ökonomen dazu inspiriert, alle Lebensbereiche des Rechts mit ökonomischen Instrumenten zu analysieren, das Familienrecht etwa ebenso wie das Strafrecht. 16 b) Bedeutungszuwachs in den 1970er Jahren Der Beginn der 1970er Jahre verdeutlicht prägnant den Bedeutungszuwachs der Ökonomischen Analyse des Rechts in den Vereinigten Staaten – und zwar in dreifacher Hinsicht: 1971 ruft der Rechtswissenschaftler Henry Manne ein Trainingsprogramm in der Ökonomischen Analyse für Bundesrichter ins Leben. 17 Dieses Programm wird sehr freundlich aufgenommen. Bis zum Jahre 1983 nahmen knapp ein Drittel aller Bundesrichter an diesem Programm teil. Im Jahre 1990 sind es 40% der Bundesrichter. 18 Diese Programme sorgen dafür, dass sich die Law & Economics-Bewegung nicht auf die Hochschulen beschränkt, sondern Einzug in die Rechtspraxis findet. Es überrascht heute niemanden, wenn amerikanische Gerichte ihre Urteile mit ökonomischen Gedanken begründen. Im Jahre 1973 erscheint die erste Auflage des Lehrbuchs Economic Analysis of Law von Richard Posner, 19 ein Buch, das ganz in der Chicagoer Tradition das gesamte Recht am Effizienzkalkül misst und das in einer Juristen geläufigen, nicht-technischen Sprache geschrieben ist. Dieses Buch sorgt dafür, dass die Ökonomische Analyse des Rechts außerhalb der Yale und Chicago Law School gelehrt und gelernt werden kann. Schließlich gründet Richard Posner im Jahre 1972 an der Chicago Law School das Journal of Legal Studies, das zweite Fachblatt für rechtsökonomische Studien, 14 Vgl. Calabresi (1961). Als dritter „Gründungsaufsatz“ der New Law & Economics gilt Alchian (1965), ein Paper, dessen Entwurf schon in den 50er Jahren kursierte [dazu Mackaay (2000), S. 74]. 15 Vgl. vor allem Becker (1976). 16 Zur Bedeutung Gary Beckers für die Ökonomische Analyse des Rechts s. Posner (1993). 17 Vgl. Mackaay (2000), S. 65, 76. 18 Vgl. Duxbury (1995), S. 360. 19 Posner (1973, 2007).
Recht und Ökonomik – gestern, heute und morgen
459
das im Ranking der juristischen Zeitschriften heute einen Spitzenplatz einnimmt. Dieses Journal sorgt dafür, dass die Ökonomische Analyse des Rechts innerhalb der rechtswissenschaftlichen Gemeinde schnell populär wird. c) Kritische Debatte in den 1980er Jahren Es lässt sich ohne Übertreibung sagen, dass die Geschichte der Law & Economics-Bewegung in den Vereinigten Staaten der 1970er Jahre eine Erfolgsgeschichte war. Anfang der 1980er Jahre war die Ökonomische Analyse des Rechts so populär, dass eine Fundamentalkritik überfällig erschien. Es begann die sog. kritische Debatte, in der vor allem die politischen, moralischen und rechtstheoretischen Grundlagen der Bewegung diskutiert wurden. 20 Diese Debatten zeigten nicht nur Grenzen des rechtsökonomischen Denkens auf, sondern verdeutlichten, dass es nicht nur die Chicago-Version von Law & Economics gab, sondern andere Varianten, die mit nicht ebenso harten Prämissen arbeiteten, nicht ebenso viel Vertrauen in den Markt hatten, die mit einem anderen Effizienzkalkül arbeiteten und die soziale Entscheidungen nicht nur am Prinzip der Vermögensmaximierung maßen. 21 d) Der Status von Law & Economics heute Heute ist die Ökonomische Analyse aus dem Rechtsdenken der USA nicht wegzudenken. In manchen Rechtsgebieten ist sie die gemeinsame Sprache der Juristen – so etwa im Kartell-, Kapitalmarkt-, oder Gesellschaftsrecht. Nicht ohne Spott behauptet so mancher ausländische Beobachter, US-amerikanische Juristen seien eigentlich Ökonomen, die sich mit dem Recht beschäftigen. 22 Einige maßgebliche Vertreter der Ökonomischen Analyse des Rechts sind zu Bundesrichtern ernannt worden und hatten über Jahrzehnte die Gelegenheit, das case law nachhaltig zu beeinflussen. 23 Es existieren Gerichtsentscheidungen (nicht notwendig von ausgesprochenen Verfechtern der Ökonomischen Analyse des Rechts), die ökonomische Theorie fast unmodifiziert in juristische Dogmatik übertragen. 24 In methodischer Hinsicht hat sich die Ökonomische Analyse des Rechts längst von ihren geistigen Vätern und der Chicago-Tradition emanzipiert. Es gibt kaum 20
Vgl. Mackaay (2000), S. 77 ff. Vgl. Mackaay (2000), S. 80: „The confidence with which the Chicago research agenda for law and economics was taken for granted as the only game in town appears shaken“. 22 Vgl. Lombardo (2002), S. 18. 23 Statistische Erhebungen bei Gulati / Sanchez (2002); Choi / Gulati (2005). 24 Siehe etwa die Begründung der sogenannten fraud-on-the-market-Doktrin mit der Efficient Capital Market Hypothesis (ECMH) in Basic v. Levinson, 485 U.S. 224 (1988). 21
460
Lars Klöhn
einen ökonomischen Denkansatz, der nicht für die Rechtsanalyse fruchtbar gemacht würde. Die populärsten Beispiele aus den vergangenen zehn bis 15 Jahren sind die Kombinationen mit der Verhaltensökonomik (Behavioral Law & Economics, besser eigentlich: Law and Behavioral Economics) 25, Spieltheorie (Game Theory and the Law) 26 und der ökonomischen Theorie der Politik (Public Choice Theory) 27.
IV. Die Rezeption der Economic Analysis of Law in Deutschland 1. Erste Ansätze einer ökonomischen Rechtsanalyse im deutschsprachigen Raum Die Geschichte der Ökonomischen Analyse des Rechts in Deutschland geht bis zum Anfang des 19. Jahrhunderts zurück. Um diese Zeit erschienen einige Schriften im deutschsprachigen Raum, die sich mit klassischen rechtlichen Themen aus ökonomischer Sicht beschäftigten und die einige Gedanken der „neuen“ Ökonomischen Analyse des Rechts vorwegnahmen. 28 Diese Ansätze konnten sich aber nicht durchsetzen und gerieten weitgehend in Vergessenheit. 29 2. Rezeption der „Neuen“ Law & Economics-Bewegung in Deutschland Die Rezeption der US-amerikanischen Law & Economics-Bewegung in Deutschland beginnt in den 1970er Jahren. Während die Ökonomische Analyse bei Wirtschaftswissenschaftlern freundlich aufgenommen wird, sind Juristen überwiegend skeptisch. Ende der 1970er Jahre beginnen deutschsprachige Juristen vereinzelt, ökonomische Ansätze in ihre rechtswissenschaftlichen Publikationen einzubeziehen. Dies erfolgt fast ausschließlich im Zivilrecht. Das bedeutendste Jahr in der Geschichte der Ökonomischen Analyse des Rechts deutscher Prägung ist wohl 1986. In diesem Jahr erscheint die erste Habilitationsschrift, die sich schwerpunktmäßig mit den ökonomischen Grundlagen des Rechts beschäftigt. 30 Im selben Jahr kommt das erste deutschsprachige 25
Grundlegend Jolls / Sunstein / Thaler (1997); Aufsatzsammlung bei Sunstein (2000). Monographisch Baird / Gertner / Picker (1994). 27 Mackaay (2000), S. 88 f. m.w. N. 28 Zu nennen sind insbesondere Kleinwächter (1883); Mataja (1888); Menger (1908); Steinitzer (1908). 29 Die Gründe hierfür sind ausführlich besprochen bei Grechenig / Gelter (2008), S. 540 ff. 30 Vgl. Behrens (1986). 26
Recht und Ökonomik – gestern, heute und morgen
461
Lehrbuch zur Ökonomischen Analyse des Rechts heraus, das sich – ganz im Stile der deutschen Tradition – auf Fragen des Zivilrechts beschränkt. 31 Schließlich veröffentlicht die renommierte Juristenzeitung eine Fundamentalkritik des Rechtswissenschaftlers Karl-Heinz Fezer, die nicht mit scharfen Formulierungen geizt 32 und eine ebenso scharf formulierte Gegenkritik des Rechtswissenschaftlers Claus Ott und des Ökonomen Hans-Bernd Schäfer nach sich zieht. 33 In der Folge ist die Debatte in Deutschland stark polarisiert. Die Kritik wendet sich vor allem gegen drei Fundamente des ökonomischen Rechtsdenkens: (a) den Ausschließlichkeitsanspruch, den die Ökonomische Analyse des Rechts erhebe und der zum einen der Komplexität der Rechtsfindung nicht gerecht werde, weil der Gesetzgeber auch andere Ziele verfolgen könne als die der ökonomischen Effizienz, der zum anderen die Rechtswissenschaft ihrer Selbständigkeit beraube; 34 (b) das Menschenbild des resourceful, evaluative, maximizing man (REMM), das die Ökonomische Analyse verwende und das im Widerspruch zu dem Ziel der ausgleichenden Gerechtigkeit stehe; 35 (c) die (angebliche) politische Ideologie der Economic Analysis of Law, die „mit freiheitlichem Rechtsdenken unvereinbar“ sei. 36 Darüber hinaus – so die Kritik – seien auch die Ergebnisse der Ökonomischen Analyse für Juristen unbrauchbar, denn erstens handelten die von Rechtsökonomen verwandten Beispiele häufig nicht von deutschem Recht, sondern seien dem amerikanischen Rechtsraum entlehnt, zweitens seien die von den Rechtsökonomen verwandten Prämissen zu unrealistisch und ihre Begriffe nur scheinpräzise, 37 drittens seien die von den Rechtsökonomen ausgesprochenen Handlungsanweisungen nur wenig hilfreich, weil die hierfür anzustellenden Betrachtungen für Richter schlicht zu komplex seien. 38 Befürworter der Ökonomischen Analyse des Rechts hielten dagegen, man wolle weder die Eigenständigkeit der Jurisprudenz leugnen noch die Herstellung von Allokationseffizienz als alleinige Aufgabe des Rechts behaupten. 39 Das Menschenbild der Ökonomischen Analyse des Rechts sei lediglich ein Instrument der positiven Analyse, nicht aber der normativen Analyse des Rechts, 40 31 32 33 34 35 36 37 38 39 40
Vgl. Schäfer / Ott (1986, 2005). Fezer (1986). Ott / Schäfer (1988); Erwiderung von Fezer (1988). Fezer (1986), S. 819 und 823. Vgl. ebd., S. 822. Ebd., S. 823. Horn (1976), S. 331. Ausführlich dazu Eidenmüller (1995), S. 429 ff. Vgl. Ott / Schäfer (1988), S. 214. Vgl. ebd., S. 218.
462
Lars Klöhn
und sei sehr wohl in der Lage, normative Aussagen über das geltende Recht zu machen, die im Übrigen nur als Handlungsempfehlungen zu verstehen seien. Nicht zuletzt durch die teils bissigen Formulierungen, die in dieser Diskussion verwandt wurden, wurde die deutsche Rechtswissenschaft bis auf Weiteres in „Lager“ gespalten – die Freunde einer Ökonomischen Analyse des Rechts und deren Gegner –, zwischen denen man nur schwer vermitteln konnte. 41
V. Transplantationshindernisse Warum hat es die Ökonomische Analyse des Rechts in Deutschland so viel schwerer als in den USA? Das Spektrum der Erklärungsansätze hierfür ist breit. 1. Makrotheoretische Erklärungsansätze Am einen Ende stehen ganzheitliche Erklärungsansätze philosophischer, kultureller, rechtspolitischer und rechtstheoretischer Art: So wird darauf hingewiesen, dass die philosophische Grundlage der Ökonomischen Analyse des Rechts im Utilitarismus zu finden sei. Dieser habe in den USA weitaus mehr Anklang gefunden als im in der Tradition von Kant und Hegel stehenden Deutschland. 42 Auch sei die US-amerikanische Kultur stärker vom Liberalismus und Individualismus geprägt. Dies erleichtere den Aufbau einer Rechtstheorie auf der Grundlage des rational seinen Eigennutz maximierenden Menschen. 43 US-Amerikaner seien darüber hinaus traditionell skeptischer gegenüber jeglicher Form von Regulierung („government“), so dass sich die Ökonomische Analyse des Rechts mit ihrer konservativen, dezentralisierenden Tendenz auf einem günstigeren rechtspolitischen Boden entwickeln konnte. 44 Auch vertrauten US-Amerikaner dem Markt stärker als Europäer. 45 Schließlich sei die rechtstheoretische Tradition eine andere. So habe der US-amerikanische Rechtsrealismus den Boden für die Ökonomische Analyse des Rechts bereitet, während seinem deutschen Äquivalent, der Freirechtsschule, kein Erfolg beschert gewesen sei. 46
41 42 43 44 45 46
Vgl. auch Kirchner (1991), S. 279: „Stale Mate“. Vgl. Grechenig / Gelter (2008), S. 548 f. Vgl. Dau-Schmidt / Brun (2006), S. 605. Vgl. ebd., S. 606. Vgl. ebd., S. 616. Vgl. ebd., S. 609, 615; Grechenig / Gelter (2008), S. 549 ff.
Recht und Ökonomik – gestern, heute und morgen
463
2. Mikrotheoretische Erklärungsansätze Am anderen Ende des Spektrums stehen Erklärungen, die sich auf das Handeln und Wirken von Rechtspraktikern, Rechtslehrern und Rechtsstudierenden konzentrieren. So hätten deutsche Jurastudentinnen und -studenten keine oder nur wenig ökonomische Vorbildung, während amerikanische law students mit einer abgeschlossenen College-Ausbildung und teils sehr fundiertem ökonomischen Wissen an die Law School kämen. 47 Die deutsche Juristenausbildung sei ganz auf das Richteramt zugeschnitten und (über)betone die Feinheiten des geschriebenen Rechts, behandle aber nicht das Recht, wie es sein sollte. 48 Auch Rechtswissenschaftler hätten einen starken Anreiz, sich mit dem geschriebenen Recht zu beschäftigen, anstatt über das Recht aus nicht-eingebetteter Perspektive nachzudenken. So sei die Schriftenleitung juristischer Zeitschriften typischerweise in der Hand etablierter Rechtslehrer, die ein Interesse daran hätten, ihre Besitzstände zu wahren. Neue, provokative Thesen, die man mit Hilfe der Ökonomischen Analyse des Rechts gewinnen könnte, hätten in Deutschland nicht so gute Chancen auf Veröffentlichung wie in den USA, wo die law reviews von Studierenden herausgegeben werden, die erstens keine eigene Position zu verteidigen hätten und zweitens neue und kontroverse Thesen bevorzugen würden. 49 Schließlich sei das ökonomische Rechtsdenken fest in der Rechtspraxis der Vereinigten Staaten verankert, während es von deutschen Richterinnen und Richtern überhaupt nicht angenommen würde. Grund hierfür sei auch das unterschiedliche Verständnis von Gewaltenteilung: Während man hierunter in den USA ein System von Checks and Balances verstünde, in dem auch Gerichte gesetzgeberische Gewalt ausübten, hätten deutsche Gerichte lediglich die Aufgabe, das Gesetz auszulegen und systemimmanent fortzubilden, nicht aber eigenes Recht zu setzen (Art. 20 Abs. 3 GG). 50
VI. Die Zukunft der Ökonomischen Analyse des Rechts in Deutschland Welche Zukunft hat also die Ökonomische Analyse des Rechts in Deutschland? Die Meinungen hierüber gehen auseinander. Einige sagen trotz der vorgestellten Transplantationshindernisse eine mittel- oder langfristige Konvergenz voraus. 51 Andere sind skeptisch und glauben, dass die Ökonomische Analyse bis auf Weiteres in Deutschland keine Rolle spielen wird. 52 47 Vgl. Kirchner (1991), S. 280; Weigel (1991), S. 326; Dau-Schmidt / Brun (2006), S. 608. 48 Vgl. ebd., S. 280. 49 Dazu Dau-Schmidt / Brun (2006), S. 609; Grechenig / Gelter (2008), S. 521. 50 Vgl. Kirchner (1991), S. 283; Dau-Schmidt / Brun (2006), S. 607 f. 51 Vgl. Mattei / Pardolesi (1991), S. 272; vgl. auch Hertig (1991), S. 331 ff.
464
Lars Klöhn
Beide Antworten sind unbefriedigend. Die Konvergenzthese ignoriert, dass es zwischen Deutschland und den USA institutionelle Unterschiede gibt, die sich auch auf lange Sicht nicht ändern werden, insbesondere das unterschiedliche System der Gewaltenteilung. Die Skeptiker machen den Fehler, die Bedeutung der Ökonomischen Analyse an Kriterien zu messen, die sie in den USA vorfinden, beispielsweise der Zitierung ökonomischer Theoreme oder Begriffe in Gerichtsentscheidungen. Die Wahrheit liegt auf einer anderen Ebene. Die Ökonomische Analyse des Rechts ist ein Methodenimplantat. Aus der rechtsvergleichenden Forschung zu den Rechtsimplantaten (legal transplants) wissen wir, dass sich rechtliche Institutionen bei ihrer Verpflanzung von der einen in die andere Rechtsordnung ändern können, abhängig von der Rechtskultur, den politischen Präferenzen, dem Normumfeld und der sozialen Wirklichkeit. 53 Nicht anders verhält es sich mit der Methodenverpflanzung. Hieraus folgt zweierlei: Es lässt sich mit ziemlicher Sicherheit vorhersagen, dass wir in Deutschland eine Ökonomische Analyse des Rechts US-amerikanischer Prägung nie sehen werden. Andererseits sollte man allein die Tatsache, dass Gerichte keine ökonomischen Begründungsansätze verwenden oder ihre Urteile nicht auf rechtsökonomische Studien stützen, nicht als Beweis dafür ansehen, dass die Ökonomische Analyse in Deutschland keine Rolle spiele. Aufgrund unseres Verständnisses von Gewaltenteilung haben deutsche Richter einen starken Anreiz, eigene Rechtschöpfungen als das Produkt systemimmanenter Rechtsfindung erscheinen zu lassen. 54 Die Begründung eines Urteils mit ökonomischen Termini wäre geradezu eine Einladung an die Parteien, das Urteil notfalls wegen eines Verstoßes gegen Art. 20 Abs. 3 GG vor das Bundesverfassungsgericht zu bringen, oder an den Gesetzgeber, ein neues Gesetz zu erlassen. Ökonomische Gedanken werden in der deutschen Rechtspraxis daher nie „in Reinform“ auftauchen, sondern immer im Kleid juristischer Dogmatik. Dies machen Richter zum Teil unbewusst, indem sie Urteil auf Common Sense-Argumente stützen, die sich mit Hilfe ökonomischer Theorie tiefer durchdringen ließen, deren Essenz Richtern aber schon aufgrund ihrer praktischen Erfahrung als soziale Streitentscheider einleuchten. Dies geschieht zum anderen in den Universitäten, wo sich Rechtswissenschaftler – viele ausgestattet mit einem Masterstudium in den USA – verstärkt damit auseinandersetzen, welchen ökonomischen Sinn die Regeln des geschriebenen Rechts machen und wie sich diese Regeln in dogmatisch zulässiger Weise verbessern lassen. Dieser Prozess des „dogmatischen Erdens“ 55 ökonomischer Gedanken ist eine der interessantesten 52 53 54 55
Zuletzt Grechenig / Gelter (2008), S. 560. Zusf. Graziadei (2006), S. 441 ff. m.w. N. Vgl. bereits Kirchner (1991), S. 284 f. Der Begriff stammt von Fleischer (2007), S. 501.
Recht und Ökonomik – gestern, heute und morgen
465
Herausforderungen der juristischen Rechtsmethodik. Denn hierbei handelt es sich nicht bloß um die größtmögliche Verwirklichung ökonomischer Theorie in den Grenzen des Rechts. Es geht auch um die spezifisch juristische Frage, wie das Recht auf die Erkenntnisgrenzen ökonomischer Theorie reagieren sollte. Die Wissenschaft, die sich mit diesen Fragen beschäftigt, ist mehr als eine Ökonomische Analyse des Rechts, mehr als eine ökonomische Teildisziplin, deren Erkenntnisgegenstand das Recht ist. Sie ist Rechtsökonomik, ein interdisziplinäres Projekt, das sich mit den Chancen und Grenzen ökonomischer Theorie in der Rechtspraxis beschäftigt. Ihre Aufgabe ist es, ökonomische Erkenntnisse zu rezipieren, ihren sozialen Wert für die Rechtspraxis zu evaluieren und zu untersuchen, inwieweit das verbliebene Destillat in die Rechtsfindung integriert werden kann, und den Gerichten dogmatische Instrumente, d. h. einfache Rechtssätze, an die Hand zu geben, die es ihnen ersparen, stets aufs Neue dieselben ökonomischen Überlegungen anzustellen. Übergreifende Konzepte für diese Destillation sind höchstens ansatzweise vorhanden. Sie zu entwickeln, ist eine der vordringlichsten Aufgaben interdisziplinärer Forschung.
Literatur Alchian, Armen A. (1965): Some Economics of Property Rights, in: Il Politico, 30. Jg., S. 816ff. Baird, Douglas G. / Gertner, Robert H. / Picker, Randal C. (1994): Game Theory and the Law, Cambridge, MA. Becker, Gary (1976): The Economic Approach to Human Behavior, Chicago. Behrens, Peter (1986): Die ökonomischen Grundlagen des Rechts, Politische Ökonomie als rationale Jurisprudenz, Tübingen. Calabresi, Guido (1961): Some Thoughts on Risk Distribution and the Law of Torts, in: Yale Law Journal, Vol. 70, S. 499ff. Choi, Stephen J. / Gulati, Mitu G. (2005): Mr. Justice Posner?, in: New York University Annual Survey of American Law, Vol. 61, S. 19ff. Coase, Ronald H. (1937): The Nature of the Firm, in: Economica, New Series, Vol. 4, S. 386ff. Coase, Ronald H. (1960): The Problem of Social Cost, in: Journal of Law and Economics, Vol. 3, S. 1ff. Dau-Schmidt, Kenneth G. / Brun, Carmen L. (2006): Lost in Translation: The Economic Analysis of Law in the United States and Europe, in: Columbia Journal of Transnational Law, Vol. 44, S. 602ff. Demsetz, Harold (1972): When Does the Rule of Liability Matter?, in: Journal of Legal Studies, Vol. 1, S. 13ff.
466
Lars Klöhn
Duxbury, Neil (1995): Patterns of American Jurisprudence, Oxford. Eidenmüller, Horst (1995): Effizienz als Rechtsprinzip, Möglichkeiten und Grenzen einer ökonomischen Analyse des Rechts, Tübingen. Fezer, Karl-Heinz (1986): Aspekte einer Rechtskritik an der economic analysis of law und am property rights approach, in: Juristenzeitung, 41. Jg., S. 817ff. Fezer, Karl-Heinz (1988): Nochmals: Kritik an der ökonomischen Analyse des Rechts, in: Juristenzeitung, 43. Jg., S. 223ff. Fleck, Ludwik (1935): Entstehung und Entwicklung einer wissenschaftlichen Tatsache, Basel (Nachdruck Frankfurt 2008). Fleischer, Holger (2007): Zur Zukunft der gesellschafts- und kapitalmarktrechtlichen Forschung, in: Zeitschrift für Unternehmens- und Gesellschaftsrecht, Bd. 36, S. 500ff. Graziadei, Michele (2006): Comparative Law as the Study of Transplants and Receptions, in: Reimann, Mathias / Reinhard Zimmermann (Hrsg.): The Oxford Handbook of Comparative Law, S. 441ff. Grechenig, Kristoffel / Gelter, Martin (2008): Divergente Evolution des Rechtsdenkens – Von amerikanischer Rechtsökonomie und deutscher Dogmatik, in: Rabels Zeitschrift für ausländisches und internationales Privatrecht, Bd. 72, S. 513ff. Gulati, Mitu G. / Sanchez, Veronica (2002): Giants in a World of Pygmies? Testing the Superstar Hypothesis with Judicial Opinions in Casebooks, in: Iowa Law Review, Vol. 87, S. 1141ff. Hertig, Gerard (1991): Law and Economics in Civil Law Countries: The European Community, in: International Review of Law and Economics, Vol. 11, S. 331ff. Horn, Norbert (1976): Zur ökonomischen Rationalität des Privatrechts – Die privatrechtstheoretische Verwertbarkeit der „Economic Analysis of Law“, in: Archiv für die civilistische Praxis, Bd. 176, S. 307ff. Hutchinson, Terence W. (1984): Institutionalist Economics Old and New, in: Zeitschrift für die gesamte Staatswissenschaft / Journal of Institutional and Theoretical Economics, Vol. 140, S. 20ff. Jolls, Christine / Sunstein, Cass. R. / Thaler, Richard H. (1998): A Behavioral Approach to Law and Economics, in: Stanford Law Review, Vol. 50, S. 1471ff. von Kirchmann, Julius H. (1848): Die Wertlosigkeit der Jurisprudenz als Wissenschaft, Berlin. Kirchner, Christian (1991): The Difficult Reception of Law and Economics in Germany, in: International Review of Law and Economics, Vol. 11, S. 277ff. Kleinwächter, Friedrich (1883): Die Kartelle, ein Beitrag zur Frage der Organisation der Volkswirtschaft, Innsbruck. Larenz, Karl (1966): Über die Unentbehrlichkeit der Jurisprudenz als Wissenschaft, Berlin. Lombardo, Stefano (2002): Regulatory Competition in Company Law in the European Community, Frankfurt.
Recht und Ökonomik – gestern, heute und morgen
467
Mackaay, Ejan (2000): History of Law and Economics, in: Bouckaert, Boudewijn / Gerrit De Geest (Hrsg.): Encyclopedia of Law and Economics, Volume I. The History and Methodology of Law and Economics, Cheltenham, S. 65ff. Mataja, Victor (1888): Das Recht des Schadensersatzes vom Standpunkte der Nationalökonomie, Leipzig. Mattei, Ugo / Pardolesi, Roberto (1991): Law and Economics in Civil Law Countries, A comparative approach, in: International Review of Law and Economics, Bd. 11, S. 265ff. Menger, Anton (1908): Das bürgerliche Recht der besitzlosen Klassen, 4. Auflage, Tübingen (Nachdruck 2008). Ott, Claus / Schäfer, Hans-Bernd (1988): Die ökonomische Analyse des Rechts, Irrweg oder Chance wissenschaftlicher Rechtserkenntnis, in: Juristenzeitung, 43. Jg., S. 213ff. Pearson, Heath (1997): Origins of Law and Economics, The Economists’ New Science of Law, 1830 – 1930, Cambridge. Posner, Richard A. (1972): Economic Analysis of Law, Boston. Posner, Richard A. (1993): Gary Becker’s Contributions to Law and Economics, in: Journal of Legal Studies, Vol. 22, S. 211ff. Posner, Richard A. (2007): Economic Analysis of Law, 7. Auflage, New York. Rakoff, Todd D. (2002): Introduction to Symposium: Law, Knowledge, and the Academy, in: Harvard Law Review, Vol. 115, S. 1278ff. Richter, Rudolf / Furubotn, Eirik G. (2003): Neue Institutionenökonomik, 3. Auflage, Tübingen. Schäfer, Hans-Bernd / Ott, Claus (1986): Lehrbuch der ökonomischen Analyse des Zivilrechts, Berlin. Schäfer, Hans-Bernd / Ott, Claus (2005): Lehrbuch der ökonomischen Analyse des Zivilrechts, 4. Auflage, Berlin. Steinitzer, Erwin (1908): Ökonomische Theorie der Aktiengesellschaft, Leipzig. Sunstein, Cass R. (Hrsg.) (2000): Behavioral Law and Economics, Cambridge. Weigel, Wolfgang (1991): Prospects for law and economics in civil law countries: Austria, in: International Review of Law and Economics, Vol. 11, S. 325ff.
Quantifizierte Stromlinienform oder diversifizierte Qualität. Ein Beitrag – nicht nur – aus der Praxis Von Klaus Bente 1
I. Einleitung Dem Thema des Kongresses „Ökonomisierung der Wissensgesellschaft“ geschuldet, widmet sich der Artikel wissenschaftspolitischen und wirtschaftlichen Aspekten zur Neu-Strukturierung der akademischen Hochschulen und in diesem Zusammenhang hinsichtlich des sog. Bologna-Prozesses. Aufgrund der im Dezember 2009 sich zuspitzenden Konflikte zum Bologna-Prozess, der letztlich auf dem Ansatz des „Globalen Bildungshandels“ der GATS (Global Agreement of Trades in Services) von Anfang der 90-Jahre beruht, werden im Folgenden hinführende und aktuelle Bildungs- und Hochschulaspekte beleuchtet. Es wird hierzu die zugrunde liegende Ökonomisierung der Wissensgesellschaft aufgezeigt, die zu einer Ungleichwertigkeit der Bereiche Wirtschaft – Kultur – Soziales – Bildung geführt hat. Dabei kann der entsprechende gesellschaftliche Strukturwandel durch folgende Determinanten beschrieben werden (Witsch (2006)): − Von der Industriegesellschaft zur wissensbasierten Gesellschaft − Bedeutungsverlust des Nationalstaats (und Bundesländer) als zentrale bildungspolitische Steuerungsinstanz − Individualisierung und Wandel der beruflichen Lebensläufe − Destabilisierung und soziale Spaltungs – und Ausschließungsprozesse. In diesem Artikel steht somit die ökonomisch-marktgerechte und auf Rendite ausgerichtete Neustrukturierung der Hochschulen auch hinsichtlich der politischen Verantwortlichkeiten im Blickpunkt. Es wird ein Beitrag aus der Hochschulpraxis geliefert, dessen Forschungsgegenstand und Lehraufgaben nicht nur auf interdisziplinären wissenschaftlichen und Vermittlungsproblemen basieren, sondern auch die Beurteilung ökonomisch-verwalterischer Alltagsfragen und de1
Prof. Dr. Klaus Bente ist Direktor des Instituts für Mineralogie, Kristallographie und Materialwissenschaft an der Universität Leipzig.
470
Klaus Bente
ren wissenschaftspolitische Zusammenhänge erlauben. Verallgemeinerbare Alltagserfahrungen dienen der Hinterfragung der Bildungs- und Hochschulentwicklung sowie deren ökonomischen Randbedingungen, die durch politische und Bildungsanalysen aus der Literatur unterfüttert werden. Die aktuellen Probleme und Herausforderungen der Wissensgesellschaft werden im Spannungsfeld kollektiver und individueller Folgen der Ökonomisierung der Hochschulen im Sinne des Begriffspaares „Quantifizierte Stromlinienform oder diversifizierte Qualität“ betrachtet. Dieses Begriffspaar lässt sich in der Wissensgesellschaft auch auf das Spannungsfeld zwischen Grundlagen- und Anwendungsforschung nach Hirsch (2004) hinsichtlich der Verwertung von Wissen übertragen, wie sie bereits in früheren Auseinandersetzungen um Rohstoffe, die Bio- und Gentechnologie etc. entfacht wurden. Zudem stehen individuelle und kollektive Bedarfe nach Berufsfähigkeit und Berufsfertigkeit im Fokus. In der Wissensgesellschaft wird die Schaffung infrastruktureller Voraussetzungen für Produktion und Kommodifizierung von Wissen als „geistiges Eigentumsrecht“ unter dem Druck des internationalen Wettlaufs um „technologische Renditen“ permanent vorangetrieben. Indem verwertungsrelevantes Wissen in immer komplexeren gesellschaftlichen Systemen erzeugt und benötigt wird, vergrößert sich auch auf dieser Ebene der Widerspruch zwischen gesellschaftlicher Produktion und privater Aneignung. Zugleich vollzieht sich eine Transformation der Wissensgesellschaft in eine Informationsgesellschaft, wobei der Transport des Wissens vom Wesen des Wissens getrennt wird.
II. Randbedingungen und Analysen 1. Globale Krise Global wurden die Probleme 2009 durch die Welt-Finanzkrise, die die ökonomischen Ansätze des Bologna-Prozesses hinsichtlich der Konkurrenzfähigkeit Europas prinzipiell aushebelt. So gilt in Abwandlung des Lehrsatzes der global players: Think global (not european) – act local. Die Finanz- und Wirtschaftskrise lässt befürchten, dass das demokratische Miteinander zunehmend ausgehöhlt und durch Existenzängste und allgegenwärtige Konkurrenz ersetzt wird. Dabei diskreditiert die Macht des Kapitals und der Kapitalmärkte die Wert schöpfende Arbeit. Hierbei sollte es gerade die Aufgabe der Weltbank sein, die wirtschaftliche Entwicklung ihrer Mitgliedsländer dadurch zu fördern, dass besondere Maßnahmen im Bildungsbereich unternommen werden. Allerdings ist dabei die genannte Human-Kapital-Theorie virulent, nach der statt Bildung und Ausbildung vor allem die technischen Qualifikationen der Menschen, die Produktivität der Betriebe und damit auch das wirtschaftliche Wachstum der Gesamtgesellschaft gesteigert werden können. Hierfür ist die Harmonisierung und Homogenisierung vor allem regionaler Strukturen Voraussetzung, die die Vernichtung nationaler,
Quantifizierte Stromlinienform oder diversifizierte Qualität
471
regionaler und individueller Identitäten und Selbstbestimmungen zur Folge hat. Bildung wird dabei zur Ware, wobei die Bildungseinrichtungen strukturelle und individuelle Anpassung produzieren. Diese Anpassungen koinzidieren mit Forderungen, wie sie die Weltbank seit Mitte der 80er Jahre erfolgreich bei der veränderten Definition staatlicher Aufgaben proklamiert. Unter entsprechenden Bedingungen gezielt verknappter öffentlicher Mittel führt dies zu zunehmender Privatisierung, zu konsequentem Wettbewerb sowie zur Dezentralisierung der Verantwortung im öffentlichen Sektor. Folge sind Ersetzung bzw. Ergänzung bürokratischer Regulationen durch größere Anteile von Marktelementen und Kontrollen durch die Zunahme von zentralen Prüfungen, Tests und Evaluationen. Dabei geht es um ein der Krise der Staatsfinanzen angepasstes Modell der Regulierung öffentlich definierter Aufgaben, wobei Aufgaben des Staates und der privaten Haushalte in ein neues Balanceverhältnis gebracht werden. Dies geschieht in zunehmendem Maße auch in Deutschland, indem sich allerdings eine Verbetriebswirtschaftlichung des Bildungswesens und seiner Institutionen vollzieht. Folge ist die Unterwerfung von Erkenntnissen und Wissen unter kurzfristige Renditeansprüche und Verwertungsinteresse. Die demokratische Hochschule wird dabei zu einer Ausbildungsbehörde umfunktioniert, was gerade in den neuen Bundesländern aus leidvollen früheren Erfahrungen zu besonderer Befremdung und Politikverdrossenheit führt. Die bildungspolitische Verantwortung wurde zwar durch die Bund-Länder-Vereinbarung von 2006 in die Hohheit der Länder gegeben. Allerdings führen die massiven Geldmittel des Bundes z. B. betreffs der Exzelleninitiativen de facto zur Verlagerung der Länderverantwortlichkeit in die Kompetenz des Bundes. Im internationalen Maßstab stehen in Folge der Neoliberalisierung die global players trotz der von ihnen ausgelösten Krise auch als zukünftige Gewinner fest, da die zur Krise führenden Spielregeln fortgesetzt werden. Dabei sind die global players wenig von der Reduktion der Leistungsfähigkeit des öffentlichen Bildungs-, Gerechtigkeits- und Wohlfahrtsvertrages einer extrem arbeitsteiligen Gesellschaft betroffen, da sie sich privater Einrichtungen versichern können. Klausenitzer (2002) schreibt in „GATS, Pisa und die Entwicklung der Schule“, dass GATS (General Agreement of Trade in Services) ein wichtiger, wenn auch nicht der einzige Schritt hin zu einem veränderten Modell von Bildung und Erziehung ist, in dem Markt und Management, Rationalisierung und Privatisierung eine immer größere Rolle spielen. Dieser „Globale Bildungshandel“ wird von der OECD als neues Paradigma öffentlicher Verwaltung und des Bildungswesens wie folgt definiert: − − − −
Qualität definiert als Effizienz Stärkung zentraler Kapazitäten auf strategischer Ebene Dezentralisierung auf operativer Ebene Organisierung von internem und externem Wettbewerb
472
Klaus Bente
− Nutzergebühren, Gutscheine, Credit Points − Alternativen zur öffentlichen Daseinsvorsorge: Privatisierung, Public-PrivatePartnership. Hierbei verspricht man sich Effizienzgewinne im Wesentlichen von zwei zentralen Instrumenten: − Organisierung von Wettbewerb zwischen Schulen, Hochschulen usw. und − Privatisierung sowohl von Institutionen als auch der Kosten. Die Konkurrenz zwischen den Hochschulen wird allerdings auch in die Hochschulen hineingetragen, was durch abnehmende Mittelausstattungen zu Verteilungs- und Überlebenskämpfen zwischen den Fächern führt. Mit Einführung der Autonomie der Hochschulen von staatlichem Zugriff geht eine Zentralisierung der Entscheidungsgewalt innerhalb der Hochschulen einher, die sich als topdown-Struktur nach unten fortsetzt. Hiermit ist zwangsläufig eine Entfernung der zentralen Entscheidungsträger von Sachzusammenhängen in den Lehr- und Forschungseinheiten verbunden. Die dadurch hervorgerufenen Probleme lassen als Bewältigungsstrategien eine zunehmende Bürokratisierung und Mangelverwaltungsstrategien entstehen. Dies gilt besonders für die Studienorganisation zur Bewältigung der Prüfungs- und Verwaltungsflut im Rahmen Bologna-Prozesses, die z. B. durch die EDV zu weniger statt zu mehr Flexibilität und Qualität führt. 2. Verwertung von Wissen und Bildung Zur Beurteilung der aktuellen Bildungs- und Ausbildungsdiskussion sei an eine Reihe von grundlegenden auch historischen Positionen erinnert. Bereits 1914/15 lehnt sich Simmel an das Humboldt’sche Bildungsideal in seiner Vorlesung zur Schulpädagogik an: „Bildung ist weder das bloße Haben von Wissensinhalten, noch das bloße Sein als eine inhaltslose Verfassung der Seele. Gebildet ist vielmehr derjenige, dessen objektives Wissen eingegangen ist in die Lebendigkeit seiner subjektiven Entwicklung und Existenz, und dessen geistige Energie mit einem möglichst weiten und immer wachsenden Umfang von an sich wertvollen Inhalten erfüllt ist“. Witsch (2004) stellt fest, dass die „Wissensgesellschaft“ im Vergleich zu den früheren Industrie- oder Dienstleistungsgesellschaften auf die strukturelle Verschiebung in Bezug auf die Wertigkeit von Wissens-Ressourcen abhebt. Nicht mehr Rohstoffe, Arbeit und Kapital, sondern die Aneignung, der Zugang und der Umgang mit Wissen sind entscheidend. In der Wissensgesellschaft reduziert sich Wissen auf die Vermittlung von „Beschäftigungsfähigkeit“ und Selbstverantwortung im Kontext ökonomischer Sachzwänge sowie von ökonomischen Effektivitäts- und Effizienzinstrumente. So wird nach Knobloch (2006) Bildung vom Menschenrecht in eine Markenware transformiert. „Die drohende Privati-
Quantifizierte Stromlinienform oder diversifizierte Qualität
473
sierung der Bildung lässt in Schulen und Universitäten immer mehr die Gesetze des Marktes regieren, wodurch öffentliche Lernorte durch neoliberale Reformen und finanzielle Auszehrung bedroht sind.“ Die neoliberale Vermarktung der öffentlichen Bildungseinrichtungen bewirkt, dass, je prekärer die beruflichen und ökonomischen Perspektiven breiter Schichten werden, sich „Bildungsreformen“ besser verkaufen lassen. Die „gute Ausbildung“ scheint die beste und einzige Rückversicherung gegen die Wechselfälle eines globalen Arbeitsmarktes zu sein. Dies ist ironisch und paradox zugleich, da ausgerechnet der traditionelle Bildungsaufstieg, der Berufschancen an öffentliche Bildungsdiplome bindet, als Motiv für Privatisierung und Entkopplung von Bildung und öffentlicher Hand herhalten muss. Denn am Ende dieser „Reformen“ könnte Bildung kein öffentliches Gut mehr sein, über dessen politisch verantwortete Verteilung nicht ein Stück Chancengleichheit hergestellt wird, sondern sich als Markenware etabliert haben. Insbesondere in Deutschland sind die Chancen des sozialen Aufstiegs bis in die gesellschaftlichen Eliten, die auf Leistung beruhen, eher gering. Nach wie vor besteht eine enge Verbindung zwischen der Aufstiegsrealität und der Herkunft. Hierfür sind Ungleichheit produzierende Faktoren als kulturelles Startkapital wie soziale Herkunft, Geschlecht, Wohnort, nationale und ethnische Herkunft verantwortlich (vgl. Hartmann (2002)). Als ein Gegenmodell könnte man sich mit Liessmann (2006) folgendes vorstellen: „Eine Gesellschaft, die sich selbst durch das Wissen definiert, könnte als eine Sozietät gedacht werden, in der Vernunft und Einsicht, Abwägen und Vorsicht, langfristiges Denken und kluge Überlegung, wissenschaftliche Neugier und kritische Selbstreflexion, das Sammeln von Argumenten und Überprüfen von Hypothesen endlich die Oberhand über Irrationalität und Ideologie, Aberglaube und Einbildung, Gier und Geistlosigkeit gewonnen haben“. Faschingeder / Strickner (2007) konstatieren: „Wiewohl Bildung sowohl das Potential in sich trägt, Emanzipation zu ermöglichen, so ermöglicht sie auch Disziplinierung. In beiden Fällen ist Bildung politisch.“ Stellt der verdinglichte Mensch das „human capital“ in den Vordergrund, so ist das emanzipatorische Potential gefährdet. In „Kritische Wissenschaften im Neoliberalismus“ stellt Kaindl (2005) fest, dass „die neoliberale Umgestaltung der kapitalistischen Gesellschaften auch die Institutionen von Bildung und Wissenschaft verwandelt und neue ideologische und materielle Kampffelder produziert. Die in den 70-er Jahren als Kritik am Elfenbeinturm geforderte stärkere „Praxisrelevanz“ von Forschung, Lehre und Studium wird in der neoliberalen Debatte aufgegriffen und als unmittelbare – ökonomische und gesellschaftskonforme – Verwertbarkeit des Wissens umgedeutet (vgl. Merkens (2002)). Bei Merkens gerät Kritik, die sich auf die Organisation von Gesellschaft, auf die Voraussetzungen von „Relevanz“ und „Effizienz“ bezieht, zum Luxus, den
474
Klaus Bente
sich die Institutionen – und oft auch die Studierenden – aus dem „Sachzwang der Beschaffenheit der Gesellschaft“ nicht mehr leisten können. Investitionen in Humankapital reduzieren sich auf dessen Verwertbarkeit und dienen weder individueller noch gesellschaftlicher Emanzipation. Daraus folgend wird die Effizienz pädagogischer Konzepte danach beurteilt, wie viele Studierende innerhalb möglichst kurzer Zeit mit einer größtmöglichen Menge an Faktenwissen gefüllt und zu einem Abschluss geführt werden. Paulo Freire (1973) bezeichnete die Grundlage dieses Systems als BankierKonzept. Die Einführung der zweigliedrigen (Bachelor-Master) Studien geht mit stark verschulten und in hohem Maße vorstrukturierten Studienplänen, die Studierenden einen arbeitsmarktrelevanten akademischen Abschluss versprechen, einher. Dramatische Auswirkungen zeigt die Ökonomisierung der Bildung in wirtschaftlich unterentwickelten Ländern. Die von Freire konzipierte „Problem formulierende Bildungsarbeit“ koinzidiert dabei mit dem Begriff der emanzipatorischen Bewegungen (Weber (1920)). Dabei ist Lehren weder Programmieren mit fremdem Wissen, noch Beschreiben fremder Wirklichkeiten, sondern Erkenntnisvorgang und Veränderung des Lebens. Es liegt auf der Hand, dass das Bildungskonzept nach Freire mit der Ökonomisierung der Bildung und der Universität als Dienstleistungsunternehmen nicht nur in Europa kollidiert, sondern insbesondere auch fatale Folgen im internationalen Maßstab hat. 3. Strukturentwicklung und sog. kleine Fächer z. B. die Mineralogie In den klassischen und in den etwa seit dem 19. Jahrhundert differenzierten Fakultäten wird die 600-jährige Geschichte der Universität Leipzig von einzelnen Fächern und deren Protagonisten geprägt. Dies gilt u. a. für die Mineralogie, da an der Universität Leipzig vor 450 Jahren Agricola, der Begründer der Mineralogie, studiert hat, seit 200 Jahren die Mineralogie erst als Naturalienkabinett und seit 1842 mit einem Lehrstuhl vertreten ist und seit 50 Jahren materialwissenschaftliche Mineralogie und Kristallographie betrieben wird. Um diese Entwicklung zu verdeutlichen, sei auf Marksteine der letzten 40 Jahre in Deutschland hingewiesen, die einen Vergleich zwischen völlig unterschiedlichen ökonomischen und ideologischen Situationen ermöglichen. 1968 fand in der DDR die 3. Hochschulreform statt, die eine Reorganisation der Hochschulen und Wissenschaftseinrichtungen beinhaltete. Diese war definiert und geleitet durch planwirtschaftliche Verwertungsgesichtspunkte bei gleichzeitiger Einführung politischer Kontroll- und Parallelstrukturen. Hiermit gingen die verstärkte Marxismus Leninismus-Ausbildung und eine massive Fächerreduktion einher, der auch die Mineralogie in der DDR nahezu vollständig zum Opfer fiel. Die konkreten und übergeordneten Entscheidungszusammenhänge kamen einer Bankrotterklärung gleich, die letztlich zu den Voraussetzungen des Zusammenbruchs der DDR beitrugen.
Quantifizierte Stromlinienform oder diversifizierte Qualität
475
Kahlschläge dieser Art, wenn auch unter anderen systemischen Bedingungen, schienen nach der Wende kaum vorstellbar. So waren unmittelbare Nachwendevoraussetzungen für eine freiheitliche Forschung und Lehre neben demokratischen Strukturen die Rehabilitation von Fächern und die Festlegungen fächerspezifischer Personalausstattungen durch den Wissenschaftsrat. Die nach 1990 erfolgte Rehabilitierung sog. kleiner und in der DDR aus planwirtschaftlichen und Effizienzgründen liquidierten Fächer basierten auf Erfahrungsdaten der alten Bundesländer. Zu den Fächerrehabilitationen zählte auch die Mineralogie, die bei der Evaluation der Geowissenschaften sowie auch der Bauingenieure im Rahmen des Universitätsverbundes Halle-Jena-Leipzig 2001 bestens beurteilt wurde. Dennoch kam die sächsische Hochschul-Entwicklungsplanungskommission (SHEK) 2003 zu gegenteiligen Entscheidungen, so dass 2005 massive Stellenstreichungen folgten. Seither konnte dennoch durch Fachkompetenz, wissenschaftliche Reputation und inhaltliches sowie apparatives Engagement, außerordentliches persönliches Engagement und international anerkannte Forschungsanstrengungen die Mineralogie in Leipzig konsolidiert und ein MasterStudiengang „Mineralogie und Materialwissenschaft“ 2006 eingerichtet werden. Dieser baut auf dem Bachelor insbesondere der Chemie auf und trägt der historischen und aktuell innovativen Dimension des Faches und dem materialwissenschaftlichen Profil der Universität Leipzig Rechnung. Diese Konsolidierung des Faches wurde auch erreicht, indem mittels Ausbau der technischen Mineralogie und materialwissenschaftlichen Kristallographie sowie der Zusammenführung mit dem Bereich „Funktionswerkstoffe im Bauwesen“ eine besondere materialwissenschaftliche Kompetenz geschaffen wurde. Diese Kompetenz trägt auch zur Stärkung des Profil bildenden Forschungsbereichs 1 der Universität Leipzig bei. Damit hat die Mineralogie ausgehend von der historischen Basis der Naturwissenschaften über den Paradigmenwechsel und damit die Entwicklung von der beschreibenden zur experimentellen Wissenschaft geschafft. Heute hat die moderne Mineralogie in Leipzig einen festen Platz erreicht, die von anorganischen Rohstoffen bis hin zu mineralmimetischen Werkstoffen reicht und die in der Thermoelektrik und Photovoltaik, im Bereich Baustoffe und nanoskopische Glaskomposits anerkannt ist. Dennoch bleiben sog. kleine Fächer durch den dominanten Mitteleinsatz in den Massenfächern gefährdet. So schreibt Grigat (2008): „Wo das geringe Personal keinen eigenen Studiengang mehr betreuen kann, droht der Verlust des Nachwuchses und des Faches selbst und es muss die Frage nach der Bedeutung des Verlustes für die Universität und die Wissenschaft gestellt werden.“ Bisher wurden eher musische und geisteswissenschaftliche Fächer von technischen und naturwissenschaftlichen Bereichen zurückgedrängt und unter der Bezeichnung „Orchideenfächer“ diskreditiert. Die so oft geforderte Reaktionsfähigkeit der Wissenschaft auf unerwartete und neue Herausforderungen macht ein „Vorhalten“ von kleinen, sprich Orchideenfächern, wie dies am Beispiel der Sinologie im Zuge des politischen und wirtschaftlichen Aufstiegs Chinas erkannt wurde,
476
Klaus Bente
unerlässlich. Ihre Situation repräsentiert die Gefahr einer darüber hinausgehenden Reduktion der Fächervielfalt und von Lehrprofilen. Damit wird der Verlust der Besonderheit und von Alleinstellungsmerkmalen der einzelnen Universitäten befördert und die Stromlinienform der Hochschulen befördert. Auch hierdurch entsteht ein Alleinstellungsdefizit gegenüber den großen vom Bund finanzierten außeruniversitären Forschungseinrichtungen. 4. Der Bologna-Prozess Ziel des Bologna-Prozesses, dessen Grundlage keine EU-Verordnung, sondern eine Minister-Empfehlung im Jahre 1999 ist, sollte ein europäischer Bildungsraum sein, als auch als global einsetzbarer ökonomischer Konkurrenztool wirken. Bereits Anfang der 90er haben die GATS-Verhandlungen den „Globalen Bildungshandel“ gefordert und die EU verdeutlichte 1995 und 2000, d. h. nachfolgend auf die Bologna-Erklärung im „Memorandum über Lebenslanges Lernen“ (2000), folgendes: „Die Investitionen in die Humanressourcen sind deutlich [zu] erhöhen und damit Europas wichtiges Kapital – das Humankapital – optimal zu nutzen.“ Dies wird durch die Bund-Länder-Vereinbarung (2006) bestätigt, wobei das entscheidende Instrument zur optimalen Nutzung der Humanressource das Lebenslange Lernen (LLL) ist: „Lebenslanges Lernen ist nicht mehr bloß ein Aspekt von Bildung und Berufsbildung, vielmehr muss es zum Grundprinzip werden, an dem sich Angebot und Nachfrage in sämtlichen Lernkontexten ausrichten. Im kommenden Jahrzehnt müssen wir diese Vision verwirklichen. Alle in Europa lebenden Menschen – ohne Ausnahme – sollten gleiche Chancen haben, um sich an die Anforderungen des sozialen und wirtschaftlichen Wandels anzupassen und aktiv an der Gestaltung von Europas Zukunft mitzuwirken“ (Witsch (2008)). Es gilt die wirtschaftsliberale Forderung, nach der der Staat nicht in das Marktgeschehen eingreifen soll. Je stärker jedoch die Bildung ökonomisiert wird, desto privater wird sie gestaltet und damit zieht sich der Staat auch aus seinen traditionellen Feldern der Sozial- und Bildungspolitik zurück. Dennoch soll er disziplinierend das den neuen Strukturen angemessene Anpassungsverhalten, Lernen und Arbeiten der „neuen Menschen“ über das lebenslange Lernen sicherstellen. Diese grundlegenden Veränderungen führen in Folge des Bologna-Prozesses hinsichtlich der Bachelor-Master-Studiengänge einmal zur Übernahme hoheitlicher Aufgaben durch die Akkreditierungsagenturen. Zum andern werden trotz gegenteiliger Beteuerungen Quantitätskontrollen und ausufernde Prüfungen anstatt Qualitätssicherungen vorgenommen. Obwohl eine vom work-load der Studenten ausgehende inhaltliche Vergleichbarkeit der Abschlüsse durch Modularisierung erreicht werden sollte, war bereits zu Beginn bekannt, dass eine Vergleichbarkeit der Struktur, Qualität und Abschlüsse des Bachelor nicht einmal zwischen und in den anglophonen Staaten gegeben war.
Quantifizierte Stromlinienform oder diversifizierte Qualität
477
Den zunehmenden Problemen der Studierbarkeit und der Prüfungsflut in den Bachelor-Studiengängen gelten seit 2008 zunehmend heftige Studentenproteste. Diese wurden zu Beginn von der Politik als Ausdruck gestriger Forderungen dequalifiziert und der Bologna-Prozess dagegen ausdrücklich gelobt. Die Novemberproteste in 2009 hingegen erfuhren nur scheinbar unerwartet allgemeine Zustimmung aus Politik und Hochschulen. Nach der in Leipzig stattfindende HRK wurde allerdings die Hauptverantwortung für die Bologna-Fehlentwicklungen von den Hochschulen der Politik und umgekehrt zugeschoben. Wesentliche Ursachen für die Fehlentwicklungen in der Lehre waren in Deutschland die vorauseilende Liquidierung der weltweit anerkannten Diplomabschüsse und das Primat der „Durchprüfung“ der Studiengänge ohne Rücksicht auf Studierbarkeit. Dabei wurde Verwertungsinteressen folgend nahezu ausschließlich auf Selektion und Studienzeitverkürzung abgehoben. Im Jahre 2006 hat die Bund-Länder-Vereinbarung den Ländern zwar die Bildungshoheit zugebilligt, aber gleichzeitig die Finanzkraft des Bundes für die Exzelleninitiative eingesetzt. Beim zeitgleichen Hochschulpakt in Sachsen führten Einsparungen zum Ausbluten des Personalbestandes und Restmittelkonzentrationen. Die top down Strukturen des Sächsischen Hochschulgesetzes (Sächs-HG) 2009, d. h. ohne Konzil als politisches Diskurs- und Entscheidungsinstrument, aber mit verstärkten Befugnissen des Rektorats und dem Hochschulrat als Pendant zu einem Aufsichtsrat sind für die Universitas ungeeignet. Der Bologna-Prozess wurde insbesondere in Deutschland entgegen einer schon zu Beginn formulierten heftigen Kritik als kleinteilige, kontrollorientierte und zentralisierte Lehrstruktur durchgesetzt. Selbst positiv angesetzte Möglichkeiten der Vergleichbarkeit, Schlüsselqualifikationen und Mobilität wurden im Zuge der Umsetzung des Prozesses außer Kraft gesetzt. Statt Qualitätsentwicklung und Sicherung von freiheitlicher Forschung und Lehre wurden Evaluationen, Rankings und Controlling eingeführt und Berufsfertigkeiten, statt Berufsfähigkeiten in den Vordergrund gestellt. TalkShow-Diskurse verdecken nur ungenügend die wahren Beweggründe von Controlling als Unterordnungsrituale und Evaluationen als Gehorsamkeitsübungen, deren Inhalte eher zum Füllen von Fragebögen dienen. Entscheidungen werden meist am grünen Tisch gefällt. Bürokratismus und neoliberales Management bilden eine dabei unselige Allianz. Aktuelle Forderungen nach Forschung- und Ausbildungsrendite stehen diametral nachhaltigen Bildungsansprüchen gegenüber, die auf Sachkompetenz, Versuch und Irrtum, Kritikfähigkeit, Urteilsvermögen, Erkenntnis, Erfahrung der terra incognita, volkswirtschaftlichem Nutzen und Weltbürgertum ausrichtet sind. Der Bologna-Prozess hat zu einem „enormen Effizienztrip“ (Heilemann / Diedrich (2009)) und zu einem „volkspädagogischen“ Leitbild des „unternehmerischen Menschen“ geführt, wobei der Mensch hinter Vorschriften sowie technokratischen Strukturen zurücktritt.
478
Klaus Bente
In der nicht erst seit den Studentenprotesten im November 2009 formulierten Kritik der „Uni Bolognese“ werden zwar technisch-praktische und ökonomische Überarbeitungen insbesondere der Randbedingungen durch das BAFÖG gefordert, jedoch keine grundlegenden Änderungen in Angriff genommen. So stehen ausreichende personell und materiell an Lehre und Forschung sowie an verwalterischen und organisatorischen Aufgaben orientierte Grundausstattungen nicht auf der Tagesordnung. Auch die zunehmende Aufsplittung der Hochschullandschaft in prosperierende Eliteuniversitäten und strukturschwache Institutionen wird nicht problematisiert. Die Ankündigungen höherer BAFÖG-Sätze für 2010 entspricht den seit Jahren geforderten ökonomischen Anpassungen, nehmen allerdings den Status des für viele Studenten geltenden Teilzeitstudiums nicht wahr. 5. Hochschulsituation Ende 2009 Die, wenn auch zeitlich zufällige, Koinzidenz des Kongresses „Ökonomisierung der Wissensgesellschaft“ mit den studentischen Protesten im November 2009 verdeutlicht die Virulenz der Bildungs- und Ausbildungsprobleme des Bologna-Prozesses. Während noch 2008 die studentischen Proteste auf wenig Verständnis insbesondere der Politik stießen, wird nun massive Kritik in allen gesellschaftlichen Bereichen laut. Dabei beinhalten die Forderungen nach Reform des Bologna-Prozesses sowohl strukturelle und Regeländerungen als auch konkret pragmatische Ansprüche, die sich als „not embedded“ bzw. „embedded problems“ beschreiben lassen. Obwohl die Bologna-Erklärung von 1999 nur empfehlenden Charakter hatte, wurden gleichsam EU-dekretorisch und verschärft durch die Bundesländer und die einzelnen Universitäten die neuen Strukturen bis in die Fächer durchgereicht bzw. durchgesetzt. Kritiken und Hinweise auf die problematischen Grundlagen und ihre Durchsetzungsfolgen liefen ins Leere. Auf die im November 2009 massiven Studentenproteste wurde in Leipzig sachorientiert und besonnen reagiert. Während noch 2007 Ministerin Schavan von Streiks der Gestrigen sprach und den Bologna-Prozess lobte, hat sie inzwischen Verständnis für die Studentenstreiks und stellt Nachbesserungen in Aussicht. Noch nach der Hochschulrektorenkonferenz in Leipzig im November 2009 gab es keine Einigkeit über Verantwortungen zwischen Politik, Länder- und Bundesebene sowie den Universitäten. Dennoch hat bereits im Dezember 2009 der Akkreditierungsrat und die KMK (Kultusministerkonferenz) entschieden, dass u. a. die Regeln für die Akkreditierung von Studiengängen zu überarbeiten sind und dabei u. a. verlangt, dass „jedes Modul in der Regel mit nur einer das gesamte Modul umfassenden Prüfung abgeschlossen wird“. Dies führt die Mitteilungen der Bundesministerin Schavan vom November 2009 fort, die eine Entschlackung der Studiengänge hinsichtlich zu vieler Prüfungen und der Aufstockung der Bachelor-Studiengänge bis auf acht
Quantifizierte Stromlinienform oder diversifizierte Qualität
479
Semester beinhaltet. Diese Möglichkeiten bestanden allerdings bereits in der Bologna-Empfehlung, wurden jedoch von vorauseilenden Perfektionisten in den Bundesländern und Hochschulen trotz aller Warnung mittels top-down-Verfügungen durchgesetzt. Zudem wurden Hineise ignoriert, dass Bologna zwar eine Modularisierung, nicht aber eine damit unmittelbar zu verbindende Einführung von Bachelor- und Masterstudiengängen statt der Diplomstudiengänge beinhaltet. Auch das Bemühen z. B. in Sachsen um Übergangsmöglichkeiten zwischen Diplomstudien- und Bachelor- bzw. Masterstudiengängen blieb unberücksichtigt. Die im Dezember 2009 erfolgten Vorgaben der KMK entsprechen pragmatischen Forderungen, die in der Mehrzahl der Beiträge beim Kongress „Ökonomisierung der Wissensgesellschaft“ in Leipzig hinsichtlich der Studierbarkeit der BachelorStudiengänge als praktisch notwendig erachtet wurden, stellen allerdings keine prinzipielle Kurskorrektur in der Bildungspolitik dar. 6. Studiensituation Entgegen einer Reihe wohlgemeinter Perspektiven wurden die Bachelor- und Masterstudiengänge in ihrer konkreten und allgemein gültigen kleinteiligen Struktur zu einem Symptom der Ökonomisierung und Stagflation. Es hat sich gezeigt, dass Akkreditierungen teuer, zeitaufwendig, unflexibel sind, ein zu hoher Prüfungsaufwand für Studenten und Prüfen erforderlich ist, eine Dequalifizierung der Ausbildung stattfindet, weniger Ortswechsel und weniger Auslandsaufenthalte möglich sind und eine geringe Akzeptanz der B. Sc. Abschlüsse besteht. Restriktionen des Einstiegs in den Master haben die Studierbereitschaft erniedrigt, die Formalisierung durch die Computerisierung (HIS) des Studienablaufes hat kaum beherrschbare Strukturen geschafft, die Flexibilität der Studenten und Hochschullehrer wurde reduziert und trotz bzw. wegen extremen Prüfungsaufwandes bleiben Mess- und Vergleichbarkeiten studentischer Leistungen aus. Die Rendite orientierte Umstrukturierung des Studiums führt nicht nur zu Erosionen der individuellen Bildungs- und Ausbildungsqualität, sondern reduziert die Fächervielfalt zugunsten sog. Kernfächer. Der Bologna-Prozess ruft also nicht nur einen individuellen Anpassungsdruck hervor, sondern erzeugt auch einen strukturellen Konformismus der Fächer (vgl. Güntner (2006)). In diesem letztlich ökonomisch begründeten strukturellen Zusammenhang werden Studierende zwangläufig als Kunden bzw. Konsumenten definiert und damit nicht nur Studiengebühren begründet, sondern die Beziehung zwischen Lehrenden und Lernenden neu bestimmt. 7. Konkurrenz und Exzellenz Die Universitäten und Hochschulen werden, ausgelöst durch den Bologna-Prozess, der die bildungsökonomische Konkurrenzfähigkeit Europas zur Grundlage
480
Klaus Bente
hat, in hierarchische Behörden transformiert. Gleichzeitig werden kurzfristige Gewinn- bzw. Erfolgserwartungen wie in Wirtschaftsunternehmen auf die Hochschulen übertragen. Ausdruck hierfür ist die Exzelleninitiative des Bundes, in der die Natur-, Ingenieur- sowie Medizinwissenschaften dominieren. Dabei führt die Konkurrenz um einen Elitestatus nicht nur zwischen Hochschulen, sondern insbesondere innerhalb der Hochschulen zu Verteilungskämpfen und Übervorteilungsstrategien. Die geographische Verteilung von Eliteuniversitäten und Exzellenzinitiativen (vgl. Füller (2006)) bildet die ökonomischen Süd-Nord- und West-Ost-Gefälle in Deutschland ab. Sie belegt die ökonomisch-wissenschaftlichen Infrastrukturmaßnahmen der letzten 40 Jahre, die den aktuell „rein“ wissenschaftlich begründeten Exzellenzen ausgehend von Kernforschungszentren und regionalen Hochschulinvestitionen im Süden und Südwesten Deutschlands Rechnung tragen. In den neuen Bundesländern wurden keine Eliteuniversitäten ausgelobt. In den strukturschwachen Gebieten können langfristige und nachhaltige Perspektiven der Bildung durch kurzfristige Investitionen wie durch Konjunkturprogramme in 2009 nicht erzeugt werden. Diese Entwicklung wird durch die Bund-Ländervereinbarung von 2006 verstärkt, da die Länder trotz ihrer Bildungsverantwortung leere Kassen verwalten, während der Bund nicht nur die Eliteuniversitäten, sondern insbesondere die Leibniz-, Fraunhofer- und Max Planck-Institute und Großforschungseinrichtungen sowie die Kernforschungszentren etc. bestens ausstattet. Die im Dezember 2009 durch den Akkreditierungsrat vorgegebenen Reformen des Bolognaprozesses erfolgten wie auch schon die Bologna-Erklärung 1999 ebenfalls zentral, d. h. auf Bundesebene. Damit wird die Bildungshoheit der Bundesländer, die bereits durch die Mittelvergabe im Rahmen der Exzellenzinitiative durch den Bund de facto ausgehebelt wird, erneut übergangen. Parallelstrukturen, die u. a. auf den zentralen Exzellenzinitiativen basieren, fungieren lokal als ökonomische Beschaffungstools, die die bestehenden Wettbewerbsverzerrungen verschärfen. Wie bereits oben ausgeführt wird damit die Wissensproduktion an ökonomische Sachzwänge angepasst und die hierauf basierende Lehre auf Beschäftigungsfähigkeit reduziert. In Folge dessen wird das Leitbild des homo faber durch das des homo oeconomicus ersetzt, der die „Bildung als Ware“ (Hirsch (2006), Kaindl (2006)) für partikulare Interessen definiert. Eine Klärung hierfür liefern Klausenitzer / Ball (2006), nach denen sowohl die Ungleichheit als auch Marktelemente im Bildungssektor zunehmen, um die nationalen Strategien zur Wettbewerbsposition der jeweiligen Nationalökonomie auf dem Weltmarkt zu verbessern. Gleichzeitig proklamieren die Befürworter dieser Dezentralisierungs- und Privatisierungspolitik auch qualitative Verbesserungen im Hinblick auf höhere Effizienz und bessere Ergebnisse bei gleichzeitiger Verringerung von Personal und Kosten. Auch in Deutschland ist dies das Credo der gegenwärtigen Bildungspolitik, die entsprechend dem Postfordismus der angebotsorientierten Politik öffentliche Dienstleistungen und soziale Sicherungssysteme als Faktoren definiert, deren Kosten zu minimieren sind. Dies wird
Quantifizierte Stromlinienform oder diversifizierte Qualität
481
durch Einsparungen, Umstrukturierungen, Ausgliederungen, Privatisierung und Entdemokratisierung der Bildungssysteme sowie durch die Entlassung z. B. der Universitäten in die Vollrechtsfähigkeit mit weitreichender „Autonomie“ erreicht. Diese nationalen Strukturen münden in eine globale Trendwende gesellschaftlicher Regulationsmodelle. Mit der Übertragung wirtschaftlicher Steuerungsregularien auf Wissenschaft und Bildung werden diese Bereiche uniformiert, wenn nicht gar deformiert. Durch Steuerungsdilemmata (Mayntz (2009)) hervorgerufene strukturelle und individuelle Disfunktionen können nur durch systemische, „un-ökonomische“, aufgefangen werden, die an der Qualität wissenschaftlicher Arbeit ausgerichtet sind. Die massiven Konkurrenzbedingungen an Universitäten und Forschungseinrichtungen tragen neben individuellen Ursachen letztlich auch zu wissenschaftlichem Fehlverhalten (vgl. Redman / Merz (2008)) bei, dem durch entsprechende ethische Grundsätze zu guter wissenschaftlicher Praxis z. B. durch die DFG und an Universitäten entgegengetreten wird. 8. Qualitätssicherung und Evaluation Gesellschaftlich-ökonomistische Regulierungsmodelle präferieren Effizienzaspekte, die Qualitätssicherungen durch Evaluationen realisierten. Entsprechende Kontrollen nehmen Bewertungen von Personen, Sachen bzw. Eigenschaften von Sachen nach allgemein gültigen betriebswirtschaftlichen Kriterien vor. Die daraus folgende Einschätzung der Güte schließt allerdings die für den Bildungsbereich unerlässlichen Ansätze von Versuch und Irrtum, von Hypothesen und langfristiger Persistenz, von Verifikationen und Falsifikationen sowie Theoriebildung und kritische Verwertungsaspekte aus. Zudem müssen sich effektive Bildungsgestaltungen an der Transparenz und Variabilität einer kooperativen Struktur von Bildungsphilosophie und Bildungsforschung erweisen und qualifizierend handhabbar sein. Im Gegensatz zu diesen bildungsorientierten Ansätzen werden ökonomisierten Beurteilungsverfahren etablierten Effektivitäts- und Effizienzinstrumenten aus der Betriebswirtschaft entliehen. Damit ist ihre Funktion vergleichbar mit der von Unternehmensberatern für die Quantifizierung und Optimierung von Renditen, die den Nachweis einer zunehmenden Ökonomisierung von Bildungseinrichtungen (vgl. Schmidt (2006)) belegen. Entsprechende Evaluationen können exemplarisch den folgenden Systemen und Ansätzen zugeordnet werden (Wolter (2009)): − CHE: rein neoliberale betriebswirtschaftliche Struktur − ISO 9001: statistische Struktur für Sozial- und Bildungssysteme (Rahayel (2009)) − Ranking: Momentaufnahmen zur Verstärkung der Konkurrenz und Angsterzeugung − EFQM: Dynamische Struktur für Sozial- und Bildungssysteme (Binner (2006))
482
Klaus Bente
− Akkreditierung: Rückzug des Staates aus Verantwortung – freies Spiel der Kräfte. Typische Effizienzprüfungen (vgl. Koch (2004)) an Hochschulen lassen sich z. B. an folgenden Stereotypen festmachen: − Wie viel Immatrikulationen im Bachelor-Studiengang (nicht Masterstudiengang) liegen vor? − Wie viele Studierende erreichen nach welcher Zeit welchen Abschluss? − Wie viele Promotionen / Habilitationen können nachgewiesen werden und innerhalb welcher Bearbeitungszeit? − Anzahl und Budget eingeworbener Drittmittel? − Anzahl von Publikationen? − Welches Berichtswesen wird eingefordert? − Welche Zielvereinbarungen liegen vor bzw. werden erfüllt? Die Grundlagen solcher ökonomistischer Befragungen konterkarieren für Forschungskonzepte sinnvolle und angemessene inhaltliche und Zeitmanagements. Während ökonomische Ansätze schnellstmöglich erreichte Effizienzen auf der Ebene der Phänomene nutzen, erfordern und vermitteln wissenschaftliche Ansätze tiefer gehende Ursache-Wirkungsbeziehungen, die durch die Suche nach Wahrheit motiviert sind und nachhaltige Erkenntnis- und Kulturleistungen erbringen. Hingegen drängt der Markt nach kurzfristigen Erfolgen, rentablen Ausgründungen, potenten Patenten, privater Aneignung von Wissen und Lizenzen, während in der Wissenschaft kollektive Aneignungen, langfristige Planungen, grundlegende Erkenntnisse und nachhaltige Bildungsziele im Vordergrund stehen. Das von den Hochschulen angestrebte wirtschaftliche Handeln und die entsprechende haushalterische Vernunft werden durch zunehmende Bürokratisierung und Zentralisierung ausgehebelt. Um diesen Hindernissen entgegen zu wirken und die Verwaltung zum Nutzen von Lehre und Forschung zu garantieren, werden Regelverletzungen kaum zu verhindern sein (vgl. Ortmann (2003)). 9. Ökonomisierung und Hochschulstruktur Die durchgreifende Ökonomisierung der Bildung und der Hochschulen hat Gewinner und Verlierer zur Folge, die bereits anhand der Verteilung der Exzellenzen deutlich werden. Allgemein ist allerdings eine „Stagflation“ festzustellen, die die defizitären Folgen der Ökonomisierung verursacht. Diese Stagflation setzt sich aus inflationären Entscheidungskonzentrationen, Verwaltungen und Vorschriften sowie der Stagnation von Kreativität, Entfaltung, Erkenntnisschüben, Perspektiven zusammen. In den entsprechenden Strukturen hat das Leitbild des „homo oeconomicus“ zur Folge, dass die sozialen Kompetenzen dienenden Schlüsselqualifikationen zu Karrieretools transformiert werden, die durch den
Quantifizierte Stromlinienform oder diversifizierte Qualität
483
Warencharakter der zwischenmenschlichen Beziehung (vgl. Duhm (1972)) bedingt werden. Die Bringschuld der Wissenschaft gegenüber der Gesellschaft (vgl. Schmidt (1975)) fällt unter diesen Bedingungen Kriterien anheim, die kleinste Kosten-Wirksamkeits-Quotienten zum Maßstab haben. So geht Klausenitzer (2003, 2006) davon aus, dass die „neoliberale Wissensgesellschaft das Ziel der Bildung in der Vermittlung von Beschäftigungsfähigkeit unter ökonomischen Sachzwängen sieht“. Dabei ist die Stärkung zentraler Kapazitäten, operative Dezentralisierung, Privatisierung, Public-Private-Partnership und Nutzergebühren dominant. Effektivität und Effizienz, die die Ökonomie mit verantwortlichem Haushalten verbindet, muss nicht notwendigerweise an eine ökonomische Zweckbindung gekoppelt sein. Während im Normalfall Wirtschaftlichkeit von Projekten durch Kosten über Marktpreise geregelt wird, bleibt Effizienz, wenn sie nicht nach monetär messbare Größen zu beurteilen ist, wie dies z. B. für Menschenleben, Bildung, Soziales, Wissen, Forschung etc. gilt, bildungspolitisch zu füllen. Entgegen scheinbar zwangläufig technokratischer Quantifizierungen existieren im Wissensbereich Möglichkeiten der Qualitätsmessung wie z. B. Bibliometrie (Impact-, H-factor, citation index u.ä.), fachorientierter Vergleich von Abschlussarbeiten und Erkenntnispotentiale im internationalen Maßstab sowie die mit Erfahrungswerten wie z. B. des Wissenschaftsrats 1991, die bei der Reorganisation der Hochschulen in den Neuen Bundesländern (NBL) mit dem Verhältnis Wissenschaftler plus Professoren zu Studenten plus PhDs aufgezeigt wurde. Stattdessen werden aktuell rein rechentechnische Beurteilungen von Etats und Ausstattungen der Hochschulen über die Höhe der Drittmitteleinwerbungen und Studentenzahlen im Bachelor angesetzt. Dabei dominieren zwangsläufig Begriffe wie Messen – Vergleichen – Ranking, die je nach Ansatz und Absicht zu unterschiedlichsten Ergebnissen führen (The Times Higher World University (2009), DFG Statistik (2009)). Diese Ansätze und Rechenspiele haben zu massiven Reduktionen der Mittelzuweisungen an die „normalen“ Hochschulen geführt, die kaum bzw. nicht mehr bewältigbare Belastungen durch weniger Personal, weniger laufende Mittel, weniger Grundausstattungen bei immer mehr Lehrverpflichtungen ausgelöst haben. Weitere Überlastungen entstanden aus zunehmenden Verwaltungsaufgaben, steigender Prüfungsflut, organisatorischen Mehraufwendungen für Mittelbeschaffungen, ausufernden Berichtspflichten und immer wieder neuen Evaluation- und Marketingaufgaben. Gerade die Reduzierung wissenschaftlicher Mitarbeiterstellen und zudem die mehrheitliche Umwandlung der verblieben unbefristeten in befristete Beschäftigungsverhältnisse führen zu Existenz gefährdenden Situationen in Forschung, Lehre und in wissenschaftlich-technischen Bereichen. Da zudem die Qualifizierungsmöglichkeit der wissenschaftlichen Mitarbeiter durch ständige Überlast reduziert wird, wird auch der wissenschaftliche und Hochschullehrernachwuchs
484
Klaus Bente
zunehmend ausgedünnt. Forschungsaufgaben werden unter diesen Bedingungen zunehmend von Doktoranden übernommen, die nur relativ kurzzeitig in den Instituten und primär für ihre Qualifizierung arbeiten, so dass auch dadurch die Kontinuität gerade bei experimentell und apparateintensiven Einrichtungen nicht nur grundsätzlich, sondern auch konkret ad absurdum geführt wird. Zur Bewältigung der Aufgaben ist eine pragmatische Lösung die Aufhebung der Trennungen von Personaletat und anderer Titelgruppen. Zudem ist eine dezentrale Verwaltungspräferenz dringend geboten, um Aufgaben orientierte Flexibilität zu gewährleisten und den bürokratischen „Wasserkopf“ abzubauen. Zudem sind dezentral technische und verwalterische Personalkonzepte zu entwickeln, die kontinuierliche Aus- und Weiterbildungen sowie technische Eigenleistungen der Hochschulen zur mittel- und langfristigen Finanzreduzierung ermöglichen. Zentralisiert bürokratische Anweisungsbefugnisse sind durch Sachkompetenz bezogene Verantwortungsstrukturen zu ersetzen. Im Zuge dieser Entwicklung werden Forschungsaufgaben zunehmend von Doktoranden übernommen. Hierbei werden Überforderungen besonders deutlich, da Doktoranden nicht leistbare Kontinuitäten leisten sollen und dabei nicht nur schlecht, sondern auch sehr unterschiedlich bezahlt werden. Doktoranden werden in den Natur- und Ingenieurwissenschaften im Durchschnitt um ca. ¼ besser bezahlt als in den Geisteswissenschaften. Zudem werden in den Naturwissenschaften Doktoranden aufgrund der Zufälligkeit jeweils vorhandener Stellen selbst innerhalb einzelner Institution uneinheitlich und z.T. unter der Armutsgrenze von 781,– Euro (Armutsbericht der Bundesregierung (2007)) bezahlt, wie aus den nachfolgenden, genäherten Nettogehalten (Neue Bundesländer, Stand 2008) hervorgeht: − − − −
Alternative Alternative Alternative Alternative
1: 2: 3: 4:
Schlumberger Stipendium max. 2100,– Euro ½ E13 1400,– Euro DAAD Stipendien 1100,– Euro Doktorandenförderplatz aus Haushaltsmitteln 700,– Euro.
Auch hinsichtlich der nicht unerheblichen Zahl von nichtakademischen Mitgliedern an den Hochschulen führt der zunehmende ökonomische Druck zu erheblichen Problemen. Wolter (2009) sowie Banscherus et al. (2009) beleuchten diese Gruppe, d. h. Verwaltungs-, Bibliotheks- und technisches Personal etc., wo Personalabbau und Umstrukturierung überproportional erfolgen und durch Zentralisierung von Werkstätten und von Verwaltungsaufgaben sowie die Reduktion von Auszubildenden und die Erhöhung der Praktikantenzahl. Die Folge ist die Auftragsvergabe an Dritte, was kurz- und langfristig mit Kostenerhöhungen verbunden ist und dabei kontinuierlich zu leistende technische Gerätebetreuungen und der Gebäude massiv gefährdet. Auch hier werden, auf lange Sicht betrachtet, Betriebwirtschaftlichkeiten missachtet, wenn kurzfristig Personalkos-
Quantifizierte Stromlinienform oder diversifizierte Qualität
485
ten eingespart werden. Auch sind die Aufstiegschancen im nichtakademischen Bereich gering.
III. Alternativen 1. Forschung Bedenkt man die Innovationsrealität der Großunternehmen, die neben eigener F&E seit Jahren zunehmend BMBF-Projekte in Anspruch nehmen, wird deutlich, dass trotz gegenteiliger Äußerungen indirekte staatliche Subventionen wahrgenommen werden. Beispielhaft kann dies an der Förderung in Bayern gezeigt werden, wo massiv Mittel des Bundes im Freistaat eingesetzt wurden. Dies trifft z. B. auf das Photovoltaik-Projekt FORSOL (1994 – 1999) zu, das zu je 50% vom Bund finanziert wurde. Dieses Projekt wird heute ausdrücklich hinsichtlich der Grundlagen des Elitenetzwerk und damit als Basis zur Bewilligung der Eliteuniversitäten in München genannt, was die Nachhaltigkeit langfristig angelegter Länderpolitik und entsprechend eingesetzter Mittel beweist. Neben der Grundlagenforschung müssen angewandte und industriekooperative Projekte durch ausreichende Grundausstattungen gegeben sein. Zur strukturellen Stärkung von Kooperationsprojekten universitärer Einrichtungen mit der Industrie müssen Wege gefunden werden, die auch KMUs eine Chance geben. Dies ist nur möglich, wenn Universitäten ihre Erstmittel in Projekte z. B. des BMBF (Bundesministerium für Bildung und Forschung) einbringen können. Denn in BMBF und in gemeinsamen Projekten von BMBF und DFG (Deutsche Forschungsgemeinschaft) müssen Unternehmen nach wie vor nicht nur 50 % Eigenleistung erbringen, sondern letztlich auch 50% der universitären Projekte mit übernehmen, da die Universitäten keine Erstmittel in die Berechnungsgrundlagen einbringen dürfen. Es ist hier zu fordern, dass die Universitäten entweder ihre Erstmittel einbringen dürfen oder universitäre Projekte zu 100 % befördert werden. Die aktuellen Regularien schwächen nicht nur universitäre Projektpartner, sondern auch KMUs (Kleine und Mittlere Unternehmen), die üblicherweise nur relativ geringe Liquiditäten und Rücklagen insbesondere in den NBL besitzen. Dies traf z. B. auf das vom BMBF geförderte INNOCIS-Projekt (Wachstumskerne 2001 – 2003) zu, wo nach drei Jahren erfolgreicher Arbeit die KMU-Partner die Gesamtlast der 50% nicht mehr schultern konnten. Damit war eine Verlängerung ausgeschlossen, so dass ein wesentlicher nachhaltiger Innovationsschub in der Region Leipzig ausblieb. Alternativ sollten statt Konzentrationen der Forschungsmittel auf Großprojekte (vgl. Grigat (2008a)) mit stromlinienförmiger ökonomischer Ausrichtung mehr Einzelprojekte mit Risikocharakter gefördert werden, wie es der Präsident der DFG bei der Jahresversammlung in Leipzig 2009 gefordert hat. Zur Nachhaltigkeit von Industrieansiedlungen insbesondere in den neuen Bundesländern sind
486
Klaus Bente
dezentrale Ausgründungshilfen des Staates mit Überbrückungskrediten und längerfristige Bereitstellungen von Risikokapital gerade für KMUs zu ermöglichen. Konzentrationen in der Wissenschaft und Bildung sind ebenso wenig ein alleiniges Konzept, wie völlige Dezentralisierungen und Kleinteiligkeiten von Universitäten und Hochschulen, da kritische Massen in den Fächern nicht unterschritten werden dürfen und zentrale Einrichtungen wie Bibliotheken, Rechenzentren etc. Mindestgrößen haben müssen. Ein Beispiel für die Notwendigkeit von überregionalen Zentren sind z. B. Kernforschungszentren. Diese Zentren benötigen existenziell Projekte und Wissenschaftler, die aus unterschiedlichsten Bereichen, Regionen und Wissenschaftszweigen kommen. Dass solche Zentren nur an wenigen Stellen konstruierbar, finanzierbar sowie infrastrukturell möglich und regional begründbar sind, ist zugleich ein Beweis dafür, dass nur eine finanziell und infrastrukturell ausgewogene Mischung von Zentralisierung und Dezentralisierung wissenschafts-, regional-, und wirtschaftspolitisch erfolgreiche Perspektiven schaffen kann. Diese Erfahrungen müssen auch für die Infrastruktur von wissenschaftlichen und Hochschuleinrichtungen gelten. Hierzu sind konkurrenzfähige Grundausstattungen und die Fächervielfalt der Hochschulen und Universitäten zu garantieren. 2. Lehre Die langjährigen, auch positiven, Erfahrungen zu den durchaus reformreifen Diplom-, Magister- und Staatsexamensstrukturen wurden durch eine kleinteilige und verschulte Umsetzung der Bologna-Erklärung in Deutschland zu einer durch eine Prüfungsflut und Reglementierung hervorgerufene „Unbewältigbarkeit“ und „Unstudierbarmachung“ ersetzt. Dabei wurden die Ziele von mehr Flexibilität, kürzeren Studienzeit etc. konterkariert und eine übermäßige Bürokratisierung hergestellt. Die ursprünglich ausschließlich in Module zu gliedernden Studiengänge wurden in Bachelor- und Master-Studiengänge gepresst, wobei zwischen diesen und weiter bestehenden Diplom-Studiengängen kein Wechsel möglich ist. Die inzwischen vorliegenden Erfahrungen mit den Bologna-Folgen lassen folgende zu empfehlende Schlussfolgerungen zu: − Klare Strukturierung der Studiengänge und deutliche Abgrenzung der Studiengänge an Fachhochschulen (Berufsfertigkeit) und Universitäten (Berufsfähigkeit). − Stärkere, d. h. vollständige finanzielle und Fachautonomie der Hochschulen sowie Eigenverantwortung der Fächer. − Angemessene Grundausstattung von Personal, Geräten, Bibliotheksausstattungen und laufenden Mitteln. − Durchlässigkeit zwischen Diplom-Studiengängen und Bachelor- bzw. MasterStudiengängen. − Anwendung von BAFÖG für Studenten in Master-Studiengängen.
Quantifizierte Stromlinienform oder diversifizierte Qualität
487
− Verwaltung der Leistungs- und Prüfungsangelegenheiten in den Lehreinheiten. − Entweder Erhöhung der Qualität der Bachelor-Arbeiten oder deren Abschaffung − Variable Dauer von Bachelor- und Master-Studiengänge. − Die bisherigen Prüfungen der Module werden als Leistungsnachweise und damit als Prüfungsvorleistung für Bachelor- und Masterabschlussprüfungen definiert. − Zur Erlangung des Bachelor bzw. Master sollen statt der aufwendigen Modulprüfungen vier mündliche bzw. schriftliche Abschlussprüfungen stattfinden, die jeweils zusammenzufassenden größeren Teilbereichen entsprechen. Diese Prüfungen können nach Abschluss der jeweiligen Teilbereiche, für die alle entsprechenden Leistungsnachweise vorliegen, abgeleistet werden. − Durch die Prüfungsreduktion werden Personalaufwendungen frei, die den Fächern zugeführt werden könnten. − Grundsätzlicher Zugang von Bachelorabsolventen zum Master-Studium sowie uneingeschränkter Zugang zum Master für Bachelorabsolventen nach mindestens zweijähriger Berufstätigkeit. − Verbleib des ausschließlichen Promotionsrechts an akademischen Hochschulen und Universitäten. Es ist eine Reform der Bachelor- und Masterstudiengänge dringend geboten, um Flexibilisierung, Fächervielfalt, Vergleichbarkeit der Abschlüsse und unterschiedliche Lehr- und Lernkulturen zu ermöglichen. Um eine Fokussierung von Lehrenden und Lernenden auf individuelle und kollektive Prozesse der Erkenntnis- und Wissensaneignung zu fördern, statt permanenten Evaluationen und Kontrollen zu erliegen, ist eine Reform des sog. Bologna-Prozesses notwendig. 3. Infrastruktur Wenn die Hochschulen den veränderten gesellschaftlichen Bedingungen innovativ und eigendynamisch entgegentreten und ihrer Autonomie und der wissenschaftlichen Erkenntnis verpflichtet agieren wollen, müssen sie den wissenschaftlichen Ansprüchen auf Eigenverantwortung, Veränderung und Umdenken nicht nur in Lehre und Forschung, sondern auch organisationsbezogen gerecht werden (vgl. Peschke (2007)). Um Stagflation und Bürokratisierung entgegenzuwirken, müssen die Akteure die hochschulspezifischen, sprich „embedded problems“ durch eine strategische Kongruenz von Aufgabe, Kompetenz und Verantwortung sowohl auf der Ebene der Entscheider als auch der Ausführenden lösen.
488
Klaus Bente
4. Allgemein Betrachtet man die aktuelle Hochschulsituation als ein „not embedded problem“, dann ist eine grundlegende Bildungsdiskussion notwendig, die auch die durch die PISA-Studie ausgelöste schulische Bildung einbezieht. Entsprechende Probleme sind anders als innerhalb von Wirtschaftsunternehmen gesamtgesellschaftlich zu lösen (vgl. Ruhloff (2006)). Einen Anstoß zur Diskussion an Hochschulen könnte die Gegenüberstellung folgender Kontrapunkte geben: „Uni Bolognese“
Universitas
Ausbildungsziele
Bildungsziele
Fachkompetenz
Interdisziplinarität
Berufsfertigkeit
Berufsfähigkeit
Private Aneignung
Kollektive Aneignung
Patente / Lizenzen
Allgemeiner Wissenszugang
Quantifizierung
Qualität
Anpassung
Emanzipation
IV. Fazit Nach Max Weber (1920) haben Verfremdungsstrukturen immer auch emanzipatorische, den Verfremdungen entgegenwirkende Bewegungen zur Folge. Solche Bewegungen nutzen Bildungsbegriffe, die der von Weber (1920) definierten Strategie der Herrschaft im Wirtschaftsleben, die „sich im Wege der ökonomischen Auslese die Wirtschaftssubjekte schafft“, entgegen treten. Hierfür böte die wohlverstandene Wissensgesellschaft beste Voraussetzungen, indem das humboldtsche Bildungsideal (von Humboldt (1960, 1960a)), das auf individuelle Selbststimmung und Weltbürgertum abhebt, mit den Utopien des herrschaftsfreien Diskurses und der Funktion der Hochschulen als kritischer Innovationsinstanz zu verbinden ist. Daher ist die „Wissensgesellschaft“ (Kreibich (1986)) nicht nur konkreter Gegenstand des Kongresses „Ökonomisierung der Wissensgesellschaft“, sondern auch allgemein für die Beurteilung und Perspektiven der Bildungsentwicklung ausdrücklich ernst zu nehmen (vgl. Daxner (2006)). Dabei verhilft die Verbindung von intellektueller Lauterkeit mit der Selbstorganisation der Wissensproduktion und der Anmerkung von Schmidt (1975) zur „Bringschuld der Wissenschaft gegenüber der Allgemeinheit“ der Wissensgesellschaft zu einer nachhaltig positiven Bedeutung. Die Grundlagen und Ziele einer emanzipatorischen Wissenschaft und Bildung finden sich in der Grundordnung der Universität Leipzig – vom Konzil der Uni-
Quantifizierte Stromlinienform oder diversifizierte Qualität
489
versität Leipzig am 5. November 2003 beschlossen und vom Sächsischen Staatsministerium für Wissenschaft und Kunst am 2. Mai 2005 genehmigt: „Im Geiste des friedlichen Wandels des Herbstes 1989, in Besinnung auf ihre Jahrhunderte alten wissenschaftlichen Traditionen, im Bekenntnis zu ihrer wechselvollen Geschichte, die durch herausragende Leistungen, aber auch durch folgenschwere Verirrungen geprägt ist, im Bewusstsein ihres Auftrages, durch Förderung von Forschung und Lehre zur Gestaltung einer friedlichen, sozial gerechten und in ihrer natürlichen Vielfalt bewahrten Welt beizutragen, in der Absicht, jeden Einzelnen zur Mitverantwortung in freier, schöpferischer und kritischer Tätigkeit zu ermutigen und in der Verpflichtung, demokratisches Denken und Handeln sowie die Achtung vor Andersdenkenden zu fördern, gibt sich die Universität Leipzig eine Grundordnung.“ Allerdings findet sich diese, die historischen Erfahrungen und ethischen Ansprüche und Bekenntnisse ausdrücklich formulierende, Präambel nicht mehr in der in 2010 zu entscheidenden vorläufigen neuen Grundordnung der Universität Leipzig.
Literatur Banscherus, Ulf / Dörre, Klaus / Neis, Matthias / Wolter, Andrä (2009): Arbeitsplatz Hochschule – Zum Wandel von Arbeit und Beschäftigung in der „unternehmerischen Universität“. Bell, Daniel (1960): The Coming of Post-Industrial Society. A Venture in Social Forecasting, New York. Binner, Hartmut F. (2006): Auf dem Weg zur Spitzenleistung – Management-Leitfaden für die EFQM-Modellumsetzung. Bourdieu, Pierre / Passeron, Jean-Claude (1971): Die Illusion der Chancengleichheit. Bröckling, Ulrich (2000): Totale Mobilmachung. Menschenführung im Qualitäts- und Selbstmanagement, in: Bröckling, Ulrich / Susanne Krasmann / Thomas Lemke (Hrsg.): Gouvernementalität der Gegenwart, S. 131 – 167. Bultmann, Torsten / Schoeller, Oliver (2003): Die Zukunft des Bildungssystems: Lernen auf Abruf – eigenverantwortlich und lebenslänglich! Oder: die langfristige Entwicklung und politische Implementierung eines postindustriellen Bildungsparadigmas, in: PROKLA, Heft 131, S. 331 – 354. Bund-Länder-Kommission (Hrsg.) (2004): Strategie für Lebenslanges Lernen in der Bundesrepublik Deutschland. Bundesregierung (Hrsg.) (2007): Armutsbericht. Daxner, Michael (2006): Die zweite Reform unserer Hochschulen – die Wissensgesellschaft ernst nehmen, Universität Oldenburg. Deutsche Forschungsgemeinschaft (Hrsg.) (2009): DFG Bewilligungsstatistik 2004 – 2008.
490
Klaus Bente
Duhm, Dieter (1972): Der Warencharakter der Zwischenmenschlichen Beziehung. Europäische Union (Hrsg.) (1995): Lehren und Lernen – Auf dem Weg zur kognitiven Gesellschaft. Weißbuch zur allgemeinen und beruflichen Bildung, in: Dokumente der Kommission der Europäischen Union 16. Europäische Union (Hrsg.) (2000): Memorandum über Lebenslanges Lernen (LLL), Bd. 14. Faschingeder, Gerald (2005): Bildung und Herrschaft. Alternativen zur Ökonomisierung der Bildung, in: Faschingeder, Gerald / Bernhard Leubolt / Pia Lichtblau / Oliver Prausmüller / Johannes Schimmerl / Angelika Striedinger (Hrsg.): Ökonomisierung der Bildung. Tendenzen, Strategien, Alternativen, in: Gesellschaft, Entwicklung, Politik, Bd. 5, S. 203 – 220. Freire, Paulo (1973): Pädagogik der Unterdrückten, Bildung als Praxis der Freiheit, Hamburg. Füller, Christian (2006): Sexappeal Eliteuni, TAZ, 23. 1. 2006. Grigat, Felix (2008): Nur bedingt tauglich – Zur Sitution der kleinen Fächer an Universitäten, in: Lehre und Forschung (LuF), Heft 1, S. 28. Grigat, Felix (2008a): Neues aus der kulturfreien Zone – Über Dauerprüfungen, Systemblockade und die Austreibung von Bildung und Wissenschaft aus den Universitäten, Heft 5, S. 288. Grimm, Roland (2009): 61. Sitzung in Berlin des Akkreditierungsrats in Berlin, 9. 12. 2009. Güntner, Joachim (2006): Lehren und studieren im Korsett, nzz Nr. 300, S. 25. Hartmann, Michael (2002): Der Mythos von den Leistungseliten-Spitzenkarrieren und soziale Herkunft in Wirtschaft, Politik, Justiz und Wissenschaft, Frankfurt / M. Hirsch, Joachim (2001): Postfordismus: Dimensionen einer neuen kapitalistischen Formation, in: Hirsch, Joachim / Bob Jessop / Nicos Poulantzas: Die Zukunft des Staates, Hamburg, S. 171 – 209. von Humboldt, Wilhelm (1960): Ueber die innere und äussere Organisation der höheren wissenschaftlichen Anstalten in Berlin, in: Flitner, Andreas / Klaus Giel (Hrsg.): Wilhelm von Humboldt. Werke in fünf Bänden, Bd. 4, Darmstadt. von Humboldt, Wilhelm (1960a): Theorie der Bildung des Menschen. Bruchstück, in: Flitner, Andreas / Klaus Giel (Hrsg.): Wilhelm von Humboldt. Werke in fünf Bänden, Bd. 1, Darmstadt. Kaindl, Christina (2005): Kritische Wissenschaften im Neoliberalismus, Marburg: BdWiVerlag. Klausenitzer, Jürgen (2002): GATS, Pisa und die Entwicklung der Schule – Zur Restrukturierung des deutschen Bildungswesens im Kontext der internationalen Entwicklung, in: Widersprüche, Heft 1. Klausenitzer, Jürgen (2003): Die Rolle der Weltbank in der Bildungspolitik Bildung und globaler Paradigmenwechsel, online verfügbar unter: www.links-netz.de.
Quantifizierte Stromlinienform oder diversifizierte Qualität
491
Klausenitzer, Jürgen / Ball, Stephen (2006): Bildung als Kampf um Hegemonie, online verfügbar unter: www.links-netz.de. Knobloch, Clemens (2004): Vom Menschenrecht zur Markenware. Koch, Lutz (2004): Normative Empirie, in: Heitger, Marian / Lutz Koch / Anton Hügli / Winfried Böhm (Hrsg.): Kritik der Evaluation von Schulen und Universitäten, S. 39 – 55. Kreibich, Rolf (1986): Wissenschaftsgesellschaft. Von Galilei zur High-Tech-Revolution, Frankfurt / M. Liessmann, Konrad (2004): Theorie der Unbildung. Die Irrtümer der Wissensgesellschaft. Lohmann, Ingrid (2000): Ende der Moderne. Chancen und Risiken für das Bildungssystem im Zeichen der Globalisierung, in: Zeitschrift der GEW Hamburg, Heft 5, S. 46 – 48. Lohmann, Ingrid (2007): Was bedeutet eigentlich „Humankapital“?. Mayntz, Renate (2009): Über Governance. Institutionen und Prozesse politischer Regelung, in: Schriften aus dem Max-Planck-Institut für Gesellschaftsforschung, Bd. 62, Frankfurt / M. Merkens, Andreas (2002): Neoliberalismus, passive Revolution und Umbau des Bildungswesens – Zur Hegemonie postfordistischer Bildung, in: Meyer-Siebert et al (Hrsg.): Die Unruhe des Denkens nutzen. Emanzipatorische Standpunkte im Neoliberalismus, Hamburg, S. 171 – 182. Nentwich-Bouchal, Rosa (2008): Der Aspekt der Öffentlichkeit im Bildungswesen. Ortmann, Günther (2003): Regel und Ausnahme. Paradoxien sozialer Ordnung, Frankfurt / M. Peschke, Michael A. (2007): Entbürokratisierung, Redaktion tipp und info GmbH. Redman, Barbara K. / Merz, Jon F. (2008): Scientific Misconduct: Do the Punishments Fit the Crime?, in: Science, Vol. 321, No. 5890, S. 775. Ruhloff, Jörg (2006): Die Universität ist kein Wirtschaftsbetrieb, in: Frost, Ursula (Hrsg.): Unternehmen Bildung, Paderborn, S. 31 – 35. Schirlbauer, Alfred (2007): „... An Bildung festhalten, nachdem die Gesellschaft ihr die Basis entzog...“, in: Hartwich, Dietmar / Christian Swertz / Monika Witsch (Hrsg.): Mit Spieler. Überlegungen zu nachmodernen Sprachspielen in der Pädagogik, Würzburg, S. 203 – 212. Schmidt, Helmut (1975): http://www.linguistik-online.de/39_09/hansenschirraEtAl.htm. Schmidt, Uwe (2006): Qualitätssicherung und Evaluation an Hochschulen im Zuge der BA / MA Umstellung, Universität Trier. Simmel, Georg (1999): Schulpädagogik: Vorlesungen, gehalten im Wintersemester 1915/ 16 an der Universität Straßburg. Neu herausgegeben, eingeleitet und mit Anmerkungen versehen von Klaus Rodax, Konstanz. Simmel, Georg (1992): Soziologie: Untersuchungen über die Formen der Vergesellschaftung, Gesamtausgabe Bd. 11, Frankfurt / M.
492
Klaus Bente
The Times Higher World University (Hrsg.) (2009): Ranking of German universities. Weber, Max (1980): Wirtschaft und Gesellschaft. Grundriß der Verstehenden Soziologie, 5. Auflage (Studienausgabe), hrsg. von Johannes Winckelmann, Tübingen. Witsch, Monika (2006): Ökonomisierung von Bildung und Privatisierung von Bildungspolitik – Pädagogische An- und Einsprüche, in: Das kritische Tagebuch, Beitrag Nr. 303. Wolter, Andrä (2009): Hochschule im Wandel: Von der akademischen Republik zur „managerial university“, Berlin.
Der Einfluss der Ökonomisierung auf Werte und Normen im Non-Profit-Bereich Von Michael Daxner 1
I. Politische Rahmensetzungen Hochschulsystem und Wissenschaftssystem haben sich im Laufe der Zeit funktional ausdifferenziert und immer ihre jeweiligen ökonomischen Funktionen mitgezogen und adaptiert. Ihre Institutionen sind Akteure auf dem Markt, bzw. auf verschiedenen Märkten, die man kurz als Arbeitsmarkt, Qualifikationsmarkt und Fortschrittsmarkt 2 bezeichnen könnte. Man muss nun die ökonomische Funktion nicht als solche mit dem Begriff der Ökonomisierung belegen, sondern dieser Kampfbegriff aus der politischen Arena bedeutet eine Verschiebung der Machtpositionen der einzelnen Akteure zugunsten der echten und scheinbaren Prioritäten des Wirtschaftssystems bzw. der beschriebenen Märkte. Es handelt sich um die Ökonomisierung eines immer schon auch ökonomischen Verhältnisses. Sie ist ein Kampfbegriff für ihre Kritiker, weil unterstellt wird, dass sie Bereitstellung des Öffentlichen Gutes Bildung bzw. Wissen schmälere. Diese Unterstellung kann nicht dadurch schon entkräftet werden, dass auf implizite Marktkräfte verwiesen wird oder die Öffentlichkeit dieser Güter normativ eingeschränkt wird. Umgekehrt ist die Unterstellung der Öffentlichkeit dieser Güter auch außerökonomisch begründbar, nicht aus dem Wirtschaftssystem heraus. Dabei haben sich im Bereich der ethischen Diskurse größere Veränderungen ergeben als im Wirtschaftssystem; allerdings sind die Wirtschaftsdiskurse selbst auch erheblich gewandelt. 1 Prof. Dr. Michael Daxner ist Professor am Institut für Sozialwissenschaften der Universität Oldenburg. Der folgende Beitrag ist die erweiterte Fassung eines Vortrags an der Universität Leipzig am 4. Dezember 2009. Der Vortragsstil wurde beibehalten, der Text aber um Literatur- und Quellenhinweise ergänzt. Ich möchte ausdrücklich auf die Ausführungen der Kollegen Mittelstraß, Münch und Brähler verweisen, die ich hier nicht mehr ein weiteres Mal zustimmend paraphrasiere. Zu danken habe ich den Studierenden in den Protestversammlungen von Potsdam und Oldenburg. 2 Wir halten nichts davon, dass „Fortschritt“ auf „Innovation“ verkürzt wird, wie das die Europäische Kommission seit 2006 macht. Im Sinne der Theorie von Weltkultur (J.W. Meyer) impliziert Fortschritt einen über die ständige produktive Erneuerung hinausgehende soziale und politische Funktion, die unter bestimmten Umständen eintritt, nicht positiv oder ablehnend gefordert werden kann.
494
Michael Daxner
Wirtschaftsethik war im Deutschland der Nachkriegszeit stark an Sozialpartnerschaft und die Rhetorik der Sozialverantwortlichkeit von Eigentum gebunden, die sich in Zeiten von Vollbeschäftigung und starkem Wachstum leicht vertreten lassen. Namen wie Nell-Bräuning oder Hengsbach stehen für jenes folgenlose ins Gewissen Reden, das den Adressaten regelmäßig wenig Unbehagen bereitete. Die nächste Stufe wurde durch die Warnungen des Club of Rome und die Ölpreiskrise erreicht; danach war ressourcenschonender Umgang mit Rohstoffen, Produktion und Konsumgütern auch ein Imperativ der privaten Lebensführung, und wer Müll zu trennen begann, fühlte sich schon sittlich den Unbelehrbaren überlegen. Wie oberflächlich diese Form softer Ethisierung war, konnte man an der massenhaften Teilhabe an der Shareholder Value Ökonomie der Reagan und Thatcher Periode mit dem Individuum als scheinbar akzeptierten Player im Big Game erleben. Mit dem Platzen der Aktienblase Ende des Jahrtausends wurde erstmals Schuld und Haftung an die Oberoffiziere des Systems zugerechnet, an die Vorstände und Kapitalmakler. Die derzeitige Krise hat diese Zurechnungen verstärkt und präzisiert, wobei aber eines auffällig ist und misstrauisch macht. Wenn heute in Hauptversammlungen, Vorstandsseminaren und hochkarätigen gesponserten Tagungen Philosophen, Sozialwissenschaftler, Kirchenführer und Kulturmanager nach einer neuen Ethik rufen und fast zur „Umkehr“ mahnen, so ist das wenig glaubwürdig. Und dementsprechend kümmern sich Regierungen, Parlamente und Unternehmer im Allgemeinen kaum um diese Mahnungen. Gleichzeitig müssen hohe Töne von Ethik und Moral heute dafür herhalten, dass sich Menschen, z. B. Bankvorstände, Kleinaktionäre, Lobbyarbeiter, Parlamentsabgeordnete etc. einfach an die Regeln des Strafrechts und einiger lebensweltlich tradierten Verhaltensnormen halten, die ohnehin gelten. Der Hype entwertet das Anliegen. Die legitimatorische Hürde ist höher geworden, gewiss, aber ähnlich wie beim Klimawandel gibt es kaum politischen Druck und eine breite, demokratisch gestützte öffentliche Meinung, die diesen Druck aufrecht erhalten könnte. Der Leidensdruck für die Meisten ist gering, und für die Ausgegrenzten und direkt Betroffenen war er schon seit langem hoch. Das führt zu Misstrauen. Die Wirtschaftswissenschaften sind davon erheblich betroffen, sowohl was ihre Prognoseleistung als auch was ihren Beitrag zur sozialen Einbettung der durch die Krise ausgelösten Konflikte betrifft. Aber es wäre falsch, sich auf die Wirtschaftswissenschaften als „politikberatende“ Experten zu konzentrieren. Die moralische Bringschuld aller Wissenschaft steht in Bourdieus starker These: „Wissenschaft klärt auf über die Mittel, nicht über die Ziele. Sobald allerdings von Demokratie die Rede ist, liegen die Ziele auf der Hand: die wirtschaftlichen und kulturellen Zugangsbedingungen zur politischen Meinung müssen allgemein verfügbar gemacht, also demokratisiert werden. Einen entscheidenden Platz nimmt dabei die Bildung ein, die Grund- und die Weiterbildung. Sie ist nicht nur Voraussetzung für den Zugang zu Arbeitsplätzen und gesellschaftlichen Positionen, sie ist die Hauptvoraussetzung für die echte Ausübung der bürgerlichen Rechte. 3“
Einfluss der Ökonomisierung auf Werte im Non-Profit-Bereich
495
Diesen Beitrag zur möglichen folgenreichen Meinungsbildung will ich in Ansätzen zu leisten versuchen. Nun ist der Non-Profit (NP) Bereich im Bereich von Bildung und Wissen sehr alt. Letztlich ist die Frage, wie weit sich Information, Wissen und Bildung sowie die Kommodifikation ihrer Produktion, Methoden, Speicherung und Transformation als tauschbare Ware auf dem Markt verstehen lassen und wieweit das erst recht auf die Vermittlung zutrifft, umstritten. Implizit sind in Bourdieus These einige Vorgaben enthalten, die nicht unwichtig für die Proteste gegen Ökonomisierung sind: Common Sense reicht nicht aus, um alle Mittel zu erklären; die Expertenrolle der Wissenschaft wird durch Bildung zurückgeführt auf das Verständnis (aller) Mitglieder der Gesellschaft, deren politisches Handeln ja in der Übereinkunft zu Entscheidungen über die Lösung identifizierter Probleme besteht. Es werden sowohl Wissen und Bildung als auch das Recht, Rechte auszuüben, an das Ziel der Demokratie gebunden, das vor der „guten Gesellschaft“ steht. Wissenschaft muss also die Universalisierung der Mittel zu diesem Zweck im Auge haben, zunächst für den sozialen Raum, in dem sie angewendet werden – Meinungsbildung, letztlich überall, wenn Demokratie generell die Voraussetzung der besseren Gesellschaft sein soll. Da aber Demokratie bereits die Herrschaftsform der bestehenden Gesellschaft ist, müsste ihre Voraussetzung durch Zugang zum kulturellen Kapital gewährleistet und nicht nur ständige Option sein. Die Öffentlichkeit des Gutes wird durch die Universalität des Rechts auf Rechtsausübung durch den informierten und nicht bloß affizierten Bürger begründet, und, im Umkehrschluss, auch mit Aufgabe, der beobachteten Gesellschaftsstruktur ihre Geheimnisse, also partikularen Machtbasen aufzudecken. 4 Solche Überlegungen leiteten u. a. Rudolf Hickel und seine Kollegen bei ihren jährlichen Gegengutachten zur Wirtschaftsentwicklung, die sie den offiziellen Beratern der Bundesregierung („Wirtschaftsweisen“) gegenüberstellten. Ein weiteres Implikat ist, dass Ziele jederzeit zu Mitteln anderer Ziele werden und damit zu erklären und zu analysieren bzw. zu dekonstruieren sind. Wissen für die Erhaltung der relationalen Macht bzw. zu ihrer Ausübung wird „ökonomistisch“ wahrgenommen (Profit-Interesse), obwohl es auch der unmittelbaren Gewalt dienen kann oder dem Ausschluss von Menschen von der Ausübung ihrer Rechte. Dies wäre in groben Zügen der politische Hintergrund, vor dem ethische Überlegungen von Wissens- und Bildungs-„Providern“ angestellt werden können.
3 Diese zentrale Stelle bei Bourdieu (1996), S. 68, bildet eine Brücke sowohl zur politischen Theorie von Hannah Arendt und dem Handeln im politischen Raum als auch zu allen Überlegungen zum Übergang vom Wissenschaftssystem ins politische System bzw. in „die Gesellschaft“ (z. B. Luhmann). 4 Vgl. Bourdieu (1996), S. 69.
496
Michael Daxner
II. Kritik der Stakeholder Die Neudefinition des öffentlichen Wohls angesichts der Qualität von Wissen und Bildung steht dringend an, weil die Kommodifikation von geistiger Produktion schon so weit fortgeschritten ist und verinnerlicht wird, dass die in diese Produkte eingegangene Arbeit von anderen als den Urhebern sowohl von Anerkennung als auch Honorierung ausgeschlossen sind, ganz abgesehen von unsittlichen oder strafrechtlichen Regelverstößen gegen formale und informelle Produktions- und Kommunikationsregeln in Wissenschaft und Hochschule. 5 Das auf dem Markt befindliche Wissen hat aber mindestens schon einen Tauschakt hinter sich und ist für die idealtypischen Nachfrager wie Anbieter eine Ware wie jede andere. Deren Tauschsystem geht in die Stakeholder-Ideologie ein, die heute im Abklingen ist, aber im Gefolge der Thatcher-Politik aus Großbritannien auf dem Kontinent eine bedeutende Rolle und Definitionsmacht erlangt hatte. Die Stakeholder – ein fataler und teilweise oft unrichtig verwendeter Begriff – sind nicht identisch mit (allen) Akteuren und auch deshalb falsch platziert, weil sie die Handlungsfelder nicht den jeweiligen Systemen (Wissenschaft, Hochschule, Arbeitsmarkt etc.) zuordnen. 6 Der Begriff impliziert aber, fast unbemerkt, eine Entstaatlichungsstrategie, um wesentliche Governanceaufgaben zum Pol „Gesellschaft“ im Sinne der liberalen Teilung Staat / Gesellschaft zu bewegen, was fast notwendig zu Widerstand und weiteren Konflikten führt. Damit wird nämlich die Garantie des öffentlichen Gutes Bildung / Wissenschaft durch die Staatlichkeit der Institution „freigegeben“. Gesellschaft aber ist hier nicht als ganze verstanden, sondern zum funktionalen Bestandteil der Marktsphäre verkürzt. Das verkleinert den sozialen Raum und in der Folge den politischen Raum, in dem die Meinungen zu praktischen Entscheidungen führen. Innerhalb dieser Verschiebung bedeutet Ökonomisierung eine Verlagerung der wesentlichen Aufgaben des Hochschulsystems und des Wissenschaftssystems hin zu den Marktpositionen: die staatlichen Garantien sind gegenüber dem Markt nicht völlig neutral, aber weitgehend privater Feinsteuerung entzogen. Titel, symbolisches Kapital, Lizenzierung und Autorisierung von Wissen, Qualifikation und Kompetenz wären hier die Stichworte. Damit aber wird die Eindeutigkeit des öffentlichen Gutes beeinträchtigt: Der Kampfbegriff der Ökonomisierung meint eine Verschiebung der Profite hin zu privaten Eigentümern und Betreibern der Bildungs- und Wissens-Institutionen oder die Erweiterung der privaten Nutzung staatlich geförderter Wissensproduktion. 5
Vgl. dazu Observatory (2007). Noch auf der Hauptversammlung der Westdeutschen Rektorenkonferenz Konferenz 1988 waren die Studierenden keine Stakeholder! Auch die anderen Hochschulmitglieder erhielten diesen Status nicht automatisch. In der Plenardarstellung von John Davies wurden Stakeholder extern lokalisiert; die Debatte dazu war kurz, nicht strukturiert und folgenlos. 6
Einfluss der Ökonomisierung auf Werte im Non-Profit-Bereich
497
Damit wird auch auf eine zweite Verschiebung hingewiesen: die Ent-Nationalisierung. Dass Wissenschaft und Bildung / Forschung öffentliche Güter sein sollen, ist eine Folge der Entwicklung des Bürgertums und des Paradigmas des Nationalstaates bzw. der Staatsnation. 7 Damit kommt die (noch hochrangig bewertete) Internationalisierung in Frage, denn sie steht der Globalisierung – eingetreten und anvisiert – ausgesprochen entgegen. Das ist z. B. einer der Reibungspunkte in der Implementierung des Bologna-Prozesses und der transnationalen Hochschulnetzwerke und Placementpolitiken (mit entsprechenden Konsequenzen für Eigentum an Hochschulen und möglichen Finanzierungsveränderungen). Ein Beispiel für die Problematik des „Nationalen“, eine Politik der „Internationalisierung“ zu machen, zeigen Organisationen wie der DAAD, die Alexandervon-Humboldt-Stiftung oder, in Österreich, die OeAD Gmbh, die das als Zentralstelle für den Nationalstaat versuchen, und z. B. gegenüber der Europäischen Kommission in einer ähnlichen Rolle sind wie diese gegenüber globalen Netzwerken und Entwicklungen. Die Nachwirkungen der Zweckbindung an relative Positionsvorteile der und durch Staatlichkeit sind erheblich: nationale Politik der Internationalisierung ist insoweit paradox, als die Supranationalität der EU diese nicht als eine föderale Supernation erscheinen lassen, und ihre Staatlichkeit ist anders als die traditionell französische oder englische. Staatliche Organisation von Wissenschaft und Hochschulen – mit und neben den Autonomiegarantien, die funktional sind oder sein können – war nie idealistisch von der Antizipation „symbolischer nationaler (patriotischer)“ Gewinne getragen. Sie war auch ökonomisch motiviert oder auf die jeweiligen Machtkonzepte, z. B. Militärstrategie, zugeschnitten (Grandes Écoles in Frankreich 8, viele nationale Akademien und Forschungsverbünde unter staatlicher Direktion). Es geht um Standortvorteile, relative Macht einzelner Institutionen (Hochschulen, Forschungsinstitute) in Bezug auf Prestige, Attraktion von Aufträgen (Profit + Prestige), Arbeitsmarkt (Placement der Absolventen + Dominanz konkurrierender Institutionen), Legitimation von wissenschaftlichen Feldern (Steuerung von Disziplinen z. B. über Forschungs-Rahmenprogramm der EU (FP 8)), etc. Die Agenturen dieser Vorteile agieren bereits in einem ent-staatlichten Sinn (mit unterschiedlich starker Staatlichkeit als Sachwalter der formalen Institutionen). Die Homogenisierung, Veröffentlichung, Vergabe und Sanktionierung von Lizenzen und Titeln durch die Staatsebene sind nach wie vor mit geringeren Transaktionskosten behaftet als ihre Abgabe an die Märkte und müssen nicht global erfolgen, aber global kompatibel sein, – und zwar nicht als Funktion von anders definierten Hegemonien (eine wirtschaftliche Führungsmacht muss bei 7 Hinweis: Überreste von Kulturnationskonzepten sind hier ausgesprochen konflikthaft, wie man z. B. an den Staatsgründungen in SEE und – scheinbar paradox – in der Misere der deutschen Hochschulreform – sehen kann. 8 Vgl. Bourdieu (1984).
498
Michael Daxner
der Legitimation von Doktortiteln nicht immer die gleiche Rolle spielen, eine Rolle spielt sie sicher).
III. Deutungsmuster Wenn Ökonomisierung bedeutet, dass Profit-Interessen andere Interessen dominieren, müssen wir diese anderen Interessen auch benennen. Die Studierenden etwa fordern eine Gratifikation für ihr Studium ein, das ihre noch unscharfen Erwartungen nach Anerkennung, Beschäftigungsfähigkeit und individuellem Lebensstil erfüllt. Es wird unterstellt, dass bei diesen Profit-Interessen Kapitalinteressen, Arbeitgeber-Interessen und Effizienzkriterien alle anderen Kriterien von Effektivität und Sozialität, wohl auch Solidarität übertreffen. Der Gerechtigkeitsaspekt kann nach verschiedenen ethischen Dimensionen ausgedeutet werden, um die Policies zu ändern. Nun wissen wir aber, dass die Ökonomisierung nicht nur der Wahrnehmung von Studierenden wegen diskutiert werden kann, sondern dass wir untersuchen sollen, welche Effekte sie auf alle Akteure des Systems und ihre relationale Positionierung haben kann. Dynamisch heißt das, dass die Positionsgewinne und –verluste über Zeiträume registriert werden müssen; punktuelle Gleichgewichtsmodelle und Nullsummenspiele funktionieren nicht. − Ökonomisierung für Studierende bedeutet Minderung ihrer Lebensführungschancen und Verrat an ihren gesellschaftspolitischen Werthaltungen. − Ökonomisierung für bestimmte professorale und forschende Akteursgruppen bedeutet entweder „ungerechte“ Durchschnittsbildung zu Lasten der Leistungsträger oder Einbezug aller Akteure in die Marktkonkurrenz (als nicht / teilweise wissenschaftsadäquat). − Ökonomisierung für die Institution bedeutet u. a. Formalisierung der Leistungsindikatoren nur nach Effizienzkriterien zu Lasten von normativen Bestimmungen wie Effektivität, Breite usw. (Hier ist der Platz, Wissensgesellschaft selbst zu thematisieren und vor allem zu problematisieren: ist die Wissensgesellschaft nicht einfach eine Chiffre für eine ökonomisch bestimmte Formgebung des Gesellschaftssystems, entweder nach der Produktivkrafttheorie oder nach der Verlagerung des Verhältnisses von fixem zu variablem Kapital (nach Marx) oder in Bezug auf den Menschen zumutbare Arbeit und Arbeitsteilung?). − Ökonomisierung als Bestandteil einer generellen Theorie der Individualisierung bedeutet eine Neusortierung der Risiken und ihrer Bearbeitung. Wir könnten hier noch sehr viel mehr Interpretationen der Deutung von Ökonomisierung geben, und viele werden zu unserem Anlass, der heutigen Tagung, ja angeboten. Dieser Anlass selbst kann zu unseren Überlegungen beitragen. Jede Universität beruft sich in unterschiedlichem Grad auf ihre Geschichte, ihre Vergangenheit
Einfluss der Ökonomisierung auf Werte im Non-Profit-Bereich
499
und deren Bewertungen, um in der Gegenwart und für die Zukunft Legitimationszusätze und damit relative Vorteile zu erzielen. Die Disaggregation innerhalb des Systems bewirkt eine Relativierung von Ranking und Rating, aber auch fatale Rückrechnungen. Je kritischer und genauer die Vergangenheitsbearbeitung – auch wissenschaftlich – erfolgt, desto besser für den symbolischen Raum. Alter zählt, aber nicht mehr so dominant wie früher, und deshalb ist die Perspektive der Genealogie besonders interessant. (Das Kompliment an die Wirtschaftsfakultät für die Fragestellung der Tagung ist nicht leer). Aber wir müssen die normative Sichtweise auf die Ökonomisierung von ihrer sozialen Tatsächlichkeit unterscheiden. Gibt es einen nachweisbaren und messbaren Trend zu verschärften Auswirkungen von Machtpositionen aus dem Marktsystem gegenüber den bisherigen Situationen im Hochschul- wie im Wissenschaftssystem? Sehr kursorisch kann die Frage damit beantwortet werden, dass mit Abnahme der Staatlichkeit – und vor allem mit Abnahme der Funktion des Staates als anteilsmäßig und absolut stärkster Arbeitgeber für Absolventen – die beschriebenen Effekte von Ökonomisierung sich verstärken. 9 Der Effekt auf die Qualifikation – und die gemessene Kompetenz – von privatwirtschaftlicher Seite kann in dem Maß nicht beobachtet, sondern nur als Tendenz vermutet werden und ist jedenfalls in Deutschland in den meisten Fächern geringer als dort, wo die Vereinnahmung und Verkopplung des Arbeitsmarktes mit dem Erstabschlusssystem durch Stakeholder aus dem Wirtschaftsbereich stärker ist.
IV. Ökonomisierung als Kampfbegriff Non-Profit bedeutet in unserem Kontext die Bereitstellung von öffentlichen Gütern im Wissenschafts- und Hochschulbereich durch nichtstaatliche oder teilstaatliche Anbieter. NP ist nicht an unbedingt an die Form der Institution gebunden und nur indirekt an das Eigentum dieser Institution. Kriterien wie geringe / hohe Friktion zwischen Eigentümerinteresse und Praktiken der Institution, Autonomie der Programme, Transparenz, Fehlerfreundlichkeit, Korrigierbarkeit und Rückholbarkeit etc. sind in concreto oft wichtiger als die Intentionen der Eigentümer. (Wenn ein Forschungsprogramm der NATO in den Sozialwissenschaften abgelehnt wird, weil es von der NATO kommt, ist das kurzsichtig, bevor wir wissen, was in diesem Projekt geschieht, wie die Ergebnisse publiziert und genutzt werden usw.; umgekehrt sind Entwicklungshilfeprojekte auch schon in
9 Im Falle des Bologna-Prozesses kann man in einigen Ländern, u. a. in Deutschland beobachten, dass der Staatseingriff dennoch erhalten bleibt und stärker „ökonomisiert“ als die Hochschulen als Mitspieler auf den drei oben genannten Märkten selbst von sich aus täten.
500
Michael Daxner
der Forschung prekär, wenn sie bestimmten ethischen und politischen Mindestanforderungen nicht genügen, unabhängig von Intentionen ihrer Sponsoren). Innerhalb des teleologischen Paradigmas von Staatlichkeit war NP natürlich nur direkt monetär „non-profit“. Der Staat hat sich Vorteile für die Beschäftigung legitimierter Experten, autorisierter Wissensverwalter und loyaler Beschäftigter verschafft, und konnte noch NP-Institutionen auf Distanz halten. Hier gibt es allerdings eine Einschränkung, die uns bei den Think-Tanks beschäftigen wird: Der Staat bedient sich dort der NP-Anbieter, wo er als Akteur unabhängige „Erklärungen“ für seine Handlungsspielräume und -weisen braucht (Herrschaftssicherung etc.). Nun wird diese Debatte sehr häufig unter der binären Kodierung staatlich-privat geführt. Das halte ich für falsch. Man muss erstens zwischen privat und öffentlich, zweitens zwischen Eigentum und Operationen unterscheiden und drittens über den normativen Rahmen der Institution Klarheit haben.
V. Typisierung von NP Institutionen im Bildungs- und Wissensbereich Systematisch müssen wir zunächst von der Typisierung der Institutionen im NP-Sektor absehen. Man kann aber drei Akteurstypen auf institutioneller Ebene unterscheiden, die jeweils unterschiedlich auf Ökonomisierung reagieren oder sie in ihr Handeln integrieren: − den Typus Stifter (nicht jeder Stifter „gibt“ im Weg der institutionalisierten „Stiftung“, der Typus entspricht eher allgemein dem „Donor“), − den Typus Eigentümer bzw. Anbieter (Provider), − den Typus Betreiber (Operator). 10 Stifter können Mäzene, Sponsoren, Stiftungen mit expliziten oder impliziten Zwecken der Förderung von Bildung und Wissen etc. sein, hier weiter zu klassifizieren macht nicht viel Sinn. Für die Eigentümer und Operators sind sie Ressourcen. Ihre Politiken können auch Ressourcen für den Staat sein, zumal entlastende, aber Konkurrenten, wenn es um die kulturelle Ausrichtung der geförderten Institutionen geht. Es soll gelten, dass Stifter in diesem Kontext nur an NP-Institutionen Zuwendungen geben und keine Leistungen dafür verlangen dürfen, die ihren For-Profit (FP)-Interessen dienen. Für unsere Diskussion werden keine – durchaus belegbaren – strafrechtlich bewehrten Tatbestände eingebracht. Jede Menge ethischer Probleme können bei den Stiftern aufgelistet werden; einige davon liste ich auf, sie sind der Alltagserfahrung entnommen. 10
Systematisch sind Studierende und Lehrende in diesem Sinn auch Betreiber von Hochschulen, nicht nur die Administration.
Einfluss der Ökonomisierung auf Werte im Non-Profit-Bereich
501
− Agieren sie aus einem verdeckten FP-Interesse, das durch ihre NP-Motive nicht erkennbar wird, oder sind sie am symbolischen Kapital mehr als am Geldkapital interessiert? Beispiel: klassisch ist die Förderung gemeinnütziger Forschung durch die Tabakindustrie, wobei manchmal die Forschung indirekt mit dem FP-Interesse derselben zu tun hat, oft aber nachweisbar gar nichts (dann kommt das symbolische Kapital voll zum Tragen). − Stammt ihre Zuwendung aus unethisch gewonnenen Ressourcen und ist das für die Eigentümer bzw. Operators erkennbar? Beispiel: Gewaschenes Geld aus organisiertem Verbrechen wird „legal“ und im Transferprozess keineswegs strafbewehrt in Bildungs- und Wissensinstitutionen gesteckt. Das ist ein Extremfall; häufiger gibt es die kollusive Verbindung mit dem NP-Eigentümer, der gemeinnütziges Kapital (Stiftungskapital, Endowment) in unethisch operierende Funds und Geldanlageinstitutionen investiert. Das kann beim Eigentümer und beim Operator Gegenwehr in Form von „Divestment“ haben, das nicht nur politisch motiviert sein muss. − Erzeugt ihre Zuwendung Abhängigkeiten, aus denen sich Eigentümer nur durch staatliche Hilfe oder mit Hilfe eines Dritten befreien können? Der Dritte kann u.U. andere, auch FP-Handlungsmotive haben als der ursprüngliche Stifter. Beispiele: Häufig und an staatlichen Universitäten ebenso wie bei privaten NP-Institutionen gibt es einen (Gründungs)Stifter, der aus vielen Gründen seine Zuwendungen kürzt oder zurückzieht und damit den Eigentümer gefährdet. Der Stifter wird dann de facto zum Eigentümer, während der Eigentümer zu einem volatilen Besitzer heruntergestuft erscheint. Der klassische Fall ist, dass ein lokaler Mäzen „seiner“ Universität immer mehr an Zuwendungen zukommen lässt, und über Hochschulrat, aber auch über Betriebskosten und personenfokussierte Zustiftungen in die inhaltlichen Belange weit jenseits der durch Art. 5 Abs. 3 GG garantierten Wissenschaftsfreiheit des Eigentümers eingreift. − Gibt es partizipative und verhandelbare Strukturen, die es Eigentümern und Operatoren erlaubt, auf die Entscheidungen des Stifters Einfluss zu nehmen, ohne seine grundsätzliche Zahlungsbereitschaft infrage zu stellen? Beispiele: Dies kommt immer dann vor, wenn der Eigentümer oder Operatoren, z. B. Studierende oder ForscherInnen, in den Stiftungsräten o.ä. des Stifters vertreten sind. Es gibt hier oft Interessenkonflikte zwischen Eigentümern und Operatoren, in denen der Stifter in einer inhaltlichen Double-Bind-Situation ist, die mit den obigen Problemen zusammenhängen kann. Der Typus Eigentümer ist ein Akteur, der Wissen und Bildung über eine NPInstitution betreibt lässt und sie ggf. auch besitzt, aber auf externe Ressourcen v. a. durch Fundraising angewiesen ist.
502
Michael Daxner
Wir machen hier auf den besonderen Fall aufmerksam, dass staatliche (also per definitionem NP) Institutionen von einem Stifter Zuwendungen bekommen, die den NP-Charakter aufrechterhalten, aber seine Besonderheiten erheblich verändern, auch unmittelbar durch Ökonomisierungseffekte: wenn eine staatliche Hochschule in ein Elitesegment gehoben werden soll, dann erlauben einige Hochschulsysteme eine Anhebung der Studiengebühren, um den vom Stifter eingebrachten Standards zu genügen. Damit wird in die sozialen Voraussetzungen des Gesamtsystems mit nicht privat geförderten Hochschulen massiv eingegriffen. Dieser Effekt ist besonders bedeutsam, wenn er nicht eine Hochschule allein betrifft, sondern eine private NP-Hochschule mit einer staatlichen um Steuergelder konkurriert, wie z. B. die International University Bremen bei ihrer Gründung, und zwar vor einem Kooperationsvertrag. Es wurde nicht geprüft, ob die Universität Bremen mit der für IUB aufgewendeten staatlichen Förderung in dreistelliger Millionenhöhe nicht bessere Ergebnisse hätte erzielen können als die IUB. Nun (sehr viel später) hat die IUB einen Stifter gefunden, der in der Typologie einige Beispielsmerkmale erfüllt. Der Eigentümer stellt die Wissensressource zur Verfügung, als Universität, Forschungsinstitut, als Informationssystem, als Think-Tank usw. Er konkurriert damit mit dem Staat in der Bereitstellung öffentlicher Güter im Sektor Wohlfahrt, 11 Governance wird hier in Absetzung zur Staatlichkeit gemessen. Nun vertrete ich im Hinblick auf diese öffentlichen Güter den Standpunkt, dass es sich immer um öffentliches und nicht um staatliches Eigentum handelt, auch wenn der Staat der Anbieter ist. 12 Im Gefolge dieser These habe ich oft von der Hochschule als „republikanischem Ort“ gesprochen, an dem die Bürger ihr Eigentum an der Institution durch Verregelung und die Akzeptanz dieser Regeln antreten. Damit waren implizit immer schon die Grenzen der Ökonomisierung jenseits der ökonomischen Funktion der Hochschulen auf den drei Märkten angesprochen. Das Konzept hat viele Schnittflächen mit dem Dritten Sektor und einer Betonung der Zivilgesellschaft, ist aber eher auf die Strukturreform der Hochschulen als auf eine politische Ökonomie des Wissens ausgerichtet. Wenn Stifter und Eigentümer zusammenfallen, ist das ein Sonderfall; der andere, wenn Eigentümer und ein Teil der Betreiber identisch sind, also auch als (Mit)Besitzer fungieren. Dann blieben im Fall der Hochschulen die Studierenden in einer besonderen Funktion, weil sie ein Zweck der Institution sind und im Studium einer der beiden Hauptakteure, aber die Wirkungen weitgehend nach dem Verlassen der Institution über den Staat und den Arbeitsmarkt vermitteln können, die Rückrechnung der damit verbundenen ökonomischen Aspekte ist einer der interessantesten Bereiche der Bildungsökonomie, und zwar nicht in volkswirtschaftlicher Hinsicht – da nehme ich an, dass die Rahmenbedingungen und 11 12
Vgl. Draude (2007). Zu frühen Ansätzen vgl. Daxner (1987, 1993).
Einfluss der Ökonomisierung auf Werte im Non-Profit-Bereich
503
kontingente Einflüsse die Rechnungen stark beeinflussen – sondern in politischer: die Legitimationsdiskurse für Wissen und Bildungstitel sind ja umstritten, gerade im Blick auf die Ökonomisierung. Die ethischen Probleme lassen sich spiegelbildlich aus denen für die Stifter ableiten, dazu kommen die Fragen der „Unternehmensstruktur“. Denn die These ist unbestritten, dass Institutionen im NP-Sektor keine staatlichen Anstalten, sondern autonome Unternehmen ohne profitorientierten Geschäftszweck sind, also ihre Produkte in öffentliche Güter umwandeln bzw. ihre Produktion als solche anbieten, teilweise in Konkurrenz zum staatlichen Anbieter, teilweise aber als Ersatz. Die ethischen Fragen sind einerseits am Gemeinwohl orientiert – Zugangsregelungen, transparente Prozesse, Qualitätskriterien für den Unternehmenszweck, keine Abstriche an der Wissenschaftsfreiheit gegenüber den Normen der Systemebene (Verfassung, Gesetze), und darin können die Eigentümer die staatlichen Anstalten übertreffen. Hier liegt die Schnittstelle zur Zivilgesellschaft und zum Dritten Sektor. 13 Anderseits sind die ethischen Fragen aber an den Ausgleich von Erwartungen und normativen Zielsetzungen der vielen Akteure gebunden, die als „Operatoren“ bezeichnet werden. Wenn wir allein die Prestige- und Machterwartungen jeweils im Wissenschafts- und im Hochschulsystem betrachten, wenn wir die nach wie vor starke Letztregelungsmacht des Staates bei Titeln, Lizenzen und Autorisierungen in Betracht ziehen und wenn wir die unterschiedlichen biographischen Aspirationen von Studierenden (Hochschulen), Informationsnutzern aller Art (Laien, Wirtschaft, politische Steuerung etc.) bedenken, dann verstehen wir, dass „Ökonomisierung“ zum Kampfbegriff für viele Akteure werden kann. Ich nehme hier ein aktuelles Beispiel des Bildungsstreiks im November 2009. Seit den Protesten gegen das mittlerweile abgeschaffte Hochschulrahmengesetz von 1975 wiederholt sich ein Ritual relativ wirkungsloser Kritik an den Zuständen. Nach einer technologie- und fortschrittskritischen Periode 14 und einer Phase der Globalisierungskritik stehen heute die Ökonomisierung und Normalisierung des studentischen Individuums im Visier. (An vielen Universitäten werden Forderungen etwa nach folgendem Muster erhoben: mit unterschiedlicher Intensität, mit zusätzlichen Forderungen oder auch gestuften Prioritäten.) Themengruppe 1) – Abschaffung von Studiengebühren, Freier Zugang für alle zu allen Bildungsstufen, Erhöhung von BaföG oder Einführung von Studienhonoraren, Gegen Studienzeitbeschränkung, Anti-elitäre Selbstverortung. Themengruppe 2) – Gegen Ökonomisierung, Kritik am Bologna Prozess und der Zurichtung von Bachelor für den Arbeitsmarkt; Kritik am Einfluss der Dritt13 Vgl. als europäische Politikvision Rifkin (2004), dessen Ansicht über die Nachrangigkeit des Marktes gegenüber der kulturellen Erstzurechnung ich aber für fragwürdig halte. 14 Vgl. Becker (1990).
504
Michael Daxner
mittel und Forderung nach Kontrolle von deren Herkunft und Verwendung, bisweilen auch Verwertung, Kritik der Exzellenzinitiative als „Zweiklassenpolitik“. Themengruppe 3) – Für Verbesserung der Studienbedingungen, Reduzierung von Prüfungen, Verbesserung von Mitbestimmung etc. Gefordert werden in allen drei Gruppen Veränderungen im Regelwerk. (Konflikttheoretisch bedeutet das eine „Entbettung“, die Regeln selbst werden Gegenstand des Konflikts. Dies legt eine sozial- und kulturanthropologische Untersuchung der Veränderungen in der Lebenswelt des akademischen Feldes nahe.) Es gibt hier konkurrierende ethische Ansätze: Themengruppe 1) geht davon aus, dass der gesellschaftliche Mehrwert des Studiums um sehr viel größer ist als die Kumulierung der privaten Mitnahme-Effekte, dass also „die Gesellschaft“ via Staat für die Mehrkosten aufkommen soll und kann und dabei die weniger gut gestellten Steuerzahler noch immer von diesem gesellschaftlichen Mehrwert profitieren. Dieser Altruismus zieht pragmatisch bereits in Betracht, dass die relative Privilegierung durch symbolisches Kapital (kulturell und sozial) langsamer absinkt als die finanzielle Kompensation der Studienzeit als einkommensschwacher bis –loser Durchgangsperiode. (Das Deferred Gratification Pattern funktioniert mit abnehmender Gratifikation bis dahin, dass alle alles studieren können und dann die Differenzierung nur mehr auf dem Arbeitsmarkt erfolgt: Entwertung der Titel.) In einer Diskussion wurde vehement bestritten, mit diesen Forderungen ein Verdrängen geringer qualifizierter Arbeitskraft bzw. Auslagerung bestimmter Tätigkeiten zu fördern. Ich möchte darauf hinweisen, dass die Radikalisierung dieser Forderungen bis zu einem entgrenzten Gemeinschaftspopulismus führen kann, wie ihn etwa der frühere brasilianische Hochschulminister vertritt. 15 Themengruppe 2) fasst Forderungen zusammen, die sich gegen eine unscharf als Grundrechtsverlust im Bereich der Selbstbestimmung und biographischen Entfaltung gerichtete Politik wenden. Diese ist Ausdruck und Folge von Ökonomisierung. Man möchte „richtige“ Bildung und Wissenschaft und nicht Zurichtung für den Beruf, wie das dem Bologna-Prozess als Zweck unterstellt wird (was historisch nur teilweise stimmt, Employability war und ist eines von mehreren Zielen bei der Schaffung des europäischen Hochschulraums). Für diese Forderungen wird häufig mit Humboldt (!) und zugleich gegen Eliten argumentiert (auch in Gruppe 3). Diese Kritik der Ökonomisierung ist aber objektiv elitär, auch wenn dies subjektiv radikal abgelehnt wird. Die geforderten Freiheiten sind subjektiv dis-aggregiert und widersprechen den ethisch aufgrund von Gleichheit geforderten Ansprüchen aus der Gruppe 1). Themengruppe 3) versucht nun eine Synthese: im Prinzip kann man durch Veränderung der Studienbedingungen die Forderungen von 1) und 2) relativ ein15
Buarque (2006).
Einfluss der Ökonomisierung auf Werte im Non-Profit-Bereich
505
ander annähern, was aber dann immer mehr zu bereits bekannten „Reformmodellen“ zusammengefasst wird. Nun ist der Hauptadressat der Staat. Weil private Institutionen unter dem Begriff der Ökonomisierung fast reflexhaft als FP und nicht NP gefasst werden, kommen einige Probleme gar nicht vor: So ist die ganz andere Konstellation im (zivil)gesellschaftlichen Bereich ohne staatlichen Akteur bzw. mit stark geschwächter Staatlichkeit ausgeblendet, und die rhetorische Erwartung an die ethisch höherwertige Governance seitens des Staates eher naiv als politisch. Andererseits werden die oben angesprochenen Beispiele unethischen Verhaltens von Stiftern im NP-Bereich nicht in Zusammenhang mit der Situation gebracht. Die Erfüllung selbst kompatibler Forderungen aus dieser Gruppe ist nur unter starker Belastung der Unterprivilegierten möglich; das sind die weniger gut mit den finanziellen, kulturellen und sozialen Kapitalien Ausgestatteten. Oder diese Forderungen werden– vgl. Jeremy Rifkins populäre Forderungen – mit einem Wandel der gesamten Gesellschaft zur Neuverteilung der normativen Prioritäten gekoppelt, etwa von Freizeit und Event hin zu mehr Bildung. Wobei dann aber ehrlicherweise der „ökonomisierende“ Pferdefuß der universalen höheren wissenschaftsbasierten Bildung auch gesehen werden muss: dass die Gesamtverteilung der Arbeit nicht automatisch gerechter wird. Hier ist die Diskussion, die Michael Walzer 16 angestoßen hat, von besonderer Bedeutung, weil sie über die Wertargumente von geistiger vs. körperlicher Arbeit hinausgeht und Härte und Erniedrigung ebenfalls ins Konzept einbeziehen. Ich bin auch der Meinung, dass fast alle studentischen Forderungen erfüllbar sind, aber dann sind ethische Defizite bei Staat, Eltern, Wirtschaft, Parteien – und den Studierenden selbst – in die Ökonomisierungsdebatte einzuführen: dass etwa gute Bildung und Erziehung (US-amerikanisches Modell, in loco parentis) einen niedrigeren Preis haben müssen als Konsumgüter; und dass die Gesellschaft als „generationenübergreifende Bildungsgemeinschaft“ einen Anspruch auf ausgehandelte studentische Leistungen (incl. konventioneller Standards) hat.
VI. For-Profit versus Staat angesichts von Non-Profit Das NP-Problem außerhalb der Staatlichkeit ist ein von der Forschung nur in Teilen beleuchtetes Problem, bei dem die normativen Komponenten nicht im Vordergrund stehen. Neue Forschungen dazu sind funktional orientiert und lassen eher die Leerstellen erkennen, in denen die Debatte um Normverschiebungen noch aktualisiert werden muss. 17
16 17
Walzer (1992), S. 244ff. Vgl. Reisz / Stock (2008).
506
Michael Daxner
Ein weiteres Beispiel: Wenn die Entscheidung zwischen NP- und FP-Institutionen gleichen Ranges, also z. B. Grundschulen oder Universitäten, fällt, dann sind nicht nur die Interessen der unmittelbar beteiligten Akteure von Belang: oft ist die Privatisierung mit FP-Institutionen als Konsequenz nur Teil einer weitergehenden Entstaatlichung oder aber eines Verschuldungsproblems beim staatlichen Träger. Betroffen aber sind weite Teile der Bevölkerung mit erheblichen Konsequenzen für die Aufteilung der Chancen von sozialem und vor allem kulturellem Kapital. Das kann besonders gut in einem System studiert werden, in denen die Konkurrenz FP – NP noch keine lange Tradition hat oder mit den politischen Umbrüchen jeweils sich verändert. Wenn man NP und FP nicht vom Standpunkt des Eigentümers und der Profitinteressen von Stakeholdern vergleicht, sondern z. B. nach Outcome und Qualitätsgesichtspunkten, dann werden die „nicht-eigentlichen“ Aspekte der jeweiligen Institutionen deutlich. Nehmen wir die Situation in Chile und die Studie von Chumacero / Paredes als exemplarisch. 18 Wenn es zutrifft, dass es keine nachweisbaren und nachhaltigen Qualitätsunterschiede zwischen privaten NP und FP gibt, dann wäre eine Einschränkung der FP-Institutionen eine zu Lasten einer Minderheitsgruppe von Eltern und Schülern, nicht unbedingt von Stakeholdern. Auch ist noch der Unterschied zwischen staatlichen Institutionen und privaten NP relevant; die Geldgeber (Stifter) für NP bevorzugen diese Präferenz aus drei Gründen: Diese sind leichter zu überwachen (monitoring costs), sie sind zugänglicher für Informationsgewinnung, und sie sind aus Wertgesichtspunkten zu bevorzugen. Unter Qualitätsgesichtspunkten mögen NP Vorteile gegenüber FP haben; diese aber sind den staatlichen Schulen gegenüberzustellen, die sie – im Falle eines Verbots von FP – aufnehmen müssten, was einen Qualitätsverlust für die bisherigen Schüler von FP und deren Eltern bedeutet. Ich bringe dieses Beispiel nicht, um mich grundsätzlich mit den verwendeten Variablen und ökonometrischen Methoden auseinanderzusetzen. Mir ist wichtig zu zeigen, dass der private Bildungssektor im FP-Bereich auf andere Machtkonstellationen trifft als im NP, welche – im genannten Beispiel – etwa zur Subventionierung der FP und der NP führen. Die Machtkonstellation erhöht die Komplexität im Hochschulbereich erheblich, was m.E. eine wirksame und dauerhafte Tendenz zu FP weniger wahrscheinlich macht. Ersten müssen die Regeln zweier Systeme – Wissenschaft und Hochschulen – in die Organisation eingehen; zweitens sind die Betriebskosten für „teure“ Fächerangebote zu hoch, ohne dass dies durch Gebühren und Subventionen ausgeglichen werden könnte; drittens sind die Stifter vor größere Wertentscheidungen bei FP gestellt als im Schulbereich (wo z. B. Religion eine ungleich größere Rolle spielt). Der Wegfall von FP erhöht außerdem das Druckpotenzial der privaten Nutzer (Eltern, Studenten etc.) gegenüber dem Staat, ihre Forderungen politisch durchzusetzen, 18
Chumacero / Paredes (2008).
Einfluss der Ökonomisierung auf Werte im Non-Profit-Bereich
507
was sie bei NP weniger gut können, es sei denn, auf dem Umweg über Druck auf staatliche Subventionen. Etwas verallgemeinert lautet die These, dass der Mittelstand sich durch Entscheidungen für NP und FP vom Staat absetzen möchte, um einen Anteil am symbolischen Kapital des „nichtstaatlichen“ Elite-Segments zu bekommen: er muss sich aber dann eher dem Staat zuwenden als NP, wenn er auf seine „gleichen“ Rechte pochen will und keinen Eingang in die ihrerseits elitären NP gefunden hat.
VII. Ökonomisierung und Think-Tanks Im fortgeschrittenen England wurden drei wichtige Institutionen zur Arbeitsteilung auf dem Wissensmarkt gegründet. Früh schon die Universitäten mit professionalisierenden Aufgaben, die Royal Society (1660) als Verwalterin des (empirischen) Wissensfortschritts und der Richtung, den dieser nehmen sollte; die Royal Institution (1799) wiederum sollte diesen Fortschritt als Vermittlung zwischen Experten- und Laienkultur benutzen, um auch Legitimationen jenseits instrumenteller, z. B. Kolonialzwecken unterworfener, Klassifizierungslogik herzustellen. Ihr Gemeinwohlanspruch war sowohl egalitär als auch aufklärerisch in Bezug auf die praktischen Ergebnisse von Wissenschaft. In anderen Gesellschaften gab es Akademien, Fachgesellschaften etc., die sich mit der Ausdifferenzierung der Wissenschaften selbst entwickelten und sehr komplizierte Vernetzungen mit anderen Institutionen eingingen. Im Unterschied zu vormodernen mäzenatisch geförderten Denk-Anstalten gab es bei diesen immer eine Verbindung von staatlichem und privatem Einsatz. Letztlich, wenn auch nicht geradlinig, entwickeln sich diese Institutionen alle in der Dialektik von Wissen und Macht. Think-Tanks sind nicht zu Unrecht Denk-Werkstätten genannt worden, was ja eigentlich auch für Hochschulen gelten könnte. Think-Tanks aber sind am Bereitstellungspol der Wissens-Produktion angesiedelt. 19 Weltweit gibt es ca. 6000 Think-Tanks, in Deutschland 200; die Zahlen steigen exponentiell. Hier gibt es zunächst keine unmittelbare Ökonomisierung des Wissens, sondern eine Rationalisierung: sowohl für den Staat als auch für Wirtschaft, Interessengruppen, Nichtregierungsorganisationen und Laien sind wissenschaftlich fundierte Informationen zunehmend wichtig und können weder von der akademischen Grundlagenforschung noch den unmittelbar den Akteuren inkorporierten Forschungsunternehmen, auch innerhalb privater Großindustrien, ohne weiteres entnommen werden. Es handelt sich um einen mehrfachen Ausdifferenzierungsprozess. Forschung und Beratung fächern sich je nach ideologischer und teleologischer Nähe 19
Eine gute Übersicht über die amerikanischen Think-Tanks findet sich bei Wagner / Carpenter (2009), S. 27 – 48.
508
Michael Daxner
zum Auftraggeber (den muss es geben: Pull!) auf, um selbst zum politischen Akteur zu werden (Push!) und sich politische Macht und Prestige zu sichern. Von Parteistiftungen über weltanschaulich stark bis schwach geprägte Forschungsprogramme bis hin zu meist vom Staat in Anspruch genommenen Think-Tanks gibt es fast alle Spielarten praxis-orientierter Forschung, die sich im NP Bereich effektiver und wirkungsmächtiger entfalten kann als innerhalb von FP (etwa in einem Industrielabor, das nur für den eigenen Konzern arbeitet). Zwischen Auftragsforschung, wissenschaftlicher Politikberatung und einer eigenen politischen Agenda liegt die ethische und die ökonomische Handlungsebene auf einer analogen Linie: Der Stifter und der Eigentümer sind durch beides verbunden. Gleichzeitig haftet den politikberatenden und den lobbyistischen Think-Tanks bereits das Label ihrer Stifter bzw. Policies an, weshalb dann die wissenschaftliche Aussagekraft ihrer Ergebnisse erheblich größeren Zweifeln unterzogen wird als solchen aus der „echten“ Wissenschaft, was wiederum zu höheren Kosten ihrer Inwertsetzung führt (man muss sie umständlicher und mit mehr PR verkaufen als Ergebnisse etwa eines Max Planck Instituts oder einer Universität; das kann plausibel sein, wie etwa beim offenkundigen Bias der Heritage Foundation am rechten Rand des US-Spektrums, ist aber empirisch zweifelhaft, weil selbstverständlich die öffentliche Wissenschaft der Universitäten auch Unsinn und noch so parteiische Think-Tanks Brauchbares produzieren können. Der Code of Conduct ist im Think-Tank Bereich des Wissenschaftssystems so wichtig wie in den anderen Sektoren. Ökonomisierung und ihre Gefahren liegen nicht so sehr auf der Ebene des alten Missbrauchs-Verdachts, dass man „für Geld jedes Resultat kaufen kann“, was ja bei bestimmten Pharma-Produkten stimmt. Viel gravierender ist das Problem der Ökonomisierung von Information selbst (vgl. das Open source Beispiel weiter unten); die eigentlich ethisch relevante Frage ist dort angebracht, wo der Think-Tank soviel symbolisches Kapital anhäuft, dass er selbst „Politik machen“ kann. Der NP-Forschungs- und Beratungs-Akteur kann sich sowohl der staatlichen als auch der öffentlichen Kontrolle der Einhaltung der wissenschaftlichen Standards als auch des grundlegenden Rechts auf Wissenschaftsfreiheit leichter entziehen als staatliche Institutionen und alle Arten von Hochschulen. Dass er das nicht tut, ist nur möglich, wenn die individuellen Akteure im Think-Tank und der Eigentümer sich auf einen ethischen Code und Regeln verständigen, die nicht einfach von den Auftraggebern missbraucht oder ignoriert werden können. Es gibt hier oft eine vom Stifter (relativ) unabhängige Schleife, in der der Think-Tank als Lobby für eine definierte, begrenzte Gruppe von Auftraggebern zugleich die Aufträge des nächsten Zyklus akquiriert und damit dem Markt Wettbewerb entzieht. Damit entstehen sehr leicht Expertenmonopole der Think-Tanks. Das ist ein großes ethisches Problem: die Aufhebung der strengen Experten / Laienschranke ist kein beliebiges Ansinnen. Wenn Probleme nicht mehr lokal identifiziert werden, sondern globale Geltung erlangen (unabhängig davon, ob sie nur lokal gelöst werden können), dann müssen die betroffenen Laien diese Identifikation auch verstehen können, um ihre Risiken
Einfluss der Ökonomisierung auf Werte im Non-Profit-Bereich
509
abzuschätzen und handlungsfähige politische Individuen zu bleiben. Vertrauen in den Experten im Sinne Max Webers ist nicht mehr einfach herzustellen. Wie aber können sich Bürger die Expertise der Think-Tanks kaufen, wenn diese nicht zugleich Open source sind? Das Problem des geistigen Eigentums stellt sich hier in besonderem Maße. Open source Aktivitäten bedeuten nicht automatisch NP-Motive und -Praktiken. Dahinter liegende Profit-Interessen können die NP Open source als Ventil verwenden; ebenso kann der frei zirkulierende Originalbeitrag von Wissenschaft von Nutzern profitabel verwertet werden. Anhand historischer Analysen sowohl der geistigen Eigentumsrechte als auch der rezenten Gegenbewegung kommt May (2007) zu einem Schluss: „Die jüngste Auslegung privater Rechte vergisst leider manchmal, dass geistige Eigentumsrechte stets ein gesetzgeberisches Mittel waren, die private Honorierung (mit dem Ziel, Kreativität und Innovation zu fördern) zugunsten eines öffentlichen Wohls zu nutzen“. 20
Es besteht die Tendenz einer Ressourcen-Zersplitterung, weil z. B. Nichtregierungsorganisationen (NROs) sich „Advocacy-Think-Tanks“ (z. B. in der Friedens- und Entwicklungspolitik) zulegen und politische Parteien „Partisan-ThinkTanks“ (nicht nur in parteinahen Stiftungen, wie das US Beispiel zeigt, bei dem überraschenderweise eine sehr gleichmäßige Verteilung der Think-Tanks über die Breite des politischen Spektrums erfolgt). „Ökonomisierung“ im negativen Sinn bei Think-Tanks tritt dann ein, wenn die Stiftung von öffentlichen Ressourcen zurückgeht und eine Kontraktion und „Rationalisierung“ (= Effizienzsteigerung) thematisch oder bei der wissenschaftlichen Breite erzwungen wird. Man könnte aber radikal schließen, dass dies zu einer Rück- und Engführung der Tanks in die herkömmliche Wissenschaftslandschaft führen muss, d. h. entweder Aufgehen in öffentlichen oder in privaten FPInstitutionen. Das Public Private Partnership-Modell (PPP) lässt sich nur dann als Ausweg denken, wenn der NP-Einsatz des privaten Partners überzeugend und nachhaltig ist. Dann allerdings erfüllt es vorbildlich eine öffentliche Funktion bei geringer Staatlichkeit und hoher Bereitschaft zur Bereitstellung des öffentlichen Gutes Wissen (gilt aber nur für breit nachgefragte oder breit benötigte Wissenssegmente). Die NP-Think-Tanks sind der Ökonomie der rekurrierenden Akquisition unterworfen und müssen im Gründe immer an der „Front“ der nachgefragten Expertise sein, um ihre Experten halten zu können und jeden Auftrag zu erfüllen. Sie dürfen aber aus ethischen Gründen nicht jeden annehmen und den Operatoren zumuten. Hierin gleichen Sie den Hochschulen, mit einem Unterschied: da sie nicht selbst ausbilden, sind sie Stätten permanenter Projekt20
May (2007), S. 178.
510
Michael Daxner
karrieren und fördern damit einen gewissen Opportunismus ihrer Mitarbeiter, es sei denn, ihre Unabhängigkeit wird durch den Stifter in außergewöhnlichem Maß gefördert (was es nicht selten wirklich gibt). Das European Foundation Center (EFC) ist eine Mitgliederorganisation, die wohl alle europäischen Stifter von Bedeutung und etliche asiatische und amerikanische organisiert. Bei den jährlichen Kongressen gibt es zwar thematische Schwerpunkte, aber mich fasziniert das „hidden curriculum“, die Diskussion über Motive von Philanthropie und Stifterverhalten; und die Frage, wie die richtigen Ressourcen an die richtigen Eigentümer kommen. Die Ethik des Dritten Sektors in der Wissensgesellschaft hat hier eine Reihe von Mustern hervorgebracht, die durchaus mit der Arbeitsteilung zwischen den Think-Tanks korreliert.
VIII. Dritter Sektor und ein anderes Soziales Kapital Wenn wir einen Dritten Sektor konstruieren, dann hat das mehrere Ursachen, die zugleich Folgen und Voraussetzungen für ökonomische, aber auch kulturelle und politische Veränderungen sind. Wenn dieser Sektor die private Effizienz und Marktlogik mit der Gemeinwohlverpflichtung des Staates verbindet, dann hat er relative Vorteile gegenüber beiden, jedenfalls nach einem der theoretischen Pioniere, Amitai Etzioni (1973). Ich sehe in der Position zwischen Staat und Markt keine „dritte Alternative“, 21 sondern eine Option, die von Akteuren unter bestimmten Bedingungen gewählt werden kann und muss, und nur dann eine „Alternative“ darstellt, wenn es reelle Wahlen zwischen den anderen beiden System gibt. Zimmer untersucht den Ansatz systematisch und es fällt auf, dass die ethische bzw. wertorientierte Erklärungs-Komponente ebenso schwach beleuchtet wird wie die Frage der Wertbasierung im NP-Segment dieses Sektors. (FP-Institutionen lasse ich hier außer Acht.) Zimmers Vergleich mit Putnams verwaltungswissenschaftlichem Sozial-Kapital-Ansatz ist historisch sinnvoll, aber lässt die Bedingung des ethischen Dilemmas (Gemeinwohl versus Eigeninteresse) nicht erkennen. Der zweite Einwand mag überraschen. Zimmer konstatiert m.E. übertrieben, aber zutreffend den Wandel vom homo sociologicus zum homo oeconomicus. Und beschreibt eine frappierend einfache Konstruktion der Effekte von Ökonomisierung auf das wissenschaftliche Denken dieses Dritten Sektors, den sie mit dem Sozialkapital (Ansatz) vergleicht. Sie sagt auch zutreffend, „dass das Sozialkapital zu den sozialwissenschaftlichen Begriffsschöpfungen (zählt), die in kürzester Zeit Eingang in den politischen Diskurs gefunden haben“. Es geht um Investition ohne Risiko, und um kostenneutrales Reformkapital. 22 Mein 21 22
Zimmer (2002). Ebd., S. 21.
Einfluss der Ökonomisierung auf Werte im Non-Profit-Bereich
511
Einwand entzündet sich zunächst „nur“ am Begriff. Den kann man 2007 nicht einfach aus dem Kommunitarismus bzw. von Putnam übernehmen, ohne im Kontrast seine ältere Verwendung durch Bourdieu zu erwähnen. Bei ihm spielt das Sozialkapital eine entscheidende Rolle, die die Machtposition der Akteure im sozialen Raum über einem definierten gesellschaftlichen Feld bestimmt; ebenso wie Bildungskapital und die ganze Menge der symbolischen Kapitale. 23 Dass er den homo academicus für den Bereich des Wissens bzw. der Wissenschaft an Hochschulen einführt, passt nicht zufällig in den von Zimmer beobachteten Wandel. Bourdieu nun verwendet eine durch und durch „ökonomische“ Argumentation in der Allokation seiner Kapitale, deren Mischung die Machtposition in Relation zu Anderen in einem definierten Raum bestimmt. Bei ihm allerdings ist die ethische Komponente immer auf den Achsen Gleichheit, Anerkennung und Selbstpositionierung etc. vorhanden, insofern die Ökonomik der Positionierung ja Karrieren, Machtpositionen, Wirkungen und individuelle wie kollektive Biographien vermittelt. Ich verenge den sehr viel breiteren Habitusansatz nur auf die Universitäten, weil dort eben nachgewiesen werden kann, wie die sozialen und kulturellen Kapitale ihrer Besitzer anschlussfähig an die wirtschaftlichen und politischen Machtpositionen der Gesellschaft sind. Meine Kritik an Zimmer ist an dieser Stelle, dass sie die epistemologische Forderung, die Grundlagen der eigenen Forschung zu erkunden, nicht wahrnimmt. Das würde nämlich erhellend dafür sein, wie „man“ in den Hochschulen mit dieser Ökonomik in Zeiten der Ökonomisierung umgeht.
IX. Versuch einer Conclusio Die Kritik an der Ökonomisierung ist ein quid pro quo, weil sie diese zugleich als böswillig inszenierte Strategie einiger Machtkartelle und als naturwüchsiges Ergebnis der globalen kapitalistischen Ordnung sieht. Ich hingegen denke, dass Ökonomisierung ein tatsächlich eingesetztes Machtmittel beschränkter Reichweite und Wirkung ist. Ich folge Jürgen Mittelstraß insoweit, als der Nutzen der wirtschaftlichen Zurichtung von Qualifikation von Bildung und Wissenschaft nur unter bestimmten Bedingungen erbracht werden kann, die ich kurz Freiheit und Autonomie nenne. Der Unternehmenstypus von Hochschulen z. B. muss sich nicht an Gewinnerwartungen orientieren, sondern an der Zielsetzung mit dem Risiko des Scheiterns ohne obrigkeitlichen Zwang (entstaatlichte Governance). Auch in der Ethik kann ich Mittelstraß zunächst gut folgen: Er sagt, es sei ein Irrtum zu glauben, alles lasse sich organisieren, auch Ethik und Moral. 24 Aber Organisationen lassen sich nach den Prinzipien einer bestimmten Ethik sehr wohl einrichten und betreiben. Das wäre z. B. eine der Grundlagen einer 23 24
Vgl. Bourdieu (1984). Mittelstraß (2009).
512
Michael Daxner
Theorie von Weltgesellschaft, die auf der Erweiterung und Universalisierung der Grundrechte für Individuen und ihrer institutionellen Absicherung beruht. Dabei allerdings bedeutet die institutionelle Isomorphie nicht, dass sie überall gleich betrieben werden kann. Wissenschaftsfreiheit und institutionelle Autonomie dürfen sich nicht vereinnahmen lassen, das setzt aber auch Kontroll- und Sanktionsmöglichkeiten innerhalb der wissenschaftlichen Gemeinschaft voraus, auch wo der Staat sein Recht verloren hat. Da ist vieles auch bei uns im Argen. Von den Ungerechtigkeiten im Karriereweg durch Entzug von symbolischem Kapital und unter Normalisierungsdruck (Richard Münch in seinem Vortrag) bis zu Kriterien für Outcome und Performance sind die Felder unethischer Politik unbegrenzt. Wir können ihnen nicht durch Appelle und auch nicht durch formale Sanktionen auf Systemebene (Gesetze, Ethikkommissionen) begegnen. Auch Naming and Shaming sind nur begrenzt wirksam, vor allem wenn sie im Alltag und innerhalb der Expertenkultur stattfinden, also in den gated communities der Wissenschaft selbst. Die Codes of Conduct sind lax geworden, weil die Wirtschaft und die Politik uns zu den Gefälligkeiten verführen, die zum eingangs beschriebenen Vertrauensverlust führen. Wir sind keine Lobby und keine Eideshelfer. 25 Dergleichen Beispiele diskreditieren diejenigen Kollegen, die den Auftrag, wie von Bourdieu formuliert, ernst nehmen und dafür an die Öffentlichkeit gehen. Um unterscheiden zu können bedarf es der Bildung – und Regeln. NP-Institutionen sind ein möglicher Ausweg. Sie können sich der Ökonomisierung – der echten und der imaginären – dann entziehen, wenn die Stifter – aller Art, man muss hier nicht nur an Mäzene denken – die ethischen Regeln ihren Eigentümern und Betreibern vermitteln und auch öffentlich kontrollierbar, also transparent durchhalten. Das führt zu Konflikten und einem sinnvollen Konfliktmanagement.
Literatur Becker, Egon (1990): Wissenschaftsfreiheit und Autonomie in der ökologischen Krise, in: Schaeffer, Roland (Hrsg.): Ist die technisch-wissenschaftliche Zukunft demokratisch beherrschbar?, Bonn und Frankfurt. Bouarque, Cristovam (2006): Transformations of Universities in Brazil. UNU – ILI Institute for International Leadership, Amman (25.-29. 3. 2006). Bourdieu, Pierre (1984): Homo academicus, Paris, (Deutsch 1988, Frankfurt / M.), Anhang von Bernd Schwibs. 25 Ich halte die Lobbyarbeit von renommierten Kollegen für die Braunkohle-Industrie ausgesprochen unethisch, weil die Legitimation der Wissenschaft für einen vom Laienpublikum nicht nachzuprüfenden Zweck vorgetäuscht wird. Auf der Tagung aber gab es die interessante Kontroverse, ob sich nicht eher die Industrie diejenigen Experten sucht, die ihre Meinung wissenschaftlich (vor der Indienstnahme) am ehesten vertreten haben.
Einfluss der Ökonomisierung auf Werte im Non-Profit-Bereich
513
Bourdieu, Pierre (1996): Störenfried Soziologie, in: Vannahme, Joachim-Fritz (Hrsg.): Wozu heute noch Soziologie? Opladen, S. 65 – 70. Chumacero, Romulo / Paredes, Ricardo (2008): Should for-profit schools be banned? MPRA Paper No. 15099, posted 8.May 2009. Daxner, Michael (1991): Entstaatlichung und Veröffentlichung (mit Beiträgen von Jürgen Lüthje und Henning Schrimpf), Köln. Daxner, Michael (1993): Die Wiederherstellung der Hochschule, Köln. Draude, Anke (2007): Wer regiert wie? Working Paper Series No. 2, SFB 700 (FU Berlin). May, Christopher (2007): „Information wants to be owned“ – Soziale Auseinandersetzungen um Inwertsetzungen und freie Wissensnutzung, in: Ammon, Sabine u. a. (Hrsg.): Wissen in Bewegung, Weilerswist. Mittelstraß, Jürgen (2009): Wirtschaft und Ethos, FAZ 9. 10. 2009. Observatory for Fundamental University Values and Rights (Hrsg.) (2007): Academic malpractice. Threats and Temptations, Bologna. Reisz, Ron D. / Stock, Manfred (2008): Private Hochschulen / Private Higher Education, in: Institut für Hochschulforschung (Hrsg.): Themenheft: Die Hochschule, Heft 2, Wittenberg. Rifkin, Jeremy (2004): Der europäische Traum, Frankfurt / M. Wagner, Norbert / Carpenter, Ursula (2009): Think-Tanks in den USA, in: KAS: Auslandsinformationen, Vol. 25, No. 3, pp. 27 – 47. www.braunkohle-forum.de (Anzeigenkampagne auch in den Tageszeitungen).
Podiumsdiskussion: Wie viel Ökonomie braucht und wie viel Ökonomie verträgt die Wissenschaft? 1 Prof. Dr. Michael Daxner, Dr. Karen Horn, Prof. Dr. Hans Joachim Meyer, Bastian Lindert, Prof. Dr. Rudolf Steinberg Moderation: Prof. Dr. Günther Nonnenmacher Meine sehr verehrten Damen und Herren, ich begrüße Sie recht herzlich zum letzten Teil dieses diskussionsreichen und stoffreichen Tages. Ich habe die Podiumsteilnehmer schon gefragt, was für uns überhaupt noch zu sagen bleibt. Jeder mögliche oder denkbare Aspekt ist heute schon in irgendeiner Veranstaltung diskutiert worden. Bevor ich aber zu den Inhalten komme, lassen Sie mich bitte kurz die Podiumsteilnehmer vorstellen. Wir haben Herrn Prof. Daxner, der eine so lange Liste nationaler, internationaler Aktivitäten in seinem Lebenslauf stehen hat, dass ich sie nicht alle aufzählen kann. Er ist an der Universität Oldenburg, war in Afghanistan und hat sich in diesen Jahren immer mit Hochschulaufbau, Hochschulreformen usw. beschäftigt. Herr Lindert ist Student an dieser Universität in den Fächern Geschichte und Journalistik. Ich hoffe, er wird von Ihnen hier auch als Sprecher der Studenten anerkannt, der die richtigen Probleme anspricht und die wichtigen Gravamina vorträgt. Herr Prof. Meyer war Wissenschaftsminister im Freistaat Sachsen und dann war er Präsident des Zentralkomitees der Deutschen Katholiken. Neben mir sitzt Prof. Rudolf Steinberg, der Rechts- und Wirtschaftswissenschaften studiert hat, Professor für öffentliches Recht in Frankfurt war und vor allen Dingen von 2000 bis 2008 Präsident der Universität Frankfurt. Das war eine entscheidende Zeit, nicht nur für Bologna. Herr Steinberg hat als Präsident die Umwandlung der Goethe-Universität in eine Stiftungsuniversität bewirkt. Dann ist da noch Karen Horn. Sie ist eine ehemalige Kollegin, Journalistin, inzwischen beim Institut der Deutschen Wirtschaft tätig und ich tue ihr sicher nicht unrecht, wenn ich sie als eine intellektuelle Hayek-Schülerin anspreche, also das, was man heutzutage fälschlicherweise neoliberal nennt.
1
Dieser Abdruck beruht auf Tonaufnahmen der Diskussion am 4. Dezember 2009. Um deren Authenzität zu wahren, wurde der Text nur geringfügig bearbeitet.
516
Podiumsdiskussion
Meine Damen und Herren, Sie haben über die Ökonomisierung der Wissensgesellschaft gesprochen und mir ist dabei folgendes eingefallen: Der Philosoph Herrmann Lübbe hat einmal gesagt, je beschleunigter die gesellschaftliche Entwicklung, der sogenannte oder wirkliche Fortschritt sei, desto deutlicher brauche es eine Musealisierung der Gesellschaft, also eine Rückbesinnung auf Wurzeln, auf Traditionen. Vermutlich hängt das eine mit dem anderen zusammen. Eine schnell fortschreitende Gesellschaft braucht Verankerung in der Vergangenheit. Diese Dialektik lässt sich, ohne dass man die These vergewaltigt, auch auf die Ökonomisierung anwenden. Stimmt es, dass unsere Gesellschaft ökonomisch durchorganisiert wird, um effizienter zu werden? Jedenfalls ist die Reform der Studiengänge nach dem Motto Bologna unter diesem Aspekt zu sehen. Aber wahrscheinlich braucht eine Gesellschaft, die sich ökonomisiert, auch Bereiche und vielleicht sogar wachsende Bereiche des Zweckfreien, des nicht ökonomisch Dominierten, der Freiheit des Nachdenkens, des Forschens, des Lehrens, um eben diese Ökonomisierung durchstehen zu können, ohne am Schluss Sinndefizite zu haben. Das hört sich abstrakt an und ich hoffe, dass die Podiumsteilnehmer das alles konkretisieren können. Ich würde Sie bitten, einfach der Reihe nach ganz kurz Ihren Zugang zu diesem Thema in zwei, drei Minuten zu beschreiben, bevor wir dann in eine hoffentlich streitige Diskussion eintreten können. Herr Professor Daxner, bitte. Prof. Daxner: Vielen Dank. Ich kann es, wenn es so kurz sein muss, sehr kurz machen. Ich betrachte Ökonomisierung nicht so sehr als Tatsachenbeschreibung eines gesellschaftlichen Zustandes, sondern als Kampfbegriff in einem gesellschaftlichen Konflikt. Ökonomisierung meint auf der einen Seite eine Entwicklung, von der sich viele, vor allem im Augenblick die Studierenden, benachteiligt fühlen. D. h., das ist die Forderung nach Politikwandel. Zugleich meint Ökonomisierung nicht die Verbindung von Universität und Arbeitsmarkt. Sie meint eigentlich auch nicht die Beziehung zwischen Wissenschaft und Wirtschaft, wie sie seit Jahrhunderten besteht. Auf der anderen Seite denke ich, dass wir es mit einem massiven Politikversagen zu tun haben, das ganz präzise für die Bundesrepublik Deutschland, nicht für Europa, daran krankt, dass wir ein ausgesprochenes Europa-Defizit haben. Die sogenannte Föderalismusreform hat alles kaputtgeschlagen, was noch einigermaßen intakt war. Die Föderalismusreform hindert die Institutionen an einer wirklichen Autonomisierung und die Politik entscheidet nicht und im Augenblick finde ich eigentlich ethisch bedenklich, das war ja mein Vortrag heute Nachmittag, dass alle Leute kontrafaktisch Verständnis für die Probleme der Studierenden haben, aber keinen einzigen Lösungsvorschlag mit einigermaßen ausgeglichenen Folgen vorlegen. Drittens möchte ich für eine Autonomie im Sinne von Mittelstraß plädieren, dass nämlich die Verpflichtungen, die Haftung und die Freiheitsrechte institutionell dort geregelt werden, wo sie hingehören, nämlich in der Hochschule, in den Forschungseinrichtungen, in den Think Tanks. D. h., ich trete dem gängigen neo-
Podiumsdiskussion
517
liberalen Paradigma aus anderen Gründen entgegen, aber ich sage, wir haben ein viel zu großes Ausmaß an Staat auf der Finanzierungs- und Regelungsseite und wir haben ein zu geringes Ausmaß an Staat auf der Sanktionsseite – dort, wo Wissenschaft eindeutig missbraucht wird. Und ein Viertes: Die vergleichsweise problematische Position Deutschlands liegt nicht an den bösen Rankings usw., von denen ich wissenschaftlich und methodologisch gar nichts halte, das müsste man noch extra untersuchen, sondern wir haben so ein Europa-Defizit – und das sage ich deshalb, weil ich glaube, Bologna ist im Grunde genommen der Sack, den man schlägt. Der Esel ist die Perversion der Erschließung von Bologna a) durch die Politik und b) durch eine äußerst konservative Koalition an den Hochschulen, die uns heute erzählt, dass es vor 20 Jahren weltweit weit besser bestellt war um unsere Absolventinnen und Absolventen. Das ist einfach empirisch falsch. Darf ich nachfragen: Europa-Versagen? Sie haben das nicht weiter detailliert und substantiiert ... Prof. Daxner: Das ist richtig. Das bedeutet, die Bologna-Reform ist schlecht umgesetzt worden? Prof. Daxner: Nein, der Hauptzweck von Bologna ist die Zugehörigkeit und Integration von zehn neuen Ländern in einem Club, in dem idealtypisch die Freizügigkeit in einem sehr viel friedlicheren Schengen als im Schengen der Innenminister passieren sollte. Und was machen die Minister? Ihre Akkreditierungsräte, aber auch jeder einzelne Prüfungsausschuss kann nicht unterscheiden zwischen einem Credit Point und einer in der Tat inhaltlich gleichen Leistung. Und jetzt kommt ein Hammer gegen meine Professorenkollegen, aber bitte nicht gegen alle: Die deutschen Professoren haben für die Berufsfähigkeit nie gelernt, wie man ein Curriculum macht, das konnten sie beim Diplom nicht und das können sie heute nicht. Die professionellen Akkreditierer aber haben von der Lehre und der Forschung meistens wenig Ahnung und reproduzieren ihren eigenen Berufsstand. Wie sollten da vernünftige Curricula herauskommen? Ich hoffe, es ist etwas klarer geworden, was mit Europa-Versagen gemeint war. Herr Lindert, Herr Daxner hat Sie in Ihren Protesten gegen Bologna bestärkt. Was sind Ihre wesentlichen Punkte? Hr. Lindert: Ich kann Herrn Daxner in den meisten Punkten nur zustimmen. Das Politikversagen würde ich insofern konkretisieren, dass es letztendlich in vielerlei Hinsicht auf Geld hinausläuft und die Hochschulen seit Jahren, wenn nicht sogar seit Jahrzehnten, unterfinanziert sind. Der Wissenschaftsrat hat im letzten Jahr das Defizit an den deutschen Hochschulen auf 1,1 Mrd. Euro benannt. Es ist nicht in Sicht, dass dieses Defizit in irgendeiner Art und Weise abgebaut werden soll. Das ist eine Fehlannahme und das ist, glaube ich, das, was die meisten Studierenden auch wundert, auch ohne jetzt irgendwie Widerstand suggerieren
518
Podiumsdiskussion
zu wollen, dass man sich denkt, wir machen hier eine Hochschulreform. Es gibt wahrscheinlich noch komplexere Angelegenheiten, aber diese Hochschulreform ist nun einmal eine höchst komplexe Angelegenheit und die soll zum Nulltarif passieren. Und das ist einfach eine Sache, die für die meisten Leute, die sich auch von ihren Interessenlagen her oder auch in den Selbstverwaltungen damit beschäftigen, einfach nicht nachvollziehbar ist. Zum Begriff der Ökonomisierung ist die Studierendenschaft so ein bisschen zerrissen. Auf der einen Seite sperren sie sich gegen den zu großen Einfluss von Wirtschaft, der immer mal wieder auch in den Medien auftaucht und vielleicht auch in Testballons mal ausprobiert wird. Auf der anderen Seite wünschen sie sich Ökonomisierung im Sinne einer effizienteren Verwaltung von Hochschulen, im Sinne einer Verwaltung, die Studienabläufe ohne Probleme ermöglicht, die Studiendokumente ermöglicht, die dann wieder ein vernünftiges Studium möglich machen. Sie wünschen sich nicht eine Effizienzsteigerung im Bereich der Forschung und der Lehre, was der eigentliche Gegenstand einer Universität ja sein sollte. Diese Freiheit des Denkens, eine gewisse Freiheit des Ausprobierens, auch des Müßigganges, die ist mit der Bologna-Reform völlig untergegangen. Die zentralen Kritikpunkte hat Herr Daxner im Prinzip schon zusammengefasst. Wie gesagt, mehr Geld müsste es geben. Die Restrukturierung oder verbesserte Strukturierung der deutschen Universitäten hat aus unserer Sicht im Wesentlichen versagt oder ist gegen die Wand gefahren worden. Hier an der Universität Leipzig kann ich aus meiner Perspektive nur sagen: Wir hatten jetzt die große Demonstration gegen die Hochschulrektorenkonferenz Ende November, da wurden die zentralen Forderungen schon angesprochen. Es muss eine verbesserte Studienstruktur her. Es muss eine Revision dieser Studienstrukturen her, weil die Leute sonst im Studium nicht mehr die Möglichkeit haben, sich so bilden und ausbilden zu lassen, wie das eigentlich gewünscht worden ist. Die Mobilität ist nicht da. Diese Reform hat aus unserer Sicht ihre Ziele verfehlt. Sowohl die Schaffung eines europäischen Hochschulraumes wie auch eine Effizienzsteigerung im Studium ist einfach nicht erreicht worden. Die Abbrecherquote ist, glaube ich, auch nicht zurückgegangen? Hr. Lindert: Es gibt Untersuchungen der Freien Universität Berlin, die besagen, dass die Abbrecherquote sogar gestiegen ist. Also fragt man sich dann auch wieder, wie man sich so lange Zeit hinsetzen kann – Frau Wintermantel ist ja jetzt aufgrund der Studentenproteste dann auch wieder ein Stück zurückgerudert und hat eingeladen, oder Frau Schavan hat zu einem großen Bildungsgipfel eingeladen – und das solange als Erfolg zu verteidigen. Man kann natürlich sagen, klar, ohne diese Anregung der Bologna-Reform wäre an den deutschen Universitäten gar nichts passiert. Da könnte man ja der Politik durchaus dankbar sein und sagen, ja schön, wenigstens ist da mal was in Bewegung gekommen. Aber es ist eben nichts in Bewegung gekommen im Sinne von „Wir haben die Strukturen verbessert“, sondern wir haben das alte in neue Säcke gestopft
Podiumsdiskussion
519
und haben probiert, die alte Studienstruktur in diese neue reinzupressen und haben keine Effizienzsteigerung geschafft, sondern eine Belastungssteigerung. Und dann noch zu erwarten, dass die Leute das wissenschaftliche Niveau ihrer Ausbildung halten können, halte ich für einen großen Trugschluss. Da besteht grundsätzlich Nachbesserungsbedarf. Vielen Dank, Herr Lindert. Sie müssen sich verschiedentlich angesprochen gefühlt haben, Herr Meyer, als Politikversager womöglich. Waren Sie dabei, als der Bologna-Prozess angestoßen wurde? Sie hatten den Kopf geschüttelt bei einigen Thesen von Herrn Daxner. Sie können jetzt das Gegenteil sagen. Prof. Meyer: Ja. Zunächst mal zur Klarstellung: Ich war bis 2002 Minister. Die Debatte über diese Dinge begann 1997. Ich habe 1997 und 1998 schon im Bundestag und im Bundesrat diesen Ansatz kritisiert. Ich habe bereits 1998 einen großen Artikel dagegen geschrieben. Nun muss man die Dinge in der damaligen Diskussionsphase sehen. Das hat auch Herr Daxner angesprochen. Was ist der Kernpunkt? Geht man nur von der Zweistufigkeit oder Zweiphasigkeit aus, so halte ich das nach wie vor für einen richtigen Ansatz. Die Frage ist, was wäre die Begründung. Die Begründung kann aus meiner Sicht nur eine wissenschaftsimmanente Begründung sein. Nämlich, dass seit Humboldts Zeiten jede wissenschaftliche Disziplin zu einem so komplexen Gebäude geworden ist, dass man selbst bei besten Voraussetzungen von niemandem verlangen und erwarten kann, der an die Universität kommt, dass er gleichsam ohne einen systematischen und durchdachten Einstieg, und zwar durchdacht von seinen Lehrern, in dieses Wissenschaftsgebäude hineinkommt ohne erhebliche Verluste oder große Probleme oder die Gefahr des Scheiterns. Die großen Studienprobleme, die großen Abbrecherquoten, alles dies rechtfertigt durchaus ein Nachdenken darüber, ob es nicht sinnvoll ist, die ersten drei oder vier Semester, meinetwegen auch mehr, das ist fachabhängig zu entscheiden, in einer systematischen, auch methodisch und didaktisch durchdachten Weise gestaltet und darauf dann eine weitere Phase folgt, in der sich dann auch das Humboldt’sche Ideal eines forschungsinteressierten und forschungsgeleiteten Studiums entfaltet. Man konnte ja hoffen, dass die Bologna-Erklärung zunächst mal in diese Richtung geht. Wer die Bologna-Erklärung liest, wird ja nur mit Mühe eine Beziehung herstellen zwischen dem, was dort steht, die Beschwörung beispielsweise der großen akademischen Traditionen Europas, und dem, was anschließend passiert ist. Die Zweistufigkeit könnte in der Tat verbunden werden mit unterschiedlichen Konsequenzen. Eine Konsequenz ist Erleichterung von akademischer Mobilität. Man hat ja inzwischen den Eindruck erweckt, durch die Bachelor-Studiengänge könnte akademische Mobilität erreicht werden. Wie man auf eine solche Idee verfallen kann, ist mir völlig unverständlich. Wer sich englische und amerikanische Bachelor-Studiengänge ansieht, die ja in sich völlig unterschiedlich sind – der amerikanische Bachelor-Studiengang ist in der Mehrheit überhaupt kein berufsbefähigender, der englische ist ein berufsbefähigender – stellt fest, dass aber für
520
Podiumsdiskussion
beide eine starke Systematisierung und eine starke, wenn man so will, Verschulung gilt, um es polemisch zu sagen. Aus einem solchen Programm können Sie gar nicht aussteigen und in ein anderes gehen. Und die tatsächliche Mobilität englischer und amerikanischer Undergraduates ist minimal, die gibt es faktisch nicht. Das hätte man auch vorher wissen können. Ich frage mich, warum man das nicht gewusst hat. Also, Mobilität kann man erreichen durch Zweistufigkeit. Aber was noch? Man könnte damit beispielsweise eine unterschiedliche Art der Fortsetzung des Studiums zu einem nächsten Abschluss verbinden, also einem stärker forschungsorientierten oder einem stärker berufs- oder praxisorientierten. Man kann die Zäsur auch nutzen, das wird ja auch gelegentlich gesagt, aber faktisch nicht umgesetzt, dass man eine berufliche Erfahrungsphase einschiebt, was man in England auch beobachten kann, und dann später an die Universität zurückkehrt. Es gibt auch die Möglichkeit, Berufsbefähigungen nach Abschluss dieser erste Phase festzustellen. Das hängt aber sehr vom Fach ab. Der Hauptfehler, den man allerdings schon in der Bologna-Erklärung finden kann, ist, dass man den ersten Abschluss von vornherein als einen Ausweis der Arbeitsmarktbefähigung und der Berufsbefähigung ausweist. Das kann gar nicht gutgehen. Und man hat etwas unternommen, was selbst in der hochzentralisierten DDR niemandem eingefallen ist – querbeet über alle Fächer eine Norm von drei Jahren festzusetzen, innerhalb derer in allen Fächern ein wissenschaftlich vorweisbarer Abschluss und eine Berufsbefähigung vorzuweisen ist. Dies geschah übrigens unter Verschärfung der Bologna-Erklärung, da stehen nämlich mindestens drei Jahre. Und dazu hat der Wissenschaftsrat etwas in schönen Worten entwickelt, was ich dann als eine „eierlegende Wollmilchsau“ charakterisiert habe. Es ist aber doch andererseits wieder verständlich. Ich plädiere jetzt auch ein wenig für die Professoren, dass sie davon überzeugt waren und dafür auch gute Gründe hatten, dass eine wissenschaftliche Berufsbefähigung und ein wissenschaftlicher Studiengang vier oder fünf Jahren erfordert, dass sie nun alles das, was sie für eine wissenschaftliche Berufsbefähigung für wichtig hielten, in diesen Studiengang hineinpressten, was natürlich schiefgehen musste. Das Ergebnis war und ist für eine Vielzahl von Studiengängen, dass man Studenten gleichsam einen Hürdenlauf von Prüfungen zumutet. Was waren die Motive? Also, da kann ich sicherlich nicht für alle meine damaligen Amtskollegen reden, aber von Herrn Rüttgers, der ja die Idee von Bachelor und Master noch vor Bologna und noch vor Sorbonne in Deutschland in die Welt setzte. Und von seiner politischen Konkurrentin Anke Brunn glaube ich mit Sicherheit sagen zu können, dass ihr Hauptargument, ihr Hauptmotiv ein Finanzielles war. Wie kann man die Überlastung der Hochschulen abbauen bei noch zu erwartenden steigenden Studentenzahlen? Man muss die Studienzeiten verkürzen. Bisher waren alle Versuche, die Regelstudienzeit einzuhalten, gescheitert und nun versucht man einen neuen Ansatz. Und da kommen wir nämlich zum Problem der Ökonomisierung. Das war schon der zweite Ansatz. Der erste Ansatz, Wissenschaft zu ökonomisieren, also Lehre und Forschung in dem Sinne, dass man nicht aus
Podiumsdiskussion
521
der Wissenschaft stammende Kategorien auf die Wissenschaft anwendet, war, dass man eine passgenaue Berufsbefähigung als Ziel eines solchen Bachelors darstellte, und der zweite, dass man aus finanziellen Erwägungen heraus einen bestimmten Zeitraum vorgab. Und das sind, denke ich, die Kernprobleme, die nach wie vor im Raum stehen und das sind eben nicht nur handwerkliche, sondern grundsätzliche Fehler. Die Frage ist, wie kann so etwas, wie konnte so etwas geschehen, denn es widersprach ja allen Idealvorstellungen, die bisher die deutsche Universität seit Wilhelm von Humboldt gehabt hat. Allerdings hatte sich schon Rüttgers hingestellt und erklärt, Humboldts Universität ist tot – was zwar unter Hochschullehrern und Wissenschaftlern Proteste ausrief, aber nicht so sehr in den deutschen Medien. Und dann muss man sich das ideologische Klima ansehen, in dem diese Reform durchgesetzt wurde. Ich will das mal zuspitzen und sagen, die Form, in der man den Bologna-Prozess umgesetzt hat, ist ein Teil der Globalisierungsstrategie, die davon ausgeht, dass Globalisierung kulturelle Homogenisierung heißt. Und das Ziel ist eigentlich dann am besten erreicht, wenn eine globale Gesellschaft amerikanisch denkt und englisch spricht und dazu wollen wir nun alle kulturellen Unterschiede möglichst nivellieren. In Deutschland haben wir dazu ohnehin keine sehr enge Beziehung. Das scheint mir auch der Kernansatz. Ich rede jetzt nicht von Globalisierung generell – Globalisierung ist ein objektiver Prozess, der viele Vorteile hat. Aber dass man diese Art von Globalisierungsstrategie auch von der Wissenschaft her überhaupt nicht kritisch beleuchtet und auch alle Kritiken, die ja durchaus seit 1997/98 nicht nur von mir, sondern auch von anderen geäußert worden sind, nicht zur Kenntnis nimmt und nach wie vor nicht reflektiert. Das ist für mich die wirklich erstaunte Anfrage beispielsweise auch an die Wirtschaftswissenschaft, die uns ja weithin in diesen Prozess hinein gehetzt hat. Eigentlich müsste man der jetzt mal fünf Jahre Bußschweigen verordnen. Da ich Ihnen kein Bußschweigen verordnen will, bitte ich Sie ... Prof. Meyer: Mache ich jetzt Schluss und sage: Ökonomisierung der Wissenschaft in dem Sinne, wie Sie es am Anfang gesagt haben, dass man die Dinge verantwortungsvoll, transparent und natürlich auch – ich sage mal – effizient im Sinne von wirkungsvoll organisiert, das ist und war in der deutschen Universität dringend notwendig. Aber Ökonomisierung in dem Sinne, dass man quantitativ definierte Kategorien der Wissenschaft gleichsam überordnet in Lehre und Forschung, das ist eine Ökonomisierung, die nur zu einem erheblichen Niveauverlust führen kann. Allenfalls erreichen wir, dass wir als amerikanische Kopien durch die Welt laufen. Dies führt dazu, dass für junge Menschen die große Chance, an der Universität kritisches Denken, Urteilsfähigkeit, eine breite wissenschaftliche Bildung und sich zu einer wissenschaftlich begründeten Persönlichkeit zu entwickeln, gar nicht mehr besteht. In den letzten Tagen war mehrfach zu lesen, dass sich Frau Schavan dagegen verwehrt hat. Sie sagt, die Universitäten hätten Autonomie gewollt und die
522
Podiumsdiskussion
Politik habe nur Rahmenrichtlinien vorgegeben. Sie hat das Versagen also an die Universitäten weitergespielt. Haben die Universitäten selbst nicht die Kraft gehabt, autonom ein Studienprogramm zu entwickeln, das nicht diese Defizite hat? Prof. Steinberg: Vielen Dank für die Frage. Die Universitäten hatten in gewisser Weise Spielräume, die sie nicht genutzt haben. So hat man schon darauf hingewiesen, dass die Universitäten auch einen vierjährigen Bachelor hätten anbieten können. Ich hab das einem meiner Fachbereiche mit Engelszungen nahezubringen versucht, d. h. mit dem Ziel, unsere Vorstellungen von einem wissenschaftlichen Studium dann eben in einem neu formatierten Studiengang unterzubringen. Das war ein geisteswissenschaftlicher Studiengang. Auf der anderen Seite gibt es die, die jahrelang diese Reform aus meiner Erfahrung als langjähriger Universitätspräsident wie mit einer Dampfwalze über das Hochschulsystem ausgebreitet haben und die sich jetzt hinstellen und sagen, so ist das doch alles gar nicht gemeint gewesen. Das trifft aber nicht nur für die Politik im engeren Sinne zu, sondern zu meinem ganz großen Erstaunen auch auf die Wissenschaftsorganisationen. Das ist eines der Dinge, über die es sich lohnt, nachzudenken. Warum der Wissenschaftsrat diese Politik vertreten hat, aber auch die Hochschulrektorenkonferenz. Also, sozusagen unsere organisierten Vertreter. Und vor ziemlich genau einem Jahr in einer kleinen, feinen Veranstaltung in Frankfurt, als ich noch im Amt war, da ging es um Bildung und Lehre. Es saßen auf dem Podium u. a. der Vorstandvorsitzende der Daimler AG Dieter Zetsche und der Vorstandssprecher von Roland Berger, Burkhart Schwenker und die waren sich mit unseren Philosophen und unserer Religionswissenschaftlerin einig, dass sie diesen stromlinienförmigen Bachelorabsolventen überhaupt nicht gebrauchen könnten. Sie wollten Leute, die in der Lage sind, nachzudenken, die Probleme erkennen können, die Methodenwissen haben, aber nicht diese stromlinienförmigen Absolventen. Und ich kann mich sehr gut erinnern, wie Frau Schavan, die die Chance gehabt hätte, zu sagen, dass sie das auch so sieht, dann in hohen Tönen das Bachelorsystem verteidigt hat. Es ist eben auf die Akkreditierung hingewiesen worden. Das ist ein Trauerspiel, meine Damen und Herren. Es hat einer meiner früheren „Aufsichtsbeamten“ im Ministerium mal gesagt, ihr werdet uns noch nachtrauern, denn wir waren bei der Genehmigung von neuen Studiengängen genauso langsam wie die Akkreditierungsagenturen, aber wir waren billiger. Die Akkreditierung kostet im Schnitt 15.000 Euro und wir haben hunderte von Studiengängen. Das heißt, da wird ein enormer Betrag an Mitteln zweckentfremdet und ich kann den Studierenden im Kern bei ihrer Kritik nur zustimmen. Was ich natürlich nicht akzeptiere, ist, dass darauf auch wieder wissenschafts- und hochschulfremde Forderungen gesattelt werden oder dass man in erheblichem Maße Sachbeschädigungen vornimmt wie das in Frankfurt gerade passiert ist. Und ich hoffe, dass die Verantwortlichen – und das sind nur zum kleinen Teil die Gremien in der Hochschule – wirklich die Chance zum Nachdenken nutzen. Wir haben in Hessen gerade eine Novellierung des hessischen Hochschulgesetzes und ich habe den Verantwortlichen empfoh-
Podiumsdiskussion
523
len, dass man auch bei der Novellierung einige Pflöcke einrammen kann, die den Hochschulen klarmachen, dass Änderungen gegenüber der Fehlentwicklung gewünscht sind. Vielen Dank, Herr Steinberg. Ich habe es schon kommen sehen. Wir sind uns weitgehend einig. Darum muss ich jetzt Frau Horn fragen. Sie hat, glaube ich, einen anderen Ansatz. Herr Daxner hat gesagt, er halte Ökonomisierung für einen Kampfbegriff. Was bisher hier gesagt worden ist, hat einen negativen Touch, was Sie als Ökonomin schon aufregen müsste, Frau Horn. Was hier gesagt worden ist über die Hochschulreform, hat außer einigen Andeutungen, die Sie gemacht haben, Studienzeitverkürzung u. Ä., zunächst mal mit Ökonomie nichts zu tun. Entweder haben die Politiker versagt, die ein Korsett geschnürt haben, das zu eng ist, oder die Hochschulen bzw. die Hochschullehrer haben zum Teil versagt, weil sie zu viel reingepackt haben in ihre vier- oder sechs- oder achtsemestrigen Studiengänge. Das beklagen die Studenten, glaube ich, am meisten. Aber mit Ökonomie hat das per se zunächst mal noch nichts zu tun. Prof. Steinberg: Ich habe mich jetzt geäußert zu den Diskussionen über Bachelor, Master und nicht zu dem Thema Ökonomisierung. Dazu würde ich gerne etwas sagen. Denn ich bin sehr kritisch gegenüber diesem Begriff. Das ist ein sehr unscharfer Begriff. Alle verstehen darunter etwas anderes. Sie haben einen Hinweis gemacht, wonach Ökonomisierung im Sinne von einer ordentlichen Buchhaltung völlig richtig ist und Herr Lindert hat völlig zu Recht gesagt, wir brauchen eine bessere Verwaltung etwa im Bereich der Student Services. Ich sehe, dass hier vieles nicht funktioniert. Ich sehe das bei meinen Kindern, die in unterschiedlichen Bundesländern studiert haben, dass es nicht funktioniert. Das ist eine Ökonomisierung, die gut und notwendig ist. Frau Horn, welchen Schluss ziehen Sie aus der bisherigen Diskussion? Dr. Horn: Sind wir schon bei den Schlussfolgerungen? Ich möchte an genau dem Punkt, was Ökonomisierung eigentlich bedeutet, noch mal ansetzen. Denn ich habe mit dem Titel der Konferenz lange gerungen und mich gefragt, wie ich ihn auslegen soll. In der Tat empfand ich – und das kann an meiner Prägung als Ökonomin liegen – den Begriff der Ökonomisierung auch als Kampfbegriff, als einen unfreundlich gemeinten und deshalb für eine Diskussion auch nicht sehr tauglichen Begriff. Und ich habe mich gefragt, worum es denn wirklich geht, jenseits des Krawalls. Ausgangspunkt ist wohl die Tatsache, dass man nunmehr nach mehr Effizienz im Studium strebt. Sie, Herr Nonnenmacher, hatten schon angesprochen, dass dem Effizienzstreben dann aber das zweckfreie Nachdenken, das Forschen, der kreative Prozess zum Opfer fällt. Angestoßen von diesem behaupteten Antagonismus würde ich nun schon gerne meine erste Kritik an dem ganzen Begriff, an dem Thema, an der Diskussion insgesamt anbringen wollen. Ich finde diesen Effizienzbegriff, der auch und gerade von Nicht-Ökonomen unterschwellig und nach meinem Dafürhalten manipulativ benutzt wird, deut-
524
Podiumsdiskussion
lich zu eng. Natürlich muss es darum gehen Hochschulen zu haben, die in sich effizient funktionieren, in denen also Kosten und Ertrag der Organisation mindestens in einem vernünftigen Verhältnis zueinander stehen. Auf effiziente Weise sollten aber auch genauso die wichtigen Freiräume bereitgestellt werden, die den wissenschaftlichen Fortschritt ermöglichen. Auch ihre Herstellung unterliegt dem ökonomischen Gesetz. Der Verengung des Begriffs der Effizienz auf den Universitätsbetrieb ohne Berücksichtigung der notwendigen Entfaltungsfreiräume muss man sich gar nicht anschließen. Zielführender erscheint mir daher Frage, wie die Prozesse aussehen, in denen sich das Streben nach umfassender Effizienz abspielt. Als Hayekianerin sage ich: Wir müssen diese Dinge ein bisschen ausprobieren. Genau dafür hat man auf europäischer Ebene mit Bologna keinen Raum gelassen. Wir haben ein gemeinsames Raster geschaffen für alle und haben gemeint, das werde schon funktionieren. Die Wirtschaft hat sich in der Tat auch in dieser Richtung geäußert. Die Unternehmen wollten gerne die Studienzeiten verkürzen, jüngere Leute einstellen können usw. Und jetzt sehen sie, dass die Absolventen eben nach zwei, drei Jahren Studium doch noch nicht genug Reife und Wissen mitbringen, das man gebrauchen kann. Die Skepsis nimmt zu. Man darf so etwas nicht flächendeckend regeln, sondern man muss möglichst große Freiräume lassen für Experimente. Wir brauchen Freiräume für verschiedene Modelle. Das hat es in Europa früher durchaus einmal gegeben, mit einer entsprechenden Differenzierung. Ich für meinen Teil habe noch ein Jahr in Frankreich studiert und war von dem verschulten französischen Hochschulwesen entsetzt. Ich war heilfroh, als ich wieder in Deutschland war und hier weiterstudieren durfte. Und wenn ich mir die heutigen, stark verengten und verdünnten Curricula insbesondere bei den Ökonomen ansehe, dann hätte ich keine Lust, dieses Fach überhaupt noch einmal zu studieren. Mit dem Abschied von der Differenzierung und dem Experimentieren mit verschiedenen Modellen haben wir uns die Chance genommen, voneinander lernen zu können – zu lernen, wie man es macht und wie man es besser nicht macht. Aus diesem Gesichtspunkt sehe ich die ganze Reform sehr kritisch. Ich kann sie auch als Ökonomin nicht mit dem Argument „alte Zöpfe abschneiden“ verteidigen. Aber noch einmal: am Effizienzbegriff darf es nicht liegen. Es ist für eine Gesellschaft unglaublich teuer, wenn sehr lange studiert wird, wenn der Studienabschluss erst mit 30 Jahren erfolgt. Das bedeutet selbst für jeden einzelnen nicht nur einen Gewinn, sondern mitunter auch verlorene Lebenszeit. Man muss sich fragen, ob das so sinnvoll sein kann. Das war mal der Ausgangspunkt, warum man überhaupt auch Reformen wollte. Es ist auch nicht sinnvoll, wenn sie so hohe Studienabbrecherquoten haben wie sie bei uns noch immer üblich sind. In der Tat, sie sind jetzt eher noch gestiegen. Das wirft nur ein noch schlechteres Licht auf die Reform. Es kann doch gesellschaftlich nicht nützlich sein, wenn man Leute erst einmal in eine bestimmte Richtung laufen lässt und dann nach ihrem Scheitern bloß sagt, okay, ihr habt es nicht geschafft, ihr seid gescheitert, jetzt seht zu, wie ihr euer Leben wieder in den Griff kriegt. Das Problem ist, dass das System in
Podiumsdiskussion
525
sich nicht effizient ist, dass die Studenten nicht entsprechend gefördert werden, dass nicht didaktisch genug unterrichtet wird. All diese Dinge, glaube ich, sind immer berechtigte Kritikpunkte gewesen. Und genau in diesem Sinne braucht es in der Tat mehr Effizienz, in einem wettbewerblichen Rahmen, der verschiedene Modelle zulässt. Doch diesen Rahmen haben wir uns gerade genommen. Ich hab das so verstanden, als ob Herr Daxner einen Mangel an Europäisierung beklagt hätte. Mein Argument wäre auch immer gewesen: Lasst doch die Universitäten so sein, wie sie sind und man wird schon sehen, wie sie sich orientieren. Die Wissenschaftler orientieren sich an Standards und die Studenten im Übrigen auch. Herr Daxner, Sie haben sich gemeldet? Prof. Daxner: Ganz kurz. Vielleicht gibt es ja doch noch ein paar Kontroversen. Ich meine, das, was als Idealform des Studiums auch von vielen Studierenden und natürlich von allen geschichtsbewussten Professorinnen und Professoren gesagt wird, hat einen hohen Preis. Natürlich kann ich im Institute for Advanced Studies unter optimalen Bedingungen die herrlichsten Ergebnisse erzielen. Ich hab die ersten 15 Jahre meines politischen Lebens damit zugebracht, Hochschultüren aufzusprengen. Denn natürlich war es eine höchst ungerechte Gesellschaft, als nur ganz bestimmte Jugendliche überhaupt die Chance hatten, das dreigliedrige Schulsystem einigermaßen zu überleben und dann in die Hochschule zu kommen. Also zunächst hieß das ja im westdeutschen Konsens Ausschöpfung der Begabungsreserven. Das ist ja die Ursache, warum wir jetzt hier so viel diskutieren. Europa war eine Kampfansage an einen Teil des angelsächsischen Modells, mehr des Thatcher-Modells als des USA-Modells. In allen Verhandlungen zwischen 1997 und 1999 war selbstverständlich eine bestimmte Vereinheitlichung zu finden. Auch unter dem Aspekt, dass in den Beitrittsländern zur EU schon im Grunde genommen die vollständige Marktanarchie privater Hochschulen mit hunderten Institutionen, vor allen in Rumänien, in Polen, in Bulgarien usw. aufgetreten ist. Dem wollen wir einen einheitlichen Raum entgegenstellen. Das finde ich politisch nach wie vor richtig, weil die Nationalstaatsidee vorbei ist. Und Herr Meyer, was Sie sagen, das war ja zu Ihrer Zeit, da hatten wir doch noch die Chancen. Warum ist denn das Hochschulrahmengesetz abgeschafft und zugleich diese ganzen führerlosen Bürokratien wie der Akkreditierungsrat eingeführt worden? Das, glaube ich, könnten die Hochschulen allein besser, allerdings unter der Bedingung, dass die Lehrenden in der Tat didaktisch zulegen und uns die Studierenden auch einmal sagen, was sie, ganz positiv gesagt, für den Müßiggang auch zu geben bereit sind. Das ist nämlich für mich der Punkt, wo ich denke, dass wir dauernd aneinander vorbeireden. Sie können den Müßiggang haben. Dann gibt es Formen der Kreditierung. Ich kritisiere das Wort „Müßiggang“. Es geht um Muße, um kreative Muße. Prof. Daxner: Im Lateinischen heißt genau otium (Muße) und negotium (das Geschäftsleben), was die Hayek-Fraktion ja mit Freuden aufgreifen wird.
526
Podiumsdiskussion
Jetzt haben sich Herr Meyer und dann Herr Lindert das Wort erbeten. Prof. Meyer: Herr Daxner, ich höre mit großem Interesse Ihre Hoffnung, die Sie damals als einer der Mitverhandelnden verbunden haben. Aber die Realität des Bologna-Prozesses ist doch genau das Umgekehrte. „Bologna“ wird doch nur gesagt, weil man bei Bologna an Europa denkt. Bei Europa denkt man an EU und wenn von der EU was kommt, dann kann man gar nicht mehr diskutieren, das kann man nur mehr oder weniger grummelnd umsetzen. Dabei hat die Bologna-Erklärung mit der EU überhaupt nichts zu tun. Es ist auch gar keine rechtsverbindliche Erklärung, sondern eine höchst allgemeine Absichtserklärung aller europäischen Bildungsminister, die man dann aber in Deutschland so umgesetzt hat. Und wie hat man sie umgesetzt? Man hat das von vornherein identifiziert mit einem nichteuropäischen Modell, nämlich genau mit dem angelsächsischen. Es wurde die Behauptung aufgestellt, es gibt ein international anerkanntes angloamerikanisches Graduierungssystem. Die Medien haben das alle übernommen, auch in der FAZ habe ich das gelesen. Das gibt es nicht, hat es noch niemals gegeben. Das englische Graduierungssystem ist anders als das amerikanische. Die Werte dieser Grade sind anders. Man ist einfach von den Bezeichnungen ausgegangen. Und diese Bezeichnungen „Bachelor“ und „Master“ haben eine ganz unselige Rolle dabei gespielt. Sie haben den Eindruck vermittelt: jetzt kommen wir endlich in die amerikanisch-geprägte Modernität, lassen all den deutschen Trott hinter uns. Es war ein einziger ideologischer Nebel, der auch die jungen Leute durchaus beeinflusst hat. Ich erinnere mich an Debatten mit Studenten, wo es hieß, wann kommt denn nun endlich der Bachelor, mit dem wir uns dann international und europäisch sehen lassen können? Dabei ist völlig klar: Das Wort steht für so unterschiedliche Dinge, damit kann man sich nicht in England oder Amerika präsentieren. Aber diese Illusion ist erzeugt worden und, das ist für mich als Ossi merkwürdig, sie ist in einem Land erzeugt worden, das seit mehreren Jahrzehnten mit Großbritannien und mit Amerika in engstem Kontakt ist. Es gab also genug Leute, in der Wissenschaft wie in der Politik, die es eigentlich hätten besser wissen müssen, aber es hat sie nicht interessiert, weil sie auch auf dieses Modell gesetzt haben. Und da will ich doch etwas zur Verantwortung der Wissenschaft sagen. Es ist richtig, die Politik trägt da natürlich die Hauptverantwortung, das ist sozusagen ihr Schicksal. Aber es ist von den maßgeblichen Repräsentanten der Wissenschaft genau dieses Ziel vertreten worden, sich nach Amerika zu richten und damit endlich alle die Träume zu verwirklichen, die man haben wollte: dass man sich auf Elite konzentriert, dass man auswählen kann unter den Studenten, nur die Besten haben kann. Ich bin der festen Überzeugung, dass die Idee mit Master und Bachelor, die Herr Rüttgers damals verkündete, nicht auf seinen Mist gewachsen, sondern dass ihm die von maßgeblichen Repräsentanten der deutschen Wissenschaft eingeblasen worden ist. Und das hat auch etwas mit der Vorstellung zu tun, die heute hier vertreten wird: Einen europäischen Wissenschaftsraum zu schaffen, der englisch spricht, wie kürzlich erst wieder verkündet wurde. Das war die Idealvorstellung, die man damit verband. Akkre-
Podiumsdiskussion
527
ditierung. Von wem ist denn die Idee der Akkreditierung gekommen? Sie ist aus der Wissenschaft gekommen. Es war nicht die Idee der Politik. Die Wissenschaft und die Hochschulen haben uns erklärt, das geht alles viel zu langsam mit den Rahmenplänen und da muss mit den Ministerien geredet werden. Wir machen das wie in den USA, obwohl jeder eigentlich weiß, auch in den USA kann man das hören, dass das eigentlich ein höchst unzulängliches System ist. Wir richten Akkreditierungsagenturen ein, die werden von den Hochschulen verantwortet, die werden auch von uns bezahlt – das kam allerdings etwas später, als den Hochschulen klar wurde, dass das was kostet. Und wir schaffen die Verantwortung der Ministerien ab. Das war keine Idee der Politik. Ich muss Sie ein wenig korrigieren. Ich war 1975 bis 1982, als ich selbst an der Hochschule war, an der Entwicklung eines Studienganges beteiligt. – Gemeinsames Grundstudium vier Semester, dann, es war eine sozialwissenschaftliche Richtung, vier Semester, um einen MA oder ein Diplom zu kriegen, oder zwei Semester für einen Fachhochschulabschluss. Prof. Meyer: Das Y-Modell gab es an der Universität, das kann man natürlich in eine Beziehung zur Fachhochschule setzen, das hat aber damit eigentlich nichts zu tun. Es ging immer zum Teil um Berufsqualifikation, vor allem bei den Sozialwissenschaftlern, die für nichts so richtig qualifiziert sind. Und es ist meistens gescheitert am deutschen Beamtenrecht und den Besoldungsgruppen. Wer einen kurzen Ast studiert hat, war A12, wer einen langen Ast studierte, war A13. Natürlich wollten dann alle Fachhochschullehrer C3 oder C4 werden. Man muss nicht alles amerikanisieren. Prof. Meyer: Aber jetzt sagen Sie mir doch mal, wo ist Ihr Argument? Lange bevor amerikanische Vorbilder, lange bevor der Bachelor überhaupt im deutschen Universitätssprachgebrauch war, war das. Prof. Meyer: Ich habe ja gerade gesagt, dass all diese Dinge gescheitert sind. Dieses Y-Modell ist gescheitert, weil Fachhochschulen, Fachhochschulabsolventen und Universitätsabsolventen in der Tat beamtenrechtlich unterschiedlich geregelt werden und das hatte damit eigentlich nichts zu tun. Dann hat der Wissenschaftsrat Anfang der 90er Jahre gesagt, wir machen ein zweiphasiges Studium. Das erste ist mehr beruflich usw. und „exportorientiert“... Aber wir wollen nicht die Geschichte aufarbeiten. Prof. Meyer: Aber erst als man anfing, mit dem Bachelor und Master zu winken, hatte man die Atmosphäre geschaffen, um jede Art von Reform durchzusetzen. Immer mit Berufung auf Amerika. Ich habe doch die Debatten im Wissenschaftsrat und woanders miterlebt. Immer hat man sich darauf berufen: Du willst nicht, dass wir endlich modern werden.
528
Podiumsdiskussion
Ich weiß nicht, wie viele Universitätsreformen ich miterlebt habe, als erleidender Student, als mitgestaltender – alle sind gescheitert. Warum scheitern Reformen an der Universität? Herr Lindert hat sich gemeldet. Hr. Lindert: Ich möchte hier nicht untergehen. Um an Herrn Meyer anzuschließen: Ich bin auch kein Freund davon, die Verantwortung auf eine Seite zu schieben. So nach dem Motto: „Die Politik ist schuld oder die Wissenschaft ist schuld“, das passiert in den Medien gerade zuhauf. Die Hochschuldirektorenkonferenz hat das zuletzt getan, die Wissenschaftsminister haben wieder die Verantwortung zurückgeschoben und lassen Sie mich ehrlich sagen: Ich kann es nicht mehr hören. Die Universitäten und die Landesregierungen gehen gerade das Risiko ein, zwei bis drei Jahrgänge zu verbrennen in ihrem Studium und sie mit irgendetwas die Universitäten verlassen zu lassen, von dem keiner weiß, was er damit anfangen soll, weder die Absolventen, noch die Leute, die sie später einstellen sollen. Und das ist eine Sache, die sich auch nicht mehr klären lässt. Das ist auch nicht mehr sinnvoll. Unser Vorwurf an die Damen und Herren Professoren an den Hochschulen ist ganz klar. Die haben den Start verschlafen. 1999 wurde der Bologna-Prozess angeschoben und als ich 2004an die Hochschule kam, wurden hier erste Überlegungen angestellt, wie denn so ein Bachelor aussehen könnte. Da waren fünf Jahre schon ins Land gegangen. Entschuldigen Sie bitte, das ist mir unverständlich, wieso das so lange dauert, bis es dann konkret wird. Prof. Meyer: Aber das stand in der Bologna-Erklärung gar nicht so. Hr. Lindert: Das ist ja unerheblich. Im Prinzip hätte man ja auch sagen können, man fängt dann gleich an. Herr Steinberg hat uns versprochen, die Antwort darauf zu liefern, warum alle Universitätsreformen schiefgehen. Hr. Lindert: Ich möchte aber noch auf eine Sache eingehen. Dieses Kompetenzwirrwarr, was mit Bologna gekommen ist, also dieses Hin- und Her-Schieben zwischen Universitätsleitung und Fakultäten und der Politik ist das Eine. Der Akkreditierungsrat, und da gebe ich Herrn Meyer recht und auch Herrn Daxner, ist auch völlig unzureichend autorisiert worden. Die Universitäten geben nämlich ihre Studiendokumente und ihre Studiengänge zu den Akkreditierungsräten, die genehmigen das und dann ist es immer noch nicht klar, ob es diesen Studiengang geben wird, geben darf oder nicht, weil die Landesregierungen noch mal drauf gucken wollen. Also: Wozu braucht man dann einen Akkreditierungsrat? Und wozu muss man den dann auch noch bezahlen? Fragen über Fragen kann ich nur sagen. Warum ist keine Reform gutgegangen, Herr Steinberg? Prof. Steinberg: Der Bielefelder Soziologe Willke sagt, Universitäten sind dumme Organisationen, in der leidlich kluge Menschen arbeiten und dann weist
Podiumsdiskussion
529
er darauf hin, dass eben die Fähigkeit zur Selbstorganisation dort nicht sehr ausgeprägt ist. Und das gilt natürlich auch für die Bewältigung der Fragen, über die wir uns hier unterhalten. Man muss aber eins ganz deutlich sehen. Wir haben in den letzten Jahrzehnten im Hochschulbereich eine wirkliche fundamentale Revolution in vielfacher Hinsicht erlebt. Da ist zuerst das quantitative Problem. Als ich 1962 Abitur machte, gingen 5% eines Jahrganges in den tertiären Bildungsbereich. Dann war auch die studentische Bewegung „Studenten aufs Land“ in Freiburg und anderen Universitäten sehr erfolgreich. Wir haben heute 40 % eines Jahrganges, die im tertiären Bildungssektor sind. Dass dafür die Studienbedingungen völlig anders gestaltet werden müssen, das wird Ihnen jeder Hochschullehrer aus vielen Gründen bestätigen. Ich will das nicht vertiefen. Zusätzlich ist mittlerweile auch der hohe Anteil von Studierenden mit Migrationshintergrund ein Problem. Meine juristischen Kollegen etwa beklagen sich, dass es Vielen schwer fällt, auch wenn sie in Deutschland Abitur gemacht haben, die juristische Fachsprache zu verstehen. D. h. wir brauchen eine andere Organisation des Studiums. Und was mich auch ein bisschen stört: Dass der Maßstab möglicherweise auch für das Bachelor-Master-System immer die amerikanischen Elite-Universitäten sind, also Stanford, Harvard, Yale und so weiter. Wir sehen nicht, dass das Gros der amerikanischen Hochschulen weit schlechter positioniert ist als jede deutsche Universität. Und damit haben wir ein verschobenes Maßstabssystem und auch da würde ich dem Herrn Lindert zustimmen: Wir haben in meinen Augen eine ganz gravierende Fehlentwicklung, die in den 70er Jahren begründet wurde. Der steile Anstieg an Studierendenzahlen hat zum Ausbau der Studienplätze an den Universitäten und nicht an den Fachhochschulen geführt. Wir haben in Frankfurt etwa 35.000 Studierende an der Universität und 10.000 an der Fachhochschule. Es müsste umgekehrt sein. Und dann noch der letzte Punkt. Das ist nicht eine Frage des Verschiebens von Verantwortlichkeiten, aber es ist mit diesem riesigen Anstieg der Studierendenzahlen nicht ein entsprechender Anstieg der Ressourcen einhergegangen. Auch das kann man ja nicht bestreiten. Sie reden von einer Milliarde, der Wissenschaftsrat redet von vier Milliarden. Und jetzt zitiere ich eine Bemerkung, die Herr Bracher, der emeritierte Bonner Historiker, neulich gemacht hat. Er sagte: „Wir müssen einfach sehen, dass in diesem Land keine politische Partei in der Lage und bereit ist zu sagen, wir müssen eine grundlegende Umkehr der Ressourcen-Allokation vornehmen, wir müssen weniger in Sozialsysteme und mehr in Bildung investieren.“ Und wenn Sie im Augenblick gerade nach Berlin gucken, da wird gerade eine neue Subvention von einer Milliarde Euro jährlich beschlossen! Das ist ein Zeichen, dass diese Gesellschaft nicht bereit ist, in ihre Zukunft zu investieren. Ich höre ganz unterschiedliche Ergebnisse, was die Berufsfähigkeit der Bachelor angeht. Ich höre auf der einen Seite, sie würden von der Wirtschaft gerne „genommen“. Hat das mit dem Alter zu tun? Aber offensichtlich muss es auch die Ausbildung sein. Und dann höre ich wiederum, die Wirtschaft selbst sei un-
530
Podiumsdiskussion
sicher, was dieses Modell betrifft. Wie steht es da? Kommen die Bachelor am Arbeitsmarkt an oder kommen sie nicht an? Dr. Horn: Ich habe sehr stark den Eindruck, dass die Einstellung zum Bachelor im Wandel begriffen ist. Man hatte sich ursprünglich gewünscht, schneller auf qualifiziertes Personal zugreifen zu können. Wir haben in Deutschland immer noch den vielbeschworenen Facharbeitermangel und in Anbetracht der demografischen Entwicklung wird er sich auch weiter verschärfen. Für die Wirtschaft ist es wichtig sich darauf einstellen zu können. Und dafür müssen Leute verfügbar sein, möglichst auch gleich mit den notwendigen Qualifikationen. Das ist ja wohl ein verständliches Anliegen. Aber so langsam wächst die Skepsis. Man kann sich des Gefühls nicht erwehren, dass die Reform zu weit gegangen ist. Da sind unter dem sehr starken Lerndruck auch eben mehr Lernmaschinen und nicht Denkköpfe entstanden. Das höre ich zunehmend aus verschiedensten Quellen in der Wirtschaft. Mein Eindruck ist, da wird zurückgerudert. Es ist immer häufiger so, dass man sich eben mit einem Bachelor nicht mehr zufriedengibt, sondern noch den Master dazuverlangt. Ich habe mich auch schon gefragt, was ein Bachelor in Germanistik macht. Im Übrigen hat Hans Ulrich Gumbrecht, der in Stanford lehrt, hier auch gesagt, dass wir vollkommen aus den Augen verloren haben, dass das deutsche Universitätssystem gar nicht schlecht war. Sie haben mit Recht gesagt, die ganzen amerikanischen State Universities, die sind in aller Regel viel schlechter. Frau Horn, Sie waren an einer französischen Universität. Da wird ja die Licence, die es nach sechs Semestern gibt, also nach drei Studienjahren, als eine Produktion von Arbeitslosen angesehen. Dass wir das nachmachen, ist schon irgendwie verwunderlich. Herr Daxner, Sie hatten einen Einwurf? Prof. Daxner: Ich habe drei kürze Einwürfe. Herr Steinberg hat recht, wenn es um die Umverteilung geht, weil Bildungsressourcen bei uns nicht als sozial aufgefasst werden. Wir sind eine der wenigen Gesellschaften, die sich es leistet, dem Gott des Einzelhandels jeden, aber der Vorsorge für die Bildung der nächsten Generationen überhaupt keinen Kredit zu geben. Sondern der Staat soll es richten. Falsch. Da muss man sagen, selbstverständlich muss umgeschichtet werden zugunsten einer durchgängigen Bildung. Nicht so kostenlos, wie das immer gesagt wird. Das sind dann aber ökonomische, nicht ökonomistische Details. Zweitens, Frau Horn, ich greife Sie nicht deshalb an, weil Sie für die Wirtschaft forschen, aber ehrlich gesagt, nach so vielen Jahren in der Hochschulpolitik und in der Politik bin ich die Ratschläge der Wirtschaft leid. Vor Bologna, im Beisein von Rüttgers, von Claude Allegre sagte Herr Seidel, der Präsident der Westdeutschen Rektorenkonferenz: „Wir bringen unsere berühmten deutschen Diplome in den Ländern, in denen es darauf ankommt, nicht mehr an. Brasilien, Indien, Südafrika, das sind die Schwellenländer. Die wollen zwei Abschlüsse. Ein berühmter deutscher Diplomingenieur hat nur einen Abschluss, also wird er dort als Bachelor eingestuft.“ Deutschland spielte in der Diskussi-
Podiumsdiskussion
531
on nicht die Nachhink-Rolle, sondern das war der deutsche Druck auf Allegre und die Engländer. Sie haben natürlich recht – das, was sie nachher gefunden haben, ist auch längst jenseits von Schuld und Sühne, aber es ist ärgerlich. Der dritte Punkt, Herr Steinberg, ich gebe Ihnen nicht recht mit der Fachhochschule. Ich denke eher, man hätte es nicht so dilettantisch wie in Kassel machen müssen, aber ich denke, dass Universitäten sich selbst ihre Differenzierung hätten geben können vom zweijährigen College-Zertifikat bis zum Post Graduate. Und der vierte Punkt, der ist mir nun wichtig. Die Hochschulen sollen nicht in einen Konkurrenzkampf getrieben werden, der im Grunde genommen zur sozialen Differenzierung führt. Sondern die kameralistische Homogenisierung, die es in Deutschland noch immer gibt, lässt im Grunde genommen die Profilbildung einzelner Universitäten ins Leere laufen. Jeder wirbt mit dem Gleichen, es gibt eigentlich nur zwei Modelle, zyklisch oder antizyklisch das ist mein letzter Rat. Wenn man sich schon so anglisiert hat, dass man Professional Schools meint bilden zu müssen, dann macht doch für den MBA und meinetwegen die Informatiker, Ärzte und Juristen Professional Schools und lasst den Rest Universitäten sein, aber das traut man sich auch wieder nicht. Also da denke ich, da liegt enorm viel Potenzial drin, dass die Hochschulen das selbst bestimmen. Mein Angriff auf den Staat ist nicht, dass er sich zurückziehen muss, aber der Staat muss die Regeln kontrollieren und der Staat muss den öffentlichen Anteil der Finanzierung regulieren. Aber er soll sich wirklich aus der inhaltlichen Struktur raushalten und selbstverständlich sollen Hochschulen mit dreijährigen Abschlüssen und vierjährigen gegeneinander konkurrieren. Lasst doch mal schauen, wo die Studierenden hingehen. Das entscheiden nicht die Funktionäre, das entscheiden unsere Enkel. In Deutschland gab es ja nicht nur Bologna, es gab auch die sogenannte Exzellenz-Initiative. Ich hatte vor einigen Wochen die Ehre, hier eine Diskussion zu moderieren. Da saßen die von Ihnen so gegeißelten Wissenschaftsorganisationen auf dem Podium. Und wenn ich Frau Wintermantel, die Präsidentin der Hochschulrektorenkonferenz, richtig verstanden habe, sagte sie, die Exzellenz-Initiative solle genau dahin führen, dass die Hochschulen ein eigenes Profil ausbilden. Prof. Meyer: Das muss man anders konstruieren. Da muss man die ExzellenzInitiative anders konstruieren. Da muss man sich auf die Cluster und auf die Fakultäten oder Fachbereiche konzentrieren und nicht einer Universität insgesamt den Titel vergeben. Es gab ja auch Cluster. Es gab ja nicht nur die Titel, es gab auch die Cluster und die wirken inzwischen strukturbildend. Prof. Meyer: Das hab ich doch gerade gesagt. Die dritte Etappe ist absoluter Unsinn. Und sie hat vor allen Dingen einen politischen Grund. Man wollte endlich für Deutschland Exzellenz-Universitäten hinstellen und da konnten sich dann die Politikerinnen und Politiker beruhigen und sagen, wir haben doch auch
532
Podiumsdiskussion
Exzellenz-Universitäten, und wenn es keine Exzellenz-Universität ist, ist sie selber schuld. Prof. Steinberg: Meine Universität hat in diesem Wettbewerb sehr erfolgreich abgeschlossen. Wir haben über 100 Mio. Euro eingeworben plus 60 Mio. Baumittel, aber wir haben nicht das Merkmal der dritten Säule bekommen. Ich bin sehr für Wettbewerb, das kann ich jetzt nicht näher ausführen. Aber ich habe zunehmend den Eindruck, nicht nur an meiner Universität, sondern auch in anderen sogenannten Elite-Universitäten (an einer studiert einer meiner Söhne), dass es wirklich zu einer Verschiebung der Perspektiven innerhalb der Universitäten führt. So sagen etwa Professoren eines Exzellenz-Bereichs einer mir sehr nahen Universität, ich bin jetzt Exzellenz-Professor, ich lehre nicht mehr. Die Studenten haben Schwierigkeiten, einen Prüfer zu finden. Das heißt, es führt zu einem Auswechseln von Zielen innerhalb der Universität. Es werden auch bevorzugt bestimmte Forschungsaktivitäten gefördert. Das sind vor allem DFG-finanzierte Forschungsprojekte. Und andere Forschungsprojekte, etwa Kooperationsprojekte mit der Wirtschaft, die ich für sehr wichtig halte, haben nicht mehr diese Dignität. Ich stimme Ihnen, Herr Meyer, uneingeschränkt zu, dass die ExzellenzInitiative, wenn sie Cluster fördert, ihre Berechtigung hat. Dass sie, was die dritte Säule angeht, eine Katastrophe ist und – was ich nie verstanden habe und da gab es auch ganz unterschiedliche Signale aus der Deutschen Forschungsgemeinschaft – dass Lehre überhaupt keine Rolle spielt. Eine Exzellenz-Universität, bei der das Thema Lehre überhaupt nicht auf dem Prüfstand steht, ist in meinen Augen doch eigentlich ein Fehler. Universitäten sind nicht Akademien. Da wird man Ihnen dann sagen, das hat einen Kompetenzgrund. Aber dann ist das eben von Anfang an falsch angelegt und meine Sorge ist, dass jetzt beim zweiten Durchgang 2012 in den Universitäten dramatische Kämpfe stattfinden. Die Präsidien sind darauf fixiert. Die Kollegen gucken wie die Kaninchen auf dieses Ziel. Und das gilt wahrscheinlich noch mehr für diejenigen, die das Merkmal bereits haben und befürchten müssen, dass man es wieder verliert. Hr. Lindert: Ich würde gerne noch eine Frage anschließen. Ich möchte gerne mal wissen, wie viele Energien, wie viele personelle Kapazitäten alleine die Antragstellung für diese Anträge zu Exzellenz-Clustern, zu Forschungs-Exzellenz, wie auch immer, binden und was da an personellen Ressourcen gefressen wird und ob man nicht diese Sachen hätte besser einsetzen können, indem man den wissenschaftlichen Nachwuchs ausbildet? Eine Aufgabe, die ja neben der Forschung von den Universitäten eigentlich wahrgenommen werden sollte? Auch in ihrem eigenen Interesse. Die grundständige Lehre, die ja ganz gerne bei solchen exzellenten Bildungseinrichtungen oder Eliten-Bildung angebracht wird – das Wort, was immer wieder durch die Presse geistert, von dem ich ehrlich gesagt aber überhaupt nichts halten kann. Das ist ein unglaublicher Aufwand. Ich hatte die Gelegenheit, ein paar Jahre lang im Hochschulrat der Frankfurter Universität zu sitzen. Da wurde präsentiert,
Podiumsdiskussion
533
was man für seinen Exzellenz-Cluster vorhat. Ein unglaublicher Aufwand und übrigens auch viel Spiegelfechterei – aus dem Vorlesungsverzeichnis haben verschiedene Fächer ein bisschen zusammenkomponiert, was sie ohnehin machten! Aber wir müssen zum Ende kommen. Alle an diesem Tisch haben gesagt, was da passiert ist, ist Mist. Sieht einer von Ihnen denn die Hoffnung, dass daran was geändert werden kann? Frau Horn, glauben Sie, dass die Universitäten die Kraft haben, selbst auszumisten? Dr. Horn: Darauf würde ich gerne meine Hoffnung setzen. Aber ich glaube, dass institutionell die Anreize nicht entsprechend gesetzt sind. Ich hätte mir schon erhofft, dass da politisch noch einmal ganz andere Impulse gegeben werden. Seit Ende September habe ich diese Hoffnung leider vorläufig nicht mehr. Ich hatte eigentlich darauf gesetzt, dass die bürgerliche Koalition, in dieser Hinsicht vielleicht ein bisschen innovativer sein würde. Ich hätte mir z. B. vorstellen können, dass man in Berlin ein neues Ministerium schafft, in dem man Querschnittthemen zusammenfasst wie Bildung und Demografie und alle ähnlichen für uns entscheidenden Zukunftsthemen Dort hätte vielleicht auch ein Guido Westerwelle Zeichen setzen und sich profilieren können, mit etwas Neuem, mit einem großen Wurf. Es ist anders angekommen, leider. Insofern bin ich eigentlich sehr enttäuscht. Ich erwarte in dieser Legislaturperiode auch keine Besserung mehr. Aber ich glaube, ohne einen innovativen, ganzheitlichen Impuls wird es verdammt schwer. Insofern, tut mir leid, bin ich ein bisschen pessimistisch. Können sich die Universitäten aus ihrem eigenen, selbst geschaffenen Sumpf am eigenen Schopf herausziehen? Prof. Steinberg: Nein, das ist vollkommen ausgeschlossen. Sie sind Teil der Gesamtgesellschaft, des Wirtschaftssystems und wir haben ja eine gegenläufige Entwicklung. Wir haben auf der einen Seite die Föderalismusreform, die ich anders als Herr Daxner nachdrücklich begrüße. Aber wir haben auf der anderen Seite ja eine heimliche Zentralisierung. Über DFG, über Wissenschaftsrat, über Akkreditierungsagenturen haben wir, wenn man so will, Bürokratien bekommen, die längst nicht so im Fokus stehen, die nicht so bekannt, nicht so transparent sind, die nicht nach denselben rechtsstaatlichen verwaltungsrechtlichen Regeln arbeiten und die für uns dann eben, also für eine einzelne Universität, die Anreize vorgeben. Und ich habe ja eben am Beispiel der Exzellenz-Initiative geschildert, dass die Anreize z.T. falsch sind und das, was wir von den Akkreditierungsräten bekommen, stellt heimliche Gleichmacherei dar! In Nordrhein-Westfalen steht sogar im Hochschulgesetz drin, es können acht Semester für den Bachelor sein, und ich glaube, die Zahl der achtsemestrigen Bachelor-Studierenden in Nordrhein-Westfalen ist nicht höher als in Sachsen oder Hessen. Vielen Dank, Herr Meyer. Über die Föderalismusreform gibt es offensichtlich Meinungsunterschiede hier am Tisch, die wir nicht mehr ausdiskutieren können.
534
Podiumsdiskussion
Prof. Meyer: Doch, doch. Ich halte die Föderalismusreform für die größte politische Dummheit der Bundesrepublik seit ihrer Gründung im Jahr 1949. Wie sollen wir denn eine nationale Bildungsdebatte durchführen, damit man auch politisch etwas bewegt, wenn man keinen Zielpunkt dafür hat? Wie konnte man die wenigen Kompetenzen – der Bund hatte die im Bereich der Hochschulen – abgeben und anschließend eine Bildungsrepublik ausrufen? Das ist mir völlig schleierhaft. Ich kriege das nicht zusammen. Derzeit kann die Situation eigentlich nur so sein, dass vielleicht ein Landesminister politischen Ehrgeiz entwickelt und in der KMK sich querstellt. Prof. Steinberg: Warum tut er es nicht? Ist doch alles wunderbar gelaufen. Wir haben Bildungsföderalismus und alle haben den gleichen Mist gebaut, alle 16 Länder. Das kann doch nicht an der Föderalismusreform gelegen haben!. Prof. Meyer: Wir kommen ohne eine Nationaldebatte, in der man die Forderungen auf einen Punkt konzentriert, nicht weiter oder wir müssen im gegenwärtigen Zustand darauf hoffen, dass ein Land sich aus dem Ganzen herausbildet. Eine einzelne Universität kann es nicht. Hr. Lindert: Ich bezweifele zum Einen, dass jemand in der Politik, in den Ländern den Mut haben wird, es zu tun. Und es hängt ja dann nicht nur an diesem einen Minister / Ministerin, sondern es müssen dann ja auch die Universitätsleitungen mitspielen, um etwas zu ändern. Da bin ich auch skeptisch. Sie hätten die Möglichkeit, wenn sie einen Faktor berücksichtigen würden, der bei diesen Debatten um die Ausrichtung der Universität gerne vergessen wird: Das sind die Studierenden. Es gibt an allen Universitäten Studierende, die sich mit der aktuellen Entwicklung an ihrer Universität sehr intensiv auseinandersetzen, natürlich kritisch sind, weil sie ja das große Verwaltungschaos, vor allen Dingen die Unterfinanzierung, sehen. Aber die Universitäten sind bisher nicht in der Lage gewesen, diese Studierenden einzubinden und mit ihnen zusammen eine Idee davon zu entwickeln, wo sich diese Universitäten hin entwickeln wollen, sollen und können. Und solange das nicht der Fall ist, wird es immer wieder, wie hier in Leipzig in diesem Jahr schon zweimal passiert, Studierende geben, die das Rektorat oder Hörsäle besetzen oder sonst was unternehmen, weil sie mit dem nicht einverstanden sind, was hier passiert. Diese Studierenden sind aber in der Regel diejenigen, die sich am intensivsten und am stärksten damit auseinandersetzen, was an ihrer eigenen Universität eigentlich passiert. Und solange die Verantwortlichen nicht in der Lage sind, diese Leute dafür zu begeistern, mitzugestalten und sie dann auch in verantwortlichen Positionen einzubinden, nicht nur so pro forma nach dem Motto: „Wir haben mal mit denen geredet“, solange glaube ich auch nicht, dass sie die Kraft haben und vor allen Dingen auch die personellen Möglichkeiten, etwas an ihren Hochschulen zu verändern.
Podiumsdiskussion
535
Herr Daxner, Sie hatten das erste Wort. Jetzt sprechen Sie als Letzter. Prof. Daxner: Ich bin nicht so pessimistisch. Gemessen an dem, was wir zwischen 1963 und der Umgestaltung des Hochschulwesens zwischen 1972 und 1975 geschafft haben, ist die Aufgabe gar nicht so groß. Meines Erachtens müssen wir vier Sachen machen. Der erste Punkt ist der Meyer’sche Punkt. Es muss einen konsensfähigen und daher kompromisshaften Rahmen geben für das, was wir wollen. Das, was wir wollen, sind vernünftige Übergangsquoten aus dem Sekundar-Schulwesen in den tertiären Sektor. Das ist heute überhaupt nicht diskutiert worden. Zweitens, die Hochschulen verhandeln mit dem Staat die Binnendifferenzierung des deutschen Hochschulsystems und zwar selbstverständlich unter Berücksichtigung der bereits an Brüssel abgegebenen Souveränitätsrechte. Und drittens, der Einbezug der Studierenden bedeutet auch, die Leistungsanforderungen und die sozialen Ansprüche der Studierenden drin zu haben. Das sind zwei Stellschrauben in dem ganzen System. Eines ist klar, wenn wir sowohl die Verbesserung der Studienbedingungen als auch mehr Freiraum für Studium und weniger Prüfungen plus Offenhalten der Hochschulen wollen – wir haben ja noch immer einen verfassungswidrigen Numerus Clausus –, dann müssen die Bildungssozialsysteme in diesem Land vollkommen verändert werden. Ich denke, das hat auch Herr Steinberg gemeint. Dann ist es selbstverständlich klar, dass wir u. a. über kreditiertes Studienhonorar und Erwerbsarbeitsverbot diskutieren. Denn sonst kann man nicht sagen, wir können studieren. Wir haben etliche große Prozentzahlen an Studienabbrechern, die wegen der Erwerbsarbeit, die unter dem Bachelor schwieriger geworden ist als vorher, schlicht verschwinden. Das heißt aber vor allem – und da bin ich überhaupt nicht kritisch zu den Vertretern hier – wir haben vergleichsweise wohlstandsverwahrloste Eltern und Großelterngenerationen, die sich um die Bildung einen Dreck scheren, die alles auf den Staat abwälzen. Ich finde das ganz schlimm und das wäre eine gesetzliche Aufgabe. Die Bildungsentscheidung muss zwischen dem Staat und den Eltern eindeutig geklärt werden – vor dem Eintritt in die Universität. Wie auch immer sie geklärt wird: Im Augenblick gibt es eine Negativkoalition von Elternwillen und ungeklärten Leistungsanforderungen in der Sekundarschule, die den Übergang zur Universität sehr schwer macht mit dem Vierpunkteprogramm. Und ein bisschen Umverteilung der bestehenden Budgets ist meines Erachtens zu machen. 1965 war die Situation viel schlimmer. Da waren viele in diesem Saal noch gar nicht auf der Welt. Ich fürchte, wir werden im nächsten Jahr oder auch danach eine Fortsetzung dieser Diskussion erleben, denn ob man viel oder weniger hoffnungsvoll ist: langwierig ist es immer. Der Staat in seiner Rolle wie auch die Universitäten, die Beiboote, die brauchen lange, um zu drehen und Kurse zu korrigieren. Das jedenfalls ist eine Erfahrung, die, glaube ich, vollkommen unwidersprochen ist. Ich bedanke mich ganz herzlich bei den Diskutanten.
Grußwort des Rektors zum Positionsvortrag des Bundestagspräsidenten, Professor Dr. Lammert Von Prof. Dr. Franz Häuser Hochverehrter Herr Bundestagspräsident Professor Lammert, herzlich willkommen wieder einmal in Leipzig, und diesmal in der Universität, die am Mittwoch in Anwesenheit des Bundespräsidenten ihren 600. Geburtstag gefeiert hat. Der Bundespräsident hatte seine Leipziger Rede zum Universitätsjubiläum in eindrucksvoller Weise der derzeitigen kritischen Situation an den Hochschulen gewidmet; sie hat viel Aufsehen und Zustimmung gefunden. Aufgefallen ist mir in den Wiedergaben der Rede und ihrer medialen Kommentierung, dass man vor allem die kritischen Äußerungen zur Studienreform in den Vordergrund rückte, und so der Anlass und Anstoß zur Rede, nämlich unser Jubiläum in den Hintergrund trat, wenn nicht ganz verschwiegen wurde. Eigentlich Schade! Zum Ende der Jubiläumswoche nun heute den Bundestagspräsidenten als Vortragenden zu Gast zu haben, ist, so denke ich, ebenfalls ein attraktiver Höhepunkt in einem ereignisreichen Jubiläumsjahr. Wir sind in der Universität natürlich auch in dem Gender-Thema sehr sensibilisiert und fühlen uns immer und redlich den DFG Standards verpflichtet. So haben wir uns im Jubiläumsjahr ganz intensiv um weibliche Mitwirkende aus der Politik bemüht, so z. B. um die Absolventin und Ehrendoktorin unserer Universität, Angela Merkel. Nachdem wir uns das eine über das andere Mal einen Korb geholt hatten, wollten wir eine Quote einführen, etwa 2:1. Auch hier sind wir an die Grenze des Machbaren gestoßen, denn die Quotenregelung verpflichtet ja nur den einen Teil. Wessen Werben auf Ablehnung stößt, dem nützt auch die Quote nichts. Nur der Vollständigkeit halber will ich erwähnen, dass auch die Bundesbildungsministerin keine Zeit für die Universität Leipzig im 600. Jahr ihrer Gründung hatte, eingeladen hatten wir sie schon. Irgendwelche Talkrunden waren wohl aber wichtiger. Meine Damen und Herren, verzeihen Sie bitte diese kritischen Worte am Ende des Jubiläumsjahres, zu einem Zeitpunkt also, in dem diplomatische Rücksichtnahme nichts mehr zu bewirken mag. Und vor allem auch deshalb gilt unser aller Zuneigung und Dank dem Bundespräsidenten und dem Bundestagspräsidenten. Offensichtlich nehmen sie beide die Universität ernst und zeigen dies auch durch Ihre Präsenz konkret vor Ort. Meine sehr verehrten Damen, meine Herren, den ersten Tag unseres dritten Leitkongresses hat Professor Mittelstraß mit einem Grundsatzreferat eingelei-
538
Grußwort
tet und die Thematik des Kongresses aus wissenschaftstheoretischer und sehr idealistischer Sicht beleuchtet. Im Anschluss daran haben fünf Tracks einzelne Aspekte der Ökonomisierung im Hinblick auf Forschung, Lehre und Bildung behandelt. Am Vormittag des zweiten Tages haben die Professoren Frey aus Zürich und Schefold aus Frankfurt am Main Pro und Contra-Positionen bezogen. Anschließend wurde die Thematik im Rahmen einer Podiumsdiskussion unter Leitung von Professor Meißner aus Frankfurt diskutiert. Die Tracks am frühen Nachmittag beschäftigten sich mit den Institutionen der Wissensgesellschaft, insbesondere mit Universitäten und Forschungsinstituten, aber auch Schulen und Bibliotheken. Am späten Nachmittag fand dann eine von Professor Nonnenmacher geleitete Podiumsdiskussion statt, die sich alsbald auf die Studienreform nach dem Bologna-Modell fokussierte, und die dann und vielleicht gerade deshalb nicht mehr sehr kontrovers geführt wurde. In der kritischen Diagnose ist man sich offenbar so schnell einig, dass Vorschläge zu wirkmächtigen konkreten Therapien oder Heilmitteln ausbleiben oder wohlfeil bei denen abgeladen werden, denen man zuvor gerade Unfähigkeit attestiert hat, nämlich bei den Universitäten. Prozedural empfiehlt man dann die studentische Mitwirkung möglichst autonomer Gruppen und übersieht gelinde, dass alle Studien- und Prüfungsordnungen paritätisch mit Lehrenden und Lernenden besetzte Studienkommissionen der Fakultäten passiert haben müssen. Beim zu fordernden Durchbruch zu Bachelor-Abschlüssen, die mehr sind als zertifizierte Studienabbrüche und die den Absolventen intakte Berufschancen eröffnen, erscheint es so, als ob sich alle Akteure, wenn auch aus unterschiedlichen Motiven, verschworen hätten, dieses heikle Thema nicht anzurühren. Ich empfehle allen Kritikern die Rede des Bundespräsidenten zu lesen, der darin nämlich auch darauf hingewiesen hat, dass der gelegentlich erweckte Eindruck eines früheren goldenen Studienzeitalters schlichtweg falsch ist. Der dritte Tag soll der Öffnung der Hochschule dienen und nach Möglichkeit auch die Bevölkerung Leipzigs ansprechen. Mit dem Thema „Ökonomie und Gesellschaft“ wird zunächst eine etwas breitere Perspektive aufgegriffen, der grundsätzliche Stellenwert der Ökonomie für die Gesellschaft soll noch einmal hinterfragt werden. Wir freuen uns besonders, hierfür einen Referent gewonnen zu haben, der von Haus aus Sozial- und Politikwissenschaftler ist und gleichzeitig ein herausgehobenes politisches Amt innehat, nämlich seit 2005 das des Bundestagspräsidenten und nebenbei auch Honorarprofessor an der Ruhr-Universität in Bochum ist. Herr Bundestagspräsident, Sie haben das Wort!
Ökonomie und Gesellschaft Von Norbert Lammert 1 In wenigen Tagen geht ein Jahr zu Ende, das auch durch eine Serie von Jubiläen und Gedenktagen gekennzeichnet war, die sich nicht alle in gleicher Weise zum Feiern eignen: 20 Jahre Fall der Mauer, 60 Jahre Grundgesetz, aber eben auch 60 Jahre Gründung zweier deutscher Staaten als Folge des zweiten Weltkrieges, der vor 70 Jahren von Deutschland ausgegangen war. 80 Jahre liegt die Weltwirtschaftskrise zurück, an die wir in diesen Wochen und Monaten mehrfach nicht nur wegen des runden Jahrestages Gelegenheit hatten zurückzudenken, und 90 Jahre die Gründung der Weimarer Republik, des ersten Versuchs, in Deutschland eine parlamentarische Demokratie zu etablieren, die aus bekannten Gründen bereits nach weniger als 14 Jahren am Ende war. In die Serie dieser Ereignisse, dieser Jubiläen und Gedenktage fügt sich das 600-jährige Jubiläum der Leipziger Universität als statistisch nicht überbietbares Ereignis in einer besonderen Weise ein, wobei es durchaus Sinn macht, gelegentlich daran zu erinnern, dass gerade wegen dieser großen Ereignisse die Kleineren manchmal fast ganz aus der Erinnerung zu verschwinden drohen. Im gleichen Jahr, 1409, in dem die Universität Leipzig gegründet wurde, entstand zum Beispiel in Brügge auch die erste europäische Börse. Nach meiner Kenntnis haben sich die dortigen Feierlichkeiten im Vergleich zu den Leipzigern sehr in Grenzen gehalten. Immerhin findet sich im historischen Kompendium des Dresdner Historikers Peters Fessler zur Globalisierung ein durchaus beachtlicher Hinweis, der uns jedenfalls sehr in die Nähe des Symposiums führt, das heute Vormittag zum Abschluss gebracht werden sollte. „Im flanderischen Brügge“, schreibt Peter Fessler, „befindet sich bis zum heutigen Tage die Keimzelle jener Einrichtung, die wie keine andere die ökonomische Seite der Globalisierung symbolisiert – die Börsen. Das Haus der dort ansässigen Patrizierfamilie van der Beurse – am Giebel dieses Patrizierhauses befand sich ein Wappen mit drei Geldbörsen – gab dieser Einrichtung ihren Namen.“ So harmlos fängt so was an! Fessler schreibt weiter: „In der Nähe des Anwesens trafen sich Bankiers, Produzenten und Händler, um ihre Geschäfte zu besprechen und abzuschließen. Von 1
Prof. Dr. Norbert Lammert ist seit 2005 Präsident des Deutschen Bundestages.
540
Norbert Lammert
dieser ursprünglichen face-to-face-Institution“ − auf diese Bezeichnung wären allerdings die Gründer 1409 sicher nicht gekommen – „leitet sich der globale Markt für Waren, Devisen und Wertpapiere aller Art ab, dessen Geschäfte zwischenzeitlich auf Zuruf, heute meist elektronisch abgewickelt wurden bzw. werden.“ Nun gibt es noch ein zweites Zitat, das mir im Kontext der Leipziger Universitätsfeierlichkeiten einschlägig erscheint und – Sie sehen, dass wir trotz der besonderen Herausforderungen in der Konstituierung eines neuen Bundestages keinen Aufwand gescheut haben, diese heutige Veranstaltung ordentlich und dem Anlass gemäß vorzubereiten – wir sind bei der Durchsicht aller Universitätsdokumente, insbesondere solcher, die sich mit früheren Jubiläumsfeierlichkeiten auseinandersetzen, auch auf den 400 Seiten starken amtlichen Bericht im Auftrage des Akademischen Senats gestoßen, den der damalige Rektor dieser Universität, der Strafrechtsprofessor Karl Binding, zu den 500-Jahrfeiern dieser Universität verfasst hat. Im Vorwort zu diesem Bericht heißt es: „Die Meinung des Senats ging dahin, die finanzielle Seite außer Betracht zu lassen.“ Ich habe wenige Zweifel, dass im amtlichen Bericht der Feierlichkeiten dieses Jahres ausdrücklich festgehalten werden wird, dass umgekehrt dieses Mal gerade die finanzielle Seite Gegenstand besonderer Betrachtung gewesen ist − nicht nur mit Blick auf die finanziellen Angelegenheiten und Perspektiven der Hochschule selbst, sondern auch mit Blick auf die Umgebung, in der sie ihrem Auftrag nachgeht. Wie viel Ökonomie die Wissensgesellschaft braucht und wie viel Ökonomie sie verträgt, das wissen Sie alle nach einer Serie von Vorträgen und Diskussionen unter diesem Titel jetzt hoffentlich ganz genau. Oder Sie wissen mindestens noch besser als vorher, warum sich diese Frage so genau oder gar abschließend eben doch nicht beantworten lässt. Sie ahnen: Die letzte Bemerkung ist die unauffällige Überleitung zu meinem Thema und die Begründung für die Ankündigung, warum ich sie auch nicht beantworten kann, jedenfalls nicht abschließend, sondern dass ich den Versuch unternehmen will, gerade vor dem Hintergrund jüngerer Erfahrungen, Eindrücke und Urteile mit einigen Hinweisen zu der Klärung beizutragen, die wie alle Klärungsprozesse in lebendigen Gesellschaften immer nur eine begrenzte Haltbarkeit hat. Zumal sich die Neigung, sich bei gleichen oder ähnlichen Problemlagen auf die Erfahrungen zu stützen, die vorher mal gemacht werden konnten oder mussten, in erstaunlichen Grenzen hält. Ich habe mir vorgenommen, unter dem hinreichend allgemein gehaltenen Themen Ökonomie und Gesellschaften einige Hinweise zu geben zu einigen der unvermeidlichen typischen klassischen Spannungsverhältnisse, die sich gerade aus der Verbindung gesellschaftlicher Ansprüche und Erwartung auf der einen Seite und ökonomischer Perspektiven und Notwendigkeiten auf der anderen in unserer heutigen Wirtschafts- und Gesellschaftsordnung ergeben. Da geht es um das Verhältnis von Ordnung und Moral, das Verhältnis von Demokratie und
Ökonomie und Gesellschaft
541
Markt, von Gleichheit und Ungleichheit in einer Gesellschaft, von Ansprüchen und Erwartungen, um Gerechtigkeit und Gemeinwohl. Es geht um das alles andere als neue, aber gründlich veränderte Verhältnis von Kapital und Arbeit. Es geht auch um das Verhältnis von Unternehmen und Unternehmern, was begrifflich näher beieinander liegt als in der Wirklichkeit. Und es geht nicht zuletzt um das Verhältnis von Vertrauen und Misstrauen, das es in unserer Gesellschaft gegenüber Menschen und Institutionen gibt und von dem man auf den ersten Blick nicht ganz ohne Grund vermuten könnte, dass es sich spätestens hier sicher nicht mehr um ökonomische Kriterien handelt, von denen ich aber schon mal vorab behaupten will, dass ihre ökonomische Relevanz nach wie vor hoffnungslos unterschätzt wird. Beginnen möchte ich mit einem weiteren Zitat, das nicht zu einem Jubiläum formuliert worden ist, sondern aus einer der, nach wie vor bedeutendsten wissenschaftlichen Auseinandersetzungen über das Verhältnis von Ökonomie und Gesellschaft, von sozialen und ökonomischen Kategorien, stammt, nämlich der berühmten Studie Max Webers über protestantische Ethik und den Geist des Kapitalismus. Ich vermute, dass das Zitat, das ich jetzt vortragen will, ohne Kennzeichnung des Autors und des Entstehungsjahres auch heute manchen Tageskommentar zur Lage unauffällig schmücken könnte: „Die heutige kapitalistische Wirtschaftsordnung ist ein ungeheurer Kosmos, in den der Einzelne hineingeboren wird und der für ihn wenigstens als Einzelnen als faktisch unabänderliches Gehäuse, in dem er zu leben hat, gegeben ist. Er zwingt dem Einzelnen, soweit er in den Zusammenhang des Marktes verflochten ist, die Normen seines wirtschaftlichen Handelns auf. Der Fabrikant, welcher diesen Normen dauernd entgegenhandelt, wird ökonomisch ebenso unfehlbar eliminiert wie der Arbeiter, der sich ihnen nicht anpassen kann oder will als Arbeitsloser auf die Straße gesetzt wird. Der heutige, zur Herrschaft im Wirtschaftsleben gelangte Kapitalismus also erzieht und schafft sich im Wege der „ökonomischen Auslese“ die Wirtschaftssubjekte – Unternehmer und Arbeiter – deren er bedarf.“ Das hätte Max Weber schon zum 500. Jahrestag der Gründung dieser Universität vortragen können, wenn er denn eingeladen worden wäre und nicht Quotenrücksichten zum Opfer gefallen wäre, und alleine dieser Hinweis macht deutlich, dass wir bei allen natürlich beachtlichen Veränderungen in Dimensionen, Mechanismen, Instrumentarien es im Kern nicht mit neuen Fragestellungen zu tun haben, sondern mit alten. Und dass es deswegen wohl weniger darum geht, in einer vermeintlich völlig neuen Welt völlig neue Kriterien für völlig neue Fragestellungen zu entwickeln, sondern eher umgekehrt uralte Fragestellungen auf veränderte Verhältnisse neu anzuwenden und zu prüfen, ob und wo sich die gesellschaftliche oder ökonomische Notwendigkeit zur Justierung ergibt gegenüber früheren Einschätzungen und Einsichten. Ich will von den eben genannten Begriffspaaren, mit denen ich mich auseinandersetzen möchte, mit den beiden Begriffen Demokratie und Markt beginnen.
542
Norbert Lammert
Ob und in welchem Umfang sich diese beiden Ordnungsvorstellungen der Demokratie im politischen und des Marktes im wirtschaftlichen Bereich ein und derselben Gesellschaft miteinander vertragen oder wechselseitig im Wege stehen oder gar ausschließen, darüber gibt es inzwischen meterweise Literatur in allen ordentlichen Universitätsbibliotheken. Und es lassen sich sowohl bemerkenswerte Belege für die Behauptung der strukturellen Unvereinbarkeit wie gegenteilig der außerordentlichen Nachbarschaft dieser beiden Strukturprinzipien vortragen. Nach meiner persönlichen Einschätzung sind im Saldo die Gemeinsamkeiten dieser beiden Ordnungssysteme relevanter als die Unterschiede: Beiden Systemen, der Wirtschaftsordnung Markt und der politischen Ordnung Demokratie, liegt das gleiche Strukturprinzip zugrunde, nämlich, in Wettbewerben Ergebnisse zustande kommen zu lassen nach nicht identischen, aber durchaus ähnlichen Verfahren. Dabei machen wir übrigens nicht erst zu Beginn des 21. Jahrhunderts die gelegentlich ernüchternde Erfahrung, dass auch in stabilen demokratischen Systemen Fehlentwicklungen und Fehlleistungen möglich sind und dass sie auch in höchsten Rängen von Politik und Wirtschaft stattfinden. Diese Belege muss ich nicht vortragen, weil sie sich täglich in den Zeitungen finden. Aber wir sollten mit dem notwendigen richtigen Hinweis auf diese Möglichkeit nicht den Blick auf die Erfahrung verstellen, dass es unter den bisher bekannten und praktizierten politischen wie ökonomischen Systemen keine ausgewiesenen Alternativen gibt, die schneller und wirkungsvoller stattgefundene Fehlentwicklungen und Fehlleistungen als solche offenbaren und Veränderungen erzwingen. Diese Fähigkeit, Transparenz zu erzwingen, Fehlentwicklungen zu identifizieren, Irrtümer zu korrigieren und falsche Entwicklungen abzustellen, ist keinesfalls ein zweitrangiges Merkmal für die tatsächliche Leistungsfähigkeit von Ordnungssystemen. Noch einmal: Ich habe gerade nicht die Frage beantwortet, ob in Marktsystemen oder in Demokratien Fehlentwicklungen seltener vorkommen als in autoritären politischen Systemen oder in nicht nach Wettbewerbsmechanismen sortierten Wirtschaftsmodellen. Aber ich halte es für offenkundig, dass die Aussicht, dass Fehlentwicklungen als solche erkannt und korrigiert werden, unter Wettbewerbsbedingungen signifikant höher ist und nicht nur im Allgemeinen, sondern auch auf die Zeitachse bezogen die Wahrscheinlichkeit der Korrektur erstens überhaupt und zweitens früher gegeben ist als in Nicht-Wettbewerbssystemen. Zum zweiten Begriffspaar: Ordnung und Moral. Der Umgang mit moralischen Ansprüchen gegenüber kodifizierten Systemen ist eine besonders delikate Herausforderung. Ich bin wie Oswald von Nell-Breuning, der nicht als bedeutender Unternehmer, sondern als bedeutender Sozialethiker in die Nachkriegsgeschichte eingegangen ist, der Überzeugung, dass man diejenigen politischen und ökonomischen Systeme allen anderen Varianten vorziehen sollte, die die geringsten Ansprüche an die individuelle Moral stellen. Diese auf den ersten Blick verblüffende Auskunft, die man selbst auf den zweiten Blick schon gar von einem
Ökonomie und Gesellschaft
543
Theologen für einen Anflug von Zynismus halten könnte, ist bei genauem Hinsehen sehr gut durchdacht. Ein System, ob in der Wirtschaft oder in der Politik, das nur dann funktioniert, wenn alle Beteiligten mit hohen moralischen Ansprüchen an ihr eigenes Verhalten und insbesondere natürlich an das Verhalten anderer zurande kommen, ein solches System funktioniert in der Regel überhaupt nicht. Denn es zahlt Prämien an diejenigen, die sich diesem erwarteten Moralkodex nicht beugen und nur den eigenen Vorteil verfolgen. Deswegen will ich ausdrücklich unter Betonung der Ernsthaftigkeit dieses Problems, das ich nicht für ein marginales und schon gar nicht für ein banales halte, gleich zu Beginn meine ausdrückliche Skepsis gegenüber gesetzlichen Regelungen tatsächlicher, vermeintlicher, eingetretener und befürchteter Fehlentwicklungen zu Protokoll geben. Die Forderung, zu diesem und jenem nach offenkundigen oder bereits bevorstehenden Problem bedürfe es ganz offenkundig einer natürlich möglichst durchgreifenden gesetzlichen Regelung, gehört zu den ebenso regelmäßigen wie hilflosen Reflexen unserer Gesellschaft. Eine Gesellschaft, die moralische Ansprüche kodifizieren muss, die in gesetzliche Verpflichtungen umsetzen muss, was sie an sozialem Verhalten von ihren Mitgliedern erwartet, hat aber die Schlacht schon verloren, die auf dem Feld der Gesetzgebung gar nicht gewonnen werden kann. Vielleicht kann ich in diesem Zusammenhang mit einem anderen Zitat weiterhelfen, bei dem ich eine gewisse Freude an der Versuchsanordnung hätte, sie anschließend nach dem möglichen Autor zu fragen. „Eine Moral, die die Sachkenntnis der Wirtschaftsgesetze überspringen zu können meint, ist nicht Moral, sondern Moralismus, also das Gegenteil von Moral.“ Der Satz stammt von Joseph Kardinal Ratzinger, dem heutigen Papst. Auch unter Berücksichtigung der gerade vorgetragenen Relativierungen besteht natürlich Anlass, darüber nachzudenken, ob in unserem Wirtschafts- wie in unserem politischen System, die beide aus guten Gründen so verfasst sind wie beschrieben, das Maß auch und gerade an moralischen Standards, an Verhaltensmustern gesichert ist und verlässlich unterstellt werden kann, ohne das Verfassungsinstitutionen und die Wirtschaftsunternehmen zwar nicht unbedingt ihre Funktionsfähigkeit riskieren, ganz sicher aber ihre Glaubwürdigkeit. Und deswegen will ich zu einem dritten Begriffspaar einige Bemerkungen machen: Zum Verhältnis von Gleichheit und Ungleichheit – ein Thema, das sich übrigens ebenfalls nicht erst in modernen Gesellschaften erstmals stellt, sondern das so alt ist wie die Geschichte der Menschheit. Wenn es mit Blick auf dieses Begriffspaar überhaupt eine relevante Veränderung in der Menschheitsgeschichte gibt, dann ist es vielleicht die, dass wir heute wie immer schon ein erhebliches Maß an realer Ungleichheit haben, das heute im Unterschied zum größeren Teil der Menschheitsgeschichte in den so genannten fortgeschrittenen Gesellschaften allerdings mit einem ausdrücklichen normativen Gleichheitsprinzip konfrontiert ist. Wie gehen Gesellschaften, wie gehen moderne Gesellschaften damit um, dass sie das Prinzip der Gleichheit
544
Norbert Lammert
aller Menschen inzwischen als geschriebenes Verfassungsprinzip wie eine Fahne vor sich hertragen und gleichzeitig im täglichen Leben, in den tatsächlichen Lebensverhältnissen der Menschen, ein immer größeres Maß an tatsächlicher Ungleichheit wenn schon nicht bewirken, dann doch wohl mindestens tolerieren. Ich persönlich – jetzt kommen wir in die Nähe der Glaubensbekenntnisse – ich persönlich glaube nicht, dass es ein generelles Bedürfnis nach Gleichheit der tatsächlichen Lebensverhältnisse gibt. Anders formuliert: Ich habe den Eindruck, dass die allermeisten Menschen mit dieser gerade erwähnten statistischen Ungleichheit relativ gut zurechtkommen. Ungleichheit ist, auch dies im Übrigen ein persönliches Glaubensbekenntnis, Ungleichheit ist wahrscheinlich eine der größten Vorzüge der Schöpfung. Die Menschheit befände sich ganz sicher in einer völlig anderen Lage, in einer völlig anderen Verfassung im wörtlichen und übertragenen Wortsinn, wenn es Ungleichheit mit ihren stimulierenden Wirkungen einschließlich der Frustrationserfahrungen der Ungleichheit nicht gäbe. Ungleichheit wird aber immer dann ein Problem, wenn es keinen plausiblen Zusammenhang mehr gibt zwischen individueller Leistung und individuellen Lebensverhältnissen – oder auch zwischen der Exklusivität eines Angebotes oder einer Leistung auf der einen Seite, um es ökonomisch zu formulieren, und damit verbundenem Einkommen und Vermögen auf der anderen Seite. Und Ungleichheit wird spätestens dann zu einem gesellschaftspolitischen Problem, wenn der Eindruck entsteht, dass selbst bei verweigerter Leistung oder bei nachgewiesenen dramatischen Fehlleistungen die Bezahlung oder Abfindung besonders üppig ausfällt. Und hier rede ich nun auch offenkundig nicht über ein theoretisches Problem, sondern über ein reales. Auch hier gilt: Dass es allein mit Blick auf die Vergütung von Arbeitsleistungen beachtliche Unterschiede und Differenzen gibt, ist keine Erfindung der Neuzeit. Aber die Begabung der Neuzeit, vorhandene Differenzierungen, technisch formuliert: weiterzuentwickeln, politisch formuliert: ungelöste Übertreibungen zu steigern, statt zurückzunehmen, ist schon bemerkenswert. Mit Blick auf multinationale Unternehmen − mit den sich daraus naturgemäß ergebenden zusätzlichen Unschärfen in der Vergleichbarkeit der jeweiligen Einkommensrelationen − gibt es nach jüngeren Studien folgende interessante Veränderungen der Proportionen in den jeweiligen Einkommen bzw. Vergütungen: In den 70er Jahren erhielten die Vorstandsvorsitzenden multinationaler Unternehmen rund 25 bis 30mal soviel Gehalt wie die Beschäftigten ihres jeweiligen Unternehmens. In den 80er Jahren waren es 40mal soviel, 1990 waren 100mal soviel, im Jahr 2001 waren es 350mal soviel – der nach meinen Recherchen bislang noch nicht überbotene Gipfelpunkt dieser Entwicklung. Und hier reden wir ja überhaupt nur von Unternehmen, deren gesetzliche Mindestanforderungen an Transparenz solche Relationen überhaupt erfassbar machen. Der Spitzenreiter in dieser Statistik war der Vorstandsvorsitzende von Wal-Mart im Jahr 2005, der mit einem Jahreseinkommen von 17,5 Mio. Dollar rund 900mal so viel wie das Durchschnittseinkommen der Beschäftigten seines Unternehmens be-
Ökonomie und Gesellschaft
545
zog. Nun kann man sagen: So ist das halt im Wettbewerbssystem. Aber ich stelle umgekehrt die Frage, ob Sie jemanden kennen, der diese Relationen plausibel machen kann − ich habe nämlich noch keinen getroffen. Und deswegen ist es völlig gleichgültig, ob wir über das 200, 500 oder 800fache reden − es gibt ganz offenkundig irgendwo auf einer imaginären virtuellen Skala einen Punkt, von dem die Bereitschaft, Ungleichheit nicht nur zu ertragen, sondern als Motivation, als Stimulans, zu akzeptieren, nicht nur in Resignation und Frustration umschlägt, sondern in die Verweigerung der Akzeptanz eines Systems, das solche Relationen zulässt. Und wenn mich mein Eindruck nicht täuscht, befinden wir uns auf der Kante genau dieser Entwicklung. Und deswegen kann ich uns nur dringend empfehlen – der Wirtschaft wie der Politik, weil nämlich bei genauem Hinsehen dieses Problem weder alleine von der Wirtschaft gelöst werden kann noch allerdings alleine von der Politik – die Erosionstendenzen ernst zu nehmen, die sich hier seit langem deutlich bemerkbar machen. An keiner anderen Stelle sind sie ausgeprägter als bei der Einschätzung der Einkommens- und Vermögensverteilung. Und jetzt rede ich von Deutschland und nicht von internationalen Durchschnittsbefunden. Nach einer jüngeren repräsentativen Untersuchung empfinden in Deutschland 73% der Bevölkerung, das ist jetzt schon der gemessene Durchschnitt in Ost und West, die Einkommens- und Vermögensverteilung als ungerecht. So hoch war der Anteil, solange diese Daten überhaupt erfasst werden, noch nie. Vor zwei Jahren lag der Anteil bei der gleichen Frage und den gleichen Befragten bei 56% – also ein dramatischer, signifikanter Anstieg. Und was vielleicht noch aufschlussreicher ist: Differenziert man die Skepsis der Befragten gegenüber der Einkommens- und Vermögensverteilung nach Parteipräferenzen, dann wird es nur in Grenzen überraschen, dass 91 % der Anhänger der Linkspartei die Einkommens- und Vermögensverteilung in Deutschland als nicht wirklich gelungen empfinden. Aber auch bei den SPD-Wählern sind es 76%, bei den Grünen-Wählern 75%, bei den Wählern der Union 66 % und bei den Wählern der FDP 65%. Mit anderen Worten, bei den Wählerinnen und Wählern ausnahmslos aller im Deutschen Bundestag vertretenen politischen Parteien beträgt die Einschätzung, dass wir es in Deutschland mit einer ungerechten Einkommens- und Vermögensverteilung zu tun haben, mindestens zwei Drittel. Noch anders formuliert: Wir haben eine virtuelle verfassungsändernde Mehrheit, was die Einschätzung der Tolerierbarkeit der Einkommens- und Vermögensverteilung angeht. Viertes Thema: Arbeit und Kapital. Ich glaube, dieser Vertrauensverlust hat viel zu tun mit der grundlegenden Veränderung, die in den vergangenen drei, vier Jahrzehnten und schleichend sicher noch länger in Zeiten der Globalisierung im Verhältnis der beiden Produktionsfaktoren Arbeit und Kapital eingetreten ist. Seit Anfang der 70er Jahre, also seit fast vier Jahrzehnten, gibt es einen völlig eindeutigen linearen statistischen Trend, dass die Wertschöpfung in unserer Volkswirtschaft – übrigens nicht nur in unserer, sondern in allen anderen entwickelten Volkswirtschaften in einer sehr ähnlichen Weise – nicht mehr durch
546
Norbert Lammert
zusätzlichen Arbeitseinsatz zustande kommt, sondern durch die Verbindung von Kapitaleinsatz und Technologie, von Kapital und Wissen. Deswegen macht es natürlich schon Sinn, sich immer häufiger und immer regelmäßiger, nicht nur aus Anlass von Universitätsjubiläen, mit der Wissensgesellschaft und ihren Implikationen zu beschäftigen, auch wenn man wissen muss, dass solche Überschriften mindestens so viel verdecken wie erhellen. Und so wenig wie die Begriffe „Industriegesellschaft“ oder „Dienstleistungsgesellschaft“ die realen ökonomischen oder gesellschaftlichen Verhältnisse hinreichend abgebildet haben, so wenig tut es der Begriff „Wissensgesellschaft“. Überhaupt scheint unsere Begabung zur Begriffsschöpfung ausgeprägter zu sein als zur Problembewältigung. Was die Wissensgesellschaft angeht, denke ich, wird man sagen können, dass der modernen Gesellschaft nicht die Arbeit in dem Maße ausgeht, in dem ihr immer wieder neues Wissen zuwächst. Aber es ist das Wissen, das in Verbindung mit Geld Wertschöpfung verursacht, und es ist zunehmend weniger der Arbeitseinsatz. Der Anteil der Arbeit an der Wertschöpfung oder an der Volkswirtschaft sinkt sich seit Jahrzehnten. Und wir machen – die Ökonomen muss das nicht unmittelbar beunruhigen, aber Politiker natürlich schon – seit Jahren die eher schwierige Erfahrung, dass weder Arbeit verlässlich Wachstum schafft noch Wachstum sicher Arbeit. Und wenn man den Zuwachs des Volksvermögens seit den 70er Jahren betrachtet, dann kommt man zu dem unmissverständlichen Befund, dass dieser Zuwachs überwiegend auf Unternehmensgewinn und Kapitalerträge entfällt, während der Anteil der Arbeitseinkommen stagniert. Und allein dieser statistische Hinweis ist zwar keine ausreichende Erklärung für die Entwicklungen und Fehlentwicklungen, die es auf den Kapitalmärkten in der Entwicklung von Geldgeschäften anstelle von Güterproduktionen und Märkten gegeben hat, aber eine ganz wesentliche Ursache für die dramatische Veränderung der jeweiligen Größenordnung. Ich will noch ein paar Sätze sagen zum Verhältnis von Unternehmen und Unternehmern, das sich in einer stärkeren Weise verändert hat, als die benachbarten Begriffe vermuten lassen: Der Typus des persönlich und mit seinem Vermögen haftenden Unternehmers wird in der modernen Wirtschaftsordnung des 21. Jahrhunderts immer mehr zur seltenen Ausnahme. Und der Typus des smarten Managers, der die Rentabilitätsinteressen des jeweiligen Unternehmens befördert, dominiert die Szene. Ich kann mich noch an Zeiten erinnern, als wir uns über die großen Patriarchen und ihre Neigung zu Starallüren geärgert haben. Und heute beobachte ich mich gelegentlich beim nostalgischen Blick zurück und der Suche nach den Persönlichkeiten, deren Schrullen vielleicht leichter zu ertragen waren als die Professionalität ihrer Nachfolger. Dies ist ja mehr als eine marginale Veränderung der Rahmenbedingungen, die hier stattgefunden hat, zumal der heute dominierende Typus von Unternehmern, Manager-Unternehmern, aus wiederum naheliegenden, um nicht zu sagen: zwingenden Gründen, ein ganz anderes Verhältnis zu seinem Unternehmen hat, mit dem ihn zunächst nicht mehr als ein Fünfjahresvertrag verbindet, übrigens bei statistisch auch
Ökonomie und Gesellschaft
547
nachweisbar immer kürzeren tatsächlichen Verweildauern im jeweiligen Unternehmen. Den heutigen Manager verbindet, platt gesprochen, fast nichts mit dem Produkt seines Unternehmens. Er hat ein vitales Interesse an den Bilanzen, die in immer kürzeren Fristen auf internationalen Kapitalmärkten Gegenstand intensiver Besichtigungen sind. Das, was die Szene beschäftigt, ist ja nicht die Innovation von Gütern oder Dienstleistungen, sondern von Geschäftsmodellen. Es erschreckt uns schon gar nicht mehr, wenn wir, wie in dieser Woche, von der Absicht des Geschäftsführers des privaten Trägers eines Nachrichtensenders lesen, ob sich das Geschäftsmodell nicht unter Verzicht auf Nachrichten optimieren ließe. Warum soll auch ein Nachrichtensender Nachrichten liefern? Insofern wäre auch die Frage legitim, ob das Geschäftsmodell Bayern München nicht ohne Fußball noch wirkungsvoller sein könnte als mit. Ich will eine andere Version der Variante des gleichen Themas aus der Perspektive von Arbeitnehmern schildern, das nun spätestens jeder Witzigkeit entbehrt. Ich komme aus Bochum, da haben wir nicht nur auch eine wesentlich jüngere Universität und den Standort eines Automobilunternehmens mit einer notleidenden amerikanischen Mutter, sondern wir hatten da auch den Standort eines Hightech-Unternehmens, das mobile Telefongeräte hergestellt hat. Dieser Standort, der etwa zehn, zwölf Jahre bestanden und mit wachsenden Stückzahlen und Gewinnen produziert hat, ist dann nach einer denkwürdig kurzen knappen einschlägigen Auseinandersetzung nach Rumänien verlagert worden. Ich will jetzt keine Analyse und schon gar nicht der betriebswirtschaftlichen Kalküle dieser Entscheidung vornehmen. Ich will nur aus der Perspektive betroffener Arbeitnehmer fragen: Wie will man eigentlich jemandem, der seinen Lebensunterhalt durch Arbeit verdient, erklären, dass sein Arbeitsplatz nicht aufrechterhalten werden kann, wenn es weder einen Einbruch nach der Nachfrage nach dem Produkt im Allgemeinen gibt – es kauft keiner mehr Radiergummis und deswegen lohnt es nicht, sie herzustellen, Handys werden aber gekauft –, noch einen Einbruch der Nachfrage nach genau dem Produkt, das in diesem Werk hergestellt wird. Um das abzukürzen: Wie soll man einem Betroffenen, seinen Lebensunterhalt durch Arbeit verdienenden Beschäftigten, erklären, dass er seinen Arbeitsplatz, nicht vorübergehend, sondern dauerhaft verliert in dem Jahr, in dem das Unternehmen, bei dem er beschäftigt ist, den größten Umsatz seiner Geschichte macht, den größten ausgewiesenen Gewinn der Unternehmensgeschichte, in dem der größte Beitrag dieses Werkes zum Unternehmensgewinn in der Geschichte des Standortes und des Unternehmens erfolgt ist und der Marktanteil des Produktes den bisherigen Rekordwert erreicht. Ich bin für jeden Hinweis außerordentlich dankbar, aber wie man bei solchen, nicht virtuellen, sondern tatsächlichen Erfahrungen, Akzeptanz einer Wettbewerbsordnung vermitteln soll, ist mir rätselhaft. Und damit stehen wir vor der außerordentlich ungemütlichen Frage, ob wir, wenn es dagegen kein Kraut gibt, Veränderungen zum System brauchen oder wie denn mit Aussicht auf Erfolg Veränderungen im System herbeigeführt werden
548
Norbert Lammert
können. Ich habe zu Beginn angekündigt, auch ein paar Bemerkungen zum Verhältnis von Vertrauen und Misstrauen zu machen und dabei der weit verbreiteten Vermutung widersprochen, dies spätestens seien aber sicher keine ökonomischen Kategorien. Ich war vor ein paar Monaten, auf dem Höhepunkt der sogenannten Finanzkrise, beim Jahrestreffen des Deutschen Bankenverbandes als Gastredner geladen und habe damals vorgetragen, mir sei ein Werbeslogan der Deutschen Bank in Erinnerung gekommen aus den frühen 90er Jahren, der damals gelautet hat: „Vertrauen ist der Anfang von allem.“ Und ich habe, wie gesagt: in einer Zeit, in der ein Kollaps der Finanzmärkte keineswegs als gesichert abgewendet betrachtet werden konnte, erklärt, heute würde die zeitgemäße Formulierung dieses Slogans wohl eher lauten müssen: „Misstrauen ist der Anfang vom Ende.“ Denn in der Verselbständigung virtueller Geschäfte und einer eingebildeten Wertschöpfung, die ja in der Phantasie bestand und deswegen so lange reichte wie die Einbildung stabil blieb, war der Höhepunkt dieser verselbstständigten Transaktionen in dem Augenblick erreicht, wo alle Banken sich weltweit wechselseitig das Misstrauen ausgesprochen haben, um die letzte dankbare Rettung präzise von der Institution zu erwarten, die sie mit mehr Fleiß als jede andere Branche unserer Volkswirtschaft bestenfalls als liebenswürdiges Fossil einer versunkenen Zeit noch in ihren eigenen Kalkülen hatten, dem Staat. Es gibt keine andere Branche, die mit einem vergleichbaren Ehrgeiz staatliche Rahmenbedingungen oder gar Restriktionen für überholt und hinderlich gehalten hat wie die der Banken. Jede Branche findet jede Vorgabe lästig, das ist wahr, und gerade da, wo sie Dispositionen eingrenzen, werden sie nicht als Begünstigung empfunden. Und zugleich ist die Neigung zum Ausweichen gegenüber staatlichen Rahmenbedingungen nirgendwo so ausgeprägt wie im Finanzsektor, weil es kein anderes Produkt gibt, das sich so mühelos und so sekundenschnell transferieren lässt − ein Blick auf den Laptop, und schon werden virtuelle Größenordnungen transferiert, die in realen Gütern oder Dienstleistungen einen enormen Zeitaufwand an Herstellung, Transport und Lieferung erfordern. Im Übrigen und nur der Vollständigkeit halber: Ich gehöre nicht zu denjenigen, die meinen, die Probleme seien deswegen entstanden, weil wir schon gar in Deutschland zu wenig Finanzmarktregulierung hätten. Im internationalen Vergleich haben wir ein beachtliches Maß an Regulierung, und es gibt beachtliche Argumente dafür, dass wir da an der einen oder anderen Stelle vielleicht auch wieder schon eher zu viel als zu wenig haben. Aber das Problem ist: Wir haben die Regulierung jeweils national. Und natürlich finden die Geschäfte vorzugsweise da statt, wo es wenig oder keine Regulierung gibt. Und nirgendwo, in keiner anderen Branche lässt sich der Regulierung so leicht, so wirkungsvoll, so virtuos ausweichen wie in dieser Branche mit den fatalen geschilderten Wirkungen am Ende eben nicht nur für die Finanzmärkte, sondern auch für den kleinen Rest moderner Volkswirtschaften, den wir uns in einer besonders niedlichen Form wiederentdeckter Terminologie Realwirtschaft zu nennen angewöhnt haben. Gegenüber dem Unwirklichen wird das Wirkliche wiederentdeckt oder jedenfalls wird neu darüber nachgedacht, um was es sich eigentlich jeweils handelt.
Ökonomie und Gesellschaft
549
Peter Sloterdijk, den die wenigsten für einen bedeutenden Ökonomen halten werden, hat in seinem gleichwohl oder gerade deshalb lesenswerten Buch „Im Weltinnenraum des Kapitals“ folgenden denkwürdigen Satz formuliert: „Die Haupttatsache der Neuzeit ist nicht, dass die Erde um die Sonne, sondern dass das Geld um die Erde kreist.“ Er hat wohlgemerkt nicht von der Hauptsache gesprochen, sondern von der Haupttatsache und aus guten Gründen das eine von dem anderen unterschieden. Meine wichtigste Empfehlung zum gemeinsamen Nachdenken über das Verhältnis von Ökonomie und Gesellschaft ist die Empfehlung, genau diesen Unterschied im Auge zu behalten.
Podiumsdiskussion Spitzensport zwischen Ökonomie und Moral 1 Grit Hartmann, Thomas Kistner, Sören Mackeben, Prof. Dr. Rudhard Klaus Müller, Prof. Dr. Jochen Zinner Moderation: Peer Vorderwülbecke Spitzensport zwischen Ökonomie und Moral, darum soll es heute gehen. Der Spitzensport ist heutzutage extrem präsent in der Gesellschaft. Angeblich nach dem Wetter das zweitbeliebteste Thema im Smalltalk und wer es noch genauer wissen will, wer vielleicht ein bisschen sportmufflig ist, der darf sich natürlich mit Einschaltquoten im Fernsehen befassen. Ganz klar, Großereignisse, Weltmeisterschaften, olympische Spiele sind da immer unter den Top 10. In Weltmeisterschaftsjahren sind es meistens sogar 10 Fußballspiele. Und man kann natürlich, wenn man nochmal auf diese gesamte Thematik schauen möchte, die Umsätze in der Sportindustrie betrachten, die sich auch im Milliardenbereich bewegen. Also zweifellos ein Thema, das sehr präsent ist. Sport und Moral, zweifellos ein Spannungsfeld. Der Sport hat ja das Image, fair zu sein, ehrlich zu sein und angeblich sogar die Kraft, ganze Völker zu verbinden, wenn man Pierre de Coubertin glauben möchte. Das war ja seine olympische Idee. Diese Olympischen Spiele existieren ja jetzt seit gut 100 Jahren, die Olympischen Spiele der Neuzeit. Und ich möchte ganz kurz aus dieser olympischen Charta vorlesen. „Durch die Verbindung des Sports mit Kultur und Bildung zielt der Olympismus darauf ab, eine Lebensart zu schaffen, die auf der Freude an Leistung, auf dem erzieherischen Wert des guten Beispiels sowie auf der Achtung universell gültiger fundamentaler ethischer Prinzipien aufbaut.“ Das ist, was wir vor über 100 Jahren mit auf den Weg bekommen haben. Damals waren hauptsächlich Amateursportler gemeint, meistens Bürgerliche, vielleicht sogar Adlige, die den Sport als Hobby betreiben konnten. Heute, gerade wenn wir vom Spitzensport reden, meinen wir damit den Profisport, oder zumindest semiprofessionellen Sport, die Sportler machen in der Regel nichts anderes. Und diese hohen moralischen und ethischen Ansätze, die wir in der olympischen Charta finden, die sind eben mit dem Spitzensport nicht unbedingt leicht in Einklang zu bringen, so möchte ich es formulieren. Und so kommen wir zu unserem Thema heute – Spitzensport zwischen Ökonomie und Moral. Dazu 1
Dieser Abdruck beruht auf Tonaufnahmen der Diskussion am 5. Dezember 2009. Um deren Authenzität zu wahren, wurde der Text nur geringfügig bearbeitet.
552
Podiumsdiskussion
will ich gerne die hier anwesenden Podiumsteilnehmer befragen und vorher kurz vorstellen. Zuerst zu meiner Linken, von Ihnen aus auf der Rechten, Grit Hartmann, die in Leipzig Journalistik studiert und lange als Journalistin gearbeitet hat. Seit Mitte der 90er Jahre ist sie freiberufliche und vor allem investigative Journalistin, das darf man wohl so sagen. Diese investigativen Geschichten, die sie gemacht hat, haben auch sehr häufig in Büchern gemündet. „Goldkinder“ (1997) beispielsweise wurde sehr beachtet. Fr. Hartmann ist nach wie vor als Journalistin aktiv und sicherlich auch eine Expertin zum Thema „Sport und Moral“. Auf meiner rechten Seite ein weiterer Journalist, Thomas Kistner, seit knapp 20 Jahren bei der Süddeutschen Zeitung in der Sportredaktion, ein ausgewiesener Dopingexperte. Er hat zahlreiche Preise für seine Arbeiten bekommen. Am besten hat mir der Titel „Spritzensport Fußball“ gefallen, für den er den TheodorWolff-Preis erhielt. Insofern haben wir auf jeden Fall einen großen Experten, der sich zu dem Thema kompetent äußern kann. Dann haben wir einen Athleten auf dem Podium: Sören Mackeben ist Wasserball-Nationalspieler und gleichzeitig Athleten-Sprecher. Größter sportlicher Erfolg war Platz 5 bei den Olympischen Spielen in Athen. Da haben wir auf jeden Fall einen Ansatzpunkt aus der Praxis. Wir haben auch einen Ansatzpunkt aus der Theorie und aus der Wissenschaft. Prof. Rudhard Klaus Müller ist der Bundesbeauftragte für Dopinganalytik von der Nationalen Anti-Doping-Agentur (NADA), er hat über 40 Jahre an der Universität Leipzig gearbeitet am Institut für Gerichtliche Medizin, war Anfang der 90er Jahre bei der Neuetablierung des Instituts für Dopinganalytik in Kreischa entscheidend beteiligt, auch dessen Leiter gewesen und international und national ein absoluter Experte mit über 350 wissenschaftlichen Veröffentlichungen. Ich denke, da werden wir sehr fundiert informiert werden. Und dann haben wir zu meiner linken Seite noch Prof. Jochen Zinner. Er ist seit 2009 Professor für Leistungsdiagnostik an der Hochschule für Gesundheit und Sport in Berlin, hat früher selber Leistungssport betrieben, auch als Wasserballer, also haben wir eine kleine inhaltliche Verbindung auf dem Podium. Er war Nationalspieler, stieg danach in die Trainingswissenschaft ein, leitete dann lange Jahre in Berlin den Olympiastützpunkt und ist jetzt eben wieder an der Universität. Das heißt, da können wir sicherlich auch viele Dinge aus der organisatorischen Praxis von ihm erwarten. Deshalb heißt unser Thema: „Spitzensport zwischen Ökonomie und Moral“ und ich würde einfach den Podiumsgästen die Möglichkeit geben wollen, sich mit einem kurzen Anfangsstatement zu äußern. Wie sieht es denn aus mit diesem Spannungsfeld. Ist das leicht in Einklang zu bringen? Steht es sich diametral entgegen? Frau Hartmann, wie sehen Sie das? Grit Hartmann: Auf ein Eingangsstatement bin ich nicht wirklich vorbereitet, aber ich versuche es und spreche über die Kategorie des Sports, die Sie schon angesprochen haben, nämlich den Profisport, die sozusagen oberste Etage des Spitzensports. Der Showsport, der Unterhaltungssport, könnte man auch sagen. Herr Mackeben gehört einer Gruppe an, die ich als zweite Kategorie bezeich-
Podiumsdiskussion
553
ne, das ist der Hochleistungssport, der, was die Möglichkeiten angeht, Geld zu verdienen, sich in einer anderen Kategorie befindet als etwa Fußball oder auch Radsport. Für die erste Kategorie, würde ich sagen, werden schon seit langem Ökonomie und Moral nur noch als Legitimationsformel von entsprechenden Interessenten in Einklang zu bringen, ansonsten nicht mehr. Also, wenn Sie sich ein System wie den Profiradsport anschauen, da gehört das „Betrügenmüssen“ zum System, wenn Sie „vorn“ sein wollen. Das ist mit Moral überhaupt nicht mehr in Einklang zu bringen. Das gilt für einen größeren Teil dieses Unterhaltungssports. Wenn von Moral die Rede ist, präziser davon, dass hier Fairplay gelebt wird, dass Athleten eine Vorbildwirkung haben, dann ist das nicht nur eine völlige Überforderung der Athleten, sondern auch etwas, das mit dem Geschäft Profisport, in dem der Athlet eine Ware ist, gar nichts mehr zu tun hat. Das bringen gelegentlich auch Athleten auf den Punkt, meist nach Karriereende: André Agassi, der kürzlich äußerte, er habe Tennis gehasst. Es sei eine Gesellschaft, die zur Brutalisierung beitrage, der Sportler sei nichts anderes mehr als tatsächlich eine Ware. Mit dieser Entwicklung sind wir in einigen Sportarten sehr, sehr weit fortgeschritten. Das kann man detaillieren und beschreiben, inwiefern der Sport, von dem man gern sagt, er sei Spiegel der Gesellschaft, tatsächlich schlechter ist als der Rest der Gesellschaft: Für den Sieg zwingt er zum Betrug. Aber darauf kommen wir sicher noch zu sprechen. Danke, Grit Hartmann. Vielleicht gehen wir einmal der Reihe nach weiter. Herr Prof. Zinner, wenn Sie vielleicht auch gerade auf Ihre Tätigkeit im Olympiastützpunkt zurückblicken. Grit Hartmann hat gerade gesagt, es gibt unterschiedliche Kategorien: Diejenigen, die ganz viel Geld machen und diejenigen, die, obwohl sie Spitzsport betreiben, damit nicht viel verdienen. Ich denke, Sie hatten möglicherweise beide Kategorien im Olympiastützpunkt. Insofern: Ökonomie und Moral, wo sehen Sie da die Probleme? Prof. Zinner: Ich würde schon bei den Kategorien anschließen. Es gibt unterschiedliche Kategorien. Ich möchte etwas zu den Größenverhältnissen sagen. In meiner Zeit als Olympiastützpunktleiter haben 400 Berliner Sportler an 10 Olympischen Spielen teilgenommen. Wir haben als Olympiastützpunkt jedes Jahr etwa 600 Bundeskader-Athleten, sprich Spitzenathleten, Leistungssportler betreut, von denen zwischen 40 und 60 in jedem Jahr Medaillen bei Olympischen Spielen, Europameisterschaften oder Weltmeisterschaften erreichten. Das Thema hier suggeriert, dass all diese sozusagen latent darüber nachdenken mussten, ob sie sauber bleiben oder, ob sie lieber betrügen und deshalb viel Geld verdienen. Und da muss ich sagen, das ist nicht nur für die Mehrheit, sondern für fast alle eine gegenstandsleere Alternative. Selbst wenn der Judoka oder der Kanurennsportler sozusagen gezündelt hätte und sagen würde: „Ich betrüge doch ein bisschen und erschleich mir damit den Startplatz bei den Europameisterschaften“, und der erreicht bei diesen Europameisterschaften den Platz 3, dann bringt ihm das finanziell praktisch Null. Wenn jemand hier bereit wäre, so
554
Podiumsdiskussion
einem Sportler im Monat 250 Euro zu geben, der würde von dem Sportler als Sponsor bezeichnet werden. So ist sozusagen das Größenverhältnis. Das heißt, aus dem Sport werden nicht diese Betrüger geformt. Die kommen eher aus der Gesellschaft. Für Millionen von Kindern ist dagegen der erste Zugang zur moralischen Frage der über den Sport. Die lernen dort das erste Mal, manchmal sogar das einzige Mal, was Teamgeist, was Kameradschaft, was Zielstrebigkeit ist. Wenn sie sich mit vier unterschiedlichen Leuten ins Boot setzen, dann ist ihnen nach 10 Minuten völlig egal, ob der vorne schwarz oder gelb ist, der soll ordentlich rudern. Das lernen sozusagen die Sportler in den Vereinen. Und der überwiegende Teil derer, die auch olympische Ehren erreichen, ist ebenso eingestellt. Aus meiner Sicht: Moral und Leistung, Moral und Erfolg lassen sich natürlich verbinden, wir werden dann noch besprechen, wo die Schwierigkeiten liegen. Abschließend möchte ich sagen: Nichts desto trotz ist jedes Beispiel für Betrügen schlimm, das ist existenzgefährdend für den Spitzensport! Man muss dagegen vorgehen und das kann man, glaube ich, auch in den Teilen, die wir jetzt vor uns haben, noch mal besprechen. Eine ganz klare Ansage. In vielen Bereichen lassen sich Ihrer Meinung nach also die Moral und diese hehren Ziele des Sports miteinander verbinden. Ich würde vielleicht den Sprung machen nach ganz außen, dass Herr Mackeben nicht als letzter dran kommt, weil wir schon beim praktischen Sport sind. Können Sie diese These stützen? Jetzt kommen Sie aus einem Randsport, darf man fast sagen, Wasserball, wo auch nicht das große Geld verdient wird. Können Sie sagen: Ja, moralische Werte und diese Ökonomisierung, das passt, das kann man miteinander vereinbaren? Sören Mackeben: Also, ich hatte mir vorher schon aufgeschrieben, dass es auch ein wenig so rüberkommt, als sei Spitzensport gleich Profitum. Und dem möchte ich tatsächlich auch widersprechen. Wenn man die Zahlen von Herrn Zinner nimmt, die er gerade vorgetragen hat, kann ich das nur unterstreichen. Es ist immer noch so, dass der Großteil der Olympiateilnehmer aus Deutschland Studenten sind und durchaus nicht solche, die da nur eingeschrieben sind. Die Spitzensportler schließen ihre Studiengänge auch meistens ab und versuchen, sich neben dem Sport ein Standbein für die Zeit nach der Sportler-Karriere aufzubauen. Es ist einfach nicht so, dass im Spitzensport, bei Olympia, wenn man das denn dann als die Spitzensportveranstaltung noch ansieht – da denke ich, sind wir uns einig, dass dem so ist –, nur Profis sind, sondern da sind zum Großteil Amateure oder Semiprofis, wie wir schon diesen Ausdruck hatten. Das kann ich dann auch selber von mir erzählen. Ich bin aus Hannover und habe in Hannover angefangen, Wasserball zu spielen und das war immer nur ein Hobby. Ich hatte 1996 meinen ersten Einsatz für die Mannschaft in Hannover und es war für uns normal, dass wir abends zum Training gegangen sind und dafür eben kein Geld bekommen haben, sondern es hat uns einfach Spaß gemacht. Es war einfach eine Verpflichtung dem Team gegenüber. Wir hatten eine gemeinsame, auch relativ
Podiumsdiskussion
555
große Zielstellung, wir wollten die Spandauer – wo ich dann leider irgendwann gelandet bin – verdrängen. Es war so, dass wir da fast ein Jahrzehnt lang einfach nur, weil wir Spaß daran hatten, zwischen diesen Polen der Ökonomie und der Moral waren. Und dann ist es aber irgendwann natürlich so in dem Sportlerleben, dass man sich auch fragt, also, was es denn noch anderes gibt. Und dann schaut man eben auch gerade als Student oder als Abiturient über den Rand des Sports hinaus und man sieht andere Schulkameraden, die schon Geld verdienen und dann ist es so, dass es irgendwann auch schwierig wird, selbst wenn man dann mit der intrinsischen und extrinsischen Motivation argumentiert, irgendwann fragt man sich, was mache ich hier, ich möchte auch was davon haben. Und ich glaube, dieser Punkt kommt irgendwann in einer Sportlerkarriere und ich glaube, das ist auch dann wiederum nicht unmoralisch. Da können sich Spitzensport und Ökonomie und auch die Moral durchaus annähern. Herr Professor Müller, ich weiß nicht, inwieweit Sie sich da entspannen können, wenn Sie das hören als Bundesbeauftragter für Dopinganalytik. Sie sind in der NADA aktiv. Sagen Sie: Hier wird jetzt einfach nur über einen Teil gesprochen und in einem anderen Teil, der in ihren alltäglichen Bereich fällt, sieht das ganz anders aus mit der Moral. Also eben genau da, wo viel Geld verdient wird? Prof. Müller: Zunächst darf ich Sie ein bisschen korrigieren, denn den Begriff Bundesbeauftragter für Dopinganalytik gibt es nicht mehr. Ich bin im Vorstand der NADA für Medizin und Analytik zuständig, aber das ist zweitrangig. Ich spare jetzt mal mein eigentliches Metier, Doping, zunächst aus. Wir werden sicher noch darauf kommen. Ich muss sagen, dass natürlich auch aus meiner Sicht Sport und Moral miteinander zu tun haben, dass das ein Dilemma darstellt, aber ich möchte an den Anfang eine ganz allgemeine Tendenz stellen, die ich missbillige. Und zwar die, dass Aussagen darüber, ganz gleich, ob sie den Sport im Ganzen betreffen oder einzelne Fälle, meistens daran kranken, dass man verabsolutiert, pauschalisiert und ungenügend differenziert. Solche Aussagen gelten nie ein und für allemal für den ganzen Sport. Und es hat immer alles mehrere Aspekte. Das ist meine Überzeugung. In dem Zusammenhang der Diskussion von Sport und Moral oder eben z. B. auch der Rolle des Doping sind Ausdrücke wie immer, jeder, keiner unangebracht und es müsste immer heißen zuweilen, oft, seltener, mancher. Sie werden mir zustimmen, dass es meistens anders ist. Diese Differenzierung betrifft zunächst erst einmal die Rolle des Sports in unserer Gesellschaft; einmal für die Gesellschaft im Ganzen und zweitens für die einzelnen Sportler. Meine Sicht ist, dass man, die Rolle des Spitzensports, um den es ja hier hauptsächlich geht, in der Gesellschaft hauptsächlich auf zwei Haupteigenschaften oder Wirkungen projiziert. Er ist einmal Vorbild für den Breitensport: Man strebt den Höchstleistungen nach und würde auch negativen Verhaltensweisen nachstreben. Der Breitensport ist aber gesellschaftlich sehr viel bedeutender aus meiner Sicht, denn er betrifft Millionen und der Spitzensport letzten Endes nur Tausende – das ist ein winziger Bruchteil des Sports
556
Podiumsdiskussion
im Ganzen. Der Sport im Ganzen mit dem Breitensport und dem Freizeitsport hat eine ganz enorme gesellschaftliche Bedeutung. Beim Spitzensport ist das eher eingeschränkt der Fall; da gibt es gewisse Abstriche. Auf der anderen Seite gibt es einen ganz erheblichen Teil des Sports, der noch nicht einmal in erster Linie als Vorbild für den Breitensport, sondern als Show agiert: auch da wird wohl kaum jemand widersprechen. Was nun die einzelnen Sportler anbelangt, da gibt es die Hauptmotive Ruhm und Geld; in manchen Fällen vielleicht in umgekehrter Reihenfolge. Dass dort durch immense Sponsorengelder eine Nähe zum Profitum entsteht, die man in dem gleichen Alter auch mit vergleichbarer Anstrengung in anderen Tätigkeitsfeldern sicher nicht erreichen würde, wird auch unbestritten sein, und dass das dann für manche wahrscheinlich sogar das Hauptmotiv ihres Sports ist. Also nicht mehr so sehr der Ruhm, obwohl der für manche absolut bedeutsam ist. Es gibt anonyme Umfragen aus den USA, nach denen bewusst auf 5 oder 10 Jahre Lebenserwartung verzichtet werden würde, wenn man dafür die Gewähr hätte, eine Olympiamedaille oder einen Weltmeistertitel zu erreichen. Aber das Geld wird in manchen Sportarten sicher eher das Hauptmotiv sein. Die Gesundheit, die eigentlich ein wesentliches Ziel des Sporttreibens sein sollte, die steht beim Spitzensport zumindest hinter diesen Motiven und in Klammern, beim Breitensport nicht, deshalb ist der besonders förderungswürdig. Meine Motivation, gegen Doping anzugehen, bestand nie darin, dass wir der Illusion nachhingen, wir könnten Doping abschaffen. Das wird sicher nicht gehen, aber wir können es zurückdrängen und wir drängen es zurück, entgegen aller öffentlichen Behauptungen. Aber das Hauptmotiv ist gar nicht so sehr, dass wir die paar tausend Spitzensportler davor bewahren wollen. Das gelingt nicht vollständig. Sondern wir wollen das als eine negative Verhaltensweise unterstreichen und müssen es sogar nahezu zwanghaft, weil sonst der Breitensport der gleichen Versuchung unterliegt. Und das wäre eine gesellschaftliche Katastrophe. Ich denke, die Ausführungen zum Breitensport sind auf jeden Fall wichtig. Wir wollen sie hier vielleicht ein bisschen vernachlässigen und uns wirklich eng am Spitzensportorientieren. Der Spitzensport ist auch der, der in den Medien am meisten präsent ist. Thomas Kistner, das ist Ihr Arbeitsfeld. Sie haben schon vier Stellungnahmen gehört. Ist da viel, wo Sie sagen: „Ja“, oder ist es ein klares „Ja, aber“? Thomas Kistner: Es muss ja ein „Ja, aber“ sein, weil sie nicht alle im Gleichklang waren. Herr Müller hat schon viel gesagt, einiges auch von dem, was ich eingangs hätte sagen wollen. Insbesondere der Hinweis auf die Untersuchungen, die immer wieder in den USA bei Olympiateilnehmern durchgeführt werden. Natürlich sind das verdeckte Untersuchungen, anonyme Befragungen, bei denen 15 oder mehr Prozent in der Tat sagen, für eine olympische Medaille würden sie auf 5 oder 10 Jahre ihres Lebens verzichten. Man muss sich die Bedeutung einer solchen Aussage einmal vor Augen halten! Zudem muss man sehen, dass sich
Podiumsdiskussion
557
aus solchen Zahlen ein weit höheres Potential an Athleten hochrechnen lässt, das diese Bereitschaft wirklich hat – denn längst nicht jeder vertraut solchen Untersuchungsanfragen. Man weiß ja nicht, was daraus dann womöglich abgeleitet wird – hat man plötzlich eine Zielkontrolle auf dem Hals? Aber wir können uns auch an deutschen Zahlen orientieren. Das bezieht sich jetzt auch ein bisschen auf den Vortrag von Herrn Zinner, der meint, dass das doch eine verschwindend geringe Zahl sei. Untersuchungen der Saarland-Uni von Eike Emmrich und Kollegen in den letzten Jahren haben ergeben, dass sich bis zu 40 der befragten deutschen Athleten zumindest einmal mit dem Thema intensiv auseinandergesetzt hat. Und befragt wurden da wirklich Athleten aus allen Bereichen, nicht nur die Großverdiener, sondern aus allen möglichen Bereichen waren Sportler dabei. Dabei wurde die Kernfrage aufgeworfen: Wer hat schon mal gedopt? Ich habe jetzt die exakten Zahlen leider nicht im Kopf. Grit Hartmann: Bis zu 35%, laut der überarbeiteten Emmrich-Studie (2008) mit einem anonymeren Umfrageschema. Danach haben von zwischen 600 und 800 befragten Kader-Athleten 35% angegeben, dass sie schon gedopt haben. Also eine doch erhebliche Zahl. Thomas Kistner: Das ist glaube ich die Grundlage, auf der man diese Themen diskutieren muss. Denn diese Zahlen sind ja real, sie sind belastbar, und es ist gewiss nicht anzunehmen, dass hier eine zumindest signifikant hohe Zahl von deutschen Athleten Unsinn über eigene Dopingabsichten erzählt – um damit eine Debatte, die ja leicht in Richtung Generalverdacht ausufern kann, auch noch weiter hochzuziehen. Also, wenn man das sieht, zusammen mit der Betrugspraxis im Spitzensport, national und international, verwundert eher nicht, dass wir in diesem Jahr den Verlust der erfolgreichsten Sommersportlerin und auch der erfolgreichsten Wintersportlerin bei Olympia zu beklagen haben. Beides Dopingfälle: Pechstein und Werth. Sieht man diese Entwicklung, muss man ganz klar sagen, dass wir hier im Spitzensportbereich eine deutlich stärker kriminalisierte Gesellschaft haben als in der Gesellschaft allgemein, die ja immer gerne vom Sport als Vergleichsgröße herangezogen wird. Das ist diese Standardformulierung: Der Sport kann nicht besser sein als die Gesellschaft – geschenkt, muss er auch nicht. Er ist jedoch mit einigen Problemen behaftet, die wir in der realen, in unserer Gesellschaft, in demokratischen Gesellschaften gar nicht kennen. Das beginnt bei den Auswahlverfahren der Führungskräfte in dieser Sportgesellschaft, die ja keineswegs auf einer demokratisch-legitimierten Basis in die Spitzenfunktionen kommen. Wenn ich das beim IOC beispielsweise sehe, beim Internationalen Olympischen Komitee – da werden alle möglichen Figuren aus aller Herren Länder einfach so benannt, nicht selten, wie jetzt zuletzt in Kopenhagen, der Sohn der Königin. Da erben Scheich-Söhne die Position des verstorbenen Papas usw. Also, das sind Leute, die einfach so in Spitzenfunktionen kommen, ohne dass sie je irgendwelche Wahlprocedere durchlaufen haben, ohne dass sie jemals irgendwie haben nachweisen müssen, was sie eigentlich
558
Podiumsdiskussion
legitimiert für diese Ämter. Das lässt sich auch wieder herunterbrechen auf nationale Verbände, durchaus auch hierzulande: Über internationale Ämter kann man automatisch in Dachverbände einrücken. Es gibt zwar auch den Weg, über die Basis in bestimmte höhere Ämter zu kommen, das geht aber selten über Landesverbandsebenen hinaus. Dazu kommt das Systemzwang-Doping – zumindest, und zwar gut erkennbar, in den Sportarten, die auf Doping gut ansprechen. Das sind also vor allem natürlich die Kraft- und Ausdauersportarten, beileibe nicht nur der Radsport. Wir sehen entsprechende Entwicklungen gerade auch im Wintersport. Oder: Wir haben das Phänomen Usain Bolt vor der Brust. Das wird uns begleiten für viele Jahre. Man kann sich ausmalen, was das für den Sport bedeuten wird, wenn sich jemals rausstellen sollte, dass es nicht die Kraft der amerikanischen Süßkartoffel ist, die den Herrn Bolt Jahr für Jahr ein bisschen schneller fliegen lässt, bis er irgendwann einmal bei 4 Sekunden angelangt. Was dann los wäre, lässt sich ausmalen. Ben Johnson ist, glaube ich, generell noch in Erinnerung? Und ein letztes: Wir haben auch vom Umgang dieser Gesellschaft mit Spitzensport und seinen Teilnehmern ein anderes Bild. Wenn wir beispielsweise sehen, wie übel den Doping-Kronzeugen im Radsport in den letzten Jahren mitgespielt worden ist: Patrik Sinkewitz und Jörg Jaksche, die davon Gebrauch gemacht haben, was die WADA, die Welt Anti Doping Agentur, eigentlich als starkes Instrument dem Sport in die Hand geben wollte, nämlich die Verkürzung ihrer Dopingsperre. Statt zwei Jahren bekommt ein Kronzeuge mittlerweile nur noch ein halbes Jahr, das ist ein Riesenanreiz, auch wirklich den Kronzeugen zu machen. Das wird aber keiner mehr tun, das hat die Szene insgesamt schnell gelernt aus dem Schicksal dieser beiden Fahrer. Jaksche und Sinkewitz kamen einfach nicht mehr unter, wurden rausgemobbt, sie gelten als Nestbeschmutzer. Die Rechnung für Dopingsünder ist jetzt eine ganz einfache: Selbstverständlich brumme ich lieber meine zwei Jahre ab und komme dann als Held wieder zurück wie Winokoruw usw. und mache einfach weiter, als dass ich mir diese Tortur antue: Dass ich nach einem halben Jahr zwar wieder frei bin, aber definitiv nirgendwo mehr unterkomme und eigentlich schon froh sein muss, wenn die Drohanrufe auf meinem Handy endlich aufhören. Auch diesen Umgang mit, man kann vielleicht „Systembereinigern“ sagen, den kennen wir ja nicht aus unserer demokratischen Gesellschaft. Wir haben sogar genügend Beispiele dafür – Italien und die USA insbesondere –, wie gut Kronzeugenregelungen beispielsweise im Bereich der Bandenkriminalität, Mafia usw. greifen und dass diese Leute, die wirklich auf die legitime Seite der Gesellschaft wieder übergewechselt sind, dort aufgefangen werden. Dass also hier ein sehr großer Konsens in der Gesellschaft herrscht, solche Leute zu resozialisieren, sie wiedereinzugliedern und auch die Wahrnehmung die ist: Das ist einer von uns – die anderen, die schweigend im Dunkeln weitermachen, sind die, die uns bedrohen. Das ist im Sport im Riesenbereich Pharmabetrug eben gerade nicht der Fall – wohlgemerkt, man kann es nicht ganz pauschalisieren, wollen wir auch nicht tun, aber wir haben die Zahlen jetzt mal ein bisschen festgezurrt.
Podiumsdiskussion
559
Jetzt ist gerade in den letzten zwei Vorträgen das Thema Doping schon aufgekommen, es muss selbstverständlich behandelt werden, wenn wir über Moral im Spitzensport sprechen. Ich würde es aber nicht darauf reduzieren wollen. Wir haben sicherlich noch Zeit, darauf im Verlauf zurückzukommen. Professor Zinner, ich würde vielleicht noch einen anderen Aspekt beleuchten wollen. Sie haben vorhin gesagt, einem Judoka ist das eigentlich egal, ob der dritter oder vierter oder fünfter wird, weil er kein Profi ist, weil er keine Werbeverträge bekommt o.ä. Jetzt ist der natürlich in der Sportförderung, der ist in einer gewissen Weise Profi, indem er Geld dafür bekommt und nichts anderes macht. Wenn er die Leistungen nicht bringt, wenn er hinter eine gewisse Platzierung zurückfällt, fällt er aus dem Kader, aus dem Fördersystem raus, dann kann er den Sport in dieser Intensität eigentlich abhaken. Muss man dann vielleicht von der anderen Seite auch draufschauen und sagen, dann stimmen die Rahmenbedingungen nicht, dann stimmt auch das Fördersystem nicht, weil Sie praktisch den Athleten drängen, sich vor eine Entscheidung zu stellen? Nicht Ruhm, Ehre, Reichtum, sondern: weiter den Sport auszuüben oder eben nicht, weil man die Vorgaben sonst nicht schafft? Prof. Zinner: Ich hatte vorhin nicht gesagt, dass dem Judoka egal ist, ob er dritter oder fünfter ist, das ist nicht egal, aber finanziell, im finanziellen Gewinn, da ist es egal, das trifft übrigens auch den Ruhm. Ich habe gesagt, zahlen Sie so einem Sportler 250 Euro pro Monat, dann sind Sie der Sponsor. Und Herr Kistner, ein Artikel für den Judo-Dritten bei der Europa-Meisterschaft in der Süddeutschen Zeitung macht den glücklich, wäre höchster Ruhm! Das sind die Kategorien, über die wir reden, wenn wir bei dem Großteil der Athleten von Ruhm und Geld sprechen. Es sind andere Dinge, die Athleten in Schwierigkeiten treiben. Es ist schon eine Art Quadratur des Kreises. Der Wettkampf wird weltweit immer mehr entfesselt. Leistungssport ist was Perfektionistisches. Ich will alles richtig gut machen, ich will schneller, höher, weiter. Das kann ich, wir haben vorhin viel von Globalisierung gehört, für Deutschland doch nicht abschaffen. Dem Spektakel der olympischen Spiele tut es nicht weh, wenn sich die Deutschen nicht mehr beteiligen oder nicht mehr beteiligen können. Das bringt Sportler sozusagen in andere Gegensatzpaare, die für sie wichtig sind, nämlich z. B. in Chancen und Risiken. Wie sind meine Chancen? Lohnt sich das für mich? Kann ich das wieder aufholen, wenn ich mich jetzt drei Jahre auf Olympische Spiele vorbereite? Was mache ich mit meinem Studium, wer hilft mir, dass ich dabei dieses Studium klar kriege? – Das sind eher die Fragen, die nerven. Und Herr Kistner, aus meiner Sicht sind diese Zahlen von 40 % eher kontraproduktiv, und dann noch die Totschlagsargumente, die Dunkelziffer liege noch höher! Vor mir sitzen eher junge Athleten, die dann fragen: Kann man denn Weltspitzenleistungen oder Spitzenleistungen sauber machen? Wenn wir denen sozusagen suggerieren, das ginge gar nicht in einem Land, das jetzt in ein paar Wochen wieder antritt, die Nation Nr. 1 im Wintersport zu sein. In einem Land, wo der stärkste Mann, M. Steiner, von der Presse hervorgehoben
560
Podiumsdiskussion
wird. In einem Land, wo die schnellste Frau auf dem Eis, J. Wolf, die schnellste Frau auf dem Wasser, B. Steffen, von der Presse gefeiert, da muss ich sagen, da müssen wir auch mal deutlich machen, dass die leistungssportlichen Erfolge, die in der Regel bei Olympia auch von anderen Nationen erbracht werden, mit sauberen Mitteln erbracht werden und dass wir jedem nur empfehlen können: Nimm diesen Wettkampf auf und stell dich dieser Geschichte, stell dich mit sauberen Mitteln. Thomas Kistner: Das klingt für mich toll, aber das ist die klassische Fensterrede. Aber was Sie gerade vorher gesagt hatten, dass man die Athleten eben nicht mit diesen Zahlen behelligen soll, habe ich Sie da gerade richtig verstanden, das ist kontraproduktiv? Prof. Zinner: Ja. Denn da muss man sagen, was immer man mit Doping in Zusammenhang bringen will – 40% der Berliner Athleten gedopt, dem ist niemals so! Thomas Kistner: Das ist ja nicht die Aussage. Die Aussage ist, dass sich ein großer Teil, ein signifikanter, erschreckend hoher Anteil, 35 %, mit der Sache schon auseinandergesetzt haben. A- und B-Kader. Grit Hartmann: Schon einmal gedopt, nicht nur auseinandergesetzt. Thomas Kistner: Schon mal gedopt haben. Grit Hartmann: Herr Zinner, es hilft doch nichts, diese Studien zu bestreiten. Es ist auf hochgradig anonymisierter Grundlage erfolgt. Es gab erstmals eine Studie in 2004. Da lag die Zahl bei 40%. 2008 mit einer neuen Fragetechnik überarbeitet, dann waren es 35% der deutschen A- und B-Kader-Athleten. Und ich finde, es kann selbstverständlich überhaupt nichts anderes geben, als Athleten damit zu konfrontieren, damit sie wissen, worauf sie sich einlassen. Schauen Sie sich doch die Weltspitze im Langlauf an. Schauen Sie sich an, wie viele Russen, aber auch Athleten andere Nationen, Österreicher, in den letzten Jahren aus dem Verkehr gezogen worden sind. Es gibt, darüber werden wir jetzt nicht sprechen, weil es teilweise nicht belegt ist, aber es gibt Verdacht auch gegen deutsche Spitzenathleten. Selbstverständlich müssen junge Sportler wissen, dass sie ohne Doping in einigen Sportarten, das gilt auch für Disziplinen der Leichtathletik wie die 100 Meter, keine Chance auf Weltspitze haben. Und wenn junge Athleten keine verantwortungsbewussten Menschen im sportlichen Umfeld haben, dann ist zu hoffen, dass sie die in der Familie finden. Das ist für meine Begriffe Fakt in diesem Spitzensport. Was mir fehlt, man kann das Ganze ja auch ein bisschen produktiv behandeln, ist ein sportpolitische Verständnis in Deutschland, das, diese Überlegung einbezieht und eben nicht nach Medaillen fördert, Steuergelder zuerst an Erfolgen bemisst. Es hat ja zuletzt eine Umstellung gegeben vom Fördersystem 2000 auf die sogenannten Zielvereinbarungen. Das zuständige Bundesinnenministerium und der DOSB legen aber immer noch
Podiumsdiskussion
561
Medaillenziele für Spitzenverbände fest, nur ein bisschen besser unterfüttert als das vorher der Fall war. Ist das das richtige Kriterium für eine moderne Sportpolitik? Einbezogen werden müsste, da kann Herr Professor Müller sehr viel mehr dazu sagen, dass von einem funktionierenden Antidopingkampf selbstverständlich nicht gesprochen werden kann. Nicht nur wegen der hierzulande gern betonten fehlenden Chancengleichheit, weil also in anderen Ländern etwas weniger kontrolliert wird als in Deutschland, sondern auch, weil auch in Deutschland sehr professionell und mit viel Geld gedopt wird. Wenn der Fall Pechstein ein Dopingfall ist – ich gehe davon aus – dann müsste schon eine sehr ausgefeilte Methode dahinter stehen. So etwas gibt es in Deutschland, siehe auch die Freiburger Universitätsmedizin. Man kann jungen Leuten sagen, dass Sport etwas Tolles ist, etwas, das Leidenschaft und Leistung belohnt. Aber man muss sie auch darauf vorbereiten, dass sie sich, so sie denn ehrlich bleiben wollen, Weltspitze in bestimmten Sportarten abschminken können. Ich würde vielleicht ganz gern eine Aussage rausnehmen und die gegenüberstellen, und zwar die Aussage: Man muss den Athleten klarmachen, dass man olympische Medaillen auch mit sauberen Mitteln gewinnen kann. Geht das, Herr Kistner? Thomas Kistner: Ich wüsste gern, wie. Das würde mich sehr interessieren, wie Sie beispielsweise einem Teilnehmer am olympischen Straßenradrennen erklären wollen: Pass mal auf Junge, jetzt geht es gegen Contador, gegen Armstrong vielleicht nochmal – so wie der drauf ist, kann der sicherlich auch in London nochmal antreten. Und all diese jungen, ungedopten, an die Kraft reinen Wassers glaubenden Jungs sollen gegen diese ausgebufften Profis locker die Medaille holen? Ich weiß nicht, wie Sie das machen wollen? Also, Weißbrot essen, Wasser trinken und kräftig, kräftig trainieren? Es ist eine Fensterrede für mich, weil sie einfach nur diese Behauptungen in den Raum stellen, die im übrigen immer von allen Funktionären aufgestellt werden, ohne dass sie mit irgendeiner Substanz angefüttert sind. So geht das schlicht und einfach nicht in bestimmten Sportarten. Das ist aber auch das Problem, dass der Sport nicht erkennen will, dass er diesen Systemzwang zum Betrug damit nicht nur fördert, sondern sogar schützt. Solange der Sport so tut, als bewege sich das Ganze sich immer wieder auf dieser Einzelfallebene – nach dem Motto: Naja, ein paar schwarze Schafe gibt es immer –, wird der Zwang zum Dopen nur erhöht. Sie können ja nur, wenn ich Sie richtig verstehe, wenn Sie einem Athleten sagen: „Es geht auch ohne“, dann können Sie ihm ja auch nur soviel sagen: „Vielleicht ist der eine oder andere dabei, der betrügt, das wissen wir nicht, aber im Großen und Ganzen ist das hier eine völlig saubere Veranstaltung, also geh raus und mach dein Bestes“. Prof. Zinner: Junge Leute kommen doch in den Olympiastützpunkt und suchen Unterstützung. Denen muss man natürlich deutlich machen, dass du mit sauberen Leistungen auch Spitzenleistungen machen kannst. Davon muss man sie überzeugen.
562
Podiumsdiskussion
Thomas Kistner: Die Frage ist, was Spitzenleistungen sind. Dass man das machen muss, ist schon klar. Prof. Zinner: Aber das Problem ist, dass Sie sagen, 40 % haben sich damit beschäftigt. Da würde ich nicken und würde sagen, du musst dafür sorgen, dass die sich beschäftigen. Und Fr. Hartmann sagt, 40% haben gedopt. Thomas Kistner: Wir beziehen uns auf die gleiche Studie. Es geht um 35 %. Wir können vielleicht mal kurz in die Praxis reingehen, wenn wir hier vom Spitzensport reden und von Spitzenathleten. Jetzt haben wir ja einen Nationalspieler im Wasserball hier sitzen. Herr Mackeben, wir haben immer die Einschränkung in bestimmten Sportarten, also Kraft- und Ausdauersport sind gefallen, da gehört jetzt Wasserball nicht zwanghaft dazu. Aber natürlich kann man über Doping, selbst wenn es nicht das eigentliche Resultat verbessert, die Trainingsleistung erhöhen, man kann viele Effekte erzielen. Jetzt weihen Sie uns doch mal ein. In der Praxis, ist die Randsportart Wasserball das letzte Refugium des dopingfreien Sports? Sören Mackeben: Ich muss erst mal zu diesen 35 % etwas sagen. Das tut mir auch weh und ich glaube, da müssen wir auch wirklich auch anfangen, wiederum zu differenzieren zwischen Sportarten. Wenn wir jetzt mit 15 Wasserballern zu Olympia fahren, dann würden 35% ja bedeuten, da sind 5 mit einer Spritze dabei. Und das ist Schwachsinn, mit Verlaub, das ist einfach nicht so. Wir haben noch andere Mannschaftssportarten, Basketball und Handball, und mit denen sitzen wir dann auch in dem olympischen Dorf zusammen und trinken nach den Spielen zwei, drei Bier. Das ist dann wiederum die Frage mit der Wirkung. Ich kann jetzt natürlich nicht für jeden Basketballer und für jeden Spieler in diesen Mannschaftssportarten da meine Hand ins Feuer legen, aber ich möchte schon darauf hinweisen, dass man sich einfach fragen muss: Welche Wirkung ist da mit dem Doping zu erzielen, wenn man sich ansonsten wiederum als Teamplayer gibt. Also, was dabei ja schon eine große Rolle spielt. Ansonsten spielen natürlich – und ich glaube, da kommen wir wieder zu der Moral und der Ökonomie – auch finanzielle Fragen bei dem Doping eine große Rolle. Wenn ich sehe, um welche großen Summen es im Radsport geht. Und da bin ich dann auch durchaus bei Ihnen, Herr Kistner, dass man dort dann sagt: Wir haben die Problematik, dass ich aber nur in vereinzelten Sportarten wirklich schon bald keine Chance mehr habe, um in der Weltspitze mitzuhalten. Und dann ist das also so. Da werde ich dann über finanzielle Möglichkeiten irgendwohin gedrängt, und dann kommen wir zu den jungen Sportlern, die eigentlich da nicht hin wollen. Das ist schon ein riesiges schwieriges Feld, aber Sie hatten vorhin auch noch die Grundsatzaussage angebracht, dass die Moral im Spitzensport, wenn ich das so richtig verstanden habe, niedriger liegt als in der Gesellschaft. Auch dem kann ich überhaupt nicht folgen und weiß nicht, woraus Sie diese Kenntnis ziehen.
Podiumsdiskussion
563
Thomas Kistner: Aus den Systemzwängen, die ich zugleich dargelegt habe. Ich habe versucht, das aus den Systemzwängen abzuleiten. Sören Mackeben: Okay, aber es gibt ja auch Nachwuchssport, also als Spitzensport. Und ich glaube, auch das hatten wir ja schon angesprochen, dort werden Zielstrebigkeit und Moralvorstellungen tatsächlich vermittelt und ich glaube, das ist sehr wertvoll und ich stelle einfach eine andere These auf: Es ist mehr Ehrlichkeit im Sport als in dem Rest der Gesellschaft. Wenn man sich dann natürlich Gremien anguckt, wo eventuell nicht demokratische Strukturen vorherrschen – der Herr Professor Lammert hatte das ja vorhin auch schon mit anderen Moralvorstellungen in der Gesellschaft angesprochen – also auch die Unternehmensführer in den anderen Teilen werden nicht immer demokratisch bestimmt. Das ist sehr schwierig und ich bitte nur um eine sehr starke Differenzierung, die man da schon vornehmen muss. Thomas Kistner: Diese Differenzierung habe ich getroffen. Wir haben hier ausdrücklich gesagt, wir reden über den Spitzensport. Ich habe selbstverständlich nicht – für den Fall, dass es falsch rumgekommen ist – über Jugendsport oder Breitensport, über Freizeitsport gesprochen, und ich halte das jetzt umgekehrt natürlich auch nicht für legitim, auszuweichen und zu sagen, so schlimm ist das Szenario nicht. Denn klar, wir haben auch den Jugendsport und wir haben auch den Breitensport, aber dazu habe ich keine Aussage getroffen. Ich würde selbstverständlich diese Aussage auch nicht für diese Bereiche treffen, wobei die Gefahr allerdings besteht, Herr Müller hat es vorhin schon gesagt, dass das Eine natürlich auf das Andere abstrahlt. Wir haben auch im Breitensport, Sie werden es hier bestätigen können, schon beängstigende Tendenzen, da wird auch bei der bis-60-Altersmeisterschaft schon kräftig zugelangt. Sören Mackeben: In sehr wenigen Sportarten aber. Thomas Kistner: Aber, wie gesagt, wir reden über den Spitzensport und da sind auch diese 35%, das ist meine Behauptung, eine empirisch belastbare Zahl. Über die müssen wir reden, denn die steht im Raum. Professor Müller, wir sind jetzt schon tief in der Doping-Diskussion. Ist sicherlich dem Thema auch angemessen. Wir haben jetzt hier so ein bisschen auch den Diskurs Kraft- und Ausdauersportarten, die Mannschaftssportarten sind jetzt gar nicht so sehr bedroht vom Doping. Was sind denn Ihre Erkenntnisse? Wo kommt den Doping zum Einsatz? Kann man das tatsächlich so reduzieren? Prof. Müller: Das ist schon eine Schwierigkeit. Und ich behaupte auch selber nicht, dass ich da sehr viel mehr weiß, sondern weniger als ich wissen möchte. Ich weiß also ganz bestimmt weniger als viele Leute, die ungerechtfertigte Behauptungen dahingehend aufstellen. Ich wüsste z. B. gern, woher jemand so sicher ist, dass in bestimmten Sportarten nur gedopt wird und dass es keinen gibt, der nicht mehr dopt. Woher weiß das jemand? Ich weiß es nicht, obwohl
564
Podiumsdiskussion
ich in über 14 Jahren Doping-Analytik Zehntausende von Proben verantwortet habe. Vielleicht, weil die Doper immer schneller sind als die Wissenschaft? Prof. Müller: Nun ist es auf der einen Seite so, ich muss auf meine Feststellungen am Anfang arroganterweise zurückverweisen, dass Pauschalisierungen und Verabsolutierungen naheliegen. Man beobachtet sich ja oft selber im Alltag bei solchen Feststellungen, wo sicher gesagt wird, während wahrscheinlich angebracht ist. Es gibt eine zweifelsfreie Dopingträchtigkeit im Vergleich zwischen verschiedenen Sportarten. Schach oder meinetwegen auch Wasserball mag da nicht auf dem gleichen Nenner basieren wie Leichtathletik oder Gewichtheben oder Radfahren, das gebe ich zu. Aber auf der anderen Seite gibt es keine scharfe Grenze. Es gibt überall den Drang nach Höchstleistungen, und dem unterliegt man u. U. eben auch um diesen Preis. Ich würde in wenigen Sätzen mal darauf eingehen, welche Rolle denn die Gesellschaft selbst zu dieser Tatsache hat, dass ein Dilemma besteht zwischen Höchstleistungsanspruch und Sauberkeit. Das Argument, das auch in anderen Bereichen, ob das Manager sind oder auch Studenten, auch „gedopt“ wird, obwohl es dort anders heißen mag, das halte ich für sekundär: man kann nicht einen Fehler mit einem anderen entschuldigen. Da wäre ich schon der Meinung, wenn der Sport, was Höchstleistungen, was die Einhaltung von Regeln, was den Teamgeist anbelangt, Vorbild sein will, dann muss er es auch diesbezüglich sein. Die Forderung ist schon nicht unberechtigt. Und dann komme ich noch mal mit wenigen Sätzen zum Doping. Hat nicht auch der Nichtsportler in der Gesellschaft, der den Spitzensport wahrnimmt, einen Anteil an diesem Motiv, dass man um des Ruhmes willen und um des Geldes willen Höchstleistungen auch um den Preis moralischen Versagens anstrebt? Was bedeutet denn z. B. ein Rekord im 100-Meter-Lauf, der eine frühere Leistung, um drei hundertstel Sekunden verbessert, für die menschliche Gesellschaft? Nichts. Ich will nicht sagen, dass ich den Sportler nicht achte, der das womöglich gar noch sauber erreicht, aber es bedeutet nichts für den Fortschritt der Menschheit, für unser menschliches Zusammenleben. Und doch wird der als Star betrachtet und in den Himmel gehoben. Er findet mehr Beachtung als jemand, der sich den zweiten Nobelpreis verdient hat usw. Auf der anderen Seite ist es das Recht eines Staates, sich diese Einzelleistungen und Kollektivleistungen von Teams auf die Fahnen zu schreiben. Wir haben aber die unselige Erfahrung der DDR, die ihre Anerkennung zum Wesentlichen auf die sportlichen Leistungen gegründet hat. Aber auch heute ist das ja nicht ganz anders. Da werden die OlympiaDelegationen nach der Zahl der Medaillen gewertet, die sie nach Hause bringen. Bedeutet denn das, dass ein Staat, der mehr Olympia-Medaillen erntet, wirklich besser ist in jeder Hinsicht als ein anderer? Das einzige, was der Staat als Verdienst hat, ist ja, dass er u. U. den Sport etwas stärker unterstützt. Aber das alleine bringt es nicht, sondern es ist die Leistung der Individuen und Teams. Das ist sogar noch deutlicher bei den regional-patriotischen Reaktionen beim
Podiumsdiskussion
565
Fußball. Da werden Kämpfe ausgefochten zwischen den Fans des einen Ortes und eines anderen, obwohl die Fußballmannschaften zum größten Teil aus eingekauften Spielern bestehen, die mit den Orten überhaupt nichts zu tun haben. Und selbst wenn das nicht so wäre, selbst wenn diese Sportler aus dem gleichen Ort kämen, hat doch der andere, der Zuschauer, an deren Sieg keinen Anteil, außer dass er sie vielleicht mit seinem Applaus anspornt. Und trotzdem werden da bis zu Handgreiflichkeiten die Aggressionen abreagiert. Da kann man ja sagen, gut, das ist ein Feld, auf dem man Aggressionen ausleben kann und das ist immer noch besser, als wenn man es bei anderen Gelegenheiten macht, aber das ist doch überhöht. Und dass dann die Sportler u. U. hypertrophieren; wenn jemand zum absoluten Star hochgelobt wird – dass er dann auch um den Preis des Dopings das Ganze zu halten oder zu erreichen versucht, ist nicht ganz unverständlich, auch was das Geld anbelangt. Es gibt berechtigte Proteste gegen die schrankenlosen Profite von Managern, von denen wir heute früh wieder gehört haben. Ich bin da voll dafür. Aber ich habe noch nie gehört, dass jemand ernsthaft protestiert, dass ein Fußballspieler mehr verdienen kann als sämtliche Politiker, die uns zu regieren haben. Das scheint als völlig normal angesehen zu werden. Und jetzt noch die letzten Sätze zum Doping. Ich bekomme sofort ein Alarmklingeln, wenn ich von solchen Umfragen höre, 35% bei anonymen Befragungen hätten zugegeben, dass sie schon mal gedopt haben. Das mag selbst doppelt anonymisiert sein. Was haben denn die Betreffenden unter Doping verstanden? Selbst Sportärzte wissen oft ungenügend Bescheid über den Begriff und die Abgrenzung des Dopings, schon gar Sportler, die man anonym befragt. Da mag also jemand selbst, weil es ja anonym ist, um gut zu sein, die Einnahme eines Nahrungsergänzungsmittels, im Extremfall von Traubenzucker oder Vitaminen, auch schon als Doping ansehen und dafür vielleicht etwas anderes nicht, was aber welches ist. Also, solche Sachen darf man nicht überernst nehmen. Auf der anderen Seite, und das habe ich, glaube ich, vorhin schon mal angedeutet, bin ich der Meinung, dass viel mehr gedopt wird als wir erkennen, gar keine Frage. Das ist eine Frage der Kontrolldichte, die international noch allergrößte Disharmonien aufweist. Da muss man schon bei manchen Sportarten sehr vorsichtig sein, wenn man sie sauber betrachtet. Aber ich wäre umgekehrt gegen jede Pauschalisierung, dass man also sagt, in einer Sportart würde nur gedopt, es könne anders gar nicht mehr dieser Sport mit Erfolg betrieben werden. Das halte ich für eine ungerechtfertigte Pauschlaisierung. Und man tut damit denen unrecht, die Höchstleistungen versuchen oder Leistungen schaffen und trotzdem sauber sind. Die gibt es nach meiner Überzeugung. Herr Professor Müller, Sie haben zweimal in unterschiedlichen Zusammenhängen formuliert, dass es keine scharfe Grenze gibt. Das bezieht sich sicherlich auch auf „Was ist Doping oder was ist kein Doping?“. Sie haben gesagt: Was bringt eigentlich der Gesellschaft ein schneller Sprinter? Auf der anderen Seite gibt es ja, Dopingbefürworter, die sagen, die Menschheit hat seit ihrer Existenz letztendlich immer versucht, sich weiterzuentwickeln, alle Möglichkeiten zu nutzen, die zur
566
Podiumsdiskussion
Verfügung stehen, ob das Süßkartoffeln sind oder ähnliche Dinge, die da zu sich genommen werden. Insofern vielleicht die andere Frage auch an Grit Hartmann mit ihrer Recherche zu dem Buch „Goldkinder“, wo ja ganz massiv eingegriffen worden ist. Kann man es denn positiv sehen und sagen: Über dieses Doping, medizinisch-kontrolliert, werden auch Grenzen verschoben. Da werden vielleicht sogar Leistungsfähigkeiten eröffnet oder ist das blauäugig? Grit Hartmann: Das ist wirklich die alte Schmalspurdebatte, die aber natürlich immer wieder Befürworter findet und die auf Doping-Freigabe hinausläuft. Dagegen gibt es essentielle Argumente. Das erste kennen wir perfekt aus DDRZeiten. Die DDR-Funktionäre und Mediziner nahmen für sich in Anspruch, Doping medizinisch-kontrolliert zu betreiben. Dazu gehörten auch ein paar Vorschriften: in der oder der Sportart erst ab dem oder dem Alter. Nur: Selbst mit Hundertschaften Staatssicherheitsmitarbeitern, die das Staatsdoping zu überwachen hatten, schon damit es nicht aufflog, war es kein kontrolliertes Doping, wie Sie an den Langzeitschäden sehen. Es gibt keine Substanz ohne Nebenwirkungen. Und es gab auch immer wieder Ausbrüche: Ehrgeizige Trainer, Ärzte, Clubs haben selbstverständlich auch minderjährigen Athleten mehr verabreicht, regelrecht „reingeknallt“ als vorgesehen war. Also selbst in einer Diktatur ist kontrolliertes Doping unmöglich. Punkt zwei ist eine noch sehr viel simplere Sache. Auf Doping, auf Anabolika z. B., sprechen Athleten unterschiedlich an, jeder einzelne Körper, man nennt das gute und schlechte Metabolisierer. Auch damit kriegen Sie also keine „Gerechtigkeit“ hin. Punkt drei ist der übergeordnete: Wenn wir eine Freak-Show wollen, dann kann man das ja gern machen, aber dann soll da bitte kein einziger Euro öffentlichen Geldes mehr hinein. Darüber kann man auch sonst, angesichts des gegenwärtigen Zustands des Sports, schon darüber reden. Also, von dieser Debatte halte ich gar nichts. Ich würde aber gern zu Herrn Professor Müller noch was sagen. Ich glaube, dass Spitzensportler, Aund B-Kader, ganz bestimmt nicht mehr solche Naivlinge sind, wie Sie das ein bisschen angedeutet haben. Die Möglichkeiten, sich über Doping zu informieren, sind auch im Zeitalter des Internets unerschöpflich. Das ist zumeist unglaubwürdig, dass ein Sportler angeblich nicht weiß, was Doping und was ein zulässiges Nahrungsergänzungsmittel ist. Da, um es positiv zu formulieren, droht ihm auch ein bisschen zu viel. Sehr einverstanden bin ich allerdings mit der These, nur werden wir nicht das wegkriegen, dass das Spitzensportverständnis, das politische, in der Tat überholt ist. Was Herr Professor Müller, glaube ich, angesprochen hat: China müsste der beste und der vorbildhafteste und bewundernswerteste Staat der Welt sein, denn die haben die meisten olympischen Goldmedaillen in Peking geholt, und vorher waren das die UdSSR, die DDR. Dennoch, und das ist das, worüber man nicht spricht, aber sprechen müsste, haben wir dieses Sportverständnis immer noch. Medaillen sind Ausdruck des Leistungsvermögens eines Volkes, so hat das unvergesslich der Bundesinnenminister Kanther Mitte der 90er Jahre gesagt und Schäuble hat es im letzten Sportbericht der Bundesregierung ganz ähnlich wiederholt. Also, das ist eigentlich die Grundlage dessen, worüber
Podiumsdiskussion
567
wir hier sprechen. Und einen kleinen Punkt noch, damit wir nicht nur Doping thematisieren. Wir reden ja über Sport zwischen Moral und Ökonomie, und vielleicht können wir auch noch auf den sogenannten Wettskandal zu sprechen kommen. Da zeigt sich – und darüber wird ein bisschen wenig geredet, aber das ist für mich sehr augenfällig gewesen – dass also eine Korruptionsanfälligkeit im Sport, in die unteren Ligen voranmarschiert ist. Man dachte ja immer, oh, da geht es noch fair zu, Regionalliga, Oberliga, das ist noch richtiger Sport. Aber nein, auch dort ist das nicht mehr der Fall. Also dieses Pyramidenmodell, bei dem man sagt, na, da oben an der Spitze ist vielleicht ein bisschen was versaut, aber sonst ist das ja alles noch prima moralisch und so – das funktioniert auch nicht mehr. Selbstverständlich kann man die Wasserball-National-Elf Deutschlands nicht in einen Topf werfen mit Athleten, die beim 100-Meter-Sprintfinale in Peking antreten, und wo ich der Überzeugung bin, dass jeder Einzelne gedopt ist. Die Erfahrungen der vergangenen 25 Jahre haben jedenfalls nichts anderes gezeigt. Was ich sagen will: Die Moral steht im Zweifelsfall immer hinten dran. Von der „Ökonomie“, präziser Gewinnmöglichkeiten über Betrug, Manipulation, Zocken, sind auch Sportbereiche befallen, von denen man das noch vor wenigen Jahren nicht unbedingt vermutet hätte. Ganz klar, es gibt sicherlich einen Zusammenhang auch zwischen der Ökonomie und dem Überschreiten von moralischen Grenzen. Jetzt haben wir den Wettskandal genannt. Herr Mackeben, Sie haben gesagt, jeder Dritte eine Spritze, das glauben Sie nicht. Aber mit dem Wetten eröffnen sich ja ganz neue Möglichkeiten für Wasserballer. Glauben Sie das? Man kann ja auf alles wetten heutzutage? Sören Mackeben: Ja, man kann auf alles wetten. Ich hab das jetzt nicht so verfolgt, muss ich ehrlich zugeben. Ich hab da nur die Überschriften gelesen und kann mich insofern nicht richtig kompetent dazu äußern. Ich kann für mich erstmal sagen, im Wasserball ist es so, dass wir mit Spandau einfach in Deutschland immer gewinnen und das heißt, wir hätten da schon ganz schön viel Geld verdienen können, wenn wir das vielleicht irgendwann mal versucht hätten, aber das stand natürlich nicht zur Debatte. Die Frage ist, wie viele Spiele verschoben worden sind. Also, wenn wir jetzt rein über den Fall Fußball reden: Der Herr Zwanziger hatte dazu noch gesagt, dass das sehr wenig Spiele waren, aber das kann ich nicht beurteilen. Er sagt, das waren sehr wenige Spiele und dann besteht auch die Frage, wie viele Spieler ich brauche, um ein Spiel zu verschieben. Und das macht das Ganze dann natürlich nicht besser. Es gilt nur da auch wieder festzustellen: Es sind dann natürlich nicht 22 Betrüger und noch 3 Schiedsrichter auf dem Platz, also 25 Menschen pro Spiel, und davon finden dann wohl jedes Wochenende 9 in den Ligen statt. Das ist ja nicht so, also das glaube ich und das hoffe ich, dass das nicht so ist, sondern dass da einfach auch Einzelfälle stattfinden, die natürlich absolut nicht schön sind. Und ich frage mich dann auch wirklich als Sportler: Wieso ist das so? Denn auch der Fußballspieler in der zweiten Liga, in der Regionalliga, der verdient ja jetzt kein schlechtes
568
Podiumsdiskussion
Geld. Der Schiedsrichter, das kommt ja jetzt auch wieder zum Tragen mit dem Fall Hoytzer, bekommt in der Fußballbundesliga pro Spiel 6.000 Euro und das ist ja auch nicht wenig. Und da habe ich mich gefragt, wieso ist der dann so, dass der noch mehr Geld haben will, bzw. das war dann ja auch gar nicht so eine Riesensumme. Und dann fragt man sich ja, wieso ist der so dämlich und will dann das Geld. Aber das ist natürlich keine Frage der Moral, sondern auch ein bisschen der Intelligenz, da muss man sagen, das hängt natürlich schon zusammen. Moral hat wohl auch was mit Intelligenz zu tun. Ein sehr interessanter Anknüpfungspunkt! Wenn man sagt, Sportler können körperliche Dinge besser, dann steht das außer Frage. Die Spitzensportler sind selbstverständlich sportlich. Die Frage ist jetzt, gibt es da vielleicht eine moralische Überforderung an den Sportler, wenn man sagt: Okay, du kannst schnell rennen, du kannst fest schießen oder weit werfen oder sonst irgendwas und dafür bekommst du 6.000 Euro? Irgendeiner hat jetzt geschrieben über Frau Pechstein, die wäre 20 Jahre nur im Kreis gelaufen. Ist es tatsächlich so, dass Sportler dann überfordert und gar nicht in der Lage sind, so was auch moralisch zu überblicken? Einzuschätzen, was sie da eigentlich machen oder sind sie nur in diesem Leistungsdruck? Herr Kistner, vielleicht an Sie die Frage. Thomas Kistner: Das ist grundsätzlich glaube ich eine Wertung, die mir nicht oder eigentlich keinem zusteht, über die Moral von konkreten Leuten ... Es geht um die Überforderung. Thomas Kistner: ... zu urteilen. Also, im Fußball ist es sicherlich so: Das ist eine Gesellschaft, die schon so ab der – mittlerweile kann man fast sagen fünften, jedenfalls aber ab der – vierten Liga aufwärts so eine latente Zockergemeinschaft ist. Nicht unbedingt an den Wettspielbörsen, aber die Jungs hängen ständig zusammen. Ich hab früher selbst, damals war es dritte Liga bzw. oberste Amateurklasse gewesen, Fußball gespielt. Und ich weiß aus eigener Erinnerung, wie es zugeht in Fußballmannschaften, die viermal die Woche trainieren, die ins Trainingslager gehen usw. und auch schon mal Anfahrten zu Auswärtsspielen haben, wo eine Übernachtung vorgeschaltet wird usw. Sehr viel dreht sich da um die Frage, wie man Zeit totschlägt zwischen den Trainingseinsätzen und zwischen den Spielen. Ab der dritten Liga, die ja heute auch schon eine Profiliga ist, zweite Liga usw. sowieso, also da wird ständig gezockt, Karten gespielt, das ist schon stark ritualisiert in sehr vielen Mannschaften. Überall gibt es natürlich Spieler, die nie eine Spielkarte angefasst haben, aber überall gibt es auch diese Zockerrunden und dann wird um 10, 20, 50 Euro gespielt oder beim FC Bayern auch mal um deutlich mehr. Nur 3.000 Euro, hat Mario Basler mal gesagt. Thomas Kistner: Nur 3.000 Euro beispielsweise. Gut, wenn es sich dann mit dem Gehalt wieder entsprechend in Relation bringen lässt, sei es dahingestellt.
Podiumsdiskussion
569
Nur, es ist so ein bisschen grundsätzlich angelegt. Wir hatten hier im sauberen Deutschland zwei Wettaffären, in 2005 die angesprochene Hoyzer-Affäre und 2006 noch mal eine, die fast schon in Vergessenheit geraten ist, denn die wurde drei Monate vor dem Anpfiff der Weltmeisterschaft im eigenen Land so schnell beerdigt, dass man, wie man jetzt weiß, nicht wirklich alles aufgeklärt hat; bei Hoyzer übrigens auch nicht. Denn Spuren aus beiden Wettaffären münden in die jetzige Affäre, die in Bochum aufgeflogen ist. Da gibt es klare Verknüpfungspunkte, es ist beides nicht sauber aufgearbeitet worden. Insbesondere hat man aber auch dieser Erkenntnis, dass die Spielerei in Fußballerkreisen verbreitet ist, bisher nicht Rechnung getragen. Wie sonst kann es sein, dass man beispielsweise in Osnabrück im Frühjahr schon einem Spieler einen kräftigen Gehaltsvorschuss, 20.000 Euro ist viel Geld in der zweiten Liga, hat geben müssen, dass der sich von seinen Wettschulden freikaufen kann? Dann hat man ihm auch noch eine Spielsuchttherapie auferlegt, das ist zumindest der Vortrag der Vereinsoffiziellen. Das Gleiche haben wir in Österreich dieses Jahr gehabt in einer Zweitligamannschaft, die jetzt auch in die dortigen Affären involviert sein soll. Da hat der Präsident persönlich drei Leute aus dem Wettbüro gezogen. Das Problem ist also bekannt gewesen. Man hätte, spätestens nachdem man schon diese zwei Wettaffären in den vergangenen Jahren hatte, im Sport reagieren und nicht nur auf Frühwarnsysteme setzen können. Die sind auch ein bisschen vergleichbar mit Dopingkontrollen. Man braucht sie, sie sind wichtig als Abschreckung, weil sonst ja Tür und Tor geöffnet wäre. Aber sie haben ihre klar erkennbaren Grenzen, und diese Grenzen können umgangen werden, und sie werden im Wettspielbetrieb genauso leicht umgangen wie im Dopingbereich. Also, es gibt da, glaube ich, grundsätzlich eine gewisse Zockermentalität. Wir brauchen in diesen professionalisierten Sportbereichen, auch im Fußball, auch nicht über hehre Moral reden, das ist doch kein Thema, wenn man auf den Platz läuft. Nicht, dass man deswegen amoralisch ist und sagt, ich mach jetzt alles nieder, was des Weges kommt, aber das spielt natürlich keine Rolle. Man hat das Regelkorsett, versucht, sich daran zu orientieren, aber nicht nur, weil hier der Fairnessgedanke ganz oben steht, sondern natürlich auch, weil man sich ja selber schadet, wenn man den Gegner im Strafraum umholzt und es einen Elfmeter gibt oder wenn man die rote Karte kassiert und all diese Dinge. Der Sport ist also auf höchsten moralischen Ebenen anzusiedeln, aber das ist ja auch nicht falsch, weil das überall im Erwerbsleben so ist. Und wir reden hier vom Erwerbsleben. Zum anderen ist es aber so, dass in diesem ganzen Wettspielskandal von einer bestimmten Art von Betrug bisher überhaupt nicht die Rede ist. Das steckt eigentlich schon ein bisschen mit in diesem Wort drin – Spielskandal. Es gibt eine ganze Reihe von anderen Spielbetrügereinen und die UEFA hat jetzt mal einen ersten Schritt gemacht in dieser Woche, indem sie die spanische Liga darauf aufmerksam gemacht hat, die jetzt auch ermitteln, die bisher in den genannten Ligen nicht involviert waren. Also, die Bochumer Staatsanwaltschaft hat keine spanischen Spiele. Es gibt auch die Art von Betrug, die sich
570
Podiumsdiskussion
auf das Gestalten von sportlichen Ergebnissen, wenn wir beim Fußball bleiben, richtet. Da wird dann allenfalls im Rahmenprogramm ein bisschen mitgezockt. Denn wenn man schon weiß, wie man das Spiel gestaltet, kann man vielleicht noch ein bisschen nebenher verdienen. Aber im Kern geht es dann wirklich darum, Ergebnisse zu manipulieren. Insbesondere gegen Saisonende hin, wenn sich klärt, welche Mannschaften beispielsweise gegen den Abstieg spielen. Wenn die in der Schlussphase der Saison die letzten zwei, drei Spieltage gegen Mannschaften treffen, die im gesicherten Mittelfeld sind, wo es also nicht mehr um die großen Preise ganz oben geht und nicht mehr um die Abstiegsfrage geht. Dass da kräftig manipuliert wird und das in allen möglichen Ligen, das sind Erkenntnisse, die die UEFA auch hat, abseits der Kooperation mit der Bochumer Staatsanwaltschaft. Und das ist nach wie vor ein Bereich, der hier ein bisschen zu wenig beleuchtet wird. Im Wettspielbereich selbst kann man immer sagen, na ja, das sind die bösen Externen, das sind die Wettbanken, die von außen kommen und unsere armen Spieler korrumpieren. Die Spieler sind im Sport, sie machen mit, Sport hat es bisher nicht verhindern können. Ich glaube, es ist auch ein systemimmanentes Problem. Die Zeit ist schon relativ weit vorangeschritten. Ich würde vielleicht zum Abschluss nochmal versuchen, auch Alternativen aufzuzeigen, ein bisschen nach vorne zu schauen. Herr Professor Zinner, wenn man auf Ihre Vergangenheit in diesem Olympiastützpunkt zurückblickt, kann man dann vielleicht sagen: Okay, wenn mindestens 35 oder 40% der Athleten dopen, bis der Arzt kommt, wäre es dann nicht sinnvoller, wenn der Arzt schon vorher da wäre? Will sagen, wenn das alles beaufsichtigt und kontrolliert ablaufen würde. Prof. Zinner: Die Aufgabe des Olympiastützpunktes ist, dafür zu sorgen, dass man Sportler sozusagen so betreut – und zwar im ganzheitlichen Sinne –, dass man auch hohe Leistungen bringen kann. Und dazu gehört natürlich eine medizinische Betreuung, trainingswissenschaftliche Betreuung, eine sozialer Betreuung für das Studium. Und je besser und je früher man das machen kann, desto günstiger ist das. Und die Gefahr, dass Sportler mit Doping in Berührung kommen, die ist ja da, das sehe ich auch, da stimme ich der Grit Hartmann ausdrücklich zu. Es wäre ein katastrophales Signal, Doping freizugeben. Man muss energisch bekämpfen, man muss energisch bestrafen, man muss aber frühzeitig anfangen. Wenn die einmal in der Kategorie der Doper sind, sind sie fast nicht mehr zu berühren. Frühzeitig anfangen, indem man sozusagen dafür sorgt, dass du unter den Sportlern mittendrin bist, dass du weißt, über was die sich abends in der Sauna oder beim Bier unterhalten und dass du einwirken kannst. Auch darauf, wie das mit Kontrollen geht. – „Ist es denn wirklich schon schlimm, wenn ich mal nicht gleich angetroffen werde?“ – Damit fangen die Probleme im Doping an, man muss frühzeitig einschreiten und da muss man bei Sportlern natürlich auch dafür sorgen, dass sie gesundheitlich ordentlich betreut sind. Diese Einheit war immer meine Aufgabe.
Podiumsdiskussion
571
Grit Hartmann, Sie haben vorhin eine relativ klare Absage an diese Dopingfreigabe erteilt, sehr eindeutig. Aber wie geht man denn dann um mit unseren Doping verseuchten Spitzensportlern, wenn es denn so ist? Was macht man denn dann? Grit Hartmann: Wir haben gerade ein Beispiel erlebt. Es ist ja immer von diesem Hase-Igel-Spiel die Rede, und selbstverständlich ist es so, dass viele Substanzen nicht nachweisbar sind und nachweisbare in bestimmten Dosierungen auch nicht. Aber mit dem indirekten Beweis ist, glaube ich, ein großer Schritt getan, den Abstand zwischen Hase und Igel zu verkleinern. Dazu, und da kommen die Einschläge dem deutschen Spitzensportsystem immer näher, ist: Wir brauchen selbstverständlich ein Gesetz gegen Sportbetrug. Sie können Sportler nicht strafrechtlich als Betrüger verfolgen. Nicht in Deutschland – im Gegensatz zu Frankreich, Italien und Österreich. Nur gegen diejenigen, die im Besitz einer nicht geringen Menge von Doping-Substanzen sind, kann ermittelt werden, also gegen Dopinghändler. Staatsanwaltschaften haben gegen die Athleten, die im Zentrum von Dopingbetrug stehen, keine Handhabe. Was natürlich Ermittlungen im Athletenumfeld, die möglich sind, entsprechend eingeschränkt. Auch das ist ein Punkt, für den man sagen kann: Der Sport ist schlechter als der Rest der Gesellschaft. Sie können gegen Steuerbetrüger ermitteln, gegen einen Dopingbetrüger darf es die Staatsanwaltschaft nicht. Der deutsche Sport wehrt sich und beruft sich auf seine Autonomie. Er sagt, wir schaffen das allein mit unserem Sportrecht, das Strafrecht ist eher hinderlich. Er wird dabei von der Politik gestützt. Aber es immer mehr Staaten sehen das anders. Das sind, wenn wir über Doping sprechen, die zwei Punkte, die mir zuerst einfallen. Den dritten hab ich schon genannt. Wir brauchen ein anderes Sportverständnis. Über einen vierten kann Herr Professor Zinner sprechen. Wir brauchen andere Wege für junge Sportler. Es wird viel gesprochen über duale Karriere, also wie Sportler lernen damit umzugehen, möglichst Höchstleistungen zu bringen und gleichzeitig einen Ausbildungsweg zu schaffen. Denn natürlich sind Sportler, die nur Sport können, anfälliger für Doping als Sportler, die eine Alternative haben. Auch hier hat die Bundesrepublik deutlich Nachholbedarf. Das werde ich vielleicht auch den Sören Mackeben nochmal kurz fragen. Sie sind ja nicht nur Nationalspieler, sondern auch Athleten-Sprecher, das heißt, möglicherweise kommen auch mal Leute zu Ihnen. Ich weiß nicht, ob alle in einer Ausbildung sind oder alle studieren beim Wasserball. Ist das ein Ausweg? Theo Zwanziger hat das in einem anderen Zusammenhang gesagt mit Robert Enke, dieses Wort: Sport ist nicht alles. Schafft man das, zu sagen: Ihr müsst euch konzentrieren mit allem, was ihr habt und trotzdem dabei sagen, Sport ist nicht alles? Geht das? Ist das ein Ansatz, dass man sagt: Studiert, macht eine Ausbildung, sonst irgendwas? Sören Mackeben: Ich finde das sehr schön, dass die Frau Hartmann das jetzt angesprochen hat, sonst hätte ich es jetzt nämlich getan. Ich glaube, das ist ja
572
Podiumsdiskussion
tatsächlich eine sehr gute Lösung – dass man tatsächlich damit aufhört, diesen Spitzensport derart zu überhöhen. Man kann in den olympischen Dörfern feststellen, dass sich dort dann die verrückten Athleten auch um die Superstars aus der NBA scharren. Auch das ist eine Frage, warum ist das so. Die spielen für sehr viel Geld Basketball, ich spiele für sehr wenig Geld Wasserball. Also, wenn sich noch wer fragt: Warum haben die den eigentlich eingeladen? Warum ist da ein Wasserballer?, dann wollte ich da noch mal die Antwort zu geben und den Herrn Kistner ganz lieb auffordern: Schreiben Sie doch mal mehr über uns, denn eigentlich sind wir das Paradebeispiel, wie natürlich auch sehr viele andere Sportarten. Schreiben Sie doch mal mehr darüber, dass wir in Athen eben Fünfter geworden sind. Wir sind in Peking Zehnter geworden. Wir haben alle eine Ausbildung, wir arbeiten nebenbei, wir machen ein Studium. Nehmen Sie die Artikel über Fußball mehr raus, über den „Spritzensport“ und schreiben Sie mehr über uns. Das ist auch eine mediale Aufmerksamkeit. Ich verstehe die Problematik, das ist ganz klar. Ich will nur sagen, das spielt natürlich mit rein, wie der Sport überhaupt wahrgenommen wird und wie diese mediale Aufmerksamkeit entsteht. Ich sage ja, auch wir hängen da mit drin, wir sitzen dann alle da, wo die NBA sitzen, das ist natürlich vollkommen verrückt. Und im Sport, ob das jetzt die LVZ oder die Süddeutsche oder wer auch immer ist, da bestehen von den drei Seiten, die der Sport einnimmt, zweieinhalb aus Fußball und die andere Hälfte ist noch mit Tennis voll und für Wasserball interessiert sich zu Recht keiner, weil wir ja nur Zehnter sind in den Olympischen Spielen. Auch das ist eine ganz klare Problematik. Ich würde vielleicht der Reihe nach um die Schlussstatements bitten. Herr Professor Müller, wenn Sie sich mit dieser Dopingproblematik auseinandersetzen – man schaut nach vorne, es muss ja irgendwelche Alternativen geben – sagt man dann: Okay, wir müssen einfach vielleicht lockern, wir müssen mehr zulassen, wir müssen die Grauzone verringern? Oder geht es andersrum? Wir müssen uns international vernetzen, wir müssen noch schärfer kontrollieren, vielleicht sogar mit strafrechtlichen Konsequenzen? Prof. Müller: Das alles ist natürlich richtig und muss in Verbindung gehandhabt werden. Ich würde noch einmal an den Anfang stellen, dass wir die positiven Aspekte, die der Sport hat, immer wieder betonen, in den Vordergrund stellen. Auf der ersten Seite des 60-seitigen Welt-Anti-Doping-Codes, der 2009 mit einer neuen Version gültig geworden ist, stehen die positiven Aspekte des Sports, die ich hier nicht wiederholen will; Teamgeist, Einhaltung von Regeln usw. Dann kommen erst die Maßnahmen gegen Doping, und zu denen gehört selbstverständlich, Professor Zinner hat das betont, die Prävention. Wir müssen so rasch wie möglich junge Sportler zu der Überzeugung bringen, dass sie um diesen negativen Preis dieses Fehlverhaltens, dieses Betruges, keine Höchstleistungen anstreben sollen. Wenn sich das einmal gefestigt hat, bleiben sie dann vielleicht hart gegenüber solchen Anfechtungen. Aber auf der anderen Seite geht
Podiumsdiskussion
573
es nicht nur mit gutem Zureden, sondern wir müssen natürlich die Kontrollen immer weiter verbessern. Die können niemals das Ziel haben, dass wir Doping ganz abschaffen (das gelingt auch mit keiner anderen Fehlverhaltensweise der Menschen, ganz gleich wie man sie nachweisen kann), sondern wir müssen es soweit wie möglich zurückdrängen. Und wir müssen insbesondere darauf beharren, dass es eine Fehlverhaltensweise ist, mit der die Gesellschaft insgesamt nicht einverstanden ist, dass es Betrug ist. Die Geschichte mit dem Gesetz ist endlos und das können wir hier nicht ausdiskutieren, ich warne nur davor, es als eine pauschale Ideallösung anzusehen. Das hat auf jeden Fall auch Nachteile. Heute früh haben wir bei Professor Lammert gehört, dass eine Gesellschaft oder ein System schlecht beraten sind, wenn sie moralische Vorstellungen auf gesetzliche Regelungen gründen will. Das ist etwas, was eher dagegen spricht, das heißt, es muss anders geregelt werden. Und dazu gehört eine intensive Kontrolle. Es stimmt alles zum Teil, was dazu gesagt worden ist. Es gibt Substanzen und Methoden, die sich schlecht nachweisen lassen, darauf die Forschung gerichtet. Das Hauptproblem liegt aber in unterbliebenen Kontrollen, und das insbesondere international. Es gibt Länder, in denen da noch viel zu wenig geschieht. Da verstehe ich unsere Sportler vollkommen, die, wenn sie sauber sind, eher darauf Wert legen, dass sie noch häufiger kontrolliert werden – aber dann bitte natürlich auch ihre Wettbewerbspartner! Die Tatsache, dass wir in den letzten 10 – 20 Jahren nahezu eine Verfünffachung der weltweit durchgeführten Kontrollen verzeichnen mit einer wesentlich erhöhten Aussagekraft der Analysen, bedeutet, dass wir heute besser in der Lage sind als früher, das Doping zurückzudrängen. Dazu gehört ebenfalls, dass inzwischen seit vielen Jahren die Entnahme von Blut neben Urin zur Selbstverständlichkeit geworden ist, die Anfang der 90er Jahre noch als nahezu unzumutbar und unmöglich diskutiert wurde, dass wir inzwischen im Vorfeld neue Arzneimittelentwicklungen bereits kennen, bevor sie auf den Markt kommen und uns mit den Nachweisstrategien darauf einstellen können. Aber wir wissen auch, dass es noch immer eine Dunkelziffer gibt; das wird alles gar nicht bestritten. Dennoch ist es der einzige Weg, der uns übrig bleibt, wenn wir nicht Sport insgesamt zum Betrug stilisieren sollen und zum Apothekenwettstreit. Herr Kistner, Sie haben in Ihrem Berufsleben eine unheimliche Menge an Indizien, an Hinweisen zusammengetragen, auch an Fakten. Jetzt vielleicht so ein bisschen eine persönliche Frage zum Schluss. Können Sie denn eigentlich Sport, Spitzensport überhaupt noch als normaler Konsument genießen? Können Sie sich hinsetzen, die Tour de France gucken oder die Olympischen Spiele oder gehen Sie lieber abwaschen? Thomas Kistner: Also, spannend ist es trotz alledem. Eine Art Spektakel ist es auch, Usain Bolt zu sehen, wie er da mit offenem Schuh in Weltrekordzeit durchs Ziel joggt. Ich hab das beispielsweise – ich war zwar in Peking, aber nicht im Stadion – im Deutschen Haus gesehen und war sehr erstaunt über die Reaktion
574
Podiumsdiskussion
des Publikums insgesamt, also wir alle, die im Deutschen Haus das dann auf der Leinwand gesehen haben – dieses kurze ungläubige Staunen und das ebenso ungläubige Gelächter danach, das war schon eher ein Schenkelklopfer, das war nicht mehr „Boah“, sondern mehr ein Witz. Mein Gott, das ist die Entwicklung, also spannend, das mitzuverfolgen. Es tut sich da eine ganze Menge. Es ist ein enormer öffentlicher Prozess, an dem man natürlich als Medienschaffender in dem Bereich auch teilnimmt. Deswegen kann man sich nicht wirklich ganz daneben stellen und völlig unbefangen draufschauen, das geht nach vielen Jahren so sicherlich nicht, aber ich glaube, das betrifft wahrscheinlich jeden hier. Es ist ein System. Es ist viel gesagt worden jetzt, was ich unterstreichen würde hier inklusive der Notwendigkeit, ein Gesetz, ein hartes Dopingstrafgesetz, zu etablieren, um diesen Dingen wenigstens ein bisschen einen Riegel vorzuschieben. Ganz geht es wohl eh nicht, ist auch ganz klar, aber das gilt in anderen strafrechtlich erfassten Bereichen ebenso. Aber ich glaube nicht, dass wir bei all den frommen Appellen, die wir hier gehört und formuliert haben, das Rad zurückdrehen können. Das wir erkennen können, dass wir hier im Grunde genommen eine Bagatelle quasi religiös überhöhen – den Sport, den Athleten, der in wunderbaren Slow-Motion-Einstellungen mittlerweile ins Wohnzimmer geflogen kommt. Das können wir nicht zurückdrehen in frühere Zeitalter der Vernunft, das ist im Wesen des Menschen angelegt. Zum anderen liegt es aber auch im Wesen des Systems, über das wir hier sprechen. Ich kann nicht anders, ich muss immer wieder diesen Systemcharakter betonen. Und darin steckt auch die Antwort auf den richtigen Einwurf von Herrn Mackeben soeben. Wir sollten mehr über Wasserball berichten, im Prinzip schon richtig, nur sind die Medien natürlich auch Teil dieses Betriebs. Und selbst die Medien, die versuchen, sich nicht direkt als Transmissionsriemen des professionellen Geschehens zu betätigen, indem sie sich einfach nahtlos einfügen und kritiklos einfach nur transportieren, was da abläuft auf der Bühne und nicht das, was hinter der Bühne geschieht. Auch wir sind einfach nicht frei von diesen Zwängen. Wenn wir das versuchsweise mal machen, dann können Sie sich vorstellen, was los wäre. Was da an Anrufen, Post, Mails käm? Das wäre schlicht und einfach wirtschaftlich nicht zu vertreten, wenn man praktisch mit Wasserball oder mit diesen vielen Randsportarten, so muss man es ja doch sagen, die Zeitung vollmachen würde, das ist ganz einfach auch eine Bedarfsorientierung. Auf der anderen Seite: Wenn sich die Medien, die Teil dieses Systems sind, ein bisschen aus dieser Rolle lösen würden! Das ist aber ein großes Problem, das im Journalismus selbst angelegt ist, wo es an der Qualität zur Bearbeitung dieses modernen Spitzensportphänomens doch deutlich mangelt. Es mangelt an Bildung, Ausbildung. Man ist im Sport mittlerweile als Journalist ja nicht mehr der Experte für Elfmeter und Abseitsfragen, sondern es geht um Pharmakologie, es geht um Strafrecht, es geht um Werberecht und all diese Dinge, TV-Verträge usw. Also, das ist auch eine Frage des Personals, das hier eingesetzt wird und diese Thematik transportiert. Und solange das Personal dem Thema immer weniger gewachsen ist, um es mal vorsichtig zu formulieren,
Podiumsdiskussion
575
solange wird hier auch kein Umdenken stattfinden können. Denn umgekehrt gilt: Gäbe es die kompetente Berichterstattung auf breiter Ebene zu diesen Themen, dann würden sich automatisch auch die Gewichte verlagern. Vielleicht auch hin zu mehr Wasserballberichterstattung, weil die Leute natürlich mit zu viel Wahrheiten aus dem real existierenden Spitzensport konfrontiert werden und sich dann vielleicht wirklich auch dazu gemüßigt sehen, eine gewisse Umgewichtung walten zu lassen und zu sagen: Okay, dann schaue ich mir vielleicht lieber so was an oder lese lieber eine Geschichte über diese Dinge, statt mich hier immer mit den gleichen Themen rumzuschlagen, die nicht schön sind und mir den Spaß am großen Sport verderben. Gut. Wir haben schon über eine Stunde diskutiert. Ist relativ schnell vergangen, die Zeit, habe ich den Eindruck. Wir haben sehr viele interessante Positionen gehört. Ich bedanke mich recht herzlich bei allen auf dem Podium und auch bei allen, die gekommen sind.