165 45 2MB
German Pages 292 Year 2015
Thomas Wieland Neue Technik auf alten Pfaden?
2008-12-04 14-33-08 --- Projekt: transcript.titeleien / Dokument: FAX ID 0260196299914840|(S.
1
) T00_01 schmutztitel - 1106.p 196299914848
Thomas Wieland (Dr. rer. nat.) forscht und lehrt am Münchner Zentrum für Wissenschafts- und Technikgeschichte. Seine Arbeitsschwerpunkte sind die historisch informierte Innovationsforschung und die Geschichte der modernen Biowissenschaften.
2008-12-04 14-33-08 --- Projekt: transcript.titeleien / Dokument: FAX ID 0260196299914840|(S.
2
) T00_02 seite 2 - 1106.p 196299914856
Thomas Wieland
Neue Technik auf alten Pfaden? Forschungs- und Technologiepolitik in der Bonner Republik. Eine Studie zur Pfadabhängigkeit des technischen Fortschritts
2008-12-04 14-33-09 --- Projekt: transcript.titeleien / Dokument: FAX ID 0260196299914840|(S.
3
) T00_03 titel - 1106.p 196299914864
Das diesem Buch zugrundeliegende Vorhaben wurde mit Mitteln des Bundesministeriums für Bildung und Forschung unter den Förderkennzeichen SWF0140A und 07HIS02 gefördert. Die Verantwortung für den Inhalt dieser Veröffentlichung liegt beim Autor.
Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
© 2009 transcript Verlag, Bielefeld Die Verwertung der Texte und Bilder ist ohne Zustimmung des Verlages urheberrechtswidrig und strafbar. Das gilt auch für Vervielfältigungen, Übersetzungen, Mikroverfilmungen und für die Verarbeitung mit elektronischen Systemen. Umschlagkonzept: Kordula Röckenhaus, Bielefeld Lektorat & Satz: Thomas Wieland Druck: Majuskel Medienproduktion GmbH, Wetzlar ISBN 978-3-8376-1106-9 Gedruckt auf alterungsbeständigem Papier mit chlorfrei gebleichtem Zellstoff. Besuchen Sie uns im Internet: http://www.transcript-verlag.de Bitte fordern Sie unser Gesamtverzeichnis und andere Broschüren an unter: [email protected]
2008-12-04 14-33-09 --- Projekt: transcript.titeleien / Dokument: FAX ID 0260196299914840|(S.
4
) T00_04 impressum - 1106.p 196299914872
I N H AL T
1 Einleitung 1.1 Problemaufriss 1.2 Fallauswahl 1.3 Forschungsstand und methodisches Vorgehen 1.4 Aufbau der Arbeit
7 7 10 13 17
2 Der theoretische Rahmen 2.1 Das Konzept der Pfadabhängigkeit 2.2 Verwandte Theorieangebote 2.3 Schwerpunktlegungen und analytische Reichweiten im Vergleich 2.4 Pfadbildung und die Rolle der FuT-Politik
21 22 28
Die Entwicklung der Forschungs- und Technologiepolitik in der Bundesrepublik Deutschland 3.1 Die Bedeutung des Staates für Forschung und Entwicklung bis 1945 3.2 Die marginalisierte Rolle des Bundes im Wiederaufbau (1945–55) 3.3 Kerntechnik als Kristallisationskeim bundespolitischer Aktivitäten (1955–65) 3.4 Technologiepolitische Profilbildung auf Bundesebene (1965–73) 3.5 FuT-Politik unter dem Vorzeichen der wirtschaftlichen Wachstumskrise (1973–89/90) 3.6 Die deutsche Wiedervereinigung als Zäsur in der FuT-Politik?
37 42
3
4 Zivile Kerntechnik 4.1 Traditionen und Neuanfänge 4.2 Die Suche nach dem besten Reaktor: das Eltviller Programm 4.3 Die spontane Durchsetzung des Leichtwasserreaktors 4.4 Der Schnelle Brüter: Kerntechnik zwischen Euphorie und Kritik
47 50 57 62 70 80 89 95 98 104 109 119
4.5 Die Enquete-Kommission »Zukünftige Kernenergie-Politik« 4.6 Zwischenresümee: Gescheiterte Pfadsuche, spontane Pfadbildung und ein neues Konkurrenzverhältnis
127
5 Elektronische Datenverarbeitung 5.1 Technische Anfänge, frühe Förderinitiativen und der Pfad des wissenschaftlich-technischen Rechners 5.2 Die Datenverarbeitungsprogramme im Überblick (1967–79) 5.3 Staatliche Fördermaßnahmen und industrielle Rechnerentwicklung 5.4 Das Selbstverständnis der bundesdeutschen Akteure und die Vormachtstellung von IBM 5.5 Überschätzte Technik, große Rechner und denkbare Alternativen 5.6 Zwischenresümee: Staatlich forcierte Pfadwahl unter hoher Entwicklungsdynamik
139
6 Biotechnologie 6.1 Chemische Synthesen versus biotechnologische Verfahren 6.2 Initiativen für die Biotechnologie in den siebziger Jahren 6.3 Die Wissenschaftsbasis der Biotechnologie 6.4 Neuausrichtungen in den achtziger Jahren 6.5 Biotechnologie – Risiko und Sorgenkind 6.6 Zwischenresümee: Pfadrevision bei unzureichend entwickelter Alternative Pfadabhängigkeit, Spitzentechnik und die Rolle der staatlichen Forschungs- und Technologiepolitik 7.1 Szenarien staatlich gemanagter Pfadbildungsprozesse 7.2 Einflussfaktoren auf die untersuchten Pfadbildungsprozesse 7.3 Spitzentechnik als Ausweis nationaler technologischer Leistungsfähigkeit 7.3 Fazit
135
143 153 161 174 182 194 199 201 204 213 225 232 238
7
243 243 249 259 263
8 Verzeichnisse 8.1 Abkürzungen 8.2 Abbildungen 8.3 Tabellen 8.4 Literatur
265 265 266 267 268
Danksagung
289
1 EINLEITUNG
»Preserving open options for a longer period than impatient market agents would whish is the generic wisdom that history has to offer to public policy makers, in all the applications areas where positive feedback processes are likely to be predominant over negative feedbacks.« Paul A. David (2000: 14)
1.1 Problemaufriss Dieses Buch untersucht am Beispiel der Forschungs- und Technologiepolitik der Bundesrepublik Deutschland die Rolle des Staates bei Pfadbildungsprozessen in der Spitzentechnik. Konkret geht es um einen Vergleich der staatlichen Förderung von ziviler Kerntechnik, elektronischer Datenverarbeitung und Biotechnologie. Ausgangspunkt ist die theoretisch wie empirisch wohl fundierte Einsicht, dass technischer Fortschritt1 mit Pfadabhängigkeiten einhergeht. Der Begriff bezieht sich auf ein 1
Der Begriff des technischen Fortschritts ist wegen seiner normativen Aufladung stark aus der Mode gekommen. Zu offensichtlich ist der Gegensatz zwischen seinem Heilsversprechen und den Problemen, die sich aus der fortschreitenden Technisierung unserer Umwelt ergeben. Anders als der wertneutrale und daher häufig bevorzugte Begriff des technischen Wandels verweist der des technischen Fortschritts jedoch auf die Irreversibilitäten von Technisierungsprozessen und beschreibt deshalb die Phänomene, mit denen sich diese Arbeit auseinandersetzt, weitaus besser als Begriffe, die eine beliebige Reversibilität dieser Prozesse vorgeben; vgl. Wengenroth 1997. 7
NEUE TECHNIK AUF ALTEN PFADEN?
Konzept, das Paul A. David (1985) Mitte der achtziger Jahre des letzten Jahrhunderts in die wirtschaftswissenschaftliche Diskussion eingebracht hat, um damit spezifische Verlaufsformen des technischen Fortschritts zu erklären.2 Mittlerweile wird es in den Sozialwissenschaften zur Deutung eines breiten Spektrums von Phänomenen verwendet. Pfadabhängigkeit im Sinne Davids verweist auf die Historizität von Prozessen, die zwar grundsätzlich offen sind, deren gegenwärtiger und zukünftiger Verlauf jedoch dauerhaft durch Ereignisse der Vergangenheit beeinflusst wird. Pfadabhängige Prozesse können daher als Funktion ihrer eigenen Geschichte begriffen werden. Nun wäre die Historizität des technischen Fortschritts wenig bemerkenswert, hätte David daraus nicht weitreichende Folgerungen für das Verständnis von Marktprozessen gezogen. Denn obwohl der Befund der Pfadabhängigkeit für sich genommen keine normativen Implikationen besitzt und Pfadabhängigkeit in der großen Mehrzahl der Fälle auch kein Problem darstellt, behauptet David mit seinem Konzept die Möglichkeit, dass sich suboptimale Technologien am Markt durchsetzen und dort langfristig gegen bessere Alternativen behaupten können – und das trotz bzw. gerade wegen des freien Spiels der Marktkräfte. Ursächlich sind dafür vor allem positive Rückkopplungsmechanismen, durch die sich kleine, auch zufällige Startvorteile einer Technologie schnell zu einem uneinholbaren Vorsprung gegenüber alternativen Technologien auswachsen können. Das Feld technologischer Optionen verengt sich in diesem Fall vorzeitig auf einen dominanten Pfad, der sich dann aufgrund von Irreversibilitäten nur schwer oder überhaupt nicht revidieren lässt. Die Technikgeschichte kennt zahlreiche Beispiele für dieses Phänomen. Spurweiten von Zügen, Autoantriebe, Betriebssysteme von Computern, Schreibmaschinentastaturen, Videoformate, Stromsysteme, Kernkraftwerke und Schädlingsbekämpfungsstrategien sind nur einige davon. David (2000: 14) sieht aufgrund der Pfadabhängigkeit des technischen Fortschritts Handlungsbedarf für die staatliche Politik. Deren Aufgabe ist es demnach, dort, wo positive Rückkopplungsmechanismen auftreten, die Marktkräfte vorübergehend einzuschränken, um die vorschnelle Durchsetzung eines möglicherweise suboptimalen Technologiepfades zu verhindern und Raum für die Entwicklung technologischer Alternativen zu schaffen. Anhänger eines Laissez-faire-Liberalismus mögen darin die Aufforderung zur Planwirtschaft sehen. Tatsächlich geht es aber darum, dass der Staat einem möglichen Marktversagen vorbeugt und durch eine zeitlich begrenzte Intervention das Feld denkbarer Handlungsoptionen so lange offen hält, bis eine fundierte Bewertung al2 8
Für eine ausführliche Diskussion von Pfadabhängigkeit siehe Kapitel 2.1.
EINLEITUNG
ler technologischen Alternativen im Lichte ihrer langfristig wirksamen Vor- und Nachteile möglich wird. Der Staat übernimmt hier gleichsam das Management von Pfadbildungsprozessen, indem er die Phase der Pfadsuche hinreichend verlängert, um auf diese Weise ein belastbares Fundament für die anschließende Pfadwahl zu schaffen, die – und das soll ausdrücklich betont werden – beim Markt verbleibt. Trotz ihres grundsätzlichen Bekenntnisses zur freien Marktwirtschaft halten wohl alle westlichen Industrienationen staatliche Eingriffe in den Markt zur Vorbeugung von Marktversagen oder zur Überwindung von Marktverzerrungen für legitim (vgl. Nelson 1993; Prange 2006). Länder wie Frankreich und die Bundesrepublik Deutschland sehen hier seit den sechziger Jahren geradezu eine Hauptaufgabe ihrer Forschungs- und Technologiepolitik. Dahinter steht die Überzeugung, dass unter bestimmten Voraussetzungen die vorübergehende Koordination durch den Staat effizienter sein kann als die Koordination durch den Markt.3 Dass letzterer langfristig staatlicher Planung und Lenkung überlegen ist, wurde und wird dadurch nicht in Frage gestellt. Seit dem Zusammenbruch der Sowjetunion ließe sich eine derartige Position argumentativ kaum aufrechterhalten. Doch auch schon davor – etwa im nationalsozialistischen Deutschland mit seiner auf Autarkie und Krieg ausgerichteten Zwangswirtschaft – wurden die langfristigen Nachteile staatlicher Planung und Lenkung offenkundig. Aus historischer Perspektive lassen sich mehrere Konstellationen identifizieren, die einen begrenzten Eingriff des Staates in den Markt begründen und entsprechende regulatorische oder fördernde Aktivitäten nach sich ziehen können (vgl. Freeman/Soete 1997: 373–395; Mayntz 2000). Beispiele sind der Aufbau nationaler Infrastrukturen wie Verkehrs- und Kommunikationsnetze, die Reduzierung negativer Externalitäten, vor allem zum Schutz des Menschen und seiner Umwelt, die Förderung unterentwickelter Industriezweige und die Verhinderung monopolistischer Strukturen, die mit ihren technischen Standards den Markt beherrschen. Ein weiterer Grund ist die Vermeidung suboptimaler Technologiepfade, wo bessere Alternativen denkbar sind. Vor diesem Hintergrund fragt die vorliegende Arbeit nach den Herausforderungen, die sich aus der Pfadabhängigkeit des technischen Fortschritts für die staatliche Forschungs- und Technologiepolitik ergeben. Mit welchen Szenarien wird die Politik hier konfrontiert und mit welchen Strategien antwortet sie? Unter welchen Randbedingungen ist 3
Aus der Fülle der Literatur sei stellvertretend auf die einschlägigen Arbeiten verwiesen, die im Rahmen des Forschungsansatzes Nationale Innovationssysteme entstanden sind; z.B. Archibugi/Iammarino 1999; Carlsson/ Jacobsson 1997; Cohendet/Llerena 1997; Dalum et al. 1993. 9
NEUE TECHNIK AUF ALTEN PFADEN?
staatliches Handeln sinnvoll und wo liegen seine Möglichkeiten und Grenzen? Und nicht zuletzt: Welche handlungsrelevanten Unterschiede bestehen zwischen den einzelnen Feldern der Spitzentechnik? Es geht mit anderen Worten darum, theoretische Einsichten über den Verlauf des technischen Fortschritts, die in den letzten Jahrzehnten gewonnen und im Konzept der Pfadabhängigkeit systematisiert wurden, auf ihre Bedeutung für die staatliche Forschungs- und Technologiepolitik, genauer: für das staatliche Management von Pfadbildungsprozessen, hin zu untersuchen. Der Weg, auf dem dies geschehen soll, ist die historisch-vergleichende Analyse der Förderung von Spitzentechnologien in der Bundesrepublik Deutschland. Der Untersuchungszeitraum wird im Wesentlichen durch Wiederaufbau und Wiedervereinigung begrenzt. Die Forschungs- und Technologiepolitik verfügte damals zwar noch nicht über das Konzept der Pfadabhängigkeit. Für das zugrunde liegende Phänomen zeigten die relevanten Akteure aus Staat, Wissenschaft und Wirtschaft jedoch bereits Mitte der fünfziger Jahre, als Forschung und Technik zu einem eigenständigen Politikfeld wurden, ein bemerkenswert deutliches Bewusstsein.
1 . 2 F a l l a u sw a h l Im Zentrum der Arbeit stehen drei Fallstudien, die mit der Entwicklung der zivilen Kerntechnik, der elektronischen Datenverarbeitung und der Biotechnologie unterschiedliche Formen sich etablierender Pfadabhängigkeit thematisieren und deshalb als unterschiedliche Szenarien für das staatliche Management von Pfadbildungsprozessen interpretiert werden können. Weshalb gerade diese drei Technologien? Zunächst weisen zivile Kerntechnik, elektronische Datenverarbeitung und Biotechnologie einige Gemeinsamkeiten auf, die sie für einen systematischen Vergleich unter der umrissenen Fragestellung besonders interessant machen. Dazu zählt, dass sie Gegenstand umfangreicher Technologieprogramme der öffentlichen Hand waren. So wurden zwischen 1957 und 1976 vier Atomprogramme und zwischen 1967 und 1979 drei Datenverarbeitungsprogramme aufgelegt, und für die Biotechnologie wurden von 1968 bis zur Jahrhundertwende rund ein Dutzend förderpolitischer Initiativen gestartet. In diesen Programmen artikulierte sich nicht nur die Bereitschaft des Staates, die Erforschung und Entwicklung neuer Technologien finanziell zu unterstützen, sondern auch sein Anspruch auf inhaltliche Steuerung des technischen Fortschritts. Tatsächlich markiert die Förderung der Kerntechnik den Beginn der bundesdeutschen Forschungs- und Technologiepolitik zur Mitte der fünfziger Jahre. Es war 10
EINLEITUNG
das Feld der Kerntechnik, auf dem die Ministerialverwaltung unterstützt von Wissenschaft und Wirtschaft erstmals Strategien und Instrumente zur spezifischen Förderung von Forschung und Technik entwickelt hat. Als die Forschungs- und Technologiepolitik in den späten sechziger Jahren dann begann, sich neue Technologiefelder zu erschließen, fungierte die Kerntechnik als viel zitiertes Modell. Entsprechend mannigfaltig sind die Querverbindungen, die sich zwischen den Förderstrategien und -instrumenten für die Kerntechnik einerseits und die elektronische Datenverarbeitung und Biotechnologie andererseits ergeben. Gemeinsam ist allen drei Fallstudien zudem, dass sie so genannte Spitzentechnologien in den Blick nehmen. Die Innovationsforschung hält für diesen Begriff eine einfache Definition bereit: Spitzentechnologien sind demnach durch einen Forschungs- und Entwicklungsaufwand gekennzeichnet, der mindestens 8,5 % des erzielten Umsatzes ausmacht. Zusammen mit hochwertigen Technologien, bei denen dieser Anteil mindestens 3,5 % beträgt, bilden sie die Gruppe der Hochtechnologien, die auch als Schumpeter-Güter bezeichnet werden. Diese Unterscheidung von hochwertigen und Spitzentechnologien mag auf den ersten Blick willkürlich erscheinen. Statistisch wird sie jedoch von einer zweigipfligen Verteilung der am Umsatz gemessenen Forschungs- und Entwicklungsausgaben gestützt, die man bei einem Vergleich der verschiedenen Hochtechnologiebranchen erhält. Zu den hochwertigen Technologien zählen beispielsweise Automobile, Chemie und Elektrotechnik, zu den Spitzentechnologien Flugzeuge, Pharmazie und Waffen und eben auch Kerntechnik, elektronische Datenverarbeitung und Biotechnologie (Grupp 1997: 200–209). Obwohl die Unterscheidung von hochwertigen und Spitzentechnologien in der Innovationsforschung aufgrund der relativen Aufwendungen für Forschung und Entwicklung getroffen wird, schwingt in den Begriffen die nationalistisch eingefärbte Vorstellung einer »Technikhierarchie« (Joachim Radkau) mit. Und so kann das staatliche Engagement für Spitzentechnologien zwar damit begründet werden, dass die Wertschöpfung in diesem Technologiebereich am größten und seine Beherrschung für die Produktion hochwertiger Technologien unverzichtbar ist (z.B. BMBF 2006: VII). Allein auf ökonomische Motive lässt sich dieses Engagement dennoch nicht reduzieren. Bei der Förderung von Kerntechnik, elektronischer Datenverarbeitung und Biotechnologie ging es immer auch um das deutsche Selbstverständnis als Forschungs- und Technologienation und um die Furcht, im internationalen technology race auf die hinteren Plätze verwiesen zu werden. Davon blieben die Strategien für das staatliche Management der untersuchten Pfadbildungsprozesse nicht unberührt. 11
NEUE TECHNIK AUF ALTEN PFADEN?
Kohärenz der Fallstudien ist für den systematischen Vergleich unverzichtbar. Besonders ertragreich verspricht dieser jedoch erst durch die Herausarbeitung der Unterschiede zwischen den ausgewählten Technologien zu werden. Es wurde bereits gesagt, dass die Fallstudien verschiedene Szenarien des staatlichen Managements von Pfadbildungsprozessen thematisieren. So bestand eine zentrale Herausforderung in der Frühphase der bundesdeutschen Kerntechnikentwicklung darin, unter einer Vielzahl denkbarer, aber noch weitgehend unerprobter Reaktorlinien die technisch und wirtschaftlich aussichtsreichste Alternative für den Einstieg in die kommerzielle Kernenergienutzung zu identifizieren. Trotz des kernphysikalischen und kerntechnischen Vorsprungs von Ländern wie den USA und Großbritannien steckte die kommerzielle Kernenergienutzung zu dieser Zeit noch weltweit in den Kinderschuhen. Die Unsicherheiten über die zukünftige Entwicklung waren daher nicht nur in der Bundesrepublik entsprechend groß. Im Gegensatz dazu war die Kommerzialisierung der elektronischen Datenverarbeitung schon weit fortgeschritten, als die Bundesregierung 1967 das erste Datenverarbeitungsprogramm auflegte. Hinzu kam, dass die technologische Entwicklung auf diesem Gebiet damals fast ausschließlich von einer einzigen Firma bestimmt wurde – der IBM. Egal welchen Technologiepfad man in der Bundesrepublik einschlug, den US-amerikanischen Konkurrenten und seine technischen Standards konnte man dabei nicht ignorieren. Bei der Förderung der Biotechnologie lag die Herausforderung wiederum darin, den in Deutschland seit Jahrzehnten etablierten und erfolgreichen Technologiepfad der chemischen Synthese neu auszurichten, d.h. für biotechnologische Alternativen zu öffnen. Ziel war es, die Innovationsund Produktionsstrategien der heimischen Chemieindustrie zu verbreitern und deren Position auf dem Weltmarkt langfristig sichern zu helfen. Aufgabe der vergleichenden Analyse wird es sein, die hier angedeuteten Unterschiede als Szenarien der Pfadbildung zu systematisieren und ihre Bedeutung für die Formulierung von staatlichen Technologiestrategien herauszuarbeiten. Ein letzter Aspekt soll an dieser Stelle noch angesprochen werden. Die drei Fallstudien legen ihren analytischen Schwerpunkt in unterschiedliche Phasen der bundesdeutschen Forschungs- und Technologiepolitik.4 Tatsächlich überspannen sie fast die gesamte Geschichte der alten Bundesrepublik. Die Förderung der Kerntechnik ab Mitte der fünfziger Jahre fiel, wie bereits erwähnt, mit den Anfängen der Forschungsund Technologiepolitik zusammen. Demgegenüber markierte das erste Programm zur elektronischen Datenverarbeitung den Beginn einer Phase 4 12
Siehe dazu Kapitel 3.
EINLEITUNG
forschungs- und technologiepolitischer Profilbildung des Bundes in den späten sechziger Jahren. Das Spektrum der staatlich geförderten Technologien wurde in dieser Zeit systematisch erweitert, Planung und Steuerung stiegen zu den neuen Leitvokabeln der Politik auf. Die Förderung der Biotechnologie ab den frühen siebziger Jahren stand dann schon unter dem Vorzeichen der wirtschaftlichen Dauerkrise, mit der sich die Forschungs- und Technologiepolitik – trotz wiederkehrender Konjunkturhochs – bis heute auseinandersetzen muss. Kurz: Mit dieser Fallauswahl erhält der hier durchgeführte Vergleich einen diachronen Charakter. Möglich wird es dadurch, Kontinuitäten und Diskontinuitäten im forschungs- und technologiepolitischen Handeln zu identifizieren. Primäres Ziel ist allerdings nicht die Periodisierung, sondern die Sichtbarmachung langfristig historisch-kultureller Prägungen, denen die staatlichen, wissenschaftlichen und wirtschaftlichen Entscheidungseliten im bundesdeutschen Innovationssystem unterliegen und die bei der Etablierung von Pfadabhängigkeiten bzw. beim Management von Pfadbildungsprozessen wirksam werden können.
1.3 Forschungsstand und methodisches Vorgehen Obwohl die vorliegende Arbeit die staatliche Förderung von Spitzentechnologien in den Blick nimmt, strebt sie keine Evaluation von Forschungsprogrammen an, in der Intentionen und Ergebnisse dieser Programme systematisch miteinander verglichen werden. Derartige Evaluationen existieren bereits und wurden in den Fallstudien herangezogen, wo es sich als sinnvoll erwies. Stattdessen versteht sich diese Arbeit als Beitrag zu einer historisch informierten Innovationsforschung, die durch eine konsequente Historisierung und Kontextualisierung ihres Forschungsgegenstandes ein breites Spektrum relevanter Einflussfaktoren auf Innovationsprozesse in den Blick bekommen möchte. Dazu zählen insbesondere auch kulturelle Prägungen der relevanten Akteursgruppen, mit denen sich die Innovationsforschung erst seit relativ kurzer Zeit systematisch auseinandersetzt.5 Mit ihrem Ansatz, das Potential theoretischer Einsichten über den Verlauf des technischen Fortschritts für das Verständnis und die Orien5
Vgl. Wengenroth 2001; Wieland 2006; für einschlägige Studien siehe z.B. Abele et al. 2001; Reith et al. 2006; Ziegler 1999. Allgemein zur Bedeutung von Kultur für das Verständnis von Wirtschaftsprozessen siehe DiMaggio 1994; sowie die programmatischen Aufsätze Siegenthaler 1999; Wischermann 1998. 13
NEUE TECHNIK AUF ALTEN PFADEN?
tierung der Forschungs- und Technologiepolitik auszuloten, besitzt die vorliegende Arbeit Anknüpfungspunkte zu einer Reihe von Untersuchungen, die sich mit der politischen Steuerung von Wissenschaft und Technik auseinandersetzen. Für die Bundesrepublik sind hier zunächst die Bielefelder Studien über »Geplante Forschung« (van den Daele et al. 1979a) zu nennen,6 die auf der am Starnberger Max-Planck-Institut zur Erforschung der Lebensbedingungen der wissenschaftlich-technischen Welt formulierten These zur »Finalisierung der Wissenschaft« (Böhme et al. 1973) aufbauten. Die Finalisierungsthese orientierte sich an dem von Thomas S. Kuhn Anfang der sechziger Jahre vorgeschlagenen Modell wissenschaftlicher Entwicklung, das – noch sehr vorsichtig – einen gesellschaftlichen Einfluss auf die kognitive Entwicklung von Wissenschaft postulierte (siehe auch Böhme et al. 1972). Damit lief Kuhns Modell der damals in der Wissenschaftssoziologie und -geschichte vorherrschenden Ansicht entgegen, wissenschaftliches Wissen besäße einen epistemischen Sonderstatus und sei deshalb der soziologischen Analyse unzugänglich. In Anlehnung an das Kuhnsche Modell unterschied die Finalisierungsthese drei Phasen in der wissenschaftlichen Entwicklung: eine explorative bzw. vorparadigmatische Phase, die stark von Versuch-und-Irrtum-Strategien geprägt ist und der noch ein übergreifendes Forschungsprogramm fehlt, eine paradigmatische Phase, in der das theoretische Fundament einer Wissenschaft gelegt wird, und eine postparadigmatische Phase der so genannten Normalwissenschaft, in der innerhalb einer Disziplin auf ein weitgehend definiertes Set bewährter Theorien und Methoden zurückgegriffen wird. Nur die erste und dritte Phase sollten für ökonomische, politische und gesellschaftliche Einflüsse offen stehen, die zweite Phase dagegen allein durch innerwissenschaftliche Probleme bestimmt sein. Der Begriff der Finalisierung bezog sich auf die dritte, postparadigmatische Phase, in der »externe Zwecksetzungen gegenüber der Wissenschaft zum Entwicklungsleitfaden der Theorie werden« konnten (Böhme et al. 1973: 129). Nach der Vorstellung ihrer Urheber sollte die Finalisierungsthese zu einer »wissenschaftstheoretischen Kartographie« ausgearbeitet und der Wissenschaftspolitik für die rationale Forschungsplanung an die Hand gegeben werden. In diesem Vorhaben konnte sich die Starnberger Forschungsgruppe durch die Erfolge bestärkt fühlen, die planerische Ansätze in der keynesianisch geprägten Wirtschaftspolitik der späten sechziger Jahre bei der Überwindung des Konjunktureinbruchs von 1966/67 6
14
Siehe auch Küppers et al. 1978; van den Daele/Weingart 1975; Weingart et al. 1976.
EINLEITUNG
erzielten. Dass diese Ansätze wenige Jahre später bei der Weltwirtschaftskrise im Gefolge der Ölpreisverteuerung versagten, war da freilich noch nicht vorauszusehen.7 Die Bielefelder Studien haben die Finalisierungsthese einer empirischen Überprüfung unterzogen und nach dem konkreten Einfluss von politischen Programmen auf die Wissenschaftsentwicklung gefragt. Im Zentrum der Analysen standen so unterschiedliche Wissenschaftsfelder wie Biotechnologie, Informatik, Krebsforschung, Umweltforschung, Fusionsforschung und Schwerionenforschung. Als Ergebnis der Studien konnten ihre Autoren festhalten, dass »die Einführung ›externer‹ Ziele durch politisch-strategische Steuerungen der Wissenschaften ganz sicher zu Entwicklungsmustern geführt hat, die sowohl von der traditionellen autonomen Wissenschaft wie auch von der traditionellen angewandten Forschung (Entwicklungsforschung) unterschieden sind« (van den Daele et al. 1979b: 59). Allerdings offenbarten die Studien ebenso deutlich Unterschiede in den Entwicklungsmustern der finalisierten Wissenschaften, die sich mit dem Kuhnschen Modell nicht mehr befriedigend systematisieren ließen. Letztlich war dadurch die Finalisierungsthese selbst, die ja auf Kuhn aufbaute, als »wissenschaftstheoretische Kartographie« der politischen Forschungsplanung in Frage gestellt. Defizite im Kuhnschen Modell waren Ende der siebziger Jahre auch in anderen Studien zur Bildung wissenschaftlicher Disziplinen sichtbar geworden. Die Suche nach weiterführenden bzw. alternativen Ansätzen zur Erklärung wissenschaftlicher Entwicklungsprozesse hatte dann zu einem neuen Aufbruch in der Wissenschaftssoziologie und Wissenschaftsgeschichte sowie zur Formierung der Science Studies beigetragen. Gleichzeitig verschob sich die Diskussion in den achtziger Jahren immer stärker in Richtung epistemologischer Fragestellungen, auf die insbesondere im Rahmen sozialkonstruktivistischer Erklärungsansätze Antworten gesucht wurden. Die von der Finalisierungsthese initiierte steuerungstheoretische Debatte wurde dadurch in den Hintergrund gedrängt.8 Hans-Willy Hohn plädiert in seiner 1998 publizierten Arbeit über »Kognitive Strukturen und Steuerungsprobleme der Forschung« dafür, diese »wissenschaftssoziologisch-steuerungstheoretische Debatte« aus einer neuen theoretischen und empirischen Perspektive wieder aufzugreifen. In seiner Studie geht er der Frage nach, weshalb die Kernfor7 8
Ausführlich dazu Kapitel 3.4. Einen Überblick zur Entwicklung der Diskussion gibt Hohn 1998: 40–46, der auch die Finalisierungstheorie behandelt; ebd.: 34–40. Zum Verlauf der allgemeinen steuerungstheoretischen Debatte, auch jenseits der Frage nach der Steuerbarkeit von Wissenschaft und Technik, siehe Mayntz 1996. 15
NEUE TECHNIK AUF ALTEN PFADEN?
schung in der Bundesrepublik erfolgreich als Großforschung etabliert werden konnte, die Informatik dagegen nicht. Um diese Frage zu beantworten, bedient er sich eines Analyserahmens, der organisationstheoretische Ansätze mit sozialkonstruktivistischen Ansätzen verbindet und gleichzeitig die Unterscheidung von sozialen und kognitiven Faktoren in der Wissenschaftsentwicklung betont. Auf diese Weise gelingt es Hohn, einen »mismatch« zwischen den kognitiven Strukturen der Informatik und der sozialen Organisation der Großforschung zu identifizieren, den er für das – gemessen an den politischen und öffentlichen Erwartungen – unübersehbare Scheitern der informatischen Großforschung verantwortlich macht. Hohns Arbeit entstand am Max-Planck-Institut für Gesellschaftsforschung in Köln, an dem in den letzten Jahren etliche weitere Studien zur politischen Steuerung von Forschung und Technik erarbeitet wurden. So untersuchen Edgar Grande und Jürgen Häusler (1994) »Staatliche Steuerungspotentiale in der Informationstechnik«. Im Zentrum steht hier die Frage, »ob unternehmerische FuE-Entscheidungen staatlich gesteuert werden können« (Grande/Häusler 1994: 24). Mit Hilfe eines theoretischen Analyserahmens, der sich als akteurszentrierter Institutionalismus versteht, gelingt es ihnen, ein differenziertes Bild ihres Untersuchungsgegenstandes zu zeichnen, das weder den Steuerungsoptimisten noch den Steuerungspessimisten das Wort redet. Stattdessen betonen sie die Kontingenz staatlicher Steuerung und charakterisieren das staatliche Steuerungspotential als »Produkt einer komplexen Konfiguration von staatlichen und nicht-staatlichen Akteurkonstellationen und Organisationsstrukturen« (Grande/Häusler 1994: 49). Dem akteurszentrierten Institutionalismus sind auch die Arbeiten von Dietmar Braun und Volker Schneider verpflichtet. Braun analysiert international vergleichend »Die politische Steuerung der Wissenschaft« (1997). Sein Interesse zielt auf die zweckfreie Grundlagenforschung und damit gleichsam auf den Antipoden der Industrieforschung, mit der sich Grande und Häusler befassen. Schneider (1989) untersucht am Beispiel des Mediums Bildschirmtext eine »Technikentwicklung zwischen Politik und Markt«. Als Resümee dieses kurzen Forschungsüberblicks lässt sich festhalten, dass die vorliegende Arbeit an eine Reihe von Studien zur politischen Steuerung von Forschung und Technik in der Bundesrepublik anschließen kann. Ihr theoretischer Blickwinkel ist allerdings ein anderer. Nicht die steuerungstheoretische Debatte soziologischer bzw. politologischer Prägung ist der Ausgangspunkt, sondern das innovationstheoretische Konzept der Pfadabhängigkeit, in dessen Lichte die bundesdeutsche Forschungs- und Technologiepolitik analysiert wird. Ziel ist es, in historisch-vergleichender Perspektive Szenarien für das staatliche Ma16
EINLEITUNG
nagement von Pfadbildungsprozessen herauszuarbeiten. Auf diese Weise will die Arbeit zu einem besseren theoretischen und empirischen Verständnis von Pfadbildungsprozessen in der Spitzentechnik beitragen und speziell die Gestaltungsmöglichkeiten und -grenzen der Politik in diesen Prozessen verdeutlichen. Notwendig ist noch eine kurze Anmerkung zum methodischen Vorgehen. Bei der Ausarbeitung der Fallstudien wurde nach Möglichkeit auf die verfügbare Forschungsliteratur – die bereits erwähnten Arbeiten zur politischen Steuerung von Forschung und Technik sowie weitere Arbeiten überwiegend wissenschafts- und technikhistorischer Provenienz9 – zurückgegriffen, die unter der untersuchungsleitenden Fragestellung sekundäranalytisch ausgewertet wurden. Darüber hinaus wurden zahlreiche publizierte Quellen, insbesondere die staatlichen Förderprogramme und die in ihrem Umfeld entstandenen Studien, herangezogen. Aus diesem Material ließ sich bereits ein relativ gutes Bild davon gewinnen, wie die politischen, aber auch die wissenschaftlichen und wirtschaftlichen Akteursgruppen, das Problem der Pfadabhängigkeit des technischen Fortschritts wahrgenommen haben und mit welchen Strategien sie ihm gegebenenfalls begegnet sind. Ergänzt wurde dieses Material durch unpublizierte Quellen, die im Bundesarchiv Koblenz (BAK) in den Beständen zum Bundesatomministerium bzw. Bundesforschungsministerium (B138 und B196) recherchiert wurden. Dadurch konnten speziell die Prozesse der Strategieformulierung eingehend untersucht werden, in denen Gruppenidentitäten, Wertvorstellungen, Selbstbilder etc. der beteiligten Akteursgruppen deutlich zutage treten und ohne die die konkreten Prozesse der Pfadbildung letztlich unverständlich bleiben.
1 . 4 Au f b a u d e r Ar b e i t Im Anschluss an diese Einleitung entwirft Kapitel 2 den theoretischen Rahmen der Untersuchung. Im Zentrum steht das Konzept der Pfadabhängigkeit, das Mitglied einer ganzen Familie von Theorien ist. Diese haben gemein, technischen Fortschritt als einen von Irreversibilitäten geprägten Prozess zu verstehen, dessen Freiheitsgrade im Verlauf seiner Geschichte abnehmen. Aufbauend auf dieser Konzeptualisierung des technischen Fortschritts wird ein Pfadbildungsprozess entworfen, um daraus Aufgaben für die staatliche Forschungs- und Technologiepolitik
9
Eine Diskussion dieser Literatur erfolgt an geeigneter Stelle in den Fallstudien; siehe Kapitel 4 bis 6. 17
NEUE TECHNIK AUF ALTEN PFADEN?
abzuleiten. Ziel ist ein heuristisches Modell, das zum einen bei der Strukturierung der Fallstudien, zum anderen bei ihrer Analyse hilft. In Kapitel 3 folgt auf einen gestrafften Überblick zur Herausbildung des deutschen Innovationssystems bis zum Ende des Zweiten Weltkrieges eine kurze Geschichte der bundesdeutschen Forschungs- und Technologiepolitik in der Zeit vom Wiederaufbau bis zur Wiedervereinigung. Neben einer Periodisierung wird hier der forschungs- und technologiepolitische Kontext für die Fallstudien entfaltet. Der Schwerpunkt des Kapitels liegt auf den Zielen der Forschungs- und Technologiepolitik sowie den zu ihrer Realisierung entwickelten Steuerungsinstrumenten. Nach der Explizierung des theoretischen Rahmens und des forschungs- und technologiepolitischen Kontexts wendet sich die Untersuchung den drei Fallstudien zu. Deren Aufgabe ist nicht die erschöpfende Darstellung der Entwicklungen in dem jeweils betrachteten Technologiefeld. Vielmehr geht es darum, das empirische Material soweit auszubreiten, wie es für die untersuchungsleitende Fragestellung notwendig ist. Den Anfang macht die Studie zur zivilen Kerntechnik (Kapitel 4), in der zwei unterschiedliche Szenarien thematisiert werden: zum einen die Suche nach einer geeigneten Reaktorlinie für die kommerzielle Kernenergienutzung in den späten fünfziger und sechziger Jahren, zum anderen die Debatte um den Einstieg in die Schnellbrütertechnologie Ende der siebziger/Anfang der achtziger Jahre. Damit behandelt die Fallstudie zunächst einen Pfadbildungsprozess innerhalb eines sich gerade formierenden Technologiefeldes, das bei den politischen, wissenschaftlichen und wirtschaftlichen Entscheidungsträgern auf breite Akzeptanz stieß. Dieser Konsens brach in den siebziger Jahren jedoch auf. Die Debatte um den Schnellen Brüter wurde zu einer Debatte über die energiepolitische Zukunft der Bundesrepublik, in der im Unterschied zu den fünfziger und sechziger Jahren kerntechnische und nicht-kerntechnische Energiepfade einander als Alternativen gegenübergestellt wurden. Kapitel 5 thematisiert die elektronische Datenverarbeitung. Die programmatische Förderung setzte in diesem Technologiefeld zu einem Zeitpunkt ein, zu dem dessen Kommerzialisierung schon weit fortgeschritten war. Gleichzeitig war das Feld jedoch durch eine extrem hohe Entwicklungsdynamik gekennzeichnet, d.h. Technologiepfade wurden immer wieder neu ausgerichtet, durch neue ergänzt oder ersetzt. In diesem Umfeld sollte die bundesdeutsche Rechnerindustrie international wettbewerbsfähig gemacht werden. Die letzte Fallstudie, die Kapitel 6 präsentiert, nimmt schließlich die Biotechnologie in den Blick. Hier ging es zunächst um die Wiederbelebung eines Technologiepfades, der in Deutschland bereits zu Beginn des 20. Jahrhunderts betreten, durch den Aufstieg der chemisch-organischen 18
EINLEITUNG
Synthese zum Paradigma der heimischen Chemieindustrie jedoch weitgehend verdrängt worden war. Das Aufkommen der Gentechnik führte dann zu einer Transformation der Biotechnologie, die sie für die Chemieindustrie interessant machte und auf die die Politik mit neuen Instrumenten der Förderung reagieren musste. Aufgabe von Kapitel 7 ist es, die Ergebnisse der Fallstudien in vergleichender Perspektive zu systematisieren. Der Schwerpunkt liegt auf der Rolle der Forschungs- und Technologiepolitik. Deren Agieren wird allerdings erst unter Einbezug der wissenschaftlichen und wirtschaftlichen Akteursgruppen sowie der Öffentlichkeit verständlich. Am Schluss der Arbeit werden die zentralen theoretischen und empirischen Erträge der Untersuchung zusammengefasst und ein Fazit gezogen.
19
2 DER
THEORETISCHE
R AH M E N
»Path dependence means that history matters.« Douglass C. North (1990: 100)
Technischer Fortschritt gilt heute als einer der herausragenden Faktoren für das wirtschaftliche Wachstum von Industrienationen und das steigende Realeinkommen ihrer Bevölkerungen. Dieser Zusammenhang wird durch die neoklassische Wachstumstheorie untermauert, die den technischen Fortschritt als wichtige Einflussgröße auf das Wirtschaftsgeschehen identifiziert hat. In der Regel wird technischer Fortschritt mit Produkt- und Prozessinnovationen gleichgesetzt: Mit neuen Produkten lassen sich neue Marktfelder erschließen und mit neuen oder verbesserten Herstellungsverfahren können die verfügbaren Ressourcen effizienter genutzt werden. Dies erlaubt eine höhere Produktivität und führt zu qualitativ höherwertigen Erzeugnissen. Ungeachtet seiner großen Bedeutung für das Wirtschaftsgeschehen wird technischer Fortschritt im neoklassischen Analyserahmen als Black Box behandelt. Einmal nimmt er die Form einer Residualgröße (SolowResiduum) an, ein andermal wird er als Verschiebung der Produktionsfunktion vorgestellt. Technischer Fortschritt ist hier lediglich ein Maß für die Diffusion neuer Prozesse und das auch nur soweit, wie diese eine faktorsparende Wirkung besitzen. Beispielsweise werden arbeitsintensive Prozessinnovationen, die einem Unternehmen höhere Personalkosten abverlangen, mit denen es aber gleichzeitig flexibler auf den Markt reagieren kann, nicht erfasst. Mit dem Instrumentarium der neoklassischen Gleichgewichtsanalyse lassen sich zwar langfristige Effekte von Produkt- und Prozessinnovationen ermitteln, für die Erforschung von Ungleichgewichtsprozessen, durch die neue Technologien entstehen, ver21
NEUE TECHNIK AUF ALTEN PFADEN?
bessert und vom Markt absorbiert werden, eignet es sich dagegen kaum (Metcalfe 1987). Die Konzeptualisierung des technischen Fortschritts als Black Box wurde von einigen Ökonomen als unbefriedigend empfunden. Unter Rückgriff auf Joseph Schumpeter bemühen sich deshalb seit den siebziger Jahren speziell Vertreter einer historisch argumentierenden bzw. evolutorischen Ökonomik, die Black Box des technischen Fortschritts zu öffnen und auf diese Weise Innovationsprozesse in ihrer Komplexität verständlich zu machen.
2.1 Das Konzept der Pfadabhängigkeit Ein Ergebnis dieser Bemühungen, die Black Box des technischen Fortschritts zu öffnen, ist das von Paul A. David formulierte Konzept der Pfadabhängigkeit, das der vorliegenden Arbeit den theoretischen Ausgangspunkt liefert.1 David hat es erstmals 1985 am Beispiel der QwertyTastatur – der Standardtastatur von Schreibmaschinen und Computern im englischen Sprachraum – erläutert. Qwerty steht für die ersten sechs Buchstaben der obersten Typenreihe dieser Tastatur, mit der Anfang der 1870er Jahre das Problem sich verhakender Typenhebel einer wenige Jahre zuvor auf den Markt gekommenen mechanischen Schreibmaschine gelöst werden sollte. Aufgrund historischer Zufälligkeiten und positiver Rückkopplungseffekte – so die Interpretation von David – konnte die Qwerty-Tastatur konkurrierende Systeme vom Markt verdrängen. Dadurch wurde sie bereits Mitte der 1890er Jahre zu einem De-factoStandard für Schreibmaschinen, gegen den sich später auch technisch überlegene Tastaturen nicht durchsetzen konnten. David führt als Beispiel das in den 1930er Jahren entwickelte Dvorak Simplified Keyboard an, das auf hohe Anschlagfrequenzen ausgelegt war und trotz zu erwartender Effizienzzuwächse keine nennenswerten Marktanteile gewinnen konnte. Seit seiner Interpretation der Qwerty-Geschichte hat David das Konzept der Pfadabhängigkeit in zahlreichen Publikationen näher erläutert und weiter ausdifferenziert (siehe beispielsweise David 1997, 2000, 2006). Mit Blick auf die mathematisch geschulte Zunft der Ökonomen definiert er Pfadabhängigkeit als einen stochastischen Prozess, dessen Ergebnis eine Konsequenz (bzw. Funktion) seiner eigenen Geschichte ist (David 2000: 5). Pfadabhängigkeit bezieht sich demnach auf irreversible Prozesse, die keinem globalen Gleichgewicht zustreben müssen, 1 22
Siehe zu den folgenden Ausführungen auch Puffert 2009.
DER THEORETISCHE RAHMEN
sondern eine Vielzahl von lokalen Gleichgewichtszuständen einnehmen können – wie das beispielsweise bei sich verzweigenden Prozessen der Fall ist. Weshalb ein bestimmter Gleichgewichtszustand angesteuert wurde, lässt sich immer nur historisch, aus der Sequenz einzelner Etappen erklären und nicht einfach aus den Anfangsbedingungen des Prozesses ableiten. Anders formuliert: Pfadabhängige Prozesse können sich nicht von ihrer eigenen Geschichte lösen, so dass Ereignisse der Vergangenheit dauerhaft auf den weiteren Verlauf und das Ergebnis dieser Prozesse Einfluss gewinnen. Entlang eines Pfades werden zwar alternative Entwicklungsstränge ausgeschieden, der Prozessverlauf bleibt jedoch offen und kann damit auch nicht vorhergesagt werden, ohne deshalb beliebig zu werden. Paradebeispiel für einen pfadabhängigen Prozess ist die Evolution der Organismen, die durch divergierende Entwicklungslinien gekennzeichnet ist und sich deshalb sehr anschaulich in Stammbäumen darstellen lässt. Die Äste des Stammbaums, die in Abbildung 2-1 die verschiedenen Wirbeltierklassen symbolisieren, können als lokale Gleichgewichtszustände irreversibler Prozesse aufgefasst werden. Abbildung 2-1: Monophyletischer Stammbaum der Wirbeltiere aus Ernst Haeckels Buch »Generelle Morphologie der Organismen« von 1866
Quelle: Haeckel 1866: Tafel VII. 23
NEUE TECHNIK AUF ALTEN PFADEN?
Wodurch werden Pfadabhängigkeiten erzeugt? David (1985) nennt drei miteinander verschränkte Bedingungen, unter denen Prozesse pfadabhängig werden können. Das sind technischer Zusammenhang, wachsende Skalenerträge und Quasi-Irreversibilität von Investitionen. Unter technischem Zusammenhang versteht er die wechselseitige Abhängigkeit von Systemkomponenten, beispielsweise von Compact Discs und den dazugehörigen Abspielgeräten. David schließt in diesem Begriff allerdings auch die Nutzer von Technik mit ein und postuliert etwa einen technischen Zusammenhang zwischen Schreibmaschinentastaturen und den auf ihnen geschulten Typistinnen. Die wechselseitige Abhängigkeit von Systemkomponenten erhöht die Schwierigkeit eines Systemwechsels. Wachsende Skalenerträge können sowohl auf Produzenten- als auch auf Konsumentenseite anfallen. Zum Beispiel nimmt mit der Zahl eines hergestellten Guts in einem Unternehmen die Erfahrung mit dem zugrunde liegenden Produktionsprozess zu, was über entsprechende Optimierungen Kosten senkende Effekte nach sich ziehen kann (Lerneffekt auf Produzentenseite). Und der individuelle Nutzungswert eines Telefons steigt mit der Zahl von Telefonbesitzern (Netzwerkeffekt auf Konsumentenseite). Quasi-Irreversibilität von Investitionen meint schließlich, dass die Kosten eines Systemwechsels, etwa die Umstellung von der Qwerty-Tastatur auf das Dvorak Simplified Keyboard, so hoch sein können, dass aus Unternehmensperspektive die möglichen Risiken eines Systemwechsels nicht mehr von den erhofften Gewinnen gedeckt werden. In diesem Fall unterbleibt der Systemwechsel. Mit der Rolle positiver Rückkopplungseffekte – auf denen wachsende Skalenerträge basieren – hat sich W. Brian Arthur, der neben David der zweite frühe Theoretiker der Pfadabhängigkeit ist, eingehend befasst (siehe Arthur 1988, 1994). Gestützt auf mathematische Modelle konnte Arthur zeigen, dass sich minimale Marktvorteile einer Technik A gegenüber einer Technik B durch positive Rückkoppelung soweit verstärken können, dass B von A aus dem Markt gedrängt wird. Dabei können diese anfänglichen Marktvorteile auf historischen Zufälligkeiten basieren und müssen keineswegs einer technischen Überlegenheit von A über B entsprechen. Das Ergebnis dieses Prozesses kann eine ineffiziente Konstellation sein, die nur ganz allmählich wieder beseitigt werden kann. Neben der Qwerty-Tastatur gibt es zahlreiche weitere Beispiele für pfadabhängige Technikentwicklungen. Die bislang vorliegenden Studien untersuchen so unterschiedliche Felder wie die Konkurrenz von Gleichund Wechselstrom zu Beginn der Elektrifizierung (David 1990), die Standardisierung der Spurweiten bei der nordamerikanischen Eisenbahn im 19. Jahrhundert (Puffert 2000), die Durchsetzung von Leichtwasser24
DER THEORETISCHE RAHMEN
reaktoren auf dem zivilen US-amerikanischen Kernenergiemarkt nach dem Zweiten Weltkrieg (Cowan 1990) oder die bis heute bestehende Dominanz chemischer über integrierter Schädlingsbekämpfung in der Landwirtschaft (Cowan/Gunby 1996). Die im Konzept der Pfadabhängigkeit systematisierte Einsicht, dass die Vergangenheit einen prägenden Einfluss auf Gegenwart und Zukunft ausübt, klingt für Historiker wenig überraschend. In den Wirtschaftswissenschaften hat Davids Konzept gleichwohl zu einer bis heute andauernden Debatte geführt, die ebenso heftig wie polemisch zwischen Vertretern der neoklassischen und der evolutorischen Ökonomik ausgetragen wird. Tatsächlich will David mit seinem Konzept theoretisch begründen, weshalb die Analyse wirtschaftlicher Prozesse nicht auf Geschichte verzichten kann und damit das unter Wirtschaftswissenschaftlern immer öfter zu vernehmende Credo »history matters« auf ein belastbares Fundament stellen (David 2000: 2f.). Pfadabhängigkeit dient hier als Argument für eine Rehistorisierung der Wirtschaftswissenschaften und gegen die Dominanz des neoklassischen Erklärungsansatzes, für den die Vergangenheit bestenfalls das Material zur Überprüfung geschichtsvergessener Theorien liefert. Die Debatte über das Konzept der Pfadabhängigkeit dreht sich daher nicht zuletzt um die Frage nach den theoretischen und methodologischen Prämissen der Ökonomik. Davids Kritiker, allen voran Stan J. Liebowitz und Stephen E. Margolis (1995a, b; vgl. auch Lewin 2001), setzen Pfadabhängigkeit mehr oder weniger umstandslos mit Lock-in in eine suboptimale Technologie aufgrund von Marktversagen gleich. Folgt man dieser Lesart, handelt es sich bei Pfadabhängigkeit nur dann um ein wirtschaftlich relevantes Phänomen, wenn gezeigt werden kann, dass suboptimale Technologien imstande sind, sich dauerhaft am Markt zu halten, und zwar trotz besserer technologischer Alternativen und wider besseres Wissen der Akteure. Da dieser Nachweis bislang aber noch nicht überzeugend erbracht worden sei, so Liebowitz und Margolis, besitzt Pfadabhängigkeit keine ökonomische Bedeutung. Dort, wo sie anzutreffen ist, handelt es sich um wirtschaftlich irrelevante Phänomene, die nicht gegen den neoklassischen Erklärungsansatz ins Feld geführt werden können. In eine ähnliche Richtung geht auch die Kritik von Deirdre McCloskey, die für die bislang existierenden Fallbeispiele eine Quantifizierung der durch Pfadabhängigkeit verursachten Kosten einfordert. Denn nur wenn die Gewinne aus einem möglichen Systemwechsel dessen Kosten übersteigen, bestehe – so ihr Argument – überhaupt ein Anreiz für die Akteure, den bisherigen Pfad zu verlassen und eine neue Technik zu
25
NEUE TECHNIK AUF ALTEN PFADEN?
adaptieren. Ohne diesen Anreiz würde jedoch kein Marktversagen und damit auch keine Pfadabhängigkeit vorliegen.2 David (2000) weist diese normative Lesart seines Konzeptes zurück. Er argumentiert, dass Pfadabhängigkeit und Lock-in in eine suboptimale Technologie zwar auf ähnlichen Mechanismen beruhen würden. Analytisch müssten die beiden Phänomene jedoch streng voneinander unterschieden werden. Pfadabhängigkeit bezieht sich, wie David immer wieder betont, auf eine dynamische Eigenschaft von Prozessen und hat keine normativen Implikationen. Das Ergebnis eines pfadabhängigen Prozesses kann deshalb optimal oder suboptimal sein, wenngleich suboptimale Konstellationen verständlicherweise die größere Aufmerksamkeit auf sich ziehen. Außerdem können Pfadabhängigkeiten sehr wohl im Einklang mit Marktmechanismen entstehen und dennoch zu einem unbefriedigenden Ergebnis führen, etwa weil sich der Anwendungskontext einer Technologie ändert. Und schließlich ist die Vorstellung eines Pareto-Optimums, das der neoklassischen Gleichgewichtsanalyse zugrunde liegt und vor dem erst ein Marktversagen konstatiert werden kann, schwer vereinbar mit der dynamischen Natur pfadabhängiger Prozesse. Die wirtschaftswissenschaftliche Debatte über Suboptimalität und Marktversagen hat sicherlich dazu beigetragen, Davids Konzept zu schärfen. Sie hat bis zu einem gewissen Grad aber auch den Blick für seine analytischen Möglichkeiten jenseits der Frage nach der Allokationsleistung von Märkten verstellt. Gerade für die Untersuchung des technischen Fortschritts hat das Konzept mehr zu bieten als die Einsicht, dass die Vergangenheit einen größeren Einfluss auf Gegenwart und Zukunft ausübt, als in klassisch-funktionalistischen Erklärungsansätzen gemeinhin unterstellt wird. Versteht man Pfadabhängigkeit im Sinne Davids als dynamische Eigenschaft von Prozessen, dann lässt sich argumentieren, dass technischem Fortschritt generell ein starkes Moment von Pfadabhängigkeit innewohnt. Technischer Fortschritt ist ein über weite Strecken kumulativer Prozess, der von konkreten Akteuren getragen wird und deshalb immer lokal und historisch gebunden ist. Er hängt in hohem Maße vom Wissens- und Könnensfundus ab, auf den die Akteure bei der Exploration neuer technischer Möglichkeiten zurückgreifen können. Und da die Akquisition von neuem Wissen und Können einerseits mit Kosten verbunden ist, andererseits dort besonders erfolgreich gelingt, wo das Neue an bereits Vorhandenes anschließen kann, wird aus der Vielfalt denkbarer
2
26
Siehe die EH.Net-Foren Path-dependence (1996), http://www.eh.net/ FORUMS/PathDepe.html und More on Qwerty (1997–1998), http://www. eh.net/FORUMS/QwertySu2.html; 4.12.2006.
DER THEORETISCHE RAHMEN
technischer Entwicklungslinien immer nur eine begrenzte Zahl verfolgt (Rosenberg 1994). Wachsende Skalenerträge führen dann dazu, dass einmal eingeschlagene Technologiepfade nicht mehr verlassen werden – zumindest nicht solange sie Gewinn versprechen. Hinzu kommen schwer zu revidierende Systementscheidungen, die die technische Weiterentwicklung an bestimmte Technologiepfade bindet und Alternativen verdrängt. Es ist die besondere Stärke des Konzeptes der Pfadabhängigkeit, dass es einen nicht-deterministischen Erklärungsansatz für den technischen Fortschritt liefert und dennoch verständlich macht, weshalb dieser keineswegs beliebig verläuft.3 In der Technikgeschichte behilft man sich oft mit dem nicht weiter definierten Konstrukt eines »weichen Determinismus«, um dieses Phänomen zu beschreiben (vgl. Smith/Marx 1994). Durch die analytische Brille der Pfadabhängigkeit wird klar, dass es sich hier um die Folge von Irreversibilitäten handelt, die ein Prozess im Laufe seiner Geschichte akkumuliert (siehe Bassanini/Dosi 2001). Wie die Evolution der Organismen ist auch technischer Fortschritt ein grundsätzlich offener und nicht determinierter Prozess, dessen Ergebnis daher auch nicht vorhergesagt werden kann. Durch eine Akkumulation nicht intendierter Nebeneffekte kann dieser Prozess jedoch einen Teil seiner ursprünglichen Offenheit verlieren und schließlich sogar in einen Zustand einmünden, in dem er gefangen ist. Hier liegt dann in der Tat eine Lock-in-Konstellation vor. Zwei Aspekte gilt es dabei jedoch zu betonen. Erstens ist es in hohem Maße vom Kontext abhängig, ob eine Konstellation als suboptimal bzw. unbefriedigend bewertet wird oder nicht. Mit dem Wandel des Kontexts kann sich deshalb die Bewertung ändern. In dieser Kontextabhängigkeit muss auch ein Grund dafür gesehen werden, weshalb pfadabhängige Prozesse marktkonform entstehen und dennoch zu einem suboptimalen Ergebnis führen können. Solange das Ergebnis aber »gut genug« ist, d.h. mit den Erwartungen der Akteure weitgehend in Einklang steht, wird Lock-in kaum als Problem wahrgenommen werden. Und zweitens meint Lock-in keineswegs, dass ein Prozess auf immer und ewig in einem bestimmen Zustand gefangen bleibt. Es handelt sich vielmehr um einen lokal stabilen Gleichgewichtszustand, aus dem sich der gefangene Prozess nicht mehr aus eigener Kraft befreien kann. Dazu sind externe Anreize bzw. Schocks notwendig. Das Konzept der Pfadabhängigkeit ist längst nicht mehr auf seinen Entstehungskontext – die Frage nach spezifischen Verlaufsformen des technischen Fortschritts – begrenzt, sondern findet mittlerweile als Er3
Siehe dazu auch den instruktiven Sammelband Garud/Karnøe 2001. 27
NEUE TECHNIK AUF ALTEN PFADEN?
klärungsansatz in vielen anderen Bereichen wirtschafts- und sozialwissenschaftlicher Forschung Anwendung. Als besonders einflussreich erwiesen sich hier die Arbeiten von Douglass C. North, der Davids Konzept als einer der Ersten für die Analyse von Institutionen öffnete. North (1990: 100), der mit Pfadabhängigkeit die unterschiedliche wirtschaftliche Performanz von Gesellschaften erklärt, formuliert programmatisch: »Path dependence means that history matters. We cannot understand today’s choices [...] without tracing the incremental evolution of institutions. But we are just beginning the serious task of exploring the implications of path dependence.« Etwas später hat auch David (1994) selbst die Relevanz seines Konzeptes für die Analyse institutioneller Entwicklungen betont. Folgt man Jürgen Beyer (2006: 12), dann gehört Pfadabhängigkeit »inzwischen zu einem der meist verwendeten Erklärungskonzepte in der sozialwissenschaftlichen und ökonomischen Forschung«.4 Entsprechend breit ist das Spektrum der Phänomene, auf die das Konzept angewendet wird. Die vorliegende Arbeit beschränkt sich jedoch bewusst auf die Pfadabhängigkeit des technischen Fortschritts.
2 . 2 V e rw a n d t e T h e o r i e a n g e b o t e Pfadabhängigkeit ist nicht das einzige Theorieangebot, das geeignet ist, Irreversibilitäten des technischen Fortschritts zu beleuchten und seine spezifischen Verlaufsformen zu erklären. Neben der evolutorischen Ökonomik haben sich die Techniksoziologie und die Technikgeschichte – letztere allerdings in einem weitaus geringeren Maße – seit den siebziger Jahren mit dem Thema befasst (vgl. Parayil 1993). Für die vorliegende Untersuchung von besonderem Interesse sind der trajectory approach, der SCOT-Ansatz sowie das Konzept großtechnischer Systeme. Jeder dieser Ansätze verfügt über individuelle Stärken, die für die Untersuchung pfadabhängiger Prozesse nutzbar gemacht werden können. Über einen Vergleich der Ansätze lässt sich zudem das Konzept der Pfadabhängigkeit in seiner Schwerpunktlegung und analytischen Reichweite besser schärfen (siehe Kapitel 2.3).
Trajectory Approach Zur evolutorischen Ökonomik wird der trajectory approach gezählt. Ein prominenter Vertreter dieses Ansatzes ist Giovanni Dosi, der ein von
4
28
Beyer 2006: Kapitel 1 gibt auch eine Übersicht über die verschiedenen disziplinären Verwendungszusammenhänge des Konzeptes.
DER THEORETISCHE RAHMEN
den Arbeiten Kuhns inspiriertes Modell des technischen Fortschritts entworfen und dessen empirische Tragfähigkeit an der Entwicklung der Halbleiterindustrie überprüft hat (Dosi 1982, 1984). Dosi wendet sich mit seinem Modell explizit gegen Demand-Pull- bzw. Technology-PushTheorien, die – das impliziert bereits die Begrifflichkeit – ein einseitiges Bild des Innovationsgeschehens zeichnen. Während Demand-PullTheorien technischen Fortschritt lediglich als Reaktion auf Marktsignale verstehen (vgl. auch Mowery/Rosenberg 1979), behandeln TechnologyPush-Theorien diesen als einen weitgehend autonomen Vorgang, auf den Marktkräfte keinen größeren Einfluss nehmen. Dosi begreift technischen Fortschritt dagegen als einen Prozess, der einerseits durch die Interaktion von Wissenschaft und Technik sowie andererseits durch institutionelle und ökonomische Faktoren bestimmt wird. In seinem Erklärungsansatz überträgt Dosi (1982) das von Kuhn propagierte Modell wissenschaftlichen Fortschritts auf die Technik. Dabei bedient er sich eines weiten Technikbegriffs, der nicht auf technische Artefakte und technische Verfahren zu ihrer Produktion beschränkt bleibt, sondern sich ebenso auf praktisches und theoretisches Wissen, Methoden, Erfolgs- und Misserfolgserfahrungen, Instrumente usw. erstreckt. Dosi konzeptualisiert Technik als ein Problem lösendes Verfahren, bei dem unter einer begrenzten Zahl technischer Alternativen und Handlungsoptionen ausgewählt werden muss. Analog zu Kuhns Begriff des wissenschaftlichen Paradigmas führt Dosi (1982: 152; Hervorhebungen im Original) den Begriff des technischen Paradigmas ein und definiert es »as ›model‹ and a ›pattern‹ of solution of selected technological problems, based on selected principles derived from natural sciences and on selected material technologies«. Ein technisches Paradigma gibt demnach innerhalb eines Technologieclusters wie z.B. der Kern- oder Halbleitertechnik vor, welche Probleme als relevant zu erachten sind und auf welchem Weg sie gelöst werden sollen. Damit unterscheidet es zwischen positiven und negativen Heuristiken und bestimmt, welche Vorgehensweisen bei der technischen Entwicklung als adäquat und welche als inadäquat betrachtet werden. Dosi sieht in einem technischen Paradigma eine Art Filter, das den Blick von Ingenieuren und Entwicklern, aber auch der sie beschäftigenden Organisationen in eine spezifische Richtung lenkt, wodurch diese für alternative technische Möglichkeiten »blind« werden. Ein technisches Paradigma bestimmt deshalb letztlich die Richtung des technischen Fortschritts – die Bahn, auf der er sich bewegt. Wie entstehen technische Paradigmen? Dosi bedient sich zur Beantwortung dieser Frage eines linearen Modells, in dem Wissen entlang der Achse »reine Wissenschaft – angewandte Wissenschaft – Technik« wei29
NEUE TECHNIK AUF ALTEN PFADEN?
tergegeben und in technische Produkte umgesetzt wird. Zwei Aspekte hebt er in diesem Zusammenhang hervor. Zum einen würde entlang dieser Achse ein ganzes Bündel ökonomischer, institutioneller und sozialer Selektionsfaktoren wirksam werden, die aus der anfänglich großen Zahl möglicher Entwicklungspfade einige wenige, letztlich realisierte herausfilterten. Und zum anderen würde der Grad an Determiniertheit auf dem Weg von der reinen Wissenschaft zum technischen Produkt zunehmen, wobei gleichzeitig mehr und mehr ökonomische Aspekte in den Vordergrund träten. Beide Aspekte zusammen führten zur Etablierung eines Entwicklungspfades, der ein Momentum gewinnen könne und die Richtung weiteren technischen Fortschritts festlege. Mit anderen Worten: Es hat sich ein technological trajectory etabliert. Dosi schreibt seinen trajectories eine Reihe von Eigenschaften zu, von denen hier die wichtigsten genannt werden sollen: • Trajectories unterscheiden sich in ihrer Wirkungsmächtigkeit. • Je wirkungsmächtiger ein trajectory ist, umso schwieriger ist es, auf eine Alternative umzuschwenken. • Trajectories können in einem komplementären Verhältnis zueinander stehen, d.h. Fortschritte in einer Technologie können die Entwicklung einer anderen Technologie fördern oder hemmen. • Die Überlegenheit eines trajectory über einen anderen kann nicht ex ante festgestellt werden, sondern allerhöchstens ex post. Besonders betont Dosi die große Unsicherheit, die der Wahl eines technischen Paradigmas anhaftet. Da ex ante über den technischen oder ökonomischen Erfolg eines Entwicklungspfades kaum etwas ausgesagt werden kann, spielen nach seiner Ansicht Marktkräfte zunächst nur eine sehr untergeordnete Rolle. Stattdessen kommen andere Faktoren ins Spiel. Er nennt die ökonomischen Interessen der an Forschung und Entwicklung beteiligten Organisationen, ihre technische Geschichte und ihre Erfahrungsfelder sowie institutionelle Variablen wie staatliche Agenturen und das Militär. Mit seinen technischen Paradigmen bzw. technological trajectories zielt Dosi nicht auf das Phänomen des technischen Fortschritts in seiner Gesamtheit, vielmehr will er Ansatzpunkte liefern, mit denen erklärt werden kann, weshalb bestimmte Entwicklungslinien eingeschlagen werden und andere nicht. Dosi war nicht der Erste, der die Auffassung vertrat, technischer Fortschritt vollziehe sich auf mehr oder weniger stark definierten Bahnen. Bereits Mitte der siebziger Jahre haben Richard R. Nelson und Sidney G. Winter mit der Ausarbeitung ihrer Innovationstheorie begonnen. Hintergrund für ihr Bemühen bildete nach eigener Aussage der gestiegene Bedarf an Modellen des Innovationsgeschehens, an denen sich die 30
DER THEORETISCHE RAHMEN
staatliche Wirtschafts- und Technologiepolitik orientieren kann. Das von Nelson und Winter angestrebte Modell sollte insbesondere dem damals in empirischen Studien erhobenen Befund unterschiedlicher Wachstumsraten in den US-amerikanischen Industriesektoren und den als Ursache vermuteten interindustriellen Unterschieden der institutionellen Strukturen Rechnung tragen, in denen die Autoren Ansatzpunkte für eine effektive Innovationspolitik vermuteten (Nelson/Winter 1977: 35–41). Ein Ergebnis dieser Arbeiten war ihr 1982 publiziertes und viel beachtetes Buch »An Evolutionary Theory of Economic Change«. Darin konzeptualisieren Nelson und Winter Unternehmen als mehr oder weniger stark strukturierte Cluster von Routinen (bzw. Heuristiken), die dem unternehmerischen Handeln zugrunde liegen. In Anlehnung an den biologischen Selektionsprozess begreifen sie die Routinen, über die ein Unternehmen verfügt, als sein »genetisches Material«. Der Erfolg eines Unternehmens im Wettbewerb mit den Konkurrenten auf dem Markt – oder allgemeiner in seiner selektiv wirksamen Umwelt – entscheidet dann über den relativen Wert seiner Routinen. Ausschlaggebend für den technischen Fortschritt ist, dass sich das »genetische Material« eines Unternehmens verändert. Zum einen können Unternehmen bewährte Routinen ihrer Konkurrenten übernehmen bzw. nachahmen, zum anderen können sie neue Routinen in Form von Innovationen selbst hervorbringen; letzteres setzen Nelson und Winter mit dem Mutationsgeschehen in der Evolution der Organismen gleich. Die Innovationstätigkeit eines Unternehmens stützt sich ihrerseits auf Routinen, d.h. auf Forschungsheuristiken, die mit bestimmten Wahrscheinlichkeiten die Veränderung bestehender oder die Generierung neuer Routinen bewirken. Das kann zu Mustern in der Innovationstätigkeit eines Unternehmens führen. Auf einer höheren Aggregationsebene kann technischer Fortschritt ebenfalls Muster aufweisen, die nach Nelson und Winter jedoch nicht mehr mit einfachen Forschungsheuristiken zu erklären sind. Für diese Fälle postulieren sie deshalb das Vorhandensein so genannter technischer Regime (Nelson/Winter 1977: 57–60). Dieser Begriff meint die Vorstellungen von Entwicklern und Technikern darüber, was auf einem Technologiefeld machbar und wünschenswert ist. Ein technisches Regime bestimmt die Grenzen, in denen sich der technische Fortschritt vollzieht, und legt gleichzeitig seine Richtung fest: Es definiert einen natural trajectory. Nelson und Winter geben das Beispiel des Flugzeugs Douglas DC-3 aus den dreißiger Jahren, dessen charakteristisches Design – Metallhaut, tief angesetzte Flügel und Kolbenmotor – zu einer Art Standardkonstruktion aufstieg und für mehr als zwei Jahrzehnte die Flugzeugentwicklung prägte. Die Parallelen zwischen technischem Re31
NEUE TECHNIK AUF ALTEN PFADEN?
gime und natural trajectory einerseits und den von Dosi verwendeten Begriffen technisches Paradigma und technological trajectory andererseits sind offensichtlich – Dosi (1982: 155) weist selbst darauf hin. Konsequenterweise werden die beiden trajectory approaches zusammenfassend auch als Nelson-Winter-Dosi-Modell bezeichnet (siehe van den Belt/Rip 1987). Als dritter trajectory approach ließe sich noch das Modell von Devendra Sahal (1985) nennen, in dem sich technischer Fortschritt auf innovation avenues vollzieht. Deren Richtung wird durch technological guideposts bestimmt, die allerdings im Gegensatz zu den beiden Begriffen Regime und Paradigma stärker auf konstruktive Zwänge zielen, wie sie sich etwa beim so genannten upscaling technischer Prozesse ergeben.
SCOT – Die soziale Konstruktion technischer Artefakte Neben den Ökonomen bemühen sich auch die Techniksoziologen, die Black Box des technischen Fortschritts zu öffnen und diesen modellhaft zu beschreiben. In Anlehnung an die neuere Wissenschaftssoziologie, insbesondere an Forschungsansätze, die sich mit der sozialen Bedingtheit (natur)wissenschaftlicher Erkenntnisse und Theorien beschäftigen, entstand in den achtziger Jahren eine sozialkonstruktivistische Technikforschung. Sie begreift technische Innovationen als Ergebnis sozialer Aushandlungsprozesse. Dementsprechend werden die Ursachen für den Erfolg oder den Misserfolg technischer Artefakte in der sozialen Welt gesucht und nicht auf einzelne technische Parameter oder eine, wie auch immer geartete, inhärente Entwicklungslogik von Technik zurückgeführt. Zwei prominente Vertreter dieser Forschungsrichtung sind Trevor Pinch und Wiebe Bijker, die das von Harry Collins für die sozialkonstruktivistische Wissenschaftsforschung formulierte Empirische Programm des Relativismus und den dazugehörigen Begriffsapparat auf die Technik übertragen haben (vgl. Pinch/Bijker 1987). Bekannt geworden ist der Ansatz von Pinch und Bijker unter dem Akronym SCOT – für Social Construction of Technology. Im SCOT-Analyserahmen werden technische Entwicklungsprozesse ähnlich wie in Zweigen der evolutorischen Ökonomik als Wechselspiel von Variation und Selektion begriffen, deren Ergebnis nicht vorausgesagt werden kann. Technischer Fortschritt lässt sich demnach nicht auf eine lineare und logische Abfolge von Artefakten reduzieren, sondern muss als ein in vielen Richtungen offener Prozess verstanden werden. Schlüsselbegriff ist der von Collins geprägte Ausdruck der interpretativen Flexibilität. Pinch und Bijker verstehen darunter zunächst die unterschiedlichen Bedeutungszuschreibungen, denen ein technisches Artefakt 32
DER THEORETISCHE RAHMEN
unterliegt. Der Begriff zielt jedoch auch auf das Design bzw. die Konstruktion technischer Artefakte, die bei gleicher Funktion in weiten Grenzen variieren können. Da es weder den einzigen noch den besten Weg gibt, ein technisches Artefakt zu gestalten, bestehen immer mehrere Entwicklungsmöglichkeiten nebeneinander. Linearität ist immer nur in der Rückschau konstruierbar. Die Interpretation eines technischen Artefakts hängt von den relevanten sozialen Gruppen ab, die miteinander in einen Aushandlungsprozess treten. Definiert werden relevante soziale Gruppen über ihre gemeinsame Interpretation eines technischen Artefakts. So können beispielsweise Entwickler, Nutzer und Kritiker, aber auch Organisationen jeweils eine relevante soziale Gruppe bilden. Unter Umständen können diese Gruppen ihrerseits aus mehreren relevanten sozialen Gruppen zusammengesetzt sein, z.B. wenn Nutzer ein technisches Artefakt unterschiedlich interpretieren und bewerten. Über die zum Teil divergierenden, zum Teil konvergierenden Interessen der relevanten sozialen Gruppen gewinnen zahlreiche Faktoren Einfluss auf den technischen Entwicklungsprozess. Soziale, politische, ökonomische und juristische Aspekte sind hier ebenso zu nennen wie Geschlechter- und Moralvorstellungen. Im Verlauf dieses vielschichtigen Aushandlungs- und Entwicklungsprozesses werden miteinander konkurrierende technische Artefakte unterschiedlich stark stabilisiert. Denkbar ist ein Spektrum, das vom völligen Verschwinden bis hin zur monopolartigen Marktdominanz reicht, aber ebenso ein Nebeneinander alternativer Designs bzw. Konstruktionen, die den Interessen unterschiedlicher sozialer Gruppen entsprechen, einschließt. Stabilisierung von technischen Artefakten bedeutet, dass sich die Kontroversen zwischen den relevanten sozialen Gruppen darüber, wie ein technisches Artefakt zu deuten bzw. zu gestalten ist, auflösen. Es kommt zur Schließung des Aushandlungsprozesses. Pinch und Bijker (1987) haben das am Beispiel der Fahrradentwicklung im letzten Drittel des 19. Jahrhunderts veranschaulicht. Bijker (1987) hat den SCOT-Ansatz um den Begriff des technologischen Rahmens erweitert, um zu erklären, weshalb bestimmte Interpretationen eines technischen Artefakts innerhalb einer relevanten sozialen Gruppe auftauchen, andere dagegen nicht. In Anlehnung an Kuhns Paradigmenbegriff versteht er unter einem technologischen Rahmen diejenigen Probleme und Lösungsstrategien, die von Wissenschaftlern, Technikern oder Entwicklern gemeinschaftlich als relevant bzw. legitim angesehen werden. Ein technologischer Rahmen setzt sich analog einem wissenschaftlichen Paradigma aus einem Bündel von Theorien, Konzepten, Testverfahren, Wertvorstellungen usw. zusammen und steckt damit 33
NEUE TECHNIK AUF ALTEN PFADEN?
das Feld möglicher Interpretationen eines technischen Artefakts ab. Bijker will seinen Begriff des technologischen Rahmens nicht auf Wissenschaftler, Techniker und Entwickler beschränkt wissen, sondern schließt darin auch jene sozialen Gruppen mit ein, die der Paradigmenbegriff von Kuhn oder Dosi nicht berücksichtigt. Zu nennen sind vor allem Nutzer, deren Erfahrungen, Wertvorstellungen, Praktiken usw. im Umgang mit technischen Artefakten sich von denen der Ingenieure deutlich unterscheiden und die deshalb einen eigenen technologischen Rahmen besitzen. Entsprechend werden auch technische Artefakte innerhalb dieser sozialen Gruppe abweichend interpretiert. Wenn der technologische Rahmen das Feld möglicher Interpretationen innerhalb einer sozialen Gruppe definiert, wie kann dann radikal Neues entstehen? Bijker gibt zwei Erklärungen: Zum einen sind die Akteure des technischen Fortschritts in unterschiedlichen Graden dem technologischen Rahmen ihrer Community verhaftet, d.h. ihre Interpretationen werden durch diesen nicht vollkommen festgelegt. Zum anderen können sie gleichzeitig innerhalb mehrerer technologischer Rahmen agieren, wodurch sich möglicherweise neuartige Interpretationen ergeben. Bijkers Konzept erklärt nicht nur, wie die soziale Umwelt auf die Entwicklung technischer Artefakte Einfluss nimmt, sondern ebenso in welcher Weise technische Artefakte ihre soziale Umwelt strukturieren. Denn mit der Stabilisierung eines technischen Artefakts entstehen in der Regel neue soziale Gruppen und neue technologische Rahmen. Technik wirkt hier auf die Strukturierung ihrer sozialen Umwelt zurück.
Großtechnische Systeme Sozialkonstruktivistische Forschungsansätze wie SCOT stellen technische Artefakte der Gesellschaft gegenüber, um die Wechselwirkungen zwischen beiden Bereichen zu analysieren. Zwischen der Welt der Technik und ihrer sozialen Umwelt wird dabei eine Trennlinie gezogen. Anders ist dies bei einem Konzept, das auf den Technikhistoriker Thomas P. Hughes zurückgeht und in dessen Mittelpunkt großtechnische Systeme wie Versorgungs-, Verkehrs- und Kommunikationsnetze stehen. Derartige Systeme sind durch ihre geographische Ausdehnung, eine hohe Kapitalintensität und Komplexität sowie durch die enge Kopplung ihrer Komponenten gekennzeichnet (vgl. auch Joerges 1988; Mayntz 1993). Letztere können sowohl physischer als auch nichtphysischer, d.h. im weitesten Sinne sozialer Natur, sein. In die Gruppe der physischen Komponenten fallen beispielsweise technische Artefakte und natürliche Ressourcen, in die Gruppe der nicht-physischen Komponenten Organisationen, Institutionen und Wissensbestände. 34
DER THEORETISCHE RAHMEN
Hughes, der das Konzept des großtechnischen Systems in seiner breit rezipierten Studie »Networks of Power« (1983) international vergleichend am Beispiel der Elektrifizierung von Chicago, London und Berlin ausgearbeitet hat, rechnet dementsprechend zu einem Stromnetz nicht nur Turbinen, Generatoren, Transformatoren, Leitungen usw., sondern ebenso Kohlebergwerke, Kraftwerks- und Stromversorgungsunternehmen, Kredit gebende Banken, technisches Wissen, universitäre Studiengänge, gesetzliche Regelungen und vieles andere mehr. Entscheidend für die Zugehörigkeit zu einem großtechnischen System ist, dass die einzelnen Komponenten miteinander interagieren und dabei unter der Kontrolle des Systems stehen. Zum Beispiel liegt ein systemischer Zusammenhang zwischen einem Energieversorgungsunternehmen und einer Universitätsfakultät für Elektrotechnik vor, wenn Vertreter des Unternehmens auf die Studieninhalte der Elektroingenieure Einfluss nehmen, damit diese entsprechend den Unternehmensbedürfnissen ausgebildet werden. Neben »Networks of Power« hat Hughes sein Konzept in mehr oder weniger explizierter Form noch in zahlreichen weiteren Arbeiten aufgegriffen (z.B. Hughes 1987, 1994). Dabei hat er immer wieder die Eigendynamik betont, die großtechnische Systeme im Verlauf ihrer Entwicklung – von der radikalen Erfindung am Anfang bis hin zu ihrer Konsolidierung oder ihrem Zerfall – entfalten. Technischer Fortschritt wird hier wesentlich von zwei Faktoren bestimmt, die Hughes mit den Begriffen reverse salient bzw. technologisches Momentum fasst. Der Begriff reverse salient bezeichnet eigentlich den Abschnitt eines Frontverlaufs, der zwar noch mit den anderen Frontabschnitten in Verbindung steht, aber hinter diese zurückgefallen ist. In Bezug auf ein großtechnisches System werden unter reverse salients diejenigen Komponenten verstanden, deren Entwicklung den anderen Systemkomponenten hinterherhinkt, wodurch die Effizienz des Gesamtsystems herabgesetzt wird. Im Gegensatz zum Bild des Flaschenhalses, das in diesem Zusammenhang oft verwendet wird, soll der Begriff reverse salient der Komplexität und Vielschichtigkeit systemischer Suboptimalitäten Rechnung tragen und gleichzeitig deren Asymmetrien betonen. Hughes führt das Beispiel eines in seinen Leistungsparametern verbesserten Stromgenerators an. Damit sich die Effizienzsteigerung dieser Einzelkomponente im Gesamtsystem bemerkbar machen kann, wird es in der Regel notwendig sein, eine Reihe weiterer Komponenten zu verändern, d.h. eine Neuabstimmung des Gesamtsystems vorzunehmen. Hervorzuheben ist, dass neben technischen Artefakten und Prozessen auch die sozialen Komponenten eines Systems – beispielsweise überbürokratisierte Strukturen – im Sinne eines reverse salient wirken können. 35
NEUE TECHNIK AUF ALTEN PFADEN?
Dem Management eines technischen Systems ist daran gelegen, reverse salients aufzuspüren und zu beseitigen, da sonst die Expansion des Systems zum Stillstand kommen würde. Dazu besitzen Unternehmen eine Reihe von Strukturen und Instrumenten. Ein Beispiel ist das industrielle Forschungslabor, das sich im ersten Viertel des 20. Jahrhunderts in zahlreichen Industriezweigen durchzusetzen begann. Standen am Anfang großtechnischer Systeme die radikalen Erfindungen, werden reverse salients nach Auffassung von Hughes durch konservative Erfindungen beseitigt, d.h. durch stetige Verbesserungen bereits bestehender Techniken. Dementsprechend sind die industriellen Forschungslaboratorien auch nicht der Ort für radikale Erfindungen. Wenn ein reverse salient nicht innerhalb eines bestehenden Systems behoben werden kann, verwandelt sich das zugrunde liegende Problem in eines, das sich nur durch eine radikale Lösung beheben lässt. Diese kann wiederum ein neues, konkurrierendes System hervorbringen. Deutlich klingt hier die Schumpetersche Denkfigur der kreativen Zerstörung an. Der zweite zentrale Begriff, mit dem Hughes das Verhalten großtechnischer Systeme kennzeichnet, ist der des technologischen Momentum, den er bereits 1969 in einem Aufsatz über die von der IG-Farben während der Zeit des Nationalsozialismus betriebene Treibstoffgewinnung durch Kohlehydrierung eingeführt hat. Hughes verortet diesen Begriff zwischen technikdeterministischen und sozialkonstruktivistischen Konzepten (Hughes 1994: 112). Großtechnische Systeme – daran lässt Hughes keinen Zweifel – sind sozial konstruiert, dies schon deshalb, weil ihre Komponenten von Systembildnern geschaffen werden. Großtechnische Systeme beeinflussen aber auch die gesellschaftliche Entwicklung, man denke an die Effekte der Elektrifizierung oder die Folgen des Mobilitätszuwachses durch Auto, Eisenbahn und Flugzeug. Wichtig ist, dass sich in der Entwicklungsgeschichte großtechnischer Systeme eine deutliche Verschiebung ausmachen lässt. Während diese Systeme zunächst stark durch ihre Umwelt geformt werden, dreht sich dieses Verhältnis allmählich zugunsten des Systems um. In dem Maße, wie seine Größe und Komplexität zunimmt, gewinnt es an technologischem Momentum. Dieses entsteht durch die immer feinere Abstimmung und wachsende Verzahnung der physischen und sozialen Komponenten, durch die Aneignung spezifischer Fähigkeiten und Wissensbestände, durch neu entwickelte Spezialmaschinen und -prozesse, durch die physische Größe und die organisatorischen Strukturen. Alle diese Faktoren tragen dazu bei, dass sich großtechnische Systeme in eine bestimmte Richtung weiterentwickeln, die sich mehr und mehr verfestigt und auf diese Weise bis zu einem gewissen Grad voraussagbar wird. Hughes will damit keine Autonomie der Systeme behaupten. Gleich36
DER THEORETISCHE RAHMEN
wohl wird seiner Ansicht nach der Kraftaufwand, um eine Richtungsänderung herbeizuführen und ein System neuen Umweltbedingungen anzupassen, mit wachsendem technologischem Momentum immer größer. Um eine Änderung von etablierten Systemen herbeizuführen, reicht es nicht aus, einzelne technische Komponenten auszutauschen. Vielmehr ist auch eine Änderung der sozialen Bestandteile des Systems notwendig.
2 . 3 S c hw e r p u n k t l e g u n g e n u n d a n a l yt i s c h e R e i c hw e i t e n i m V e r g l e i c h Die individuelle Leistungsfähigkeit der skizzierten Konzepte – Pfadabhängigkeit, trajectory approach, SCOT und großtechnisches System – lässt sich letztlich nur am empirischen Material überprüfen. Aus einer systematisch-theoretischen Perspektive können jedoch Aussagen über die analytische Reichweite der einzelnen Konzepte sowie ihrer unterschiedlichen Schwerpunktlegungen gemacht werden. Das soll im Folgenden geschehen. Zunächst ist festzuhalten, dass technischer Fortschritt in allen vier Ansätzen als evolutionärer Prozess gedeutet wird. Dieser Begriff lässt nun freilich seinerseits breiten Raum für Interpretationen, so dass es sinnvoll ist, etwas genauer hinzusehen. David betont in seinem Konzept der Pfadabhängigkeit einen Aspekt evolutionärer Prozesse, der gleichsam als kleinster gemeinsamer Nenner der hier diskutierten Theorieansätze dienen kann: Evolutionäre Prozesse sind gerichtet, ohne auf etwas gerichtet zu sein, sie sind irreversibel und müssen als Funktion ihrer eigenen Geschichte begriffen werden. Diese Grundannahme findet sich mehr oder weniger explizit beim trajectory approach sowie bei SCOT und wird auch von Hughes’ Ansatz impliziert. Innerhalb dieses gemeinsamen, evolutionstheoretisch inspirierten Rahmens weisen die Konzepte jedoch bemerkenswerte Unterschiede auf. Sowohl beim trajectory approach als auch bei SCOT werden die darwinistischen Evolutionsfaktoren Variation und Selektion auf den technischen Fortschritt übertragen. Dosi postuliert ein Nebeneinander verschiedener technischer Paradigmen, auf die entlang der (hypothetischen) Achse »reine Wissenschaft – angewandte Wissenschaft – Technik« in unterschiedlicher Stärke soziale und ökonomische Faktoren selektiv wirksam werden. Diejenigen Paradigmen, die diesen Selektionsprozess überstehen, definieren dann die Bahn, auf der sich der weitere technische Fortschritt vollzieht. Bei Nelson und Winter sind es die ein Unternehmen konstituierenden Routinen bzw. Heuristiken, die vermittelt 37
NEUE TECHNIK AUF ALTEN PFADEN?
durch den Wettbewerb mit anderen Unternehmen einer selektiv wirksamen Umwelt ausgesetzt werden. Besonders erfolgreiche Routinen, genauer: die mit ihrer Hilfe hervorgebrachten technischen Produkte oder Prozesse, können dann ein technisches Regime begründen, das wiederum die Bahn des technischen Fortschritts definiert. Variationen im »genetischen Material« eines Unternehmens entstehen nach Auffassung von Nelson und Winter auf zweierlei Weise, d.h. entweder durch Innovationen, die sie mit Mutationen gleichsetzen, oder durch Nachahmung von Routinen konkurrierender Unternehmen, wodurch ihr Modell ein »lamarckistisches« Element erhält. Im SCOT-Analyserahmen sind es die unterschiedlichen Interpretationen eines technischen Artefakts, die über einen Aushandlungsprozess zwischen den relevanten sozialen Gruppen miteinander in Konkurrenz treten. Welche Interpretation bzw. welches Design eines technischen Artefakts letztlich stabilisiert wird, hängt vor allem von der relativen Durchsetzungskraft der beteiligten Gruppen ab. Dieser Prozess ist allerdings nicht mit einem survival of the fittest gleichzusetzen, denn anders als in der biologischen Evolution können zwischen den beteiligten Gruppen neue Interpretationen ausgehandelt werden, in denen sich mehrere relevante soziale Gruppen wiederfinden. Gleichwohl werden einzelne Interpretationen ausselektiert, die rückblickend dann als technische Misserfolge gedeutet werden. Hughes betont in seinem Modell den adaptiven Prozess, durch den sich ein großtechnisches System an verändernde Umweltbedingungen anpasst. Entscheidend für die Expansion und das Überleben eines großtechnischen Systems ist, dass dessen Management die immer wieder auftretenden reverse salients erkennt und erfolgreich beseitigt. Variation und Selektion spielen bei Hughes – ähnlich wie bei David – keine Rolle als Erklärungsfaktor. Bei der Analyse von Innovationsprozessen werden in Anlehnung an Joseph Schumpeter meist drei Phasen unterschieden: Invention, Innovation und Diffusion. Invention meint die Erfindung eines neuen Produktes oder Prozesses, Innovation die Weiterentwicklung einer Invention bis zur Markteinführung und Diffusion schließlich die Durchsetzung einer Innovation auf dem Markt. Dieses Schema wird zwar kritisiert, weil dadurch leicht wichtige Wechselwirkungen und Rückkopplungen zwischen den einzelnen Stufen des Innovationsprozesses aus dem Blickfeld gelangen können (vgl. Metcalfe 1987). Für die Unterscheidung der hier diskutierten Theorieansätze ist es dennoch hilfreich. Wie sind diese zu bewerten, wenn man die Abfolge von Invention, Innovation und Diffusion als Maßstab anlegt? Wo liegen die jeweiligen Schwerpunkte der
38
DER THEORETISCHE RAHMEN
einzelnen Konzepte und welche Aspekte des Innovationsgeschehens werden von ihnen nicht berücksichtigt? Folgt man der Schumpeterschen Dreiteilung, dann scheint das Konzept der Pfadabhängigkeit als reine Diffusionstheorie charakterisiert werden zu können. Pfadabhängigkeiten würden demnach lediglich erklären, weshalb sich eine Technik auf dem Markt durchsetzt und dort trotz vermeintlich besserer Alternativen halten kann. Über die Generierung von Technik ließen sich dagegen keine Aussagen machen. Invention und Innovation blieben ausgeblendet. Nicht ganz ohne Ironie würde sich damit eine Parallele zu der neoklassischen Sichtweise eröffnen, in der technischer Fortschritt als exogener Faktor behandelt wird. Doch auch wenn David sein Konzept an der Diffusion einer Technik – der Durchsetzung der Qwerty-Tastatur als De-facto-Standard – erläutert hat, will er es nicht auf diesen Ausschnitt des Innovationsprozesses beschränkt wissen. David hält sein Konzept für eines von so allgemeiner Natur, dass es seiner Meinung nach auch auf Prozesse außerhalb des Innovations- bzw. Wirtschaftsgeschehens angewandt werden kann. Und tatsächlich geschieht dies ja auch in den Sozialwissenschaften. Mit Blick auf den technischen Fortschritt hilft Pfadabhängigkeit über den Diffusionsprozess hinaus die Rolle inkrementeller Verbesserungen entlang eines etablierten Technologiepfades in das Innovationsgeschehen einzuordnen. Wenn man in Davids Konzept der Pfadabhängigkeit vornehmlich eine Diffusionstheorie sieht, dann würden sozialkonstruktivistische Erklärungsansätze wie SCOT das Gegengewicht dazu bilden. Der Schwerpunkt dieser Konzepte liegt deutlich auf der Invention technischer Artefakte. Bijker (1987: 182) sieht sein Modell denn auch selbst explizit als Baustein einer Inventionstheorie. Dem entspricht die Vorstellung, dass ein technischer Entwicklungsprozess durch Schließung der Kontroversen zwischen den relevanten sozialen Gruppen zu einem Ende kommt und damit das technische Artefakt stabilisiert wird. Technischer Fortschritt wird dadurch allerdings nur punktuell und in Bezug auf einzelne Artefakte verständlich. Längerfristige Phänomene werden dagegen ausgeblendet. Dazu gehören etwa inkrementelle Verbesserungen, denen technische Artefakte nach ihrer Markteinführung weiterhin unterliegen. Hervorzuheben ist zudem die Beobachtung, dass Kontroversen über ein technisches Artefakt lange Zeit nach ihrer Schließung wieder aufbrechen können, was zu einer Destabilisierung des betroffenen Artefakts führt. Gerade die Entwicklungsgeschichte des Fahrrades, die Pinch und Bijker zur Illustration ihres Ansatzes heranziehen, liefert hierfür ein gutes Beispiel: Bis vor wenigen Jahren existierte auf dem deutschen Fahrradmarkt eine eng umschriebene Produktpalette, die auf wenigen Standarddesigns 39
NEUE TECHNIK AUF ALTEN PFADEN?
(Herren-, Damen- und Mixedfahrrad) basierte, und auch die Ausstattung von Fahrrädern bewegte sich in einem engen Rahmen. Mittlerweile ist die Kontroverse über die adäquate Interpretation des Artefakts Fahrrad jedoch wieder aufgebrochen, was sich in einer großen Zahl konkurrierender Designs widerspiegelt, die – das Beispiel des Mountainbikes im Stadteinsatz verdeutlich dies – keineswegs als eine funktionale Differenzierung in einem technischen Sinne zu begreifen sind (vgl. auch Buenstorf 2000). SCOT gibt für die Wiedereröffnung bereits geschlossener Kontroversen keine Erklärung. Ein umfassenderes Bild des Innovationsgeschehens lässt sich mit dem trajectory approach und dem von Hughes entworfenen Konzept zeichnen. Der Ansatz von Hughes, der die Entwicklung großtechnischer Systeme aus radikalen Erfindungen bis hin zu ihrem möglichen Zerfall untersucht, scheint in dieser Hinsicht besonders ausdifferenziert. Als seine besondere Stärke darf die konsequente Kontextualisierung des Innovationsgeschehens gelten, die von keinem anderen der hier diskutierten Ansätze erreicht wird und die gerade für eine historisch informierte Innovationsforschung als Vorbild gelten kann. Aber obwohl es nur wenig technische Artefakte geben dürfte, die nicht in komplexen Herstellungs- und Verwendungszusammenhängen stehen, ist die Zahl großtechnischer Systeme im ursprünglichen Sinne von Hughes durchaus beschränkt.5 Es stellt sich deshalb die Frage, inwieweit die vielfältigen Ursachen des technischen Fortschritts in den Kategorien großtechnischer Systeme abgebildet werden können. Hier besteht nicht zuletzt die Gefahr, durch die Fokussierung auf das System die Eigenentwicklung wichtiger Elemente des Innovationssystems – beispielsweise die Universitäten und Technischen Hochschulen – aus dem Blick zu verlieren. Beim trajectory approach verhält es sich ähnlich. Nelson und Winter konzentrieren sich vor allem auf die Rolle von Unternehmen im Innovationsprozess, wodurch Hochschulen und Staat an den Rand gedrängt werden. Nun sind zwar prinzipiell auch Hochschulen und staatliche Forschungseinrichtungen als Cluster von Routinen begreifbar, da diese Organisationen jedoch in der Regel nicht mit Unternehmen in Konkurrenz treten, fehlt in der Theorie von Nelson und Winter das Bindeglied zwischen den einzelnen Säulen des Innovationssystems. Dosi behilft sich hier mit einem linearen Modell, das einen Transfer von Wissen aus der Grundlagenforschung in die Anwendung und von dort in Form technischer Produkte und Prozesse auf den Markt annimmt. Allerdings räumt er selbst ein, dass lineare Modelle der Komplexität des In5
40
Die Aufweichung des Konzeptes durch seinen inflationären Gebrauch kritisiert beispielsweise Mayntz 1993.
DER THEORETISCHE RAHMEN
novationsprozesses mit seinen mannigfachen Wechselwirkungen zwischen den einzelnen Phasen, etwa in Form von Rückkopplungseffekten, nicht gerecht werden. Dies macht sein Konzept etwas unbefriedigend, da es nur wenige Fälle geben dürfte, in denen – wenigstens in erster Annäherung – Linearität angenommen werden kann. Es gehört zu den wesentlichen Merkmalen von evolutionären Prozessen, dass sie verlaufs- und ergebnisoffen sind. Doch obgleich die hier vorgestellten Ansätze technischen Fortschritt als evolutionären Prozess deuten, implizieren sie zumindest einen weichen Determinismus. Eine Ausnahme bildet lediglich das Konzept von David, der im Zusammenhang mit pfadabhängigen Prozessen ausdrücklich jeglichen Determinismus zurückweist. Hughes verortet sein Modell dagegen selbst zwischen den Polen Sozialkonstruktivismus und Technikdeterminismus, wobei der Grad an Determiniertheit eines großtechnischen Systems mit wachsendem Momentum zunimmt. Im Gegenzug verringert sich die Steuerbarkeit bzw. Anpassungsfähigkeit des Systems an eine sich wandelnde Umwelt, was letztlich zu seinem Zerfall führen kann. Großtechnische Systeme können zum Opfer ihres technologischen Momentum werden. Nelson und Winter, aber auch Dosi betonen zwar die Offenheit und Unsicherheit von technischen Forschungs- und Entwicklungsarbeiten. Gleichwohl postulieren sie mit ihren trajectories definierte Bahnen, auf denen sich technischer Fortschritt bewegt. Dieser scheinbare Widerspruch löst sich auf, wenn man in Rechnung stellt, dass sich trajectories auf eine höhere Aggregationsebene technischen Fortschritts und nicht auf die individuelle Forschungs- und Entwicklungsarbeit eines Unternehmens beziehen. Im Gegensatz zu den Pfaden von David werden trajectories jedoch durch ihre Anfangsbedingungen, das sind insbesondere technische Paradigmen oder Regime, bestimmt. Technischer Fortschritt wird damit im Rahmen der identifizierten Paradigmen und Regime voraussagbar. Hier ergeben sich Parallelen zu dem von Bijker vorgeschlagenen Begriff des technologischen Rahmens, der im Verbund mit dem von SCOT postulierten Schließungsprozess ebenfalls eine technisch definierte Entwicklungsrichtung nahe legt. Halten wir fest: Alle hier diskutierten Modelle begreifen technischen Fortschritt als evolutionären Prozess und charakterisieren ihn damit zunächst einmal als ergebnisoffen. Das heißt nun allerdings nicht, dass er beliebig verläuft. Vielmehr stehen sich Phasen größerer Diversität, in denen radikal Neues entsteht, Phasen gegenüber, in denen einmal eingeschlagene Wege nicht mehr verlassen werden. Durch positive Rückkopplungseffekte verstärken sich kleine, zufällige Startvorteile einer Technologie, die konkurrierende Alternativen aus dem Markt drängen kann – sie wird pfadabhängig. Es etablieren sich technologische Para41
NEUE TECHNIK AUF ALTEN PFADEN?
digmen und Regime, die technological trajectories definieren und so den weiteren Verlauf des technischen Fortschritts bestimmen. Technische Artefakte, die von den relevanten sozialen Gruppen anfangs unterschiedlich interpretiert wurden, verlieren ihre Vieldeutigkeit, die Kontroversen werden geschlossen, die Artefakte stabilisiert. Es entstehen großtechnische Systeme – Gewebe aus physischen und nichtphysischen Komponenten –, die eine spezifische Entwicklungsrichtung nehmen, technologisches Momentum gewinnen und dann nur noch durch reverse salients in ihrer Entfaltung gehemmt werden. Die grundlegende Denkfigur ist – trotz erheblicher Unterschiede im Detail – stets dieselbe. Ein zunächst offener Prozess verliert durch irreversible Entscheidungen seine Offenheit, seine weitere Entwicklung ist das Ergebnis seiner Geschichte. In diesem Sinne sollen die hier vorgestellten Modelle des technischen Fortschritts nicht als konkurrierende Erklärungsansätze, sondern als Repräsentanten einer Theoriefamilie begriffen werden, die sich zwar in ihrer Schwerpunktlegung und analytischen Reichweite unterscheiden, für die Untersuchung von Pfadbildungsprozessen jedoch fruchtbar gemacht werden können. Das Konzept der Pfadabhängigkeit erreicht innerhalb dieser Theoriefamilie den höchsten Abstraktionsgrad und kann damit als Referenzpunkt für Vergleiche dienen. Für die Fallstudien der vorliegenden Arbeit bedeutet das, nach historischen Konstellationen Ausschau zu halten, in denen sich Paradigmen und Regime etablieren, Kontroversen geschlossen werden, Entwicklungen ein technologisches Momentum entfalten oder in ein Lock-in einmünden, und diese dann auf die entscheidenden Einflussfaktoren hin zu untersuchen. Um die Vergleichbarkeit der Fallstudien sicher zu stellen, ist es allerdings notwendig, am Ende dieses Untersuchungsprozesses wieder auf das Abstraktionsniveau des Konzeptes der Pfadabhängigkeit zurückzukehren. Nur so können miteinander vergleichbare Szenarien für das staatliche Pfadmanagement herausgearbeitet werden.
2.4 Pfadbildung und die Rolle der FuT-Politik Welche Konsequenzen ergeben sich aus der Einsicht in die Pfadabhängigkeit des technischen Fortschritts für die staatliche Forschungs- und Technologiepolitik? Ihre Aufgabe ist es sicherlich nicht, Pfadabhängigkeiten zu vermeiden. Abgesehen davon, dass dies nicht möglich wäre, dürfte wohl die große Mehrzahl aller Fälle von Pfadabhängigkeit gar kein Problem darstellen – d.h. das Ergebnis eines Pfadbildungsprozesses wird als befriedigend oder zumindest nicht als unbefriedigend empfun42
DER THEORETISCHE RAHMEN
den. Ein Beispiel dafür ist der Pfad der organisch-chemischen Synthese zur Substitution von Naturstoffen, den die deutsche Chemieindustrie jahrzehntelang höchst erfolgreich beschritten hat.6 Problematisch wird Pfadabhängigkeit nur dort, wo sich ein suboptimaler Technologiepfad aufgrund positiver Rückkopplungsmechanismen am Markt etabliert und dort trotz besserer Alternativen langfristig halten kann. Hier liegt dann Marktversagen vor. Aufgabe der Forschungs- und Technologiepolitik wäre es demnach zu versuchen, bei der Entwicklung eines neuen Technologiepfades ein mögliches Marktversagen zu antizipieren und dann durch eine zeitlich begrenzte Intervention in den Markt einer spontanen Pfadbildung, die immer ein hohes Risiko für suboptimale bzw. unbefriedigende Ergebnisse birgt, vorzubeugen. Der Staat übernimmt hier gleichsam das Management des Pfadbildungsprozesses. Damit ist freilich nicht gemeint, dass der Staat die Entscheidung über einen Technologiepfad an sich reißt und dem Markt die Pfadwahl abnimmt. Derartige Versuche laufen, wie zahlreiche Beispiele aus der Technikgeschichte belegen, in der Regel ins Leere. Vielmehr geht es darum, dass der Staat einer vorschnellen Pfadwahl entgegenarbeitet, indem er das Feld technologischer Optionen hinreichend lange offen hält, damit anstelle einer spontanen Pfadbildung eine bewusste Pfadwahl unter Abwägung aller langfristig wirksamen Vorund Nachteile der zur Auswahl stehenden Technologien möglich wird. Basierend auf diesen Überlegungen sowie der vorangegangenen Diskussion der verschiedenen Konzepte zur Beschreibung des technischen Fortschritts soll im Folgenden ein Modell für das staatliche Management von Pfadbildungsprozessen vorgestellt werden (siehe Abbildung 2-2).7 Betont sei, dass es sich dabei um ein heuristisches Modell handelt, das weder Rezept sein will, noch Aussagen über empirisch tatsächlich auffindbare Pfadbildungsprozesse macht. Ziel ist es vielmehr, eine Folie für die Analyse und Strukturierung der Fallstudien zu schaffen.
6 7
Das Beispiel wird in Kapitel 6 ausführlich behandelt. Vgl. auch Meyer/Schubert 2007, die aus einer etwas anderen Perspektive ein ebenfalls dreiphasiges Modell entwickeln, das zwischen generation (Pfadbildung), continuation (Pfadfortführung) und termination (Pfadbeendigung) unterscheidet. 43
NEUE TECHNIK AUF ALTEN PFADEN?
Abbildung 2-2: Phasenmodell für das staatliche Management von Pfadbildungsprozessen
Phase II: Pfadwahl
Phase I: Pfadsuche
Kennzeichen neues Technologiefeld Nebeneinander alternativer Entwicklungslinien
Aufgaben für die FuT-Politik
Ziele
Förderung technischer Diversität
Sammlung von Erfahrung mit alternativen Entwicklungslinien
Einschränkung der Marktkräfte
Verhinderung spontaner Pfadbildung
Förderung wünschbarer und Hemmung nicht-wünschbarer Entwicklungen
unter Abwägung aller Vor- und Nachteile alternativer Entwicklungslinien vollzogene Pfadwahl durch den Markt
Einschränkung technischer Diversität
Vermeidung von Ressourcenverschwendung
Regelmäßige Überprüfung des etablierten Technologiepfades
Identifizierung nicht-intendierter Nebenfolgen und relevanter Kontextveränderungen
Förderung von Grundlagenforschung
Wissensbasis für die Entwicklung neuer bzw. verbesserter Technologien
hohe Unsicherheit breite Erfahrungsgrundlage mit alternativen Entwicklungslinien weitgehende Einigkeit unter allen relevanten sozialen Gruppen über Ende der Suchphase
Phase III: Pfadstabilisierung
reduzierte Unsicherheit winner technology verdrängt alternative Entwicklungslinien vom Markt bzw. verhindert deren Eintritt in den Markt wachsende Sicherheit
Dieses Modell stellt den Pfadbildungsprozess als dreiphasige Entwicklung vor, in der der Forschungs- und Technologiepolitik phasenspezifische Aufgaben zuwachsen. Die erste Phase, die als Pfadsuche beschrie44
DER THEORETISCHE RAHMEN
ben werden kann, setzt mit dem Aufkommen eines neuen Technologiefeldes ein. Sie ist gekennzeichnet von dem Nebeneinander alternativer, miteinander konkurrierender Entwicklungslinien, deren technisches, wirtschaftliches, soziales oder auch ökologisches Potential zu Beginn der Suchphase mangels Erfahrung von den relevanten Akteursgruppen aus Staat, Wissenschaft, Wirtschaft und Gesellschaft nur schwer eingeschätzt werden kann. Aussagen über mögliche Chancen und Risiken besitzen daher einen spekulativen Charakter. Mit Fortschreiten der Suchphase, d.h. mit wachsender Erfahrung, verringert sich jedoch diese anfängliche Unsicherheit. An ihre Stelle tritt ein immer belastbareres Wissen um Vor- und Nachteile der einzelnen Entwicklungslinien. Die Forschungs- und Technologiepolitik übernimmt in dieser Phase zwei Aufgaben. Zum einen fördert sie technologische Diversität,8 damit aus dem Feld denkbarer Entwicklungslinien eine möglichst große Zahl soweit realisiert wird, dass ein ausreichendes Erfahrungswissen für eine spätere Pfadwahl gesammelt werden kann. Zum anderen arbeitet sie einer spontanen Pfadbildung durch eine geeignete Einschränkung der Marktkräfte entgegen. Aufgabe ist es, die Bedingungen für die Pfadsuche so zu gestalten, dass zufällige Startvorteile einer Technologie nicht zur vorschnellen Durchsetzung eines Technologiepfades und zur Verdrängung möglicherweise besserer Alternativen führen. Im Anschluss an die Pfadsuche, über deren Ende sich die relevanten Akteursgruppen verständigen, folgt die Phase der Pfadwahl. Diese baut auf der hinreichend gesättigten Erfahrungsgrundlage der Suchphase auf und wird unter Abwägung aller Vor- und Nachteile alternativer Entwicklungen getroffen. Der Staat schafft in dieser Phase einen geeigneten Rahmen, durch den wünschbare Entwicklungen gefördert und nichtwünschbare Entwicklungslinien gehemmt werden. Die Pfadwahl wird jedoch dem Markt überlassen, der allein über den kommerziellen Erfolg eines Technologiepfades entscheidet (wobei der Staat durch seine Nachfragemacht Einfluss auf diesen Prozess gewinnen kann). Es geht hier nicht darum, dass der Staat in einem Akt heroischer Technologiepolitik eine winner technology bestimmt. Gegebenenfalls hat er aber Selektionsbedingungen zu schaffen, die im Sinne einer sozial, ethisch und ökologisch verträglichen bzw. erstrebenswerten Technologieentwicklung wirksam werden.9
8 9
Zur Bedeutung von Diversität für die Technologiepolitik siehe Carlsson/ Jacobsson 1997; Cohendet/Llerena 1997. Ein Beispiel für diese regulative Politik ist das Verbot der Forschung an embryonalen Stammzellen des Menschen, die vor einem parlamentarisch definierten Stichtag gewonnen wurden. 45
NEUE TECHNIK AUF ALTEN PFADEN?
Auf die Pfadsuche und die Pfadwahl folgt als Drittes die Pfadstabilisierung. In dieser Phase drängt die winner technology alternative Entwicklungslinien aus dem Markt bzw. verhindert deren Markteintritt. Nach der Förderung technologischer Diversität in der Suchphase geht es nun um deren sinnvolle Einschränkung – nicht zuletzt um eine Verschwendung von Ressourcen auf aussichtslose Entwicklungslinien zu vermeiden. Die Weiterentwicklung des Technologiefeldes beschränkt sich jetzt im Wesentlichen auf die Weiterentwicklung des dominanten Technologiepfades. Aufgabe der Forschungs- und Technologiepolitik ist es in dieser Phase, in regelmäßigen Abständen zu überprüfen, ob eine Neubewertung des etablierten Technologiepfades notwendig ist. Zudem muss die Politik zur Zukunftsvorsorge sicherstellen, dass unter gewandelten Kontextbedingungen, die einen etablierten Technologiepfad als nicht mehr wünschenswert erscheinen lassen, abgebrochene Alternativen gegebenenfalls wieder aufgenommen bzw. neue Alternativen entwickelt werden können. Um es noch einmal zu betonen, es handelt sich hier um ein heuristisches Modell. Inwieweit sich Elemente daraus in den empirischen Fallstudien auffinden lassen, muss zunächst dahingestellt bleiben. Das gilt insbesondere für die Frage, inwieweit die staatliche Forschungs- und Technologiepolitik tatsächlich Management von Pfadbildungsprozessen betreibt und bis zu welchem Grad sie dann das Ziel realisieren kann, die spontane Durchsetzung eines möglicherweise suboptimalen Technologiepfades zugunsten einer bewussten, auf einer hinreichend breiten Suchphase aufsetzenden Pfadwahl zu verhindern. In der sozialwissenschaftlichen Debatte zur politischen Steuerung hat sich nicht zufällig eine gewisse Ernüchterung über die staatliche Steuerungsfähigkeit breit gemacht. Wie etwa Renate Mayntz (1996: 165) festhält, ist »das politische Steuerungshandeln […] nur ein sozialer Teilprozess, der mit vielen anderen Teilprozessen interferiert und so zum sozialen Wandel beiträgt, ohne ihn lenken zu können«. Dieser Einsicht trägt die sozialwissenschaftliche Literatur Rechnung, indem sie mittlerweile den Begriff der Steuerung zu vermeiden sucht und stattdessen von governance spricht.10 Analog dazu wird in der vorliegenden Arbeit zu klären sein, wo Möglichkeiten und Grenzen der staatlichen governance des technischen Fortschritts durch das Management von Pfadbildungsprozessen liegen.
10 Zum Begriff der governance siehe beispielsweise den Sammelband Benz 2004; eine theoriegeschichtliche Perspektive auf den Begriff eröffnet Mayntz 1996. 46
3 DIE ENTWICKLUNG DER FORSCHUNGSUND T E C H N O L O G I E P O L I T I K I N D E R B UNDESREPUBLIK D E U T S C H L AN D
Das bundesdeutsche Innovationssystem tut sich schwer, wenn es darum geht, neue Technologiepfade zu eröffnen, zu verfolgen und schließlich in wirtschaftlich erfolgreiche Innovationen einmünden zu lassen (siehe z.B. Grupp et al. 2004; Krull/Meyer-Krahmer 1996). Dieser Befund der Innovationsforschung wird auch durch die vorliegende Arbeit gestützt. Egal, ob es sich um zivile Kerntechnik, elektronische Datenverarbeitung oder Biotechnologie handelte, die Bundesrepublik drohte ein ums andere Mal den Anschluss an den technischen Fortschritt zu verlieren und damit Chancen für wirtschaftliches Wachstum zu verpassen. Das Aufholen von Rückständen wurde mithin zu einem Leitmotiv staatlicher Forschungs- und Technologiepolitik der Nachkriegsepoche. Das gilt nun freilich nicht nur für die Bundesrepublik. Die Erfahrung, wissenschaftlich und technologisch insbesondere den USA hinterherzulaufen, ist ein verbindendes Element (west)europäischer Selbstwahrnehmung nach dem Zweiten Weltkrieg. Das wird beispielsweise in der Debatte um die »technologische Lücke« deutlich, die in den frühen sechziger Jahren im transatlantischen Vergleich identifiziert wurde und auf die in Kapitel 3.4 noch ausführlich eingegangen wird. Auf das bundesdeutsche Innovationssystem musste diese Rückstandserfahrung allerdings besonders irritierend wirken, stand sie doch im deutlichen Gegensatz zu den Erfahrungen aus der Frühzeit des 20. Jahrhunderts, die das deutsche Selbstverständnis nachhaltig geprägt haben. Damals konnte sich Deutschland noch als Schrittmacher des wissenschaftlich-technischen Fortschritts fühlen und mit Zuversicht die wirtschaftlichen Früchte 47
NEUE TECHNIK AUF ALTEN PFADEN?
dieser Führungsposition ernten. Seine chemischen und physikalischen Forschungsinstitute produzierten in schöner Regelmäßigkeit Nobelpreisträger (vgl. Abbildung 3-1), seine Pharmaindustrie galt als Apotheke der Welt und seine Elektroindustrie brachte einen Strom einträglicher Erfindungen hervor. Abbildung 3-1: Kumulierte Anzahl von Nobelpreisen in Physik und Chemie nach ausgewählten Ländern, 1901–2001
140 120 USA DEU FRA GBR
100 80 60 40 20
2001
1991
1981
1971
1961
1951
1941
1931
1921
1911
1901
0
Quelle: http://nobelprize.org; 11.5.2006 (geteilte Preise wurden wie ganze Preise gezählt). Der Aufstieg der USA zur neuen wissenschaftlich-technischen Führungsmacht, der bereits vor dem Ersten Weltkrieg einsetzte und spätestens mit dem Zweiten Weltkrieg unübersehbar wurde, hat Deutschland jedoch im internationalen technology race auf das Mittelfeld verwiesen. Deutschlands Abstieg von der Spitzenposition wurde durch den selbst gewählten Weg in Autarkie- und Kriegswirtschaft, die Vertreibung seiner wissenschaftlichen und intellektuellen Eliten, die bildungsfeindliche Hochschulpolitik der Nationalsozialisten, den Nachkriegsverlust weiterer Experten an die USA und die Sowjetunion sowie durch das alliierte Forschungsverbot beschleunigt, aufhaltsam wäre er aber ohnehin nicht gewesen. Das verdeutlichen schon die finanziellen Ressourcen, die die USA in Forschung und Entwicklung investieren. Allein die Mittel, die das amerikanische Verteidigungsministerium jährlich für militärische Forschung aufwendet, entsprechen in etwa den staatlichen Gesamtaus-
48
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
gaben der ehemaligen EU-15 für Forschung und Entwicklung (siehe Wengenroth 2002, 2007). Dem bundesdeutschen Innovationssystem fiel es nicht leicht, sich in seine Rolle als wissenschaftlich-technische »Mittelmacht« hineinzufinden. Häufig agierte es, als wäre es sich dieser neuen Rolle überhaupt nicht bewusst. Das gilt in besonderer Weise für das Feld der Spitzentechnologien, die zum viel beschworenen Maßstab der technologischen Leistungsfähigkeit wurden. Die staatliche Forschungs- und Technologiepolitik gab sich hier nur selten damit zufrieden, die im Ausland und vor allem in den USA entwickelten Technologiepfade nachzuvollziehen, um sie für die eigene Industrie fruchtbar zu machen. Stattdessen strebte sie die Entwicklung betont eigener Technologiepfade an, mit denen sich die Bundesrepublik die einstige Führungsposition unter den Industrienationen zurückerobern sollte. Industrie und Wissenschaft zeigten sich hier oftmals realistischer, zumindest nüchterner in ihrer Selbsteinschätzung. Ungebrochen war das Selbstvertrauen in die technologische Leistungsfähigkeit des bundesdeutschen Innovationssystems aber auch auf staatlicher Seite nicht. Im diachronen Vergleich der Fallbeispiele (siehe Kapitel 7) wird deshalb danach zu fragen sein, wie sich die Unsicherheiten über die neue Rolle der Bundesrepublik als wissenschaftlich-technische »Mittelmacht« auf das staatliche Management der Pfadbildungsprozesse in der zivilen Kerntechnik, elektronischen Datenverarbeitung und Biotechnologie ausgewirkt haben. Wie wir sehen werden, lassen sich die Fallstudien aus dieser Perspektive als Suche des bundesdeutschen Innovationssystems nach einer neuen, den veränderten historischen Bedingungen Rechnung tragenden Identitäten verstehen. Zunächst gilt es jedoch, die Entwicklung der bundesdeutschen Forschungs- und Technologiepolitik in ihren Grundzügen zu skizzieren.1 Sie bildet den Rahmen, in dem sich die Förderung der später untersuch-
1
Obgleich seit längerem eingefordert, z.B. Krieger 1987, ist die systematische Aufarbeitung der Geschichte der bundesdeutschen Forschungs- und Technologiepolitik nach wie vor ein Desiderat der historischen Forschung. Insofern verwundert es nicht, dass das Thema bis heute auch in Gesamtdarstellungen zur Geschichte der Bundesrepublik praktisch nicht auftaucht; siehe z.B. Görtemaker 1999; Wolfrum 2006. Hilfreich für die Ausarbeitung dieses Kapitels waren neben Spezialstudien, die thematisch relevante Aspekte bzw. Institutionen behandeln, Überblicksartikel wie Bruder/Dose 1986; Wollmann 1989; der Sammelband Weingart/Taubert 2006; sowie insbesondere die Studie Stucke 1993, die aus soziologischer Perspektive die Entwicklung des bundesdeutschen Forschungsministeriums in den Blick nimmt. Daneben wurden Publikationen aus dem Forschungsministerium und seinem Umfeld herangezogen. 49
NEUE TECHNIK AUF ALTEN PFADEN?
ten Spitzentechnologien vollzog. Entsprechend der Fragestellung der Arbeit wird der Schwerpunkt auf die Bundesebene gelegt, genauer auf das Bundesforschungsministerium, das 1955 als Bundesministerium für Atomfragen gegründet wurde und seit seiner Umgründung zum Bundesministerium für wissenschaftliche Forschung im Jahr 1962 unter mehrfach wechselnden Bezeichnungen firmierte. Die Gliederung der folgenden Skizze orientiert sich an einem bewährten Schema von Wolfgang Bruder und Nicolai Dose (1986), das auf Grundlage wechselnder Zielvorstellungen bis Mitte der achtziger Jahre vier Phasen der Forschungs- und Technologiepolitik unterscheidet: eine Wiederaufbauphase vom Ende des Krieges bis Mitte der fünfziger Jahre, eine Imitations- und Aufholphase, die bis in die zweite Hälfte der sechziger Jahre hineinreichte, daran anschließend eine Nachhol- und Innovationsphase, die mit der Ölpreiskrise Anfang der siebziger Jahre wieder endete, um schließlich von einer Effizienzsteigerungsphase abgelöst zu werden. Diskutiert werden soll am Ende des Kapitels außerdem die Frage, inwieweit die Zeit nach der deutschen Wiedervereinigung als eigenständige Phase der bundesdeutschen Forschungs- und Technologiepolitik gelten kann. Begonnen wird mit einem kurzen Blick auf die Entwicklungen bis 1945, um wichtige Traditionslinien des deutschen Innovationssystems kenntlich zu machen.
3.1 Die Bedeutung des Staates für Forschung und Entwicklung bis 1945 Es gehört zu den bemerkenswerten Charakteristika des deutschen Innovationssystems, dass sich seine strukturellen Grundzüge bereits vor dem Ersten Weltkrieg herausgebildet und trotz vier gravierender Systembrüche innerhalb eines einzigen Jahrhunderts bis heute erhalten haben.2 Der Staat spielte dabei von Anfang an eine wichtige Rolle. In ganz besonderem Maße trifft das auf die Universitäten und Technischen Hochschulen zu, die sich im 19. Jahrhundert in ihrer Doppelfunktion als Lehr- und Forschungsanstalten zu einer tragenden Säule des
2
50
Einen Überblick zu Geschichte und Aufbau des deutschen Innovationssystems gibt Keck 1993. Für die Entwicklungen bis zum Ersten Weltkrieg mit besonderem Fokus auf die Wissenschaftspolitik siehe die stark quantitativ argumentierende Arbeit Pfetsch 1974. Die Bedeutung des Kaiserreichs für die Formierung des deutschen Innovationssystems behandelt beispielsweise Szöllösi-Janze 2005; dort auch Hinweise auf weitere relevante Literatur. Siehe auch Abelshauser 2001, der die Persistenzen des deutschen Produktionsregimes betont.
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
nationalen Innovationssystems entwickelten (Keck 1993: 116–123). Ihre Bedeutung für den wirtschaftlichen Aufstieg des Deutschen Reichs lässt sich nur schwer überschätzen.3 Das ist keineswegs selbstverständlich. Im 18. Jahrhundert hatten sich die Universitäten noch in einer schweren Krise befunden. Die herausragenden Stätten natur- und geisteswissenschaftlicher Forschung waren damals nicht die Universitäten, sondern die wissenschaftlichen Akademien, die beflügelt vom Geist der Aufklärung und unterstützt von den Landesfürsten beinahe überall aufblühten. Das Leben an den Universitäten war dagegen häufig von der Erstarrung in überkommenen Traditionen, der Unfähigkeit, neue Wissensgebiete aufzugreifen, dem Desinteresse an genuiner Forschungsarbeit und von einem aus diesen Faktoren resultierenden Mangel an Studierenden geprägt. Wiederholt wurde daher der Ruf nach ihrer Schließung laut (McClelland 1980: 27–33, 63–68). Gegen diesen Hintergrund hoben sich vereinzelte Reformansätze umso deutlicher ab, etwa in Halle und Göttingen, wo bereits in der ersten Hälfte des 18. Jahrhunderts der Weg zur modernen Universität betreten wurde. Ganz allmählich begann der Staat, die Universitäten als Ausbildungsstätten für seine Leistungsträger zu entdecken, ließ dort beispielsweise seine Beamten im Rahmen der Kameralwissenschaft auf den Staatsdienst vorbereiten und offerierte im Gegenzug finanzielle und ideelle Unterstützung. Damit setzte sich eine utilitaristische Betrachtung der Universitäten durch, die über Lehre und bald auch Forschung zur Verbesserung der allgemeinen Lebensverhältnisse und zur Mehrung des Wohlstandes beitragen sollten. An der Wende zum 19. Jahrhundert beschleunigte sich dieser Wandlungsprozess. Bestehende Universitäten wurden reformiert und neue gegründet. Bekanntestes Beispiel für eine solche Neugründung ist die 1809 ins Leben gerufene Berliner Universität, deren Anfänge mit dem Namen Wilhelm von Humboldts und dem neuhumanistischen Bildungsideal verknüpft sind. Dieses zielte auf eine durch wissenschaftliches Forschen in der Gemeinschaft von Lehrenden und Studierenden zur vollen Entfaltung gebrachten Persönlichkeit (McClelland 1980: 34–149). Obgleich die tatsächliche Bedeutung des neuhumanistischen Bildungsideals für die Entwicklung der modernen Universität gerne überschätzt wird, steht außer Frage, dass sich im 19. Jahrhundert in Deutschland ein staatlich finanziertes und beaufsichtigtes Hochschulsystem herausbildete, dessen besonderes Merkmal die enge Verschränkung von Forschung und Lehre war. Für die naturwissenschaftliche Forschung setzte sich an den Universitäten allgemein das Labor, für ihr geisteswis3
Zu einer vorsichtigeren Einschätzung kommt allerdings König 1993. 51
NEUE TECHNIK AUF ALTEN PFADEN?
senschaftliches Pendant das Seminar durch. Die Universitäten entwickelten sich auf diese Weise bis zum Ende des Jahrhunderts zu führenden Zentren des wissenschaftlichen Lebens, die Studierende aus der ganzen Welt nach Deutschland lockten. Die wissenschaftlichen Akademien verloren demgegenüber an Gewicht (McClelland 1980: 239–287). Ohne Konkurrenz blieben die Universitäten dennoch nicht. Zum einen kam es im ersten Drittel des 19. Jahrhunderts zu einer Gründungswelle landwirtschaftlicher Akademien, die sich als höhere Lehr- und Forschungsanstalten verstanden und ebenfalls um entsprechende Anerkennung und Förderung durch den Staat bemüht waren; allerdings wurden sie mit wenigen Ausnahmen in der zweiten Jahrhunderthälfte in die Universitäten integriert (Harwood 2005; Klemm 1979). Zum anderen – und für das deutsche Innovationssystem langfristig prägender – gingen im letzten Drittel des 19. Jahrhunderts aus den Gewerbeschulen und Polytechnika die Technischen Hochschulen hervor. Diese stellten dem Staat und der Industrie nicht nur ein ausgesprochen großes Reservoir wissenschaftlich-technisch geschulter Absolventen zur Verfügung, sondern erbrachten nach dem Vorbild der Universitäten auch eigene Forschungsleistungen. Für die industrielle Entwicklung Deutschlands haben sich die Technischen Hochschulen als ausnehmend fruchtbar erwiesen und wurden deshalb nicht zufällig von vielen anderen Ländern kopiert (Manegold 1989). Parallel zu den Universitäten und Technischen Hochschulen hat sich im letzten Drittel des 19. Jahrhunderts die institutionalisierte Industrieforschung als zweite Säule des deutschen Innovationssystems etabliert (Freeman/Soete 1997: 89–92; Keck 1993: 125–129; Meyer-Thurow 1982). Die deutsche Teerfarbenindustrie der 1860er/70er Jahre gilt geradezu als Wiege des modernen Industrielabors, obgleich ähnliche Entwicklungen durchaus auch für die USA zu verzeichnen sind. Dort hatte Thomas A. Edison in Menlo Park Mitte der 1870er Jahre seine Erfinderfarbrik und damit ebenfalls ein Modell institutionalisierter Industrieforschung geschaffen (Hughes 1991: 33–49; siehe auch Hounshell 1996). Neben der chemischen Industrie setzte sich das Industrielabor in Deutschland bald auch in der elektrotechnischen Industrie durch; beide Sektoren gelten heute als Prototypen der wissenschaftsbasierten Industrien.4 Die Institutionalisierung der Industrieforschung wurde von Unternehmen wie Hoechst, BASF, Bayer, Siemens und AEG vorangetrieben. Doch auch hier spielte der Staat eine wichtige, wenn auch meist indirek4
52
Vgl. dazu auch König 1995: 283, der im Fall der Elektrotechnik für den Begriff der industriebasierten Wissenschaft plädiert.
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
te Rolle. Mindestens drei Aspekte sind hervorzuheben: Über seine Unterstützung der Universitäten und Technischen Hochschulen trug der Staat wie oben bereits erwähnt zur Ausbildung jener wissenschaftlichen und technischen Experten bei, die nach Abschluss ihres Studiums in die Industrieforschung wechselten. Durch die Gesetzgebung, insbesondere im Bereich Patente und technische Normen, schuf der Staat ein Regelwerk, das seit dem späten 19. Jahrhundert den Aufstieg der deutschen forschenden Industrie an die Weltspitze förderte. Und nicht zuletzt trat der Staat auch als Abnehmer hoch technisierter Produkte auf und unterstützte dadurch industrielle Forschungs- und Entwicklungsarbeiten, zum Beispiel im militärischen Bereich.5 Die dritte Säule des deutschen Innovationssystems, die sich ebenfalls schon im Kaiserreich formierte, wurde schließlich von den staatlichen und staatlich finanzierten Forschungseinrichtungen außerhalb der Universitäten und Technischen Hochschulen gebildet. Staatliche Forschung entstand als neuer Forschungstyp ungefähr zeitgleich mit der Industrieforschung. Der Begriff bezieht sich auf eine in staatlichen Anstalten betriebene, zweckorientierte Forschung für die Daseinsfürsorge und Innovationsbewältigung. Typische Felder waren und sind das Gesundheitswesen, die Tierhygiene und der Pflanzenschutz, die technische Normierung und Kontrolle sowie Bereiche der Infrastruktur – Felder also, in denen der Staat Eingriffs-, Kontroll- und Monopolrechte besaß oder sich aneignete (Lundgreen et al. 1986: 17–26). Die ersten Initiativen zur Gründung staatlicher Forschungseinrichtungen gingen von den Ländern aus. Preußen übernahm dabei eine Vorreiterrolle mit der Schaffung einer ganzen Reihe von Instituten, darunter die Normal-Eichungs-Kommission (1868), die Preußisch Forstliche Versuchsanstalt (1870), die Preußisch Geologische Landesanstalt (1873) und die Preußische Moor- und Versuchsstation (1877). Eines der ersten staatlichen Forschungsinstitute auf Reichsebene war die 1887 in Berlin gegründete Physikalisch-Technische Reichsanstalt, Vorgängerin der heutigen Physikalisch-Technischen Bundesanstalt, die sowohl Grundlagenforschung, insbesondere in der Metrologie, betrieb als auch hoheitliche Aufgaben im Bereich Normierung, Eichung und Prüfung wahrnahm. Sie entstand auf gemeinsame Initiative von Wissenschaftlern und Industriellen, unter ihnen Werner von Siemens, der auch einen Teil des Gründungskapitals stiftete (Cahan 1989; Pfetsch 1974: 103–128). Ein anderes Beispiel aus dem Kaiserreich ist die 1905 aus einer Abteilung des Kaiserlichen Gesundheitsamtes entstandene Biologische Reichsanstalt für 5
Zur Bedeutung des Militärs für das deutsche Innovationssystem siehe beispielsweise Trischler 2002. 53
NEUE TECHNIK AUF ALTEN PFADEN?
Land- und Forstwirtschaft, deren Kernaufgabe die Schädlings- und Krankheitsbekämpfung bei Nutzpflanzen und -tieren war und aus der später die Biologische Bundesanstalt für Land- und Forstwirtschaft hervorging. Gerade die staatliche Forschung auf diesem Gebiet erfuhr nach dem Ersten Weltkrieg als Reaktion auf die durchlittene Hungerkatastrophe und die Abtretung agrarischer Überschussgebiete östlich der Elbe eine starke Ausweitung, greifbar in der Gründung zahlreicher neuer einschlägiger Institute und Forschungsstellen (Lundgreen et al. 1986: 88– 118). Zu den wichtigen außeruniversitären Gründungen des Kaiserreichs, die für das nationale Innovationssystem große Bedeutung erlangten, gehört schließlich die Kaiser-Wilhelm-Gesellschaft (KWG; siehe Vierhaus/vom Brocke 1990). Sie wurde 1911 als Antwort auf die sich abzeichnenden strukturellen Probleme der universitären Grundlagenforschung geschaffen. Dazu zählten die wachsende Lehrbelastung der Professoren, die mangelnde Berücksichtigung neuer Disziplinen innerhalb des etablierten Fächerkanons und die durch den hohen und stetig zunehmenden apparativen Aufwand der experimentellen Naturforschung explodierenden Kosten. Hinzu kam, dass die Wissenschaft seit der Jahrhundertwende immer stärker unter den Einfluss nationalen Konkurrenzdenkens geriet. Deutschland suchte daher nach einem Äquivalent zu den als wegweisend empfundenen außeruniversitären Institutsgründungen des Auslandes, insbesondere der USA mit ihren privat finanzierten »Rockefeller und Carnegie Instituten«. Und schließlich hatte auch die deutsche Industrie – wie schon das Beispiel der Physikalisch-Technischen Reichsanstalt gezeigt hat – großes Interesse an einer außerhalb ihrer eigenen Mauern betriebenen Forschung, die sich grundlegenden Problemen mit hohem Anwendungsbezug widmete. Das schlug sich zum einen in der inhaltlichen Ausrichtung der unter dem Dach der KWG gegründeten Institute nieder, die wie das KWI für Arbeitsphysiologie (1916), das KWI für Kohlenforschung (1921) oder das KWI für Züchtungsforschung (1927) eine starke Anwendungsorientierung besaßen. Zum anderen spiegelte sich das in einer Mischfinanzierung der KWG durch Industrie und Staat wider (vom Brocke 1990). Mit den universitären, industriellen und staatlichen bzw. staatlich finanzierten außeruniversitären Forschungseinrichtungen hatte sich das deutsche Innovationssystem bis zum Ersten Weltkrieg in seinen strukturellen Grundzügen auf der Seite der wissenschaftlichen Forschung weitgehend ausdifferenziert. Trotz zahlreicher Institutsneugründungen – insbesondere im Bereich der staatlich finanzierten außeruniversitären Forschung – änderte sich an diesen grundlegenden Strukturen auch nach dem Krieg kaum etwas. Eine bedeutende Ausnahme von diesem Befund 54
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
stellt allerdings die Notgemeinschaft der deutschen Wissenschaft dar, aus der die Deutsche Forschungsgemeinschaft hervorging. Die Notgemeinschaft wurde 1920 als Antwort auf die im Gefolge der Nachkriegsinflation auftretenden Finanzierungsprobleme der Grundlagenforschung ins Leben gerufen. Von Staat und Industrie gemeinsam finanziert, unterstützte sie einzelne Forscher, die dort Mittel für ihre Arbeiten beantragen konnten.6 Die Feststellung, dass sich an den Grundzügen des deutschen Innovationssystems nach dem Ersten Weltkrieg wenig änderte, gilt auch für die Zeit des Nationalsozialismus. Denn obwohl die nationalsozialistische Politik für tiefe Einschnitte in dieses System sorgte, war dessen Institutionengefüge davon vergleichweise wenig berührt. Der Staat schuf zwar einige neue Institutionen, um seinen Steuerungsanspruch entsprechend dem Führerprinzip besser durchsetzen zu können. Beispiele sind der 1934/35 von Konrad Meyer geformte Forschungsdienst, über den die agrarwissenschaftliche Forschung des Deutschen Reichs koordiniert und gelenkt werden sollte (Klemm 1994), sowie der Reichsforschungsrat, der 1937 aus einer Umstrukturierung der Deutschen Forschungsgemeinschaft hervorging und ähnliche Ansprüche wie der Forschungsdienst hinsichtlich der naturwissenschaftlichen Forschung erhob. Auch wurden einige Forschungsinstitute innerhalb des weit verzweigten Terrorapparates der SS gegründet, die in Konkurrenz zum bestehenden Forschungssystem standen (z.B. Wieland 2004: 207–224). Die für die Nachkriegszeit bedeutsameren Einschnitte betrafen jedoch nicht die Struktur, sondern die Kultur des deutschen Innovationssystems, die durch eine Reihe von Maßnahmen einen nahezu irreversiblen Schaden erlitt (Wengenroth 2002). Vier Aspekte sollen hier schlaglichtartig benannt werden: Als erstes ist die Vertreibung jüdischer oder als jüdisch geltender sowie politisch unerwünschter Wissenschaftler anzuführen. Einschlägige Schätzungen belaufen sich auf etwa 2.500 betroffene Personen, darunter 22 damalige oder zukünftige Nobelpreisträger (Ash 1999: 332f.). Zweitens wurden Forschungsgebiete wie die moderne Physik, die als jüdisch galt und daher nicht mehr an den Universitäten gelehrt werden durfte, aus ideologischen Gründen unterdrückt. Drittens kam es zu einer drastischen Reduzierung der Studierendenzahlen um mehr als 50 % auf das Niveau der Jahrhundertwende (Keck 1993: 119). Zusammen mit den Kriegsverlusten führte das dazu, dass in der Nachkriegszeit der dringend benötigte Nachwuchs für die Verjüngung des wissenschaftlichen Personals fehlte. 6
Zur Geschichte der Notgemeinschaft bzw. der Deutschen Forschungsgemeinschaft siehe Hammerstein 1999; Marsch 1994; Zierold 1968. 55
NEUE TECHNIK AUF ALTEN PFADEN?
Und viertens forcierten die Nationalsozialisten die autarkiepolitische Ausrichtung des Forschungssystems, die bereits nach dem Ersten Weltkrieg eingesetzt hatte. Das bedeutete in vielen Fällen die Verschwendung intellektueller Ressourcen auf die Entwicklung von Produkten, die für die Kriegs- und Ersatzwirtschaft benötigt wurden, die in Friedenszeiten jedoch keinen Markt mehr fanden (Abelshauser 2001; Wengenroth 2002). Betrachten wir zum Ende dieses Abschnitts noch die Entwicklung der staatlichen Wissenschaftsausgaben. Sie verdeutlicht den zunehmenden Raum, den Wissenschaft, Forschung und Technik im staatlichen Handeln einnehmen. Misst man die staatlichen Wissenschaftsausgaben, in denen neben den Aufwendungen für Forschung und Entwicklung auch jene für die Lehre an den Hochschulen sowie für wissenschaftliche und technische Dienstleistungen enthalten sind, an der Entwicklung des Nettosozialprodukts (NSP), so lassen sich drei Schübe festmachen (vgl. Abbildung 3-2): Der erste Entwicklungsschub erfolgte in den 1870er/ 80er Jahren, in denen der Anteil der staatlichen Wissenschaftsausgaben am NSP von etwa 0,05 % auf Werte zwischen 0,15 % und 0,2 % anstieg. Der nächste Schub ist für die 1920er Jahre zu verzeichnen, in denen sich die staatlichen Wissenschaftsausgaben etwas mehr als verdoppelten, d.h. einen Anteil von ca. 0,5 % des NSP erreichten. Und der dritte Schub kam schließlich in den späten 1960er und frühen 1970er Jahren. Hier stiegen die staatlichen Wissenschaftsausgaben auf ein Niveau von ca. 2,5 %. Bemerkenswerterweise gingen diese Schübe bei den staatlichen Wissenschaftsausgaben nicht mit einem entsprechenden Wirtschaftswachstum einher. Im Gegenteil, jedem Schub folgte eine mehr oder weniger ausgedehnte Phase wirtschaftlicher Stagnation bzw. Rezession. Wie Ulrich Wengenroth (2007) betont, ist das kein Hinweis auf die Nutzlosigkeit staatlicher Wissenschaftsförderung, sondern unterstreicht die von der Innovationsforschung wohl fundierte Einsicht, dass sich wissenschaftliche Grundlagenforschung nicht umstandslos in wirtschaftsrelevante Innovationen umsetzt. Wie verteilten sich die staatlichen Aufwendungen auf Reich bzw. Bund einerseits und die Länder andererseits? Bis zur Gründung des Deutschen Reichs lag die staatliche Finanzierung der Wissenschaft selbstredend bei den Ländern. 1871 trat dann zwar das Reich als neuer Akteur auf die Bühne der Wissenschaftspolitik. Die Rolle der Länder blieb davon jedoch relativ unberührt. Nach einem turbulenten Anstieg pendelte sich der Finanzierungsanteil des Reichs vor Ausbruch des Ersten Weltkrieges bei etwa 20 % ein. Der weitaus größere Teil der staatlichen Wissenschaftsausgaben wurde jedoch weiterhin von den Ländern 56
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
bestritten, die etwa für die Finanzierung der Hochschulen aufkamen. Im Nationalsozialismus stieg der Anteil des Reichs an den staatlichen Wissenschaftsausgaben dann auf ca. 50 %. Hintergrund für diese Entwicklung war die von den nationalsozialistischen Machthabern forcierte Entmachtung der Länder und die Verlagerung von deren Kompetenzen auf die Reichsebene. Ein ähnlich hohes Gewicht des Zentralstaates in der Wissenschaftsfinanzierung wurde in der Bundesrepublik Deutschland nur kurzzeitig Anfang der siebziger Jahre erreicht.7 Auf die Ursachen dafür wird später noch einzugehen sein. Wenden wir uns zunächst den Entwicklungen der unmittelbaren Nachkriegszeit zu. Abbildung 3-2: Entwicklung der staatlichen Wissenschaftsausgaben im Deutschen Reich und der BRD, 1860–1988 9 8 7
als %-Anteil an den öffentlichen Haushalten
6
als %-Anteil am Nettosozialprodukt
5 4 3 2 1 1988
1980
1970
1960
1955
1938
1930
1925
1913
1910
1900
1890
1889
1870
1860
0
Quelle: Keck 1993: 125.
3.2 Die marginalisierte Rolle des Bundes im Wiederaufbau (1945–55) Im ersten Nachkriegsjahrzehnt war der Wiederaufbau der Lehr- und Forschungseinrichtungen die dringendste Aufgabe staatlicher Wissenschaftspolitik. Der Krieg hatte große Schäden an der Infrastruktur für Forschung und Lehre hinterlassen. Gebäude waren zerstört, Institute ausgelagert, Bibliotheken verbrannt und Forschungsgerät vernichtet 7
Zur Entwicklung der staatlichen Wissenschaftsausgaben im Verhältnis von Reich bzw. Bund und Ländern siehe die Aufstellung in Grupp et al. 2002: 56. 57
NEUE TECHNIK AUF ALTEN PFADEN?
worden. Von den Universitäten waren besonders Freiburg, Köln, München und Münster betroffen, wo nur noch geschätzte 20 % der Vorkriegskapazitäten existierten. Als weitgehend intakt konnten lediglich die Universitäten Erlangen, Heidelberg und Tübingen gelten. Zu den Schäden durch die unmittelbaren Kriegseinwirkungen kam die Demontage von Versuchsanlagen und Forschungsapparaturen durch die Siegermächte hinzu. Auf diese Weise gingen etwa die Windkanäle der Aerodynamischen Versuchsanstalt in Göttingen, einem Zentrum der deutschen Luftfahrtforschung, in den Besitz der britischen Besatzer über (Dehler 1998; Görtemaker 1999: 246–249). Der Wiederaufbau war aber nicht nur eine infrastrukturelle Herausforderung, denn neben den materiellen gab es auch personelle Probleme. Die Nationalsozialisten hatten, wie oben dargelegt, große Teile der intellektuellen und wissenschaftlich-technischen Eliten aus Deutschland vertrieben, die Studierendenzahlen systematisch reduziert und ganze Forschungsfelder aus ideologischen Gründen an ihrer Entwicklung gehindert. Davon betroffen war ganz besonders die moderne Physik, die für die Entwicklung von Spitzentechnologien in der zweiten Hälfte des 20. Jahrhunderts eine herausragende Bedeutung erlangte. Nach dem Krieg bemühten sich die Siegermächte systematisch, die in Deutschland verbliebenen Spitzenforscher – Physiker, Chemiker und Ingenieure – ins eigene Land zu holen, um deren Wissen und Können für die heimische Forschung und Entwicklung nutzbar zu machen. Ein besonders spektakulärer Fall war die Übersiedlung des Raketenentwicklers Wernher von Braun im Juni 1945 in die USA. Von Braun wurde von mehr als 120 seiner Mitarbeiter begleitet und stieg nach anfänglichen Anfeindungen wegen seiner Vergangenheit als SS-Mann zu einer der wichtigsten Personen des US-amerikanischen Weltraumprogramms auf (Stamm 1981: 41–49). Während der Verlust der intellektuellen und wissenschaftlich-technischen Eliten nur sehr langsam überwunden werden konnte, gelang der Wiederaufbau der Infrastruktur für Lehre und Forschung in bemerkenswert kurzer Zeit. An etlichen Universitäten und Hochschulen wurden bereits im Wintersemester 1945/46 Lehrveranstaltungen angeboten. Zur Gründung der Bundesrepublik 1949 existierten dann wieder neunzehn Universitäten und Hochschulen, an denen ein einigermaßen geregelter Lehr- und Forschungsbetrieb stattfand (R. Müller 1990: 102). Und auch die anderen staatlich geförderten Wissenschaftseinrichtungen fanden bald zu funktionsfähigen Strukturen zurück. Im Februar 1948 wurde die Kaiser-Wilhelm-Gesellschaft, deren Auflösung die Alliierten anstrebten, in Göttingen unter dem Namen Max-Planck-Gesellschaft (MPG) neu errichtet. Die mit wenigen Ausnahmen in den beiden letzten Kriegsjahren 58
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
in den Westen verlagerten Institute der KWG hatten damit einen neuen organisatorischen Rahmen erhalten, in dem zahlreiche Traditionslinien der 1911 gegründeten Vorgängergesellschaft fortgeführt wurden. Inhaltlich richtete sich die MPG nun allerdings stärker auf die Grundlagenforschung hin aus. Dies war nicht nur eine Folge der von den Westalliierten betriebenen Demilitarisierung, sondern entsprach durchaus auch den Intentionen der MPG selbst. Denn über Grundlagenforschung, insbesondere über »reine Grundlagenforschung«, hoffte die deutsche Wissenschaft ein Stück ihrer im Nationalsozialismus ruinierten Integrität zurückgewinnen zu können. Vom Staat finanziert und dennoch weitgehend unabhängig von seiner Einflussnahme entwickelte sich die MPG als wissenschaftliche Selbstverwaltungsorganisation zu einem wichtigen Akteur im bundesrepublikanischen Forschungssystem (Heinemann 1990). Ebenfalls noch vor Gründung der Bundesrepublik wurde im Januar 1949 die Notgemeinschaft der Deutschen Wissenschaft unter bewusster Anknüpfung an ihre Vorgängerorganisation aus der Weimarer Republik wiederbelebt. Treibende Kräfte waren hier die Länder, die auf diese Weise ihr forschungspolitisches Gewicht zu mehren suchten. Aufgabe der Notgemeinschaft sollte es sein, in wissenschaftlicher Selbstverwaltung akademische Forschung zu fördern. Nur knapp zwei Monate nach der Notgemeinschaft konstituierte sich jedoch der Deutsche Forschungsrat, der sich ebenfalls als Vertretungsorgan der westdeutschen Wissenschaft verstand und für eine stärkere Rolle des Bundes in der Forschungspolitik und Forschungsplanung eintrat (siehe Carson/Gubser 2002). Beide Organisationen verschmolzen nach zeitraubenden Verhandlungen im August 1951 zur Deutschen Forschungsgemeinschaft (Stamm-Kuhlmann 1990). Eine echte Neugründung der Nachkriegszeit war die FraunhoferGesellschaft. Sie entstand im März 1949 als Ergebnis einer Reorganisation der bayerischen Forschungslandschaft, war also zunächst eine Länderinitiative. Nach schwierigen Anfangsjahren etablierte sich die Fraunhofer-Gesellschaft jedoch als bundesweit agierende, staatlich mitfinanzierte, außeruniversitäre Einrichtung der angewandten Forschung. Sie besetzte mit dieser inhaltlichen Ausrichtung eben jene Lücke, die durch den weitgehenden Rückzug der Max-Planck-Gesellschaft auf die Grundlagenforschung im bundesdeutschen Forschungssystem entstanden war (Trischler/vom Bruch 1999). Neben dem Wiederaufbau war die Wiedererlangung der Forschungsfreiheit die zweite große Herausforderung für die staatliche Wissenschaftspolitik der Nachkriegszeit. Bereits vor Ende des Krieges hatten die Alliierten den Plan gefasst, in Deutschland Forschung und Entwicklung unter strikte Kontrolle zu stellen und auf wenige Bereiche wie die 59
NEUE TECHNIK AUF ALTEN PFADEN?
Gesundheitsfürsorge zu beschränken. Dadurch sollte Deutschland an seinem wirtschaftlichen und militärischen Wiedererstarken gehindert werden. Nach Kriegsende wurden diese Pläne stark abgemildert. Gleichwohl blieben gewichtige Einschränkungen. Das von den Alliierten verabschiedete Gesetz zur Regelung und Überwachung der natur- und ingenieurwissenschaftlichen Forschung, das im Mai 1946 in Kraft trat, verbot alle Forschungen für militärische Zwecke und etablierte für Forschungsaktivitäten auf vielen anderen Gebieten ein engmaschiges Netz bürokratischer Kontrollen. Untersagt waren beispielsweise Forschungen in der angewandten Kernphysik und der angewandten Aerodynamik, Forschungen über Raketen- und Düsenantriebe sowie über Gasturbinen. Stark eingeschränkt wurde die elektrotechnische bzw. elektronische Forschung etwa im Bereich der Röhrenentwicklung. Betroffen waren mithin all jene Gebiete, die für die Entwicklung von Spitzentechnologien als besonders bedeutsam eingeschätzt wurden und tatsächlich auch waren. Obgleich das alliierte Forschungsverbot nicht immer so streng durchgesetzt wurde, wie es seinem Geist entsprochen hätte, setzte es der Forschungsfreiheit spürbare Grenzen, um deren Aufhebung sich westdeutsche Politiker und Wissenschaftler bemühten. Erreicht wurde dieses Ziel jedoch erst 1955, als in der Bundesrepublik mit Wiedererlangung der staatlichen Souveränität in den Pariser Verträgen auch die alliierten Forschungsrestriktionen außer Kraft gesetzt wurden (Stamm 1981: 49–60). Die Hauptlast des Wiederaufbaus der akademischen Lehr- und Forschungslandschaft wurde von den Ländern getragen. Noch Mitte der fünfziger Jahre bestritt der Bund gerade einmal 10 % der öffentlichen Ausgaben für die Wissenschaft, was etwa der Situation kurz nach Gründung des Deutschen Reichs 1871 entsprach (Grupp et al. 2002: 56). Neben der globalen Förderung einzelner Wissenschaftsorganisationen konzentrierte sich das Engagement des Bundes auf den Bereich der Ressortforschung, d.h. auf die aus den Reichsanstalten hervorgegangenen Bundesanstalten. Und dort bildeten Ernährung und Landwirtschaft den Schwerpunkt staatlicher Forschungsaktivitäten, was vor dem Hintergrund der Ernährungsprobleme der unmittelbaren Nachkriegszeit einerseits und dem alliierten Forschungsverbot andererseits wenig überraschen mag. Tatsächlich kamen bis Mitte der fünfziger Jahre knapp 40 % der Mittel, die der Bund für die Forschung aufbrachte, aus dem Landwirtschaftministerium. Empfänger waren in erster Linie die fünfzehn damals existierenden landwirtschaftlichen Bundesforschungsanstalten (Lundgreen et al. 1986: 114–118; Stucke 1993: 43). Die marginalisierte Stellung des Bundes in der Wissenschaftsförderung des ersten Nachkriegsjahrzehnts hatte zwei Ursachen: Erstens erfolgte, wie wir gesehen haben, ein großer Teil der Wiederaufbauleistun60
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
gen bereits vor Gründung der Bundesrepublik – die zentralstaatliche Ebene fiel als wissenschaftspolitischer Akteur zunächst also weitgehend aus. Und zweitens versuchten die Länder nach dem Krieg, die Kulturhoheit wieder stärker an sich zu ziehen und damit auch die Zuständigkeiten für Wissenschaft und Forschung, die in der Zeit des Nationalsozialismus im Zuge der Gleichschaltung an zentralstaatliche Institutionen wie das Reichsministerium für Wissenschaft, Erziehung und Volksbildung übergegangen waren. Unterstützt wurden sie in diesem Bemühen durch die Dezentralisierungspolitik der alliierten Kontrollmächte. Im März 1949 verabschiedeten die Länder der Westzone ein »Staatsabkommen über die Finanzierung wissenschaftlicher Forschungseinrichtungen«, das als Königsteiner Abkommen bekannt wurde. Darin regelten sie ihre Zusammenarbeit bei der Förderung wissenschaftlicher Organisationen mit überregionaler Bedeutung, deren Finanzierung die Möglichkeiten eines einzelnen Landes überstieg. Konkret ging es um Organisationen wie die Max-Planck-Gesellschaft und die Notgemeinschaft der deutschen Wissenschaft bzw. die Deutsche Forschungsgemeinschaft. Der Bund sollte durch die Kooperation der Länder aus der Forschungsförderung so weit wie möglich herausgehalten werden. So betonte die Präambel des Königsteiner Abkommens: »Die Länder der Bundesrepublik Deutschland betrachten die Förderung der wissenschaftlichen Forschung grundsätzlich als eine Aufgabe der Länder.« (zitiert nach Stucke 1993: 45) Die konsequente Umsetzung des Abkommens gestaltete sich allerdings schwierig, denn das Grundgesetz sicherte dem Bund im Rahmen der konkurrierenden Gesetzgebung ein Mitspracherecht bei der Förderung wissenschaftlicher Forschung (Art. 74 Abs. 13 GG). Darüber hinaus waren Organisationen wie die MPG und die DFG auf die Zuschüsse angewiesen, die sie seit Anfang der fünfziger Jahre aus dem Haushalt des Bundesinnenministeriums erhielten, ohne dass dafür feste Regelungen existiert hätten. Um dieser unklaren Aufgabenverteilung Abhilfe zu schaffen und Kompetenzstreitigkeiten zwischen Bund und Ländern in der Forschungsförderung zu umgehen, wurde im September 1957 der Wissenschaftsrat gegründet. Seine Aufgabe war es, übergreifende Ziele für die staatliche Forschungsförderung und Forschungsplanung zu formulieren und dabei einen Ausgleich zwischen Bundes- und Länderinteressen zu finden. Der Anstoß dazu kam unter anderem von der DFG, die auf eine Verstetigung der Bundeszuschüsse und dadurch auf eine höhere Planungssicherheit hoffte. Doch obgleich es zu einer stärkeren Beteiligung des Bundes an den öffentlichen Wissenschaftsausgaben kam und zudem eine erste Regelung über die gemeinsame Finanzierung von MPG und DFG getroffen wurde, blieb auch nach Gründung des Wissenschaftsrates ein wechselvolles Spannungsverhältnis zwischen Bund und 61
NEUE TECHNIK AUF ALTEN PFADEN?
Ländern in der staatlichen Forschungsförderung bestehen (Stamm 1986: 195–222; Stucke 1993).
3.3 Kerntechnik als Kristallisationskeim b u n d e s p o l i t i s c h e r Ak t i v i t ä t e n ( 1 9 5 5 – 6 5 ) Die Forschungs- und Technologiepolitik des Bundes nahm Mitte der fünfziger Jahre ihren Anfang. Geprägt war diese Zeit durch das einsetzende Wirtschaftswunder und einen neuen Optimismus, mit dem die Bundesdeutschen nach den Entbehrungen der unmittelbaren Nachkriegsjahre nun wieder in die Zukunft blickten. Als Kristallisationskeim der forschungs- und technologiepolitischen Aktivitäten des Bundes fungierte die zivile Kerntechnik – ein mit großen Erwartungen beladenes Feld, auf dem politische, wirtschaftliche und wissenschaftliche Interessen zu einer schlagkräftigen Allianz zusammenfanden (siehe Kapitel 4). Kein halbes Jahr nach Inkrafttreten der Pariser Verträge beschloss die Bundesregierung im Oktober 1955 die Errichtung des Bundesministeriums für Atomfragen. Damit griff sie einen Vorschlag der Physikalischen Studiengesellschaft auf, unter deren Dach sich seit November 1954 eine stattliche Zahl kerntechnisch interessierter Unternehmen der Elektro-, Chemie- und Montanindustrie sowie der Energieversorgungswirtschaft versammelt hatte, um den Bau eines deutschen Kernreaktors voranzutreiben. Von einer eigenständigen Atombehörde erhofften sich diese Unternehmen eine stärkere Berücksichtigung ihrer Interessen als vom bislang zuständigen Bundeswirtschaftsministerium, in dem die Förderung der Kerntechnik mit anderen Verantwortlichkeiten und Zielsetzungen konkurrierte. Mit der Gründung des Atomministeriums existierte erstmals eine staatliche Instanz auf Bundesebene, der die Aufgabe oblag, Forschung und Technologie gezielt zu fördern. Zum Bundesminister für Atomfragen wurde der bis dahin als Bundesminister für besondere Aufgaben, d.h. ohne definierten Geschäftsbereich, fungierende Franz Josef Strauß ernannt. Strauß sah es als die vordringlichste Aufgabe seines Amtes, »alles zu veranlassen, was im Rahmen der Bundeszuständigkeit unternommen werden kann, um den 10- bis 15-jährigen Rückstand der Bundesrepublik auf diesem Gebiete in möglichst kurzer Zeit aufzuholen«. Und er fügte hinzu, dass die Lösung dieser Aufgabe eine nationale Pflicht sei, die dem Staat, der Wissenschaft und der Wirtschaft gemeinsam auferlegt sei (Strauß 1956: 2). Im Zusammenspiel dieser drei großen Akteure des bundesdeutschen Innovationssystems ist dann in der Tat der Anschluss an die internationale Kerntechnikentwicklung gelungen. Die Rede vom 62
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
technologischen Rückstand, den es möglichst schnell aufzuholen gilt, ist seitdem aber nicht mehr aus der Forschungs- und Technologiepolitik verschwunden. In den Anfangsjahren wurde die Atompolitik von einem ausgeprägten Konsens der Führungseliten getragen. Das Bundeskabinett hatte Anfang 1956 dem Atomminister die Deutsche Atomkommission an die Seite gestellt. Darin waren die Interessenvertreter aus Industrie, Wissenschaft und Politik versammelt. Die Deutsche Atomkommission war weit mehr als nur ein Beratungsorgan und bestimmte die Forschungs- und Technologiepolitik des Bundesatomministeriums. Strauß blieb nicht lange als Atomminister im Amt. Bereits im Oktober 1956 übernahm er die Leitung des Bundesverteidigungsministeriums. Sein Nachfolger wurde Siegfried Balke, der nach einer Industriekarriere als Chemiker 1953 in die Politik gewechselt war und bereits einschlägige Erfahrungen als Bundesminister für das Post- und Fernmeldewesen gesammelt hatte. Auf seinem neuen Posten setzte sich Balke erfolgreich für eine rasche Kommerzialisierung der Kerntechnik ein. Rechtlich abgesichert wurde das Engagement des Bundes in diesem Technologiefeld nach langwierigen Verhandlungen mit den Ländern im Dezember 1959 über einen Zusatz im Grundgesetz (Art. 74 Nr. 11a GG) und ein darauf aufbauendes Bundesatomgesetz, das noch im selben Jahr in Kraft trat. Die darin festgeschriebene Regelung für den Bau und Betrieb kerntechnischer Anlagen orientierte sich an der staatlichen Gewerbeaufsicht und sah eine komplexe Rollenverteilung zwischen Bund und Ländern vor.8 Andreas Stucke (1993: 44) sieht in der Gründung des Bundesatomministeriums den Ausgangspunkt einer Entwicklung, in deren Verlauf sich der Bund zunehmend forschungspolitische Kompetenzen aneignete und sie in einer eigens geschaffenen Ministerialorganisation konzentrierte. Zunächst herrschte im Atomministerium allerdings Unklarheit darüber, ob und in welche Richtung man sich als Institution weiterentwickeln sollte. Namentlich Siegfried Balke stand einer Ausdehnung seines Hauses auf andere Forschungs- und Technologiefelder als der Kerntechnik skeptisch gegenüber. Später wurde er jedoch zu einer treibenden Kraft hinter der Umwandlung des Atomministeriums in ein integriertes Forschungsministerium, das 1962 den Namen Bundesministerium für wissenschaftliche Forschung erhielt. Das umgewandelte Ministerium bekam einen Großteil der Zuständigkeiten für die Raumfahrt. Die Förderung dieses Technologiefeldes begann in dem eher bescheidenen Rahmen von 11 Mio. DM. Den all8
Krieger 1987: 255; zur Geschichte des Bundesatomministeriums siehe Radkau 2006; Stamm 1981: 157–171; Stucke 1993: Kapitel 2. 63
NEUE TECHNIK AUF ALTEN PFADEN?
gemeinen Hintergrund für diesen Vorstoß der deutschen Bundesregierung bildete der Wettlauf im All, den sich die USA und die Sowjetunion im Kalten Krieg lieferten und an dem sich nun auch die Europäer beteiligten. Konkreter Anlass war die Gründung der beiden europäischen Raumfahrtorganisationen European Space Research Organisation und European Launcher Development Organisation für die Satelliten- bzw. Raketenentwicklung im Jahr 1962. Die Bundesrepublik trat beiden Organisationen bei und benötigte aus diesem Grund eine zentrale Anlaufstelle für die ausländischen Kooperationspartner. Diese Funktion übernahm das neue Forschungsministerium. In der Folgezeit entwickelte sich die europäische Raumfahrt zu einem kostenintensiven Unternehmen, an dem sich die Bundesrepublik mit erheblichen Summen beteiligte (Krieger 1987: 258–260; Stucke 1993: 215–249; Weyer 2006). Die Erweiterung des Aufgabenfeldes des Bundesatomministeriums auf die Raumfahrt war Teil einer Entwicklung, die durch die Regierungsumbildung im Dezember 1962 als Folge der »Spiegel-Affäre« eine unerwartete Beschleunigung erfuhr. Hans Lenz löste dabei Siegfried Balke im neuen Regierungskabinett als Minister ab. Durch einen Erlass von Konrad Adenauer erhielt das neue Forschungsministerium neben den bisherigen Aufgaben des Atomministeriums die Zuständigkeiten für Grundsatzfragen der Wissenschaftsförderung, für die Förderung der gesamten wissenschaftlichen Forschung, soweit diese nicht in das Aufgabengebiet anderer Bundesressorts (Ressortforschung) fiel, sowie für die Koordinierung aller Aktivitäten des Bundes auf dem Gebiet der Wissenschaft. Konkret bedeutete die Ministeriumsumgründung also eine Bündelung der forschungspolitischen Kompetenzen, die bislang auf verschiedene Ressorts verteilt waren, insbesondere die Übernahme der allgemeinen Forschungsförderung aus der Kulturabteilung des Bundesinnenministeriums (Stucke 1993: 64f.). Vor der Gründung des Bundesatomministeriums hatte sich die Forschungsförderung des Bundes auf die Unterstützung wissenschaftlicher Einrichtungen wie die Max-Planck-Gesellschaft und die Deutsche Forschungsgemeinschaft beschränkt. Sie war institutionelle Globalförderung. Mit der Hinwendung zur Kerntechnik begann in den späten fünfziger Jahren jedoch eine programmorientierte Förderpolitik, die – geleitet durch die Deutsche Atomkommission – inhaltliche Ziele formulierte. Ihren sichtbarsten Niederschlag fand sie in der Etablierung einer Reihe von Großforschungseinrichtungen für Kernphysik und Kerntechnik (siehe Hohn/Schimank 1990: 233–295; Radkau 2006). Als Vorbild dienten die USA, in denen sich Großforschung während des Zweiten Weltkrieges als neuer Forschungstypus etabliert hatte. Für diesen war kennzeichnend, dass der Staat unter Einsatz großer finanzieller und personeller 64
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
Ressourcen Wissenschaft und Industrie zur gemeinsamen Arbeit an einem wissenschaftlich-technischen Großprojekt zusammenbrachte. Die erfolgreiche Entwicklung der Atombombe im Manhattan Projekt, an dem bis zu 250.000 Menschen beteiligt waren, schien die Effizienz dieser neuartigen Organisationsform von Forschung unter Beweis zu stellen. Ähnliches lässt sich über die Entwicklung der Radartechnologie sagen, die in den USA zu dieser Zeit ebenfalls mit hohem Kosten- und Personaleinsatz als wissenschaftlich-technisches Großprojekt organisiert und vorangetrieben wurde. Nach Kriegsende hielten die USA an dem eingeschlagenen Weg fest. Großforschung wurde in Form der National Laboratories – mit deutlicher Verschiebung in Richtung Grundlagenforschung – zu einem festen Bestandteil des US-amerikanischen Innovationssystems (Stokes 1997; siehe auch Mowery/Rosenberg 1993). In Deutschland hatte es bereits im Ersten Weltkrieg Ansätze gegeben, Forschung als Großforschung zu organisieren. So hatte der Chemiker und spätere Nobelpreisträger Fritz Haber mit staatlicher Unterstützung das KWI für Physikalische Chemie und Elektrochemie in BerlinDahlem zu einem Zentrum der Kampfgasforschung ausgebaut, an dem weit über 2.000 Personen, darunter allein 150 Wissenschaftler, an der Entwicklung von Chemie-Waffen arbeiteten (Szöllösi-Janze 2005: 353f.). In der Bundesrepublik wurden diese Traditionslinien jedoch – bewusst oder unbewusst – ausgeblendet. Stattdessen orientierte man sich an den USA. Ausgangspunkt für die westdeutsche Großforschung waren die 1956 gegründeten Reaktorstationen Karlsruhe und Jülich sowie die im selben Jahr gegründete Gesellschaft für Kernenergieverwertung in Schiffbau und Schiffahrt mbH in Geesthacht bei Hamburg. Ihnen folgten bis 1960 drei weitere Forschungseinrichtungen, die ebenfalls im Bereich Kernphysik und Kerntechnik tätig waren.9 Im Zentrum der bundespolitischen Interessen stand zunächst Karlsruhe, wo auf Entscheidung von Bundeskanzler Konrad Adenauer der erste deutsche Kernreaktor gebaut werden sollte. Die wissenschaftliche Leitung des Unternehmens lag bei Karl Wirtz, der dazu 1956 mit seiner Reaktorbaugruppe vom MPI für Physik in Göttingen nach Karlsruhe übersiedelte. Wirtz hatte im Zweiten Weltkrieg zu den treibenden Kräften des deutschen Uranmaschinen-Projekts gezählt10 und war nach Kriegsende zusammen mit anderen führenden deutschen Physikern von den Alliierten im südenglischen Farm Hall interniert worden. Nach seiner Entlassung hatte er 1946 seine kernphysi-
9
Eine Liste der bundesdeutschen Großforschungseinrichtungen mit Gründungsjahr findet sich z.B. in Rusinek 1996: 16. 10 Zum deutschen Uranmaschinen-Projekt siehe Kapitel 4.1. 65
NEUE TECHNIK AUF ALTEN PFADEN?
kalischen Forschungen in Göttingen wieder aufgenommen. Betreiber der Karlsruher Reaktorstation war die eigens aus der Taufe gehobene Kernreaktorbau- und Betriebs-GmbH, an der je zur Hälfte Industrie und Staat (der Bund und das Land Baden-Württemberg) beteiligt waren. Schien damit in Karlsruhe zunächst eine besonders enge Zusammenarbeit von Industrie und Staat realisiert zu werden, so zeigte sich recht bald, dass die Industrie auf Dauer nicht bereit war, die stetig wachsenden Kosten der kerntechnischen Forschung mitzutragen. Als Konsequenz stieg sie 1963 aus der Finanzierung des Kernforschungszentrums Karlsruhe aus und schenkte ihre Anteile dem Staat, der nun allein für das Zentrum verantwortlich war (Szöllösi-Janze/Trischler 1990b). Dieser Vorgang gibt einen Hinweis darauf, dass die Entwicklung der bundesdeutschen Großforschung keinem übergeordneten Plan folgte. Aus diesem Grund fanden die Forschungszentren ihre Identität zunächst auch nur in Abgrenzung zu den bestehenden Forschungsorganisationen des bundesdeutschen Innovationssystems (Hohn/Schimank 1990: 247f.). Ein erster Schritt zur Schaffung einer positiven Identität erfolgte in den sechziger Jahren, als die Großforschungseinrichtungen auf Drängen des Bundesinnenministeriums und des Bundesfinanzministeriums einen gemeinsamen rechtlichen Rahmen erhielten. Entgegen der ursprünglichen Idee, den Forschungszentren ein möglichst hohes Maß an Flexibilität in Personal- und Haushaltsfragen zuzugestehen (siehe Cartellieri 1963), wurde ihnen allerdings das starre Korsett des öffentlichen Dienst- und Haushaltsrechts übergestülpt. Dadurch wurden die Handlungsspielräume der Forschungszentren von vornherein merklich beschnitten – mit weitreichenden Folgen. So erschwerte beispielsweise die Einführung des öffentlichen Dienstrechts Ende der sechziger Jahre die staatlichen Bemühungen um eine inhaltliche Diversifizierung der Großforschung, die zumindest einen partiellen Austausch des wissenschaftlichen Personals an den Forschungszentren notwendig gemacht hätte, um neue Themen besetzen zu können. Neben der rechtlichen Angleichung der Forschungszentren gab es auch Versuche, Großforschung als neuen Forschungstyp zu definieren. Auf wissenschaftlicher Seite trat hier der Physiker Wolf Häfele hervor, der das Schnellbrüterprojekt am Kernforschungszentrum Karlsruhe leitete, auf staatlicher Seite Wolfgang Cartellieri, Staatssekretär im Bundesministerium für wissenschaftliche Forschung, der den Begriff der Großforschung in Anlehnung an den englischen Ausdruck big science prägte (Häfele 1963; Cartellieri 1963). Drei Aspekte lassen sich benennen, die damals als Charakteristika der Großforschung galten (Hohn/Schimank 1990: 252f.):
66
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
• • •
Die Forschungsthemen der Großforschung machten einen außerordentlichen finanziellen, apparativen und personellen Ressourcenaufwand notwendig. Großforschung zielte auf die integrale Verknüpfung grundlagen- und anwendungsorientierter Forschungsaktivitäten ab. Die Themenwahl in anwendungsbezogenen Feldern war das Ergebnis eines politischen Entscheidungsprozesses.
Großforschung war demnach nicht nur eine Frage der Dimensionen. Tatsächlich wurde Großforschung bzw. das, was später mit diesem Begriff belegt wurde, seit der Errichtung der ersten Kernforschungszentren als eine Art Transmissionsriemen für die Übertragung von Ergebnissen aus der Grundlagenforschung in die kommerzielle Anwendung begriffen. Hinter dieser Vorstellung stand das Modell eines linearen Technologietransfers, das in der Nachkriegszeit geradezu paradigmatischen Status gewann.11 Das lineare Modell beschreibt technische Innovation als einen mehrstufigen Prozess. Sein Ausgangspunkt ist die Grundlagenforschung der Natur- und Technikwissenschaften. Das dort generierte Wissen wird von der angewandten Forschung aufgegriffen und fließt dann über die Entwicklung in neue oder verbesserte Produkte und Prozesse ein. Mögliche Rückwirkungen späterer Phasen des Innovationsprozesses auf die Grundlagenforschung bleiben im linearen Modell unberücksichtigt (siehe Abbildung 3-3). Abbildung 3-3: Lineares Modell der Übersetzung von wissenschaftlicher Forschung in technologische Anwendung
Basic research
Applied research
Development
Production and Operations
Quelle: Stokes 1997: 10. Folgt man Donald E. Stokes (1993: 4, 45–57), dann verdankte das lineare Modell seine Popularität Vannevar Bush, der in den USA als Direktor des Office of Scientific Research and Development im Zweiten Weltkrieg für die Mobilisierung von Wissenschaft und Technik verantwortlich war.12 Im Juli 1945 – die USA befanden sich noch im Krieg mit Ja11 Grundlegend hierzu Stokes 1997; siehe auch Godin 2005. 12 Godin 2005: 3 kommt dagegen zu dem Schluss: »the model owes little to Bush«. 67
NEUE TECHNIK AUF ALTEN PFADEN?
pan – unterbreitete Bush dem US-Präsidenten in einem oft zitierten Bericht mit dem Titel »Science, the Endless Frontier« Vorschläge für die Nachkriegsordnung des heimischen Forschungssystems. Grundlage seiner Argumentation war das lineare Modell. Während Bushs Vorschläge zur Neuorganisation der Forschungslandschaft wenig Gehör fanden, fielen seine Ausführungen zum Verhältnis von Grundlagen- und angewandter Forschung auf fruchtbaren Boden. Sie mündeten in dem Satz: »Basic research is the pacemaker of technological progress.« (Bush 1945: 14) Die Organisation for Economic Cooperation and Development (OECD) legte das lineare Modell ihrem Referenzwerk zur Messung nationaler Forschungs- und Entwicklungsanstrengungen zugrunde, das unter der Federführung des englischen Wirtschaftswissenschaftlers Christopher Freeman erarbeitet und im Juni 1963 im italienischen Frascati verabschiedet wurde. Auf der Grundlage des »Frascati Manual« entstand eine Vielzahl statistischer Vergleiche der OECD-Staaten (Godin 2002).13 Auf diese Weise wurde das lineare Modell zu einer Standardbeschreibung von Innovationsprozessen, der sich – wie die Entwicklung der bundesdeutschen Großforschung illustriert – auch die Forschungsund Technologiepolitik bediente. Mit dem linearen Modell verband sich die Vorstellung, dass die staatliche Politik über die Auswahl von Forschungsthemen den technischen Fortschritt in eine bestimmte Richtung lenken konnte. Die Großforschungseinrichtungen mussten dem Bundesforschungsministerium aus diesem Blickwinkel deshalb als ideales Instrument erscheinen, mit dem sich seine forschungs- und technologiepolitischen Ziele realisieren ließen. Freilich standen dem Bund auch wenig organisatorische Alternativen offen. So besaßen die Deutsche Forschungsgemeinschaft und die Max-Planck-Gesellschaft trotz staatlicher Finanzierung einen hohen Grad an Autonomie und waren der direkten staatlichen Einflussnahme entzogen. Und bei anderen gemeinsam von Bund und Ländern getragenen Forschungseinrichtungen, namentlich den Instituten der Blauen Liste,14 achteten die Länder in der Regel penibel darauf, nichts von ihren Kompetenzen abgeben zu müssen. Die Großforschungszentren wurden zwar ebenfalls von Bund und Ländern gemeinsam getragen. Die Kostendynamik der Großforschung hatte dem finanzstärkeren Bund jedoch die Möglichkeit gegeben, sich in immer stärkerem Maße forschungs- und steuerungspolitische Kompe-
13 Siehe dazu auch Kapitel 3.4. 14 Diese Institute sind heute in der Leibniz Gemeinschaft zusammengeschlossen. 68
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
tenzen »einzukaufen«. Zwischen 1962 und 1970 wuchsen die Gesamtausgaben für die sechs kerntechnischen und kernphysikalischen Großforschungseinrichtungen der Bundesrepublik von 232,9 Mio. DM auf 489,7 Mio. DM. Der Anteil des Bundes stieg dabei überproportional, bis 1969 schließlich ein Finanzierungsverhältnis zwischen Bund und jeweiligem Sitzland der Großforschungseinrichtung von 90:10 festgeschrieben wurde (Hohn/Schimank 1990: 253f.). Dieser Finanzierungsmodus sicherte dem Bund die Mehrheit in den Aufsichtsgremien der Großforschungseinrichtungen, denen nun eigentlich »in relativ kurzer Zeit mittel- und langfristig angelegte Forschungsaufgaben übertragen« hätten werden können (Szöllösi-Janze/Trischler 1990b: 18). Der Forschungsund Technologiepolitik hätte auf diese Weise ein relativ leicht zu steuerndes Instrument zur Umsetzung ihrer Zielvorstellungen zur Verfügung gestanden. Die Großforschungseinrichtungen, die sich 1970 zur Durchsetzung ihrer Interessen gegenüber dem Staat in einer Arbeitsgemeinschaft zusammenschlossen, erfüllten diese Erwartung jedoch nicht. Im Gegenteil, sie erwiesen sich als ausgesprochen steuerungsresistent, wenn man die hohen Erwartungen der Forschungs- und Technologiepolitik wie auch der medialen Öffentlichkeit als Maßstab anlegt. Was anfangs so attraktiv ausgesehen hatte, wurde bald zu einem Problem für die Forschungs- und Technologiepolitik. Die Kostendynamik der Großforschung hatte dem Bund zwar die Chance eröffnet, sich über ein verstärktes finanzielles Engagement einen Teil der forschungspolitischen Kompetenzen der Länder anzueignen. Langfristig wurden dadurch jedoch auch Fördergelder gebunden, die für andere Programme nicht mehr zur Verfügung standen. Bemerkbar machte sich das in den siebziger Jahren, als im Zuge der allgemeinen Wirtschaftskrise der Anteil der Ausgaben für Forschung und Entwicklung am Gesamthaushalt des Bundes verringert wurde. Eine Erweiterung der Themen, denen sich die Großforschung widmen sollte, konnte nun nur auf Kosten der Kernund Weltraumforschung erfolgen. Deren Anteil an den Bundesausgaben blieb jedoch beinahe konstant bei 50 %. Alle Versuche des Forschungsministeriums, daran etwas zu ändern, liefen ins Leere. Besonders groß waren die Enttäuschungen hinsichtlich der Transferfunktion, die den Großforschungseinrichtungen entsprechend dem linearen Modell zugedacht worden war. Das Bundesforschungsministerium bemühte sich deshalb in den späten siebziger und frühen achtziger Jahren intensiv darum, Großforschung und Industrie wieder stärker zusammenzubringen. Die Großforschungseinrichtungen sollten am Bedarf der Industrie ausgerichtet und die Überführung technologischer Entwicklungen aus der Großforschung in die industrielle Anwendung erleichtert werden. Doch obwohl das Ministerium den Großforschungseinrichtun69
NEUE TECHNIK AUF ALTEN PFADEN?
gen ab 1978 als Anreiz zwei Drittel ihrer durch Technologietransfer erzielten Einnahmen gutschrieb und sich die Großforschungseinrichtungen tatsächlich auch verstärkt um Industrieaufträge bemühten, blieb der Beitrag aus Patent- bzw. Lizenzerlösen am Gesamthaushalt der Zentren mit etwa 3 % unbedeutend. Und auch der Versuch des Ministeriums, Verbundforschungsprojekte zwischen Großforschungseinrichtungen und Industrie in Gang zu setzen, führte nicht zu den erhofften Ergebnissen. Zwar wurden etliche Verbundprojekte gestartet, inhaltlich bewegten sich diese aber überwiegend im Bereich einer eher anwendungsfernen Forschung, die nur einen losen Zusammenhang mit vermarktbaren Produkten erkennen ließ. Das vom Bundesforschungsministerium angestrebte Ziel einer stärkeren Verknüpfung von Großforschung und Industrie wurde mit diesen Maßnahmen nicht erreicht. Die Industrie verlor ihr Interesse an den Großforschungseinrichtungen und wandte sich attraktiveren Partnern zu, die wie die Fraunhofer-Gesellschaft bereits über einige Erfahrung mit industriellen Forschungs- und Entwicklungsprojekten verfügten. Die Großforschungseinrichtungen taten sich dagegen schwer, den in den fünfziger und sechziger Jahren eingeschlagenen Weg langfristig angelegter Großprojekte zu verlassen und die damit einhergehenden Technikvorstellungen aufzugeben. Das lag nicht zuletzt an der erwähnten »Konservierung« des wissenschaftlich-technischen Personals. Der Bundesverband der Deutschen Industrie bemängelte denn auch 1984 die Inflexibilität der Großforschungseinrichtungen, die sich viel zu sehr auf den Bereich Kernforschung konzentrieren würden. Dem Bundsforschungsministerium blieb schließlich keine andere Wahl, als seine Erwartungen an die Großforschung deutlich herunterzuschrauben (Hohn/ Schimank 1990: 285–290). Doch das sind schon Entwicklungen der achtziger Jahre. Kehren wir an dieser Stelle noch einmal in die Mitte der sechziger Jahre zurück.
3.4 Technologiepolitische Profilbildung auf Bundesebene (1965–73) Johannes Bähr (1995: 118f.) spricht den frühen Bemühungen der deutschen Bundesregierung um die zivile Nutzung der Kernenergie das Attribut Technologiepolitik ab und verlegt deren Anfänge in die Mitte der sechziger Jahre. Auch wenn diese Zuordnung nur bedingt überzeugt, bleibt der Befund, dass in der bundesdeutschen Forschungs- und Technologiepolitik zur Mitte der sechziger Jahre ein Strategiewechsel eingeläutet wurde, der diesem Politikfeld ein neues Profil verlieh. So erfuhr 70
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
die programmorientierte Förderung, die 1957 mit der zivilen Kernenergienutzung ihren Anfang genommen hatte und 1962 um die Weltraumforschung ergänzt worden war, eine Intensivierung und Ausweitung – ablesbar an der Verabschiedung der Programme »Elektronische Datenverarbeitung« (1967), »Meeresforschung« (1968) und »Neue Technologien« (1969). Vor allem aber änderte sich der konzeptionelle Ansatz der Forschungs- und Technologiepolitik. Planung und Steuerung des technischen Fortschritts wurden nun als Möglichkeiten und Aufgaben staatlichen Handelns begriffen, dessen erklärtes Ziel es war, die internationale Wettbewerbsfähigkeit der heimischen Industrie langfristig zu stärken und zu sichern. Dieser forschungs- und technologiepolitische Strategiewechsel vollzog sich vor dem Hintergrund der Debatte um den technologischen Rückstand Westeuropas gegenüber den USA. Diese schloss bruchlos an die Diskussion über die Produktivitätslücke an, die im Zeichen des European Recovery Program (1948) eingesetzt hatte und während der fünfziger Jahre auf internationaler Ebene – etwa im Rahmen der Organisation for European Economic Cooperation (OEEC) – geführt worden war. Im Mittelpunkt hatte dort das Produktivitätsgefälle zwischen den USA und den westeuropäischen Staaten gestanden, für das verschiedene Faktoren verantwortlich gemacht wurden, beispielsweise das Fehlen moderner Produktionstechniken, Managementstile und Organisationsmethoden in der westeuropäischen Industrie. Ende der fünfziger Jahre rückten dann Wissenschaft und Technik ins Zentrum der Diskussion und – gemäß dem linearen Modell – damit auch die Frage nach der Umsetzung wissenschaftlicher Erkenntnisse in technologische Produkte. Mit Gründung der OECD, der Nachfolgeorganisation der OEEC, verengte sich die Diskussion Anfang der sechziger Jahre schließlich auf den Topos der technologischen Leistungsfähigkeit und deren Ursprünge in Bildung und Forschung (Godin 2002). Die OECD hatte sich von Anfang an die Förderung der Forschungsund Technologiepolitik ihrer Mitgliedstaaten auf die Fahnen geschrieben, da sie in diesem Politikfeld einen wirksamen Hebel für eine Verstetigung des wirtschaftlichen Wachstums vermutete (Godin 2002). Wichtige Impulse dafür kamen aus den Wirtschaftswissenschaften. Robert Solow hatte 1956/57 in zwei bahnbrechenden Arbeiten, die ihm später den Nobelpreis einbringen sollten, den technischen Fortschritt als Hauptfaktor langfristigen Wirtschaftswachstums identifiziert. Dabei hatte er den technischen Fortschritt als Residuum in sein Wachstumsmodell eingeführt, d.h. als eine nicht weiter spezifizierte Restgröße, die die klassischen Produktionsfaktoren Boden, Arbeit und Kapital allerdings an Bedeutung weit übertraf. Solow und Moses Abramowitz, der sich 71
NEUE TECHNIK AUF ALTEN PFADEN?
ebenfalls Mitte der fünfziger Jahre diesem Thema zugewandt hatte, errechneten für den Beitrag des technischen Forschritts zum Wirtschaftswachstum der USA in der ersten Hälfte des 20. Jahrhunderts einen Wert von mehr als 50 %. Im Gefolge dieser Arbeiten wurde dann versucht, das Solow-Residuum näher zu bestimmen und in seine Komponenten zu zerlegen. Dabei gerieten Bildung und Forschung »as basic factors in the process of economic growth« in den Blick der Ökonomen. Eine intensive Beschäftigung mit diesen Faktoren versprach ein besseres Verständnis wirtschaftlicher Prozesse und zugleich Handlungswissen für die Politik (Freeman et al. 1963, Zitat S. 16). Neben einer stärkeren theoretischen Durchdringung des Themas bedurfte es einer breiten empirischen Basis, um belastbare Aussagen über den Einfluss von Bildung und Forschung auf die wirtschaftliche Entwicklung sowie über Möglichkeiten ihrer politischen Gestaltbarkeit machen zu können. Die OECD bemühte sich daher um einheitliche Indikatoren, mit denen sich technischer Fortschritt messen und international vergleichen ließ (siehe Freeman et al. 1963; Freeman/Young 1965). Das bereits im Zusammenhang mit dem linearen Modell erwähnte Frascati Manual, das in mehrfach überarbeiteter Form bis heute die Standards für die Datenerhebung in den OECD-Staaten definiert, war ein Ergebnis dieser Bemühungen. Darüber hinaus wurden rasch erste empirische Befunde bekannt, die auf eine Kluft zwischen den USA und Westeuropa deuteten. 1965 publizierte die OECD eine Studie, die von Christopher Freeman und A. J. Young erarbeitet worden war und – wie ein zeitgenössischer Beobachter bemerkte – »viel Staub aufgewirbelt« hat (Standke 1967:595). Die Freeman/Young-Studie zeigte, dass die Forschungs- und Entwicklungsausgaben der USA und der Bundesrepublik Deutschland 1962 im Verhältnis von beinahe 16:1 standen. Ein ähnliches Bild brachte der Vergleich der USA mit Frankreich. Dieser irritierende Befund löste sich auch nicht auf, wenn man diese Ausgaben mit der Wirtschaftskraft der untersuchten Länder in Beziehung setzte: Gemessen am Bruttosozialprodukt beliefen sich die Forschungs- und Entwicklungsausgaben der USA auf einen Anteil von 3,1 %, wogegen sich die von Frankreich auf 1,5 % und die der Bundesrepublik auf 1,3 % beschränkten. Diese Unterschiede zwischen den USA und den beiden westeuropäischen Ländern spiegelten sich auch im Anteil des in Forschung und Entwicklung tätigen Personals an der Gesamtzahl der Beschäftigten wider. In den USA lag dieser bei 1,04 %, in Frankreich bei 0,38 % und in der Bundesrepublik bei 0,39 %. Die Schätzungen für die UdSSR, die die Studie ebenfalls unter die Lupe nahm, schwankten zwischen Werten von 0,73 % und 1,04 % für die in Forschung und Entwicklung Beschäftigten (Freeman/ 72
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
Young 1965: 71f.). Dies stand ganz im Einklang mit dem Bild, das sich der Westen von der UdSSR machte, hatte sich diese doch mit dem erfolgreichen Start von Sputnik I im Jahr 1957 als neue Forschungsgroßmacht neben den USA etabliert. Irritierend waren diese Befunde auch wegen des Braindrain, unter dem Westeuropa litt und der die Situation zu verschlimmern drohte. Für die Bundesrepublik wurde beispielsweise eine Abwanderung von Naturwissenschaftlern und Ingenieuren in die USA festgestellt, die 8,2 % aller entsprechenden Hochschulabsolventen des Abschlussjahrganges 1959 betraf (Freeman/Young 1965:76). Obgleich Freeman und Young in der Einleitung ihrer Studie auf deren experimentellen Charakter hinwiesen – die verwendeten Zahlen waren vor der Einführung einheitlicher Standards erhoben worden –, konnte man die Unterschiede zwischen den USA und Westeuropa nicht übersehen. Auch das Internationale Statistische Jahr, das die OECD 1964 ausrief und das nun auf Grundlage des Frascati Manuals durchgeführt wurde, sorgte für keine Beruhigung (siehe Godin 2002: 9–12). In den Zahlen der OECD verdichtete sich ein verbreitetes Unbehagen über den wissenschaftlich-technischen Führungsanspruch der USA, der in Feldern wie der Luft- und Raumfahrt und der elektronischen Datenverarbeitung besonders deutlich zu Tage trat, aber nicht auf diese Bereiche beschränkt schien. Die Vorstellung einer »technologischen Lücke« zu den USA breitete sich aus und wurde zu einem prägenden Moment in der westeuropäischen Selbstwahrnehmung. Dazu trugen insbesondere die Medien bei, allen voran der 1967 erschienene und schnell in 15 Sprachen übersetzte Bestseller »Le Défi Américain«. Autor war der französische Publizist und Mitbegründer der Zeitschrift L’Express, JeanJacques Servan-Schreiber, der mit seinem Buch Kritik an der Regierung de Gaulle üben wollte (vgl. Gannon 1997:161–166). Im Vorwort zur deutschen Ausgabe brachte Franz Josef Strauß »die amerikanische Herausforderung« auf folgenden Nenner: »Europa steht […] vor der Frage, ob es sich in der modernen Welt von morgen als eine Größe sui generis überhaupt noch behaupten kann oder ob es […] ein Satellit der Vereinigten Staaten wird, die ihm nicht nur in den Rohstoffen, was eine geringe Rolle spielt, sondern in Ideen, Planungsintuition, organisatorischen Fähigkeiten, Management, gesellschaftsbildender Kraft, durch Größe und Bevölkerungszahl eines politisch und wirtschaftlich integrierten Raumes, die Fortschrittlichkeit des Erziehungs- und Bildungswesens, Wirtschaftskraft, Finanzstärke, durch die größeren Dimensionen auf allen zukunftsgestaltenden Gebieten überlegen sind.« (Servan-Schreiber 1968: 11)
73
NEUE TECHNIK AUF ALTEN PFADEN?
Angesichts dieser amerikanischen Übermacht schien es geboten, neue Strategien für die Politik zu entwickeln. Forschung und Technik rückten dabei in den Mittelpunkt der europäischen Diskussion um wirtschaftliche Entwicklung und Wettbewerbsfähigkeit (Bähr 1995; Trischler 1999; siehe auch Ritter et al. 1999). Im historischen Rückblick hat sich die »technologische Lücke« als weniger dramatisch erwiesen als von den Zeitgenossen wahrgenommen. Die Fixierung auf Spitzentechnologien, insbesondere auf die von IBM dominierte Computertechnik, hatte hier zu Verzerrungen geführt (vgl. Kapitel 5). Denn eigentlich ließ sich für die fünfziger und frühen sechziger Jahre ein technologischer Aufholprozess der europäischen Staaten gegenüber den USA konstatieren – greifbar etwa in der steten Zunahme der europäischen Arbeitsstundenproduktivität, die sich den USA annäherte und keineswegs von ihr entfernte. Auf diesen Aufholprozess wurde zwar in der zeitgenössischen Diskussion hingewiesen. Prägender waren jedoch Bilder, wie das von Strauß beschworene, die ein Europa unter der wissenschaftlich-technischen und wirtschaftlichen Hegemonie der USA entwarfen (siehe auch Bähr 1995: 116f.). Die Diskussion um die »technologische Lücke« gewann in der Bundesrepublik freilich auch durch die gesamtwirtschaftliche Entwicklung an Brisanz. Nach Jahren ungebremsten Wachstums geriet das »Wirtschaftswunder« 1966/67 ins Stocken. Die Bundesrepublik glitt in ihre erste Rezession. Auch hier war die zeitgenössische Wahrnehmung von einer Dramatik gekennzeichnet, die sich später nicht bestätigt hat. Die Rezession entpuppte sich als vorübergehende »Wachstumsdelle«. Auf das politische System hatte sie dennoch spürbare Auswirkungen und trug zur Bildung der Großen Koalition unter Kurt Georg Kiesinger im November 1966 bei. War die bundesdeutsche Wirtschaftspolitik bis dahin stark von ordoliberalen Ideen geprägt gewesen, so entwickelte die neue Regierung – namentlich das Duo aus Wirtschaftsminister Karl Schiller und Finanzminister Franz Josef Strauß – eine antizyklische Konjunkturpolitik im Sinne von John Maynard Keynes. Diese stand nicht mehr unter dem Leitbild des Interventionsverzichts, sondern folgte dem Prinzip der Globalsteuerung, zu deren wichtigsten Instrumenten staatliche Nachfrageprogramme zählten. Finanziert wurden diese Programme durch ein so genanntes deficit spending, das in einer Phase zukünftigen Wirtschaftswachstums wieder ausgeglichen werden sollte (Wolfrum 2006: 226–234). Die Große Koalition propagierte auch eine Modernisierung der staatlichen Forschungs- und Technologiepolitik. Kiesinger (1971: 190) kündigte in seiner Regierungserklärung vom Dezember 1966 die verstärkte Förderung von Spitzentechnologien an, um »der Gefahr eines technolo74
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
gischen Rückstandes« entgegenzuwirken. Deutliche Anzeichen eines Wandels hatte es in diesem Politikfeld allerdings schon früher gegeben. Denn mit der Diskussion um die »technologische Lücke« war auch Kritik an den Regierungen Adenauer und Erhard laut geworden. Teile der Presse, Industrie und Wissenschaft hatten eine Vernachlässigung der Forschungs- und Technologiepolitik moniert und diese für das Zurückfallen der Bundesrepublik hinter die USA verantwortlich gemacht. Damit war die Forderung nach einem stärkeren Engagement des Staates verbunden gewesen. Bereits die Regierung Erhard konnte diese Kritik nicht einfach ignorieren. Hans Lenk stellte im Vorwort zum Bundesbericht Forschung, der erstmals im Januar 1965 vorgelegt wurde, fest: »Die großen Probleme, die uns die heutige Welt stellt, können nur noch mit Hilfe der Wissenschaft bewältigt werden. Andere Länder haben diese Zusammenhänge eher erkannt als wir. Sie bauen planmäßig mit langjähriger Zielsetzung ihr Hochschulwesen und ihre Forschungseinrichtungen aus – und sie geben der Wissenschaftspolitik die notwendige Priorität unter den Staatsaufgaben.« (BMwF 1965: 1)
Als Konsequenz dieser Defizite formulierte die Regierung Erhard das ehrgeizige Ziel, den Anteil der Ausgaben für Forschung und Entwicklung am Bruttosozialprodukt bis 1970 von 1,9 % auf 3 % zu steigern, »um mit den Planungen vergleichbarer Industrienationen in etwa Schritt halten zu können« (BMwF 1965: 21). Wegen der Wirtschaftskrise von 1966/67 stagnierten die Forschungs- und Entwicklungsausgaben aber zunächst einmal. Ein deutlicher Wiederanstieg konnte erst in der Zeit der Großen Koalition verzeichnet werden. Lagen die staatlichen Ausgaben für Forschung und Entwicklung 1968 bei knapp 5 Mrd. DM, so verdoppelten sie sich bis 1973 auf etwa 10,4 Mrd. DM. Gemessen an der Entwicklung der öffentlichen Haushalte erreichten die staatlichen Forschungs- und Entwicklungsausgaben jedoch schon 1971 ihren Höhepunkt (siehe Abbildung 3-4). Die finanzpolitischen Probleme von 1972, als sich im Bundeshaushalt große Deckungslücken auftaten, schlugen in der Forschungs- und Technologiepolitik in besonderem Maße durch (zu den Haushaltsproblemen siehe Görtemaker 1999: 567–571). Mehr als durch die Absichtserklärung, die Ausgaben der Bundesrepublik für Forschung und Entwicklung nach oben zu schrauben, wurde der Aufbruch in der Forschungs- und Technologiepolitik durch die Berufung Gerhard Stoltenbergs an die Spitze des Bundesforschungsministeriums greifbar. Mit 37 Jahren war der als äußerst dynamisch geltende Stoltenberg der bis dahin jüngste Bundesminister. Er übernahm das Amt 75
NEUE TECHNIK AUF ALTEN PFADEN?
nach der Bundestagswahl von 1965 von Hans Lenz und blieb darin auch während der Großen Koalition, um nach dem Wahlsieg von Willy Brandt im Oktober 1969 das Forschungsministerium an den parteilosen Hans Leussink zu übergeben (siehe auch Krieger 1987: 261f.).15 Abbildung 3-4: Entwicklung der FuE-Ausgaben in der BRD, 1958–2002 4,5 4 3,5 3 2,5 2 1,5 staatl. und private FuE-Ausgaben als Anteil des BNE in %
1
staatl. FuE-Ausgaben als Anteil des öffentl. Gesamthaushalts in %
0,5
2002
1998
1994
1990
1986
1982
1978
1974
1970
1966
1962
1958
0
Quelle: Daten bis 1961 aus BMwF 1965: 114; danach aus BMBF 2004: 351. Die konzeptionelle Neuausrichtung der Forschungs- und Technologiepolitik bündelte sich im Begriff der Planung, der in der zweiten Hälfte der sechziger Jahre zum Synonym modernen Regierungshandelns wurde.16
15 Unter der sozial-liberalen Koalition, die der Bildungspolitik besondere Aufmerksamkeit entgegenbrachte, wurde das Bundesministerium für wissenschaftliche Forschung 1969 um den Bereich der Bildung erweitert und in Bundesministerium für Bildung und Wissenschaft umbenannt. Leussink wurde 1972 von Klaus von Dohnanyi abgelöst, der sich stark für Bildungsfragen interessierte. Noch im gleichen Jahr wurde die Bildung wieder aus dem Forschungsministerium herausgenommen. Ergebnis waren zwei Bundesministerien, eines für Bildung und Wissenschaft und eines für Forschung und Technologie. Ersteres übernahm von Dohnanyi, letzteres Horst Ehmke. Diese organisatorischen Entwicklungsschritte waren für das Forschungsministerium zwar formal wichtig, »für den forschungspolitischen Kompetenzzuwachs hatten diese Veränderung aber kaum Bedeutung« (Stucke 1993: 69) und sollen hier deshalb auch nicht näher behandelt werden. 16 Für eine eingehende Untersuchung politischer Planung in der Bundesrepublik Deutschland siehe Metzler 2005; siehe auch Ruck 2000; sowie Trischler 1990. 76
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
Bereits im Mai 1965 hatte der Deutsche Bundestag die Bundesregierung aufgefordert, »einen Gesamtplan zur Förderung von Wissenschaft und Forschung durch den Wissenschaftsrat erarbeiten zu lassen« (BMwF 1967: 9). Und auch Stoltenberg stellte die Notwendigkeit von Planung immer wieder in den Vordergrund (z.B. Stoltenberg 1969: 31). Seinen Höhepunkt erlebte der Planungsoptimismus jedoch unter der sozialliberalen Koalition. Der Bundesbericht Forschung von 1972, der sich schon durch Format und Layout von den vorangegangenen Berichten abzusetzen suchte, räumte dem Thema »Forschungspolitische Planung« ein eigenes Kapitel ein. Darin wurde die »politische Notwendigkeit staatlicher Forschungsplanung« durch übergeordnete gesellschafts- und wirtschaftspolitische Zielsetzungen, die optimale Nutzung und Verteilung begrenzter materieller und intellektueller Ressourcen sowie die vermehrte internationale Zusammenarbeit in Forschung und Entwicklung begründet. Thematisiert wurden darüber hinaus praktische Probleme der Forschungsplanung und die Frage, wie diese durch neue Planungstechniken, etwa den Einsatz von elektronischen Datenverarbeitungssystemen, zu beheben wären (BMBW 1972: 11–16). Die Vorstellung, staatliche Politik könne und solle den technischen Forschritt steuern, unterschied sich deutlich von den politischen Konzeptionen der fünfziger und frühen sechziger Jahre. Vor dem Hintergrund des Kalten Krieges, aber auch der Erfahrungen des Nationalsozialismus hatten die wissenschaftlichen und politischen Eliten der jungen Bundesrepublik eine tief sitzende Abneigung gegen politische Planung geteilt, die als Signum totalitärer Systeme begriffen wurde. Siegfried Balke hatte im Vorfeld der Gründung des Bundesforschungsministeriums wohlweislich betont: »Es geht nicht um einen neuen Behördenapparat, sondern um einen geistigen Führungskopf im staatlichen Bereich, der mit einem Minimum an Dirigismus und einem Maximum an Selbstverwaltung Wissenschaft und Forschung in ein klares Koordinatensystem bringt. [...] Schon gar nicht kann Forschung durch ein zentrales Ministerium organisiert und geplant werden. [...] Der Geist weht, wo er will.« (Zitiert nach Stucke 1993: 65)
Im Lauf der sechziger Jahre konnte sich der Begriff der Planung jedoch von seinen negativen Konnotationen befreien. Planung wurde nachgerade zum Synonym für wissenschaftlich-rationales Handeln und damit in der bundesdeutschen Politik hoffähig. »An die Stelle der Planungsphobie trat eine technokratisch geprägte Planungseuphorie.« (Bähr 1995: 124) Dahinter stand nicht die Absage an die freie Marktwirtschaft. Die Planungseuphorie wurde vielmehr von der Überzeugung getragen, dass 77
NEUE TECHNIK AUF ALTEN PFADEN?
unter bestimmten Voraussetzungen und in einem zeitlich begrenzten Rahmen die Koordination über den Plan der schnellere Weg war, um seine wirtschaftlichen Ziele zu erlangen, als die Koordination über den Markt. Mit dem Konzept der Planung verband sich ein neues Selbstverständnis der Forschungs- und Technologiepolitik, die sich nicht darauf beschränken wollte, als Förderer eines sich gleichsam autonom vollziehenden wissenschaftlichen und technischen Fortschritts aufzutreten, sondern diesem nun selbst neue Impulse verleihen wollte. Es sollte nicht mehr nur darum gehen, technologische Rückstände aufzuholen. Stattdessen galt es, sich »stärker und konsequenter als bisher solcher Aufgaben an[zu]nehmen, von deren Lösung die weitere Entwicklung der Gesellschaft und Wirtschaft in besonderem Maße abhängt« (BMwF 1967: 7). Unter den drei Fachprogrammen, die in der zweiten Hälfte der sechziger Jahre verabschiedet wurden, drückte sich dieses neue Politikverständnis sicherlich am stärksten im Programm »Neue Technologien« aus. Aber auch die Programme zur elektronischen Datenverarbeitung und zur Meeresforschung spiegeln das erstarkte Engagement der Bundesregierung in der Forschungs- und Technologiepolitik wider. Das Datenverarbeitungsprogramm wird in Kapitel 5 noch ausführlich erörtert. An dieser Stelle genügt der Hinweis, dass es sich dabei um ein hoch ambitioniertes Unternehmen handelte, das darauf abzielte, die Dominanz des Weltmarktführers IBM auf dem Markt für Universalrechner zu brechen. Schwerpunkte der staatlichen Förderung waren industrielle Projekte im Bereich der Rechnerentwicklung. Siemens und AEG (bzw. AEG-Telefunken), die bereits bei der Kerntechnikentwicklung zentrale Adressaten staatlicher Förderpolitik waren, konnten auch bei der Datenverarbeitung besonders stark von öffentlichen Mitteln profitieren. Gemessen an den industriepolitischen Zielen war das bundesdeutsche Datenverarbeitungsprogramm – ähnlich wie gleichartige Programme in den europäischen Nachbarstaaten – jedoch wenig erfolgreich. Der AEG-Telefunken Großrechner TR 440, der als Konkurrenzprodukt zu den wissenschaftlich-technischen Hochleistungsrechnern US-amerikanischer Hersteller konzipiert worden war, stieß beispielsweise nur auf geringe Nachfrage. Das 1969 verabschiedete Gesamtprogramm für die Meeresforschung war eine Art terrestrisches Gegenstück zum Programm »Weltraumforschung«. Es bündelte und koordinierte bestehende Initiativen des Bundes, der Küstenländer und der Deutschen Forschungsgemeinschaft. Schwerpunkt war »Zweckforschung zur Verbesserung der Nutzung des Meeres«. Im Zentrum standen Projekte zur Nahrungs- und Rohstoffgewinnung, zur Bekämpfung der Meeresverschmutzung, zum Küsten78
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
schutz sowie zu den Wechselwirkungen zwischen Ozean und Atmosphäre. Ähnlich wie bei der Weltraumforschung wurde auch hier die Bedeutung internationaler Kooperationen – insbesondere auf europäischer Ebene – hervorgehoben (BMwF 1969: 23f.; BMBW 1972: 102f.). Besonders deutlich trat das neue Selbstverständnis der Forschungsund Technologiepolitik aber im Programm »Neue Technologien« hervor, das »eine Konsequenz aus den Analysen zur ›Technologischen Lücke‹« darstellte (BMwF 1969: 8). Das Programm wurde vom Forschungsministerium als Suchprogramm konzipiert, d.h. es legte sich nicht auf bestimmte Technologien fest. Stattdessen wurde die Industrie – namentlich führende Elektro- und Chemieunternehmen wie Siemens, AEG und Hoechst – aufgefordert, Projektvorschläge zu unterbreiten. Daraus ergab sich eine breite Palette von Förderbereichen, angefangen bei Verkehr und Transport, über Energieversorgung, Umweltschutz, Biologie und Medizin bis hin zu physikalischen und Werkstofftechnologien. Die Förderung der Biotechnologie, mit der sich Kapitel 6 befasst, hat hier ebenfalls ihren Ursprung. Unter der sozial-liberalen Koalition wurde das Programm »Neue Technologien« 1972 abgewandelt, um soziale und ökologische Themen stärker zu berücksichtigen. Die forschungs- und technologiepolitische Aufmerksamkeit galt nun vor allem Projekten zur Verbesserung der Lebens- und Arbeitsbedingungen (vgl. BMFT 1975: 30–38). Das entsprach der Zielvorstellung der Regierung Brandt, auch die gesellschaftlichen Folgen des technischen Fortschritts zum Gegenstand forschungspolitischen Handelns zu machen. Im fünften Bundesbericht Forschung (BMFT 1975: 10) heißt es dazu: »Gesellschaft und Staat stehen vor der Aufgabe, die Lebens- und Arbeitsbedingungen zu verbessern und nachteilige Auswirkungen des technischen und sozialen Wandels zu beseitigen.« Nach einer Phase der weiteren Ausdifferenzierung wurde das Programm, das schon länger unter dem nichts sagenden Titel »Technologische Forschung und Entwicklung« firmierte, Mitte der siebziger Jahre in mehrere Einzelprogramme aufgeteilt.17 Mit der Planungseuphorie der späten sechziger Jahre verbanden sich nicht zuletzt mehrere technologische Großprojekte, die von der Bundesregierung vorangetrieben wurden, letztlich aber am Markt scheiterten. Der bereits erwähnte Großrechner TR 440 ist ein Beispiel. Auf ihn wird in den Fallstudien noch näher einzugehen sein, ebenso wie auf das Kernkraftwerk Niederaichbach und den Schnellen Brüter, die sich ebenfalls als planerische Fehlgriffe erwiesen. Weitere Beispiele sind das
17 Zu Genese und Struktur des Programms »Neue Technologien« siehe Stucke 1993: 121–131; siehe auch Stoltenberg 1969: 46–49; sowie BMBW 1971a. 79
NEUE TECHNIK AUF ALTEN PFADEN?
kernenergiegetriebene Frachtschiff Otto Hahn, das trassengebundene städtische Transportsystem Transurban sowie verschiedene Senkrechtstarter (vgl. Krieger 1987: 257, 265). Bis auf den Schnellen Brüter, dessen Ende erst 1991 beschlossen wurde, liefen alle diese Projekte Mitte der siebziger Jahre aus, als die erste Ölpreiskrise der »heroischen Phase« (Ulrich Wengenroth) der Forschungs- und Technologiepolitik 1973 ein relativ abruptes Ende setzte. Sie war freilich, wie etwa das in französisch-britischer Zusammenarbeit entwickelte Überschallverkehrsflugzeug Concorde belegt, kein spezifisch deutsches Phänomen (siehe Berg/ Mammen 1981). Der Bundesbericht Forschung von 1979 kam nicht umhin, die planerischen Fehlgriffe der Forschungs- und Technologiepolitik einzugestehen – allerdings nicht ohne zu betonen: »Auch ein gescheitertes Projekt kann wichtige Hinweise liefern. Eine zu geringe Rate an Misserfolgen kann ein Indiz für zu wenig risikoreiche FuE-Projekte darstellen.« (BMFT 1979: 35) Nun lässt sich in der Tat argumentieren, dass eine Forschungs- und Technologiepolitik, die auf die Schaffung von Diversität als Grundlage von Pfadwahlprozessen abzielt, um Fehlschläge im Sinne abgebrochener Entwicklungspfade gar nicht herumkommt. Ob der TR 440, das Kernkraftwerk Niederaichbach und der Schnelle Brüter aber für eine Pfadsuche als Teil eines bewusst betriebenen Managements von Pfadbildungsprozessen stehen, wird in den Fallstudien zu klären sein.
3.5 FuT-Politik unter dem Vorzeichen der wirtschaftlichen Wachstumskrise (1973–89/90) Nach dem Konjunktureinbruch von 1966/67 hatte die bundesdeutsche Wirtschaft unter der Großen Koalition wieder kräftig an Fahrt gewonnen. Die Reformpolitik der sozial-liberalen Regierung, die von einer gesamtgesellschaftlichen Aufbruchstimmung getragen wurde, konnte daher bei ihrem Antritt von einem günstigen wirtschaftlichen Klima profitieren. Als Folge stand der Forschungs- und Technologiepolitik für ihre ambitionierten Pläne ein – sowohl relativ zur Entwicklung des öffentlichen Gesamthaushalts als auch absolut – kräftig wachsendes Finanzbudget zur Verfügung (vgl. Abbildung 3-4). Als Ende 1973 die erste Ölpreiskrise die westlichen Industriestaaten in einen Schockzustand versetzte, war die sozial-liberale Euphorie der ersten Jahre allerdings schon verflogen. Die bereits schwelende Weltwirtschaftskrise kam nun zum Ausbruch und setzte den Reformvorhaben der deutschen Bundesregierung wie auch der Regierungen vieler anderer westlicher Länder ein er80
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
nüchterndes Ende. Den Reformern ging schlicht das Geld aus. Der Blick in die Zukunft wurde von der Sorge um die Verknappung der Energieund Rohstoffe getrübt, ohne die wirtschaftliches Wachstum in den Industriestaaten nicht denkbar war. Anders als der Konjunktureinbruch von 1966/67 war die Weltwirtschaftskrise der siebziger Jahre mit dem Instrumentarium keynesianischer Wirtschaftspolitik nicht mehr in den Griff zu bekommen. Entsprechend weitreichend waren die Folgen. Bekämpfung der Arbeitslosigkeit, Konsolidierung der öffentlichen Haushalte und Förderung des Wirtschaftswachstums sind bis heute bestimmende Themen auf der Agenda der Bundespolitik geblieben (Wolfrum 2006: 335–340). Unter dem Vorzeichen der wirtschaftlichen Krise wurden der staatlichen Forschungs- und Technologiepolitik immer stärker strukturpolitische Aufgaben zugewiesen. Besonders prononciert vertraten Volker Hauff und Fritz W. Scharpf diesen Ansatz, für den sie in einem 1975 publizierten Buch mit dem programmatischen Titel »Modernisierung der Volkswirtschaft. Technologiepolitik als Strukturpolitik« warben (Hauff/ Scharpf 1975; siehe auch Hauff 1978). Hauff war seit Ende 1972 Parlamentarischer Staatssekretär im Bundesforschungsministerium und stand ab Februar 1978 an dessen Spitze, wo er allerdings bereits im November 1980 von Andreas von Bülow wieder abgelöst wurde. Scharpf fungierte Mitte der siebziger Jahre als Direktor am Wissenschaftszentrum Berlin, das 1969 auf Initiative von Bundestagsabgeordneten aller Fraktionen als eine Art sozialwissenschaftlicher Denkfabrik für die Politikberatung gegründet worden war. Ausgangspunkt der Überlegungen von Hauff und Scharpf waren die wirtschaftlichen Schwierigkeiten der Industriestaaten, deren Ursachen sie in den strukturellen Verwerfungen des Weltwirtschaftssystems vermuteten. Dabei hoben sie insbesondere auf vier Problemfelder ab: (1) die Verteuerung bzw. Verknappung von Energie- und Rohstoffen, die in den Öl importierenden Staaten zu einer Kaufkraftminderung führte, (2) die Verlagerung der Produktion technisch ausgereifter Konsumgüter in Niedriglohnländer, mit denen die Industriestaaten nicht konkurrieren konnten, (3) das Ausbleiben von Basisinnovationen für neue Technologien, bei denen die Industriestaaten ihre komparativen Vorteile hätten ausspielen können, und schließlich (4) die allmähliche Sättigung der Märkte mit Industrieerzeugnissen, so dass sich Konsum zunehmend von der Erst- auf die Ersatzbeschaffung verlagerte. Als Antwort auf diese Probleme propagierten Hauff und Scharpf eine aktive Strukturpolitik, über deren konkrete Ziele sich Staat, Wirtschaft und Gesellschaft im öffentlichen Dialog verständigen sollten. Sie schlugen als allgemeine Leitlinien die Spezialisierung der Industrie auf Sektoren mit hoher Gewinn81
NEUE TECHNIK AUF ALTEN PFADEN?
schöpfung, die Entwicklung von Technologien und Produkten, mit denen neue Märkte erschlossen werden konnten, sowie die Umstrukturierung bzw. den Ausbau des Dienstleistungssektors vor. Waren die konkreten Ziele des strukturpolitischen Wandels benannt, dann sollte der Forschungs- und Technologiepolitik die Aufgabe zukommen, an ihrer Realisierung mitzuwirken. Hauff und Scharpf betonten in diesem Zusammenhang die Bedeutung der indirekten Förderung von Forschung und Entwicklung sowie die Rolle von kleinen und mittleren Unternehmen für den technischen Fortschritt. Ohne eine klare Definition der strukturpolitischen Ziele – darauf wiesen sie wiederholt hin – fehlte der Forschungs- und Technologiepolitik jedoch der Orientierungsrahmen, in dem sie ihre Strategien formulieren konnte. Um ihrem Argument Nachdruck zu verleihen, führten Hauff und Scharpf im Schlusskapitel ihres Buches als Vorbild Japan an, wo das Industrieministerium bereits eine gesellschaftsübergreifende Diskussion über den notwendigen Strukturwandel initiiert hatte (Hauff/Scharpf 1975; siehe auch Bruder/Dose 1986: 22f.). Folgt man Wolfgang Bruder und Nicolai Dose, dann hatte der strukturpolitische Ansatz wenig Einfluss auf die forschungs- und technologiepolitische Praxis unter der sozial-liberalen Regierung. Als Gründe dafür nennen sie den hohen Fragmentierungsgrad der relevanten Politikfelder und die skeptische Haltung der Forschungsadministration gegenüber Reformkonzepten (Bruder/Dose 1986: 23). Freilich führte auch der von Hauff und Scharpf eingeforderte Dialog über die Ziele einer aktiven Strukturpolitik – wo er überhaupt in Gang kam – zu keinen fassbaren Ergebnissen. Der Forschungs- und Technologiepolitik fehlte es mithin an strukturpolitischen Vorgaben, aus denen sich eine inhaltliche Schwerpunktverlagerung der Förderpolitik hätte ableiten lassen. Noch schwerer wog aber, dass unter dem Vorzeichen der Wirtschaftskrise der finanzielle Spielraum für eine experimentelle Technologieförderung beschränkt war. Die Bundesregierung bzw. das Bundesforschungsministerium schraubten zwar die direkte Förderung von Forschung und Entwicklung in der zweiten Hälfte der siebziger Jahre nochmals kräftig nach oben (vgl. Abbildung 3-5). Der Großteil dieser Gelder wurde jedoch für etablierte Fachprogramme wie die Kern- und Weltraumforschung verausgabt. So flossen 1982 knapp 65 % der Zuwendungen des Bundes für große technische Entwicklungslinien in kerntechnische Projekte, allen voran die bereits in den sechziger Jahren angestoßene Entwicklung des Schnellen Brüters, dessen Kosten ab Mitte der siebziger Jahre geradezu explodierten (BMFT 1984: 76; zum Schnellen Brüter siehe Kapitel 4.4 und 4.5).
82
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
Abbildung 3-5: Entwicklung der staatlichen FuE-Ausgaben für Projekte der gewerblichen Wirtschaft (direkte Förderung), 1962–82 6.000 5.000
Ausgaben des Bundes in Mio. DM
4.000
davon Ausgaben des BMFT in Mio. DM
3.000 2.000 1.000
1982
1980
1978
1976
1974
1972
1970
1968
1966
1964
1962
0
Quelle: BMFT 1984: 74. Da für neue und große technologische Fachprogramme das Geld fehlte, wurde es für die Forschungs- und Technologiepolitik umso wichtiger, symbolträchtige Felder zu besetzen. Ein anschauliches Beispiel hierfür bietet das gemeinsam vom Bundesforschungsministerium und dem Bundesministerium für Arbeit und Sozialordnung aus der Taufe gehobene Aktionsprogramm »Forschung zur Humanisierung der Arbeitswelt«, das eine deutlich sozialdemokratische Handschrift trug, aber trotz gegenteiliger Behauptungen des Forschungsministeriums wenig mit Strukturpolitik zu tun hatte. Im Zentrum des Programms stand die Förderung von Forschungen zur Verbesserung von Arbeitsschutz, Arbeitstechnologien, Arbeitsplätzen und Arbeitsorganisation sowie die Umsetzung der gewonnenen Erkenntnisse in die Praxis mit dem Ziel, dass »Lebensqualität und Menschenwürde […] gerade in der Arbeitswelt für den Menschen ihren unmittelbaren erfahrbaren Sinn bekommen«. Hier ging es vor allem darum, die Verhandlungsposition der Betriebsräte bei der Gestaltung von Arbeitsplätzen und Arbeitsabläufen in den Unternehmen durch wissenschaftliche Expertise zu stärken. Die jährlichen Aufwendungen für das Programm stiegen bis 1982 auf immerhin 150 Mio. DM. Im Gesamtetat des Forschungsministeriums blieb das freilich ein verschwindend geringer Posten (BMFT 1979: 59–61, Zitat S. 59). Die hohe symbolische Bedeutung des Programms für die Inszenierung sozialdemokratischer Forschungs- und Technologiepolitik lässt sich daran ablesen, dass unter der Regierung von Helmut Kohl die Fördergelder für die83
NEUE TECHNIK AUF ALTEN PFADEN?
sen Bereich reduziert wurden und sein Schwerpunkt verlagert wurde. Im Vordergrund stand nun das diffuse Ziel, »Innovationshemmnisse zu überwinden und Gestaltungschancen zu nutzen« (BMFT 1988: 148; siehe auch Stucke 1993: 132f.). Mit dem programmatischen Ansatz, Forschungs- und Technologiepolitik als Strukturpolitik zu begreifen, rückten kleine und mittlere Unternehmen ins Blickfeld der Forschungsförderung. Volker Hauff formulierte für sein Ministerium: »Ich halte es für eine der wesentlichen Aufgaben […] gerade auch kleinere Unternehmen bei der Bewältigung des Strukturwandels aktiv zu unterstützen.«18 Dazu hatte die Bundesregierung ein forschungs- und technologiepolitisches Gesamtkonzept für kleine und mittlere Unternehmen erarbeitet, das 1978 verabschiedet wurde. Es sah als direkte Fördermaßnahme eine stärkere Einbindung dieser Unternehmen in geeignete Fachprogramme vor. Das waren laut Forschungsministerium vor allem die Förderungsprogramme Optik, Messtechnik, Humanisierung des Arbeitslebens, Gesundheitstechnologien, Materialentwicklung und Anwendung elektronischer Bauelemente. Darüber hinaus zielte das Gesamtkonzept auf indirekte bzw. indirektspezifische19 Maßnahmen wie Kapital- und Kredithilfen, steuerliche Erleichterungen sowie Zuschüsse für Vertrags- und Gemeinschaftsforschung (BMFT 1979: 29–31). Auch wenn Großunternehmen wie Siemens oder AEG Hauptnutznießer der staatlichen Förderung blieben, erhöhte die Bundesregierung im Rahmen des Gesamtkonzeptes die FuEFörderung für kleine und mittlere Unternehmen von 101,4 Mio. DM im Jahr 1974 auf 736,5 Mio. DM im Jahr 1980.20 Als »klein« oder »mittel« wurden dabei Unternehmen mit einem Umsatz bis zu 200 Mio. DM eingestuft, die nicht überwiegend mit Großunternehmen verbunden waren (BMFT 1981: 41). Von den konservativen Oppositionsparteien wurde die Forschungsund Technologiepolitik der sozial-liberalen Regierung heftig kritisiert. Anders als in den fünfziger und sechziger Jahren, in denen dieses Politikfeld über die Haushaltsdebatten hinaus wenig parlamentarische Beachtung fand, wurde es seit Mitte der siebziger Jahre in wachsendem
18 »Nach vorne ohne Zorn«, Artikel in DIE ZEIT vom 13. Oktober 1978, abgedruckt in Hauff 1978: 13–21, Zitat S. 19. 19 Darunter wurden Maßnahmen verstanden, die Merkmale der direkten und indirekten Förderung aufwiesen, z.B. die staatliche Risikobeteiligung an der Deutschen Wagnisfinanzierungsgesellschaft (BMFT 1979: 29). 20 Allein die Förderung, die Siemens zwischen 1967 und 1979 im Rahmen der Datenverarbeitungsprogramme erhielt, belief sich auf eine Mrd. DM; siehe dazu Kapitel 5. 84
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
Maße als Ort parteipolitischer Auseinandersetzung genutzt.21 So stellte die CDU/CSU-Fraktion im August 1981 einen Antrag auf Neuorientierung der Forschungs- und Technologiepolitik, in dem es hieß: »Die Forschungs- und Technologiepolitik der Bundesregierung ist bürokratisch, d.h. risikofeindlich und zukunftsblind, sie ist wettbewerbsverzerrend, sie trägt zunehmend Subventionscharakter und baut damit mehr Hemmnisse bei der Innovation auf, als dass sie die Mobilisierung der Innovationspotentiale fördert.«22
Angesichts leerer Kassen sei eine Neuorientierung der Forschungs- und Technologiepolitik notwendig. Gefordert wurden neben einer angemessenen Finanzierung der Grundlagenforschung der Abbau der direkten und die Stärkung der indirekten Förderung von Forschung und Entwicklung, die gezielte Unterstützung kleiner und mittlerer Unternehmen, deren Probleme »vor allem in den an FuE anschließenden Phasen der Innovation« lägen, sowie eine Reduzierung der Forschungsverwaltung, speziell des »Beraterunwesens«.23 Dieser Antrag der Opposition erhöhte zwar den Druck auf die aus verschiedenen Gründen bereits ins Trudeln geratene Regierungskoalition. Besonders galt das für die SPD, die für die Forschungspolitik verantwortlich war und in der damals bereits heftig über den Schnellen Brüter und die Zukunft der Kernenergie gestritten wurde. Zu einem politischen Kurswechsel kam es zunächst aber nicht. Ein gutes Jahr später, im Oktober 1982, wurde Helmut Schmidt dann mit einem konstruktiven Misstrauensvotum gestürzt, und die neue Regierungskoalition aus CDU/CSU und FDP wählte Helmut Kohl zum Bundeskanzler. Mit dem Regierungswechsel übernahm Heinz Riesenhuber das Amt des Bundesforschungsministers von Andreas von Bülow. Für die Unionsparteien waren nun die Voraussetzungen gegeben, die in der Opposition angemahnte Neuorientierung der Forschungs- und Technologiepolitik einzuleiten. Die Richtung war – wie es Kohl (1982) etwas umständlich als politische Leitlinie seiner Regierung formulierte – »weg von mehr Staat, hin zu mehr Markt«. Ziel der neuen Politik sollte es sein, »die Eigeninitiative im Sinne des Subsidiaritätsprinzips zu stärken, die auf Innovation gerichteten Steuerungs- und Antriebsfunktionen des Marktes im Sinne eines wirksamen Wettbewerbs zu unterstützen und
21 Siehe dazu auch die in Kapitel 4.5 diskutierten Umstände, die zur Einsetzung der Enquete-Kommission »Zukünftige Kernenergie-Politik« im März 1979 führten. 22 Deutscher Bundestag, Neuorientierung der Forschungs- und Technologiepolitik, Drucksache 9/765 (27.8.1981), S. 1. 23 Ebd. 85
NEUE TECHNIK AUF ALTEN PFADEN?
Behinderungen des Wettbewerbs zu vermeiden«.24 Das war eine deutliche Absage an den Steuerungsanspruch sozialdemokratischer Forschungs- und Technologiepolitik. Deren Planungseuphorie hatte sich in den siebziger Jahren zwar bereits gelegt. Symptomatisch dafür war der Bundesbericht Forschung von 1975, der den Begriff der Planung im Gegensatz zu dem vorangegangenen Bericht nur noch sehr sparsam verwendete und dafür vermehrt von »Koordination und Kooperation« sprach. Mit dem von Hauff und Scharpf formulierten Ansatz einer aktiven Strukturpolitik verband sich gleichwohl die Vorstellung, den technischen Fortschritt auf eine neue, im gesellschaftlichen Dialog ausgehandelte Industriestruktur hin zu orientieren. Die konservativ-liberale Regierung wies der Forschungs- und Technologiepolitik ebenfalls strukturpolitische Aufgaben zu. Gleichzeitig betonte sie jedoch: »Forschungsund Strukturpolitik sind aber nicht legitimiert, die Industriestruktur in ganz bestimmte Bahnen zu lenken.«25 Mit der Einschränkung des staatlichen Steuerungsanspruchs verband sich eine stärkere Akzentuierung der Grundlagenforschung. Im ersten Bundesbericht Forschung, den die neue Regierung 1984 vorlegte, wurde bei der Darstellung der politischen Leitlinien an die Ursprünge der modernen Naturwissenschaften in der Renaissance erinnert, um Wissenschaft und Forschung zunächst einmal »als zentralen Ausdruck unserer Kultur« zu markieren. Als zweite Funktion wissenschaftlicher Forschung nannte der Bericht die Bereitstellung von »Orientierungswissen […] für die gedankliche Durchdringung heutiger gesellschaftlicher Probleme als Vorbedingung für sachgemäße, möglichst widerspruchsfreie Problemlösungen«, und erst an dritter Stelle wurde die Bedeutung von Forschung für die »wissenschaftlich-technische Innovation« hervorgehoben, nicht ohne zuvor noch zu betonen, dass die Wissenschaft von der Politik nicht überfordert werden dürfe (BMFT 1984: 11f.). Nach den hohen Erwartungen, die die Forschungs- und Technologiepolitik nicht zuletzt durch ihre strukturpolitischen Ambitionen unter der sozialliberalen Regierung genährt hatte, schien sich hier eine bescheidenere, vielleicht auch realistischere Haltung gegenüber den Möglichkeiten staatlich geförderter Forschung anzubahnen. Angesichts der strukturellen Probleme der bundesdeutschen Wirtschaft ließ sich diese Position freilich auf Dauer nur schwer durchhalten. Zwar stieg der Anteil der Grundlagenforschung an den FuE-Ausgaben des Bundes zwischen 1983 und 1991 von 24,4 % auf 28,1 % an (BMFT 1993: 80). Doch schon der 24 Vgl. Deutscher Bundestag, Neuausrichtung der Forschungs- und Technologiepolitik in der Bundesrepublik Deutschland, Drucksache 10/710 (30.11.1983), Zitat S. 4. 25 Ebd., S. 17. 86
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
Bundesbericht Forschung von 1988 rückte bezeichnenderweise wieder die Bedeutung von Forschung und Entwicklung für die Sicherung der »internationalen Wettbewerbsfähigkeit in Hochtechnologie-Bereichen« in den Vordergrund (BMFT 1988: 13). Ziel war es demnach, ein Instrumentarium zu schaffen, das einen schnellen Transfer der Ergebnisse der Grundlagenforschung in neue Produkte und Prozesse erlaubte. Demgegenüber konnte »nicht mehr jedes wünschenswerte Programm oder Projekt rein erkenntnisorientierter Grundlagenforschung […] durchgeführt werden« (BMFT 1993: 8). Ein wichtiges Instrument, mit dem der Wissenstransfer aus der Grundlagenforschung in die Anwendung beschleunigt werden sollte, war die Verbundforschung, d.h. »die arbeitsteilige Bearbeitung übergreifender, thematisch-funktionell zusammenhängender Problemstellungen in Forschung und Entwicklung durch mehrere Unternehmen und Forschungsinstitute« (BMFT 1984: 29). Nach Angabe des Bundesforschungsministeriums entfielen Ende der achtziger Jahre etwa 60 % der Mittel für die direkte Projektförderung marktorientierter Technologien auf diesen Fördertyp. Schwerpunkte waren dabei Felder wie Fertigungstechnik, Informationstechnik und Materialforschung (BMFT 1988: 44). Um den Anteil der direkten Förderung von Forschung und Entwicklung zugunsten der indirekten bzw. indirekt-spezifischen Förderung zurückzufahren, betonte die neue Bundesregierung das Subsidiaritätsprinzip. Damit unterschied sie sich – zumindest programmatisch – von der sozial-liberalen Koalition, die die direkte Forschungsförderung bevorzugt hatte, da sie am besten geeignet schien, »Forschung und Entwicklung in der Wirtschaft im öffentlichen Interesse gezielt und wirksam zu unterstützen, wenn die privatwirtschaftlichen Kräfte allein nicht ausreichen«.26 Dennoch war bereits unter Hauff im Rahmen der Förderung kleiner und mittlerer Unternehmen der Anteil der indirekten und indirekt-spezifischen Maßnahmen erhöht worden. Letztlich war dieser mit etwa 20 % jedoch nicht über den Wert von 1974 hinausgekommen (vgl. Abbildung 3-6), der wegen des Wegfalls von Sonderabschreibungen für Forschung und Entwicklung im Jahr darauf schlagartig unter den Wert von 10 % gefallen war (BMFT 1979: 29). Unter der konservativ-liberalen Regierung erreichte die indirekte Förderung Mitte der achtziger Jahre erstmals einen Anteil von etwa 30 % und lag damit deutlich höher als unter der sozial-liberalen Regierung.
26 Deutscher Bundestag, Aufgaben der Bundesregierung im Bereich der Forschungs- und Technologiepolitik, Drucksache 8/1252 (24.11.1977), S. 3. 87
NEUE TECHNIK AUF ALTEN PFADEN?
Abbildung 3-6: Relative Entwicklung direkter und indirekter Förderung ziviler FuE in Unternehmen der gewerblichen Wirtschaft durch den Bund, 1974–86
100% 90% 80% 70%
Direkte Förderung
60%
Indirekte bzw. indirekt-spezifische Förderung
50% 40% 30% 20% 10% 1986
1985
1984
1983
1982
1981
1980
1979
1978
1977
1976
1975
1974
0%
Quelle: BMFT 1984: 78; BMFT 1988: 88f., 98; sowie eigene Berechnungen. Wie schon unter der sozial-liberalen Koalition wurden die indirekten Fördermaßnahmen hauptsächlich mit den kleinen und mittleren Unternehmen in Verbindung gebracht. Während sich die Förderausgaben für diese Unternehmen in etwa auf dem bereits 1982 erreichten Niveau hielten, bemühte sich die konservativ-liberale Regierung um neue Förderinstrumente. Dazu zählten Information und Beratung des Mittelstandes über neue Technologiefelder, Förderung der Zusammenarbeit zwischen Wirtschaft und Wissenschaft, Unterstützung technologieorientierter Unternehmensgründungen und stärkere Öffnung der direkten Projektförderung für den Mittelstand (siehe BMFT 1988: 99–106). Alles in allem fiel der Bruch in der Forschungs- und Technologiepolitik durch den Regierungswechsel von 1982 weit schwächer aus, als es die harsche Kritik der Konservativen an der Vorgängerregierung hätte vermuten lassen (vgl. Wollmann 1989: 59). Das kann freilich kaum verwundern. Zum einen waren zahlreiche forschungs- und technologiepolitische Maßnahmen, die die Regierung Kohl in den Vordergrund rückte, bereits unter Bundeskanzler Schmidt eingeleitet worden. Zum anderen galt natürlich auch für die konservativ-liberale Regierung, dass sie sich 88
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
nicht über die Zwänge klammer öffentlicher Haushalte hinwegsetzen konnte. Handlungsspielräume für kostenintensive Maßnahmen waren daher fast nur durch Umverteilungen innerhalb des Budgets der Forschungs- und Technologiepolitik zu gewinnen, und hier machte sich das Beharrungsvermögen etablierter Förderstrukturen bemerkbar. Kernforschung oder Weltraumforschung, mit denen sich eine ausladende Forschungsinfrastruktur verband, waren nicht ohne Weiteres zu reduzieren, obgleich dafür der politische Wille vorhanden war. Festhalten lässt sich deshalb, dass die Forschungs- und Technologiepolitik der konservativliberalen Regierung von dem Bemühen gekennzeichnet war, die in den späten siebziger Jahren eingeleitete Ausdifferenzierung der Förderinstrumente weiterzuführen und dadurch deren Effizienz zu steigern.
3.6 Die deutsche Wiedervereinigung als Zäsur in der FuT-Politik? Die Entwicklung der staatlichen FuE-Ausgaben ist ein guter Indikator, wenn es darum geht, mögliche Einschnitte in der bundesdeutschen Forschungs- und Technologiepolitik zu identifizieren. Der Kurvenverlauf in Abbildung 3-4 zeichnet den Konjunktureinbruch von 1966/67, der dem Planungsgedanken in der Politik zum Durchbruch verhalf, ebenso nach wie die Haushaltsprobleme von 1972 und die danach einsetzende Wirtschaftskrise, der das Forschungsministerium mit strukturpolitischen Konzepten, vor allem aber mit einer Differenzierung des Förderinstrumentariums entgegenzutreten versuchte. Einen solchen Einschnitt markiert auch das Jahr 1991, in dem der Kurvenverlauf schlagartig abfällt. Es drängt sich deshalb die Frage auf, ob mit der deutschen Wiedervereinigung eine neue Phase in der staatlichen Forschungs- und Technologiepolitik begann. Die Wiedervereinigung war zunächst eine große strukturelle Herausforderung. 1965 hatte das Forschungsministerium den politischen Ritualen der damaligen Zeit folgend in seinen »Überlegungen zu einer Wissenschaftspolitik« betont, dass »Vorsorge für den Fall der Wiedervereinigung zu treffen« sei (BMwF 1965: 8). 25 Jahre später traf die Wiedervereinigung nicht nur die Forschungs- und Technologiepolitik völlig unvorbereitet. Mit dem überraschenden Zusammenbruch der DDR stand die Politik plötzlich vor der Aufgabe, zwei Forschungssysteme, die sich in ihrer Struktur weit auseinander entwickelt hatten, wieder miteinander zu fusionieren. Das warf eine Reihe von Fragen auf, beispielsweise die, wie mit der Akademie der Wissenschaften verfahren werden sollte, die eine zentrale Säule des Forschungssystems der DDR gewesen war, aber 89
NEUE TECHNIK AUF ALTEN PFADEN?
kein institutionelles Pendant in der Bundesrepublik besaß. Der Weg, der schließlich beschritten wurde, war die Angleichung des ostdeutschen an das westdeutsche Forschungssystem. Der Einigungsvertrag vom August 1990 sprach etwas verbrämt von der »Einpassung von Wissenschaft und Forschung in dem in Artikel 3 genannten Gebiet [den neuen Bundesländern und Ostberlin; T.W.] in die gemeinsame [!] Forschungsstruktur der Bundesrepublik Deutschland«.27 De facto bedeutete das den Abbau von Forschungskapazitäten in Ostdeutschland, d.h. die Auflösung zahlreicher Institute und Organisationen, allen voran die Akademie der Wissenschaften (siehe Wolf 1996), und wo möglich ihre Überführung in westdeutsche Organisationseinheiten wie die Fraunhofer-Gesellschaft und die Großforschungseinrichtungen. Dabei orientierten sich der Bund und die betroffenen Länder an den Empfehlungen des Wissenschaftsrates, der das ostdeutsche Forschungssystem in einem gewaltigen Kraftakt einer Gesamtevaluation unterzog (BMFT 1993: 22–25). Der Abbau der Forschungskapazitäten schloss das wissenschaftliche Personal in den neuen Bundesländern mit ein, von dem – schon aus finanziellen Gründen – nur ein Teil in die neuen Strukturen übernommen werden sollte. Die Folge war eine Kündigungswelle, bei der nach einschlägigen Schätzungen mindestens 12.000 in Wissenschaft und Forschung tätige Personen entlassen wurden. In diese Zahl sind die 3.500 Mitarbeiter und Mitarbeiterinnen der Akademie der Wissenschaften noch nicht eingerechnet, die ebenfalls ihren Arbeitsplatz verloren haben (Ash 1999: 335–338). Hinter dieser massenhaften Entlassung stand die Tatsache, dass die Bundesrepublik Deutschland und die DDR trotz vierzigjähriger Systemdifferenz noch Ende der achtziger Jahre über erstaunlich ähnliche wissenschaftlich-technische Spezialisierungsmuster verfügten. Vergleicht man die Publikations- und Patentprofile der beiden deutschen Staaten, dann wird deutlich, dass von wenigen Ausnahmen abgesehen ihre Stärken und Schwächen in denselben Feldern lagen. Die Wiedervereinigung brachte deshalb keine substanzielle Erweiterung wissenschaftlich-technischer Kompetenzen mit sich, sondern die Doppelung bestehender (Grupp et al. 2002: 69–78). Die so entstandenen »Redundanzen« wurden dann zu Lasten der ostdeutschen Wissenschaftler und Wissenschaftlerinnen aufgelöst. Demgegenüber war der Anteil der Wissenschaftler und Wissenschaftlerinnen, die wegen einer als untragbar bewerteten Nähe zum politischen Regime der DDR ihren Arbeits-
27 Vertrag zwischen der Bundesrepublik Deutschland und der Deutschen Demokratischen Republik über die Herstellung der Einheit Deutschlands (Einigungsvertrag - EV), Artikel 38 (1), zitiert nach: http://www.bpb.de/ wissen/BJPZYZ,0,0,Einigungsvertrag.html; 18.7.2006. 90
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
platz verloren haben, mit 10 % an allen Entlassungen eher gering (Ash 1995: 336). Der Umbau des ostdeutschen Forschungssystems erfolgte in bemerkenswert kurzer Zeit. Die Bundesregierung konnte schon 1993 die Neubzw. Umgründung von mehr als hundert außeruniversitären Forschungseinrichtungen durch Bund und Länder verkünden. Davon fielen in den Geschäftsbereich des Bundsforschungsministeriums drei neue Großforschungseinrichtungen, vierundzwanzig neue Einrichtungen der Blauen Liste, neun neue Einrichtungen der Fraunhofer-Gesellschaft sowie einige neue Einrichtungen der Max-Planck-Gesellschaft, die zudem die Gründung von mindestens einem Forschungsinstitut in jedem der neuen Bundesländer in Aussicht stellte (BMFT 1993: 23). Für eine abschließende Bewertung des Umbaus des ostdeutschen Forschungssystems müssten neben diesen Neu- und Umgründungen freilich auch die angefallenen Opportunitätskosten in Rechnung gestellt werden ebenso wie das Schicksal derer, die dabei ihren Beruf verloren haben. Zu diskutieren wäre angesichts der oben umrissenen Kompetenzdoppelungen aber auch, ob und welche realistischen Alternativen es zu dem beschrittenen Weg gegeben hat. An dieser Stelle beschränken wir uns auf die Frage, welche Auswirkungen die Wiedervereinigung auf die staatliche Forschungs- und Technologiepolitik jenseits der Verwerfungen hatte, die sich unmittelbar aus der Fusion der beiden Forschungssysteme ergaben. Zwei Aspekte sollen hier kurz angesprochen werden. Zum einen die wirtschaftlichen Probleme des wiedervereinigten Deutschlands – angefangen bei der hohen Arbeitslosigkeit über die Sicherung der Sozialsysteme bis hin zu den Defiziten der öffentlichen Haushalte –, die ihre Ursachen zwar nicht in der Wiedervereinigung haben, durch diese jedoch verstärkt wurden. Mit diesen Problemen wuchs die allgemeine Erwartung an die Forschungs- und Technologiepolitik, zu ihrer Lösung beizutragen. Das erhöhte den Erfolgsdruck auf die Politik, die an den oft überzogenen Vorstellungen über ihre Möglichkeiten freilich nicht unschuldig war. Zum anderen stellte sich vor dem Hintergrund der allgemeinen wirtschaftlichen Probleme auch die Frage nach der generellen Leistungsfähigkeit des westdeutschen Forschungssystems, das ja eben erst in die neuen Bundesländer exportiert worden war (vgl. Krull/Sommer 2006). Die Bundesregierung stellte 1993 dazu fest: »Der Aufbau [sic!] der Forschung in Ostdeutschland gibt nun auch Anlass zu einer umfassenden Bestandsaufnahme der gesamten deutschen Forschung und Forschungspolitik, um unter dem Gesichtspunkt neuer Qualitäten die Strukturen, die Prioritäten, die Förderstrategien und die Verteilung der Forschungs-
91
NEUE TECHNIK AUF ALTEN PFADEN?
standorte ganz Deutschlands zu überdenken und neue Forschungsfelder und -aufgaben zu erschließen.« (BMFT 1993: 25)
Tatsächlich setzte Mitte der neunziger Jahre eine intensive, bis heute andauernde Diskussion über die Restrukturierung des deutschen Innovationssystems ein, die in vielen Bereichen bereits zu greifbaren Veränderungen geführt hat. Wieder einmal dienen dabei die USA als Vorbild. Besonders deutlich wird das am Beispiel der neuen Biotechnologie (siehe auch Kapitel 6). Deren Situation wurde in der Bundesrepublik auch Mitte der neunziger Jahre trotz einer Vielzahl vorangegangener staatlicher Fördermaßnahmen allgemein als unbefriedigend empfunden. Als Ursache für diesen Zustand wurde die geringe Zahl kleiner Biotechnologieunternehmen ausgemacht, die in den USA eine wichtige Funktion für den Technologietransfer aus den Hochschulen in die Industrie übernehmen. Um Abhilfe zu schaffen, rief die Regierung Kohl 1995 den groß angelegten BioRegio-Wettbewerb aus, mit dem die Bildung von Biotechnologie-Clustern initiiert werden sollte. Zudem kreierte sie ein deutsches Äquivalent zum US-amerikanischen Risikokapitalmarkt, um so Geld für die Gründung von Biotech-Startups zu mobilisieren (Adelberger 2000; Dohse 2000; Kaiser/Prange 2004). Die 1998 gebildete rot-grüne Koalition hat diese Ansätze zur Restrukturierung des deutschen Innovationssystems aufgegriffen und weiterentwickelt. Im Bundesbericht Forschung 2000 heißt es dazu programmatisch: »Die herkömmliche Differenzierung des deutschen Wissenschaftssystems ist zwar grundsätzlich sinnvoll und hat sich bislang weitgehend bewährt; sie fördert aber bei kritischer Bewertung Tendenzen zur wechselseitigen Abschottung. Das deutsche Wissenschafts- und Forschungssystem muss flexibler werden. Es bedarf daher einer Weiterentwicklung der Strukturen. Dazu gehören Profilbildung und Konzentration. Auch die Schließung leistungsschwacher Forschungseinrichtungen kommt grundsätzlich in Betracht« (BMBF 2000: 15).
In diesem Sinne leitete die neue Regierung zahlreiche Restrukturierungsmaßnahmen ein. Aufsehen erregte beispielsweise die Integration der Gesellschaft für Mathematik und Datenverarbeitung, der immer wieder mangelnde Marktorientierung vorgeworfen wurde, in die Fraunhofer-Gesellschaft. Das war das erste Mal, dass ein Mitglied aus der Familie der Großforschungseinrichtungen herausgelöst und in eine neue Organisationsform überführt wurde, um dadurch strukturelle Innovationshemmnisse zu beseitigen. Heftig diskutiert wurde auch die Novellie-
92
DIE ENTWICKLUNG DER FUT-POLITIK IN DER BRD
rung des Hochschulrahmengesetzes, die unter anderem durch Abschaffung der Habilitation und Einführung der Juniorprofessur auf eine Verbesserung der Personalstruktur an den Hochschulen zielte. Der Modernisierung der Hochschulen durch den Bund waren durch die Kulturhoheit der Länder selbstredend deutliche Grenzen gesetzt (vgl. auch BMBF 2004: XII–XIV). Diese wenigen Beispiele machen bereits deutlich, dass sich das deutsche Innovationssystem in einem Prozess der Restrukturierung befindet. Wie tief greifend die Veränderungen letztlich ausfallen und ob sich damit tatsächlich ein Modernisierungsschub verbindet, der sich auch wirtschaftlich bemerkbar macht, wird die Zukunft weisen. Wer auf schnelle Ergebnisse hofft, verkennt die Möglichkeiten der Forschungs- und Technologiepolitik. Unabhängig davon lässt sich jedoch schon jetzt konstatieren, dass letztere gemessen an ihren Zielen nach der Wiedervereinigung in eine neue Phase eingetreten ist, die sich ausgehend vom Umbau der ostdeutschen Forschungslandschaft um eine grundlegende Restrukturierung des nun gesamtdeutschen Innovationssystems bemüht. Mit der folgenden Fallstudie zur zivilen Kerntechnik kehren wir wieder zu den Anfängen der bundesdeutschen Forschungs- und Technologiepolitik in der Mitte der fünfziger Jahre des letzten Jahrhunderts zurück.
93
4 ZIVILE KERNTECHNIK
Die Geschichte der zivilen Kerntechnik liefert ein Musterbeispiel eines pfadabhängigen Prozesses.1 Ihre Frühphase in den fünfziger Jahren war von der Konkurrenz einer Vielzahl möglicher Reaktortypen geprägt, die technologisch unterschiedliche Entwicklungspfade implizierten und deshalb den Erwerb eines jeweils spezifischen Wissens und Könnens bei Herstellern und Nutzern voraussetzten. Gemein war diesen Reaktortypen, dass über ihr technisches Verhalten und ihre wirtschaftliche Rentabilität im kommerziellen Betrieb kaum etwas ausgesagt werden konnte. Denn obgleich im August 1956 im britischen Calder Hall weltweit das erste Kernkraftwerk (ausgestattet mit einem Gas-Graphit-Reaktor) an das öffentliche Stromnetz angeschlossen wurde, steckte die kommerzielle Nutzung der Kerntechnik in den fünfziger Jahren noch in den Kinderschuhen. Die meisten der damals diskutierten Reaktortypen existierten lediglich als Blaupause oder im Versuchsmaßstab, d.h. mit einer Leistungsauslegung, die weit unterhalb der für die kommerzielle Nutzung angestrebten Größenordnungen lag. Die Entscheidung für oder gegen einen Reaktortyp, vor die kerntechnisch interessierte Kraftwerkbauer ebenso gestellt waren wie potentielle Nutzer, musste deshalb unter großen Unsicherheiten getroffen werden. Mit diesen Unsicherheiten hatte sich auch die staatliche Forschungs- und Technologiepolitik jener Länder auseinanderzusetzen, die wie die Bundesrepublik die Eigenentwick-
1
Zur Geschichte der zivilen Kerntechnik in der Bundesrepublik gibt es mittlerweile eine umfangreiche Literatur; die Fallstudie stützt sich insbesondere auf Eckert 1989; Keck 1980; W. Müller 1990, 1996; Radkau 1978a, 1983. 95
NEUE TECHNIK AUF ALTEN PFADEN?
lung von Kernreaktoren vorantreiben und den Einstieg in die Nutzung der zivilen Kerntechnik vollziehen wollten. Durchgesetzt hat sich in der westlichen Hemisphäre der Leichtwasserreaktor, der nach dem Krieg in den USA entwickelt wurde. Als Antrieb für Unterseeboote und Flugzeugträger konzipiert, bestand er seine Bewährungsprobe im Januar 1955, als das erste kernenergiegetriebene U-Boot, die USS Nautilus, in See stach. Verantwortlich für die Entwicklungsarbeiten war der spätere Admiral Hyman G. Rickover, der als Direktor dem Naval Reactors Branch des Bureau of Ships der US-Navy vorstand und gleichzeitig der Division of Reactor Development der Atomic Energy Commission angehörte. In dieser Doppelfunktion arbeitete Rickover bei der Entwicklung des Nuklearantriebs für die Nautilus eng mit den beiden führenden US-amerikanischen Elektrounternehmen General Electric und Westinghouse zusammen. Später beaufsichtigte er den Bau des Kernkraftwerks Shippingport in der Nähe von Pennsylvania, wo im Dezember 1957 erstmals ein Leichtwasserreaktor zur kommerziellen Stromerzeugung eingesetzt wurde. Obwohl Physiker und Ingenieure damals noch heftig darüber diskutieren, welcher Reaktortyp für die kommerzielle Nutzung der Kerntechnik am besten geeignet sei, und alternative Konstruktionen in etlichen Forschungs- und Entwicklungsprojekten bearbeitet wurden, forcierte Rickover eine schnelle Entscheidung für den Leichtwasserreaktor. Die Frage nach der wirtschaftlichen Rentabilität des Reaktors wurde dabei weitgehend ausgeblendet, da es darum ging, möglichst schnell den Einstieg in die zivile Kernenergienutzung zu vollziehen, um der Welt die Zuverlässigkeit US-amerikanischer Technik zu demonstrieren. Dafür war der bereits im militärischen Bereich erprobte Leichtwasserreaktor unter den möglichen Alternativen noch am ehesten geeignet (Cowan 1990). Von diesem Startvorteil profitierend, entwickelte sich der Leichtwasserreaktor in den USA und dann auch in Europa, wo man zunächst den Gas-Graphit-Reaktor favorisiert hatte, zum dominanten Reaktordesign in der zivilen Kerntechnik. Mit jedem Leichtwasserreaktor, der in Betrieb ging, wuchs das Wissen und die Erfahrung mit diesem Reaktortyp auf Hersteller- und Nutzerseite, wodurch sein technisches und wirtschaftliches Verhalten unter kommerziellen Betriebsbedingungen immer besser einschätzbar wurde, was wiederum seine Attraktivität gegenüber alternativen Reaktortypen erhöhte, für die bislang wenig oder gar keine Erfahrungen vorlagen. Dieser sich selbst verstärkende Effekt ließ den Startvorteil des Leichtwasserreaktors auf einen bald nicht mehr einholbaren Vorsprung anwachsen. Zug um Zug verdrängte der Leichtwasserreaktor alternative Reaktortypen vom Markt bzw. verhinderte ihren Markteintritt. In Europa spielte zudem die Strategie der USA eine wich96
ZIVILE KERNTECHNIK
tige Rolle, ihre finanziellen Hilfen für Länder, die den Einstieg in die zivile Kerntechnik suchten, mit der Auflage zu verknüpfen, amerikanische Technik und damit den Leichtwasserreaktor zum Einsatz zu bringen. Davon profitierten General Electric und Westinghouse, die seit ihrer Mitarbeit am Atom-U-Boot-Programm systematisch ihre Kompetenzen in der Leichtwassertechnologie ausgebaut hatten und nun zu den wichtigsten Lieferanten dieses Reaktortyps wurden (Cowan 1990). Der durchschlagende Erfolg des Leichtwasserreaktors wurde nicht nur in Fachkreisen zwiespältig aufgenommen. Für viele Kritiker hatte sich hier eine suboptimale Technologie auf dem Markt durchgesetzt, die der Entwicklung wirtschaftlich und (sicherheits)technisch möglicherweise überlegener Reaktortypen ein vorzeitiges Ende bescherte. Die Geschichte der zivilen Kerntechnik ist deshalb wiederholt als ein an Externalitäten reicher Prozess gedeutet worden, der in einem technologischen Lock-in mündete (Cowan 1990; Radkau 1983; siehe auch Walker 2000). Auch in der Bundesrepublik hat sich der Leichtwasserreaktor in der zivilen Kerntechnik zur Stromerzeugung durchgesetzt. Alle der heute kommerziell betriebenen Kernkraftwerke arbeiten mit diesem Reaktortyp. Es wäre jedoch zu kurz gegriffen, darin lediglich den Nachvollzug der internationalen Entwicklung zu sehen. Denn in den späten fünfziger und frühen sechziger Jahren orientierten sich die bundesdeutschen Kerntechnikinteressenten eher an Großbritannien, das auf den Gas-GraphitReaktor setzte, als an den USA. Vor allem bemühten sie sich aber, einen eigenen Weg in der Kerntechnik zu beschreiten. Und hier sah sich die Bundesrepublik genauso wie alle anderen Staaten, die den Einstieg in die kommerzielle Kernenergienutzung suchten, dem Problem gegenüber, auf welchen Reaktortyp sie angesichts der großen technischen und wirtschaftlichen Unsicherheiten der neuen Technologie setzen sollte. Um diesem Problem beizukommen, wollten die bundesdeutschen Kerntechnikinteressenten – ganz im Sinne des in Kapitel 2.4 entwickelten Modells – zunächst eine Pfadsuche durchführen, bei der eingehende Erfahrungen mit unterschiedlichen Reaktortypen gesammelt werden sollten, um daran anschließend in Abwägung aller Vor- und Nachteile die Wahl des für die kommerzielle Nutzung am besten geeigneten Reaktortyps treffen zu können. Den Rahmen für diese Suche sollte das 1957 verabschiedete erste deutsche Atomprogramm liefern, dessen Umsetzung jedoch weitgehend scheiterte. Nicht zuletzt das Drängen von staatlicher Seite auf einen raschen Einstieg in die kommerzielle Kernenergienutzung setzte in dieser Situation eine Dynamik in Gang, an deren Ende die »ungeplante Durchsetzung des Leichtwasserreaktors« (Radkau 1978a) und das Einschwenken auf den US-amerikanischen Technologiepfad stand. Damit lässt sich die Dominanz dieses Reaktortyps in der Bundes97
NEUE TECHNIK AUF ALTEN PFADEN?
republik als nicht-intendierte Nebenfolge eines zunächst planvollen, später aber zunehmend spontan verlaufenden Pfadbildungsprozesses deuten, der in einem Lock-in mündete. Ehe wir uns der Durchsetzung des Leichtwasserreaktors und der Frage nach der Rolle der Forschungs- und Technologiepolitik in diesem Prozess zuwenden, werfen wir zunächst einen Blick auf die deutsche Kernenergieforschung bis zum Ende des Zweiten Weltkrieges. Sie bildet einen wichtigen Hintergrund für die Entwicklungen in der Bundesrepublik.
4.1 Traditionen und Neuanfänge Die Geschichte von der Entdeckung der Kernspaltung ist schon oft erzählt worden. In der Bundesrepublik diente sie lange Zeit dazu, den Mythos einer »reinen Wissenschaft« zu kultivieren, die sich in der Zeit des Nationalsozialismus erfolgreich der politischen Instrumentalisierung entzogen hatte. Es war nicht zuletzt der für die Entdeckung der Kernspaltung mit dem Nobelpreis geadelte Otto Hahn, der als langjähriger Präsident der Max-Planck-Gesellschaft dieses Bild propagierte. Die Geschichtswissenschaft hat es mittlerweile gründlich widerlegt. In der Nachkriegszeit ließ sich mit der Entdeckung der Kernspaltung jedoch ein Referenzpunkt deutscher Spitzenforschung konstruieren, an den nach Krieg und Niederlage wieder angeknüpft werden sollte. Die Möglichkeit, Urankerne durch den Beschuss mit Neutronen zu spalten, entdeckte Hahn zusammen mit seinem Mitarbeiter Fritz Straßmann im Dezember 1938 am Kaiser-Wilhelm-Institut für Chemie in Berlin. Die theoretische Deutung dieser Entdeckung lieferte Hahns langjährige Mitarbeiterin Ilse Meitner, die als österreichische Jüdin 1938 vor den Nationalsozialisten nach Skandinavien fliehen musste. Dort war sie von Hahn brieflich über die Experimente unterrichtet worden. In der physikalisch-chemischen Welt sorgte die Entdeckung der Kernspaltung für großes Aufsehen und führte zu intensiven Forschungsaktivitäten, etwa in Dänemark, Deutschland, Frankreich und den USA. Nach kurzer Zeit waren die Grundmechanismen der Kernspaltung geklärt. Danach kann der Kern des im natürlichen Uran nur wenig enthaltenen Isotops der Masse 235 durch thermische (d.h. langsame) Neutronen gespalten werden, wobei neben den Spaltungsbruchstücken nicht nur große Mengen Energie, sondern auch mehr als zwei schnelle Neutronen pro Spaltung freigesetzt werden. Diese können durch eine geeignete Substanz – den Moderator – abgebremst, zu weiteren Spaltungen und damit zu einer Kettenreaktion führen. Im Juni 1939, nur ein halbes Jahr nach der Ent98
ZIVILE KERNTECHNIK
deckung der Kernspaltung, warf der Physiker Siegfried Flügge in der Öffentlichkeit die Frage nach der technischen Nutzbarmachung der Kernenergie mit Hilfe einer »Uranmaschine« auf und skizzierte auch gleich deren Funktionsprinzip. Initiativen einzelner Physiker zur militärischen Nutzung der Kernspaltung, die zum deutschen Kernenergieprojekt führten, hatte es bereits im Frühjahr desselben Jahres gegeben (Walker 1990: 25–30). Das deutsche Kernenergieprojekt lief im Sommer 1939 unter der organisatorischen und administrativen Leitung des Physikers Kurt Diebner an. Es unterstand zunächst dem Heereswaffenamt, das für diese Forschungsarbeiten das Kaiser-Wilhelm-Institut für Physik in Berlin-Dahlem beschlagnahmte und Diebner zu dessen Verwaltungsdirektor machte. Otto Hahn und Werner Heisenberg – beide formal Diebner unterstellt – überwachten die wissenschaftlichen Arbeiten, an denen sich auch Forscher weiterer Institute innerhalb und außerhalb der Kaiser-WilhelmGesellschaft beteiligten. Insgesamt wurde die deutsche Kernenergieforschung im Krieg von ungefähr 70 Wissenschaftlern getragen, von denen aber nur etwa die Hälfte mehr als 50 % ihrer Arbeitszeit einbrachte. Im Zentrum des Kernenergieprojekts stand die Entwicklung einer Uranmaschine, wie sie Flügge skizziert hatte. Konkret ging es um Konstruktion und Bau eines Kernreaktors, der mit natürlichem Uran betrieben werden sollte, da Versuche zur Isotopentrennung und Isotopenanreicherung ins Leere gelaufen waren. Als Moderator zur Abbremsung der schnellen Neutronen war schweres Wasser (D2O) vorgesehen. Mit der Uranmaschine sollten nicht nur neue Wege zur Energiegewinnung eröffnet, sondern auch – und militärisch interessanter – so genannte Transurane produziert werden, die sich als Kernsprengstoffe verwenden ließen (Walker 1990: 30–62). Nachdem das Heereswaffenamt 1942 zu der Einschätzung gekommen war, dass die Forschungsarbeiten zu langsam vorangingen, um Einfluss auf den Kriegsverlauf nehmen zu können, wurde das Projekt zunächst der Kaiser-Wilhelm-Gesellschaft und später dem Reichsforschungsrat übertragen. Das Heereswaffenamt zog sich auf eine finanzielle Unterstützung der Arbeiten zurück. Der 1942 erhobenen Forderung der beteiligten Wissenschaftler, zu einer großindustriellen Organisationsform von Forschung und Entwicklung überzugehen, war damit eine Absage erteilt. Das Uranmaschinen-Projekt lief in seiner bisherigen Konzeption weiter, ohne dass bis Kriegsende das Ziel einer sich selbst erhaltenden Kettenreaktion erreicht wurde. Ein Mangel an notwendigen Ressourcen, Rivalitäten zwischen den Arbeitsgruppen und schließlich auch die in Deutschland immer stärker spürbaren Kriegseinwirkungen haben wesentlich zu diesem Fehlschlag beigetragen. Am Willen der be99
NEUE TECHNIK AUF ALTEN PFADEN?
teiligten Wissenschaftler ist das Projekt – wie Mark Walker in seiner Studie (1990) überzeugend darlegt – nicht gescheitert. Nach dem Krieg bot die deutsche Kernenergieforschung für die Kerntechnikinteressenten in der Bundesrepublik einige Anknüpfungspunkte. Diese bestanden zum einen auf personeller und wissenschaftlich-technischer, zum anderen auf symbolischer Ebene. Denn auch wenn die Gruppe derer, die während des Krieges direkt oder indirekt am deutschen Kernenergieprojekt beteiligt waren, relativ klein war, so gab es doch einige Physiker und Ingenieure, die ihre Erfahrungen in die Kerntechnikentwicklung der Bundesrepublik einbringen konnten und wollten. Beispielsweise nahmen Werner Heisenberg und Karl Wirtz, der während des Krieges zu den treibenden Kräften bei der Entwicklung der Uranmaschine gezählt hatte, ihre Arbeiten noch unter dem alliierten Forschungsverbot am Max-Planck-Institut für Physik in Göttingen wieder auf. Insbesondere Heisenberg war – allerdings mit stark wechselndem Erfolg – darum bemüht, Einfluss auf die Forschungs- und Atompolitik der Bundesrepublik zu nehmen (siehe dazu Carson 2002; Carson/Gubser 2002; Eckert 1989). Diese personellen und wissenschaftlich-technischen Kontinuitäten schlugen sich, wie noch deutlich werden wird, auch im ersten Atomprogramm von 1957 nieder. Auf symbolischer Ebene lieferte die Kernenergieforschung der ersten Jahrhunderthälfte ebenfalls Anknüpfungspunkte. Die Bedeutung der Entdeckung der Kernspaltung als Ausweis deutscher Spitzenforschung wurde schon angesprochen. Nach dem Krieg galt es, »die Kernspaltung wieder nach Deutschland als ihrem Ursprungsland heimzuholen« (Rusinek 1993: 17) und dadurch diese in der Öffentlichkeit positiv besetzte Tradition aufleben zu lassen. Thomas Dehler, Vizepräsident des Bundestages und Mitglied des Deutschen Atomforums, drückte 1963 die Stimmung vieler seiner an der Kerntechnik interessierten Zeitgenossen aus, als er feststellte: »An sich sind wir das Ursprungsland. Die großen wissenschaftlichen Entdeckungen von Hahn und Meitner – von Einstein nicht zu sprechen – sind hier auf deutschem Boden geschehen. Dann kam Krieg, böse Nachkriegszeit. Wir müssen also bedenken, dass wir einen gewaltigen Aufholbedarf haben.« (zitiert nach Rusinek 1996: 303)
Keine andere Technologie schien in den fünfziger und sechziger Jahren so gut wie die zivile Kerntechnik dazu geeignet, als Vehikel für den Wiederaufstieg Deutschlands an die wissenschaftlich-technische Spitze der Industrienationen zu dienen.
100
ZIVILE KERNTECHNIK
Als die deutsche Bundesregierung die zivile Kerntechnik zum politischen Handlungsfeld wählte, konnte sie sich deshalb der Unterstützung von Wissenschaft und Wirtschaft ebenso wie der medialen Öffentlichkeit sicher sein. Im Gegensatz zur militärischen Kerntechnik wurde ihre zivile Variante in der Anfangszeit von einem breiten Konsens der Eliten getragen, der in der zweiten Hälfte der fünfziger Jahre geradezu euphorische Züge annahm.2 Die überbordenden Hoffnungen richteten sich dabei nicht nur auf die billige Erzeugung von Strom. Mit Hilfe der Kernenergie sollten Schiffe, Fahr- und Flugzeuge angetrieben, die tropischen und polaren Regionen der Erde erschlossen und neuartige chemische Stoffe erzeugt werden. Der Aufbruch ins Atomzeitalter versprach die Realisierung linker Gesellschaftsutopien, in denen die Menschen endgültig von der körperlichen Arbeit befreit sein sollten, und ein ungebrochenes Wirtschaftswachstum, das Wohlstand für alle garantierte (Rusinek 1993). Neben diesen übersteigerten Hoffnungen existierte eine Reihe konkreter Interessen, die eine hohe Anschlussfähigkeit der zivilen Kerntechnik in der Bundesrepublik garantierten. Über zivile Kernphysik und Kerntechnik konnte die Wissenschaft ihre fachliche Kompetenz und moralische Redlichkeit unter Beweis stellen und auf diese Weise die Rückkehr in die internationale Gemeinschaft anbahnen, aus der sie sich in der Zeit des Nationalsozialismus verabschiedet hatte. Der Politik lieferte die Kerntechnik einen Ansatzpunkt, um die Westintegration der Bundesrepublik voranzutreiben und nach außen politische Zuverlässigkeit zu demonstrieren. Der Einstieg in die Kerntechnik war Zeichen der wiedergewonnenen Souveränität und Ausdruck eines neuen Selbstbewusstseins. Darüber hinaus sicherte er auf technischer Ebene die Option auf eine spätere militärische Nutzung. In der Industrie waren nach ihren Interessen mindestens drei Gruppen zu unterscheiden: die anfangs noch heterogene, bald aber auf die großen Elektrounternehmen beschränkte Gruppe potentieller Kernkraftwerkhersteller, die auf Exportmärkte spekulierten, die chemische Industrie, die in der Produktion schweren Wassers (als Moderatorsubstanz) und in der Wiederaufbereitung von Kernbrennstoffen neue Geschäftsfelder sah, und schließlich die Energieversorgungsunternehmen, die auch nach dem Ende der Energieverknappung in den späten fünfziger Jahren Kerntechnik als Zukunftsoption für die Stromerzeugung verstanden (Rusinek 1993; Radkau 1983: 78–91). Den Kontinuitäten der deutschen Kernenergieforschung standen bedeutsame Brüche gegenüber. Am schwersten wog, dass es in der jungen Bundesrepublik – von den Beteiligten am Uranmaschinen-Projekt abge2
Dazu ausführlich Kapitel 4.3. 101
NEUE TECHNIK AUF ALTEN PFADEN?
sehen – fast keine Wissenschaftler und Ingenieure gab, die über kernphysikalische bzw. kerntechnische Kompetenzen verfügten. Das nationalsozialistische Deutschland hatte eine große Zahl von Physikern, darunter viele auf ihrem Forschungsgebiet führende Wissenschaftler, zur Emigration gezwungen und damit der modernen Physik im Lande einen kaum mehr reparablen Schaden zugefügt. Nach Kriegsende wurden weitere Fachkräfte in die USA und in die Sowjetunion geholt. Und schließlich trug auch das alliierte Forschungsverbot dazu bei, die Bundesrepublik von den internationalen Entwicklungen in Kernphysik und Kerntechnik abzukoppeln. Als der Kernphysiker Heinz Maier-Leibnitz, der nach dem Zweiten Weltkrieg für einige Zeit in den USA gearbeitet hatte und 1952 Direktor des Laboratoriums für Technische Physik der Technische Hochschule München geworden war, seine ersten Vorlesungen über moderne Physik hielt, saß ihm zwar ein hoch interessiertes Publikum gegenüber. Den Zuhörern fehlten aber – wie ein späterer Assistent von Maier-Leibnitz aus eigener Erfahrung berichtete – jegliche Voraussetzungen, um das Dargebotene auch nur in Grundzügen verstehen zu können (Wengenroth 1993: 262–264). Eine wettbewerbsfähige kerntechnische Industrie konnte auf einschlägig ausgebildete Experten freilich nicht verzichten, womit die Nachwuchsfrage zu einem Hauptproblem des bundesdeutschen Einstiegs in die Kerntechnikentwicklung wurde (W. Müller 1990: 108). Zahlreiche Vorstöße auf Bundes- und Länderebene galten der Lösung dieses Problems. Dazu zählte wesentlich die Schaffung einschlägiger Professuren, Lehrstühle und Institute an den Hochschulen. Ziel war die Ausbildung von Kernphysikern, die die theoretischen Grundlagen für zukünftige Kernreaktoren erarbeiten sollten, sowie von Ingenieuren der Kerntechnik, denen bei der Realisierung der Reaktorkonzepte im Laufe der Zeit eine immer stärkere Rolle zuwuchs. Für den Betrieb der Kernreaktoren sollten schließlich Ingenieure an den Fachhochschulen ausgebildet werden. Neben die Ausbildung von Fachkräften im bundesdeutschen Hochschulsystem trat der Wissensimport aus dem Ausland. Junge Wissenschaftler und Ingenieure wurden mit staatlicher Unterstützung in die führenden Nuklearstaaten geschickt, um dort an kernphysikalischen und kerntechnischen Forschungseinrichtungen dringend benötigtes Know-how zu erwerben. Franz Josef Strauß und ebenso sein Nachfolger im Amt des Bundesatomministers, Siegfried Balke, räumten der Förderung von Forschung und Nachwuchsausbildung hohe Priorität ein. Dies stand zwar im Einklang mit den Vorstellungen einer liberalen Wirtschaftspolitik, die auf die kommerzielle Technikentwicklung keinen direkten Einfluss nehmen wollte. Forschung und Ausbildung waren jedoch Aufgabenfelder der 102
ZIVILE KERNTECHNIK
Länder, weshalb hier Kompetenzkonflikte vorprogrammiert waren. Bis zu einem gewissen Grad konnten die Länderzuständigkeiten jedoch durch den Verweis ausgehebelt werden, dass die Entwicklung der Kerntechnik Entscheidungsnotwendigkeiten und Koordinationsaufgaben schuf, die nur auf Bundesebene angegangen werden konnten, etwa wenn es um Fragen der kerntechnischen Sicherheit ging. Auf die Ergänzung des Grundgesetzes (Art. 74 Nr. 11a GG) und das darauf aufbauende Bundesatomgesetz vom Dezember 1959, mit denen sich der Bund die Entscheidungskompetenz in Atomfragen sicherte, wurde in Kapitel 3.3 eingegangen. Zudem war der Bund für die Länder als Geldgeber interessant, wenn es um die Schaffung von Lehrstühlen oder den Aufbau der für Forschung und Lehre notwendigen, äußerst kostenintensiven Infrastruktur ging (W. Müller 1990: 242–279). Zu dieser Infrastruktur, die Voraussetzung für die Entwicklung einschlägiger Expertise war, gehörten Forschungsreaktoren. Einige Bundesländer hatten bereits Mitte der fünfziger Jahre ihr Interesse am Kauf derartiger Großgeräte bekundet, die von der US-amerikanischen Reaktorindustrie angeboten wurden. Den Rahmen bildete das von Präsident Dwight D. Eisenhower im Dezember 1953 vor der Vollversammlung der Vereinten Nationen verkündete Programm »Atoms for Peace«. Es markierte einen neuen Kurs in der amerikanischen Atompolitik, indem die bis dahin in starker Abschottung vollzogene Kerntechnikentwicklung nun eine Öffnung erfuhr – zumindest was die zivile Nutzung der Kernenergie betraf. Im Rahmen des Programms sollten interessierte Länder die Möglichkeit erhalten, aus den USA Forschungsreaktoren sowie das für ihren Betrieb notwendige Spaltmaterial zu beziehen. Einzelheiten wurden in bilateralen Abkommen zwischen den USA und dem jeweiligen Empfängerland geregelt. Die Bundesrepublik schloss so ein Abkommen im Februar 1956, wodurch der Weg für den Ankauf und Betrieb von Forschungsreaktoren frei wurde (Eckert 1989). Den Anfang machte der als »Atomei« bekannt gewordene Forschungsreaktor der Technischen Hochschule München, der in Garching aufgestellt wurde (Eckert/Osietzki 1989: 74–95; Wengenroth 1993: 262–272). Der schon erwähnte Heinz Maier-Leibnitz bestellte diesen Reaktor im Auftrag der Bayerischen Staatsregierung bei der American Machine & Foundry Company. Nach kurzer Bauzeit wurde der »Swimmingpool-Reaktor« im Oktober 1957 als erster in der Bundesrepublik kritisch, d.h. es wurde eine sich selbst erhaltende Kettenreaktion erreicht. Nach Einschätzung von Michael Eckert (1989: 141) spielte der Garchinger Reaktor für die konkrete Entwicklung von Kerntechnik zwar eine untergeordnete Rolle, da er in erster Linie der kernphysikalischen Grundlagenforschung diente. Allerdings hatte er eine zentrale Bedeu103
NEUE TECHNIK AUF ALTEN PFADEN?
tung für den Aufbau der großen Maier-Leibnitz-Schule, deren Absolventen die Entwicklung der bundesdeutschen Kerntechnik dann doch auf einflussreichen Positionen mitgeprägt haben. Zehn Jahre nach der Inbetriebnahme des Reaktors an der Technischen Hochschule München waren in der Bundesrepublik bereits 26 Forschungs- und Ausbildungsreaktoren installiert, die von Hochschulen, Forschungsgesellschaften (z.B. der Gesellschaft für Kernenergieverwertung in Schiffbau und Schiffahrt mbH) sowie Industrieunternehmen wie Siemens und AEG betrieben wurden.3 Hatte man die ersten Reaktoren noch schlüsselfertig aus den USA oder Großbritannien bezogen bzw. mit Firmenunterstützung aus diesen Ländern gebaut, so konnte Siemens später erfolgreich eine Eigenentwicklung auf dem Markt für Forschungsreaktoren platzieren.
4.2 Die Suche nach dem besten Reaktor: das Eltviller Programm Die Ausbildung von kernphysikalisch und kerntechnisch geschulten Experten war ein zentrales Anliegen der frühen Forschungs- und Technologiepolitik. Ihr Hauptziel war jedoch industriepolitischer Natur. Wirtschaft, Wissenschaft und Staat sollten gemeinsam eine nationale Kerntechnikindustrie schaffen, die fähig war, ihre Produkte, vor allem Kernreaktoren, auf dem Weltmarkt abzusetzen. Den strategischen Rahmen für dieses Ziel lieferte das erste Atomprogramm. Seine Ausarbeitung übernahm die Deutsche Atomkommission, die das Bundeskabinett Anfang 1956 als Beratungsgremium des Atomministers ins Leben gerufen hatte. Durch den Übergang der Programmplanung auf dieses Gremium wurden die wichtigsten an der Kernenergie interessierten Gruppen in den Planungsprozess miteinbezogen. Dazu gehörten neben Physikern und Ingenieuren Vertreter der chemischen Industrie, der Elektro- und Schwermaschinenindustrie, des Staates und der Energieversorgungswirtschaft.4 Ihre Diskussionen galten zunächst der Frage, welcher Weg beim Einstieg in die Kerntechnik beschritten werden sollte. Im Zentrum standen hier die vielfältigen Möglichkeiten, Kernreaktoren zu konstruieren.5 3
4 5
Ein tabellarischer Überblick der bis 1960 in der Bundesrepublik georderten Forschungsreaktoren findet sich in Keck 1980: 310f.; siehe dazu auch die Übersicht in BMwF 1965: 194f. Vgl. Rusinek 2004; für eine Liste der Gründungsmitglieder der Deutschen Atomkommission siehe Posner 1981: 376. Kurzprotokoll, Informationstagung über Leistungsreaktoren, 19.12.1956 (BAK, B138/3366).
104
ZIVILE KERNTECHNIK
Als sich Anfang der fünfziger Jahre in der Bundesrepublik ein erstes Interesse an der zivilen Kerntechnik formierte, richteten sich die angestellten Überlegungen zunächst auf den Natururanreaktor, mit dem sich an das Uranmaschinen-Projekt des Zweiten Weltkrieges anknüpfen ließ. Freilich sprach auch die Stellung der noch jungen Bundesrepublik im internationalen Kräftegefüge gegen Reaktorkonzepte, die eine industrielle Isotopentrennung bzw. den Import von angereicherten Kernbrennstoffen erfordert hätten (Eckert 1989: 126). Wie schon im Zweiten Weltkrieg beschränkte sich die kerntechnische Debatte deshalb auf die Frage, ob sich schweres Wasser oder Graphit besser als Moderator eignen würde. Die tatsächliche Fülle reaktortechnischer Möglichkeiten erschloss sich den bundesdeutschen Kerntechnikinteressenten erst im August 1955 auf der ersten internationalen Konferenz über die friedliche Anwendung der Atomenergie in Genf, wo einstiegswilligen Ländern der Weg ins Atomzeitalter geöffnet werden sollte. Aus der Kombination verschiedener Brennstoffe, Moderatoren und Kühlmittel ergab sich eine verwirrende Vielfalt von Reaktortypen. Die von dem US-amerikanischen Physiker Alvin Weinberg auf der Konferenz propagierte Zahl von über hundert Reaktortypen erwies sich zwar als zu hoch angesetzt. Aber auch die später in Fachkreisen kursierende Zahl von zehn bis fünfzehn verschiedenen Reaktortypen, die für die Nutzung der Kernenergie in Frage kämen, stellte die bundesdeutschen Kerntechnikinteressenten vor gewichtige Entscheidungsprobleme. Dies galt umso mehr, als Mitte der fünfziger Jahren die zivile Nutzung der Kernenergie noch weltweit in den Kinderschuhen steckte und deshalb nur wenig Erfahrungen über die technischen und wirtschaftlichen Eigenschaften der einzelnen Reaktortypen vorlagen. Der Vorstand des RWE (Rheinisch-Westfälisches Elektrizitätswerk), Heinrich Mandel, der um einen Stellungnahme zur Frage eines bundesdeutschen Atomprogramms gebeten wurde, kam vor diesem Hintergrund zu dem Schluss: »Weil eine Vorhersage der künftigen Entwicklung mit soviel Unsicherheiten behaftet ist, dürfte es unrealistisch sein, ein Programm qualitativ auf eine einzige Reaktortype abstellen zu wollen.«6 Mit dieser Ansicht war er nicht allein. Ziemlich schnell bildete sich ein Konsens unter den an der Programmplanung beteiligten Interessengruppen heraus, dass ein Atomprogramm zunächst explorativen Charakter haben sollte. Angesichts der großen Unsicherheiten, mit denen die neue Technologie behaftet war, sollten verschiedene Reaktortypen parallel re-
6
Heinrich Mandel, Stellungnahme zur Frage eines deutschen Atomprogrammes: 1, Anl. II zum Kurzprotokoll, Informationstagung über Leistungsreaktorfragen, 19.12.1956 (BAK, B138/3366). 105
NEUE TECHNIK AUF ALTEN PFADEN?
alisiert werden, um Erfahrungen über ihre technischen und wirtschaftlichen Eigenschaften sammeln zu können. Anstatt sich vorschnell auf eine möglicherweise falsche Reaktorlinie festzulegen, wollte man zunächst eine Entscheidungsgrundlage für den Einstieg in die kommerzielle Phase der Kerntechnik erarbeiten.7 Das 1957 von der Deutschen Atomkommission im hessischen Eltville im Gästehaus von Höchst verabschiedete Atomprogramm war dann auch als Experimentierprogramm angelegt und sollte die Voraussetzungen »für eine spätere wirtschaftliche Gewinnung von Atomenergie« schaffen.8 Inhaltlich konnte das Programm an einige kerntechnische Initiativen der bundesdeutschen Industrie anschließen, etwa die Reaktorentwicklungsgruppen, die Siemens, AEG und Brown, Boveri & Cie (BBC) schon kurz nach Aufhebung des alliierten Forschungsverbots ins Leben gerufen hatten (Keck 1980: 305f.). Das ein Jahr später leicht erweiterte Atomprogramm sah schließlich fünf unterschiedliche Reaktoren mit jeweils einer elektrischen Leistung von etwa 100 MWe vor, die bis 1965 von bundesdeutschen Herstellerfirmen geplant und errichtet werden sollten (vgl. Tabelle 4-1). Insgesamt lag das Gewicht auf Reaktortypen, die Natururan bzw. nur leicht angereichertes Uran als Brennstoff verwenden konnten. Diese Präferenz war nicht nur durch die Möglichkeit bedingt, auf den – mittlerweile freilich schon überholten – Erfahrungsschatz des Uranmaschinen-Projekts zurückgreifen zu können. Sie entsprach vielmehr auch dem bundesdeutschen Streben nach Unabhängigkeit vom Import angereicherten Urans, das aus dem Ausland, speziell den USA, bezogen hätte werden müssen, während Naturan durch die Erschließung heimischer Vorkommen gewonnen werden sollte (siehe dazu auch Radkau 1978b). Finanziert werden sollten die fünf Reaktorprojekte durch Aufträge aus der Energieversorgungswirtschaft. Der Staat wollte sich im Wesentlichen auf flankierende Maßnahmen wie verbilligte Kredite und Steuererleichterungen beschränken. Bei den Energieversorgern stieß das Eltviller Programm jedoch auf Kritik. Diese galt der Beschränkung des Programms auf deutsche Herstellerfirmen und der Bevorzugung von Natururanreaktoren. Mandel hatte schon während der Programmplanung einen stärkeren Einbezug von Reaktoren gefordert, die mit angereichertem Uran betrieben wurden. Den Verlust der Unabhängigkeit der bundesdeutschen Energiewirtschaft, vor dem in den Debatten immer wieder gewarnt wurde, schätzte er unproblematisch ein: »Wir wären dann zwar 7
8
Bericht über das Reaktor-Programm der Fachkommission III vom 11. Feb. 1957 von Prof. Dr. Winnacker, Frankfurt/M. vor der Deutschen Atomkommission am 21. Februar 1956 (BAK, B138/3366). Abdruck des Programms in W. Müller 1990: 676–688, Zitat S. 677.
106
ZIVILE KERNTECHNIK
[…] vom Ausland abhängig. Aber wir dürfen nicht vergessen, dass unsere Energiewirtschaft schon heute vom Ausland abhängig ist und zukünftig auch ohne Rücksicht auf die Atomenergie abhängig sein wird.«9 Im Übrigen hatte sich in den späten fünfziger Jahren die allgemeine Energiesituation mehr als verbessert. An die Stelle einer drohenden Energielücke waren Kohlehalden getreten, die nach Abnehmern suchten. Für die Energieversorger bestand daher alles andere als ein Handlungsdruck in Sachen Kerntechniknutzung, bei der nach wie vor die Unsicherheiten dominierten. Theodor Schmeller, Vorstandsmitglied der Bayernwerk AG, stellte dazu nüchtern fest: »Dass die Betriebskosten bei Atomkraftwerken niedriger als bei herkömmlichen Wärmekraftwerken liegen […], ist vorerst leider nur eine unbewiesene These.«10 Tabelle 4-1: Reaktortypen des Eltviller Programms, Fassung von 1958
•
Fortgeschrittener gasgekühlter, graphitmoderierter Natururanreaktor vom Calder Hall Typ
•
Schwerwassermoderierter Natururanreaktor (zwei Versionen: Druckkessel- und Druckröhrentyp)
•
Fortgeschrittener leichtwassermoderierter und -gekühlter Reaktor mit leicht angereichertem Uran
•
Fortgeschrittener gasgekühlter Hochtemperaturreaktor mit angereichertem Uran
•
Fortgeschrittener organisch (d.h. mit Polyphenylen) gekühlter Natururanreaktor
Auf staatlicher Seite betrachtete man die kritische Haltung der Energieversorger mit Sorge. Atomminister Balke sah darin die wesentliche Ursache dafür, dass mehr als ein Jahr nach Verabschiedung des Eltviller Programms immer noch nicht mit seiner Umsetzung begonnen worden war und die Bundesrepublik der internationalen Kerntechnikentwicklung meilenweit hinterherhinkte. Balke dachte deshalb über einen Kernreaktor nach, den der Staat errichten und der »als Initialzündung für die Verwirklichung des gesamten Programms« dienen sollte.11 Eine Chance hatten derartige Ideen unter der liberalen Wirtschaftspolitik Ludwig Erhards freilich nicht. 9
Heinrich Mandel, Stellungnahme zur Frage eines deutschen Atomenergieprogramms: 1, Anl. II zu Kurzprotokoll, Informationstagung über Leistungsreaktorfragen, 19.12.1956, Zitat S. 5f. (BAK, B138/3366). 10 Schmeller, Bayernwerk, an Brandl, BMAt, 6.6.1958, Zitat S. 6 (BAK, B138/213). 11 Balke an Etzel, 20.11.1958, Zitat S. 5 (BAK, B138/213). 107
NEUE TECHNIK AUF ALTEN PFADEN?
Mit der wachsenden Unsicherheit über die Realisierungsmöglichkeiten der im Eltviller Programm skizzierten Reaktorprojekte verlagerte sich die Diskussion in der Deutsche Atomkommission immer stärker auf eine symbolische Ebene. Hier stand nicht mehr das Sammeln kerntechnischer Erfahrungen im Vordergrund der Überlegungen, sondern das Ansehen der Bundesrepublik als fortschrittsorientierte Industrienation. Balke argumentierte beispielsweise, »dass ein Exportland für industrielle Ausrüstungen seine internationale Stellung nur behaupten könne, wenn es auch Erzeugnisse der Atomtechnik als Kennzeichen seines Leistungsstandes anbiete«.12 Wer Druckmaschinen oder Walzwerke exportieren wollte musste nach dieser Logik ebenso Kernreaktoren im Angebot führen. Und auch der Arbeitskreis Kernreaktoren der Deutschen Atomkommission sah sich durch die Stagnation der heimischen Kerntechnikentwicklung veranlasst, auf die Nichtteilhabe der Bundesrepublik an einer Reihe »moderner technischer Entwicklungen« wie Flugzeuge, Raketen und Weltraumfahrt zu verweisen, um dann anzuschließen: »Deshalb ist es umso wichtiger, dass sie [die Bundesrepublik, T.W.] auf dem Gebiet der Atomenergie ihre Leistungsfähigkeit beweist, nicht zuletzt mit Rücksicht auf ihr Prestige als Industrienation. […] Das eigene und fremde Vertrauen in unsere technische Leistungsfähigkeit kann nicht ohne einen sichtbaren Erfolg erhalten werden.«13
Spitzentechnologie wurde hier nicht zum letzten Mal als Aushängeschild technologischer Leistungsfähigkeit und als Instrument nationaler Identitätsstiftung und Selbstvergewisserung begriffen. Anfang der sechziger Jahre trat die Kernreaktorentwicklung in der Bundesrepublik trotz der mahnenden Worte des Atomministers auf der Stelle.14 Die Energieversorgungsunternehmen waren nach wie vor nicht dafür zu gewinnen, die Finanzierung der im Eltviller Programm skizzierten Projekte zu übernehmen. Die Herstellerfirmen zweifelten aber daran, dass sie die Experimentierphase allein noch lange durchhalten konnten. Ohne Aufträge drohten ihre Reaktorentwicklungsgruppen auseinander zu fallen, womit die mühsam aufgebauten Kompetenzen schlagartig wieder verloren gegangen wären. Zudem gewann unter den Hersteller12 Kurzprotokoll über die 10. Sitzung der Fachkommission III »Technischwirtschaftliche Fragen bei Reaktoren«, 19.1.1959, Zitat S. 5 (BAK, B138/ 3315). 13 Entschließung des Arbeitskreises II-III/1 »Kernreaktoren« in der Sitzung vom 30. September 1960 in Karlsruhe, Zitate S. 1f. (BAK, B138/3546). 14 Vgl. Bericht über die Förderung der Reaktorentwicklung von Dr. Schnurr, Bad Godesberg, vor der Deutschen Atomkommission am 20. April 1960 (BAK, B138/3298). 108
ZIVILE KERNTECHNIK
firmen die Ansicht mehr und mehr Gewicht, dass sie nur über den Bau von großen Leistungskraftwerken (im Unterschied zu Versuchskraftwerken) und – wie die schlechten Erfahrungen mit dem Eltviller Programm lehrten – nur im Einvernehmen mit der Energieversorgungswirtschaft einen Zugang auf den Markt für Kernreaktoren finden konnten. Die staatliche Förderpolitik, die sich stark an wirtschaftsliberalen Vorstellungen orientierte und deshalb die direkte Subventionierung von Kernkraftwerken vermeiden wollte, stieß offensichtlich an Grenzen. Ohne eine staatliche Beteiligung an den Investitions- und Betriebsrisiken war die skeptische Haltung der Energieversorger gegenüber einem baldigen Einstieg in die Kernenergienutzung aus Sicht der Herstellerfirmen nicht zu überwinden.15
4.3 Die spontane Durchsetzung des Leichtwasserreaktors Vor diesem Hintergrund gewannen Pläne von RWE und Bayernwerk für ein Leistungskraftwerk eine kaum zu überschätzende Bedeutung für die staatliche Forschungs- und Technologiepolitik. RWE hatte bereits Mitte der fünfziger Jahre Interesse an der Errichtung eines Kernkraftwerks für Versuchszwecke angemeldet und entsprechende Angebote bei verschiedenen Herstellern eingeholt. Zur Realisierung des anvisierten Kraftwerks kam es jedoch erst Ende der fünfziger Jahre, als RWE gemeinsam mit dem Bayernwerk das Kernkraftwerk Kahl am Main beauftragte. Dieses von der amerikanischen General Electric gelieferte und der AEG erbaute Kraftwerk, das ohne staatliche Hilfe verwirklicht wurde, verfügte über eine elektrische Leistung von 15 MWe und ging 1960 in Betrieb (Keck 1980: 319). Parallel zu diesem Projekt verfolgten die beiden Energieversorgungsunternehmen die Pläne für den Bau eines Leistungskraftwerks. Hintergrund war auch hier der Wunsch, Erfahrungen mit der neuen Technologie zu sammeln, nun allerdings unter weitgehend realistischen Bedingungen, um darauf zukünftige Finanzkalkulationen aufbauen zu können. Daran, dass die Kernenergie in absehbarer Zeit in echte Konkurrenz zur Kohle treten könnte, glaubten die bundesdeutschen Energieversorger Ende der fünfziger Jahre jedoch nicht. RWE und Bayernwerk sahen deshalb auch keine Eile für die Umsetzung ihrer Pläne.
15 Vgl. Aufzeichnungen zur Frage der staatlichen Starthilfe für den Aufbau einer deutschen Atomwirtschaft, 1.3.1960 (BAK, B138/3546). 109
NEUE TECHNIK AUF ALTEN PFADEN?
Anfang 1960 hatten die beiden Energieversorger aus einer Reihe von Kraftwerksangeboten zwei in ihre engere Wahl gezogen.16 Das eine Angebot, das gemeinsam von AEG und General Electric unterbreitet worden war, bezog sich auf ein 237 MWe-Kraftwerk mit Siedewasserreaktor, d.h. einem Leichtwasserreaktor, der mit angereichertem Uran betrieben und leichtem Wasser moderiert und gekühlt wurde. Technologisch war es an das von General Electric entworfene Kernkraftwerk Dresden in den USA angelehnt. Das zweite Angebot stammte von den Firmen Siemens, English Electric, Babcock & Wilcox und der Taylor Woodrow Atomic Power Construction Group und basierte auf Plänen der drei letztgenannten Unternehmen für ein Kernkraftwerk im britischen Sizewell. Es sollte mit einem Magnox-Reaktor ausgestattet werden, der mit Natururan betrieben, mit Graphit moderiert und mit Kohlendioxid gekühlt wurde. Der Prototyp dieser in Großbritannien forcierten Reaktorlinie war das 1956 ans Netz gegangene Kraftwerk Calder Hall. Damit hatten RWE und Bayernwerk zwei Reaktorlinien in die engere Wahl gezogen, deren Kosten vor dem Hintergrund der amerikanischen und britischen Erfahrungen noch am ehesten kalkulierbar waren. Die beiden Energieversorger wollten jedoch erst nach einer eingehenden Berechnung aller wirtschaftlichen Risiken, die bis Mitte 1961 fertig gestellt werden sollte, entscheiden, ob und wenn ja welche der beiden Reaktorlinien für ihre Pläne in Frage kam. Das Bundesatomministerium folgte dem Vorhaben der beiden Energieversorger mit großer Aufmerksamkeit. In mehreren Gesprächen, zu denen auch fallweise Vertreter der beiden Anbietergemeinschaften geladen wurden, lotete man die Realisierungsmöglichkeiten aus.17 RWE und Bayernwerk war daran gelegen, das Investitions- und Betriebsrisiko für das geplante Kernkraftwerk möglichst klein zu halten. Entsprechend hoch waren ihre Garantieforderungen an die Anbieter, denen jedes Risiko, das über das eines normalen Kohlekraftwerks hinausging, aufgebürdet werden sollte. Dem wollten und konnten die Anbieter angesichts der geringen Erfahrung, die sie mit der neuen Technologie hatten, nicht zustimmen. Unter diesen Bedingungen schien eine Realisierung des Projekts wenig wahrscheinlich. Im Atomministerium bemühte man sich
16 Für die technischen Merkmale der beiden Reaktoren siehe BMAt, Kernkraftwerksprojekt des RWE, Besprechung mit Vertretern des RWE am 4. Jan. 1961 in Essen (BAK, B138/5103). 17 Siehe insbesondere BMAt, Aktenvermerk, Besprechung am 16. Dez. 1960; BMAt, Aktenvermerk, Besprechung am 29. Dez. 1960 (BAK, B138/5103); zu den Garantieforderungen des RWE siehe auch die Aufstellung BMAt, Kernkraftwerksprojekt des RWE, Besprechung mit Vertretern des RWE am 4. Jan. 1961 in Essen, S. 11f. (BAK, B138/5103). 110
ZIVILE KERNTECHNIK
deshalb um die Übernahme eines Teilrisikos bis zu einer Summe von 100 Mio. DM durch den Bund, wobei zunächst offen blieb, wie diese Übernahme konkret aussehen sollte. RWE legte zu dieser Zeit noch großen Wert darauf, nicht selbst als Empfänger staatlicher Hilfen in Erscheinung zu treten und sprach sich deshalb für eine Unterstützung der Herstellerfirmen aus. Aus der Perspektive des staatlichen Managements von Pfadbildungsprozessen ist ein Aspekt dieser Sondierungsgespräche besonders hervorzuheben. Auch wenn der Bund fördernd bei der Realisierung des Kraftwerkprojekts eingriff, stand für die beiden Energieversorger außer Frage, dass die Entscheidung über den zu wählenden Reaktortyp bei ihnen verblieb. Diese Position wurde von staatlicher Seite auch nicht in Frage gestellt. Dem Atomministerium war aber daran gelegen, durch staatliche Maßnahmen die Rahmenbedingungen so zu gestalten, dass keines der Angebote aufgrund kurzfristiger Risikoüberlegungen benachteiligt wurde. Ausschlaggebend für die Wahl sollten nur die wägbaren wirtschaftlichen und technischen Parameter der beiden Reaktorlinien sein, nicht aber Risikoüberlegungen, denen wenig belastbare Schätzungen zugrunde lagen. Dies wurde umso wichtiger, als derartige Schätzungen Mitte des Jahres 1961 ergaben, dass das wahrscheinliche Gesamtrisiko für den Magnox-Reaktor bei 169 Mio. DM, das wahrscheinliche Gesamtrisiko für den Siedewasserreaktor jedoch bei 237 Mio. DM lag. Größtes Einzelrisiko bei letzterem waren die nicht vorhersehbaren Kosten für den Brennstoffkreislauf, die mit einem Drittel zum Gesamtrisiko beitrugen.18 Ende 1961 kam dann eine Studie von RWE und Bayernwerk, die auch Steinkohle- und Ölkraftwerke als Vergleichsgrößen einbezog, zu neuen Ergebnissen. Das wahrscheinliche Gesamtrisiko verschob sich zugunsten des Siedewasserreaktors. Eine Entscheidung über den zu realisierenden Reaktortyp war damit allerdings nicht gefallen. Die beiden Energieversorgungsunternehmen betonten vielmehr, »dass die Zahlen beim heutigen Stand der Atomtechnik zwar wesentlich sind, aber nicht ausreichen, eine nach allen Seiten abgesicherte Basis für den Bauent-
18 BMAt, Kernkraftwerksprojekt des RWE, hier: Beteiligung des Bundes am finanziellen Bau- und Betriebsrisiko, 12.6.1961 (BAK, B138/5103). Kostenabschätzungen hatten zuvor ergeben, dass die kWh bei der Siedewasserreaktoranlage auf 4,26 Pfg. (bei Stahlcore) bzw. 4,03 Pfg. (bei Zirkoncore) und die Magnoxreaktoranlage auf 4,18 Pfg. kommen würde; BMAt, Kernkraftwerksprojekt des RWE, Besprechung mit Vertretern des RWE am 4. Jan. 1961 in Essen, S. 11 (BAK, B138/5103). 111
NEUE TECHNIK AUF ALTEN PFADEN?
schluss zu einem ersten Großatomkraftwerk abzugeben«.19 RWE und Bayernwerk entwickelten nun zunehmend Bedenken hinsichtlich der Wirtschaftlichkeit des Kernkraftwerksprojekts. Gegenüber dem Atomministerium klagten sie über vielfältige Probleme, in deren Zentrum immer wieder die Finanzierungsfrage stand. Das RWE, das Ende 1960 noch direkte staatliche Hilfen für sich ausgeschlossen hatte, machte diese nun zur Voraussetzung für eine Realisierung des Projekts.20 RWE und Bayernwerk hoben zwar hervor, »nach wie vor Interesse daran [zu haben], im eigenen Betrieb Erfahrung mit einem Großkernkraftwerk zu gewinnen«. Dies könne aber nur unter für beide Firmen vertretbaren wirtschaftlichen Bedingungen geschehen: »Wir glauben nämlich nicht, dass etwa im Hinblick auf eine sich in näherer Zukunft abzeichnende Energielücke der Baubeginn bereits im gegenwärtigen Zeitpunkt oder auch nur in absehbarer Zeit erforderlich wäre.«21 Im Bundesatomministerium wurde die Lage freilich anders eingeschätzt. Angesichts des immer deutlicher werdenden Scheiterns des Eltviller Programms schrieb man dort dem raschen Bau eines Kernkraftwerks eine richtungweisende Rolle für die gesamte Entwicklung der Kerntechnik in der Bundesrepublik zu.22 Entsprechend bemüht waren die Ministerialbeamten, die Finanzierungsprobleme der Energieversorger aus dem Weg zu räumen, und schlugen deshalb ein ganzes Bündel von Maßnahmen vor. Darin fiel dem bereits Ende 1958 zwischen den USA und der Europäischen Atomgemeinschaft (EURATOM) geschlossenen Abkommen über die Zusammenarbeit bei der friedlichen Nutzung der Atomenergie eine Schlüsselrolle zu. Denn im Rahmen dieses Abkommens war ein »Atomkraftwerk-Programm« verabschiedet worden, das bis Ende 1965 die Förderung von Bau und Inbetriebnahme von zwei Großkraftwerken in den Mietgliedsstaaten der EURATOM vorsah. Voraussetzung für die Beteiligung an diesem Programm war, dass dabei USamerikanische Technik zum Einsatz kam.23 Indem das Atomministerium die anstehenden Finanzierungsprobleme über dieses Programm zu lösen 19 Auszugsweise Abschrift aus »Die wirtschaftlichen Probleme eines ersten Großatomkraftwerkes«, RWE/BAG – Studie – erste Fassung (Dez. 1961), Zitat S. 7 (BAK, B138/5105). 20 BMAt, Aktenvermerk, Kernkraftwerksprojekt des RWE, 8.2.1962 (BAK, B138/5103). 21 Bayernwerk und RWE an BMAt, 16.2.1962 (BAK, B138/5105). 22 Vgl. auch BMAt an BMF, 21.1.1962 (BAK, B138/5105). 23 Europäische Atomgemeinschaft, Ausschreibung zur Einreichung von Vorschlägen im Rahmen des gemeinsamen Atomkraftwerk-Programms EURATOM/USA, Amtsblatt der Europäischen Gemeinschaft, 21.9.61, S. 1125/61–1128/61; siehe auch Cartellieri (BMAt) an Mandel (RWE), 4.4.1962 (BAK, B138/5103). 112
ZIVILE KERNTECHNIK
suchte, wurde die bis dahin noch offene Frage der Reaktorwahl zugunsten des Siedewasserreaktors entschieden. Eine Wahl, die nach ursprünglicher Absicht des Atomministeriums unter rein wirtschaftlich-technischen Gesichtspunkten hätte getroffen werden sollen, fiel damit in der Arena der internationalen Politik. Da die Meldefrist für das in Aussicht genommene USA/EURATOM-Programm am 1. Juni 1962 auslief, musste eine schnelle Einigung erzielt werden. Bei den im Mai mit den beiden Energieversorgungsunternehmen sowie den für die Finanzierung des Projekts mitverantwortlichen Organisationen, darunter auch die EURATOM, geführten Verhandlungen gingen die Teilnehmer jedoch bereits davon aus, »dass von den zwei in die engere Wahl gezogenen Angeboten dasjenige […] für ein Kernkraftwerk mit Siedewasserreaktor […] zum Zuge kommt, nachdem sich in den bisherigen Erörterungen ergeben hat, dass wenig Aussichten bestehen, die Finanzierungsprobleme zu lösen, die sich bei Annahme des Angebots […] für ein Kernkraftwerk mit Magnox-Reaktor […] ergeben würden.«24
Von langfristigen Vor- und Nachteilen der einen oder anderen Reaktorlinie war hier nicht mehr die Rede. Die Vereinbarungen, die schließlich getroffen wurden, sahen neben der Aufnahme des Kraftwerks in das USA/EURATOM-Programm verschiedene Bundeshilfen (Beteiligung am Betriebsrisiko in Höhe von 90 %, verbilligte Kredite, Bürgschaften, Steuererleichterungen usw.) sowie zusätzliche Finanzhilfen durch die EURATOM vor.25 Nachdem die Finanzierung des Projekts gelöst war, wurde Ende 1962 der Auftrag für den Bau des ersten bundesdeutschen Demonstrationskraftwerks in Gundremmingen erteilt, dessen Leistung noch deutlich unter der später für Leistungskraftwerke üblichen Größenordnung von etwa 1.000 MWe lag.26 Dass die heimische Kerntechnikentwicklung damit auch auf den US-amerikanischen Technologiepfad einschwenkte,
24 BMAt, Ergebnisniederschrift, Gemeinsame Besprechung über die Möglichkeiten der Finanzierung und Risikoabdeckung für das Kernkraftwerksvorhaben Bertoldsheim am 2. Mai 1962, Zitat S. 1 (BAK, B138/5105). 25 Siehe BMAt an Geschäftsführer der Kernkraftwerk RWE-Bayernwerk GmbH u.a., 21.9.1962 (BAK, B138/5104). 26 Ursprünglich sollte das Kernkraftwerk im bayerischen Bertoldsheim gebaut werden. Der Widerstand der örtlichen Wasserwirtschaftsbehörden und der Stadt Nürnberg, die die Trinkwasserversorgung des Ballungsraums Nürnberg/Fürth durch diese Standortwahl gefährdet sahen, führte dann aber zu einer Verlagerung des Projekts nach Gundremmingen; siehe Kitschelt 1980: 71. 113
NEUE TECHNIK AUF ALTEN PFADEN?
wollte man in der Deutschen Atomkommission allerdings nicht wahrhaben. Vielmehr vertrat man dort die Auffassung, dass das Eltviller Programm weiter verfolgt werden sollte, und erinnerte in diesem Zusammenhang »nachdrücklich daran, den Brennstoff Natururan nicht zu vergessen, da nur er allein eine gewisse Unabhängigkeit vom Ausland gewährleistet«.27 Und auch 1965 vertrat die Deutsche Atomkommission noch den Standpunkt, »dass die Beschränkung auf eine Reaktorbaulinie den vielfältigen Entwicklungsmöglichkeiten nicht gerecht würde«.28 Die Kommerzialisierung der Kerntechnik beschritt indes einen anderen Weg. In den Jahren 1964 und 1965 folgten zunächst Aufträge für zwei weitere Demonstrationskraftwerke, die mit Leichtwasserreaktoren USamerikanischen Typs ausgestattet wurden. Auch diese Kernkraftwerke, erbaut in Lingen und Obrigheim, waren im Eltviller Programm nicht vorgesehen. Immerhin lag die Bauleitung zu hundert Prozent bei den deutschen Firmen AEG bzw. Siemens, so dass sich die Kritik an beiden Projekten in Grenzen hielt (Radkau 1983: 201). Von den im Eltviller Programm umrissenen Reaktorplänen hatte man sich zu diesem Zeitpunkt ohnehin weitgehend verabschiedet – auch wenn das ungern eingestanden wurde. Das 1963 aufgelegte zweite Atomprogramm, das von einem Ausschuss unter der Leitung von Heinz Maier-Leibnitz erarbeitet wurde, blieb in der Frage der Typenauswahl recht diffus und bot daher weite Spielräume für Interpretationen. Zudem setzte das Programm einen deutlichen Schwerpunkt bei der kernphysikalischen Grundlagenforschung. Als 1968 unter Bundesforschungsminister Gerhard Stoltenberg das dritte Atomprogramm – nun erstmals offiziell von der Bundesregierung – verabschiedet wurde, spielte das Problem der Suche nach dem besten Reaktor für die kommerzielle Nutzung der Kernenergie keine Rolle mehr. Stattdessen wurde die zweite Reaktorgeneration ins Visier der staatlichen Forschungs- und Technologiepolitik genommen, namentlich der Schnelle Brüter und der bereits im Eltviller Programm umrissene Hochtemperaturreaktor, der eine Umdeutung zum Zukunftsreaktor erfuhr (zu den beiden Atomprogrammen W. Müller 1996: 341–352; zum Hochtemperaturreaktor Kirchner 1991). Der Bau der Demonstrationskraftwerke Gundremmingen, Lingen und Obrigheim wurde von der Energiewirtschaft als Auftakt zum Einstieg in die kommerzielle Nutzung der Kernenergie verstanden. An die 27 Bericht über die Neufassung des Deutschen Leistungsreaktorprogramms von Prof. Dr. Karl Wirtz, Karlsruhe, vor der Deutschen Atomkommission am 11. Juli 1962, Zitat S. 5 (BAK, B138/3300). 28 Bericht über den Stand der Förderungsmassnahmen und Zukunftsplanungen im Rahmen des deutschen Atomprogramms, Karl Winnacker, 20.5.1965, S. 17 (BAK, B138/3300). 114
ZIVILE KERNTECHNIK
Stelle von Unsicherheit über die Zukunft des neuen Energieträgers trat nun der Glaube an seine schnelle Rentabilität. 1967 wurde bei Siemens und AEG je ein Leistungskraftwerk in Auftrag gegeben, ohne dass dafür staatliche Zuschüsse notwendig wurden. Die beiden Kraftwerke, die in Stade und Würgassen errichtet wurden, waren wie schon die vorangegangen Demonstrationskraftwerke mit Leichtwasserreaktoren ausgestattet; ihre Leistung belief sich auf 630 bzw. 640 MWe. Diese beiden Aufträge waren nicht nur deshalb bedeutsam, weil sie den Anfang der kommerziellen Kernenergienutzung in der Bundesrepublik markieren. Sie besiegelten auch das Aus der Experimentierphase für die Kernkraftwerke der ersten Generation, indem sie das Feld potentieller Entwicklungspfade endgültig auf die schon bei den Demonstrationskraftwerken verwendete Leichtwassertechnologie einschränkten. Alle weiteren kommerziell motivierten Aufträge der bundesdeutschen Energieversorgungswirtschaft für Kernkraftwerke beinhalteten Leichtwasserreaktoren (vgl. Tabelle 4-2). Tabelle 4-2: Kernkraftwerksaufträge in der BRD, 1967–77 Bestelljahr
MWe insgesamt
Kernkraftwerksaufträge
1967 1969 1970 1971
1.270 (2 Projekte) 1.915 (2 Projekte) 864 (1 Projekt) 4.095 (4 Projekte)
1972 1973 1974 1975
1.260 (1 Projekt) 2.499 (2 Projekte) 2.488 (2 Projekte) 6.325 (5 Projekte)
1976 1977
1.332 (1 Projekt) 790 (1 Projekt)
Stade, Würgassen Biblis A, Brunsbüttel Philippsburg I Biblis B, Neckarwestheim I, Ohu, Esenshamm Krümmel Mühlheim-Kärlich, Whyl Gundremmingen B und C Grafenrheinfeld, Philippsburg II, Grohnde, Hamm, Brokdorf Biblis C Neckarwestheim
Quelle: Kitschelt 1980: 133. Die Erfahrung, die man ab Mitte der sechziger Jahre mit dem Leichtwasserreaktor machte und die bei anderen Typen weit geringer ausfiel oder völlig fehlte, sprach aus der Sicht der Kraftwerkbetreiber für diese Reaktorlinie. Sowohl unter dem Blickwinkel wirtschaftlicher als auch technischer Risiken war eine erprobte Technologie einer wenig oder unbekannten Technologie vorzuziehen – auch um den Preis möglicher Suboptimalitäten in einzelnen Parametern. Mit der Verbreitung von 115
NEUE TECHNIK AUF ALTEN PFADEN?
Leichtwasserreaktoren nahm aber die Erfahrung von Herstellern und Betreibern mit dieser Reaktorlinie schnell zu. Von diesem Lerneffekt profitierten beide Seiten: Die technischen Probleme bei der Inbetriebnahme der Anlagen wurden geringer, Verbesserungen konnten berücksichtigt, Kosten genauer kalkuliert und Modifikationen fortlaufend erprobt werden, wodurch sich wiederum die Attraktivität dieser Reaktorlinie erhöhte. Durch diesen positiven Rückkopplungseffekt erfolgte schließlich ein Lock-in in die Leichtwassertechnologie. Fortschritte in der Reaktorentwicklung waren nun Fortschritte beim Bau von Leichtwasserreaktoren. Mit anderen Worten, es hatte sich ein technological trajectory etabliert. Die bundesdeutschen Kernreaktorhersteller spezialisierten sich höchst erfolgreich auf die Leichtwassertechnologie und fanden damit Anschluss an die internationale Entwicklung. Bis 1977 hatte sich die Kraftwerk Union, die 1969 aus einem Zusammenschluss der kerntechnischen Unternehmensbereiche von Siemens und AEG hervorging, zum drittgrößten Exporteur von Kernkraftwerken in der westlichen Hemisphäre entwickelt (vgl. Tabelle 4-3). Die Exportquote der Bundesrepublik lag dabei mit 40 % ungefähr doppelt so hoch wie die von Frankreich (22 %), Kanada (22 %) oder den USA (19 %), was auf die ausgeprägte Exportorientierung der bundesdeutschen Industrie zurückzuführen ist (Posner 1981: 48). Tabelle 4-3: Vergleich der Exportvolumina der westlichen Kernkraftwerkhersteller anhand der gelieferten elektrischen Leistung, Stand: 1977 Kernkraftwerkhersteller
gelieferte elektrische Leistung in MWe
Westinghouse (USA) General Electric (USA) Kraftwerk Union (BRD) Framatom (FRA) Atomic Energy of Canada Brown Boveri (BRD) ASEA (SWE) The Nuclear Power Group (GBR) Sonstige
25.257 16.780 8.402 6.414 1.600 1.300 1.260 200 949
Insgesamt
62.162
Quelle: Posner 1981: 48.
116
ZIVILE KERNTECHNIK
Der Erfolg der Leichtwassertechnologie, der sich seit den späten sechziger Jahren immer deutlicher abzuzeichnen begann, bedeutete keineswegs das sofortige Ende für die Forschungs- und Entwicklungsarbeiten an alternativen Reaktorlinien, obgleich diese für die Kommerzialisierung der Kerntechnik keine Rolle mehr spielten. Ein Beispiel dafür ist das im bayerischen Niederaichbach ab 1966 gebaute Kernkraftwerk, das mit einem Schwerwasserreaktor ausgestattet wurde. Folgt man Joachim Radkau (1978b), dann wurde die Entwicklung dieses Reaktortyps wesentlich von drei Motiven getrieben. Erstens sollte der Schwerwasserreaktor, der mit Natururan betrieben wurde, die Unabhängigkeit der Bundesrepublik von Importen angereicherten Urans sichern helfen. Zweitens wollte man mit diesem Reaktor neben der amerikanischen (Leichtwasserreaktor) und britischen (Gas-Graphit-Reaktor) eine eigene Reaktorlinie etablieren, um so die Leistungsfähigkeit bundesdeutscher Wissenschaft und Technik zu demonstrieren. Der Schwerwasserreaktor, der die Tradition des deutschen Uranmaschinen-Projekts fortführte, schien dazu besonders geeignet. Und drittens hoffte man auf Exporterfolge in Länder, die ebenfalls Unabhängigkeit von Importen angereicherten Urans anstrebten, aber über keine eigene Reaktorentwicklung verfügten. Mindestens ebenso bedeutsam für die Realisierung des Schwerwasserreaktors in Niederaichbach war das Bestreben Bayerns, sich als Kerntechnikstandort zu etablieren.29 Heinz Maier-Leibnitz hatte bereits 1956 dem bayerischen Ministerpräsidenten den Vorschlag unterbreitet, ein Kernkraftwerk im Freistaat zu errichten. Ein Jahr später wurde dann auf Anregung der Bayerischen Atomkommission die Gesellschaft für die Entwicklung der Atomkraft in Bayern mbH (Atomkraft Bayern) gegründet, hinter der kleinere und größere Energieversorgungsunternehmen sowie der bayerische Staat standen. Sie übernahm es, Siemens 1959 einen Planungsauftrag für den im Eltviller Programm skizzierten Schwerwasserreaktor zu geben. Die Kosten wurden zwischen Siemens und der Atomkraft Bayern aufgeteilt, die sich den Großteil ihrer Ausgaben vom Bund zurückholte. Wie bei den anderen im Eltviller Programm vorgesehenen Reaktortypen zögerten auch hier die Energieversorgungsunternehmen, für die Finanzierung des Projekts aufzukommen. Nachdem sich eine interministerielle Arbeitsgruppe beim bayerischen Wirtschaftsministerium und die Deutsche Atomkommission für die Realisierung der Reaktorpläne ausgesprochen hatten, gab im November 1964 auch die Atomkraft Bayern ihre Zustimmung. Bevor der Auftrag, das Kernkraftwerk auf einem Grundstück des Bayernwerks in Niederaichbach zu er29 Zur Geschichte des Schwerwasserreaktors siehe Deutinger 2001: 77f.; Radkau 1978b. 117
NEUE TECHNIK AUF ALTEN PFADEN?
richten, an Siemens erteilt werden konnte, musste zunächst allerdings noch die völlig offene Finanzierungsfrage geklärt werden. Der schließlich ausgehandelte Modus sah vor, dass der Bund den nuklearen Teil der Anlage bezahlte, während das Bayernwerk für den konventionellen Teil (d.h. Turbinen, Transformatoren etc.) aufkam. Der bayerische Staat sollte ein zinsloses Darlehen bereitstellen und notwendige Bürgschaften übernehmen. Im Juni 1966 erhielt Siemens schließlich den Bauauftrag für das Kernkraftwerk Niederaichbach. Bis der Schwerwasserreaktor 1972 in den Probebetrieb gehen konnte, verstrichen nochmals ungefähr sechs Jahre, da finanzielle und technische Probleme immer wieder zu Verzögerungen führten. Problematischer war freilich, dass das Kraftwerk bei seiner Fertigstellung bereits als technisch überholt galt. Da es zudem nur ein Viertel seiner vorgesehenen Leistung erreichte, wurde es nach kurzer Zeit vom Erbauer abgeschaltet, ohne dass eine Abnahme durch die staatlichen und privaten Auftraggeber erfolgt wäre. Nach mehr als zwei Jahrzehnten, in denen das Kernkraftwerk Niederaichbach als ungenutzte Investitionsruine an die wirtschaftlichen Risiken neuer Technologien gemahnte, wurde es Mitte der neunziger Jahre schließlich abgerissen. Nachdem für Entwicklung und Bau des Kernkraftwerks knapp 235 Mio. DM ausgegeben worden waren (Keck 1980: 314), fielen für den Rückbau und die Entsorgung der Anlage nochmals rund 280 Mio. DM an.30 Rückblickend hat sich der Schwerwasserreaktor als eine Sackgassen der bundesdeutschen Kerntechnikentwicklung erwiesen. Das bloße Scheitern eines Technologiepfades spricht jedoch noch nicht für eine verfehlte Politik. Wo technologische Diversität als Grundlage für eine spätere Pfadwahl angestrebt wird, ist der Abbruch von Entwicklungslinien, die sich im Vergleich zu möglichen Alternativen als wenig aussichtsreich erweisen, unvermeidbar. Man mag den Verlust der aufgewandten Mittel bedauern, investiert wurden sie letztlich nicht in das gescheiterte Einzelprojekt, sondern in die Schaffung einer ausreichend breiten Entscheidungsgrundlage für die Pfadwahl. Das Scheitern des Niederaichbacher Schwerwasserreaktors verweist aber auf ein anderes Problem: die Schwierigkeit, sich über das Ende der Suchphase in einem Pfadbildungsprozess zu verständigen. Denn obgleich die bundesdeutschen Energieversorgungsunternehmen spätestens 1967 mit der Beauftragung der beiden kommerziellen Kernkraftwerke in Stade und Würgassen auf den Technologiepfad des Leichtwasserreaktors einschwenkten, verabschiedeten sich viele andere Kerntechnikinteressenten nur 30 Siehe http://www.kernenergie.de/r2/de/Gut_zu_wissen/Stilllegung/nieder aichbach.php; 15.10.2008. 118
ZIVILE KERNTECHNIK
ganz allmählich von den Ideen des Eltviller Programms. Daran änderte auch der Umstand nichts, dass das dritte Atomprogramm von 1968 mit seiner Betonung der zweiten Reaktorgeneration der Frage nach dem besten Reaktor für den Einstieg in die kommerzielle Kernenergienutzung keine Aufmerksamkeit mehr schenkte. Nun lässt sich einwenden, dass der Bauauftrag für das Kernkraftwerk Niederaichbach zu einem Zeitpunkt erfolgte, an dem sich die Durchsetzung des Leichtwasserreaktors erst abzuzeichnen begann, und vertraglich eingegangene Verpflichtungen danach schwer zu revidieren waren. Ob es etwas später nicht mehr zur Realisierung des Reaktors gekommen wäre, darüber lässt sich naturgemäß nur spekulieren. Angesichts der Bedeutungsüberladenheit des Schwerwasserreaktors scheint es wenig wahrscheinlich, dass die beteiligten Interessengruppen ihre Position revidiert hätten. Zudem machte es ja auch durchaus Sinn, an der Realisierung des Projekts festzuhalten, solange die im Eltviller Programm konzipierte Pfadsuche nicht offiziell beendet wurde. Eine Verständigung hierüber – etwa in der Deutschen Atomkommission – gab es jedoch nicht. Dazu waren nicht nur die Partikularinteressen der beteiligten Gruppen zu unterschiedlich. Es fehlten auch verbindliche Kriterien, mit deren Hilfe man über das Ende der Pfadsuche einvernehmlich entscheiden hätte können. Im Eltviller Programm war lediglich das Jahr 1965 als Zielmarke festgelegt, die aber angesichts der Umsetzungsschwierigkeiten schnell ihre Relevanz verlor. Programmatischer Entwurf und tatsächliche Entwicklung klafften hier, wie wir gesehen haben, weit auseinander. Letztlich unterstreicht das Schicksal des Schwerwasserreaktors das Argument, dass es sich bei der Durchsetzung der Leichtwassertechnologie in der Bundesrepublik um eine spontane Pfadbildung und eben nicht um eine bewusste Pfadwahl handelte.
4.4 Der Schnelle Brüter: Kerntechnik zwischen Euphorie und Kritik Mit dem zügigen Ausbau der kommerziellen Kerntechnik und den Exporterfolgen der heimischen Kernkraftwerkhersteller hatte sich die Bundesrepublik Anfang der siebziger Jahre weitgehend den industriepolitischen Zielen genähert, die von der Atompolitik fast zwei Jahrzehnte zuvor formuliert worden waren. Trotzdem standen der Forschungs- und Technologiepolitik die großen Herausforderungen noch bevor. Denn Mitte der siebziger Jahre setzte eine breite Kontroverse um die Nutzung der Kernenergie ein. Darin wurde die Legitimität des mühsam etablierten Technologiepfades in Frage gestellt, worauf die Forschungs- und 119
NEUE TECHNIK AUF ALTEN PFADEN?
Technologiepolitik reagieren musste. Zur Diskussion standen auf einmal nicht mehr einzelne Alternativen innerhalb eines Technologiefeldes, sondern das Technologiefeld selbst. Kerntechnik wurde nun energiepolitisch ernst genommen und mit alternativen Energieträgern verglichen. Um zu sehen, mit welchen Strategien die Politik diesen Herausforderungen begegnete, soll im Folgenden die Geschichte des Schnellen Brüters aufgegriffen werden. Dieser Reaktor der so genannten zweiten Generation wurde für die Kernenergiekritiker zum Inbegriff des kerntechnischen Risikos. Er war Anlass für die 1979 vom Deutschen Bundestag eingesetzte Enquete-Kommission »Zukünftige Kernenergie-Politik«, die, wie in Kapitel 4.5 dargelegt wird, das Instrument der Pfadszenariendiskussion in die Forschungs- und Technologiepolitik einführte. Im Folgenden betrachten wir zunächst den Meinungswandel der bundesdeutschen Bevölkerung über die zivile Kerntechnik sowie die Entwicklungsgeschichte des Schnellen Brüters. Wie oben angesprochen wurden die Anfänge der zivilen Kerntechnikentwicklung in der Bundesrepublik von einem Konsens der wissenschaftlichen, politischen und wirtschaftlichen Eliten getragen. Deren Begeisterung für die neue Technik nahm im Anschluss an die erste Genfer Atomkonferenz von 1955, über die in den Medien intensiv berichtet wurde, geradezu euphorische Züge an. Nicht ganz so berauschte Zeitgenossen wie die Vorstände der Unternehmen Hoechst und RWE, W. Alexander Menne und Heinrich Schöller, sprachen deshalb von einer »Atompsychose« bzw. »Atomhysterie«, von der die Bundesrepublik erfasst worden sei. Damit wollten sie vor allzu überstürzten Entscheidungen warnen, ohne deshalb freilich die Kerntechnik grundsätzlich in Frage zu stellen (Radkau 1983: 86, 182). Blickt man auf die Meinung der bundesdeutschen Bevölkerung zur Kernenergie, die seit Mitte der fünfziger Jahre regelmäßig in Umfragen ermittelt wurde, ergibt sich ein etwas anderes Bild (siehe Dube 1988). Dabei gilt es zunächst festzuhalten, dass der Begriff »Atomenergie« im ersten Nachkriegsjahrzehnt in Westdeutschland ganz überwiegend negativ besetzt war und mit Bomben, Krieg und Vernichtung in Verbindung gebracht wurde. Die Unterscheidung von militärischer und ziviler Nutzung der Kernenergie, die Eisenhower mit seinem »Atoms for Peace«Programm verankern wollte, vollzog sich im öffentlichen Bewusstsein nur langsam. Noch Mitte der sechziger Jahre hatte ein Drittel der Bundesbürger nichts von der zivilen Nutzung der Kernenergie gehört. Erst mit der Inbetriebnahme der ersten Demonstrationskraftwerke wurde das Wissen um die Möglichkeit eines nicht-militärischen Einsatzes der Kernenergie zum Allgemeingut. Vor diesem Hintergrund überrascht es nicht, dass bei einer Umfrage der US-amerikanischen Botschaft im Au120
ZIVILE KERNTECHNIK
gust 1955 lediglich 36 % der Befragten erklärten, sie würden sich einen persönlichen Nutzen von der zivilen Kerntechnik versprechen. Die erste Genfer Atomkonferenz, die kurz nach dieser Umfrage stattfand, steigerte diesen Wert zwar um zehn Prozentpunkte auf 46 %. Auf eine Atomeuphorie der bundesdeutschen Bevölkerung deuten diese Zahlen aber nicht (Dube 1988: 4–9). Für die Formulierung des ersten Atomprogramms hatte die in der Bevölkerung zunächst verbreitete Skepsis gegenüber der Kernenergie jedoch keine Bedeutung. Auf die frühe Pfadsuche in der Kerntechnik nahmen wie oben gezeigt nur die unmittelbar beteiligten Interessengruppen aus Wissenschaft, Industrie und Politik bzw. staatlicher Verwaltung Einfluss. Herbert Kitschelt (1980: 347) sieht darin die wesentliche Ursache dafür, dass in der bundesdeutschen Kerntechnikentwicklung »querliegende Interessen möglicher Betroffenengruppen und langfristige Konsequenzen der politischen Entscheidungen nicht berücksichtigt wurden«. Die reservierte Haltung unter den Bundesbürgern gegenüber der Kernenergie verlor sich in den sechziger Jahren jedoch zunehmend. Sahen gemäß einer Langzeitstudie des Instituts für Demoskopie in Allensbach Ende der fünfziger Jahre etwa 40 % der Bevölkerung die Kernenergie skeptisch oder pessimistisch, so ging dieser Anteil bis Mitte der siebziger Jahre kontinuierlich auf einen Wert von etwa 15 % zurück. Demgegenüber erreichte der Bevölkerungsanteil, der mit verhaltenem oder ungetrübtem Optimismus auf die Kernenergie blickte, Mitte der siebziger Jahre einen Wert von etwa 80 % (Dube 1988: 9f.). Damit fiel die Bestellung der meisten in der Bundesrepublik gebauten kommerziellen Kernkraftwerke in eine Zeit, in der die zivile Kerntechnik in der Bevölkerung auf große Akzeptanz stieß (vgl. Tabelle 4-2). Dem entsprach, dass bis etwa Mitte der siebziger Jahre der Protest gegen die zivile Kerntechnik lokal begrenzt war. Getragen von Bürgerinitiativen richtete er sich gegen einzelne Kernkraftwerksprojekte, von denen die Protestierenden eine Beeinträchtigung oder Gefährdung ihrer unmittelbaren Lebenswelt befürchteten. Mit der Wahl eines alternativen Standortes – wie im Fall des Demonstrationskraftwerks Bertoldsheim, das nach örtlichen Protesten in Gundremmingen realisiert wurde – konnte dieser moderaten Kerntechnikkritik vergleichsweise einfach begegnet werden (Kitschelt 1980: 194–208). Das änderte sich zu Beginn des Jahres 1975, als mit der medienwirksamen Besetzung des Bauplatzes für das Kernkraftwerk Whyl die zweite Phase der Kerntechnikkritik in der Bundesrepublik eingeläutet wurde. Die sich damals formierende Anti-AKW-Bewegung forderte einen generellen Baustopp für Kernkraftwerke, in denen sie eine nicht beherrschbare Risikotechnologie sah. Die Auseinandersetzungen zwischen Befür121
NEUE TECHNIK AUF ALTEN PFADEN?
wortern und Gegnern der Kerntechnik wurden nun immer häufiger von organisierten Protesten begleitet und erreichten Anfang 1981 mit den Großdemonstrationen gegen den Bau des Kernkraftwerks Brokdorf ihren Höhepunkt (Kitschelt 1980: 227–252; siehe auch Görtemaker 1999: 628–634). Im gleichen Maße wie die öffentliche Kritik an der zivilen Kerntechnik wuchs, sank ihr Rückhalt in der Bevölkerung. Folgt man der oben zitierten Langzeitstudie aus Allensbach, ging der Anteil der verhaltenen bzw. ungetrübten Kernenergieoptimisten unter den Bundesbürgern nach Mitte der siebziger Jahre stetig zurück und erreichte 1983 einen Wert knapp unter 60 %. Dabei dürfte der Störfall im US-amerikanischen Kernkraftwerk Three Mile Island bei Harrisburg im März 1979 ebenso für die Gefahren der zivilen Kerntechnik sensibilisiert haben wie die Anfang der achtziger Jahre entflammte Debatte um die Stationierung atomarer Mittelstreckenraketen in der Bundesrepublik, die die Kernenergie im öffentlichen Bewusstsein wieder stärker an ihre militärische Verwendung heranrückte (Dube 1988: 10–15). Auch wenn Anfang der achtziger Jahre noch eine Mehrheit der bundesdeutschen Bevölkerung den Bau von Kernkraftwerken befürwortete, erodierten Kritik und Protest die Legitimationsbasis der zivilen Kerntechnik. Die Katastrophe von Tschernobyl im April 1986 verschob dann das Gewicht der Bevölkerungsmeinung auf die Seite der Kerntechnikgegner. Eine Umfrage von Infas im Mai 1986 identifizierte 52 % Kernenergiegegner und 23 % Kernenergiebefürworter unter den Bundesdeutschen. Infratest fand im Sommer desselben Jahres heraus, das zwei Drittel der Befragten einen Ausstieg aus der zivilen Nutzung der Kernenergie befürworteten (Dube 1988: 16). Vor diesem Meinungswandel der bundesdeutschen Bevölkerung muss die Entwicklungsgeschichte des Schnellen Brüters gesehen werden (im Folgenden nach Keck 1981; W. Müller 1996: 447–477; vgl. auch Marth/Koehler 1998). Die Reaktoren des Eltviller Programms wurden von Anfang an als Technologie der ersten Generation begriffen, mit der der Einstieg in die kommerzielle Nutzung der Kernenergie vollzogen werden sollte. Nach der Durchsetzung der Leichtwassertechnologie richteten sich die Bemühungen der staatlichen Forschungs- und Technologiepolitik daher auf die zweite Generation von Reaktoren, zu der die Brüter gezählt wurden.31 Brüter sind dadurch gekennzeichnet, dass sie nuklearen Brennstoff aus nicht spaltbaren Isotopen »erbrüten« können. Da Schnelle Brüter mehr spaltbares Material erzeugen als verbrauchen, wurde in ihnen eine beinahe unerschöpfliche Quelle preiswerter Energie gesehen. In der 31 Die dritte Generation sollten Fusionsreaktoren bilden, die die endgültige Lösung der Energieprobleme der Menschheit zu versprechen schienen. 122
ZIVILE KERNTECHNIK
Bundesrepublik lässt sich das Interesse an der Brütertechnologie bis in die späten fünfziger Jahre zurückverfolgen. Ähnlich wie die Natururanreaktoren wurden Brüter damals als eine Strategie der Unabhängigkeit von Uranimporten verstanden. Darüber hinaus versprach diese Technologie eine radikale Verbilligung der Energieerzeugung, die für den langfristigen Erfolg der zivilen Kerntechnik auf dem Strommarkt als unverzichtbar angesehen wurde. Mit Zustimmung der Deutschen Atomkommission wurde 1960 unter der Leitung von Wolf Häfele eine Studiengruppe am Kernforschungszentrum Karlsruhe etabliert, um die Möglichkeiten zur Entwicklung eines Schnellen Brüters zu untersuchen. Als Ergebnis ihrer Arbeiten legte die Studiengruppe ein Drei-Phasen-Programm vor, das mit Kosten von etwa 25 Mio. DM verbunden war. Nach einer ersten Vorauswahl unter möglichen Brutreaktortypen war eine Reihe physikalischer und technischer Experimente vorgesehen, um einen ersten Konzeptentwurf ausarbeiten zu können. Nach weiteren Experimenten sollten dann die detaillierten Planungen und schließlich der Bau eines Schnellen Brüters erfolgen. Wie schon bei den Kernreaktoren der ersten Generation mussten sich die Konstrukteure auch beim Brüter mit mehreren reaktortechnischen Möglichkeiten auseinandersetzen. Da Schnelle Brüter ohne Moderator arbeiten, stand hier die Frage nach dem am besten geeigneten Kühlmittel im Zentrum der theoretischen und experimentellen Arbeiten. Diskutiert wurden als mögliche Alternativen Helium, Natrium und Wasserdampf. Da jedes dieser Kühlmittel spezifische Vor- und Nachteile besaß, waren eingehende Untersuchungen notwendig. Mit der Intensivierung der Brüterforschung stieg der Bedarf an Forschungsmitteln schnell an. Neben dem Bund, der sich an den anfallenden Kosten beteiligte, erfuhr das Karlsruher Projekt durch EURATOM eine substanzielle Förderung. In einem Assoziierungsvertrag vom Mai 1963 wurde die Übernahme von 40 % der vorgesehenen Gesamtausgaben von 185 Mio. DM durch die Atomgemeinschaft vereinbart. Ergänzend zur finanziellen Hilfe bot sie einen institutionellen Rahmen, in dem die Bundesrepublik das für die Forschungsarbeiten notwendige Plutonium aus den USA erhalten sowie Forschungskooperationen mit anderen Ländern, namentlich Belgien und den Niederlanden, aufbauen konnte. Das ursprüngliche Programm zur Entwicklung des Schnellen Brüters sah vor, mit den Planungen und dem Bau eines Prototyps bis zum Abschluss der Experimentierphase zu warten. Dadurch wollten die Planer eine wohl begründete Wahl des besten Kühlmittels unter den möglichen Alternativen sicherstellen. Mit dem Bau des Prototyps sollte deshalb nicht vor 1973 begonnen werden. 1964 erschien diese Zeitplanung aufgrund der internationalen Entwicklungen jedoch zunehmend fragwürdig. 123
NEUE TECHNIK AUF ALTEN PFADEN?
Die bundesdeutschen Vertreter der Brütertechnologie fühlten sich insbesondere durch die Ankündigung von General Electric verunsichert, bereits im Laufe des Jahres 1974 einen kommerziellen Brutreaktor auf den Markt zu bringen. Als Reaktion forderte unter anderen der Leiter des Karlsruher Brüterprojekts, Wolf Häfele, die Entwicklungsarbeiten zu beschleunigen. Statt wie vorgesehen zunächst ausgiebig mit kleinen Versuchsanordnungen zu experimentieren, sollte möglichst bald der Prototyp eines Schnellen Brüters mit einer Leistung von 250 MWe gebaut werden. Da damals noch keine Entscheidungsgrundlage für die Wahl zwischen Natrium und Wasserdampf als Kühlmittel vorlag, entstand die Idee, zwei Prototypen – einen natrium- und einen dampfgekühlten – zu bauen. Die Heliumvariante war zu diesem Zeitpunkt wegen schwer zu lösender technischer Probleme als Alternative bereits vom Tisch. Der Bau von zwei unterschiedlichen Brutreaktoren war nicht nur für einen kerntechnischen Spätstarter wie die Bundesrepublik ein ambitioniertes Unterfangen. Nichtsdestotrotz fand diese Idee in der Wissenschaft ebenso Unterstützung wie bei den Vertretern von Industrie (Kernkraftwerkhersteller und Energieversorger) und Staat. Dies kann durchaus als Zeichen eines gewachsenen Selbstbewusstseins unter den Kerntechnikinteressenten des bundesdeutschen Innovationssystems gedeutet werden. Immerhin hatten sie zu diesem Zeitpunkt mit dem Bau der Demonstrationskraftwerke bereits eine entscheidende Strecke auf dem Weg zur kommerziellen Kerntechnik hinter sich gebracht. Nachdem die Koordination und Verantwortung für die Entwicklung des Schnellen Brüters anfangs bei der Karlsruher Forschungsgruppe gelegen hatte, gingen diese Zuständigkeiten nun auf die Industrie über. Nach Rücksprache mit der Deutschen Atomkommission, beauftragte das Bundesforschungsministerium 1966 zwei Industriegruppen mit der Entwicklung und dem Bau der beiden Prototypen: Die eine Gruppe, gebildet von Siemens und Interatom, konzentrierte sich auf den natriumgekühlten Brutreaktor, die andere, gebildet von AEG, MAN und Gutehoffnungshütte, auf die dampfgekühlte Version. Erklärtes Ziel war es, die beiden Reaktoren – jeden mit einer Leistung von 300 MWe – bis 1972/73 in Betrieb zu nehmen. Die Entwickler des wasserdampfgekühlten Brüters mussten sich jedoch mit zahlreichen unerwarteten technischen Problemen auseinandersetzen. Schnell wurde klar, dass der aufgestellte Zeitplan nicht einzuhalten war und abgeändert werden musste. Als die amerikanische General Electric, bei der Ingenieure und Techniker ebenfalls an einem wasserdampfgekühlten Brutreaktor arbeiteten, bekannt gab, dass sie das Projekt aus technischen Gründen einstellte, wurde das sich gerade entwickelnde Selbstvertrauen der bundesdeutschen Kerntechnikvertreter stark erschüttert. Irritiert darüber, 124
ZIVILE KERNTECHNIK
nach dem Ausscheiden von General Electric die einzige Nation zu sein, die Forschungs- und Entwicklungsarbeiten in einen wasserdampfgekühlten Brutreaktor investierte, sprachen sich beinahe alle Beteiligten, einschließlich des leitenden Industriekonsortiums, dafür aus, diese Reaktorlinie nicht weiter zu verfolgen. Daraufhin gab das Bundesforschungsministerium im Februar 1969 das Ende des Forschungs- und Entwicklungsprojekts bekannt. In der Folgezeit wurden alle weiteren Anstrengungen auf die natriumgekühlte Alternative konzentriert. Diese Anstrengungen mündeten schließlich in einem Bauauftrag, der 1972 an eine von der deutschen Interatom (70 %), der belgischen Belgonucléaire (15 %) und der niederländischen Neratoom (15 %) eigens gegründete Firma, die Internationale Natrium-Brutreaktor-Bau GmbH, erging. Ihre Aufgabe war es, bis 1979 bei Kalkar in Nordrhein-Westfalen den Schnellen natriumgekühlten Reaktor SNR-300 zu erstellen. Die Fertigstellung des Kraftwerks verzögerte sich jedoch um sieben Jahre. Neben den üblichen technischen Problemen, die mit dem Bau von Prototypen verbunden sind, wurde diese Verzögerung durch die stark wachsenden Vorbehalte der bundesdeutschen Bevölkerung gegenüber der Kerntechnik bewirkt. Denn um den Ängsten der Bevölkerung zu begegnen, verlangten die für nukleare Sicherheit zuständigen Aufsichtsbehörden Nordrhein-Westfalens von den Erbauern des SNR-300 umfangreiche Sicherheitsvorkehrungen. Deren Zuverlässigkeit wurde auch nach Fertigstellung des Brüters im Jahr 1986 in immer neuen Gutachten unter die Lupe genommen. An der Situation änderte sich dadurch nichts. Auch Anfang der neunziger Jahre war unklar, ob Nordrhein-Westfalen jemals eine Betriebsgenehmigung für den SNR-300 erteilen würde. Da die Kosten des Projekts mittlerweile auf eine Summe von 7,5 Mrd. DM aufgelaufen waren, entschieden sich die beteiligten Interessengruppen einschließlich des Bundesforschungsministeriums, das 50 % der Kosten getragen hatte, 1991 dazu, den Schnellen Brüter aufzugeben. Der Schnelle Brüter war nicht der einzige Kernreaktor der zweiten Generation, der die großen Erwartungen der bundesdeutschen Kerntechnikinteressenten enttäuschte. Ganz ähnlich verhielt es sich mit dem Hochtemperaturreaktor, der trotz parallel laufender Entwicklungen in Großbritannien und den USA als nationaler Sonderweg begriffen wurde und mit dem einmal mehr die technische Leistungsfähigkeit der Bundesrepublik unter Beweis gestellt werden sollte. Erste Pläne für einen Hochtemperaturreaktor wurden bereits im Rahmen des Eltviller Programms geschmiedet. Sie führten 1961 zum Bau einer entsprechenden Anlage in Jülich. Bis diese den Leistungsbetrieb aufnehmen konnte, verstrichen wegen zahlreicher technischer Schwierigkeiten nicht weniger als zehn Jahre. Das Interesse der Industrie – vor allem der Energieversorgungs125
NEUE TECHNIK AUF ALTEN PFADEN?
wirtschaft – an diesem Reaktortyp war derweil erloschen, was nicht zuletzt auf der Durchsetzung des Leichtwasserreaktors in der kommerziellen Kernenergienutzung beruhte. Auf staatlicher Seite hielt man dennoch an dem Ziel fest, mit dem Hochtemperaturreaktor einen bundesdeutschen Reaktortyp zu etablieren. Die Frage nach dessen Marktrelevanz wurde dabei ausgeblendet bzw. in die ferne Zukunft verlegt (Kirchner 1991; Rusinek 1996: 585–650). Ursprünglich als Reaktor der ersten Generation und damit als Alternative zum Leichtwasserreaktor gedacht, erhoben seine Befürworter den Hochtemperaturreaktor nun zu einer Zukunftstechnologie, ohne sich dabei auf ein klares technisches Konzept zu einigen. So überlegte man, den Hochtemperaturreaktor zu einem Brutreaktor ähnlich dem Schnellen Brüter weiterzuentwickeln. Dies war jedoch technisch problematisch, so dass zunächst ein Reaktor zwischen erster und zweiter Generation geplant und schließlich unter der Bezeichnung THTR-30032 in HammUentrop realisiert wurde. Ziel des Unternehmens war ein Hochtemperaturreaktor, dessen Prozesswärme zur Kohlevergasung verwendet werden konnte. Auf diese Weise wollte die Politik dem heimischen Kohlebergbau eine Zukunftsperspektive eröffnen. Die Energieversorgungswirtschaft zeigte für dieses, wie auch für ein weiteres Projekt mit einem Hochtemperaturreaktor in Schleswig-Holstein, nur wenig Interesse. Vor allem fehlte die Bereitschaft für ein finanzielles Engagement, weshalb der Staat beinahe für die gesamten Entwicklungs- und Baukosten beider Projekte aufkam. Die Fertigstellung des THTR-300 war für 1977 geplant; tatsächlich ging der Reaktor aber erst 1985 ans Netz und wurde vier Jahr später schon wieder stillgelegt. Zu der geplanten Kohlevergasung kam es nicht. Mit dem Ende des THTR-300 wurden auch alle anderen Bemühungen um einen Hochtemperaturreaktor eingestellt (Kirchner 1991; Rusinek 1996: 585–650). Noch einmal, wo technische Diversität als Grundlage für eine bewusste Pfadwahl angestrebt wird, sind Sackgassen unvermeidlich. Die Geschichte des Hochtemperaturreaktors, die hier nur angedeutet wurde, ist jedoch ein zusätzlicher Hinweis darauf, dass die Forschungs- und Technologiepolitik die im Eltviller Programm konzipierte Pfadsuche immer weiter aus den Augen verlor. Nicht zufällig sieht Kirchner (1991: 186) darin »ein Musterbeispiel einer chaotischen, durch strukturelle Divergenzen dominierten, aber nicht effektiv gesteuerten und intentional bestimmten Entwicklung«.
32 Thorium-Hochtemperaturreaktor mit einer elektrischen Leistung von 300 MWe. 126
ZIVILE KERNTECHNIK
4.5 Die Enquete-Kommission »Zukünftige Kernenergie-Politik« Die Geschichte des Schnellen Brüters teilt einige Merkmale mit der Geschichte der Reaktoren der ersten Generation. Dazu gehören insbesondere das Problem, unter mehreren technologischen Alternativen auswählen zu müssen, und der Versuch, diesem Problem mit einem Suchprogramm zu begegnen. Interessant für die Diskussion des staatlichen Managements von Pfadbildungsprozessen ist der Schnelle Brüter aber nicht zuletzt deshalb, weil er im Zentrum der im März 1979 vom Deutschen Bundestag eingesetzten Enquete-Kommission »Zukünftige KernenergiePolitik« stand. Nach den Kommissionen zu den Themen »Auswärtige Kulturpolitik« (1971–75), »Fragen der Verfassungsreform« (1971–76) sowie »Frau und Gesellschaft« (1974–80) wurde damit erstmals ein forschungs- und technologiepolitischer Gegenstand in einer Enquete behandelt. Dabei gerieten nicht nur die Konkurrenzverhältnisse der Kernenergie zu anderen Energieträgern in den Blick. Die Enquete kann auch als frühes Beispiel einer institutionalisierten Pfadwahldiskussion gelten, die nicht mehr nur im engen Zirkel der staatlichen, wissenschaftlichen und wirtschaftlichen Entscheidungseliten, wie sie in der Deutschen Atomkommission vertreten waren, geführt wurde, sondern ein breites Spektrum gesellschaftlicher Gruppen einbezog. Als parlamentarisches Instrument zur »Vorbereitung von Entscheidungen über umfangreiche und bedeutsame Sachkomplexe« wurden Enquete-Kommissionen 1969 im Zuge der kleinen Parlamentsreform in der Geschäftsordnung des Deutschen Bundestages verankert (damals § 74a, heute § 56).33 Ihre Einsetzung erfolgt auf Beschluss des Bundestages, wobei ein Viertel der Bundestagsmitglieder bereits ausreicht, um eine so genannte Minderheitenenquete ins Leben zu rufen. Die Kommissionsmitglieder, deren Zahl laut Geschäftsordnung auf neun beschränkt bleiben soll, was jedoch selten geschieht, werden von den Fraktionen benannt – in der Regel im Einvernehmen und entsprechend der Fraktionsstärke. Eine Besonderheit von Enquete-Kommissionen ist, dass ihnen neben Parlamentariern auch Sachverständige von außerhalb des Bundestages angehören, die den Parlamentariern gleichgestellt sind und volles Stimmrecht bei der Verabschiedung der Empfehlungen besitzen. Diese sachverständigen Kommissionsmitglieder werden ebenfalls von den Fraktionen benannt. Ihr Einbezug soll den Dialog zwischen Politik und 33 § 74a, Abs. 1 der Geschäftsordnung des Deutschen Bundestages (GO-BT) in der Fassung vom 1. Oktober 1969; zitiert nach Altenhof 2002: 66; an dieser Aufgabenstellung hat sich bis heute nichts geändert; vgl. § 56, Abs. 1 der derzeit gültigen GO-BT. 127
NEUE TECHNIK AUF ALTEN PFADEN?
Wissenschaft fördern. Die Aufgabe von Enquete-Kommissionen ist es, dem Bundestag im Vorfeld wichtiger Entscheidungen beratend zur Seite zu stehen, indem sie politische Handlungsempfehlungen aussprechen. Eine bindende Wirkung für den Bundestag besitzen diese Empfehlungen allerdings nicht.34 Den allgemeinen Hintergrund für die Einsetzung der Enquete-Kommission »Zukünftige Kernenergie-Politik« bildete die bereits angesprochene Kerntechnikkontroverse. Der konkrete Anlass war die Krise um den Schnellen Brüter, die sich im Laufe der Jahre 1977/78 zuspitzte. In ihrem Zentrum stand die Frage, wer die politische Verantwortung für die Inbetriebnahme des sich in Bau befindlichen SNR-300 übernehmen sollte. Die juristische Verantwortung – das bestätigte das Bundesverfassungsgericht im August 1978 auf Anrufung des Oberverwaltungsgerichts Münster – lag entsprechend dem Bundesatomgesetz bei der obersten Aufsichtsbehörde Nordrhein-Westfalens und damit bei der sozialliberalen Landesregierung. Die wollte die Verantwortung jedoch nicht alleine tragen. Angesichts der heftigen Auseinandersetzungen um die Kerntechnik, von denen mittlerweile auch SPD und FDP ergriffen worden waren, weigerte sich die Landesregierung, ohne eine grundsätzliche Entscheidung der Bundesregierung dem Weiterbau des SNR-300 zuzustimmen, d.h. die anstehende dritte Teilerrichtungsgenehmigung zu erteilen. Die Krise verschärfte sich, als Johannes Rau im September 1978 nordrhein-westfälischer Ministerpräsident wurde. Denn Rau räumte in seiner Regierungserklärung der Kohle den Vorrang vor der Kernenergie ein und erteilte dem Bau weiterer Kernkraftwerke eine Absage. Die von Helmut Schmidt geführte, ebenfalls sozial-liberale Bundesregierung geriet durch die zögerliche bis ablehnende Haltung Nordrhein-Westfalens unter starken Druck. Mit der Krise um den vom Bund hoch subventionierten Schnellen Brüter wurde nicht nur ihre Forschungs- und Technologiepolitik in Frage gestellt, sondern auch ihre generelle Handlungsfähigkeit. Denn die Kerntechnikkontroverse hatte in den Regierungsfraktionen bereits zu deutlichen Verwerfungen geführt. Der kernenergiefreundliche Kurs der Bundesregierung wurde im eigenen politischen Lager längst nicht mehr vorbehaltlos geteilt. Die Mehrheitsfähigkeit der Regierung schien damit zweifelhaft (Vowe 1991: 193–219). In dieser Situation versuchten Schmidt und Volker Hauff, der Anfang des Jahres 1978 Hans Matthöfer als Bundesforschungsminister abgelöst hatte, einen Befreiungsschlag. In enger Abstimmung mit der nordrhein-westfälischen SPD, der SPD-Bundestagsfraktion und den Kri34 Zu Geschichte und Funktion der Enquete-Kommissionen des Deutschen Bundestages siehe Altenhof 2002; Heyer/Liening 2004. 128
ZIVILE KERNTECHNIK
tikern des Schnellen Brüters in den eigenen Reihen schlugen Schmidt und Hauff vor, den Bundestag – obwohl juristisch nicht zuständig – über den SNR-300 entscheiden zu lassen. Dabei sollte zunächst der Weiterbau des SNR-300 beschlossen werden, ohne damit eine Entscheidung über dessen spätere Inbetriebnahme zu verbinden. Diese sollte erst zu einem späteren Zeitpunkt gefällt und die Zwischenzeit für eine EnqueteKommission zur Vorbereitung dieser Entscheidung genutzt werden. Sowohl Befürworter als auch Gegner des Schnellen Brüters konnten mit diesem »Vorbehaltsbeschluss« auf einen Zeitgewinn zu ihren Gunsten hoffen. Obgleich der Schmidt/Hauff-Vorschlag beim liberalen Koalitionspartner heftig umstritten war, fand er im Dezember 1978 die notwendige Mehrheit im Bundestag, d.h. der Weiterbau wurde unter dem Vorbehalt einer späteren Entscheidung über die Inbetriebnahme beschlossen.35 Die nordrhein-westfälische Landesregierung erteilte daraufhin die anstehende dritte Teilerrichtungsgenehmigung für den SNR-300 (Vowe 1991: 193–219). Für die Einsetzung der Enquete-Kommission »Zukünftige Kernenergie-Politik« wurden zwei Anträge gestellt, die sich stark überschnitten. Der erste stammte von den beiden Regierungsfraktionen, der zweite von der CDU/CSU Fraktion.36 Der Bundestagsausschuss für Forschung und Technologie erarbeitete daraufhin einen Kompromissvorschlag und im März 1979 wurde die Einsetzung der Enquete-Kommission vom Bundestag beschlossen. Ihr Auftrag war es, »im Zusammenhang mit der zukünftigen Entwicklung auf dem Gebiet der friedlichen Nutzung der Kernenergie […] Entscheidungsmöglichkeiten und Entscheidungsnotwendigkeiten unter ökologischen, ökonomischen, gesellschaftlichen und Sicherheits-Gesichtspunkten national wie international darzustellen und Empfehlungen für entsprechende Entscheidungen zu erarbeiten.«37
Einbezogen in die Aufgabenstellung war explizit auch die Frage nach einer möglichen Inbetriebnahme des SNR-300. Die Kommission konstituierte sich im Mai 1979 – unmittelbar vor der Reaktorkatastrophe von Three Mile Island. Den Vorsitz übernahm Reinhard Ueberhorst aus der SPD-Fraktion, der gegenüber der Brütertechnologie äußerst skeptisch 35 Deutscher Bundestag, Zweite Fortschreibung des Energieprogramms der Bundesregierung, Drucksache 8/2370 (8.12.1978), insbesondere S. 4f. 36 Deutscher Bundestag, Enquete-Kommission »Zukünftige EnergiePolitik«, Drucksache 8/2353 (6.12.1978) und Deutscher Bundestag, Enquete-Kommission »Zukünftige Energie-Politik«, Drucksache 8/2374 (11.12.1978). 37 Deutscher Bundestag, Einsetzung einer Enquete-Kommission »Zukünftige Energie-Politik«, Drucksache 8/2628 (7.3.1979), Zitat S. 3. 129
NEUE TECHNIK AUF ALTEN PFADEN?
eingestellt war. Insgesamt gehörten der Kommission sieben Parlamentarier und acht (!) Sachverständige an, darunter waren der »Vater« des bundesdeutschen Brüter-Projekts Wolf Häfele und der Naturphilosoph Klaus-Michael Meyer-Abich, der sich besonders für regenerative Energieträger stark machte. Die Einsetzung der Enquete-Kommission war ein geschickter Schachzug im Rahmen des »Vorbehaltsbeschlusses«, um eine Regierungskrise zu vermeiden, die sich aus den innerparteilichen Konflikten in SPD und FDP und dem darauf aufbauenden Druck der Opposition zu entwickeln drohte. Sie spiegelte aber auch die gewachsene Bedeutung des Parlaments für die Forschungs- und Technologiepolitik, insbesondere die Kerntechnik, wider. Tatsächlich hatte sich die Funktion des Parlaments in diesem Politikfeld nach der Verabschiedung des Atomgesetzes lange Zeit darauf beschränkt, den Haushalt des zuständigen Ministeriums zu verabschieden. Solange sich im forschungs- und technologiepolitischen Fokus beinahe ausschließlich die zivile Kerntechnik befand und diese von einem parteienübergreifenden Konsens getragen wurde, gab es dabei kaum Reibungsflächen. Das Parlament stand am Rande des Geschehens. Über die Entwicklung der zivilen Kerntechnik wurde in den Netzwerken verhandelt, die Wissenschaft, Industrie und Ministerialbürokratie etabliert hatten. Den juristischen Rahmen lieferte das Atomgesetz. Mit dem Aufbrechen des kerntechnischen Konsenses setzte im Parlament jedoch die Diskussion über die zukünftige Energiepolitik ein. Und hier ging es nicht zuletzt um die Frage nach forschungs- und technologiepolitischen Schwerpunktsetzungen. Dabei konkurrierten unterschiedliche Zielvorstellungen um begrenzte Haushaltsmittel, die zudem durch die Kostenexplosion beim Schnellen Brüter aufgezerrt wurden. Die Enquete-Kommission kann insofern auch als Ausdruck des parlamentarischen Anspruchs nach mehr Transparenz und Mitsprache in der Kerntechnikpolitik gedeutet werden (siehe Vowe 1991: 204–206). Nach einem Jahr Arbeit legte die Enquete-Kommission im Juni 1980 dem Bundestag ihre Empfehlungen vor. Was waren die Inhalte? Ein wesentliches Ziel der Kommission war es ihrem Selbstverständnis nach gewesen, die verhärteten Fronten zwischen Kernenergiebefürwortern und Kernenergiegegnern aufzubrechen und einen Weg zu weisen, wie beide Gruppen in einen konstruktiven Dialog über die energiepolitische Zukunft der Bundesrepublik treten konnten. Im Zentrum ihrer Arbeit standen deshalb die Konzeption und Analyse von vier alternativen Energiepfaden, die zwar von den Kommissionsmitgliedern sehr unterschiedlich bewertet wurden, auf deren grundsätzliche Möglichkeit man sich aber geeinigt hatte. Die konzipierten Pfade waren nicht als Prognose der zukünftigen Energieentwicklung gedacht. Das verbot nach Ansicht der 130
ZIVILE KERNTECHNIK
Kommission bereits der zeitliche Horizont, der bis ins Jahr 2030 reichte und keine seriösen Aussagen, etwa zur Kostenentwicklung der Energierohstoffe, erlaubte. Vielmehr beschrieben die Pfade alternative Zukunftsszenarien, mit deren Hilfe die Vor- und Nachteile der verschiedenen energiepolitischen Handlungsoptionen aufgezeigt werden sollten.38 Bei Pfad 1, der methodisch an die damals üblichen Verfahren zur Prognose des Energiebedarfs anschloss, wurde die Nachfrageseite zum Ausgangspunkt der Überlegungen gemacht. Das Pfadszenario unterstellte ein bis ins Jahr 2000 weitgehend ungebrochenes Wirtschaftswachstum mit einer durchschnittlichen Wachstumsrate von 3,3 %, die danach auf 1,4 % zurückgehen sollte. Des Weiteren wurde ein mittlerer Strukturwandel angenommen, der auf einem unterproportionalen Wachstum der energieintensiven Grundstoffindustrie und einem überproportionalen Wachstum des weniger energieintensiven Dienstleistungssektors basierte. Die Möglichkeiten von Energieeinsparungen durch den technischen Fortschritt wurden durch eine einfache Fortschreibung des bisherigen Trends berücksichtig. Aus diesen Annahmen wurde dann der zukünftige – deutlich über den anderen Pfaden liegende – Energiebedarf abgeleitet. Gedeckt werden sollte er durch einen »starken Ausbau der Versorgungskapazitäten«.39 Neben konventionellen Energieträgern setzte das Szenario deshalb in großem Umfang auf Kernenergie einschließlich Schnelle Brutreaktoren und Wiederaufbereitung. Schwierigkeiten bei der Energiebeschaffung, beispielsweise durch eine Verknappung der Energierohstoffe, oder Akzeptanzprobleme der Kernenergie wurden bei Pfad 1 nicht angenommen. Die Zunahme solcher Schwierigkeiten wurde dagegen zum Ausgangspunkt der Berechnungen von Pfad 2 gemacht. Nicht die Nachfrageseite, sondern die Angebotsseite stand damit am Anfang der Überlegungen. Es wurde unterstellt, dass »der Einsatz von Öl und Gas auf Grund der internationalen Abhängigkeiten verringert werden müsse, die Ausweitung der Kohleförderung nur begrenzt möglich sei und der Ausbau der Kernkraft auf Grund der damit verbundenen Akzeptanzprobleme maßvoll erfolgen sollte«. Dem entsprach die Notwendigkeit starker Energieeinsparung, allerdings »ohne allzu rigoros in den Lebensbereich des einzelnen Bürgers einzugreifen«.40 Wie bei Pfad 1 sollte die Wirtschaft auch in diesem Szenario einem mittleren Strukturwandel unterliegen. Aus diesen Vorgaben wurde ein Wirtschaftswachstum mit einer Rate von 2,0 % bis zum Jahr 2000 errechnet, das dann auf 1,1 % abfällt. 38 Deutscher Bundestag, Bericht der Enquete-Kommission »Zukünftige Kernenergie-Politik«, Drucksache 8/4341 (27.6.1980). 39 Ebd., S. 37. 40 Ebd., S. 42. 131
NEUE TECHNIK AUF ALTEN PFADEN?
Damit lag das in Pfad 2 erreichbare Wirtschaftswachstum unter den damals gängigen Wachstumsvorstellungen. Der Bericht hob denn auch hervor, dass dieses Wachstum mit Blick auf den Arbeitsmarkt und die soziale Sicherung nicht weiter unterschritten werden sollte. Dieser Forderung folgend, wurde das Wirtschaftswachstum von Pfad 2 auch den Berechnungen der Pfade 3 und 4 zugrunde gelegt. Das Szenario von Pfad 3 wurde durch »sehr starke Anstrengungen« beim Einsparen von Energie charakterisiert, d.h. dem Energiesparen sollte höchste Priorität zukommen. Die politische Implikation war ein »breit angelegtes Handlungsprogramm« zur Modernisierung und Umstrukturierung der Volkswirtschaft. Denn es wurde ebenfalls ein sehr starker Strukturwandel (bei Nullwachstum der Grundstoffindustrie) unterstellt, wodurch der Energiebedarf trotz des aus Pfad 2 übernommenen Wirtschaftswachstums auf dem Stand der späten siebziger Jahre gehalten werden sollte. Ziel der energiepolitischen Maßnahmen war es wegen der wachsenden Akzeptanzprobleme, schrittweise auf die Nutzung der Kernenergie zu verzichten. Im Pfad 4, der das Wirtschaftswachstum und den Strukturwandel von Pfad 3 übernahm, wurde dieses Szenario schließlich nochmals verschärft, indem »durch extreme Anstrengungen zur Energieeinsparung und den […] maximal möglichen Einsatz regenerativer Energiequellen […] der Bedarf von Öl und Gas so umfassend wie möglich reduziert« wird.41 Auf Kernenergie sollte hier ebenfalls verzichtet werden. Mit diesen vier Pfaden hatte die Enquete-Kommission ein breites Spektrum möglicher Entwicklungen skizziert, die mit unterschiedlichen energiepolitischen Handlungsoptionen verbunden waren. Angesichts der heterogenen Zusammensetzung der Kommission lag die Einigung auf einen der vier Pfade weit außerhalb des Möglichen. Allerdings war dies auch gar nicht intendiert. Vielmehr ging es darum, die Entscheidung über eine zukünftige Nutzung der Kernenergie an ein energiepolitisches Gesamtkonzept rückzubinden. Dadurch sollte der Komplexität des Themas Rechnung getragen und die »konfrontative Ja-oder-Nein-Diskussion zur Kernenergie« durch das »erforderliche Bemühen gemeinsamen Abwägens« überwunden werden.42 Tatsächlich führte die Pfaddiskussion zu einer Strukturierung der energiepolitischen Problemlage. Deutlich wurden dabei die Unsicherheiten, mit denen sich jede Energiepolitik auseinandersetzen musste. Im Bericht der Kommission heißt es dazu:
41 Ebd., S. 45. 42 Ebd., S. 5. 132
ZIVILE KERNTECHNIK
»Der Ungewissheit darüber, ob die Bedingungen und Konsequenzen eines Verzichts auf die Kernenergienutzung mehrheitlich wünschbar sind und sich in dem notwendigen Ausmaß herbeiführen lassen, steht die Ungewissheit gegenüber, ob die volle und langfristige Nutzung der Kernenergie mit allen ihren Konsequenzen voll überblickt wird und mehrheitlich wünschbar ist.«43
Mit anderen Worten: Es fehlte eine belastbare Entscheidungsgrundlage für oder gegen die langfristige Nutzung der Kernenergie. Dieser Unsicherheit begegnete die Kommission in ihren Empfehlungen mit einer zeitlichen Differenzierung des Problems: Die grundsätzliche Entscheidung für einen Energiepfad mit oder ohne Kerntechnik sollte erst getroffen werden, wenn die bestehenden Ungewissheiten beseitigt waren. Als Entscheidungszeitpunkt wurde »um 1990« genannt. Bis dahin sei es Aufgabe der Forschungs- und Technologiepolitik, eine »faire Konkurrenz« zwischen dem kerntechnischen und nicht-kerntechnischen Energiepfaden sicherzustellen und dadurch eine rationale Bewertung ihrer Vor- und Nachteile zu ermöglichen. Einerseits sollten deshalb zügig Maßnahmen ergriffen und Technologien entwickelt werden, die auf Energieeinsparung und Nutzung erneuerbarer Energieträger abzielten. Andererseits sollte die Kerntechnik weiterentwickelt und die (sicherheits)technischen Voraussetzungen für Schnelle Brutreaktoren, Wiederaufbereitung und Entsorgung geschaffen werden, um die kerntechnische Option offen zu halten.44 Die Empfehlung der Enquete an den Bundestag, über den einzuschlagenden Energiepfad erst zu einem späteren Zeitpunkt zu entscheiden, war sicherlich zu einem guten Teil der Konsensorientierung ihrer Mitglieder geschuldet. Tatsächlich verschlossen sich dieser Lösung lediglich die drei Kommissionsmitglieder aus der CDU/CSU-Fraktion, indem sie in einem Minderheitsvotum für den zügigen Ausbau der Kernenergie plädierten. Die anderen zwölf Kommissionsmitglieder, die keineswegs eine einheitliche Haltung gegenüber der Kerntechnik einnahmen, konnten mit ihrem Votum für einen Entscheidungsaufschub hoffen, dass sich das gesamtgesellschaftliche Klima im Verlauf der achtziger Jahre zugunsten der jeweils eigenen Position veränderte und die Entscheidung für oder gegen die Kernenergie dann auf breiter Basis erfolgen konnte. Für eine Perpetuierung des Status quo plädierte die Kommission damit freilich nicht. Denn mit ihrer Empfehlung des Entscheidungsaufschubs verband sie die substantielle Forderung, Chancengleichheit zwischen der kerntechnischen und nicht-kerntechnischen Alternative herzustellen, d.h. massiv in alternative Energietechniken zu in43 Ebd., S. 99. 44 Ebd., S. 99–101. 133
NEUE TECHNIK AUF ALTEN PFADEN?
vestieren. Ob diese Chancengleichheit angesichts des immensen Startvorsprungs der Kerntechnik gegenüber den regenerativen Energietechniken in der relativ knapp bemessenen Zeitspanne von etwa zehn Jahren tatsächlich erreichbar war, darf bezweifelt werden. Dies gilt umso mehr, als die Kerntechnik ja keineswegs auf ihrem damaligen Entwicklungsstand eingefroren werden sollte. Mit ihrer Forderung nach einer »fairen Konkurrenz« der Energietechniken betonte die Kommission dennoch den Umstand, dass einer Pfadwahl eine ausreichend breit angelegte Pfadsuche vorausgehen musste. Ohne eine ernsthafte Entwicklung von Alternativen war auch keine Entscheidungsoption gegeben. Mit ihrem Plädoyer für eine breit angelegte Pfadsuche hatte die Enquete-Kommission auch einen Rahmen für die Entscheidung über die Inbetriebnahme des SNR-300 geschaffen, der der konkrete Anlass für ihre Konstituierung gewesen war. Doch obgleich die Kommissionsempfehlungen die Fortführung der Brüterentwicklung beinhalteten, sprach sich die Kommission nicht für eine Inbetriebnahme aus. Stattdessen verlängerte sie die Position des »Vorbehaltsbeschlusses« und plädierte für ein Aufschieben der Entscheidung. Die Zeit bis zur baulichen Fertigstellung des SNR-300 sollte für weitere Sicherheitsstudien genutzt werden, auf deren Grundlage dann der Bundestag über die Inbetriebnahme entscheiden sollte.45 Dass durch weitere Sicherheitsstudien ein Konsens über die Inbetriebnahme des SNR-300 erzielt werden konnte, war freilich nicht zu erwarten. Die Wirkung der Enquete-Kommission »Zukünftige KernenergiePolitik« lässt sich nicht so ohne Weiteres feststellen. Misst man ihre Wirkung an der Umsetzung ihrer Empfehlungen, war der Kommission wenig Erfolg beschieden. Von der Regierung aufgegriffen wurde lediglich der Vorschlag, Studien zur Größe einer Wiederaufbereitungsanlage und zur Sicherheit des SNR-300 zu beauftragen (siehe auch Altenhof 2002: 304). Alle weitergehenden Empfehlungen gingen im tagespolitischen Geschäft unter.46 Zweifellos blieb die Wirkung weit hinter den Erwartungen der Kommissionsmitglieder zurück, die der Energiepolitik neue Impulse verleihen wollten. Legt man ein feineres Bewertungsraster an – wie das Gerhard Vowe (1991: 293–326) tut –, lässt sich dieser Befund ein wenig relativeren. Dabei erscheinen für die vorliegende Arbeit zwei Aspekte besonders betonenswert: Erstens, die Enquete-Kommission hat die Vorstellung von alternativen, funktional äquivalenten Energiepfaden und damit ein Muster der Problemstrukturierung etabliert, auf
45 Ebd., S. 164–175. 46 Siehe auch Deutscher Bundestag, Antwort der Bundesregierung, Drucksache 9/416 (11.5.1981) für die Diskussion des Berichts im Parlament. 134
ZIVILE KERNTECHNIK
das in der energiepolitischen Diskussion immer wieder zurückgegriffen wurde, beispielsweise in der Debatte um den Kernenergieausstieg in der Bundesrepublik nach der Reaktorkatastrophe von Tschernobyl. Und zweitens, indem sie Parlamentarier und Sachverständige, Kerntechnikgegner und Kerntechnikbefürworter in der Kommissionsarbeit zusammenband, hat die Enquete einen Weg für eine Pfadwahldiskussion jenseits der etablierten Netwerke der staatlichen, wissenschaftlichen und wirtschaftlichen Entscheidungseliten gewiesen, der beispielsweise auch Mitte der achtziger Jahre in der Diskussion um die Chancen und Risiken der Gentechnologie beschritten wurde.47
4 . 6 Zw i s c h e n r e s ü m e e : G e s c h e i t e r t e P f a d s u c h e , spontane Pfadbildung und ein neues K o n k u r r e n z ve r h ä l t n i s Die in Kapitel 2 diskutierten Theorien offerieren eine Vielzahl von Begriffen, mit denen sich die bundesdeutsche Kerntechnikentwicklung analytisch fassen lässt. So kann die Mitte der fünfziger Jahre einsetzende Diskussion um den für den Einstieg in die kommerzielle Kernenergienutzung am besten geeigneten Reaktortyp im Sinne des SCOT-Ansatzes als Aushandlungsprozess zwischen relevanten sozialen Gruppen verstanden werden, denen die Deutsche Atomkommission als zentrales Forum diente. Die unterschiedlichen im Eltviller Programm skizzierten Reaktortypen würden dann auf die hohe interpretative Flexibilität verweisen, der Kernreaktoren damals unterlagen, und die Durchsetzung des Leichtwasserreaktors wäre als Schließung des Aushandlungsprozesses zu interpretieren. Aus der Perspektive des trajectory approach hat sich mit dem Leichtwasserreaktor ein Paradigma etabliert, das der elektrotechnischen Industrie in der Bundesrepublik die weitere Entwicklungsrichtung im Kernreaktorbau vorgab. Innerhalb dieses Paradigmas hat die bundesdeutsche Kerntechnikentwicklung dann den Anschluss an die internationalen Entwicklungen geschafft. Zieht man schließlich das Konzept großtechnischer Systeme heran, fällt vor allem auf, dass mit Ausnahme der Energieversorgungsunternehmen die beteiligten Akteursgruppen Kernreaktoren lange Zeit gerade nicht als Teil von großen Versorgungssystemen begriffen haben, in denen die Kernenergie mit anderen Energieträgern in Konkurrenz stand. Das geschah auf breiter Basis erst mit der zweiten Phase der Kerntechnikkritik, die – nun wieder im Sinne des SCOT-Ansatzes – mit einem anderen technologischen Rah47 Siehe Kapitel 6.5. 135
NEUE TECHNIK AUF ALTEN PFADEN?
men operierte als die Kerntechnikinteressenten und Kernreaktoren als Risikotechnologie neu interpretierte. In der Durchsetzung des Leichtwasserreaktors lässt sich aber auch ein geradezu idealtypischer Pfadbildungsprozess im Sinne von Paul A. David sehen. Spiegelt man die bundesdeutsche Kerntechnikentwicklung an dem in Kapitel 2.4 entworfenen Modell, dann steht das Fallbeispiel für eine gescheiterte Pfadsuche und als Folge davon eine spontane Pfadbildung. Die zivile Kerntechnik befand sich Mitte der fünfziger Jahre noch in einem frühen, vorkommerziellen Entwicklungsstadium, in dem kaum Erfahrungen über die vielfältigen Alternativen in der Reaktortechnik vorlagen. Als Antwort auf die bestehenden Unsicherheiten formulierte die Deutsche Atomkommission das Eltviller Programm, das den Rahmen für die Pfadsuche abstecken sollte. Erklärtes Ziel war das Sammeln von Erfahrungen mit einer möglichst großen Zahl von Reaktorlinien. Im Vordergrund stand die Schaffung technologischer Diversität – trotz einer gewissen Bevorzugung von Natururanreaktoren. Die Pfadwahl für die Kommerzialisierung der Kerntechnik sollte auf den Ergebnissen dieser Suchphase aufsetzen und zeitlich an diese anschließen. Bis dahin folgt die bundesdeutsche Entwicklung der zivilen Kerntechnik dem Modell für das staatliche Management von Pfadbildungsprozessen. Vergegenwärtigt man sich, dass die Planungen zum Eltviller Programm zeitlich mit der Hochphase der bundesdeutschen Atomeuphorie zusammenfielen, überrascht das ausgeprägte Bewusstsein der beteiligten Akteure für die technischen und wirtschaftlichen Unsicherheiten der neuen Technologie. Auch wenn der Einstieg in die Kerntechnik selbst nicht in Frage gestellt wurde, so betonte man doch immer wieder, dass der damalige Wissensstand keine Aussagen über den möglichen Erfolg oder Misserfolg einzelner Reaktorlinien zuließ. Gleichzeitig war sich die Mehrzahl der Akteure bewusst, dass mit dem Einstieg in die kommerzielle Kerntechnik langfristig wirksame und damit nicht ohne Weiteres revidierbare Entscheidungen verbunden waren. Eben deshalb steuerten sie so zielstrebig auf ein Experimentierprogramm zu, dem allerdings kein Erfolg beschieden war. Die Realisierung des Eltviller Programms scheiterte an der Weigerung der Energieversorgungsunternehmen, für die Finanzierung der Reaktorprojekte aufzukommen. Die Programmplaner hatten dieses wegen der deutlich formulierten Kritik der Energieversorger eigentlich absehbare Problem offensichtlich unterschätzt. Die Forschungs- und Technologiepolitik war zwar anfangs an der Umsetzung des Eltviller Programms interessiert, drängte dann jedoch immer stärker auf einen baldigen Einstieg in die kommerzielle Kerntechnik. Diesem Drängen folgten die Energieversorgungsunternehmen angesichts der Kostenübernahme 136
ZIVILE KERNTECHNIK
durch den Staat schließlich nur allzu gerne. Die Forschungs- und Technologiepolitik gab damit die Suchphase auf, noch ehe sie begonnen hatte. In dieser Situation erfolgte die »ungeplante Durchsetzung des Leichtwasserreaktors« (Radkau 1978a), der seinen Startvorteil voll ausspielen und die noch wenig entwickelten Alternativen aus dem Feld drängen konnte. An Stelle der ursprünglich intendierten bewussten Pfadwahl kam es zu einer spontanen Pfadbildung. Nicht der Ungeduld des Marktes, auf die David (2000: 14) verweist, sondern der Ungeduld des Staates war es in diesem Fall geschuldet, dass offene Optionen ihr vorzeitiges Ende fanden. Projekte, wie das des Schwerwasserreaktors hatten auf die weiteren Entwicklungen keinen Einfluss mehr. Die Forschungs- und Technologiepolitik verlagerte ihr Interesse in der Folgezeit denn auch auf Kernreaktoren der zweiten Generation. Die vorzeitige Aufgabe der Suchphase lässt sich unterschiedlich bewerten. Otto Keck (1980) sieht es durchaus positiv, dass die Forschungs- und Technologiepolitik nicht auf der Umsetzung des Eltviller Programms beharrte: Angesichts des Erfolgs des Leichtwasserreaktors hätte ein starres Festhalten am Eltviller Programm nur zu einer unnötigen Verschwendung von Ressourcen auf aussichtslose Reaktorlinien geführt. Ein Einschwenken auf die Leichtwassertechnologie wäre, wie die internationale Entwicklung lehrte, aber ohnehin kaum vermeidbar gewesen. Zudem wurde mit der Übernahme des US-amerikanischen Pfades das technologiepolitische Ziel erreicht, Anschluss an die internationale Kerntechnikentwicklung zu gewinnen, wovon nicht zuletzt die Kernkraftwerkhersteller profitierten. Kecks Argument greift freilich nur, wenn man die Geschichte von ihrem Ende her denkt. Denn die Durchsetzung des Leichtwasserreaktors beruhte, wie wir gesehen haben, keineswegs auf einer bewussten Revision staatlicher Handlungsstrategien aufgrund gewandelter Prämissen. Das unterstreicht auch das lange Dahinsiechen des Schwerwasserreaktors in Niederaichbach und das erratische Schicksal des Hochtemperaturreaktors. Der vorzeitige Abbruch der Suchphase bedeutete wegen der großen Unsicherheiten, mit denen die zivile Kerntechnik behaftet war, eine äußerst risikoreiche Konstellation. Der Leichtwasserreaktor hätte sich wie andere Reaktorlinien als Sackgasse erweisen können. Und es wurde ja auch immer wieder die Frage aufgeworfen, ob sich hier tatsächlich die »beste« aller möglichen Alternativen durchgesetzt hat (vgl. Cowan 1990). Stellt man wie Joachim Radkau diese »verdrängten Alternativen« ins Zentrum der Überlegungen, dann wäre eine Verlängerung der Suchphase zweifellos wünschenswert gewesen – obgleich es naturgemäß spekulativ bleiben muss, ob dies zu einer »besseren« Kerntechnik geführt hätte. Radkau (1978a: 209) kommt jedenfalls zu dem Schluss: 137
NEUE TECHNIK AUF ALTEN PFADEN?
»Es fehlte in der Bundesrepublik an einem Instrumentarium, um eine Experimentierphase über längere Zeit hinweg auf wirkungsvolle Art zu organisieren und darin langfristige Gesichtspunkte der Sicherheit, des Brennstoffkreislaufs und der Entwicklungsfähigkeit angemessen zur Geltung zu bringen.« Der Einstieg in die kommerzielle Nutzung der Kerntechnik Mitte der sechziger Jahre traf in der bundesdeutschen Bevölkerung auf breite Zustimmung. Die staatliche Forschungs- und Technologiepolitik musste sich daher über die Legitimation ihres Handelns wenig Gedanken machen. Anders war dies beim Einstieg in die Brütertechnologie, die zu einem Zeitpunkt vollzogen werden sollte, als der gesellschaftliche Konsens über die Wünschbarkeit der zivilen Kernenergienutzung bereits deutliche Risse zeigte. Auch wenn sich Ende der siebziger Jahre noch eine Mehrheit der Bundesbürger für die Kernenergie aussprach, konnte die Politik die Kritik an der Kerntechnik nicht ignorieren. Aus der Zukunftstechnologie des Schnellen Brüters wurde damit eine Risikotechnologie, deren Sicherheit trotz ständiger Nachbesserungen immer wieder angezweifelt wurde. Angesichts der Risiken der Brütertechnologie, die die bundesdeutsche Bevölkerung weder einschätzen konnte noch tragen wollte, stellte sich immer drängender die Frage nach einem energiepolitischen Gesamtkonzept. Die Kerntechnikpolitik der fünfziger und sechziger Jahre war vor allem Industriepolitik gewesen. Viel wichtiger als die Schließung möglicher Energielücken war das Argument gewesen, die Bundesrepublik an einer Schlüsseltechnologie teilhaben zu lassen, von der positive Auswirkungen auf die Exportwirtschaft zu erwarten waren. Diese isolierte Betrachtungsweise war beim Schnellen Brüter nicht mehr durchzuhalten. Zum einen existierten neben der Brütertechnologie weitere und bereits erprobte kerntechnische Alternativen. Zum anderen gab es konventionelle und zunehmend auch regenerative Energieträger, die in einem energiepolitischen Konkurrenzverhältnis zur Kerntechnik standen. Die Enquete-Kommission »Zukünftige Kernenergie-Politik« hat das deutlich herausgearbeitet und damit der Bundesregierung die Aufgabe gestellt, ihre Forschungs- und Technologiepolitik stärker an gesamtgesellschaftliche Interessen rückzubinden.
138
5 E L E K T R O N I S C H E D AT E N V E R AR B E I T U N G
Die Durchsetzung des Leichtwasserreaktors in der zivilen Kerntechnik wurde im vorangegangenen Kapitel als ein pfadabhängiger Prozess beschrieben, der durch konkurrierende Technologien, einen Startvorteil der späteren winner technology sowie wachsende Skalenerträge aufgrund von Lerneffekten gekennzeichnet war. Der bundesdeutsche Einstieg in die zivile Kerntechnik erfolgte zwar relativ spät, doch stand deren Kommerzialisierung Mitte der fünfziger Jahre weltweit noch bevor. Auch wenn die staatliche Forschungs- und Technologiepolitik Anknüpfungspunkte in Wissenschaft und Industrie fand, war das Handlungsfeld insgesamt nur wenig vorstrukturiert und die Zahl der relevanten Akteure in Industrie und Wissenschaft vergleichsweise gering. Die Situation der elektronischen Datenverarbeitung war eine völlig andere,1 als das Bundesforschungsministerium 1967 erstmals ein Förderprogramm auflegte, um die Wettbewerbsfähigkeit der heimischen Rechnerhersteller zu verbessern. Zum einen war die Kommerzialisierung elektronischer Rechner zum Zeitpunkt der Programmplanung bereits voll im Gange. Die ersten industriell gefertigten Rechenanlagen waren Anfang der fünfziger Jahre in Großbritannien und den USA auf 1
Einen guten Überblick zur Geschichte der Rechnerentwicklung mit Schwerpunkt USA geben Campbell-Kelly/Aspray 1996; Ceruzzi 2003; Yost 2005; eine ökonomisch geprägte Perspektive bieten Bresnahan/ Malerba 1999. Das Standardwerk für Deutschland und die Bundesrepublik ist nach wie vor Petzold 1985 (in überarbeiteter und gekürzter Form 1992 nochmals publiziert); daneben bietet Zellmer 1990 viele wichtige Hinweise. Für die Geschichte der Rechnerprogrammierung, die in den ersten Jahrzehnten eng mit der Rechnerentwicklung verknüpft war, in dieser Fallstudie jedoch nur am Rande berücksichtigt werden kann, siehe beispielsweise Campbell-Kelly 2003. 139
NEUE TECHNIK AUF ALTEN PFADEN?
den Markt gekommen. Und obgleich die elektronische Datenverarbeitung in der bundesdeutschen Wirtschaft zunächst nur langsam Fuß fassen konnte, waren elektronische Rechner Mitte der sechziger Jahre längst nicht mehr auf Universitäten und Forschungseinrichtungen beschränkt, sondern auch in vielen Unternehmen und der öffentlichen Verwaltung anzutreffen. Zum anderen war die technische und wirtschaftliche Entwicklung in der elektronischen Datenverarbeitung seit ihren Anfängen von einer Dynamik geprägt, die die Entwicklung der zivilen Kerntechnik weit hinter sich ließ. Dies führte dazu, dass sich die Vorstellungen über Konzeption und Einsatz elektronischer Rechner beinahe ständig änderten und das Technologiefeld schnell unübersichtlich wurde. Tatsächlich erfuhr die elektronische Datenverarbeitung im Zeitraum der staatlichen Fördermaßnahmen mehrere Neuinterpretationen, worauf die Politik jedoch kaum reagierte. Die hohe technische Entwicklungsdynamik elektronischer Rechner spiegelt sich wohl am deutlichsten in der fortschreitenden Miniaturisierung der verwendeten Bauteile wider. Zu nennen sind hier beispielsweise die Ablösung der Vakuumröhre durch den Transistor ab Mitte der fünfziger Jahre und der Übergang von Transistor und Diode zum Integrierten Schaltkreis ein Jahrzehnt später. Durch diese und zahlreiche weitere Neuerungen hat sich nicht nur die Leistungsfähigkeit der elektronischen Rechner immens erhöht – bei gleichzeitig fallenden Preisen für die pro Sekunde durchgeführten Rechenoperationen –, es entstand auch eine breite Palette unterschiedlicher Rechnertypen, die manchmal miteinander in Konkurrenz traten, weit häufiger jedoch zur Bildung neuer Marktsegmente führten. Zudem kam es immer wieder vor, dass Entwicklungspfade, die längere Zeit nebeneinander hergelaufen waren, aufgrund technischer Neuerungen ineinander aufgingen, was dann eine mehr oder weniger stark ausgeprägte Neustrukturierung des Rechnermarktes nach sich zog (vgl. Bresnahan/Malerba 1999). Nicht zuletzt wegen dieser hohen Entwicklungsdynamik ist die Klassifizierung elektronischer Rechner nicht einfach. Aus der Literatur lässt sich für die Mitte der sechziger Jahre in etwa folgendes Bild gewinnen. Der damals dominierende Rechnertyp war der Mainframe Computer. Der Begriff wird häufig mit »Großrechner« übersetzt, was jedoch ein wenig irreführend ist, da es große, mittlere und kleine Anlagen gab, die diesem Rechnertyp zugeordnet wurden. Dabei erfolgte die Größeneinteilung in erster Linie über die Mietkosten, die sich – mit großen Schwankungsbreiten – nach der jeweiligen Rechenleistung bemaßen. Beispielsweise betrug 1958 in den USA die Monatsmiete für große Rechenanlagen zwischen 20.000 und 40.000, für mittlere zwischen 4.000 und 18.000 und für kleine zwischen 1.000 und 3.000 US-Dollar 140
ELEKTRONISCHE DATENVERARBEITUNG
(Petzold 1992: 250). Entscheidend für die Klassifizierung eines Rechners als Mainframe war daher nicht allein seine Größe, sondern ebenso die Art seiner Nutzung (Darius 2001). In der Regel wurden Mainframe Computer für die zentrale Datenverarbeitung in Rechenzentren eingesetzt, die einen eigenen Funktionsbereich von Unternehmen, Universitäten oder Forschungseinrichtungen bildeten und mit einschlägig geschultem Personal besetzt waren. Beherrscht wurde der US-amerikanische Markt für Mainframe Computer beinahe von Anfang an von einer einzigen Firma, der IBM (International Business Machines), neben der sich nur eine Handvoll Mitwettbewerber etablieren konnte. Eine ähnliche Dominanz erreichte die IBM auch in Europa. In den fünfziger und frühen sechziger Jahren unterschieden Hersteller und Nutzer von Mainframe Computern oft zwischen Anlagen für wissenschaftlich-technische und für administrativ-kaufmännische Anwendungen; letztere werden häufig auch unter dem Begriff der kommerziellen Datenverarbeitung zusammengefasst. Einsatzgebiet der erstgenannten Rechner waren Forschung und Entwicklung, wo sie etwa zur Berechnung von Differentialgleichungen verwendet wurden. Wissenschaftlich-technische Rechner wurden für die Gleitkommarechnung optimiert, mit der sich sehr große und sehr kleine Zahlen darstellen lassen, wie sie in Naturwissenschaft und Technik häufig auftreten. Im Gegensatz dazu waren administrativ-kaufmännische Rechner für die Festkommarechnung und die Verarbeitung von Massendaten ausgelegt. Ihre Einsatzorte waren die öffentliche Verwaltung und große Unternehmen, beispielsweise statistische Ämter und Versicherungen. Da diese Rechner einen hohen Datendurchsatz ermöglichen sollten, mussten sie über leistungsfähige Dateneingabe- und Datenausgabegeräte sowie über entsprechende Datenspeicher verfügen (Ceruzzi 2003: 65f.; Darius 2001). Die Unterscheidung von wissenschaftlich-technischen und administrativkaufmännischen Rechnern war (und ist auch rückblickend) nicht immer leicht zu treffen und wurde bei Mainframe Computern mit dem Aufkommen von Universalrechnerfamilien Mitte der sechziger Jahre weitgehend obsolet. Für die Rechnerhersteller der fünfziger und frühen sechziger Jahre war die Entscheidung für oder gegen einen der beiden Anwendungsbereiche jedoch von strategischer Bedeutung. Mit der Entwicklung von Universalrechnerfamilien reagierte die Rechnerindustrie auf das hypertrophe Wachstum unterschiedlicher Standards, das dazu geführt hatte, dass meist nicht einmal die Anlagen eines einzelnen Herstellers miteinander kompatibel waren. Das zog auf Hersteller- wie Nutzerseite eine Reihe von Problemen nach sich, etwa bei der Realisierung von Skalenerträgen in der Fertigung oder bei der Anpassung von Rechenanlagen an den gewachsenen Bedarf eines Unter141
NEUE TECHNIK AUF ALTEN PFADEN?
nehmens. Der Prototyp der Universalrechnerfamilie ist das System/360. IBM brachte es 1965 auf den Markt, um damit das gesamte Spektrum von Einsatzmöglichkeiten für Datenverarbeitungsanlagen abzudecken, worauf die 360 als Betrag des Vollkreiswinkels im Namen verweisen sollte. Die Rechner dieser Familie waren miteinander voll kompatibel. Kunden konnten daher mit kleinen Modellen in die Datenverarbeitung ein- und später auf größere Modelle umsteigen, ohne dass die verwendeten Programme neu geschrieben oder die gesammelten Daten neu kodiert werden mussten. Zudem war es nun prinzipiell auch möglich, wissenschaftlich-technische und administrativ-kaufmännische Aufgaben mit ein und demselben System zu bearbeiten. Das bedeutete eine völlig neue Flexibilität beim Einsatz elektronischer Rechner (Campbell-Kelly/ Aspray 1996: 137–144; Ceruzzi 2003: Kapitel 5). Die bundesdeutsche Forschungs- und Technologiepolitik wählte das IBM System/360 zum Fluchtpunkt ihrer Fördermaßnahmen, die damit vor allem auf die Entwicklung mittlerer und großer Universalrechner, d.h. Mainframe Computer, ausgerichtet waren. Neben dem von IBM dominierten Feld der Universalrechner bildeten sich in den sechziger Jahren noch weitere Rechnertypen heraus, die besonders erfolgreich von jungen Firmen entwickelt wurden. Am oberen Ende des Leistungsspektrums waren die Supercomputer zu verorten, die in der Tradition der wissenschaftlich-technischen Mainframe Computer standen und auf rechnerische Höchstleistung getrimmt wurden. Zu ihren wichtigsten Einsatzgebieten zählten Simulationen, wie sie etwa die Entwicklung von Atom- und Wasserstoffbomben nötig machte. Der Prototyp des Supercomputers, für den dieser Begriff auch erstmals verwendet wurde, ist der 1964 ausgelieferte CDC 6600 der Control Data Corporation (Yost 2005: 80–89). Einen weiteren Rechnertyp bildeten die Prozessrechner, die zur Überwachung und Steuerung von Produktionsabläufen in der Industrie eingesetzt wurden. Ihr Kennzeichen war, dass sie Eingangssignale in Echtzeit zu Steuerungsbefehlen verarbeiten konnten. Diese Fähigkeit zum realtime computing teilten die Prozessrechner mit den Minicomputern, deren prominentester Vertreter der 1965 lancierte und über 50.000mal verkaufte PDP-8 der Digital Equipment Company war (Ceruzzi 2003: 129–136). In der Bundesrepublik wurden Klein- und Kleinstrechner unter dem Oberbegriff der Mittleren Datentechnik zusammengefasst (vgl. Heinrich 1973). Als Abteilungs- oder Arbeitsplatzrechner, beispielsweise zur Textverarbeitung oder Buchhaltung, wurden sie in der Regel dezentral betrieben, manchmal aber auch in Vernetzung mit einem Mainframe Computer. Die Mittlere Datentechnik sollte sich für die bundesdeutsche Rechnerindustrie als dynamischster Wachs142
ELEKTRONISCHE DATENVERARBEITUNG
tumsmarkt der siebziger Jahre erweisen. Schließlich sind bei dieser Aufzählung noch Tischrechner sowie eine Reihe rechnergestützter Systeme wie Bankenterminals und Kassen zu nennen, die ebenfalls zur bunten Palette der Rechnertypen beitrugen. Auch nach der Herausbildung dieser Vielzahl von Typen in den sechziger Jahren verlor die Rechnerentwicklung nichts von ihrer Dynamik. Um nur zwei herausragende Ereignisse der Folgezeit schlaglichtartig zu benennen: Anfang der siebziger Jahre kam der Mikroprozessor auf den Markt, und knapp ein Jahrzehnt später setzte der Siegeszug des Personal Computers ein. Diese hohe Dynamik bei elektronischen Rechnern, die schnelle Abfolge größerer und kleinerer Innovationen, die rasche Entwicklung neuer Produkt- und Marktsegmente erforderten von den Rechnerherstellern ein hohes Maß an unternehmerischer Flexibilität. Bestehende Kompetenzen wurden immer wieder entwertet, neue mussten aufgebaut werden. Das schuf Chancen für Neueinsteiger, erforderte aber auch eine ständige Überprüfung einmal eingeschlagener Entwicklungspfade, um diese nicht ins Leere laufen zu lassen. Für die bundesdeutsche Forschungs- und Technologiepolitik, die ihre Fördermaßnahmen lange Zeit am Bild der Datenverarbeitung als einer Großtechnologie ausrichtete, wurde dies zu einem zentralen Problem. Denn die Fördermaßnahmen der Bundesregierung liefen letztlich auf den Versuch hinaus, in einem hoch dynamischen Technologiefeld die heimische Rechnerindustrie auf einen Entwicklungspfad festzulegen, mit dem Ziel, die Dominanz USamerikanischer Hersteller, insbesondere der IBM, zu brechen. Für diese Strategie, die von Firmen wie Siemens und AEG-Telefunken über weite Strecken bereitwillig mitgetragen wurde, ließen sich zwar gute Gründe finden. Erfolg war ihr aber keiner beschieden.
5 . 1 T e c h n i s c h e An f ä n g e , f r ü h e F ö r d e r i n i t i a t i ve n und der Pfad des wissenschaftlichtechnischen Rechners Die Anfänge programmgesteuerter Rechner lassen sich bis in die Zeit des Zweiten Weltkrieges zurückverfolgen, als in den USA, aber auch in Großbritannien und Deutschland die ersten Rechnerprojekte aus der Taufe gehoben wurden. Das vielleicht bekannteste ist die Entwicklung des Harvard Mark I durch Howard H. Aiken von der Harvard Universität und Ingenieure von IBM. Der Mark I wurde als erster vollautomatischer, elektromechanischer Rechner der USA im August 1944 in Betrieb genommen. Wichtigster Auftraggeber für die durchgeführten Berechnungen war die US-Navy (Campbell-Kelly/Aspray 1996: 69–76). Be143
NEUE TECHNIK AUF ALTEN PFADEN?
deutsamer für die weitere Geschichte programmgesteuerter Rechner waren jedoch die Arbeiten, die etwa zeitgleich an der Moore School of Electrical Engineering der Pennsylvania Universität durchgeführt wurden. Dort befassten sich J. Presper Eckert und John Mauchly sowie weitere Wissenschaftler und Ingenieure im Auftrag der US-Army mit der Konstruktion eines Digitalrechners, der den Namen ENIAC (Electronic Numerical Integrator and Computer) erhielt und für ballistische Berechnungen verwendet werden sollte. Allerdings wurde der Rechner nicht mehr vor Kriegsende fertig. Während Eckert und Mauchly noch am ENIAC arbeiteten, entwickelten sie die Idee für eine neuartige Rechnerarchitektur, bei der die zu verarbeitenden Daten und die ihrer Verarbeitung zugrunde liegenden Instruktionen (d.h. das Programm) einen gemeinsamen Speicher im Rechner belegen. Das sollte eine rasche Umprogrammierung des Rechners und damit eine beträchtliche Ausweitung seiner Einsatzmöglichkeiten erlauben. Der Princeton Mathematiker John von Neumann, der etwas später als Berater zu dem Entwicklerteam an der Moore School hinzu stieß, hat das stored program principle dann erstmals klar ausformuliert und zwar in einem Bericht vom Juni 1945, der die Entwicklung des Nachfolgemodells für den ENIAC behandelt und heute als Geburtsurkunde des modernen Computers gilt. Die dort beschriebene Rechnerarchitektur wurde im Sommer 1946 bei einem gemeinsam von der Moore School und dem US-Militär finanzierten Kurs zu »Theory and Technique for Design of Electrical Digital Computers« einem breiteren Fachpublikum nahe gebracht und danach schnell in verschiedenen Rechnerprojekten aufgegriffen. Bis heute ist die Von-Neumann-Architektur die Standardarchitektur programmierbarer Rechner geblieben (CampbellKelly/Aspray 1996: 80–99; Ceruzzi 2003: 13–24). Nach Kriegsende wurde an der Moore School die Entwicklung von Rechnern für das Militär fortgesetzt. Eckert und Mauchly sahen die Zukunft des elektronischen Rechnens jedoch auf dem Gebiet administrativer bzw. kaufmännischer Aufgaben. Im März 1946 verließen sie daher die Universität, um unter dem Namen Electronic Control Company eine eigene Computerfirma zu gründen. Wegen Finanzierungsschwierigkeiten mussten sie ihr Unternehmen zwar bereits 1950 an den Büromaschinenhersteller Remington Rand verkaufen. Ihre Arbeiten konnten sie dort aber in einer eigenen Forschungs- und Entwicklungsabteilung weiterführen. Und so brachte Remington Rand mit ihrer Hilfe 1951 den Universal Automatic Computer – besser bekannt unter dem Akronym UNIVAC – auf den Markt, von dem bis Mitte des Jahrzehnts etwa zwanzig Installationen verkauft wurden. Die Kunden schätzten an der neuen Maschine besonders die Magnetbänder für die externe Speicherung großer Daten144
ELEKTRONISCHE DATENVERARBEITUNG
mengen. Tatsächlich wurde der UNIVAC mehr als Gerät für die automatische Datenverarbeitung denn als Rechner im engeren Sinne begriffen. Dazu hat sicherlich auch der Umstand beigetragen, dass der erste Abnehmer eines UNIVAC das US-Census Bureau war, das den Rechner für die Auswertung von Volkszählungsdaten verwendete (CampbellKelly/Aspray 1996: 107–112; Ceruzzi 2003: 24–34). Remington Rand war nicht das einzige Unternehmen, das große Hoffnungen in das Geschäft mit programmgesteuerten Rechnern setzte. Nach einschlägigen Schätzungen engagierten sich in den USA Ende der vierziger, Anfang der fünfziger Jahre bereits um die dreißig Firmen auf diesem Gebiet. Neben Neugründungen wie der Electronic Control Company und den Engineering Research Associates, deren Gründer William Norris später auch die schon erwähnte Control Data Corporation (CDC) ins Leben rief, handelte es sich dabei vor allem um Unternehmen der elektrotechnischen Industrie wie RCA (Radio Corporation of America), General Electric und Honeywell sowie Unternehmen, die wie Remington Rand Produkte – seltener auch Dienstleitungen – für die Bürorationalisierung anboten, beispielsweise Burroughs, NCR (National Cash Register) und Underwood (Campbell-Kelly/Aspray 1996: 106f.). Zur letztgenannten Gruppe gehörte auch IBM. Das Unternehmen war 1924 aus der bereits Ende des 19. Jahrhunderts von Herman Hollerith gegründeten Tabulating Machine Company hervorgegangen. Den Ausgangspunkt hatte Holleriths Erfindung einer Lochkartenmaschine gesetzt, die erstmals bei der Verarbeitung der US-Zensus Daten von 1890 zum Einsatz gekommen war und danach von Hollerith erfolgreich auch für andere Anwendungen vermarktet wurde. Dabei kam ihm bzw. seiner Firma der Umstand zugute, dass in den USA damals bereits große Teile der staatlichen Verwaltung sowie zahlreiche private Unternehmen auf eine moderne Betriebsführung setzten. Entsprechend groß war die Nachfrage für technische Produkte und fachmännische Beratung zur Optimierung von Verwaltungsabläufen und anderen Geschäftsprozessen. Mit beidem konnte Holleriths Firma – wie auch später die IBM – aufwarten und dadurch eine führende Position auf dem Markt für Lochkartentechnik erlangen. Dieser Geschäftszweig blieb bis Ende der fünfziger Jahre nicht nur die Haupteinnahmequelle des Unternehmens, er bildete auch das Fundament für den Aufstieg der IBM zum Weltmarktführer bei Mainframe Computern. Denn die führende Position der IBM in der Lochkartentechnik, die unter anderem auf einem feinmaschigen Vertriebsnetz und einer engen Kundenbindung basierte, verschaffte dem Unternehmen einen Startvorteil im Rechnergeschäft. Aus der Sicht vieler Kunden von IBM war der Umstieg auf elektronische Rechner zunächst nicht viel mehr als eine technische Verbesserung der in die Be145
NEUE TECHNIK AUF ALTEN PFADEN?
triebsabläufe bereits integrierten Lochkartentechnik, da die neuen Rechner weder die verwendeten Peripheriegeräte zur Datenein- und Datenausgabe obsolet, noch die Umstellung bewährter Geschäftsprozesse notwendig machten. Pointiert lässt sich daher formulieren, dass der Wettbewerb um den Mainframe Computermarkt eigentlich schon entschieden war, noch bevor er richtig begonnen hatte. Das gilt, wie wir sehen werden, nicht nur für die USA, sondern auch für die Bundesrepublik und andere europäische Länder (Campbell-Kelly/Aspray 1996: 20–28, 43–52). Wie oben angesprochen hatte die IBM bereits während des Zweiten Weltkrieges erste Erfahrungen mit der Entwicklung programmgesteuerter Rechner für das US-Militär gesammelt. Diese Arbeiten setzte das Unternehmen nach Ende des Krieges fort. Im Mai 1952 kündigte IBM seinen Röhrenrechner 701 an. Wie der UNIVAC arbeitete der IBM 701 nach dem stored program principle und verwendete Magnetbänder für die externe Datenspeicherung. Der Hauptabnehmer war das Militär. Als »zivile Variante« des IBM 701 entwickelte das Unternehmen den IBM 702, der für die Verarbeitung von Massendaten optimiert und gezielt an Firmenkunden vermarktet wurde. Beide Rechner waren wichtige Schritte in der Transformation der IBM von einem Lochkartenmaschinen- zu einem Computerhersteller. Seinen Aufstieg zum Weltmarktführer der Rechnerindustrie läutete das Unternehmen Mitte der fünfziger Jahre mit dem Universalrechner IBM 650 ein. IBM konnte insgesamt etwa 1.000 Anlagen dieses Rechners installieren. Eigentlich für den Markt der kommerziellen Datenverarbeitung konzipiert, stieß der IBM 650 besonders bei Hochschulen auf große Nachfrage. Das lag nicht zuletzt daran, dass IBM den Hochschulen einen kräftigen Preisnachlass einräumte, wenn sie den Rechner zur Ausbildung ihrer Studierenden einsetzten (Campbell-Kelly/Aspray 1996: 123–128; Ceruzzi 2003: 34–36, 43f.). Nachdem sich in den USA der fünfziger Jahre eine Vielzahl von Firmen im Geschäft mit Mainframe Computern versucht hatte, kam es zum Ende des Jahrzehnts zu einer ersten Konsolidierung des Rechnermarktes. Etliche Unternehmen zogen sich aus dem Rechnergeschäft zurück oder wurden von ihren Konkurrenten aufgekauft. Als wichtigste Spieler verblieben IBM, Sperry Rand, Burroughs, NCR, RCA, Honeywell, General Electric und CDC im Markt. Da IBM diese Gruppe mit großem Abstand anführte, machte bald der Spruch von »IBM and the seven dwarfs« die Runde. Es sei aber nochmals daran erinnert, dass IBM Ende der fünfziger Jahre noch 65 % ihres Umsatzes mit der Lochkartentechnik erwirtschaftete – Einnahmen, die allerdings auch für die Weiterentwicklung der Rechentechnik zur Verfügung standen (CampbellKelly/Aspray 1996: 128–130). 146
ELEKTRONISCHE DATENVERARBEITUNG
Wie diese kurzen Ausführungen bereits zeigen, waren die Anfänge der Rechnerentwicklung in den USA stark von militärischen Interessen bestimmt. Dies gilt nicht nur für den Zweiten Weltkrieg, sondern auch für die Zeit danach. Das US-Militär finanzierte die Entwicklung neuer Rechner und war auch deren zuverlässigster Abnehmer, wovon Unternehmen wie IBM profitieren konnten. Hinzu kam die große Aufgeschlossenheit US-amerikanischer Unternehmen für eine technisch unterstützte Optimierung von Verwaltungsabläufen und anderen Geschäftsprozessen, was einen großen Absatzmarkt für einschlägige Produkte und Dienstleistungen schuf. Auch davon konnten Unternehmen wie IBM profitieren. In Deutschland verliefen die Anfänge des programmgesteuerten Rechnens deutlich anders. Als Computerpionier wird hierzulande Konrad Zuse gefeiert, der bereits in den dreißiger Jahren des letzten Jahrhunderts Ideen für einen programmgesteuerten Rechner entwickelte.2 Angeregt wurde er dazu durch komplexe Rechenprobleme, mit denen er sich während seines Bauingenieurstudiums an der Technischen Hochschule Berlin/Charlottenburg auseinandersetzen musste. Zuses Überlegungen gingen bald in konkrete Forschungs- und Entwicklungsarbeiten über, die er in Eigenregie und ohne jegliche institutionelle Anbindung durchführte. Über zwei konstruktive Zwischenschritte gelangte er zu seinem elektromechanischen Rechenautomaten Z3. Dieser wohl weltweit erste voll funktionstüchtige Relaisrechner wurde 1941 mit finanzieller Unterstützung der Deutschen Versuchsanstalt für Luftfahrt realisiert, die ihn zur Berechnung von Strömungsphänomenen einsetzen wollte. Nach Kriegsende führte Zuse seine Arbeiten zu programmgesteuerten Rechnern fort und gründete 1949 die Zuse KG, die sich ab Mitte der fünfziger Jahre erfolgreich mit wissenschaftlich-technischen Rechnern – das erste Serienmodell, der Z11, arbeitete noch mit elektromechanischer Relaistechnik – auf dem deutschsprachigen Markt positionieren konnte. Anfang der sechziger Jahre beschäftigte das mittelständische Unternehmen etwa 1.000 Mitarbeiter, sein Umsatz belief sich auf knapp 9,5 Mio. DM, alle Zeichen standen auf Expansion. Nach einer Phase schnellen Wachstums geriet die Zuse KG jedoch in Finanzierungsschwierigkeiten. Das Unternehmen zeigte sich dem stetig steigenden Innovations- und Wettbewerbsdruck bei elektronischen Rechnern nicht mehr gewachsen. Nach mehrmaligem Wechsel der Teilhaber, zu denen auch die Firma Brown Boverie & Cie gehörte, und dem Ausscheiden des Firmengrün2
Zu Konrad Zuse siehe Petzold 1985: 291–372; Petzold 2000; Zellmer 1990: 47–60, 164–171, 262–281. 147
NEUE TECHNIK AUF ALTEN PFADEN?
ders ging die Zuse KG 1969 schließlich in den Alleinbesitz von Siemens über, die den Firmennamen zwei Jahre später aus dem Handelsregister löschen ließ. Das hat dem Ruf von Konrad Zuse als deutschem Computerpionier keinen Abbruch getan. Betont werden muss gleichwohl, dass seine Ideen wenig Einfluss auf die allgemeine Entwicklung programmgesteuerter Rechner hatten, da er weder einer Hochschule noch sonst einer (ingenieur)wissenschaftlichen Community angehörte. Im Vergleich zu den USA – und in auffälliger Parallele zur Geschichte der Kerntechnik – fiel das militärische Interesse an der neuen Rechentechnik in Deutschland gering aus. Zuse fand über die erwähnte Finanzhilfe der Deutschen Versuchsanstalt für Luftfahrt hinaus wenig Unterstützung für seine Ideen. Und da mit Kriegsende sämtliche militärischen Organisationen in Deutschland zerschlagen wurden, gab es bis zur Wiederbewaffnung der Bundesrepublik auch kein Militär, das als Auftraggeber oder Abnehmer elektronischer Rechner hätte dienen können. Hinzu kam, dass die bundesdeutschen Unternehmen, die in der Nachkriegszeit den Wiederaufbau und den Übergang in die Friedenswirtschaft bewältigen mussten, anders als ihre US-amerikanischen Konkurrenten dem Einsatz der neuen Rechentechnologie zunächst wenig Aufmerksamkeit schenkten. In den ersten Jahren besaßen in der Bundesrepublik deshalb vor allem zivile Organisationen große Bedeutung für die Förderung der Rechnerentwicklung. Der Deutschen Forschungsgemeinschaft fiel dabei eine Führungsrolle zu. Von den 180 Mio. DM, die bis 1966 aus Bundesmitteln für die Entwicklung der Datenverarbeitung zur Verfügung gestellt wurden, hat allein die DFG etwa 70 % im Rahmen verschiedener Programme verteilt (BMBW 1971b: 22). Bereits in ihrem ersten Haushaltsjahr 1949/50 hatte die Notgemeinschaft der Deutschen Wissenschaft, die im August 1951 mit dem Deutschen Forschungsrat zur DFG verschmolz (vgl. Kapitel 3.2), einen Etatposten für die Entwicklung von Rechenmaschinen eingeplant. Und im Jahr darauf wurde ein – allerdings nur kurzlebiger – Sonderausschuss für elektronische Rechenmaschinen gebildet, der über die Verteilung der Fördermittel beraten sollte (Petzold 1985: 402f.). Dieses frühe Engagement der DFG ist durchaus bemerkenswert, da zu diesem Zeitpunkt die Bedeutung der neuen Rechentechnik noch kaum abzuschätzen war. Die bundesdeutsche Rechnerentwicklung lag damals ganz in den Händen der akademischen bzw. universitären Wissenschaft. Die ersten Zentren waren das Max-Planck-Institut für Physik in Göttingen sowie die Technischen Hochschulen in Darmstadt und München, wo in wechselnden Konstellationen Elektrotechniker, Mathematiker und Physiker elektronische Rechner zur Bearbeitung wissenschaftlich-technischer Problemstellungen entwickelten. Dabei konnten sie auf Wissen zurückgreifen, das 148
ELEKTRONISCHE DATENVERARBEITUNG
sie in einschlägigen Forschungsprojekten während des Zweiten Weltkrieges gewonnen oder danach über Kontakte zu US-amerikanischen Kollegen erworben hatten. So nahm der Münchner Nachrichtentechniker Robert Piloty 1947, kurz nachdem er sein Diplom erworben hatte, an einer Sommerakademie des Massachusetts Institute of Technology teil, wo er wertvolle Einsichten in die Arbeitsweise programmierbarer Rechner gewinnen konnte. Diese Informationen flossen nach Pilotys Rückkehr in einen ersten Entwurf für die Programmgesteuerte Elektronische Rechenanlage München, kurz PERM, mit ein. Gebaut wurde die Anlage zwischen 1952 und 1956 am Institut für elektrische Nachrichtentechnik und Meßtechnik der Technischen Hochschule München, das von Pilotys Vater Hans geleitet wurde. Dieser übernahm auch die Führungsrolle bei der Entwicklung der PERM. Für die Finanzierung der Arbeiten kam – genauso wie für die Rechnerentwicklung in Göttingen und Darmstadt – die DFG auf (Wengenroth 1993: 272–280). Die PERM wurde primär als ein Forschungsobjekt begriffen, von dem sich die beteiligten Ingenieure und Wissenschaftler tiefere Einblicke in die Funktionsprinzipien programmierbarer Rechner erhofften. Darüber hinaus war sie für wissenschaftliches Rechnen ausgelegt, ohne dass die konkreten Einsatzgebiete zunächst klar waren (Piloty 1956: 40). Tatsächlich hatte man Anfang der fünfziger Jahre nur sehr vage Vorstellungen, wem und für was die neue Technologie dienen könnte. Der Rechenbedarf der wissenschaftlichen Institute schien mit den gerade im Aufbau begriffenen Kapazitäten in Göttingen, Darmstadt und München weitgehend abgedeckt. An den breiten Einsatz programmierbarer Rechner in der Wirtschaft glaubten damals nur wenige Enthusiasten. Mitte der fünfziger Jahre zeichnete sich jedoch ab, dass man das Entwicklungspotential der elektronischen Rechner sowohl für das wissenschaftlich-technische Rechnen als auch für die kommerzielle Datenverarbeitung unterschätzt hatte (Petzold 1985: 373–401). Die DFG erwies sich in dieser Situation auch für die industrielle Rechnerentwicklung als wichtiger Schrittmacher. 1956 erhielt sie aus dem neu eingerichteten Verteidigungshaushalt 37 Mio. DM bereitgestellt; mehr als die Hälfte dieser Summe war der Anschaffung von Großgeräten – elektronische Rechner eingeschlossen – vorbehalten. Zum Vergleich: Die Gesamtförderung der DFG hatte im Jahr zuvor 26 Mio. DM betragen. Der DFG eröffnete sich durch diesen Geldregen die Möglichkeit, der von den Hochschulen mittlerweile immer nachdrücklicher gestellten Forderung nach elektronischer Rechenleistung zu begegnen (vgl. Küpfmüller 1956). Mit der seit 1956 in Sindelfingen von der IBM Deutschland serienmäßig gefertigten IBM 650 hätte zudem ein leistungsfähiger Rechner zur Verfügung gestanden, der durchaus dem 149
NEUE TECHNIK AUF ALTEN PFADEN?
Anforderungsprofil der Hochschulen entsprach und in Darmstadt und Hannover ab August 1957 auch in der Ausbildung der Studierenden zum Einsatz kam. Die DFG verlegte sich jedoch darauf, die Rechner für das Großgeräteprogramm bei bundesdeutschen Firmen in Auftrag zu geben und damit entsprechende Forschungs- und Entwicklungsaktivitäten der heimischen Industrie zu unterstützten (Eckert/Osietzki 1989: 164–168; Petzold 1985: 402–415). Inwieweit das Bundesverteidigungsministerium, das sicherlich Interesse an einer leistungsfähigen nationalen Rechnerindustrie hatte, auf die Vergabe seiner Gelder Einfluss genommen hat, lässt sich auf Grundlage der verfügbaren Quellen nicht klären.3 1957 beauftragte die DFG jedenfalls die Firma Siemens, die schon Ende 1954 begonnen hatte, sich die elektronische Datenverarbeitung als neues Geschäftsfeld zu erschließen, mit der Entwicklung eines wissenschaftlich-technischen Rechners. Er wurde als erster voll transistorisierter Elektronenrechner Europas unter dem Namen Siemens-Digitalrechner 2002 bekannt (Eckert/Osietzki 1989: 161–180). Neben Siemens wurden auch die Firmen Zuse, SEL (Standard Elektrik Lorenz) und später auch die AEG-Telefunken,4 die sich alle nach der Aufhebung der alliierten Forschungsrestriktionen der Rechnerentwicklung zugewandt hatten, mit Aufträgen im Rahmen des Großgeräteprogramms bedacht. Bis Ende der fünfziger Jahre konnten auf diese Weise an neun wissenschaftlichen Hochschulen von der DFG finanzierte Rechner installiert werden. Und mit Hilfe eines zweiten Beschaffungsprogramms gelang es der DFG in der Folgezeit, an etwa der Hälfte aller wissenschaftlichen Hochschulen der Bundesrepublik Rechenzentren ins Leben zu rufen. Die angewandte und die Grundlagenforschung auf dem Gebiet des elektronischen Rechnens traten durch diese Maßnahmen allerdings vorübergehend in den Hintergrund der Förderaktivitäten der DFG (Petzold 1985: 414). Das Großgeräteprogramm der DFG besaß für die industrielle Rechnerentwicklung große Bedeutung – nicht zuletzt, weil die heimische Wirtschaft dem Einsatz von elektronischen Rechnern damals noch abwartend bis skeptisch gegenüberstand. Einschlägige Schätzungen kommen für das Jahr 1958 auf etwa 100 Anlagen, die von bundesdeutschen Firmen eingesetzt wurden, bereits bestellt oder auch erst geplant waren (Petzold 1985: 421–428; eine zeitgenössische Einschätzung gibt Steinhaus 1959). Die Rechnerpenetration der Bundesrepublik betrug etwa 0,1 3 4
Mündlicher Hinweis von Ulf Hashagen. Die AEG-Telefunken wurde Mitte der sechziger Jahre durch Zusammenschluss der Telefunken mit ihrem Mutterkonzern AEG gebildet; aus Gründen der Übersichtlichkeit wird in diesem Kapitel durchwegs von der AEG-Telefunken gesprochen.
150
ELEKTRONISCHE DATENVERARBEITUNG
Stück im Jahr 1955 und 5,4 Stück im Jahr 1960 jeweils pro 1 Mio. Einwohner, was ungefähr auf 5 bzw. 300 installierte Rechenanlagen hinauslief. Damit lag die Bundesrepublik deutlich hinter den USA, unterschied sich aber auch nicht wesentlich von ihren europäischen Nachbarn oder von Japan (vgl. Tabelle 5-1). Bemerkenswert ist aber, dass der Bestand elektronischer Rechner in der Bundesrepublik dann deutlich schneller wuchs als beispielsweise in Großbritannien, wo die Rechnerentwicklung unmittelbar nach dem Krieg einen vielversprechenden Anfang genommen hatte, was unter anderem auf die im Vergleich zu Kontinentaleuropa geringeren Kriegszerstörrungen zurückzuführen war. Aus einer ganzen Reihe von Gründen gelang es England jedoch nicht, aus seinem anfänglichen Vorsprung in der europäischen Rechnerentwicklung Gewinn zu schlagen (vgl. Gannon 1997: 107–120). Tabelle 5-1: Vergleich der Rechnerpenetration in ausgewählten Ländern, 1955–65 Land
Rechnerbestand (in Stück) pro Mio. Einwohner
Rechnerbestand (in Stück) pro Mrd. US-Dollar Bruttosozialprodukt
1955
1960
1965
1958
1963
1965
USA
1,5
29,9
126,9
5,7
23,4
36,3
FRA
0,1
3,6
30,7
0,7
8,4
15,2
GBR
0,3
4,1
29,0
1,8
11,4
15,8
BRD
0,1
5,4
39,0
1,5
10,6
20,4
JPN
0
0,9
19,0
0,3
12,1
21,3
Quelle: Sommerlatte/Walsh 1982: 34. Für die sich in der Bundesrepublik gerade formierende Rechnerindustrie bedeutete die zögerliche Haltung der Wirtschaft nicht nur einen Nachfrageausfall, sondern auch eine große Unsicherheit darüber, wie sich der heimische Markt entwickeln würde. Auch wenn das von der DFG so nicht intendiert gewesen sein mag, setzten ihre Rechneraufträge in dieser Situation deshalb ein deutliches Signal, das in Richtung wissenschaftlich-technischer Anwendungen an universitären und außeruniversitären Forschungseinrichtungen wies. Unternehmen wie Siemens und AEGTelefunken kam dies durchaus entgegen. Zum einen konnten sie auf diese Weise eine direkte Konkurrenz mit der IBM auf dem Markt der Büro151
NEUE TECHNIK AUF ALTEN PFADEN?
rationalisierung vermeiden, auf dem sie als traditionelle Firmen der Elektro- bzw. Nachrichtentechnik über wenig Erfahrung verfügten. Zum anderen besaßen sie ohnehin gute Beziehungen zu den Hochschulen. Siemens hatte beispielsweise Ende 1954 Beraterverträge mit Hans Piloty und seinem Sohn Robert abgeschlossen, die durch ihre Arbeit an der PERM über einen soliden Erfahrungsschatz in der Rechnerentwicklung verfügten. Neben fachlichem Rat lieferten die Hochschulen auch die dringend benötigten Experten, die als Mitarbeiter bei Siemens und AEGTelefunken den Aufbau der industriellen Rechnerentwicklung bewerkstelligten. Dass Unternehmen wie Siemens und AEG-Telefunken den Einstieg in die Rechnerentwicklung über wissenschaftlich-technische Anwendungsfelder suchten und in dieser Strategie durch das Großgeräteprogramm der DFG bestätigt wurden, konnte nicht ohne Folgen bleiben. In den fünfziger und frühen sechziger Jahren waren elektronische Rechner eben noch keine Universalmaschinen, denen bei geeigneter Programmierung beinahe jede Aufgabe übertragen werden konnte. Ihre technische Konstruktion unterschied sich wie eingangs dargelegt je nachdem, ob sie für wissenschaftlich-technische oder administrativ-kaufmännische Aufgaben eingesetzt wurden. Und natürlich unterschieden sich auch die Nutzergruppen dieser Rechner. Obgleich die Grenzen nicht immer leicht zu ziehen sind und ab Mitte der sechziger Jahre brüchig werden, macht es Sinn hier von zwei Entwicklungspfaden zu sprechen (vgl. Bresnahan/Malerba 1999: 94; Ceruzzi 2003: 58–64). Das Großgeräteprogramm der DFG war aus dieser Perspektive mit dem Pfad des wissenschaftlich-technischen Rechners verknüpft. Das bestärkte das Bild, das sich Unternehmen wie Siemens und AEG-Telefunken – aber nicht nur diese – von elektronischen Rechnern und ihren Nutzern machten. Die Bearbeitung mathematischer und wissenschaftlicher Probleme und die dafür favorisierte Gleitkommarechnung stellten hohe Anforderungen an die Arbeitsgeschwindigkeit der verwendeten Rechner. Im Vordergrund standen hier deshalb Parameter der technischen Leistungsfähigkeit. Eingesetzt wurden wissenschaftlich-technische Rechner zudem in einem Umfeld, das von Wissenschaftlern und Ingenieuren geprägt wurde. Dadurch existierte eine weitgehende Übereinstimmung zwischen dem Erfahrungsraum und Wertekosmos derer, die die Rechner nutzten, und derer, die sie entwickelten. Der wissenschaftlich-technische Nutzer war mit den Funktionsprinzipien elektronischer Rechner vertraut, übernahm die Programmierung entsprechend seiner Problemstellung und konnte sich oft auch bei auftretenden technischen Problemen selbst helfen.
152
ELEKTRONISCHE DATENVERARBEITUNG
Wenn Anfang der achtziger Jahre bei der Evaluation der bundesdeutschen Datenverarbeitungsprogramme festgestellt wurde, die beteiligten Akteure hätten »die Rolle und Bedeutung eigener Technologieentwicklung überbetont und die Notwendigkeit eines schnellen Ausbaus des internationalen Vertriebs und des problemgerechten Kundendienstes unterschätzt« (Sommerlatte/Walsh 1982: 13), dann spiegelt sich in diesem Befund auch das Bild elektronischer Rechner und ihrer Nutzer wider, das durch die Rechnerentwicklung im Rahmen des Großgeräteprogramms der DFG geprägt wurde. Reinhard Veelken, der bei Siemens über viele Jahrzehnte auf leitenden Positionen die Rechnerentwicklung begleitet hat, formulierte das in einem Rückblick auf den Siemens-Digitalrechner 2002 folgendermaßen: »Sie war das Lehrstück, an dem die Siemens-DV-Mannschaft gelernt hat, was Datenverarbeitung heißt und wie man sie einsetzen und vermarkten kann.« (Veelken 1984: 90) Angesichts der Probleme, die in den sechziger Jahren auf Siemens zukamen, ließe sich allerdings die provokante Frage stellen, ob dieser Rechner über seine Technik hinaus wirklich ein gutes Lehrstück war. Denn er trug sicherlich wenig zur Entwicklung jener Kompetenzen bei, die in dem von Siemens Anfang der sechziger Jahre betretenen Markt der kommerziellen Datenverarbeitung benötigt wurden und über die die IBM durch ihre lange Tradition als Hersteller von Lochkartenmaschinen geradezu im Übermaß verfügte.
5.2 Die Datenverarbeitungsprogramme im Überblick (1967–79) Auf technischer Ebene hatte die industrielle Rechnerentwicklung in der Bundesrepublik einen hoffnungsvollen Anfang genommen. Dafür stand neben dem Siemens-Digitalrechner 2002 der von AEG-Telefunken entwickelte wissenschaftlich-technische Rechner TR 4, der ebenfalls über das Großgeräteprogramm der DFG gefördert wurde und Anfang der sechziger Jahre als einer der leistungsfähigsten seiner Klasse galt (Petzold 1985: 473). Diese technischen Erfolge konnten jedoch nicht verhindern, dass US-amerikanische Unternehmen innerhalb kürzester Zeit den bundesdeutschen Rechnermarkt für sich eroberten. Besonders zügig schritt dabei IBM voran. Die Deutschlandaktivitäten des Unternehmens bzw. seiner Vorgänger reichen bis in die Zeit vor dem Ersten Weltkrieg zurück. 1910 wurde im Auftrag von Herman Hollerith die DEHOMAG (Deutsche Hollerith-Maschinen Gesellschaft mbH) in Berlin aus der Taufe gehoben, um die deutschen Patentrechte für seine Erfindungen zu erwerben und von dort aus seine Lochkarten153
NEUE TECHNIK AUF ALTEN PFADEN?
maschinen in Deutschland und Südeuropa zu vertreiben. Zu den frühen Kunden der DEHOMAG zählten die großen Unternehmen der deutschen Chemie- und Elektroindustrie: BASF, Bayer, Hoechst, AEG und Siemens. Nach dem Zweiten Weltkrieg ging aus der DEHOMAG die IBM Deutschland hervor. Sie war eine hundertprozentige Tochter der USamerikanischen IBM, die zur Koordination ihrer Auslandsgeschäfte im gleichen Jahr die IBM World Trade Corporation gründete. Sitz der IBM Deutschland wurde Sindelfingen. Ähnlich wie in Deutschland verfuhr das Unternehmen in vielen anderen Ländern, gründete zahlreiche Tochterunternehmen und erschloss sich auf diese Weise einen internationalen Markt, auf dem es höchst erfolgreich seine Technologien zur Bürorationalisierung und Datenverarbeitung platzieren konnte. Den Einstieg in die Entwicklung elektronischer Rechner fand IBM wie dargelegt über staatliche, insbesondere militärische Aufträge. Anfang der fünfziger Jahre begann das Unternehmen dann, seine Rechner an Firmen und Hochschulen zu vermieten. Gestützt auf seine jahrzehntelangen Erfahrungen, ein leistungsfähiges Netzwerk für Vertrieb und Kundenbetreuung und nicht zuletzt eine technisch ausgereifte Produktpalette, die neben elektronischen Rechnern das gesamte Spektrum von Speichermedien sowie Dateneingabe- und Datenausgabegeräten umfasste, konnte sich IBM einen Weltmarktanteil bei Universalrechnern sichern, der Mitte der sechziger Jahre über 70 % lag (bezogen auf den Rechnerbestand; Sommerlatte/Walsh 1982: 55). Nicht weniger marktbeherrschend war die Stellung von IBM in der Bundesrepublik, wo den heimischen Rechnerherstellern mit etwa 10 % Marktanteil wenig Raum zur Entfaltung blieb. Tatsächlich drohte sich die Situation der bundesdeutschen Firmen eher noch zu verschlechtern als zu verbessern. So musste Siemens einen kontinuierlichen Rückgang ihres Marktanteils bei Universalrechnern von 13,3 % im Jahr 1959 auf 5,0 % im Jahr 1965 hinnehmen (Hansen 1979: 188). Die Probleme der Zuse KG, die im Oktober 1964 wegen Finanzierungsschwierigkeiten in den Besitz der Firma Brown Boverie & Cie überging und schließlich von Siemens übernommen wurde, wurden bereits oben angesprochen. Vor diesem Hintergrund verabschiedete die deutsche Bundesregierung im März 1967 ein »Programm zur Förderung der Forschung und Entwicklung auf dem Gebiet der Datenverarbeitung für öffentliche Aufgaben«. Nach der zivilen Kerntechnik und der Luft- und Raumfahrt war die elektronische Datenverarbeitung die dritte Spitzentechnologie, die das Bundesforschungsministerium in seine programmorientierten Förderaktivitäten aufnahm. Die Diskussion um die »technologische Lücke« zwischen den USA und Westeuropa, an die die Bundesregierung bei der Begründung ihrer Fördermaßnahmen anknüpfte, bot für diesen Schritt 154
ELEKTRONISCHE DATENVERARBEITUNG
einen geeigneten Legitimationsrahmen.5 Dem ersten Datenverarbeitungsprogramm folgten 1971 und 1976 zwei weitere, bevor die allgemeine Förderung der Datenverarbeitung 1979 zugunsten einer gezielten Förderung einzelner Aspekte der Informationstechnologie wie Rechnerstrukturen und künstliche Intelligenz eingestellt wurde. Das Gesamtvolumen der an Unternehmen, Hochschulen und staatliche Forschungseinrichtungen geflossenen Mittel hatte bis dahin eine Summe von über 3,5 Mrd. DM erreicht. Betrachten wir zunächst die staatlichen Fördermaßnahmen im Überblick. Mit den Datenverarbeitungsprogrammen verfolgte die Bundesregierung im Wesentlichen drei Ziele (vgl. Grande/Häusler 1994: 132– 143). An vorderster Stelle stand das markt- und industriepolitische Ziel, der US-amerikanischen Marktdominanz bei elektronischen Rechnern eine leistungs- und wettbewerbsfähige bundesdeutsche Datenverarbeitungsindustrie entgegenzustellen. Ein wichtiges Motiv war hier das Streben nach nationaler Unabhängigkeit in einer Schlüsseltechnologie, auf die eine moderne Industrienation nicht verzichten konnte. Auf die Bundesrepublik mit ihrer ausgeprägten Investitionsgüterindustrie traf dies besonders zu.6 Noch im Vorwort zum dritten Datenverarbeitungsprogramm hieß es: »Für den Wettbewerb auf den Weltmärkten, aber auch für den Einsatz modernster Technologien in der eigenen Wirtschaft, Verwaltung und Infrastruktur dürfen wir uns nicht vom Import von Schlüsseltechnologien wie der Datenverarbeitung aus dem Ausland abhängig machen.« (BMFT 1976: 3) Unausgesprochen blieben in der Öffentlichkeit meist die verteidigungspolitischen Interessen, die ebenfalls hinter dem Ziel einer unabhängigen Datenverarbeitungsindustrie standen und die bereits bei der Förderung der industriellen Rechnerentwicklung im Rahmen des Großgeräteprogramms der DFG eine Rolle gespielt hatten. Ein weiteres Ziel der staatlichen Fördermaßnahmen war die Modernisierung von Wirtschaft und Staat durch den verstärkten Einsatz von Datenverarbeitungssystemen. Es galt, die Position der bundesdeutschen Wirtschaft im internationalen Wettbewerb durch Rationalisierungsmaßnahmen zu stärken und den Staat für die zunehmend komplexer werdenden Aufgaben in den Bereichen Gesundheitsfürsorge, Verkehr und Transport, Bildung etc. zu wappnen. In dem Maße, in dem die Forschungs- und Technologiepolitik in den siebziger Jahren als Strukturpo-
5 6
Zur Diskussion um die »technologische Lücke« siehe Kapitel 3.4. Vgl. auch Gerhard Stoltenberg, Benötigt die Bundesrepublik Deutschland eine eigene Entwicklung von Datenverarbeitungsanlagen, ohne Datum, vermutlich Ende 1967, insbesondere S. 4 (BAK, B138/5531). 155
NEUE TECHNIK AUF ALTEN PFADEN?
litik verstanden wurde, gewann dieser Modernisierungsgedanke in der Förderung der Datenverarbeitung an Gewicht. Als drittes Ziel wurde schließlich die Etablierung einer Informatikforschung verfolgt, wie sie in den USA in Form der computer science bereits in den frühen sechziger Jahren entstanden und an den Hochschulen als eigenständige Disziplin institutionalisiert worden war. Bei diesem – im engeren Sinne forschungspolitischen – Ziel ging es um die Ausbildung von dringend benötigten Informatikfachkräften für Entwicklung und Anwendung elektronischer Rechner sowie um den wissenschaftlichen Erkenntnisfortschritt. Während der Laufzeit der Datenverarbeitungsprogramme gab es Schwerpunktverlagerungen innerhalb und zwischen diesen drei Zielsetzungen, jedoch keine grundsätzliche Neuausrichtung. Wohin flossen die Fördermittel und wie sahen die Schwerpunktverlagerungen im Förderzeitraum aus? Darüber gibt Tabelle 5-2 Auskunft. Betrachtet man die Gesamtausgaben der Jahre 1967 bis 1979 wird zunächst deutlich, dass die industrielle Forschung und Entwicklung mit einem Anteil von 42,3 % der mit Abstand größte Förderbereich war. Ihm folgte mit einem Anteil von 28,8 % die Förderung von DV-Anwendungen, wobei anzumerken ist, dass auch hier weit mehr als die Hälfte der Gelder in die Industrie floss (Sommerlatte/Walsh 1982: 108). Der Schwerpunkt der Datenverarbeitungsprogramme lag somit auf der direkten Förderung industrieller Projekte zur Technologieentwicklung. Profitiert haben davon besonders die Firmen Siemens und AEG-Telefunken, die 47,9 % bzw. 14,2 % der an die Industrie gerichteten Fördermittel erhielten; allein auf die erstgenannte entfiel ein Betrag von etwa einer Milliarde DM (Sommerlatte/Walsh 1982: 98). Wenn in dieser Fallstudie vor allem Siemens und AEG-Telefunken in den Blick genommen werden, dann deshalb, weil diese beiden Unternehmen im Betrachtungszeitraum die wichtigsten industriellen Adressaten der staatlichen Fördermaßnahmen waren.
156
ELEKTRONISCHE DATENVERARBEITUNG
Tabelle 5-2: DV-Förderung nach Programmen und Förderbereichen, 1967–79 (Ist-Ausgaben in Mio. DM) 1. DVProgr. (1967–70)
2. DVProgr. (1971–75)
Hochschulen und Ausbildung
46,4 (12,9 %)
389,2 (21,4 %)
255,7 (18,9 %)
691,5 (19,6 %)
DVAnwendungen
30,1 (8,3 %)
569,5 (31,3 %)
420,3 (31,0 %)
1.019,9 (28,8 %)
Industrielle FuE
244,9 (67,7 %)
717,3 (39,4 %)
534,2 (39,4 %)
1.496,4 (42,3 %)
● Geräte
95,0
199,1
94,0
388,1
● Software
27,0
98,1
75,6
200,7
● Klein-, Kleinstund Prozessrechner
30,9
94,5
112,7
238,1
● Endgeräte
2,0
10,9
50,0
62,9
● Programmsysteme
–
–
47,1
47,1
90,0
314,7
154,8
559,5
Sonderprogramme (v.a. Gesellschaft für Mathematik und Datenverarbeitung)
40,0 (11,1 %)
143,8 (7,9 %)
144,3 (10,7 %)
328,1 (9,3 %)
Gesamt
361,6 (100 %)
1.819,8 (100 %)
1.354,5 (100 %)
3.535,9 (100 %)
Förderbereich
3. DVDVProgr. Fördervolumen (1976–79) (1967–79)
davon: mittlere und große Systeme
dezentrale Informationsverarbeitung
Sonstige
Quelle: Sommerlatte/Walsh 1982: 80. Im zeitlichen Verlauf fällt der gewaltige Sprung bei den verausgabten Mitteln zwischen dem ersten und zweiten Datenverarbeitungsprogramm 157
NEUE TECHNIK AUF ALTEN PFADEN?
auf, von knapp 362 auf etwa 1.820 Mio. DM. Im Jahresdurchschnitt handelt es sich um eine Vervierfachung der Beträge. Davon haben überproportional die Förderbereiche Hochschulen und Ausbildung sowie DV-Anwendungen profitiert, deren Anteil an den verausgabten Mitteln auf das 1,7fache bzw. 3,8fache des ursprünglichen Wertes anstieg. Als Begründung für diese Mittelsteigerung wurde von staatlicher Seite angeführt: »Die bereits heute gegebenen technischen Möglichkeiten für die Anwendung der Datenverarbeitung sind noch nicht annähernd ausgeschöpft, weil ein Mangel an DV-Fachkräften besteht, bedeutende Bereiche für die DV-Anwendung noch nicht erschlossen sind und ein ausreichendes Angebot an übertragbaren, standardisierten Software-Paketen fehlt.« (BMBW 1971: 6)
Im Vergleich zu den Förderbereichen Hochschule und Ausbildung sowie DV-Anwendungen ist der Anteil des Förderbereichs industrielle Forschung und Entwicklung um nicht ganz die Hälfte zurückgegangen. Aber wie bereits festgestellt wurde, erfuhr das Gesamtvolumen der Fördermittel vom ersten zum zweiten Datenverarbeitungsprogramm eine gewaltige Ausweitung, so dass sich in absoluten Zahlen auch die jährlichen Beträge für die industrielle Forschung und Entwicklung weit mehr als verdoppelten. Gegenüber dem zweiten Datenverarbeitungsprogramm wurden die Gesamtausgaben des dritten Datenverarbeitungsprogramms um etwa 25 % gekürzt. Zum Tragen kam hier die Wirtschaftskrise Mitte der siebziger Jahre sowie die wachsende öffentliche Kritik an der staatlichen Finanzierung industrieller Forschungs- und Entwicklungsarbeiten, deren Erfolg zunehmend in Frage gestellt wurde.7 Die Mitteleinsparungen wurden in erster Linie über eine Verringerung der Programmlaufzeit um ein Jahr und nur in sehr geringem Umfang über eine Senkung der jährlichen Ausgaben erreicht. Zwischen den einzelnen Förderbereichen gab es nur geringfügige Verschiebungen. Der Anteil für Hochschulen und Ausbildung wurde leicht zurückgefahren. Nach Ansicht der Programmverantwortlichen rechtfertigte der mittlerweile erreichte Stand der Ausbildungskapazitäten diese Maßnahme (BMFT 1976: 12). Damit wurde die Förderung allmählich vom Bund auf die Länder übertragen, bei denen die Verantwortung für die Hochschulen lag. Die eingesparten Mittel kamen der bereits 1968 als staatliche Großforschungseinrichtung für In7
So musste das Bundesforschungsministerium in der Einleitung seines dritten Datenverarbeitungsprogramms einräumen, dass der staatlich geförderten Entwicklung des Telefunken Großrechners TR 440 »kein wirtschaftlicher Erfolg beschieden war«; siehe BMFT 1976: 11.
158
ELEKTRONISCHE DATENVERARBEITUNG
formatik gegründeten Gesellschaft für Mathematik und Datenverarbeitung zugute, deren Anteil an der Gesamtförderung stieg.8 Die wichtigste Änderung, die das dritte Datenverarbeitungsprogramm mit sich brachte, betraf die industrielle Entwicklung elektronischer Rechner. Hatten die ersten beiden Datenverarbeitungsprogramme ihren Schwerpunkt auf die Entwicklung von großen und mittleren Universalrechnern bzw. wissenschaftlichen Großrechnern gelegt, so verschob das dritte Datenverarbeitungsprogramm mit einer kräftigen Aufwertung von Klein-, Kleinst- und Prozessrechnern nun die Prioritäten innerhalb dieses Förderbereichs. Damit wurde ein technologisch ebenso breites wie heterogenes Technologiefeld ins Visier genommen, das die bundesdeutsche Rechnerindustrie, genauer: eine Reihe von Branchenneulingen, Mitte der sechziger Jahre betreten hatte. Im dritten Datenverarbeitungsprogramm hieß es dazu: »Hier liegt die Chance für die Hersteller der Bundesrepublik Deutschland, stärker als im Markt für mittlere und große Datenverarbeitungs-Systeme die Entwicklungen von Anfang an mitzutragen und mitzubestimmen.« (BMFT 1976: 14) Tatsächlich hatten sich Firmen wie Nixdorf, Kienzle und TriumphAdler zu Beginn des dritten Datenverarbeitungsprogramms bereits beachtliche Marktanteile in der Mittleren Datentechnik erobert, zu der die Klein- und Kleinstrechner gezählt wurden (vgl. Tabelle 5-3). Die führenden Firmen dieses Marktsegments exportierten zudem etwa die Hälfte ihres Produktionsvolumens ins Ausland, wodurch sie sich deutlich von den Herstellern »großer Datentechnik« abhoben, die nur wenige Exporterfolge vorweisen konnten. Die Priorisierung der Mittleren Datentechnik im dritten Datenverarbeitungsprogramm bedeutete eine spürbare Reduzierung der Fördermittel für Siemens und AEG-Telefunken (von 67,6 % im zweiten Datenverarbeitungsprogramm auf 46,7 % im dritten Datenverarbeitungsprogramm) zugunsten kleinerer Unternehmen (Sommerlatte/Walsh 1982: 98). Es bedarf keines ausgefeilten Instrumentariums, um den Nachweis zu führen, dass die Erfolge der staatlichen Fördermaßnahmen für die elektronische Datenverarbeitung bescheiden ausfielen. Legt man als Bewertungsmaßstab das explizit formulierte Ziel einer international wettbewerbsfähigen Rechnerindustrie zugrunde, müssen die Datenverarbeitungsprogramme als gescheitert gelten. Hersteller Mittlerer Datentechnik wie die Nixdorf Computer AG, die in den siebziger Jahren große Erfolge einfahren konnte, stützen diesen Befund eher, als dass sie ihn widerlegen, da sie von den staatlichen Geldern erst profitierten, nach8
Zur Geschichte der Gesellschaft für Mathematik und Datenverarbeitung siehe Wiegand 1994. 159
NEUE TECHNIK AUF ALTEN PFADEN?
dem es ihnen bereits gelungen war, sich mit ihren Produkten erfolgreich auf dem Markt zu etablieren. Für AEG-Telefunken und Siemens sah die Situation anders aus. Die erstgenannte Firma musste ihr Datenverarbeitungsgeschäft 1974 aufgeben, die zweitgenannte war am Ende der staatlichen Fördermaßnahmen von Gewinnen im Datenverarbeitungsgeschäft genauso weit entfernt wie zu Anfang. Immerhin gab es mit Siemens noch einen bundesdeutschen Rechnerhersteller, der Anfang der achtziger Jahre mittlere und große Universalrechner anbot, auch wenn diese von der japanischen Fujitsu stammten (vgl. Kapitel 5.3). Tabelle 5-3: Installationsbestand und Herstelleranteile bei Rechnern der Mittleren Datentechnik in der BRD zu Beginn des 3. DV-Programms Anbieter
ausgelieferte Rechner
Anteil an allen Auslieferungen (in %)
Nixdorf Kienzle Philips Triumph-Adler Ruf Akkord NCR Olivetti Singer Hohner Burroughs Sonstige
14.000 8.600 7.300 6.800 4.500 2.400 2.200 1.900 1.700 1.200 800 4.350
25,1 15,4 13,1 12,2 8,1 4,3 3,9 3,4 3,1 2,2 1,4 7,8
Gesamt
55.750
100
Quelle: Hansen 1979: 190. Ein etwas differenzierteres Bild erhält allerdings, wer sich die Mühe macht, die Förderbereiche einzeln unter die Lupe zu nehmen. Das hat eine von den beiden Beratungshäusern Arthur D. Little und SRI International gebildete Arbeitsgemeinschaft getan, die das Bundesforschungsministerium 1981 mit der Evaluation seiner Datenverarbeitungsprogramme beauftragt hat (siehe Sommerlatte/Walsh 1982). Als positiv hielt der ein Jahr später vorgelegte Evaluationsbericht fest, dass die Fördermaßnahmen im Bereich der Hochschulen zu einem raschen Aufbau einer dem Bedarf entsprechenden Informatikforschung und -ausbildung geführt hätten (vgl. dazu auch Mainzer 1979). Positiv erwähnt wird 160
ELEKTRONISCHE DATENVERARBEITUNG
ebenfalls, dass die deutschen Rechnerhersteller am Ende des Förderzeitraums »über die meisten der erforderlichen Basis- und Spitzentechnologien [verfügten], wenn sie auch auf keinem Technologiegebiet eine strategisch nutzbare Stärke entwickeln konnten«. Alles in allem zeichnet aber auch dieser Bericht ein ernüchterndes Bild und betont, dass die Marktposition der bundesdeutschen Rechnerhersteller trotz einiger Verbesserungen »im internationalen Wettbewerb und angesichts der weiteren Veränderungen der Produkt-/Systemsegmente der DV-Industrie […] nicht dauerhaft gesichert« sei (Sommerlatte/Walsh 1982: 14). Um mögliche Ursachen für dieses unbefriedigende Ergebnis zu identifizieren, ist es notwendig, sich eingehender mit den staatlichen Fördermaßnahmen und ihrer Bedeutung für die industrielle Rechnerentwicklung auseinanderzusetzen. Dabei werden die Schwierigkeiten deutlich, die sich aus dem Versuch der Forschungs- und Technologiepolitik ergaben, die heimische Industrie in einem hoch dynamischen Umfeld auf einen einzelnen Technologiepfad festzulegen.
5.3 Staatliche Fördermaßnahmen und industrielle Rechnerentwicklung Erste Pläne für eine staatliche Förderung der industriellen Rechnerentwicklung entstanden Mitte der sechziger Jahre. Anlass war die oben beschriebene Dominanz der US-amerikanischen Rechnerhersteller, die ihre bundesdeutschen Konkurrenten aus dem Markt zu drängen drohten. Im Juni 1965 wandten sich die Firmen Siemens und AEG-Telefunken deshalb mit einem gemeinsam verfassten Memorandum an das Bundesforschungsministerium.9 Das Memorandum skizzierte die verschiedenen Aufgaben, für die elektronische Rechner eingesetzt werden konnten, wobei das besondere Gewicht auf militärischen Verwendungsmöglichkeiten lag, beispielsweise in der Luft- und Bodenüberwachung oder als Bestandteil von Waffensystemen. An diese Skizze schloss sich die Forderung an, der Staat solle die bundesdeutsche Rechnerindustrie »durch den gezielten Einsatz öffentlicher Mittel« unterstützen. Zur Begründung wurden mehrere Argumente ins Feld geführt. So hob das Memorandum hervor, dass es sich bei elektronischen Rechnern um eine Schlüsseltechnologie handeln würde, die nicht nur mit den verschiedenen Zweigen der Elektroindus9
Siemens & Halske AG/Telefunken AG, Memorandum, Zur Lage der Forschung und Entwicklung von elektronischen Datenverarbeitungs-Anlagen in Deutschland, München/Ulm, 9.6.1965 (BAK, B138/5532); im Folgenden als Siemens/Telefunken, Memorandum, 1965 zitiert. 161
NEUE TECHNIK AUF ALTEN PFADEN?
trie, sondern auch mit vielen anderen Branchen eng verwoben sei. Deutschland dürfe sich in einer solchen Schlüsseltechnologie aber nicht vom Ausland abhängig machen. Darüber hinaus wurde mit der Notwendigkeit argumentiert, die Abwanderung dringend benötigter Rechnerexperten zu stoppen, was nur durch attraktive Forschungs- und Entwicklungsprojekte im Inland geschehen könne. Und schließlich wurde auch die Vorreiterrolle des Auslands angeführt, namentlich der USA, Großbritanniens und Frankreichs, wo der Staat seit langem die Rechnerindustrien fördern würde bzw. »trotz der prekären wirtschaftlichen Lage« neue Förderprogramme beschlossen habe. Die Zulässigkeit des staatlichen Eingriffs in den Markt wurde damit gerechtfertigt, dass die Förderung der amerikanischen Rechnerindustrie durch das Militär zu Marktverzerrungen geführt habe, die nur durch eine entsprechende Politik wieder beseitigt werden könnten. Siemens und AEG-Telefunken schlugen daher vor, »in einer Arbeitsgemeinschaft die Entwicklung elektronischer Rechner mit staatlicher Förderung weiter auszubauen und dafür zu sorgen, dass die deutsche Forschung einen angemessenen Beitrag zum Stand dieser Technik in der Welt liefern« könne.10 Die Stoßrichtung des Memorandums entsprach ganz den Vorstellungen auf staatlicher Seite, wo die Situation der bundesdeutschen Rechnerindustrie ebenfalls als unbefriedigend empfunden wurde und man sich deshalb bereits Gedanken machte, wie Abhilfe geschaffen werden könnte (Wiegand 1994: 72). Auf einer vom Bundesforschungsministerium initiierten Informationstagung, an der Experten aus Wissenschaft und Wissenschaftsförderung sowie Vertreter einiger Nachbarressorts teilnahmen, erhielten Siemens und AEG-Telefunken daher Gelegenheit, ihre Argumente nochmals ausführlich darzulegen.11 Da unter den Tagungsteilnehmern Einvernehmen über die Notwendigkeit staatlicher Fördermaßnahmen herrschte, begann eine kleine Gruppe von Mitarbeitern aus dem Bundesforschungs- und dem Bundesverteidigungsministerium, Vorschläge für das weitere Vorgehen zu erarbeiten. Dabei entstand der Plan, die heimische Rechnerindustrie über ein staatlich beauftragtes technologisches Großprojekt zu fördern. Gedacht war an die Entwicklung einer »Großrechnerfamilie modernster Konzeption«, die von den verschiedenen Bundesressorts für ein großes Spektrum öffentlicher Aufgaben eingesetzt werden sollte. Die Liste diskutierter Verwendungsmöglichkeiten umfasste den Einsatz in »Command & Control Systemen« der Bundeswehr, in Fern- und Verbundrechensystemen wissen10 Ebd., Zitate S. 8f. und 13. 11 BMwF, Kurzprotokoll der Vortrags- und Diskussionsveranstaltung über elektronische Datenverarbeitungsanlagen am 12.7.1965, Bad Godesberg (BAK, B138/5533). 162
ELEKTRONISCHE DATENVERARBEITUNG
schaftlicher Institute, in der numerischen Wettervorhersage, der Kernund Weltraumforschung, der Flugsicherung, als Behörden- und Betriebsinformationssystem, im programmierten Unterricht, der medizinischen Datenverarbeitung, der Straßen- und Eisenbahnverkehrsregelung und einiges andere mehr. Die Entwicklung dieser Großrechnerfamilie, die von der ministeriellen Planungsgruppe Datenverarbeitungssystem 70/72 getauft wurde, sollten Siemens und AEG-Telefunken übernehmen. Darüber hinaus dachte man daran, Hochschulinstitute und staatliche Forschungseinrichtungen an den Entwicklungsarbeiten zu beteiligen, um auf diese Weise den allgemeinen Leistungsstand der Rechnerforschung in der Bundesrepublik zu heben.12 Die Idee, der heimischen Rechnerindustrie mit einem Auftrag für eine Großrechnerfamilie unter die Arme zu greifen und damit gleichzeitig die Modernisierung der staatlichen Verwaltung voranzutreiben, stieß bei den Spitzen des Bundesforschungs- und des Bundesverteidigungsministeriums auf große Zustimmung. Forschungsminister Stoltenberg hielt die Aussicht für attraktiv, die unkoordiniert nebeneinander herlaufenden Entwicklungen bei den Rechnerherstellern in einem gemeinsamen Projekt zu bündeln. Verteidigungsminister von Hassel sah die Möglichkeit, zu einem späteren Zeitpunkt Frankreich an dem Projekt zu beteiligen und dadurch den Wünschen seines französischen Amtskollegen nach einer engeren Zusammenarbeit der beiden Länder auf dem Gebiet der Elektrotechnik entgegenzukommen.13 Wie sich bald zeigte, hatten die Ministerialen die Kooperationsbereitschaft von Siemens und AEG-Telefunken überschätzt. Die beiden Firmen übernahmen vom Bundesverteidigungsministerium zwar den Auftrag für eine Studie, in der sie die Forschungs- und Entwicklungsarbeiten für die neue Großrechnerfamilie konkretisieren und Vorschläge für eine spätere internationale Zusammenarbeit machen wollten. Die Ausarbeitung der Studie kam aber nur schleppend voran, da sie sich auf kein gemeinsames Vorgehen einigen konnten. Anstatt zusammen eine neue Großrechnerfamilie zu konzipieren, wollten die beiden Unternehmen ihre eigenen Wege in der Rechnerentwicklung verfolgen und auch in Zukunft als Konkurrenten am Markt auftreten.14
12 BMwF/BMVtg, Gemeinsame Vorschläge für Maßnahmen auf dem Gebiet der Forschung und Entwicklung in der Datenverarbeitung, Bad Godesberg/Bonn, 19.11.1965 (BAK, B138/5538). 13 BMwF, Niederschrift über die Besprechung zwischen dem BMwF und dem BMVtg am 10. März 1966 (BAK, B138/5533). 14 Vermerk, Besuch von Dr. Radius, Bereichsleiter Entwicklung und Vertrieb in der Fabrik »Informationstechnik« der Firma AEG-Telefunken, Konstanz, im BMwF am 14. Juli 1966 (BAK, B138/5533). 163
NEUE TECHNIK AUF ALTEN PFADEN?
Im Bundesforschungsministerium reagierte man auf die Absage von Siemens und AEG-Telefunken an eine Zusammenarbeit mit Enttäuschung. Obwohl die beiden Unternehmen bei einer Besprechung im Ministerium im September 1966 versicherten, dass jedes von ihnen in der Lage sei »eigene komplette Systeme zu entwickeln«, löste sich der Plan für das Datenverarbeitungssystem 70/72 vor den Augen der Ministerialbeamten in Luft auf. AEG-Telefunken wollte die Arbeit an ihrem wissenschaftlich-technischen Großrechner TR 440 fortführen, Siemens die Weiterentwicklung der Systemfamilie 4004. Das Besprechungsprotokoll vermerkt dazu den Einwurf des mit der Angelegenheit befassten Ministerialdirigenten, »man solle in Anbetracht dessen, dass die zu entwickelnden Geräte kein geschlossenes System bilden, besser von einem Programm statt von einem (einheitlichen) Projekt ›Datenverarbeitung für öffentliche Aufgaben‹ sprechen«.15 Einen Monat später legten Siemens und AEG-Telefunken die Studie vor, die sie im Auftrag des Bundesverteidigungsministeriums erarbeitet hatten. Von einem gemeinsam zu entwickelnden Datenverarbeitungssystem 70/72 war darin nicht mehr die Rede und auch sonst blieben die Aussagen über einer zukünftigen Zusammenarbeit sehr vage (siehe dazu Wiegand 1994: 79). Durch die Beerdigung der Pläne für das Datenverarbeitungssystem 70/72 fehlte nun zwar ein einheitliches Projekt, in dem sich die Entwicklung einer neuen Großrechnerfamilie und die Modernisierung des Staates zusammenbinden ließen. Von dem Bild der elektronischen Datenverarbeitung als einer Großtechnologie zur Erfüllung öffentlicher Aufgaben wollten sich die Programmplaner aber ebenso wenig lösen wie von dem Ziel, die Ressourcen der bundesdeutschen Rechnerhersteller zu bündeln und so einen nationalen Champion zu schaffen. Das zeigt bereits die Konzentration der Fördermittel auf Siemens und AEG-Telefunken. Unter dem ersten Datenverarbeitungsprogramm flossen 87 % der Gelder, die für die direkte Förderung von Industrieprojekten aufgewendet wurden, an diese beiden Unternehmen; unter dem zweiten Datenverarbeitungsprogramm lag der entsprechende Anteil bei 68 %, wobei weitere 15 % der Gelder an die Computer Gesellschaft Konstanz gingen, die 1974 nach Übernahmen durch Siemens aus der zwei Jahre zuvor von AEG-Telefunken und Nixdorf gegründeten Telefunken Computer GmbH hervorgegangen war (Zahlen aus Sommerlatte/Walsh 1982: 98). Finanziert wurde mit den Fördermitteln schwerpunktmäßig die Entwicklung mittlerer und großer Universalrechner, wissenschaftlicher Groß15 Ergebnisniederschrift, Besprechung über Grundsatzfragen der Förderung von Forschung und Entwicklung auf dem Gebiet der Datenverarbeitung für öffentliche Aufgaben am 14. September 1966 im BMwF, Zitate S. 5 (BAK, B138/5533). 164
ELEKTRONISCHE DATENVERARBEITUNG
rechner sowie der für ihren Betrieb notwendigen Programme. Zu diesen Rechnern gehörten der TR 440 und die Systemfamilie Siemens 4004. Mit der Entwicklung des TR 440 hatte AEG-Telefunken 1965 begonnen. Dieser »Großrechner – Made in Germany«16 sollte den TR 4 ablösen, mit dem er voll kompatibel war. AEG-Telefunken hatte den TR 440 für den technischen und wissenschaftlichen Einsatz konzipiert. Um den potentiellen Kundenkreis zu erweitern, versuchte das Unternehmen in späteren Jahren den Rechner stärker für die Anforderungen der administrativen und kaufmännischen Datenverarbeitung zu öffnen, was allerdings wegen des Fehlens geeigneter Anwendungsprogramme misslang. Der TR 440 – in trotzig anmutender Abgrenzung zu dem Begriff System auch als TR-440-Staffel bezeichnet – war eine modular aufgebaute Rechenanlage, die in verschiedenen Konfigurationen geliefert und damit an unterschiedliche Kundenbedürfnisse angepasst werden konnte. Zur TR440-Staffel gehörte auch ein Satellitenrechner (TR 86), der sich in abgewandelter Form als Prozessrechner einsetzen ließ. Der Schwerpunkt des angeboten Leistungsspektrums lag aber im Großrechnerbereich, für den AEG-Telefunken das größte Entwicklungspotential sah. Dabei ging das Unternehmen von der Überlegung aus, dass gemäß dem »allgemeinen Gesetz der Kostenreduktion« die einzelne Rechenoperation in großen Systemen preiswerter durchgeführt werden konnte als in kleinen Systemen. »Das verhält sich bei Rechenanlagen nicht anders als bei Verkehrsflugzeugen und Kernkraftwerken«, hieß es dazu in einer Firmenschrift zum TR 440 (von Sydow 1970: 101). Obwohl der TR 440 nur entfernt dem entsprach, was man sich in Bonn unter einer »Großrechnerfamilie modernster Konzeption« vorstellte, wurde er zu einem viel gehätschelten Kind des Bundesforschungsministeriums – ein Kind allerdings, um das man sich ständig sorgen musste. Den ersten Auftrag für die Lieferung eines TR 440 erhielt AEGTelefunken Anfang 1967 von der Deutschen Forschungsgemeinschaft, die den Rechner für das Deutsche Rechenzentrum in Darmstadt bestellte. Dort sollte die Anlage laut Vertrag im Juni 1968 den regulären Betrieb aufnehmen. Doch schon zu Beginn des Jahres zeichnete sich ab, dass AEG-Telefunken den Termin nicht einhalten konnte. Neben Hardwareproblemen waren dafür hauptsächlich Verzögerungen bei der Entwicklung des äußerst anspruchsvoll konzipierten Betriebssystems verantwortlich, das eine Mehrplatznutzung des TR 440 erlauben sollte. Da AEG-Telefunken keinen überzeugenden Ausweg aus der Misere aufzei-
16 So das Schwerpunktthema der Firmenzeitschrift Datenverarbeitung – Beihefte der Technischen Mitteilungen der AEG-Telefunken, 3. Jahrgang, 1970, Heft 3, S. 101. 165
NEUE TECHNIK AUF ALTEN PFADEN?
gen konnte, weigerte sich die DFG, den Rechner für das Programm zur Errichtung regionaler Großrechenzentren zu empfehlen.17 Als der TR 440 dann mit einer Verspätung von einem dreiviertel Jahr in Darmstadt in Betrieb ging, konnte er wegen technischer Mängel nur mit deutlich reduzierter Geschwindigkeit arbeiten. Völlig offen war zu diesem Zeitpunkt außerdem, ob das für den TR 440 vorgesehene Betriebssystem jemals zum Einsatz kommen würde. Die Darmstädter Anlage wurde deshalb zunächst mit einem provisorischen Betriebssystem ausgestattet, und AEG-Telefunken arbeitete mit Nachdruck an einer vereinfachten Version des ursprünglich geplanten Betriebssystems.18 Einen schlechteren Auftakt hätte man sich für den TR 440, dessen Hauptzielmarkt die regionalen bzw. Hochschulrechenzentren waren, kaum vorstellen können. AEG-Telefunken gelang es bis Ende des Jahres 1969, die Bedenken der DFG zu entkräften und weitere Aufträge von Rechenzentren für den TR 440 an Land zu ziehen. Die Sorgen des Bundesforschungsministeriums, das zwischen 1967 und 1969 etwa 32 Mio. DM für die Entwicklung des Rechners bereitgestellt und für das Jahr 1970 weitere 15 Mio. DM vorgesehen hatte, wurden dadurch jedoch nicht gemildert. Nach Ansicht des Ministeriums blieb die Geschäftsentwicklung des Bereichs Informationstechnik der AEG-Telefunken zu weit hinter dem allgemeinen Wachstum des Datenverarbeitungsmarktes zurück. Das wurde insbesondere im Vergleich zu Siemens und Nixdorf Computer deutlich, die ihre Umsätze zu dieser Zeit kräftig steigern konnten. Da eine isolierte Großrechnerentwicklung in der Bundesrepublik offensichtlich unwirtschaftlich war, eine dauerhafte Subventionierung aber nicht Sinn von Fördermaßnahmen sein konnte, suchte man in Bonn nach einer Lösung. Die Überlegungen, die im Forschungsministerium angestellt wurden, zielten auf eine Zusammenarbeit von AEG-Telefunken mit anderen Firmen, allen voran Siemens.19 Damit gewann die bereits früher verfolgte Idee, aus den beiden Unternehmen einen nationalen Champion zu schaffen, wieder an Gewicht. Sie entsprach auch den Vorstellungen des Wissenschaftsausschusses im Deutschen Bundestag, der die Bereitstellung
17 Das Programm wurde zu 85 % vom Bund und zu 15 % vom jeweiligen Hochschulsitzland finanziert, die Abwicklung des Antrags- und Begutachterverfahrens lag bei der DFG; vgl. Sommerlatte/Walsh 1982: 106f. 18 Vgl. Aufzeichnung, Datenverarbeitung bei AEG-Telefunken, 12.3.1968 (BAK, B138/5532). 19 (Vorbereitungsunterlagen) Gespräch zwischen Herrn Minister und AEGGeneraldirektor Dr. Bühler über Großrechnerprobleme, 12.11.1969 (BAK, B138/5559). 166
ELEKTRONISCHE DATENVERARBEITUNG
staatlicher Fördermittel von einer »engen organisatorischen Zusammenarbeit« der bundesdeutschen Rechnerfirmen abhängig machen wollte.20 Im Bundesforschungsministerium wurden nun Pläne für eine »Großrechnerunion« geschmiedet, in der AEG-Telefunken und Siemens ihre Rechneraktivitäten zusammenführen sollten. In einer Studie des Ministeriums heißt es dazu: »Ein neues unternehmerisches Konzept […] ist in Vorbereitung. Die Großrechner [der Firma AEG-Telefunken; TW] und die mittleren Rechner der Firma Siemens werden danach eine geschlossene Familie mit verwandter Technologie und Peripherie und verwandten Strukturen und Systemen bilden. Dadurch lassen sich die auf die Großrechner entfallenden Entwicklungsausgaben wesentlich reduzieren; außerdem wird ein größerer Markt für diese Anlagen zugänglich.«21
Die erfolgreiche Umsetzung dieses Konzeptes war freilich an eine Reihe technischer und organisatorischer Voraussetzungen geknüpft, denn der TR 440 ließ sich nur auf dem Papier so ohne Weiteres mit den Rechnern von Siemens22 kombinieren. In Wirklichkeit waren die Rechner der beiden Firmen miteinander inkompatibel. Daran konnte auch der politische Wille nichts ändern. Eine einheitliche Rechnerfamilie erforderte deshalb, dass eine der beiden Firmen ihre technischen Standards zugunsten der anderen aufgab. Und auch organisatorisch mussten Zugeständnisse gemacht werden, denn die gewünschten Synergien konnten sich nur einstellen, wenn die anvisierte Großrechnerunion über ein beschlussfähiges Management verfügte, das nicht bei jeder Entscheidung neu zwischen AEG-Telefunken und Siemens verhandeln musste. Das Bundesforschungsministerium versuchte deshalb, den beiden Firmen die Großrechnerunion schmackhaft zu machen, indem es satte Zuschüsse für die Rechnerentwicklung, Hilfe bei der Vermarktung der Rechner sowie staatliche Aufträge für Softwareprojekte in Aussicht stellte.23 Doch wie schon im Vorfeld des ersten Datenverarbeitungsprogramms konnten AEG-Telefunken und Siemens keine Einigung erzielen. Die staatlich initiierten Gespräche zwischen den beiden Firmen über die Gründung
20 Deutscher Bundestag, Ausschuss für Wissenschaft, Kulturpolitik und Publizistik an BMwF, Dr. Gerhard Stoltenberg, 25.4.1969 (BAK, B138/5531). 21 BMBW, Studie zum 2. Datenverarbeitungsprogramm, 7.7.1970, S. 19 (BAK, B196/04640). 22 Konkret ging es um die Rechner der Systemfamilie 4004, auf die weiter unten noch ausführlich eingegangen wird. 23 Gespräch mit Vorstandsmitgliedern der Firmen Siemens und AEGTelefunken über die Großrechnerunion, 20.3.1971 (BAK, B196/04653). 167
NEUE TECHNIK AUF ALTEN PFADEN?
der Großrechnerunion wurden deshalb nach etwas mehr als einem Jahr im Juli 1971 ohne Ergebnis abgebrochen. Ohne Einbettung in eine Rechnerfamilie blieb der TR 440 ein Nischenprodukt für die Hochschulen und Forschungseinrichtungen der Bundesrepublik. Dort konnte er bis Mitte der siebziger Jahre zwar nach Angaben des Bundesforschungsministeriums einen Marktanteil von etwa 30 % erobern (BMFT 1976: 31). Die kleine Zahl an Rechnern, die sich hinter dieser Prozentangabe versteckte, – insgesamt wurde der TR 440 knapp fünfzig Mal an Kunden ausgeliefert – reichte jedoch nicht aus, um die Rechneraktivitäten der AEG-Telefunken auf eine solide wirtschaftliche Basis zu stellen. Dafür waren die Entwicklungskosten für Großrechner schlicht zu hoch. Trotz der staatlichen Subventionen, die das Unternehmen für seine Arbeiten erhielt, war es dem Wettbewerb im Rechnergeschäft allein nicht gewachsen. Mit Unterstützung aus Bonn ging AEG-Telefunken deshalb Anfang 1972 eine Kooperation mit Nixdorf Computer ein.24 Die beiden Unternehmen gründeten die Telefunken Computer GmbH mit Sitz in Konstanz. Ziel der Gesellschaft, deren Leitung Heinz Nixdorf übernahm, waren Entwicklung, Fertigung und Vertrieb des TR 440 sowie seines Nachfolgemodells. Des Weiteren sollte die Telefunken Computer GmbH Betriebs- und Anwendungsprogramme, Peripheriegeräte sowie Belegverarbeitungsanlagen für ihre Großrechner entwickeln. Während sich AEG-Telefunken von der Zusammenarbeit einen Zugang auf den Markt der kommerziellen Datenverarbeitung erhoffte, auf dem Nixdorf höchst erfolgreich agierte, spekulierte Heinz Nixdorf auf den Einstieg ins Großrechnergeschäft, in dem sein Unternehmen bislang nicht Fuß gefasst hatte. Der Kooperation zwischen AEG-Telefunken und Nixdorf Computer war kein Erfolg beschieden. Die hohen Verluste der Telefunken Computer GmbH schienen sich nicht in absehbarer Zeit eindämmen zu lassen. Schon im April 1974 mussten die Partnerfirmen deshalb das gemeinsame Rechnergeschäft an Siemens verkaufen, die es unter dem Namen Computer Gesellschaft Konstanz weiterführte. Auf diese Lösung hatte die Bundesregierung gedrängt, die das hoch subventionierte Projekt TR 440 irgendwie zu retten versuchte. Siemens stellte allerdings noch im selben Jahr die Großrechnerentwicklung in Konstanz ein, um dort andere Projekte zu verfolgen (Sommerlatte/Walsh 1982: 175). Das Bundesforschungsministerium wurde erst im Nachhinein über diesen Schritt unterrichtet. In den Nachrufen auf den TR 440 wurde immer wieder dessen 24 Siehe dazu den Artikel »Eine deutsche Erfolgsstory – vom Einmannbetrieb zum internationalen Super-Systemhaus (Teil 2)« in Computerwoche, Nr. 46, 13.11.1987; http://www.computerwoche.de/heftarchiv/1987/46/ 1162281; 8.2.2007; zur Geschichte von Nixdorf siehe Kemper 1986. 168
ELEKTRONISCHE DATENVERARBEITUNG
technische Leistungsfähigkeit hervorgehoben.25 Bewähren muss sich Technik freilich auf dem Markt und dort spielen neben der rein technischen Leistungsfähigkeit andere Faktoren eine wichtige Rolle – bei Rechnern etwa die Verfügbarkeit von Anwendersoftware und die Kompatibilität mit dominanten Rechnerdesigns. Und hier hatte der TR 440 deutliche Defizite gegenüber Konkurrenzprodukten. Wie entwickelte sich bei Siemens das Rechnergeschäft unter den staatlichen Datenverarbeitungsprogrammen? Das Unternehmen vermarktete seit 1965 unter dem Namen Siemens System 4004 die Rechner der Spectra 70 series. Dafür hatte es einen Kooperationsvertrag mit der amerikanischen RCA geschlossen. Die RCA war eine der wenigen Firmen, die bereits Mitte der sechziger Jahre über eine eigene Rechnerfamilie verfügten, die mit dem IBM System/360 in Konkurrenz treten konnte. Da sich RCA bei der Entwicklung der Spectra 70 series eng an den Standards von IBM orientiert hatte, waren die konkurrierenden Rechnerfamilien miteinander voll kompatibel. Das erlaubte es Nutzern, die Hard- und Software der beiden Hersteller zu kombinieren, vor allem IBM-Programme auf den deutlich preisgünstigeren RCA-Maschinen zu verwenden. Mit dieser Auslegung schien die Spectra 70 series geradezu prädestiniert, der IBM Marktanteile im Segment der Universalrechner abzunehmen (Ceruzzi 2003: 162–164). Siemens, die mit ihrem selbst entwickelten Nachfolgemodell für den Digitalrechner 2002 keinen sonderlichen Erfolg hatte, entschloss sich deshalb für die Zusammenarbeit mit RCA. Zunächst übernahm Siemens alle Zentraleinheiten, das Betriebssystem und auch einen Teil der Peripheriegeräte von ihrem Kooperationspartner. 1966 begann Siemens dann, Komponenten der Spectra 70 series, die anfangs nur vier unterschiedlich dimensionierte Zentraleinheiten umfasste und damit ein deutlich engeres Leistungsspektrum als das IBM System/360 abdeckte, um Eigenentwicklungen zu ergänzen. Dafür erhielt das Unternehmen unter den ersten beiden Datenverarbeitungsprogrammen Mittel der öffentlichen Hand (Janisch 1988: 43–51; Sommerlatte/Walsh 1982: 83–89). Die Strategie, »IBM-Klone« anzubieten und den mächtigen Konkurrenten gleichsam mit den eigenen Waffen zu schlagen, schien zunächst aufzugehen. RCA konnte die Rechner der Spectra 70 series erfolgreich auf dem Markt platzieren und auf diese Weise potentielle IBM-Kunden gewinnen. Und auch bei Siemens füllten sich die Auftragsbücher für das System 4004. Zu den Interessenten gehörten staatliche Einrichtungen wie das Deutsche Patentamt, die Bundesversicherungsanstalt für Ange25 So auch die Bundesregierung im dritten Datenverarbeitungsprogramm; siehe BMFT 1976: 31. 169
NEUE TECHNIK AUF ALTEN PFADEN?
stellte und die Deutsche Bundesbahn sowie Unternehmen der Privatwirtschaft, beispielsweise Daimler Benz, der Axel Springer Verlag und die Klöckner-Werke (Janisch 1988: 56–60). Gestützt auf die neue Produktpalette konnte Siemens ihren bundesdeutschen Marktanteil bei elektronischen Rechnern (gemessen am Wert der installierten Anlagen) von 5 % im Jahr 1965 auf 14 % im Jahr 1970 ausbauen.26 Als IBM im Sommer 1970 als technische Weiterentwicklung der Rechnerfamilie /360 das System/370 ankündigte, kam der anfängliche Erfolg von RCA mit der Spectra 70 series jedoch zu einem raschen Ende. Aufgrund fortlaufender Verluste, die unter anderem aus anhaltend hohen Entwicklungskosten herrührten, kündigte das Unternehmen im September 1971 an, sein Rechnergeschäft aufzugeben. Die einschlägigen Unternehmensbereiche wurden von der Firma Univac übernommen, die sich im Wesentlichen auf die Wartung der RCA-Rechner beschränkte und ansonsten bemüht war, ihre eigenen Rechner bei den neu gewonnen Kunden zu platzieren (Ceruzzi 2003: 162–164). RCAs Ausstieg aus dem Rechnergeschäft war ein harter Schlag für Siemens. Der amerikanische Partner hatte an einer neuen Rechnerfamilie gearbeitet, die als Antwort auf das IBM System/370 gedacht war. Siemens hatte darauf spekuliert, von RCA diese neue Rechnerfamilie wie zuvor schon die Spectra 70 series für den europäischen Markt zu übernehmen. Diese Pläne lösten sich nun in Luft auf. Siemens hatte zwar im Rahmen des Systems 4004 an neuen Zentraleinheiten gearbeitet. Die Entwicklung einer kompletten Rechnerfamilie überstieg aber die Möglichkeiten des Unternehmens (Janisch 1988: 75f.), das mit dem schnellen Wachstum seiner Rechnersparte ohnehin überfordert war. In einer von Siemens 1988 herausgegebenen Geschichte ihres Datenverarbeitungsbereichs wird dazu bemerkenswert offen ausgeführt: »Dieses forcierte Wachstum […] führte zu zahlreichen Problemen bei uns: Von technischen Problemen der Hardware (Qualität, Störfälle, Ersatzteilversorgung und Wartung) bis zu den Problemen der Software (Funktionen, Fehlerbehebung, Bedarf an mehr Anwendersoftware), von den Engpässen bei der Aus- und Weiterbildung bis zur Softwareentwicklung und der Programmdienst-Organisation bei System- und Anwenderprogrammen.« (Janisch 1988: 60) 26 Siehe dazu Janisch 1988: 55; enthalten sind auch die Marktanteile der Firma Zuse, an der sich Siemens 1967 zu 70 % beteiligte, um sie zwei Jahre später dann vollständig zu übernehmen. Siemens kam trotz dieses Zugewinns an Marktanteilen mit ihrem Datenverarbeitungsbereich nicht in die Gewinnzone, was unter anderem an der Notwendigkeit lag, die Vertriebsund Wartungsnetze massiv auszubauen sowie die Rechnerentwicklung voranzutreiben. 170
ELEKTRONISCHE DATENVERARBEITUNG
In dieser schwierigen Situation machte sich Siemens auf die Suche nach einem neuen Kooperationspartner. Der Blick des Unternehmens richtete sich dabei nicht zufällig auf die europäischen Nachbarn. Schon seit Mitte der sechziger Jahre bemühte sich Frankreich um eine technologische Zusammenarbeit der europäischen Staaten. Hinter diesem Bemühen standen Frankreichs große politische und militärische Ambitionen, die es wiederholt in Konflikt mit den USA brachten. So untersagte die Regierung in Washington 1963 der CDC den Verkauf eines Supercomputers an Frankreich, das einen besonders leistungsfähigen Rechner für sein Atomprogramm benötigte. Die deutsche Bundesregierung stand dem Wunsch ihres Nachbarn nach einer engeren Kooperation auf technologischem Gebiet grundsätzlich offen gegenüber. Bei den Planungen zum ersten Datenverarbeitungsprogramm entschied man sich in Bonn zwar dazu, die staatliche Förderung zunächst auf nationale Projekte zu beschränken, um den heimischen Rechnerherstellern eine günstige Ausgangsposition zu verschaffen. Diese sollten sich jedoch schon bei der Konzeption ihrer Projekte Gedanken darüber machen, auf welche Weise sie später mit ihren europäischen Mitbewerbern zusammenarbeiten könnten.27 Konkrete Schritte in diese Richtung wurden dann Ende der sechziger Jahre unternommen. Der europäische Einigungsprozess hatte zu diesem Zeitpunkt trotz zahlreicher Hemmnisse einen Punkt erreicht, an dem ein großes europäisches Rechnerprojekt möglich schien.28 Auf Initiative eines Expertenkomitees, das 1965 vom Ministerrat der Europäischen Wirtschaftsgemeinschaft (EWG) zur Behandlung wissenschafts- und technologiepolitischer Fragen gegründet worden war, wurde ein erster Anlauf unternommen. Die großen europäischen Rechnerhersteller – darunter die französische CII (Compagnie Internationale pour l’Informatique), die niederländische Philips, AEG-Telefunken und Siemens – sollten gemeinsam einen Großrechner entwickeln, der es mit den leistungsfähigsten Rechnern US-amerikanischer Herkunft aufnehmen konnte. AEG-Telefunken, Siemens und CII standen dem Projekt jedoch ambivalent gegenüber. Einerseits befürworteten sie eine engere Kooperation auf europäischer Ebene, andererseits hielten sie die gemeinsame Entwicklung eines einzelnen Rechners schon aus organisatorischen Gründen für kaum realisierbar.29 Nach ausführlichen Gesprächen entschieden sich die beteiligten Firmen Ende 1970 gegen das Projekt, 27 BMwF, Niederschrift über die Besprechung zwischen dem BMwF und dem BMVtg am 10. März 1966 (BAK, B138/5533). 28 Die Herausbildung einer europäischen Informationstechnologie-Politik behandelt Gannon 1997. 29 Vgl. Anlagen 1–3 zu Aufzeichnung Datenverarbeitung bei AEG-Telefunken, 12.3.1968 (BAK, B138/5532). 171
NEUE TECHNIK AUF ALTEN PFADEN?
das dennoch nicht folgenlos blieb. Denn auf industrieller Seite bemühte man sich nun vermehrt um ein gemeinsames Vorgehen, etwa bei Fragen der Standardisierung. Und auf staatlicher Seite fühlte man sich in der Auffassung, dass eine Zusammenarbeit in der Rechnerentwicklung notwendig sei, eher bestätigt denn widerlegt. Zudem hatten sich in den Gesprächen Möglichkeiten angedeutet, wie eine gemeinsame europäische Rechnerentwicklung organisiert werden könnte, bei der die beteiligten Länder ein Höchstmaß an Autonomie wahren konnten. Dies sollte kurze Zeit später eine wichtige Grundlage für ein Kooperationsprojekt zwischen Siemens, CII und Philips werden (Kranakis 2004: 226–233). Als sich Siemens nach dem Rückzug von RCA einen neuen Kooperationspartner suchen musste, war es also durchaus naheliegend, dass sich das Unternehmen bei den europäischen Nachbarn umsah. Der Unterstützung der deutschen Bundesregierung konnte es sich dabei sicher sein. Hinzu kam, dass CII, die 1966 unter der Regierung von Charles de Gaulles durch die Fusion mehrerer kleiner Firmen geschaffen worden war und systematisch zu einem nationalen Champion aufgebaut wurde, ebenfalls nach einem europäischen Kooperationspartner Ausschau hielt. Eine entsprechende Verpflichtung war das Unternehmen 1971 gegenüber der französischen Regierung im Rahmen des Plan Calcul eingegangen, der die staatliche Mittelvergabe an die Industrie regelte.30 Siemens begann unmittelbar nach dem Ausstieg von RCA mit CII über eine Zusammenarbeit zu verhandeln. Bereits im Januar 1972 war eine erste Übereinkunft erzielt. Zu diesem Zeitpunkt trat auch Philips, die ebenfalls nach einem Partner suchte, den Verhandlungen bei.31 Da nun die Interessen von drei Firmen und ebenso vielen Regierungen unter einen Hut gebracht werden mussten, zogen sich die weiteren Gespräche in die Länge. Im Juli 1973 konnten Siemens, CII und Philips dann aber den Vertrag über die Gründung der Unidata unterzeichnen. Erklärte Ziele der Unidata-Kooperation waren der Aufbau eines europäischen Vertriebs- und Wartungsnetzes sowie die Entwicklung und Fertigung einer neuen, voll kompatiblen Rechnerfamilie, die als System X bzw. System 7.700 bezeichnet wurde (Gannon 1997: 174–182). Diese Rechnerfamilie sollte sechs Zentraleinheiten unterschiedlicher Leistungsstufen umfassen, deren Entwicklung und Fertigung auf die drei kooperierenden Unternehmen aufgeteilt wurden. Philips war für die kleinste (7.720), Siemens für zwei mittlere (7.730, 7.750) und CII für eine 30 Einen gestrafften Überblick zur Entwicklung der CII gibt Coopey 2004b: 157–161. 31 Vgl. dazu auch van den Enden et al. 2004, die den Einfluss der niederländischen und europäischen Politik auf das Rechnergeschäft von Philips untersuchen. 172
ELEKTRONISCHE DATENVERARBEITUNG
mittlere (7.740) und zwei große Zentraleinheiten (7.760, 7.770) zuständig. Als Liefertermin für die kleinen und mittleren Anlagen wurde 1975, für die großen Anlagen 1976 vereinbart. Siemens, die die neue Rechnerfamilie als Nachfolger ihres Systems 4004 betrachtete, erhielt für die Entwicklungsarbeiten wiederum Gelder von der deutschen Bundesregierung. Brüssel musste sich aus Rücksicht auf die Rechnerhersteller der nicht beteiligten EWG-Staaten weitgehend auf eine ideelle Unterstützung des Projekts beschränken (Kranakis 2004: 233–238; für die Perspektive von Siemens Janisch 1988: 75–87, 102–106). Die Unidata währte nicht lange. Keine zwei Jahre nach Gründung wurde im Mai 1975 ihre Auflösung verkündet; die formelle Aufhebung der Verträge erfolgte Ende Dezember. Die Ursachen für das Scheitern waren vielfältig und müssen hier nicht im Einzelnen diskutiert werden. Sie sind wohl nur zu einem kleinen Teil in der Unidata selbst mit ihren komplexen Entscheidungsstrukturen zu suchen. Eine wichtigere Rolle spielte die Politik, insbesondere Frankreichs, wo die neue Regierung unter Valéry Giscard d’Estaing die Strategie gegenüber der CII änderte und auf eine Kooperation mit der Compagnie Honeywell-Bull drängte (Kranakis 2004: 238). Für Siemens bedeutete das Scheitern der Unidata, dass das Unternehmen nun wieder ohne einen Partner in der Rechnerentwicklung dastand. Hinzu kamen wirtschaftliche Probleme. Der Verlust, den Siemens mit seinem Datenverarbeitungsbereich im Geschäftsjahr 1975/ 76 einfuhr, belief sich auf knapp 130 Mio. DM, und das war bereits eine Reduzierung des Verlustes gegenüber dem Vorjahr um 60 Mio. DM. Immerhin verfügte Siemens am Ende der Kooperation über eine neue Systemfamilie, der zunächst allerdings noch die Rechner im oberen Leistungsbereich fehlten, da CII die Zentraleinheiten 7.760 und 7.770 nicht liefern konnte. Siemens entschied sich deswegen, selbst einen großen Rechner zu entwickeln, den das Unternehmen ab 1978 als System 7.760 auslieferte (Janisch 1988: 90–92). Fünf Jahre, nachdem IBM sein System/370 angekündigt hatte, konnte Siemens ihren Kunden ebenfalls eine neue Rechnerfamilie als Nachfolger des Systems 4004 anbieten. IBM hatte in der Zwischenzeit freilich seine Entwicklungsarbeiten nicht ausgesetzt und kam Ende der siebziger Jahre mit neuen Rechnern – etwa der IBM 4300 series – auf den Markt, die sich nicht nur durch eine Reihe technischer Neuerungen, sondern auch durch ein stark verbessertes Preis-/Leistungsverhältnis auszeichneten. Das erzeugte einen gewaltigen Druck auf die Mitbewerber, die nur schwer um Preisnachlässe für ihre Produkte herumkamen, gleichzeitig aber mehr Gelder in ihre Forschung und Entwicklung investieren mussten (Ceruzzi 2003: 160f.; Gannon 1997: 198). Siemens musste deshalb an die nächste Rechnergeneration denken, wollte sie weiter173
NEUE TECHNIK AUF ALTEN PFADEN?
hin im Datenverarbeitungsmarkt aktiv bleiben. Das Unternehmen sah sich wieder einmal nach einem Kooperationspartner um – diesmal in Fernost. 1978 begann Siemens mit dem japanischen Rechnerhersteller Fujitsu zusammenzuarbeiten, dessen IBM-kompatible Großrechner eine Ergänzung des Produktspektrums von Siemens im oberen Leistungsbereich darstellten. Fujitsu arbeitete zudem schon an neuen Rechnern, deren Übernahme durch Siemens 1981 vereinbart wurde (Janisch 1988: 134–137, 152). Das Geschäft mit den Fujitsu-Großrechnern lief relativ gut an. Für die Ende 1978 gemeinsam von den Kooperationspartnern angekündigten Rechner der Serie 7.800 erhielt Siemens bis 1981 etwa 50 Aufträge. Die wirtschaftliche Bilanz des Geschäftsjahres 1980/81 fiel dennoch katastrophal aus. Der Datenverarbeitungsbereich von Siemens fuhr Verluste in Höhe von 200 Mio. DM ein, woran auch gescheiterte Projekte im Bereich der Softwareentwicklung ihren Anteil hatten. Die Zeitschrift Computerwoche kommentierte trocken: »Die ehrgeizigen Ziele der Siemens AG, aus der Münchner Elektroschmiede einen respektablen ComputerKonzern zu machen, gelten vorerst als gescheitert.«32 Nach dreizehn Jahren staatlicher Förderung unter drei Datenverarbeitungsprogrammen schien das Rechnergeschäft von Siemens von einem stabilen Wachstumspfad weiter entfernt denn je.
5 . 4 D a s S e l b s t ve r s t ä n d n i s d e r b u n d e s d e u t s c h e n Ak t e u r e u n d d i e V o r m a c h t s t e l l u n g vo n I B M Angesichts der mageren Ergebnisse, die die staatliche Förderung der industriellen Rechnerentwicklung erzielte, lässt sich trefflich darüber streiten, ob die öffentlichen Gelder sinnvoll investiert wurden (für eine pointierte Kritik siehe z.B. Hansen 1979). Es verwundert daher nicht, dass die Bonner Politik in der zeitgenössischen Presse immer wieder heftig kritisiert wurde. So wandte sich etwa die Computerwoche im Mai 1977 mit der bohrenden Frage »Herr Matthöfer, wo bleiben unsere Milliarden?« an den Bundesforschungsminister der sozial-liberalen Koalition.33 Hintergrund war die Publikation der »Bemerkungen des Bundesrechnungshofes für das Haushaltsjahr 1975«, in denen die Förderpraxis der Bundesregierung bemängelt wurde. Denn nach Ansicht der obersten 32 »Siemens kränkelt nach Softwarepleite« in Computerwoche, Nr. 46, 13.11.1981; http://www.computerwoche.de/heftarchiv/1981/46/1187974; 7.2.2007. 33 Computerwoche, Nr. 21, 20.5.1977; http://www.computerwoche.de/heft archiv/1977/21/1198983; 24.1.2007. 174
ELEKTRONISCHE DATENVERARBEITUNG
Rechnungsprüfer agierte die staatliche Forschungs- und Technologiepolitik in der Datenverarbeitung ohne »ein langfristig angelegtes, sowohl fachlich wie gesamtpolitisch durchschaubares und durch sorgfaltige Marktanalysen abgesichertes Konzept« (Bundesrechnungshof 1975: 121). Diese harsche Kritik hatte sich nicht zuletzt daran entzündet, dass Siemens unmittelbar nach der Übernahme der Telefunken Computer GmbH die Entwicklung des TR 440 und seines Nachfolgers eingestellt hatte, ohne den Bundesforschungsminister, der diese Arbeiten mit 200 Mio. DM unterstützt hatte, über diesen Schritt zu informieren. Der Bundesrechnungshof (1975: 124) stellte dazu fest: »Insgesamt hatte das Fehlen eines eigenen Konzeptes zur unvermeidlichen Folge, dass der Bundesminister das Schicksal der Großrechnerförderung und der in ihrem Namen verausgabten Bundesmittel nicht selbst in der Hand behielt, sondern zunehmend den wechselhaften, ausschließlich firmenpolitisch orientierten Entscheidungen der DV-Hersteller überließ.«
Die Frage nach dem Verbleib von Steuergeldern ist berechtigt. Für die vorliegende Arbeit bedeutsamer ist aber ein anderer Aspekt – nämlich das Missverhältnis zwischen den angestrebten Zielen und den dafür eingesetzten Mitteln. Denn wie Edgar Grande und Jürgen Häusler (1994: 487) in ihrer Studie zu den Steuerungspotentialen in der Informationstechnologie betonen, »begnügte sich [die staatliche Förderpolitik] nie damit, nur ökonomische ›Nischen‹ oder Mittelplätze zu besetzen. Es ging ihr stets darum, im internationalen ›Technologiewettlauf‹ auf Schlüsselmärkten Spitzenpositionen zu erreichen – und das in kurzer Zeit«. Die Mittel, die der Staat und ebenso die Industrie für dieses ambitionierte Ziel einsetzten, fielen jedoch erstaunlich moderat aus. Um das zu verdeutlichen, lohnt es, die staatlichen und industriellen Strategien an den Aktivitäten von IBM zu spiegeln. Dabei werden auch die kulturellen Orientierungsmuster deutlich, die der Formulierung dieser Strategien zugrunde lagen. Die internationale Vormachtstellung, die IBM Mitte der sechziger Jahre im Segment der Universalrechner besaß, bedeutete für die anderen Rechnerhersteller, dass sie entweder in direkte Konkurrenz mit dem Markführer treten oder auf Nischenmärkte ausweichen mussten. Für beide Strategien finden sich zahlreiche Beispiele innerhalb und außerhalb der USA (vgl. Bresnahan/Malerba 1999: 91–106). Siemens und AEG-Telefunken entschieden sich für die direkte Konkurrenz mit IBM. Unterstützt wurden sie in dieser Entscheidung von der deutschen Bundesregierung, für die es sich bei der Förderung der Datenverarbeitung »im Grunde um die Wiedergewinnung einer Position [handelte], die 175
NEUE TECHNIK AUF ALTEN PFADEN?
IBM übernommen« hatte.34 Technologischer Bezugspunkt war – ob es sich nun um das in Bonn angedachte Datenverarbeitungssystem 70/72, das System 4004 von Siemens oder den TR 440 der AEG-Telefunken handelte – das von IBM 1964 angekündigte System/360, das wie dargelegt die gängigen Vorstellungen vom elektronischen Rechnen revolutionierte. Schätzungen zu den Kosten für die Entwicklung und Einführung dieses Systems reichen bis zu 5 Mrd. US-Dollar. Diese Zahl mag zu hoch gegriffen sein, und die Entwicklungskosten für Rechnerfamilien, die sich wie die Spectra 70 series an den Standards von IBM orientierten, mögen deutlich unter dieser Summe gelegen haben. Außer Frage steht dennoch, dass Entwicklung, Einführung und Vertrieb einer neuen Rechnerfamilie einen gewaltigen Einsatz materieller und intellektueller Ressourcen erforderte. Einschlägige Schätzungen gehen davon aus, dass ein Rechnerhersteller in dem hier untersuchten Zeitraum etwa 12 % des Weltmarktes für sich gewinnen musste, um angesichts des hohen Ressourceneinsatzes in die Gewinnzone zu gelangen. Nun waren Siemens und AEG-Telefunken Mitte der sechziger Jahre keine Neulinge im Datenverarbeitungsgeschäft. Wie wir gesehen haben, verfügten beide Unternehmen bereits über einschlägige Erfahrungen in der Entwicklung elektronischer Rechner. Siemens hatte den Digitalrechner 2002, als Nachfolgemodell den 3003 sowie die Prozessrechner der Serie 300 auf den Markt gebracht; letztere mit gutem Erfolg. AEGTelefunken hatte den TR 4 und dann die mittelgroßen Rechner TR 5 und TR 10 entwickelt, deren Vermarktung allerdings Probleme bereitete. Erfolgreicher lief für das Unternehmen ebenfalls das Geschäft mit den Prozessrechnern, die es in Lizenz der US-amerikanischen General Electric fertigte. Zum Start des ersten Datenverarbeitungsprogramms waren bei Siemens etwa 4.200 Personen im Bereich Datenverarbeitung tätig, davon 1.800 in Forschung und Entwicklung, 1.000 in der Fertigung und 1.400 im Vertrieb. Bei AEG-Telefunken waren zeitgleich 700 Personen mit der Entwicklung von Datenverarbeitungstechnik befasst, weitere 700 kümmerten sich um Vertrieb, Programmierung und Systembetreuung, und 1.400 arbeiteten in der Fertigung.35 Auch wenn die beiden Rechnerhersteller damit über einen gewissen Erfahrungsschatz sowie größere personelle Ressourcen verfügten, blieb 34 BMwF, Niederschrift über die Besprechung zwischen dem BMwF und dem BMVtg am 10. März 1966, S. 4 (BAK, B138/5533). 35 Zu Siemens und AEG-Telefunken siehe Flamm 1988: 159–165; Petzold 1985: 443–459, 468–475; siehe auch BMwF, Richtlinien und Programm für die Förderung der Forschung und Entwicklung auf dem Gebiet der Datenverarbeitung für öffentliche Aufgaben, Stand: 10. Januar 1967 (BAK, B138/5538). 176
ELEKTRONISCHE DATENVERARBEITUNG
es ein ebenso mutiges wie riskantes Unternehmen, in direkte Konkurrenz mit IBM zu treten. Das machen bereits einige wenige Vergleichszahlen deutlich. 1967, zu Beginn des ersten Datenverarbeitungsprogramms erzielte IBM einen Gesamtumsatz von 5,3 Mrd. US-Dollar, wovon 5,6 % (300 Mio. US-Dollar) für Forschung und Entwicklung verwendet wurden und 22,4 % (1,2 Mrd. US-Dollar) für Vertrieb und Verwaltung. Siemens brachte es als größter europäischer Elektrokonzern im selben Jahr auf einen Gesamtumsatz von 2,1 Mrd. US-Dollar, woran der Datenverarbeitungsbereich einen Anteil von 38 Mio. US-Dollar hatte. AEG-Telefunken konnte immerhin noch einen Gesamtumsatz von 1,3 Mrd. US-Dollar verbuchen, davon 25 Mio. US-Dollar aus dem Datenverarbeitungsgeschäft. Für Forschung und Entwicklung im Datenverarbeitungsbereich gab Siemens 1967 7,5 Mio. US-Dollar aus, was 19,7 % des Umsatzes mit Datenverarbeitungstechnik entsprach.36 Im direkten Vergleich mit IBM mussten die Chancen von Siemens und AEG-Telefunken, gegen den amerikanischen Konkurrenten bestehen zu können, also gering erscheinen. Insofern war der Schritt der bundesdeutschen Rechnerhersteller, eine Förderung durch den Staat anzustreben, gut begründet. Neben den geschätzten 5 Mrd. US-Dollar, die IBM allein für die Entwicklung und Einführung des System/360 aufgewendet hat, nehmen sich die 3,5 Mrd. DM, die die deutsche Bundesregierung zwischen 1967 und 1979 für die Förderung der Datenverarbeitung insgesamt ausgegeben hat, jedoch bescheiden aus. Es stellt sich daher die Frage nach dem Selbstverständnis, das der bundesdeutschen Rechnerentwicklung zugrunde lag, und zwar nicht nur auf Seiten der Industrie, sondern auch auf Seiten des Staates. Anders formuliert: Wie begründete sich das Vertrauen der Akteure, die selbst gewählte Aufgabe erfolgreich zu bewältigen? Zunächst gilt es, an die historische Bedeutung der deutschen Elektroindustrie zu erinnern. Firmen wie Siemens und AEG blickten Mitte der sechziger Jahre bereits auf eine lange und erfolgreiche Geschichte zurück, die bis ins 19. Jahrhundert zurückreichte. Gemeinsam mit der chemischen Industrie hatte die Elektroindustrie den Aufstieg der wissenschaftsbasierten Industrien eingeläutet und damit nicht nur zur wirtschaftlichen Modernisierung Deutschlands beigetragen, sondern auch einen wesentlichen Anteil an seiner wissenschaftlichen und technischen Entwicklung gehabt. Diese Tradition wurde immer wieder bemüht, wenn die Leistungsfähigkeit der bundesdeutschen Rechnerhersteller zur Diskussion stand. Die Elektroindustrie wurde damit zum Referenzpunkt, 36 Sommerlatte/Walsh 1982: 63; Zahlen zu den FuE-Ausgaben von AEGTelefunken liegen nicht vor. 177
NEUE TECHNIK AUF ALTEN PFADEN?
wenn es darum ging, die von den heimischen Rechnerherstellern anzustrebende Marktposition zu beurteilen. So wurden im zweiten Datenverarbeitungsprogramm die Umsätze der jeweils größten Datenverarbeitungs- und Elektrounternehmen der USA und der Bundesrepublik miteinander verglichen. Während demnach das Umsatzverhältnis zwischen IBM und Siemens 40:1 betrug, lag das Umsatzverhältnis zwischen General Electric und Siemens bei 3:1. Daraus wurde dann gefolgert, »dass die DV in der BRD gemessen an der Potenz der Elektroindustrie noch außerordentlich entwicklungsbedürftig und entwicklungsfähig ist« (BMBW 1971: 15). Über Spezifika der Datenverarbeitungsindustrie machte man sich hingegen offenbar wenig Gedanken. Nur so ist es zu erklären, dass die Kerntechnik als Teil der Elektroindustrie zum viel zitierten Modell der Rechnerentwicklung aufsteigen konnte. Denn für die staatlichen und industriellen Akteure schien die bundesdeutsche Kerntechnik eine besonders ergiebige Quelle, um daraus Vertrauen für die zu bewältigenden Aufgaben zu schöpfen. Dass es sich mit elektronischen Rechnern eben nicht verhielt wie mit »Verkehrsflugzeugen und Kernkraftwerken«, die – um nur zwei Aspekte zu nennen – längere Produktzyklen und übersichtlicher strukturierte Märkte aufwiesen, wurde ignoriert. Bereits das Memorandum von Siemens und AEG-Telefunken aus dem Jahr 1965 nahm sich die bundesdeutsche Kerntechnik zum Vorbild, der es »im Laufe von acht Jahren gelungen [sei], wissenschaftlich vollwertig an internationalen Problemen mitzuarbeiten und dabei wichtige Fortschritte zu erzielen«. Eine staatliche Förderung der elektronischen Rechnerentwicklung vorausgesetzt, hielt man es für realistisch, »dass auch hier der aufgrund unserer deutschen Tradition erwartete Beitrag erbracht« werde.37 Derartige Verweise auf die Erfolge der Kerntechnik waren in den Diskussionen über die Rechnerentwicklung stets präsent.38 Vor dem Hintergrund des bundesdeutschen Einstiegs in die kommerzielle Nutzung der Kernenergie, der sich zeitgleich mit den Planungen zum ersten Datenverarbeitungsprogramm vollzog, schien diese Argumentation den Programmplanern durchaus schlüssig. Wenn überhaupt, dann garantierten Siemens und AEG, bei denen Mitte der sechziger Jahre die ersten Demonstrations- und Leistungskraftwerke geordert wurden, eine erfolgreiche Rechnerentwicklung.
37 Siemens/Telefunken, Memorandum, 1965, Zitate S. 13; meine Hervorhebung. 38 Vgl. z.B. BMwF, Kurzprotokoll der Vortrags- und Diskussionsveranstaltung über elektronische Datenverarbeitung im BMwF am 12. Juni 1965 (BAK, B138/5533). 178
ELEKTRONISCHE DATENVERARBEITUNG
Übersehen wurde gerne, dass sich die Erfolge in der Kerntechnik großteils dem Import des US-amerikanischen Technologiepfades verdankten. Doch auch die Erinnerung an diesen Umstand konnte die Zuversicht, die man aus den kerntechnischen Erfahrungen schöpfte, nicht schmälern. Als auf der ersten Sitzung des Fachbeirats für Datenverarbeitung im Januar 1967 ein Vertreter des Bundesforschungsministeriums auf die Bedeutung des Auslandes für die bundesdeutsche Reaktorentwicklung verwies, um damit für eine enge Zusammenarbeit mit dem Ausland in der Datenverarbeitung zu argumentieren, warnte ein Ministeriumskollege davor, »die Kapazität der deutschen Industrie« zu unterschätzen. »Er sei überzeugt, dass die deutsche Industrie auch auf dem Gebiet der Datenverarbeitung zu neuen richtungweisenden Entwicklungen kommen werde, wie z.B. die deutsche Reaktorindustrie auf dem Gebiet der Schnellen Brüter.«39 Diesem Plädoyer schloss sich der als Gast zur Sitzung geladene Leiter der Rechnerentwicklung von Siemens an – ungeachtet der Tatsache, dass sein Unternehmen zu diesem Zeitpunkt bereits eng mit RCA kooperierte. Die technische Leistungsfähigkeit der Bundesrepublik wurde ebenfalls in einem Entwurf für das zweite Datenverarbeitungsprogramm beschworen, den Siemens und AEG-Telefunken gemeinsam verfassten – ohne dass dieser allerdings später Verwendung fand. Die beiden Firmen versuchten darin, die staatlichen Fördermaßnahmen in einem breiteren historischen Kontext zu verorten. Nach einer eingehenden Würdigung der Pionierleistungen von Konrad Zuse und den Anfängen der Rechnerentwicklung an den Hochschulen kamen sie auf den Siemens Digitalrechner 2002 zu sprechen, dessen Prototyp 1956 fertig gestellt war: »Zu diesem Zeitpunkt stand die deutsche Elektroindustrie technologisch mit an der Spitze des Weltstandards, denn auch in den USA wurden erst 1957 die ersten Transistor-Rechner […] angeboten.« Die Ursachen für den raschen Verlust dieser Spitzenposition wurden dann mit dem Fehlen einer geeigneten Förder- und Nachfragepolitik in der Bundesrepublik begründet. Im Gegenzug wurde die Führungsrolle der USA durch die staatliche Subventionierung der Forschungs- und Entwicklungsarbeiten in der Elektroindustrie im Rahmen der amerikanischen Atom- und Raumfahrtprogramme erklärt.40 Nun ist von einem solchen Text schon allein wegen seines Adressatenkreises kein differenziertes Bild zu erwarten. Interessant ist aber, wie dieser Entwurf an die Vorstellung einer national definierten Technikhierarchie anknüpft, in der die Bundesrepu39 Ergebnisniederschrift, 1. Sitzung, Fachbeirat für Datenverarbeitung, 23.1.1967, S. 13 (BAK, B138/5539). 40 Anlage »Einleitung« zum Brief Siemens AG an BMwF, Motivation 2. DV-Förderungsprogramm, 2.10.1969, Zitate S. 4f. (BAK, B138/5540). 179
NEUE TECHNIK AUF ALTEN PFADEN?
blik einen historisch begründeten Anspruch auf einen Spitzenplatz besaß, auch wenn sie diesen vorübergehend nicht einnehmen konnte. Angesichts der amerikanischen Übermacht in der elektronischen Datenverarbeitung klingen die vielfachen Verweise auf deutsche Traditionen und die wiederkehrende Beschwörung der eigenen technologischen Leistungsfähigkeit häufig wie das viel zitierte Pfeifen im Walde. Aus historischer Perspektive lässt sich darin die Verunsicherung eines Innovationssystems ausmachen, das immer noch unter dem Verlust seiner einstigen wissenschaftlich-technischen Führungsposition litt und sich schwer damit tat, eine neue, den veränderten Bedingungen entsprechende Identität zu finden. Dies wird ganz besonders in der ambivalenten Haltung von Staat und Industrie gegenüber dem Ausland greifbar. Denn obwohl alle Beteiligten regelmäßig das Ziel einer selbständigen bundesdeutschen Rechnerindustrie beschworen, konnte man auf den Rückgriff auf ausländische Technologien nur schwer verzichten. Die lange Liste der Kooperationen und Kooperationsversuche von Siemens und AEGTelefunken mit amerikanischen und europäischen Rechnerherstellern ist ein deutlicher Beleg für diesen Sachverhalt. Tatsächlich hatten bei Siemens und AEG derartige Verbindungen ins Ausland eine lange Tradition und spielten, wie wir gesehen haben, auch bei der Kerntechnikentwicklung eine wichtige Rolle. Und dennoch kollidierten sie immer wieder mit dem Selbstverständnis staatlicher und industrieller Akteure. Dabei wurden nicht die Kooperationen an sich als störend empfunden, sondern das asymmetrische Verhältnis, auf dem sie aufbauten. Denn die heimische Industrie trat in der Datenverarbeitung als Technologienehmer auf, der seinem ausländischen Partner nicht auf gleicher Höhe gegenüber stand. Eine Studie des Bundeswirtschaftsministeriums aus dem Jahr 1966 brachte dieses asymmetrische Verhältnis wie folgt auf den Punkt: »Die Gefahr, dass aus der Anlehnung an ausländische Firmen auf entscheidenden Gebieten für die technische und wirtschaftliche Entwicklung eine immer größer werdende Abhängigkeit der deutschen Industrie vom Auslande entstehen kann, liegt auf der Hand. […] Die einst in der Welt auf allen Gebieten führende und tonangebende deutsche elektrotechnische Industrie wird ihre Fähigkeit verlieren, vollwertiger Partner gleichartiger, maßgeblicher Firmen der Welt zu sein […] Wir würden von einem Lande, das den technischen Fortschritt in der Welt beflügelt hat, in die Rolle eines nachempfindenden Industriestaates zurücksinken.«41
41 BMWi, Studie über Elektronische Datenverarbeitung, Stand 1. Dezember 1966: 16f. (BAK, B138/5532). 180
ELEKTRONISCHE DATENVERARBEITUNG
Die Notwendigkeit, Technologien aus dem Ausland, speziell den USA zu beziehen, erschütterte ganz offensichtlich das bundesdeutsche Selbstwertgefühl. Wie sehr man hier letztlich immer noch nationalistischen Denkmustern verhaftet war, zeigt nicht zuletzt das schwierige Verhältnis des Bundesforschungsministeriums zu IBM Deutschland. Die Tochter der IBM beschäftigte 1966 knapp 15.000 Personen und ihr Umsatz erreichte 1,4 Mrd. DM. Neben Forschungs- und Entwicklungslabors, in denen etwa 800 Wissenschaftler, Ingenieure und Techniker arbeiteten, unterhielt IBM Deutschland etliche Fertigungsstätten (darunter in Mainz das größte Computerwerk Europas), Rechen- und Schulungszentren sowie ein eng geknüpftes Netz für den Vertrieb und die Wartung ihrer Rechner.42 Mit der IBM Deutschland existierte in der Bundesrepublik zweifellos eine leistungsfähige Rechnerfirma, die nun aber gerade nicht gemeint war, wenn in den Programmplanungen von Aufbau und Förderung einer nationalen Datenverarbeitungsindustrie gesprochen wurde. Auch wenn alle Beteiligten den Eindruck einer Einschränkung des freien Wettbewerbs vermeiden wollten, die Fördermaßnahmen – darüber waren sich Staat und Industrie von Anfang an einig – sollten auf bundesdeutsche Firmen beschränkt bleiben. Genau hier lagen aber die Schwierigkeiten, denn IBM Deutschland trat durchaus mit dem Anspruch auf, »eine deutsche Firma« zu sein.43 Die IBM World Trade Corporation verfolgte eine Strategie, nach der die Tochterfirmen nicht nur ihre Mitarbeiter im jeweiligen Sitzland rekrutierten, sondern auch die Mitglieder ihres Managements. Das machte IBM Deutschland in den Augen der Programmplaner noch nicht zu einer deutschen Firma, erschwerte es jedoch, sie aus der Förderung auszuschließen. Im Bundeswirtschaftsministerium ging man das Problem der Firmenausgrenzung mit Hilfe eines umfangreichen Kriterienkatalogs an. Als förderungswürdig wurden solche Fir-
42 Zu IBM Deutschland siehe BMwF, Richtlinien und Programm für die Förderung der Forschung und Entwicklung auf dem Gebiet der Datenverarbeitung für öffentliche Aufgaben, Stand: 10.1.1967, S. 16f. (BAK, B138/ 5538) sowie die Selbstdarstellung »Die Tätigkeit der IBM Deutschland«, im Anhang zu IBM Deutschland, Vorschläge zum »Programm für die Förderung der Forschung und Entwicklung auf dem Gebiet der Datenverarbeitung für öffentliche Aufgaben«, November 1967 (BAK, B138/5566). 43 Siehe dazu Vermerk, Förderung der Forschung und Entwicklung auf dem Gebiet der Datenverarbeitung, Besuch von Generaldirektor Bösenberg von der Firma IBM Deutschland bei Herrn Minister am 12. Juni 1966 (BAK, B138/5566); vgl. auch das Interview, das DIE ZEIT vermutlich 1967 mit dem Generaldirektor von IBM Deutschland, Walther A. Bösenberg, unter dem Titel »Versagen Europas Manager?« geführt hat; als SchnellpresseDruck (BAK, B138/5566). 181
NEUE TECHNIK AUF ALTEN PFADEN?
men definiert, »die im Geltungsbereich des Grundgesetzes eine gewerbliche Niederlassung unterhalten, EDV-Geräte selbständig entwickeln und herstellen und die selbst oder deren Mutter- oder Tochtergesellschaften nicht bereits von anderen Regierungen gefördert werden«.44 De facto blieben damit in den ersten Jahren der Förderung der Datenverarbeitung nur AEG-Telefunken und Siemens als mögliche Zuwendungsempfänger übrig – zumindest wenn man von den Herstellern der Mittleren Datentechnik absah. IBM Deutschland konnte auf staatliche Fördermittel verzichten, befürchtete aber eine Benachteiligung beim Kauf von Datenverarbeitungsanlagen durch die öffentliche Hand. Das Unternehmen bemühte sich daher, an den Planungen der Datenverarbeitungsprogramme mitzuwirken, und unterbreitete dem Bundesforschungsministerium zudem etliche Kooperationsvorschläge, die sich auf die Bereitstellung von Know-how und die Entwicklung einzelner Technologien bezogen. Gehör fand im Ministerium der Vorschlag von IBM Deutschland, Beamte der Bonner Ministerialbürokratie kostenlos in Methoden des Projektmanagements zu schulen. Ansonsten erteilte man dem Unternehmen jedoch eine unterkühlte Abfuhr.45 Das bundesdeutsche Datenverarbeitungsprogramm sollte nationalen Unternehmen vorbehalten bleiben, und dazu wollte man die IBM Deutschland nicht zählen (siehe auch Grande/Häusler 1994: 134).
5.5 Überschätzte Technik, große Rechner u n d d e n k b a r e Al t e r n a t i ve n Als die von Arthur D. Little und SRI International zur Evaluation der Datenverarbeitungsprogramme gebildete Arbeitsgemeinschaft 1982 ihren Bericht vorlegte, benannte sie mehrere Ursachen für das unbefriedigende Ergebnis der staatlichen Fördermaßnahmen. So sei von den Programmverantwortlichen die Bedeutung einer eigenen Technologieentwicklung überbewertet und die Notwendigkeit eines internationalen Vertriebes und eines problemgerechten Kundendienstes unterbewertet worden. Ebenso falsch sei der Ressourcenbedarf für die Realisierung der selbst gesteckten Ziele eingeschätzt worden. Die Industrie habe für ihre Projekte daher zu wenig Mittel für zu kurze Zeit erhalten. Überdies habe die Weigerung von Siemens und AEG-Telefunken, in der Rechnerent44 Besprechungsunterlage, Grundsatzfragen des Projekts »Datenverarbeitung für öffentliche Aufgaben«, 5.9.1966, S. 5 (BAK, B138/5534). 45 IBM Deutschland an BMwF, 29.11.1967 und Anlagen; sowie BMwF an IBM Deutschland, 22.7.1968 (BAK, B138/5566). 182
ELEKTRONISCHE DATENVERARBEITUNG
wicklung zusammenzuarbeiten, zu einer Aufsplitterung der ohnehin knappen Mittel geführt. Und schließlich seien die staatlichen Förderstrategien viel zu lange am Bild der Datenverarbeitung als einer Großtechnologie ausgerichtet gewesen. Dieses Bild habe zwar zu Beginn des ersten Datenverarbeitungsprogramms noch Gültigkeit besessen, danach seien jedoch zahlreiche neue Produktsegmente entstanden, die in den staatlichen Förderstrategien keinen oder nur einen sehr späten Widerhall gefunden hätten (Sommerlatte/Walsh 1982: 13f.). Vergegenwärtigt man sich die kulturell kodierten Vorstellungen der an der Konzeption der Datenverarbeitungsprogramme beteiligten Akteure, verwundert dieser Befund nicht. Verunsichert über die veränderte Rolle des deutschen Innovationssystems orientierten sie sich an einem Bild der Elektroindustrie, das die Traditionslinien zur ersten Jahrhunderthälfte betonte, ohne dabei den Spezifika der Rechnerindustrie die notwendige Aufmerksamkeit zu schenken. Wo man aber im verklärten Rückblick Deutschlands einstige wissenschaftlich-technische Führungsposition beschwor, verengte sich der Blick auf die technologische Leistungsfähigkeit der heimischen Industrie, die es unter Beweis zu stellen galt. In dem Maße, in dem die Entwicklung eigener Technologien in den Vordergrund rückte, wurde die Notwendigkeit, ein leistungsfähiges Netz für den Vertrieb der Rechner und die Betreuung der Kunden zu schaffen, in den Hintergrund der staatlichen und industriellen Strategien gedrängt. Dabei hatte es mahnende Stimmen gegeben. Bereits 1966 identifizierte eine Studie des Bundeswirtschaftsministeriums die »unzureichende Organisation in Fertigung, Wartung, Vertrieb und Kundendienst« als einen Schwachpunkt der bundesdeutschen Rechnerindustrie.46 Und Robert Piloty, der – mittlerweile Professor an der Technischen Hochschule Darmstadt – die Forschungs- und Technologiepolitik in Sachen Rechnerentwicklung beriet, wies mehrmals darauf hin, dass sich die Förderung der Datenverarbeitung nicht darauf beschränken könne, »den technologischen Rückstand gerätetechnisch als auch programmierungstechnisch aufzuholen«. Vielmehr müssten die staatlichen Fördermaßnahmen auch den Ausbau von Vertrieb und Kundendienst bei den heimischen Rechnerherstellern miteinschließen.47 Diese Forderungen fanden jedoch keinen Eingang in die Förderpolitik. Das erklärt sich nur zum Teil aus den Ressortabgrenzungen, die das Bundesforschungsministerium auf die 46 BMWi, Studie über Elektronische Datenverarbeitung, Stand: 1.12.1966, S. 12 (BAK, B138/5532). 47 Ergebnisniederschrift, 2. Sitzung Fachbeirat für Datenverarbeitung im BMwF, 13.2.1967, S. 4; sowie Piloty an Stoltenberg, 29.9.1967 nebst Anlage »Europäische Computerindustrie – Lage und Aussicht«, hier insbesondere S. 5 (BAK, B138/5539). 183
NEUE TECHNIK AUF ALTEN PFADEN?
Forschungs- und Technologieförderung festlegte. Denn gerade die elektronische Datenverarbeitung war ein Gebiet, auf dem zumindest in den Anfangsjahren unterschiedliche Bundesressorts eng miteinander kooperierten. Bei einem entsprechenden Problembewusstsein im Ministerium hätte es daher Möglichkeiten gegeben, die Fördermaßnahmen auf die von Piloty nachdrücklich geforderten Aktivitäten auszuweiten – beispielsweise unter Einbezug des Bundeswirtschaftsministeriums.48 Dass auch die Industrie die Anforderungen unterschätzte, die das Rechnergeschäft an Vertrieb und Kundendienst stellte, zeigen die Probleme, die AEG-Telefunken und Siemens auf dem Markt der administrativ-kaufmännischen Datenverarbeitung hatten. AEG-Telefunken fand mit seinem TR 440 praktisch keinen Zugang zu diesem Markt, woran auch die 1972 eingegangene Kooperation mit der Nixdorf Computer AG, die damals bereits über ein relativ gutes Vertriebsnetz verfügte, nichts mehr ändern konnte. Siemens war auf diesem Markt zwar erfolgreicher und konnte dort schnell Aufträge für das System 4004 gewinnen, hatte aber gleichzeitig erhebliche Probleme, ihren Vertrieb und Kundendienst dem raschen Wachstum anzupassen. Letztlich machte sich hier auch bemerkbar, dass die beiden Firmen den Einstieg in die Rechnerentwicklung über das Großgeräteprogramm der Deutschen Forschungsgemeinschaft gefunden hatten. Wie oben gezeigt, war dieses Programm mit dem Entwicklungspfad des wissenschaftlich-technischen Rechners und damit einem Nutzerbild verknüpft, das von dem des administrativkaufmännischen Rechners im Hinblick auf die Notwendigkeit industrieseitiger Unterstützung stark abwich. Der Überbewertung der eigenen Technologieentwicklung entsprach die Ausrichtung auf die mittleren und großen Universalrechner bzw. den wissenschaftlich-technischen Großrechner. Dahinter stand das Bild der elektronischen Datenverarbeitung als einer Großtechnologie, das die ersten beiden Datenverarbeitungsprogramme bestimmte.49 Dieses Bild aus der Anfangszeit der Rechnerentwicklung begann sich durch die Miniaturisierung der elektronischen Bauteile – insbesondere durch den Integrierten Schaltkreis – gerade in dem Moment zu wandeln, in dem die staatlichen Fördermaßnahmen einsetzten. Tatsächlich hatten AEG-Telefunken und Siemens den technologischen Umbruch durch den Integrierten Schaltkreis als Argument für die staatliche Förderung der Rechnerentwicklung benutzt. In ihrem Memorandum hieß es: 48 Vgl. hierzu auch BMWi an BMwF, 3.3.1967 (BAK, B138/5539). 49 Dieses Bild lag – wie Wiegand 1994 und Hohn 1998 zeigen – auch dem Versuch der Bundesregierung zugrunde, die Informatik als Großforschung in der Gesellschaft für Mathematik und Datenverarbeitung zu institutionalisieren. 184
ELEKTRONISCHE DATENVERARBEITUNG
»Der gegenwärtige Zeitpunkt erscheint für eine solche Förderung besonders geeignet. Die Entwicklung der Rechenmaschinentechnik ist nämlich nicht gleichmäßig verlaufen. Perioden sehr steiler grundsätzlicher Entwicklung stehen verhältnismäßig lange Perioden gegenüber, in denen mehr die bestehende Technologie verfeinert wurde. Dies gilt z.B. für die letzten sechs Jahre. Im Augenblick beginnt wieder eine steile technische Aufwärtsentwicklung, die z.B. durch den Einsatz von miniaturisierten Schaltkreisen gekennzeichnet ist. Es erscheint daher für eine nachhaltige Förderung gerade jetzt besonders sinnvoll, die Rechenmaschinen-Entwicklung zu stützen.«50
Diese Argumentation baute auf den Erfahrungen mit dem SiemensDigitalrechner 2002 auf, dessen Entwicklung ebenfalls in eine Phase des technologischen Umbruchs gefallen war. Damals hatte die Ablösung der Röhre durch den Transistor, die mit der Entwertung bestehender und dem Aufbau neuer Wissensbestände einherging, den bundesdeutschen Firmen die Möglichkeit geboten, sich zumindest auf technischer Ebene an ihre US-amerikanischen Konkurrenten heranzutasten. Folgte man der Argumentation der beiden Rechnerhersteller, so eröffnete die Einführung des Integrierten Schaltkreises nun die Chance, diesen Aufholprozess ein zweites Mal zu vollziehen. Im Bundesforschungsministerium begegnete man dieser Argumentation allerdings mit Skepsis. Da Mitte der sechziger Jahre bereits Rechner mit Integrierten Schaltkreisen auf dem Markt waren, leuchtete es nicht ganz ein, weshalb sich mit diesem technologischen Umbruch besondere Chancen für die Forschungs- und Technologiepolitik verbinden sollten.51 Weil das Ministerium aber ohnedies in die Förderung der elektronischen Datenverarbeitung einsteigen wollte, hielt sich der Klärungsbedarf in Grenzen. Die Miniaturisierung der Rechentechnik hatte wie eingangs dargelegt nicht nur Auswirkungen auf etablierte Entwicklungspfade, sondern führte auch zur Entstehung neuer Marktsegmente. So bildete sich Mitte der sechziger Jahre ausgehend von den USA das Segment der Minicomputer heraus, als deren Prototyp der von DEC entwickelte, noch mit Transistortechnik arbeitende PDP-8 gilt. Ihm folgten schnell weitere Minicomputer anderer Hersteller, die ihre Produkte dann schon mit Integrierten Schaltkreisen ausstatteten (Ceruzzi 2003: 129–136). IBM hatte diese Entwicklung zunächst verschlafen. Immerhin bot das Unternehmen im Rahmen der Systemfamilie /360 das von seiner deutschen
50 Siemens/Telefunken, Memorandum, 1965, Zitat S. 8f. 51 BMwF, Kurzprotokoll der Vortrags- und Diskussionsveranstaltung über elektronische Datenverarbeitung im BMwF am 12. Juni 1965, S. 5 (BAK, B138/5533). 185
NEUE TECHNIK AUF ALTEN PFADEN?
Tochter entwickelte Modell 20 an, das einen vergleichsweise preiswerten Einstieg in die elektronische Datenverarbeitung ermöglichte.52 Ebenfalls Mitte der sechziger Jahre kamen als bundesdeutsche Variante der Minicomputer die ersten Kleinrechner für den Büroeinsatz auf, für die sich etwas später der Begriff der Mittleren Datentechnik durchsetzte. Einer der Pioniere in diesem neuen Segment war Heinz Nixdorf (siehe Kemper 1986), dessen Unternehmen ab 1964 einen frei programmierbaren Kleinrechner für den Einsatz in kleinen und mittleren Betrieben anbot, etwa zur Buchhaltung oder Lohnabrechnung. Dieser unter dem Namen System 820 vermarktete Kleinrechner wurde ein großer kommerzieller Erfolg und begründete den Aufstieg der Nixdorf Computer AG in den siebziger Jahren zu einem der führenden europäischen Rechnerhersteller. Neben Nixdorf konnten sich weitere Firmen in der Mittleren Datentechnik etablieren, dazu zählten Kienzle, Triumph-Adler und Dietz sowie die niederländische Philips.53 AEG-Telefunken und Siemens zeigten dagegen kein bzw. erst sehr spät Interesse an diesem Marktsegment.54 Im Bundesforschungsministerium wurde das Aufkommen der neuen Rechner frühzeitig wahrgenommen. Vereinzelt stellte man auch die Frage, wie sich die Marktstruktur der Rechnerindustrie durch diese Entwicklung verändern könnte, »insbesondere welche Bedeutung kleine und mittlere Rechner im Bereich der Wirtschaft und Industrie derzeitig und zukünftig haben werden«.55 Eingang in die Fördermaßnahmen fanden die kleinen Rechner jedoch nicht. Im Gegenteil: Kleinanlagen für kommerzielle Anwendungen wurden aus dem ersten Datenverarbeitungsprogramm explizit ausgeschlossen. Die Programmverantwortlichen begründeten diesen Schritt damit, dass sich die Fördermaßnahmen an den Bedürfnissen der staatlichen Verwaltung zu orientieren hätten. Im Entwurf des ersten Datenverarbeitungsprogramms hieß es dazu:
52 Der IBM/360-20 hatte immer noch die Ausmaße eines großen Kleiderschranks; nichtsdestotrotz fiel er in die Kategorie der Kleinrechner, die das Bundesforschungsministerium – wie im Folgenden dargelegt wird – aus seinem Förderkatalog für die Datenverarbeitung ausschloss. 53 Siehe dazu auch Tabelle 5-3. 54 Dazu bemerkte die Computerwoche im Juli 1977: »Personalanzeigen in überregionalen Tageszeitungen signalisierten, dass nun auch Siemens – mit mehr als der üblichen Verspätung – in den Markt der sogenannten mittleren Datentechnik einsteigt.«, in Computerwoche, Nr. 27, 1.7.1977; http://www.computerwoche.de/heftarchiv/1977/27/1199270; 23.2.2007. 55 Kurzprotokoll der Vortrags- und Diskussionsveranstaltung über elektronische Datenverarbeitung im BMwF am 12. Juni 1965, S. 5 (BAK, B138/ 5533). 186
ELEKTRONISCHE DATENVERARBEITUNG
»Für öffentliche Aufgaben […] werden überwiegend Datenverarbeitungseinrichtungen, die eine Fortentwicklung der heutigen mittleren und großen Datenverarbeitungsanlagen sind, und hochwertige Prozessrechner benötigt. Die Anforderungen bei den meisten kommerziellen Anwendern sind davon verschieden. Dies kann z.B. daran gesehen werden, dass über 90 % der in der Bundesrepublik am 1. Juli 1966 bestellten Anlagen zur Klasse der Kleinanlagen für vorwiegend kommerzielle Aufgaben […] gehören.«56
Dass man mit der Ausrichtung auf Großrechner für die staatliche Verwaltung offensichtlich am Markt für kommerzielle Anwendungen vorbeizielte, irritierte die Programmverantwortlichen nicht. Zum einen konnten sie sich in ihrer Strategie durch Expertisen bestärkt fühlen, die den größten Bedarfszuwachs an Rechenleistung im Bereich der öffentlichen Aufgaben sahen.57 Zum anderen ging man davon aus, dass die Kleinrechnerentwicklung mehr oder weniger zwangsläufig von den technischen Lösungen profitieren würde, die bei den Großrechnern erarbeitet wurden. Mitte der sechziger Jahre war sicherlich noch nicht abzusehen, dass ein Jahrzehnt später die Mittlere Datentechnik auf dem Rechnermarkt das Segment mit den höchsten Wachstumsraten bilden würde.58 Die langfristige Fokussierung der Fördermaßnahmen auf mittlere und große Universalrechner, von der die Forschungs- und Technologiepolitik erst im dritten Datenverarbeitungsprogramm abwich, kam jedoch dem Versuch gleich, die bundesdeutsche Rechnerindustrie auf einen einzelnen und zudem noch staatlich definierten Technologiepfad festzulegen. Angesichts der Umbrüche, die sich auf dem Rechnermarkt abzeichneten, musste die Strategie, alle Karten auf ein Pferd zu setzen und die Chancen auf neue Marksegmente von vornherein links liegen zu lassen, auf einen neutralen Beobachter irritierend wirken. Es verwundert deshalb nicht, dass der Bundesrechnungshof das Vorgehen der Forschungs- und Technologiepolitik in Frage stellte. 56 Richtlinien und Programm für die Förderung der Forschung und Entwicklung auf dem Gebiet der Datenverarbeitung für öffentliche Aufgaben, Stand: 10.1.1967 (BAK, B138/5538). 57 Gemeint sind das »Großrechnergutachten« des Forschungsinstituts für Funk und Mathematik (eine privatwirtschaftlich organisiertes, aber überwiegend staatlich finanziertes Institut für Wehrforschung) und eine Marktstudie des Beratungsunternehmens Diebold, auf die sich die Planer des ersten Datenverarbeitungsprogramms neben der von Siemens und AEGTelefunken erarbeiteten Studie stützten; siehe Sommerlatte/Walsh 1982: 122; Wiegand 1994: 72. 58 Gemessen an den weltweiten Installationen (Stückzahl) hatten Minicomputer bzw. Rechner der Mittleren Datentechnik die Universalrechner bereits 1972 eingeholt; siehe dazu Sommerlatte/Walsh 1982: 170. 187
NEUE TECHNIK AUF ALTEN PFADEN?
In einer Stellungnahme zum ersten Datenverarbeitungsprogramm, die die obersten Rechnungsprüfer im März 1967 gegenüber dem Bundesfinanzministerium abgaben, war zu lesen: »Abgesehen von einem Druck in Richtung Kooperation der deutschen Hersteller […] und allgemeinen Forderungen hinsichtlich der Kompatibilität der Rechner usw. sollte ein Versuch der Steuerung der Industrie im einzelnen nicht unternommen werden. Denn es gibt in der öffentlichen Verwaltung niemanden und im Bereich der Wissenschaft vermutlich niemanden, der die Qualifikation hätte, der Industrie die Entwicklungsrichtung vorzuschreiben und das Entwicklungsrisiko abzunehmen. Die verschiedenen Einbrüche bei der Entwicklung von Großrechnern […] mahnen zu Bescheidenheit.«59
Dem schloss sich die Forderung für die Forschungs- und Technologiepolitik an, den Versuch aufzugeben, die heimischen Rechnerhersteller zur Entwicklung einer Großrechnerfamilie zu drängen. Mit seinen Mahnungen bewies der Bundesrechnungshof eine bemerkenswerte Weitsicht. Zwar ist fraglich, ob AEG-Telefunken und Siemens ohne die staatliche Förderung einen anderen Weg in der Datenverarbeitung eingeschlagen hätten und stattdessen beispielsweise im Segment der Kleinrechner tätig geworden wären. Dass die Mittel aus der öffentlichen Hand eine Barriere für den Ausstieg aus einem für die bundesdeutsche Rechnerindustrie kommerziell wenig erfolgreichen Technologiepfad darstellten ist jedoch zumindest für die AEG-Telefunken offenkundig. Halten wir fest: Die Bundesregierung verfolgte mit ihrer Förderpolitik das ambitionierte Ziel einer auf dem Weltmarkt wettbewerbsfähigen Rechnerindustrie, die der Bundesrepublik die technologische Unabhängigkeit gegenüber dem Ausland, speziell den USA, in einer Schlüsseltechnologie sichern sollte. Das Streben nach Unabhängigkeit mag heute, nach dem Ende des Kalten Krieges seltsam anmuten, erklärt sich aber aus der Diskussion um die »technologische Lücke«, in der den Europäern ihre Abhängigkeit von US-amerikanischen Technologieimporten deutlich vor Augen geführt wurde. Zur Erreichung ihres Ziels wollte die Bundesregierung die Firmen AEG-Telefunken und Siemens damit beauftragen, gemeinsam eine Großrechnerfamilie für die Wahrnehmung öffentlicher Aufgaben zu entwickeln. Die Förderung der Rechnerindustrie und die Modernisierung des Staates sollten auf diese Weise in einem Großprojekt zusammengebunden werden. Strategischer Bezugspunkt war bei allen Überlegungen der Weltmarktführer IBM und dessen Sys59 Präsident des Bundesrechnungshofes, Hopf, an Staatssekretär des BMF, Grund, 7.3.1967, S. 3 (BAK B138/5531). 188
ELEKTRONISCHE DATENVERARBEITUNG
tem/360, das ein neues technologisches Paradigma in der Datenverarbeitung begründete. Die bundesdeutschen Rechnerhersteller waren an einer Kooperation jedoch wenig interessiert und verfolgten stattdessen lieber ihre eigenen Ziele. Während AEG-Telefunken die Entwicklung des Großrechners TR 440 vorantrieb, adaptierte und erweiterte Siemens das System 4004, das auf der Spectra 70 series von RCA aufbaute. Auch spätere Versuche der Bundesregierung scheiterten, aus den beiden deutschen Firmen einen nationalen Champion zu schmieden und dadurch die vorhandenen Ressourcen zu bündeln. Ähnlich schlecht war es um die staatlichen Versuche bestellt, AEG-Telefunken und Siemens in längerfristige Kooperationsprojekte auf europäischer Ebene einzubinden, obwohl hier die Bereitschaft der beiden Firmen zur Zusammenarbeit etwas größer war. Ungeachtet dieser Probleme hielt die Bundesregierung aber daran fest, die staatlichen Fördergelder auf AEG-Telefunken und Siemens und die Entwicklung mittlerer und großer Universalrechner zu konzentrieren. Von dieser Strategie rückte man in Bonn erst unter dem dritten Datenverarbeitungsprogramm ab, als weder das Scheitern des bundesdeutschen Großrechnerprojekts noch die stürmische Entwicklung neuer Marktsegmente länger zu ignorieren waren. Mit der Strategie des nationalen Champion befand sich die bundesdeutsche Forschungs- und Technologiepolitik in guter Gesellschaft. Tatsächlich wurde diese Strategie von allen westeuropäischen Staaten verfolgt, die sich um die Förderung ihrer Rechnerindustrie bemühten – aus ähnlichen Motiven und mit ähnlichen Ergebnissen wie die Bundesrepublik.60 Großbritannien und Frankreich sind hierfür schlagende Beispiele. In Großbritannien hatte sich die 1964 unter Harold Wilson gebildete Labour-Regierung die wirtschaftliche Modernisierung des Landes auf die Fahnen geschrieben und dazu ein eigenes Technologieministerium – umgangssprachlich Mintech genannt – ins Leben gerufen. Das Mintech verfolgte das Ziel, die britische Industrie zu einem weltweit führenden Exporteur hoch technologisierter und automatisierter Produktionsgüter zu machen, wodurch elektronische Rechner einen großen strategischen Wert erhielten. Wie die Bundesrepublik strebte auch Großbritannien nach Unabhängigkeit auf diesem Technologiefeld. Das Mintech brachte deshalb Mitte der sechziger Jahre eine Reihe einschlägiger Maßnahmen wie die Schaffung eines nationalen Rechenzentrums und die Förderung der Rechnerforschung und -entwicklung an den Hochschulen und in der
60 Für eine international vergleichende Perspektive auf die staatlichen Strategien siehe insbesondere Arnold/Guy 1986; sowie den Sammelband Coopey 2004a. 189
NEUE TECHNIK AUF ALTEN PFADEN?
Industrie auf den Weg. Einen wesentlichen Anteil hatte das Mintech auch an der Gründung der International Computers Ltd (ICL), die im Juli 1968 aus der Fusion der International Computers and Tabulators und dem Datenverarbeitungsgeschäft der English Electric entstand und mit über 34.000 Mitarbeitern der größte Rechnerhersteller außerhalb der USA war. ICL verfolgte eine ähnliche Produktstrategie wie Siemens und setzte – unter Ausblendung des aufkommenden Marktes für Minicomputer – auf mittlere und große Universalrechner, die allerdings im Gegensatz zu den Produkten des deutschen Mitbewerbers nicht mit den Rechnern der IBM kompatibel waren. Die britische Regierung unterstützte ICL durch die Förderung von Entwicklungsarbeiten und den Ankauf von Rechnern. Das Ziel, mit ICL einen britischen Rechnerhersteller auf dem Weltmarkt zu positionieren und der IBM ernsthafte Konkurrenz zu machen, wurde jedoch trotz dieser Bemühungen verfehlt. ICL hatte ähnliche Probleme wie Siemens im Rechnergeschäft auf einen langfristig stabilen Wachstumspfad zu gelangen. 1990 wurde das Unternehmen von der japanischen Fujitsu aufgekauft (Coopey 2004b). In Frankreich setzte der Plan Calcul, der 1966 von der Regierung de Gaulle lanciert wurde, den Rahmen für die staatliche Förderung der heimischen Rechnerindustrie, die wie auch die anderen Rechnerindustrien Europas unter der Marktdominanz von IBM litt. Hinzu kamen einige schockartige Erfahrungen, die Frankreich Anfang der sechziger Jahre machen musste, allen voran die Übernahme des größten heimischen Rechnerherstellers, der Compagnie Machines Bull, durch General Electric und das Lieferverbot der US-Regierung für einen Supercomputer der CDC, der für das französische Atomprogramm bestimmt gewesen war. Unter dem Plan Calcul sollte als Ersatz für die Compagnie Machines Bull ein neuer französischer Rechnerhersteller durch den Zusammenschluss mehrerer Firmen geschmiedet werden. Ziel war auch hier, der IBM einen international wettbewerbsfähigen Konkurrenten entgegenzusetzen. Noch im Jahr 1966 wurde die CII gegründet, die ebenso wie Siemens und ICL auf das Segment der mittleren und großen Universalrechner setzte und deshalb unmittelbar nach Gründung mit der Entwicklung einer Rechnerfamilie begann, die Anfang der siebziger Jahre unter dem Namen IRIS auf den Markt kam. Da bald deutlich wurde, dass CII wenig Chancen gegen die amerikanische Konkurrenz hatte, drängte die französische Regierung unter dem 1971 verabschiedeten, zweiten Plan Calcul auf eine stärke Zusammenarbeit der europäischen Rechnerhersteller. Ergebnis war die Unidata und der Versuch von CII, Philips und Siemens, gemeinsam eine Universalrechnerfamilie zu entwickeln. Daneben setzte der zweite Plan Calcul mit der Förderung der Entwicklung von Minicomputern einen weiteren Schwerpunkt. Die ambitionier190
ELEKTRONISCHE DATENVERARBEITUNG
ten Ziele der französischen Regierung ließen sich jedoch weder auf nationaler noch auf europäischer Ebene realisieren. Daran konnte auch die Fusion der CII mit Honeywell Bull,61 die 1975 nach staatlicher Intervention zustande kam und ein Grund für das Ende der Unidata war, nichts ändern (Coopey 2004b). Die Strategie, einen nationalen Champion zu kreieren, um diesen gegen IBM in den Ring zu schicken, war offensichtlich zum Scheitern verurteilt.62 Die Frage, ob ein entsprechender Versuch auf europäischer Ebene, wie er in der Unidata angedacht war, mehr Erfolg gehabt hätte, lässt sich schwer beantworten. Notwendig wäre wohl eine engere Verzahnung der beteiligten Unternehmen gewesen, um Größengewinne in Kostenvorteile übersetzen und stärker von Synergien bei Entwicklung, Produktion, Vertrieb und Kundendienst profitieren zu können. Doch anders als die IBM, die Westeuropa seit den fünfziger Jahren – wo immer von Vorteil – wie einen einheitlichen Markt behandelte, fielen die Europäer in den sechziger und siebziger Jahren wiederholt in nationalistische Denkmuster zurück (Gannon 1997). Angesichts der bis in die späten achtziger Jahre ungebrochenen Dominanz von IBM auf dem Markt für Universalrechner fällt es aber ohnehin schwer, sich eine nationale oder europäische Forschungs- und Technologiepolitik vorzustellen, die in diesem Segment erfolgreich agierte. Dass IBM nicht ganz so unangreifbar war, wie das vielleicht aus europäischer Perspektive erscheinen musste, zeigt jedoch das Beispiel Japans. Die japanische Rechnerindustrie entstand in den späten fünfziger Jahren, als die großen Elektrounternehmen des Landes – Fujitsu, Hitachi, NEC (Nippon Electric Company), Toshiba – ihre ersten Großrechner auf den Markt brachten, die sie gemeinsam mit staatlichen Forschungseinrichtungen entwickelt hatten. Zu dieser Zeit begann auch die IBM mit ihren Rechnern auf den japanischen Markt zu drängen, auf dem es ihr allerdings nicht gelang, eine ähnlich beherrschende Stellung wie in der Bundesrepublik und Frankreich einzunehmen. Zwar kamen Anfang der sechziger Jahre fast 80 % aller Rechner, die in Japan installiert wurden, aus dem Ausland. IBM trug dazu aber »lediglich« 27 % bei. Wie Tabelle 5-4 zeigt, änderte sich daran auch später kaum etwas. Der Marktanteil von IBM bei Universalrechnern lag in Japan während der gesamten sechziger und siebziger Jahre mehr oder weniger konstant bei einem Drittel. Noch viel bemerkenswerter als diese Stagnation ist jedoch der Umstand, dass Japan Anfang der achtziger Jahre zu einem Net-
61 Honeywell hatte 1970 das Rechnergeschäft von General Electric übernommen. 62 Siehe dazu auch Bresnahan/Malerba 1999: 100–102. 191
NEUE TECHNIK AUF ALTEN PFADEN?
toexporteur von elektronischen Rechnern wurde. So konnten die japanischen Rechnerhersteller (Fujitsu, Hitachi, NEC) 1990 einen Weltmarktanteil bei Universalrechnern von 17 % für sich verbuchen. Gegenüber den 53 %, die IBM in diesem Segment hielt, war das zwar nicht überwältigend. Im Vergleich zur Bundesrepublik und Frankreich, deren Weltmarktanteile trotz jahrelanger Förderung durch den Staat lediglich bei 4 % bzw. 2 % lagen, ist dieser Erfolg aber äußerst bemerkenswert (Zahlenangaben nach Yonekura 2004: 123f.). Tabelle 5-4: IBM-Marktanteile bei Universalrechnern in ausgewählten Ländern Land
1962 bzw. 1964*
1971
1980
BRD
66,7 %*
62,3 %
63,9 %
FRA
48,6 %*
56,6 %
56,9 %
JPN
27,3 %
33,2 %
28,7 %
Quelle: Yonekura 2004: 123f. Der Erfolg der japanischen Rechnerindustrie hat – auch mit Blick auf die europäische Erfahrung – für Erstaunen gesorgt und etliche Forschungsarbeiten angeregt (z.B. Anchordoguy 1989; Fransman 1993; Yonekura 2004). Darin wird eine Reihe von Faktoren für den japanischen Erfolg benannt, unter denen die staatliche Politik eine herausragende Stellung einnimmt. Folgt man Marie Anchordoguy (1989: 15f.), so basierte diese Politik im Wesentlichen auf vier Elementen: (1) der Protektion des heimischen Marktes, wodurch IBM an der vollen Entfaltung ihrer Marktmacht gehindert wurde, (2) finanziellen Hilfen in Form von Zuschüssen und Krediten, die es den japanischen Rechnerherstellern ermöglichten, massiv in Forschung und Entwicklung zu investieren, (3) der Etablierung eines staatlichen Unternehmens für die Vermietung japanischer Rechner (siehe unten) sowie (4) der Initiierung kooperativ durchgeführter Forschungs- und Entwicklungsprojekte, in denen Redundanzen vermieden und Ergebnisse unter den beteiligten Firmen ausgetauscht wurden, um so eine Nutzenmaximierung der eingesetzten Mittel zu erreichen. Die Verantwortung für diese Politik lag beim japanischen Ministerium für internationalen Handel und Industrie, dem MITI (Ministry of International Trade and Industry). Referenzpunkt für die vom MITI verfolgten Strategien war – nicht anders als in Westeuropa – die IBM. Das US-amerikanische Unternehmen war seit 1925 auf dem japanischen Markt vertreten und hatte 1949 192
ELEKTRONISCHE DATENVERARBEITUNG
als eine 100 %ige Tochter die IBM Japan gegründet. Allerdings war es dieser anfangs nicht erlaubt, in Japan zu produzieren oder Gewinne ins Ausland zu transferieren. Der Import von Rechnern unterlag aber zahlreichen Restriktionen, so dass die Regierung in Tokio das Japangeschäft der IBM relativ gut kontrollieren konnte. Zu einer Lockerung dieser Bestimmungen kam es erst 1960, als das MITI in zähen Verhandlungen mit IBM durchsetzen konnte, dass die japanischen Rechnerhersteller zentrale Patente des US-amerikanischen Konkurrenten nutzen und damit ihre Entwicklungszeiten reduzieren konnten. Als Gegenleistung erhielt IBM die Erlaubnis, in Japan zu produzieren, wobei in den Folgejahren immer wieder darüber verhandelt wurde, welche Produkte in welchem Umfang tatsächlich auch auf dem japanischen Markt verkauft werden durften (Anchordoguy 1989: 23–28). Je stärker sich Japan in die Weltwirtschaft integrierte, umso schwieriger wurde es freilich protektionistische Maßnahmen aufrecht zu erhalten, weshalb sich das MITI bei seinen Aktivitäten zunehmend auf die heimische Rechnerindustrie konzentrierte. Im deutlichen Unterschied zu der in Europa verfolgten Strategie des nationalen Champion, versuchte die japanische Politik dabei die schwierige Balance zwischen Kooperation und Wettbewerb unter den nationalen Rechnerherstellern zu halten. Diese Austarierung von Plan- und Marktkoordination lässt sich gut am Beispiel der Japan Electronic Computer Corporation (JECC) verdeutlichen. Die JECC, die 1961 auf Initiative des MITI gegründet und von der staatlichen, japanischen Aufbaubank mitfinanziert wurde, war als Antwort auf die Strategie von IBM gedacht, ihre Rechner nicht zu verkaufen, sondern zu vermieten. Dadurch konnten Kunden hohe Anschaffungskosten vermeiden und immer auf dem neusten Stand der Technik bleiben. Das war für die Kunden sehr attraktiv, bedeutete aber für IBM und alle anderen Rechnerhersteller, die dieses Geschäftsmodell kopierten, dass sie große finanzielle Vorleistungen tätigen mussten, die nur langfristig wieder ausgeglichen wurden. Die JECC sollte die japanische Rechnerindustrie von dieser finanziellen Bürde befreien, indem sie das Mietgeschäft der Hersteller übernahm und diesen für jeden vermieteten Rechner den Kaufpreis ausbezahlte. Das unternehmerische Risiko verblieb jedoch bei den Rechnerherstellern. Wurde ein Mietvertrag vorzeitig gekündigt, weil der Kunde beispielsweise mit dem gemieteten Rechner unzufrieden war, dann musste der Hersteller den Rechner entsprechend dem Restwert von der JECC zurückkaufen. Auf diese Weise sollte sichergestellt werden, dass die Rechnerhersteller trotz der staatlichen Intervention nicht von den Entwicklungen am Markt abgekoppelt wurden und sich weiterhin im gegenseitigen Wettbewerb um die Ver-
193
NEUE TECHNIK AUF ALTEN PFADEN?
besserung von Qualität und Preis ihrer Produkte bemühen mussten (Anchordoguy 1989: 59–91; Yonekura 2004: 131–133). Nun war selbstredend auch das MITI nicht vor Fehlgriffen gefeit, und vieles, was dort angedacht wurde, konnte wegen des Widerstands der japanischen Industrie nicht oder nur in veränderter Form umgesetzt werden. Im Ergebnis erwiesen sich die staatlichen Interventionen in Japan dennoch als zielführender als die in Westeuropa verfolgten Strategien. Ob die japanische Politik in der Bundesrepublik erfolgreich gewesen wäre, muss dennoch dahingestellt bleiben. Die offensichtlichen Unterschiede in den Markt- und Industriestrukturen der beiden Länder sowie der Umstand, dass die Förderpolitik in der Bundesrepublik zu einem Zeitpunkt einsetzte, als IBM dort bereits einen Marktanteil von beinahe 70 % besaß, hätten eine bloße Kopie des japanischen Vorgehens sicherlich verboten. Das Beispiel Japans zeigt aber, dass es für die Forschungs- und Technologiepolitik durchaus Alternativen zu der aus europäischer Perspektive scheinbar so unausweichlichen Strategie des nationalen Champion gab, deren Hauptproblem in der Überstrapazierung planerischer Instrumente lag. Das führte in der Bundesrepublik dazu, dass sich die geförderten Rechnerhersteller auf den Technologiepfad der mittleren und großen Rechner konzentrierten und dabei Chancen, die sich aus Technologieumbrüchen in neuen Marktsegmenten ergaben, zu spät erkannten.
5 . 6 Zw i s c h e n r e s ü m e e : S t a a t l i c h f o r c i e r t e P f a dw a h l u n t e r h o h e r E n t w i c k l u n g s d yn a m i k Es dürfte wenig technische Artefakte geben, die in ihrer Geschichte ähnlich häufige und weitreichende Umdeutungen erfahren haben wie elektronische Rechner, deren Konstruktion und Verwendung sich von den Anfängen im Zweiten Weltkrieg bis heute immer wieder verändert hat. Die Vorstellung, elektronische Rechner wären lediglich ein Ersatz für menschliche Rechner, deren Kapazitäten mit kriegsbedingten Aufgaben wie der Entschlüsselung von Codes oder dem Erstellen von Schießtafeln an Grenzen stießen, traf – wenn überhaupt – nur in den allerersten Jahren zu. Bereits Eckert und Mauchly sahen die Zukunft der neuen Technologie auf einem ganz anderen Gebiet und verließen deshalb nach Kriegsende ihren universitären Arbeitgeber, um in der eigenen Firma Rechner für die administrative und kaufmännische Datenverarbeitung zu entwickeln. Damit waren die Anwendungsmöglichkeiten elektronischer Rechner aber noch lange nicht erschöpft. Unter anderem aufgrund der fortschreitende Miniaturisierung und der immensen Leistungssteigerung 194
ELEKTRONISCHE DATENVERARBEITUNG
hat sich diese Technologie eine Vielzahl neuer Einsatzfelder erobert, ohne dass die alten deshalb obsolet geworden wären. Michael S. Mahoney (1988: 5) betont in einem programmatischen Aufsatz zur Historiographie des elektronischen Rechnens daher nicht zufällig: »The computer is not one thing, and the same holds true of computing.« Im Rahmen des SCOT-Ansatzes wären diese häufigen und weitreichenden Umdeutungen elektronischer Rechner als ein sozialer Aushandlungsprozess zu deuten, der sich bislang erstaunlich konsequent einer Schließung widersetzt hat. Das technische Artefakt ließ sich – im deutlichen Unterschied zu den Kernkraftwerken des vorangegangenen Kapitels – nicht längerfristig stabilisieren und behielt stattdessen ein hohes Maß an interpretativer Flexibilität. Das heißt nicht, dass die Geschichte elektronischer Rechner frei von Momenten wäre, die typisch für Pfadbildungsprozesse sind. Das ergibt sich schon aus dem technischen Zusammenhang zwischen Hardware und Software und zwischen Zentraleinheiten und Peripheriegeräten, der bis heute die Frage nach den technischen Standards zu einem zentralen Problem der Rechnerentwicklung macht. Und natürlich traten in der Geschichte elektronischer Rechner immer wieder auch einzelne Systeme auf, die zumindest für einige Jahre technische Standards im engeren und weiteren Sinne setzten. Herausragendes Beispiel ist das IBM System/360, das als technisches Paradigma im Bereich der Universalrechner fungierte. Dass die Rechnerentwicklung damit insgesamt in einen dominanten technological trajectory eingemündet wäre, lässt sich aber nicht behaupten. Im Gegenteil, die Ankündigung des System/360 durch IBM fiel in eine Zeit, als die Rechnerentwicklung dabei war, eine Vielzahl neuer Technologiepfade zu betreten. Vor diesem Hintergrund kann das hier untersuchte Fallbeispiel als der gescheiterte Versuch der bundesdeutschen Forschungs- und Technologiepolitik interpretiert werden, die heimische Rechnerindustrie in einem Feld mit anhaltend hoher Entwicklungsdynamik auf einen einzelnen Technologiepfad festzulegen – eine Festlegung, der Unternehmen wie Siemens und AEG-Telefunken nur zu gerne folgten. Als sich die Forschungs- und Technologiepolitik Mitte der sechziger Jahre der elektronischen Datenverarbeitung annahm, war deren Kommerzialisierung – im Gegensatz zur zivilen Kerntechnik – bereits weit fortgeschritten. Mit IBM hatte sich zudem ein Rechnerhersteller etabliert, der durch seine beherrschende Marktposition die Standards und die Entwicklungsrichtung bei Universalrechnern vorgab. Siemens und AEG-Telefunken wählten das amerikanische Unternehmen und speziell das Mitte der sechziger Jahre auf den Markt gekommene System/360 zum Bezugspunkt ihrer Aktivitäten und wurden in dieser Entscheidung 195
NEUE TECHNIK AUF ALTEN PFADEN?
durch die Forschungs- und Technologiepolitik nachhaltig bestärkt. Zwar ließ sich der in der Bonner Ministerialbürokratie entworfene Plan, Rechnerentwicklung und Staatsmodernisierung in einem technologischen Großprojekt zusammenzubinden, wegen der mangelnden Kooperationsbereitschaft von Siemens und AEG-Telefunken nicht realisieren. Die damit verknüpfte Strategie, über die Schaffung eines nationalen Champions die Marktdominanz von IBM bei mittleren und großen Universalrechnern zu brechen, bestimmte jedoch die Vergabe der Fördermittel unter den beiden ersten Datenverarbeitungsprogrammen. Wie wir gesehen haben, befand sich die Bundesrepublik mit dieser Strategie in guter Gesellschaft ihrer europäischen Nachbarn. Erfolgreich war sie dennoch nicht. Gründe dafür lassen sich zahlreiche finden. Diskutiert wurden die Fehleinschätzungen auf staatlicher und häufig auch industrieller Seite hinsichtlich des notwendigen Ressourcenbedarfs, der Bedeutung eigener Technikentwicklung und der Dringlichkeit eines leistungsfähigen Vertriebs- und Wartungsnetzes. Ob sich die hoch ambitionierten Ziele der bundesdeutschen Forschungs- und Technologiepolitik mit Hilfe einer anderen Strategie realisieren hätten lassen, muss Spekulation bleiben. Angesichts der ungebrochnen Stellung, die IBM bis weit in die achtziger Jahre im Universalrechnermarkt besaß, darf das bezweifelt werden. Interessanter für die vorliegende Arbeit ist aber ohnehin ein anderer Aspekt: Die Forschungsund Technologiepolitik wandte sich zu einem Zeitpunkt der elektronischen Datenverarbeitung zu, als diese von einer Reihe technologischer Umbrüche, allen voran die Einführung des Integrierten Schaltkreises, erfasst wurde. Siemens und AEG-Telefunken sahen in der damit einhergehenden Entwertung alter Wissens- und Könnensbestände eine Chance, ihre Wettbewerbsposition zu verbessern, und führten das auch als Argument für eine staatliche Förderung ins Feld. Betroffen von diesen Umbrüchen war allerdings nicht nur der etablierte Markt der Universalrechner, auf dem die Grenzen zwischen kaufmännisch-administrativen und wissenschaftlich-technischen Rechnern immer durchlässiger wurden. Vielmehr entstanden nun auch zahlreiche neue Marktsegmente, deren Potential Mitte der sechziger Jahre zwar noch nicht abzuschätzen war, die aber vielleicht gerade deshalb eine stärkere Aufmerksamkeit in den ersten beiden Datenverarbeitungsprogrammen verdient hätten. Tatsächlich gab es ja in der Bundesrepublik Firmen wie Nixdorf, Kienzle oder Triumph-Adler, die sich das Segment der Mittleren Datentechnik erschlossen und darin später mit Erfolg operierten. Die Forschungs- und Technologiepolitik war sich dieser neu entstehenden Marktsegmente durchaus bewusst, schloss sie aus ihrer Förderung zunächst jedoch aus und hielt stattdessen am Bild der elektroni196
ELEKTRONISCHE DATENVERARBEITUNG
schen Datenverarbeitung als einer Großtechnologie fest. Konsequenterweise waren die beiden ersten Datenverarbeitungsprogramme auf die Förderung mittlerer und großer Universalrechner ausgerichtet – was Firmen wie Siemens und AEG-Telefunken, die großen Einfluss auf die Programmplanung hatten, gelegen kam. Die Strategie der Forschungsund Technologiepolitik lief damit letztlich auf den Versuch hinaus, die heimischen Rechnerhersteller in einer Phase wachsender technologischer Diversität auf einen einzelnen Technologiepfad festzulegen. Auf der Grundlage des in Kapitel 2.4 eingeführten Modells lässt sich pointiert formulieren: Anstatt die heimische Industrie bei der Pfadsuche zu unterstützen, wählte die staatliche Politik einen Technologiepfad aus, den sie dann durch ihre Fördermaßnahmen gegen die Dominanz der USamerikanischen Hersteller durchzusetzen versuchte. Während sie einerseits das Risiko und die Probleme dieses Vorgehens unterschätzte, vergab sie andererseits die Chance, den heimischen Rechnerherstellern bei der Erschließung neuer Marktsegmente unter die Arme zu greifen und so deren Wettbewerbsvorteile zu verbessern.
197
6 BIOTECHNOLOGIE
Bei der Förderung der Biotechnologie wurde die bundesdeutsche Forschungs- und Technologiepolitik ähnlich wie im Fall der Kerntechnik mit dem Problem konkurrierender Technologiepfade konfrontiert. Allerdings ging es hier nicht darum, unter einer Vielfalt gerade neu aufkommender Technologien die für die weitere Entwicklung am besten geeignete ausfindig zu machen, d.h. einen Prozess der Pfadsuche innerhalb eines sich formierenden Technologiefeldes zu organisieren bzw. zu managen. Stattdessen bestand die Herausforderung darin, einen bereits etablierten und bis dato hoch erfolgreichen Technologiepfad um eine Alternative zu ergänzen, der der Staat eine große Bedeutung für die Zukunfts- und Wettbewerbsfähigkeit der heimischen Industrie zuschrieb. Im Vordergrund stand damit die Schaffung technologischer Diversität im Sinne einer staatlichen Vorsorgepolitik. Konkret galt es, den Pfad der organisch-chemischen Synthese, der die Innovations- und Produktionsstrategien der bundesdeutschen Großchemie bestimmte, um biotechnologische Verfahren zu erweitern. Unter der Fragestellung dieser Arbeit sind drei Aspekte des Fallbeispiels besonders hervorzuheben. Erstens, es illustriert vorzüglich das Argument von David, dass Pfadabhängigkeit nicht umstandslos mit Suboptimalität gleichgesetzt werden kann. Der Pfad der organisch-chemischen Synthese, dem die bundesdeutsche Großchemie bis weit in die siebziger Jahre hinein folgte, sicherte Firmen wie BASF, Bayer und Hoechst über viele Jahrzehnte weltweit eine Spitzenposition. Als die Forschungs- und Technologiepolitik diesem Pfad eine biotechnologische Alternative zur Seite stellen wollte, waren deshalb auch nicht konkrete wirtschaftliche Probleme der Auslöser, sondern die Sorge um die langfristige Sicherung der industriellen Wettbewerbsfähigkeit. Zweitens, das 199
NEUE TECHNIK AUF ALTEN PFADEN?
Fallbeispiel verdeutlicht die Grenzen, die dem staatlichen Management von Pfadbildungsprozessen durch die kulturellen Prägungen der Akteure in einem Innovationssystem gesetzt sein können. So waren es nicht die Anreize der staatlichen Forschungsförderung, die zu einer Neuausrichtung des etablierten Technologiepfades in der bundesdeutschen Großchemie führten, sondern der »externe Schock« in Form der sich in den USA rasch entfaltenden »neuen Biotechnologie«, zu der Firmen wie BASF, Bayer und Hoechst den Anschluss unwiederbringlich zu verlieren drohten. Und drittens, das Fallbeispiel beleuchtet die spezifischen Herausforderungen, die sich aus der hohen Wissenschaftsbindung eines Technologiefeldes ergeben und denen die Forschungs- und Technologiepolitik mit adäquaten Strategien begegnen muss. Der Wandel der Biotechnologie von einem weitgehend empiriebasierten zu einem hochgradig wissenschaftsbasierten Technologiefeld vollzog sich in den siebziger Jahren. Auslöser war die Entwicklung rekombinanter DNA-Techniken sowie weiterer Methoden etwa zur Herstellung monoklonaler Antikörper, die die Biotechnologie eng an die biologische Grundlagenforschung heranrückten. Bis dahin war Biotechnologie gleichbedeutend mit dem Einsatz von Mikroorganismen in technischen bzw. industriellen Prozessen, in denen wirtschaftlich interessante Verbindungen gewonnen oder ökologisch unerwünschte Substanzen abgebaut wurden. Biotechnologie wurde als eine Produktionsstrategie verstanden, die im Wettbewerb zur chemischen Synthese stand, wenn es um die Herstellung von Feinchemikalien, Nahrungsmittelzusätzen oder pharmazeutischen Wirkstoffen ging. Durch die neuen Methoden der Gentechnik ließen sich diese biotechnologischen Produktionsprozesse nun gezielt optimieren – z.B. durch die Manipulation bakterieller Stoffwechselwege – und auf Substanzen ausweiten, die wie Humaninsulin und Wachstumsfaktoren in ihrer Wirkungsweise zwar bekannt, einer biotechnologischen Herstellung zuvor jedoch nicht zugänglich waren. Gentechnische Methoden revolutionierten aber auch die pharmazeutische Forschung und verwandelten die Biotechnologie in ein Instrument, mit dessen Hilfe neuartige Wirkstoffe entwickelt werden konnten. Biotechnologie war damit nicht mehr nur Produktions-, sondern ebenso Innovationsstrategie. Das hatte weitreichende Auswirkungen auf die Organisation des Innovationsprozesses in der pharmazeutischen Industrie (Henderson et al. 1999: 282–289; Pisano 2006). In der pharmazeutischen Industrie war die Entwicklung von neuen Medikamenten bis weit in die siebziger Jahre hinein von Verfahren bestimmt, die auf »Versuch und Irrtum« aufbauten. Dabei wurden Tausende von Substanzen, die man entweder aus der Natur isolierte oder durch chemische Modifikation bekannter Wirkstoffe gewann, im Reagenzglas 200
BIOTECHNOLOGIE
und Tiermodell auf eine mögliche pharmazeutische Wirksamkeit hin überprüft. Wirkstoffkandidaten, die durch dieses random screening entdeckt wurden, mussten dann durch weitere Tests auf ihr therapeutisches Potential, mögliche Risiken usw. überprüft werden, ehe sie dann zu Medikamenten weiterentwickelt und in die klinische Testphase eingeführt werden konnten. Nur ein ganz kleiner Bruchteil der ursprünglich geprüften Substanzen schaffte es tatsächlich als Medikament auf den Markt. Demgegenüber eröffnete die Gentechnik den Weg für eine planvolle Medikamentenentwicklung, bei der das Wissen um die molekularen Ursachen bzw. Mechanismen von Krankheiten und ihre Unterdrückung durch gezielt entwickelte Wirkstoffe – vor allem hochmolekulare Proteine – in den Vordergrund rückte. Im Unterschied zum random screening ist dieses Verfahren des rational drug design auf einen ständigen Wissenstransfer aus der biologischen Grundlagenforschung angewiesen, die zu einem Großteil an den Universitäten geleistet wird. Als besonders effizient für diesen Wissenstransfer haben sich deshalb kleine, spezialisierte Biotechnologiefirmen erwiesen, die häufig aus einem akademischen Milieu heraus gegründet und meist auch in geografischer Nähe zur universitären Forschung angesiedelt wurden. Diese Firmen rückten in den neunziger Jahren ins Zentrum der bundesdeutschen Forschungs- und Technologiepolitik. Zu diesem Zeitpunkt konnte die staatliche Förderung der Biotechnologie in der Bundesrepublik bereits auf eine mehr als fünfundzwanzigjährige Geschichte zurückblicken (Henderson et al. 1999: 282–289; siehe auch Drews 1998, insbesondere Kapitel 3 und 5).
6 . 1 C h e m i s c h e S yn t h e s e n v e r s u s biotechnologische Verfahren Die industrielle Biotechnologie hat – was in den Diskussionen um die Gentechnik gerne übersehen wird – eine lange Geschichte (siehe Bud 1993; für Deutschland siehe Marschall 2000). In Deutschland nahm sie bereits in der zweiten Hälfte des 19. Jahrhunderts einen viel versprechenden Aufschwung, der durch einschlägige Forschungsinstitute gefördert wurde, zum Beispiel durch das 1874 in Berlin gegründete Institut für Gärungsgewerbe (Marschall 2000: 49–86). Auf der Grundlage preiswerter Agrarrohstoffe, allen voran Kartoffeln aus den ostdeutschen Überschussgebieten, konnte sich damals ausgehend von den landwirtschaftlichen Nebengewerben eine Fermentationsindustrie entwickeln, die zu einem wichtigen Produzenten organischer Massenchemikalien wurde. Eine biologisch hergestellte und viel nachgefragte Substanz war Ethanol, das die Teerfarbenindustrie als Lösungsmittel einsetzte, eine 201
NEUE TECHNIK AUF ALTEN PFADEN?
andere war Milchsäure, die die Lebensmittelindustrie für Konservierungszwecke benötigte. Biotechnologische Verfahren schienen zu Anfang des 20. Jahrhunderts eine konkurrenzfähige Alternative zur organisch-chemischen Synthese zu bieten. Von verschiedener Seite wurde der Biotechnologie deshalb eine verheißungsvolle Zukunft prophezeit (Marschall 2000: 89–105). Mit dem Ersten Weltkrieg fand der Aufschwung der industriellen Biotechnologie in Deutschland jedoch sein Ende. Zwar wurden im Krieg mit biotechnologischen Verfahren große Mengen Glycerin für die Sprengstoffproduktion sowie Hefe als Ersatzfutter für die Tiermast hergestellt. Der Verlust der landwirtschaftlichen Überschussgebiete mit den Versailler Verträgen führte jedoch im Verbund mit weiteren Kriegsfolgen zu einer starken Verknappung von agrarischen Rohstoffen. Unter den in Folge steigenden Preisen litt die Konkurrenzfähigkeit der deutschen Fermentationsindustrie. Hinzu kam, dass die organisch-chemische Synthese in der deutschen Großchemie den Status eines technischen Paradigmas erlangte, das die Innovations- und Produktionsstrategien führender Unternehmen wie Bayer, BASF und Hoechst bis weit in die siebziger Jahre des letzten Jahrhunderts hinein bestimmen sollte. Ergebnis dieser Entwicklung war, wie Luitgard Marschall (2000) in ihrer Studie zeigt, dass biotechnologische Verfahren in Anwendungsnischen abgedrängt wurden. Der Aufstieg der organisch-chemischen Synthese zum industriellen Paradigma war eng mit dem Pfad der katalytischen Hochdrucksynthese verbunden, den die deutsche Großchemie kurz vor dem Ersten Weltkrieg aus der Taufe hob und der schnell zu ihrer Spezialität wurde (siehe Arora et al. 1999; Hughes 1969). Bereits 1913 begann die BASF im großtechnischen Maßstab mit Hilfe des Haber-Bosch-Verfahrens aus Luftstickstoff und Wasserstoff Ammoniak zu synthetisieren. Das ermöglichte die relativ preiswerte Produktion von künstlichen Düngemitteln und Sprengstoffen, für die im Krieg große Nachfrage bestand. Eine Reihe weiterer Prozessinnovationen wie das Fischer-Tropsch-Verfahren zur katalytischen Synthese von Kohlenwasserstoffen aus Leuchtgas1 führte schließlich zu einer breiten Palette von Produkten, die von der deutschen Großchemie aus der heimischen Steinkohle erzeugt werden konnten. Diese Palette umfasste Chemikalien wie Methan, Methanol, Acetaldehyd, Aceton, Isobutyl und diverse Wachse, die wiederum als Ausgangsstoffe für die Synthese vieler weiterer Verbindungen benötigt wurden.
1
Leuchtgas wurde wiederum durch Verkokung von Steinkohle gewonnen; zum Fischer-Tropsch-Verfahren, bei dem es sich um eine katalytische Niederdrucksynthese handelt, siehe Cornils 1996.
202
BIOTECHNOLOGIE
Einen Höhepunkt erreichte diese Entwicklung unter der nationalsozialistischen Autarkiepolitik, als sogar Kautschuk und Autobenzin auf Basis der heimischen Steinkohle produziert wurden (Plumpe 1990: 203–296, 339–396). Diese auf die Substitution von Naturstoffen ausgerichtete Innovationsstrategie, in deren Zentrum die katalytische Hochdrucksynthese stand, prägte auch die Entwicklung der chemischen Industrie in der Bundesrepublik. Zwar wurde nach dem Zweiten Weltkrieg Steinkohle allmählich als Rohstoffbasis durch Erdöl ersetzt. Die Strategien, mit denen Unternehmen wie BASF, Bayer und Hoechst neue Produkte entwickelten und produzierten, blieben aber im Wesentlichen dieselben (vgl. Stokes 1994). Nun lässt sich zweifellos argumentieren, dass der schnelle Wiederaufstieg der deutschen chemischen Industrie nach dem Zweiten Weltkrieg auf ihrem wohl sortierten Werkzeugkasten bewährter Innovations- und Produktionsstrategien beruhte. Nicht zufällig zeigten die Siegermächte großes Interesse an den Technologien, derer sich die deutsche chemische Industrie im Krieg bedient hatte. Für die Biotechnologie bedeutete der rigorose Ausbau des Technologiepfades der organischchemischen Synthese allerdings eine Beschränkung auf Anwendungsnischen, aus denen sie bis weit in die siebziger Jahre hinein nicht mehr herauskam. Der Konkurrenzverlauf zwischen organisch-synthetischen und biotechnologischen Verfahren ist in Abbildung 6-1 nachgezeichnet. Sie beruht auf der Auswertung von Patenten, die zwischen 1883 und 1997 in den Patentgruppen organische Chemie und Biochemie am Deutschen Patentamt angemeldet wurden (Dominguez Lacasa et al. 2003). Sichtbar werden hier der Aufstieg der organisch-chemischen Synthese und der nahezu spiegelbildlich verlaufende Abstieg biotechnologischer Verfahren sowie die Umkehrung dieser Entwicklung in den späten siebziger und frühen achtziger Jahren. Die bundesdeutsche Großchemie bediente sich biotechnologischer Verfahren nur dort, wo die organisch-chemische Synthese an ihre Grenzen stieß, etwa bei der Produktion vergleichsweise komplex aufgebauter Antibiotika und Steroide. Und hier griffen die bundesdeutschen Unternehmen auf US-amerikanische und japanische Lizenzen zurück, anstatt selbst nennenswerte Forschungs- und Entwicklungsaktivitäten in der Biotechnologie zu entwickeln. Ganz offensichtlich wurden biotechnologische Verfahren nur als Übergangslösung gesehen, die es durch die organisch-chemische Synthese zu ersetzen galt (Buchholz 1979: 69). Diese Vorstellung schlug sich auch im Verhalten von Firmen wie Boehringer Ingelheim, Röhm und Merck nieder. Obgleich diese Firmen zu den deutschen Pionieren der industriellen Biotechnologie zählten, orientier203
NEUE TECHNIK AUF ALTEN PFADEN?
ten sie ihre Innovations- und Produktionsstrategien nach dem Zweiten Weltkrieg immer stärker am Technologiepfad der organisch-chemischen Synthese und reduzierten ihre biotechnologischen Aktivitäten, mitunter stellten sie diese sogar völlig ein. Biotechnologische Kompetenzen, die sich in der Bundesrepublik ohnehin nur in Nischen überleben konnten, gingen auf diese Weise verloren und mussten dann später durch den Wissenstransfer aus dem Ausland neu aufgebaut werden (vgl. die Fallstudien in Marschall 2000: 203–349). Abbildung 6-1: Patentanteile in den Bereichen organische Chemie und Biochemie an allen deutschen Patentanmeldungen in der Chemie 45% 40% 35%
Organic chemicals
Biochemicals
30% 25% 20% 15% 10% 5% 1997
1991
1985
1979
1973
1967
1961
1955
1949
1943
1937
1931
1925
1919
1913
1907
1901
1895
1889
1883
0%
Quelle: Dominguez Lacasa et al. 2003.
6 . 2 I n i t i a t i ve n f ü r d i e B i o t e c h n o l o g i e i n d e n siebziger Jahren Der viele Jahrzehnte anhaltende Erfolg der deutschen Großchemie nährte unter ihren Vertretern ein beinahe unbegrenztes Selbstvertrauen in den Technologiepfad der organisch-chemischen Synthese. Keine Stoffklasse schien sich auf Dauer ihrem Zugriff entziehen zu können. Die staatliche Forschungs- und Technologiepolitik war sich der Überlegenheit dieses Pfades jedoch nicht in gleichem Maße sicher. Zumindest begann sie Ende der sechziger Jahre nach Alternativen zu suchen und fand sie in der Biotechnologie. Wie viele andere Industrienationen sah sich die Bundesrepublik in der zweiten Hälfte der sechziger Jahre neuen wirtschaftlichen, sozialen 204
BIOTECHNOLOGIE
und ökologischen Herausforderungen gegenüber. Die als bedrohlich empfundene Rezession von 1966/67 setzte eineinhalb Jahrzehnten ungebrochenen Wirtschaftswachstums ein plötzliches Ende. Zur gleichen Zeit formierte sich in Teilen der bundesdeutschen Bevölkerung ein sehr kritisches politisches Bewusstsein, das sich in vielfältiger Weise artikulierte – besonders öffentlichkeitswirksam in den Studentenprotesten. Mit der wachsenden Sensibilisierung der Gesellschaft für soziale und ökologische Belange wurde der technische Fortschritt immer stärker in seiner Ambivalenz wahrgenommen und kritisch hinterfragt. Die Politik war aufgefordert, sich mit diesen Fragen auseinanderzusetzen und geeignete Antworten zu formulieren. Vor diesem Hintergrund legte das Bundesforschungsministerium 1968 das Programm »Neue Technologien« vor, das als Reaktion auf die Diskussion um die »technologische Lücke« formuliert worden war. Einer Forderung der OECD folgend sollte mit dem Programm eine stärker von sich aus initiativ werdende Forschungsund Technologiepolitik eingeleitet werden (vgl. dazu Kapitel 3.4). Über die Identifizierung und Förderung von Zukunftstechnologien wollte die Bundesregierung zu einem neuen langfristig stabilen Wirtschaftswachstum beitragen, die Gesundheit und das Wohlbefinden der Menschen verbessern und zum Erhalt einer lebenswerten Umwelt beitragen. Die internatonale Entwicklung der Biotechnologie in den sechziger Jahren fügte sich besonders gut in diesen Rahmen ein. Im Vergleich zu anderen Produktionstechnologien, speziell der organisch-chemischen Synthese, besaßen biotechnologische Verfahren ein »grünes Image« (Bud 1993: 122–140). Sie galten als ressourcensparend und umweltschonend. Mit der Biotechnologie verband sich die Hoffnung auf die Lösung einer Reihe als besonders drängend empfundener Probleme, allen voran die Ernährung einer immer schneller wachsenden Weltbevölkerung, deren zuverlässige Versorgung mit preiswerter Energie sowie der Schutz der vom technischen Fortschritt bedrohten Umwelt. Dass dies keine wirklichkeitsfremden Hoffnungen waren, schienen zahlreiche Forschungs- und Entwicklungsprojekte im Ausland zu bestätigen. Das USamerikanische Chemieunternehmen DuPont ließ beispielsweise den Mechanismus erforschen, mit dem Bakterien Luftstickstoff binden können. Mit dem Thema befasste sich auch ein Wissenschaftlerteam an der britischen Universität Sussex. Hinter diesen Arbeiten stand das Ziel, chemische Düngemittel durch die biologische Stickstofffixierung zu ersetzen. Ein weiteres Forschungsfeld, das international Aufsehen erregte, war die Produktion von Einzellereiweiß, so genanntem single cell protein (SCP). Dabei handelte es sich um Mikroorganismen – Bakterien, Hefen und Algen –, die auf billigen Rohstoffen wie Erdöl und Industrieabwässern gezogen wurden und deren Protein für die menschliche und tierische Er205
NEUE TECHNIK AUF ALTEN PFADEN?
nährung gedacht war. SCP-Projekte wurden seit den frühen sechziger Jahren in mehreren Ländern verfolgt, wobei sich Chemie- und Ölkonzerne wie British Petroleum, Royal Dutch Shell und ICI (Imperial Chemical Industries) ganz besonders hervortaten (vgl. García-Garibay et al. 2003). Diese Arbeiten lieferten auch die Anregung für das erste große Biotechnologieprojekt, das in der Bundesrepublik im Rahmen der neuen Forschungs- und Technologiepolitik gefördert werden sollte (Buchholz 1979; Jasanoff 1985). Ein Anstoß dazu war von der heimischen Montanindustrie ausgegangen, die wegen der anhaltenden Krise des Bergbaus nach neuen Geschäftsfeldern suchte und in der mikrobiellen Produktion von Futtereiweiß ein hohes wirtschaftliches Potential vermutete. Bestärkt wurde die Industrie dabei von einzelnen Hochschulwissenschaftlern, die sich wie der Göttinger Mikrobiologe Hans G. Schlegel um ein stärkeres Profil ihrer Disziplin jenseits der Medizin bemühten. Das Bundesforschungsministerium maß dieser Initiative vor dem Hintergrund der internationalen Entwicklungen, »die zu großen Veränderungen in der Nahrungsmittelherstellung führen können«, erhebliche Bedeutung zu. Entsprechend aufgeschlossen stand man daher Anträgen auf Forschungsförderung gegenüber. Mit Blick »auf den ausländischen Vorsprung in der Herstellung von Futtereiweiß« warf man im Ministerium aber die Frage auf, ob nicht eine Spezialisierung auf besonders hochwertige Produkte geboten sei.2 Nach einem intensiven Klärungsprozess, in den das Ministerium Experten aus Industrie und Wissenschaft einbezog, und nach mehreren Revisionen der ursprünglichen Projektidee wurde Ende 1970 schließlich ein Forschungsprojekt zur mikrobiellen Eiweißgewinnung aus der Taufe gehoben. Mit großzügiger staatlicher Unterstützung machte sich ein Konsortium aus den Firmen Hoechst, Gelsenberg und Uhde daran, einen Prozess zu entwickeln, um hochwertiges Eiweiß mit Hilfe von Hefen aus Methanol herzustellen, das wiederum aus Erdöl gewonnen wurde.3 Nach einigen Jahren Forschung und Entwicklung konnte das Projekt zwar abgeschlossen werden. Wirtschaftlichen Erfolg hatte es aber keinen. Mikrobielles Eiweiß hat sich bis heute – von wenigen Nischen abgesehen – weder als Nahrungs- noch als Futtermittel durchgesetzt, was mit der Verfügbarkeit preiswerten Proteins aus Soja zusammenhängt. 2
3
Eiweißgewinnung aus Erdöl, 30.10.1968, Zitate S. 3f.; für die Motivation der Montanindustrie siehe Gelsenkirchener Bergwerks-Aktien-Gesellschaft, Essen, Referat über Eiweißgewinnung aus Erdöl am 19.5.1969 im BMwF (BAK, B169/12051). Biotechnologie. Mikrobielle Proteingewinnung auf der Grundlage von Erdölkohlenwasserstoffen, Besprechung am 17. Nov. 1970 (BAK, B196/ 12052).
206
BIOTECHNOLOGIE
Obgleich die Biotechnologie mit ihrem grünen Image in den sechziger Jahren als Alternative zur organisch-chemischen Synthese gefördert wurde, war das Projekt zur Herstellung von Eiweiß aus Hefen wenig geeignet, am etablierten Technologiepfad der bundesdeutschen Großchemie zu rütteln. Zum einen machte es keinem der gängigen chemischen Verfahren Konkurrenz und konnte deshalb von den beteiligten Firmen schlicht als Erweiterung ihres Produktportfolios angesehen werden. Zum anderen stand die mikrobielle Herstellung von Eiweiß aus Erdöl in industriellen Anlagen für eine Überwindung naturnaher, d.h. landwirtschaftlicher Lebens- und Futtermittelproduktion, und entsprach damit weitaus stärker der Substitutionsstrategie der Großchemie als einer Rückbesinnung auf biologische Produktionstechniken. Das Ausland lieferte den bundesdeutschen Biotechnologieinteressenten nicht nur Ideen für die ersten einschlägigen Forschungs- und Entwicklungsprojekte, es diente ebenso als Orientierungspunkt, wenn es um die Bestimmung der eigenen Position ging. Und hier war es vor allem Japan, dem man sich in den siebziger Jahren zuwandte. In Japan hatten mikrobielle Verfahren traditionell eine große Bedeutung bei der Herstellung von Lebensmitteln und erschlossen sich von dort zahlreiche weitere Anwendungen, beispielsweise die Arzneimittelproduktion. Das Land galt deshalb als besonders fortschrittliche »Biotechnologie-Nation«. Ein Mitarbeiter der Firma Hoechst drückte das, einen Vergleich mit der Bundesrepublik ziehend, folgendermaßen aus: »Im übrigen scheint in Japan die Mikrobiologie die Stellung einzunehmen, die man der organischen Chemie in Deutschland zuspricht, d.h., dass ihr kein Ding unmöglich ist.«4 Diese Einschätzung findet sich in einem Bericht anlässlich einer Japanreise, die das Bundesforschungsministerium Anfang 1972 organisiert hatte, um Einblick in die biotechnologischen Arbeiten der Japaner zu gewinnen. Die Reiseberichte der Teilnehmer – überwiegend mikrobiologisch arbeitende Hochschulwissenschaftler – geben nicht nur über Japan Aufschluss. Da sie vor der Folie des fernöstlichen Landes die Probleme in der Bundesrepublik thematisieren, spiegeln sich darin auch die kulturellen Prägungen der Akteure im heimischen Innovationssystem wider. Die Reiseberichte geben damit Aufschluss über die Probleme, mit denen sich hierzulande die Biotechnologie Anfang der siebziger Jahre auseinandersetzen musste. Besonders augenscheinlich war für die Reiseteilnehmer der hohe Stellenwert, den die mikrobiologische Forschung in Japan einnahm, »nicht nur in der industriellen Produktion, sondern auch im Bewusstsein 4
Nesemann (Hoechst) an Binder (BMBW), 13.4.1972, Zitat S. 1 (BAK, B169/12016). 207
NEUE TECHNIK AUF ALTEN PFADEN?
der japanischen Öffentlichkeit«.5 Dieser Status wurde an vielen Gegebenheiten festgemacht, beispielsweise an der hohen Zahl von einschlägigen Lehrstühlen an den Hochschulen, der großzügigen apparativen Ausstattung der Forschungsinstitute, dem Beitrag der Fermentationsindustrie zur gesamten Güterproduktion des Landes und an den in Wissenschaft und Wirtschaft tätigen Mikrobiologen. Deren Zahl wurde für Japan auf 3.000 veranschlagt. In der Bundesrepublik waren nach einschlägigen Schätzungen Anfang der siebziger Jahre dagegen nur 200 bis 300 Mikrobiologen in ihrem Fach beschäftigt. Betont wurde von den Reiseteilnehmern auch der breite institutionelle Rahmen, in dem sich die mikrobiologische Forschung an den japanischen Hochschulen bewegte und der sich auf ingenieurwissenschaftliche Fakultäten ebenso wie auf naturwissenschaftliche erstreckte. Mit Nachdruck verwiesen wurde in diesem Zusammenhang auf das Departmentsystem der japanischen Hochschulen, das eine enge Zusammenarbeit von Wissenschaftlern unterschiedlichster Fachrichtungen ermöglichen würde. »Eine Kooperation, die in unserem [dem bundesdeutschen, T.W.] Fachbereichssystem trotz allen guten Willens kaum vorstellbar ist«, so der Mikrobiologieprofessor der Technischen Universität Berlin Hans Dellweg.6 Neben der Zusammenarbeit der verschiedenen Fächer innerhalb der Hochschulen wurde die Zusammenarbeit der Hochschulen mit der Industrie gelobt, die »auf dem Gebiet der technischen Mikrobiologie außerordentlich eng« sei.7 Dass dies für die Bundesrepublik nicht zutraf, sah Hans-Jürgen Rehm, Professor für Mikrobiologie an der Universität Münster, durch zwei Umstände bedingt: Zum einen würden in Deutschland, das »als das klassische Land der chemischen Synthese gilt«, vor allem Chemiker und Techniker über die industrielle Mikrobiologie entscheiden, zum anderen würde es unter Biochemikern und Mikrobiologen an Interesse für angewandte Fragestellungen mangeln.8 Und die Legitimationsprobleme der angewandten biologischen Forschung in der Bundesrepublik vor Augen, sah sich sein Berliner Kollege Dellweg dazu veranlasst, den »Mut zur anwendungsbezogenen Forschung« herauszustreichen, der in Japan anzutreffen sei.9
5 6 7 8 9
Ebd. Prof. Dr. H. Dellweg, Gesamtanalyse, o.D. (vermutlich April 1972), Zitat S. 3 (BAK, B196/12016). H. J. Rehm, Bericht über den Besuch verschiedener Institute und Industrien in Japan, 24.4.1972, Zitat S. 5 (BAK, B196/12016). Ebd., Zitate S. 5 und 7. Prof. Dr. H. Dellweg, Gesamtanalyse, o.D. (vermutlich April 1972), Zitat S. 4 (BAK, B196/12016).
208
BIOTECHNOLOGIE
Auf die strukturellen Probleme der bundesdeutschen Hochschulen sowie die große Anwendungsferne der biotechnologischen Grundlagenfächer, die in den Berichten der Japanreisenden zum Ausdruck kamen, wird weiter unten noch einzugehen sein. Zunächst ist der programmatische Rahmen zu diskutieren, an dem sich die staatliche Förderung der Biotechnologie in den siebziger Jahren orientierte.10 Sieht man von dem Programm »Neue Technologien« ab, das als Suchprogramm konzipiert war, so fehlte der bundesdeutschen Forschungs- und Technologiepolitik in den ersten Jahren der Biotechnologieförderung ein »Masterplan« (vgl. Buchholz 1979: 74). Die Formulierung eines Biotechnologieprogramms war deshalb ein wichtiger Schritt hin zu einer systematischeren Förderpolitik. Da das Bundesforschungsministerium weder über die fachlichen Kompetenzen noch über die notwendigen Kapazitäten verfügte, um selbst ein derartiges Programm zu erstellen, beauftragte es 1972 die Deutsche Gesellschaft für chemisches Apparatewesen (DECHEMA) mit einer Studie. Darin sollten auf Grundlage der aktuellen Situation die Entwicklungsmöglichkeiten für die Biotechnologie in der Bundesrepublik aufgezeigt und konkrete Handlungsfelder für die staatliche Förderpolitik benannt werden. Unter dem Dach der DECHEMA fanden sich Wissenschaftler und Ingenieure aus Industrie und Hochschule zusammen, die an Fragen der technischen Chemie interessiert waren. Bereits 1971 hatte sie eine Arbeitsgruppe für Biotechnologie ins Leben gerufen. Neben dem Informationsaustausch sollten einschlägige Forschungsprojekte angestoßen werden. Diese Arbeitsgruppe übernahm nun die Ausarbeitung der Studie für das Bundesforschungsministerium. Ihre Mitglieder kamen aus den großen Chemie- und Pharmaunternehmen (Bayer, Boehringer, Hoechst, Merck und Schering) sowie aus Hochschulinstituten und Großforschungseinrichtungen (z.B. der Gesellschaft für biotechnologische Forschung). Kleine und mittlere Unternehmen wurden an den Arbeiten dagegen nicht beteiligt, da man ihre materiellen und personellen Ressourcen für unzureichend hielt, um eine erfolgreiche biotechnologische Forschungs- und Entwicklungsarbeit zu betreiben (Jasanoff 1985). Leiter der Arbeitsgruppe war der schon erwähnte Münsteraner Mikrobiologe Hans-Jürgen Rehm. Nach beinahe zwei Jahren Arbeit präsentierte die DECHEMA 1974 einen umfassenden Bericht zu Stand und Zukunft der Biotechnologie. Die Studie diente der staatlichen Förderpolitik während der siebziger 10 Die grundlegende Studie zur Biotechnologiepolitik in den siebziger Jahren hat Klaus Buchholz (1979) verfasst, der auch an der Erarbeitung der im Folgenden diskutierten DECHEMA-Studie zur Biotechnologie beteiligt war. 209
NEUE TECHNIK AUF ALTEN PFADEN?
Jahre als programmatischer Rahmen und zog international einiges Interesse auf sich. Biotechnologie wurde darin als eine »anwendungsorientierte Wissenschaft« definiert, die »den Einsatz biologischer Prozesse im Rahmen technischer Verfahren und industrieller Produktionen« behandelt. Gemeint waren damit »Reaktionen biologischer Art, die entweder mit lebenden Zellen (Mikroorganismenzellen, pflanzlichen und tierischen Zellen bzw. Geweben) oder mit Enzymen aus Zellen durchgeführt werden« (DECHEMA 1974: VII). Das war zunächst eine technische Definition, die eine große Zahl unterschiedlicher Verfahren umfasste, von der Nahrungs- und Genussmittelproduktion über die Abwasseraufbereitung bis hin zur Herstellung von Antibiotika, Enzymen und anderen komplexen Substanzen. Die Autoren der Studie beließen es aber nicht dabei. Vielmehr waren sie bemüht, der Biotechnologie im Sinne des Programms »Neue Technologien« auch eine ökonomische und soziale Bedeutung zu geben. Biotechnologie wurde dementsprechend als Schlüsseltechnologie der Zukunft charakterisiert, die zur Wettbewerbsfähigkeit der bundesdeutschen Wirtschaft beitragen würde. Mit biotechnologischen Verfahren sollten Energie und Ressourcen eingespart, neue Exportmärkte erschlossen, gegen den Hunger in den Entwicklungsländern angekämpft, die Umweltverschmutzung durch die Industrie reduziert und Abfallstoffe in neue, wertvolle Produkte verwandelt werden. Allerdings mussten die Autoren der Studie auch festhalten, dass die Biotechnologie trotz ihrer großen Bedeutung bislang in der Bundesrepublik unterschätzt worden sei, weshalb sie hinter Ländern wie den USA, Japan, Großbritannien und der Tschechoslowakei herhinken würde. Die DECHEMA-Studie war, worauf auch Klaus Buchholz (1979: 72–86) hinweist, nicht ohne Probleme. Das Bundesforschungsministerium hatte gehofft, dass ihre Autoren konkrete Schwerpunkte für die staatliche Förderung benennen würden. Die lange Liste biotechnologischer Arbeitsfelder, die dann in der Studie präsentiert wurde, ließ jedoch kaum eine Schwerpunktsetzung erkennen. Was sie widerspiegelte waren vielmehr die individuellen Forschungsinteressen und die disziplinären Selbstverortungen ihrer Autoren. Denn obschon in der Einleitung der Studie der interdisziplinäre Charakter biotechnologischer Forschung betont wurde (DECHEMA 1974: XII), bewegten sich die anschließenden Ausführungen innerhalb der etablierten Disziplingrenzen. Dies lässt sich etwa am Zuschnitt der aufgelisteten Forschungsfelder festmachen oder an der Behandlung von Ausbildungsfragen. So wurde zwar ein Bedarf an einschlägig geschulten Wissenschaftlern gesehen, einem Studiengang »Biotechnologie« standen die Autoren der Studie aber zurückhaltend gegenüber. Das notwendige Wissen sollte stattdessen in ergänzenden Kursen innerhalb der bestehenden Studiengänge Mikrobiologie, Chemie 210
BIOTECHNOLOGIE
und Verfahrenstechnik vermittelt werden (DECHEMA 1974: 124–128; vgl. auch Buchholz 1979: 83f.). Ein weiterer bemerkenswerter Aspekt der DECHEMA-Studie war ihre unentschiedene Haltung gegenüber Molekularbiologie und Genetik. Einerseits kritisierten die Autoren die Ignoranz der bundesdeutschen Molekularbiologen und Genetiker an Fragen der angewandten Forschung: Während die Industrie nach Wissenschaftlern für die systematische Verbesserung von Bakterienstämmen suchte, würden die lediglich in der Grundlagenforschung ausgebildeten Molekularbiologen und Genetiker wenig Interesse an industriell relevanten Fragestellungen zeigen (DECHEMA 1974: XX). Andererseits räumten dieselben Autoren der Molekularbiologie und Genetik nur einen marginalen Platz in ihrer ansonsten so umfassenden Liste biotechnologischer Arbeitsfelder ein. Soweit sich dies aus den wenigen Verweisen herauslesen lässt, scheinen die Autoren wenig Notiz von den Umwälzungen genommen zu haben, die sich auf diesem Feld zeitgleich zur Abfassung der Studie in den USA vollzogen und die für die neue Biotechnologie eine herausragende Rolle erhalten sollten. Die Gentechnik wurde 1976 zwar in eine überarbeitete Auflage der DECHEMA-Studie mitaufgenommen, in der bundesdeutschen Biotechnologiepolitik spielte sie in den siebziger Jahren jedoch kaum eine Rolle. Als 1979 der Bundesforschungsminister vom Parlament nach den Schwerpunkten seiner Biotechnologieförderung gefragt wurde, listete er elf Forschungsfelder auf, von denen lediglich eines ein molekularbiologisches Forschungsprojekt beinhaltete.11 Es war die Produktion von Insulin mit Hilfe genmanipulierter Zellkulturen, der sich international zahlreiche Firmen zugewandt hatten und der man sich in der Bundesrepublik offensichtlich nicht verschließen wollte. Alles in allem waren die Erfolge der staatlichen Biotechnologieförderung der siebziger Jahre jedoch bescheiden. Obgleich Unternehmen wie Hoechst ein gewisses Interesse an der »neuen« Technologie zeigten, blieb die Großchemie weit hinter den biotechnologischen Aktivitäten anderer Länder wie der USA und Japan zurück. In internationaler Perspektive war die bundesdeutsche Biotechnologie auch Ende der siebziger Jahre noch deutlich unterentwickelt.12 Die Großchemie hatte nur ganz zaghaft mit der Revision des etablierten Technologiepfades der organisch-chemischen Synthese begonnen.
11 Deutscher Bundestag, Biotechnologie, Drucksache 8/3169 (12.9.1979), S. 6. 12 Buchholz 1979: 71; zu den internationalen Entwicklungen Bud 1993. 211
NEUE TECHNIK AUF ALTEN PFADEN?
Nun ist es fraglos sinnvoll, Innovations- und Produktionsstrategien beizubehalten, solange sich damit Gewinne erzielen lassen. Die bemerkenswerte Ignoranz der deutschen chemischen Industrie gegenüber der biotechnologischen Alternative, die in anderen Staaten vielleicht nicht gleichberechtigt, aber doch deutlich wahrnehmbar neben der Chemie stand, erklärt das aber nicht. Hier hilft ein Blick auf die kulturelle Prägung der Industriechemiker, die lange Zeit nicht nur die Entwicklungsabteilungen der deutschen Großchemie, sondern auch ihr oberstes Management dominierten. Die chemische Industrie gilt wie schon früher angesprochen neben der Elektroindustrie als Prototyp der wissenschaftsbasierten Industrien. Ihr Erfolg wird auf die enge Kopplung von akademischer Grundlagenforschung und industrieller Produktion zurückgeführt. Der hohe Verwissenschaftlichungsgrad der chemischen Industrie hat nicht nur das Selbstbild der in ihr tätigen Chemiker geprägt, er hat auch deren Vorstellung über die Wechselbeziehung von Theorie und Praxis geformt. Technischer Fortschritt verdankte sich nach ihrer Auffassung (und ganz dem linearen Modell entsprechend) vor allem dem wissenschaftlichen Erkenntnisgewinn der reinen Grundlagenforschung, die in technische Anwendungen übersetzt wird. Die Wurzeln der Biotechnologie lagen jedoch in einer handwerklich-empirischen Tradition, die sie nur mühsam abschütteln konnte: Biotechnologische Verfahren waren theoretisch kaum durchdrungen, industriell interessante Mikroorganismen wurden gefunden und nicht entwickelt, Verfahren durch systematisches Probieren verbessert und nicht aus Modellen abgeleitet. In den Augen der Chemiker musste die Biotechnologie geradezu als ein Lowtech-Sektor erscheinen, dem man schwerlich eine glänzende Zukunft prophezeien konnte. Zu sehr stand er im Gegensatz zur etablierten Kultur der Chemie (Marschall 2000: 185–202). Vor diesem Hintergrund, mag es dann auch wenig überraschen, dass die monetären Anreize der staatlichen Forschungs- und Technologiepolitik weitgehend ins Leere liefen. Die bundesdeutsche Großchemie strich zwar die staatlichen Fördergelder ein, engagierte sich auch in Projekten wie der SCP-Produktion, die kaum am Paradigma der organischchemischen Synthese rüttelten, verharrte ansonsten aber in ihrem traditionellen Selbstbild. Die akademische Wissenschaft bot der staatlichen Forschungspolitik in dieser Situation wenig Unterstützung. Biotechnologische Grundlagenfächer waren in der Bundesrepublik – wie im Folgenden dargelegt wird – bis weit in die sechziger Jahre hinein nur schwach institutionalisiert und wenig für potentielle Anwendungskontexte aufgeschlossen. Bezeichnend für die damalige Situation ist folgende zeitgenössische Einschätzung. Nach dem Besuch des 4. Internationalen Fermentations-Symposiums in Japan Anfang 1972 sah einer der we212
BIOTECHNOLOGIE
nigen bundesdeutschen Teilnehmer, der Berliner Mikrobiologieprofessor Siegfried Windisch, in der überwältigenden Dominanz von Beiträgen des Gastgeberlandes einen Ausdruck für den hohen Stand und die feste Verankerung der Mikrobiologie an den Hochschulen in Japan. Kontrastierend stellte er dann fest: »Das ist gerade in Deutschland meist nicht der Fall, da die Mikrobiologie auch heute noch in weiten Bereichen der Hochschulen und der Wissenschaft überhaupt nicht als eigenständige Wissenschaft anerkannt wird, sondern höchstens soweit, wie sie sich chemischer Methoden bedient. In Bezug auf angewandte Mikrobiologie ist Deutschland heute leider ein unterentwickeltes Land.«13
6.3 Die Wissenschaftsbasis der Biotechnologie Auch wenn es der Biotechnologie in den Augen vieler Chemiker an theoretischer Fundierung mangelte, ihre Entwicklung in der Nachkriegszeit profitierte ganz erheblich von dem systematischen Wissen, das in verschiedenen natur- und ingenieurwissenschaftlichen Disziplinen erarbeitet wurde. Ein Blick auf diese Wissenschaftsbasis liefert einen weiteren Erklärungsansatz dafür, weshalb die Biotechnologie trotz staatlicher Fördermaßnahmen nur sehr langsam im bundesdeutschen Innovationssystem Boden gewinnen konnte. Aufgrund des ausgesprochen interdisziplinären Charakters der Biotechnologie lässt sich deren Wissenschaftsbasis nicht auf eine einzelne Disziplin reduzieren. Wegen ihrer Bedeutung für die neue Biotechnologie, die sich vor allem gentechnischer Methoden bedient, soll im Folgenden dennoch die Molekularbiologie herausgegriffen werden. Sie ist ihrerseits stark interdisziplinär geprägt und daher besonders gut geeignet, Probleme der Biotechnologie – egal ob alt oder neu – zu beleuchten. Folgt man Hans-Jörg Rheinberger (1998: 642f.), dann bezieht sich der Begriff der Molekularbiologie zum einen auf ein experimentelles und theoretisches Paradigma, das auf einem Ensemble von Forschungsstrategien, Experimentiertechniken und Modellvorstellungen basiert und in dessen Zentrum Struktur und Funktion biologischer Makromoleküle stehen. In diesem Sinne hat sich die Molekularbiologie mittlerweile in der gesamten Biologie fest etabliert. Zum anderen wird der Begriff häufig mit der molekularen Genetik gleichgesetzt, die sich in der zweiten Hälfte des 20. Jahrhunderts zu einer Subdisziplin der Biologie entwickelt hat und die sich speziell mit der Struktur und der Wirkungsweise 13 Windisch an BMBW, 25.4.1972, Anlage Bericht vom 10.4.1971, S. 2f. (BAK, B196/12016). 213
NEUE TECHNIK AUF ALTEN PFADEN?
informationstragender Makromoleküle, allen voran die DNA, befasst. Festmachen lässt sich der subdisziplinäre Status der Molekularbiologie unter anderem an der Gründung einschlägiger Forschungsinstitute innerhalb und außerhalb der Hochschulen. Die Anfänge der Molekularbiologie liegen in den dreißiger Jahren.14 Der Begriff molecular biology wurde 1938 vom Direktor der naturwissenschaftlichen Abteilung der US-amerikanischen Rockefeller Foundation, Waren Weaver, geprägt. Im Vordergrund molekularbiologischer Forschung stand zunächst die Strukturaufklärung von Proteinen, denen eine zentrale Funktion sowohl im Stoffwechsel als auch bei der Vererbung zugeschrieben wurde. Als Mitte der vierziger Jahre die DNA als Träger der Erbinformation identifiziert wurde, begann sich die Molekularbiologie jedoch vermehrt mit Nukleinsäuren zu beschäftigen. Höhepunkt dieser Entwicklung war 1953 die Aufklärung der doppelhelicalen Struktur der DNA durch James Watson und Francis Crick, die am MRC Laboratory for Molecular Biology der Universität Cambridge arbeiteten (de Chadarevian 2002; Olby 1994). Innerhalb des nächsten Jahrzehnts wurden die grundlegenden Mechanismen aufgeklärt, durch die genetische Information in der DNA gespeichert, bei der Zellteilung weitergegeben oder in Proteine übersetzt wird. Mitte der sechziger Jahre kam diese erste Phase der Molekularbiologie, die von der Frage nach dem Zusammenhang von Struktur und Funktion biologischer Makromoleküle geprägt war, zu einem Ende. Das Interesse der Molekularbiologen richtete sich nun auf die Möglichkeiten der gezielten Übertragung einzelner Gene zwischen unterschiedlichen Organismen. Der Grundstein für diese Forschungen wurde Ende der sechziger Jahre durch die Entdeckung bakterieller Restriktionsenzyme gelegt, mit denen sich DNA an sequenzspezifischen Stellen schneiden lässt. Die Entdeckung weiterer biologischer Makromoleküle, die als Werkzeuge verwendet werden können, sowie die Entwicklung einer Reihe von Labortechniken zur Isolierung und zum Nachweis einzelner DNA-Fragmente öffnete schließlich den Weg für die gezielte genetische Veränderung von Organismen. Bahnbrechend waren hier die Arbeiten, die Herbert Boyer und Stanley Cohen an der Universität von Kalifornien in San Francisco bzw. an der Stanford Universität durchführten. Den beiden Hochschulforschern gelang 1973 die Konstruktion eines rekombinanten
14 Zur Geschichte der Molekularbiologie liegen mittlerweile zahlreiche Arbeiten vor. Eine gelungene Synthese liefert Morange 1998, der seinen Schwerpunkt auf theoretische und experimentelle Entwicklungen legt; für einen gestrafften Überblick siehe Rheinberger 1998. 214
BIOTECHNOLOGIE
Plasmids15 und dessen Einschleusung in ein E. coli-Bakterium. Mit ihren Arbeiten gaben Cohen und Boyer den Startschuss für die neue Biotechnologie (Smith Hughes 2001). Innerhalb kürzester Zeit entstanden in den USA aus den Universitäten heraus zahlreiche spezialisierte Biotechnologiefirmen, die die neuen rekombinanten DNA-Techniken kommerziell zu nutzen suchten. Auch hier war Boyer Pionier, indem er gemeinsam mit dem Wagniskapitalgeber Robert Swanson 1976 die Firma Genentech ins Leben rief, die zum viel bewunderten Modell für zahlreiche ähnliche Gründungen in den USA wurde (vgl. Kenney 1986). Die Molekularbiologie – das zeigen bereits diese kurzen Ausführungen – wurde wesentlich in den USA und Großbritannien vorangetrieben, wo schon sehr früh einschlägige Institute an den Hochschulen errichtet wurden. In Deutschland lassen sich für die dreißiger und vierziger Jahre zwar ebenfalls Beispiele für molekularbiologische Arbeiten finden, die einen wichtigen Beitrag zur Entwicklung des Feldes geleistet haben. Zu nennen sind beispielsweise die Forschungen von Nikolai V. TimoféeffRessovsky, Karl G. Zimmer und Max Delbrück »Über die Natur der Genmutation und der Genstruktur« (1935), die an Instituten der KaiserWilhelm-Gesellschaft durchgeführt wurden und die die Vorstellung mitbegründet haben, dass Gene aus Atomverbänden aufgebaut sind. An der rasanten Entwicklung der Molekularbiologie im ersten Jahrzehnt nach dem Zweiten Weltkrieg nahm die deutsche Wissenschaft dann aber wenig Anteil. Hier machten sich die Vertreibung führender Wissenschaftler, die Reduzierung der Studierendenzahlen und die Isolierung der deutschen Wissenschaft vom Ausland während der nationalsozialistischen Herrschaft bemerkbar (Deichmann 2002). Bis Anfang der sechziger Jahre gab es in der Bundesrepublik so gut wie keine molekularbiologische Forschung, die mit den internationalen Entwicklungen hätte mithalten können.16 Und wenn sie das doch konnte, dann wurde sie in der Regel nicht an Universitäten, sondern an Instituten der Max-Planck-Gesellschaft betrieben. Ein Beispiel sind die Arbeiten zum Tabak-Mosaik-Virus, die an den MPIs in Tübingen und Göttingen durchgeführt wurden und Einblicke in die Natur von Mutationen und des genetischen Codes lieferten (Brandt 2004; Lewis 2002). Aber das waren eben die Ausnahmen, von denen nicht auf eine breite Basis geschlossen 15 Dabei handelt es sich um eine kleine zirkuläre DNA, die neben dem eigentlichen Chromosom in der bakteriellen Zelle vorkommen kann und in die künstlich ein Stück Fremd-DNA – z.B. das Gen für Humaninsulin – integriert wurde. 16 Zur Geschichte der Molekularbiologie in Deutschland von der Zwischenkriegszeit bis zum Ende der sechziger Jahre siehe die ausführliche Studie Lewis 2002. 215
NEUE TECHNIK AUF ALTEN PFADEN?
werden darf. Zudem konnten die Max-Planck-Institute trotz ihrer vergleichsweise guten Ausstattung die Ausbildung des wissenschaftlichen Nachwuchses an den Hochschulen nicht ersetzen. Und dort sah es mit der Institutionalisierung der Molekularbiologie äußerst dürftig aus. Der Wissenschaftsrat zählte 1960 an den heimischen Universitäten zwar 46 Ordinariate für Botanik und Zoologie, aber nur ein Ordinariat für Mikrobiologie, jeweils eines für Biochemie und Physiologische Chemie, und nur drei für Genetik. Damit hatten gerade diejenigen Fächer keine institutionelle Heimat, in denen die molekularbiologische Forschung der fünfziger und sechziger Jahre am ehesten einen Platz finden konnte (vgl. Tabelle 6-1). In den sechziger Jahren begann sich die institutionelle Situation für die molekularbiologische Forschung in der Bundesrepublik langsam zu verbessern. Ein wichtiger Schritt war hier die Gründung des Instituts für Genetik an der Universität Köln, das 1962 mit finanzieller Unterstützung der Deutschen Forschungsgemeinschaft aus der Taufe gehoben wurde. Die Initiative für diese Gründung ging von dem Kölner Botanikprofessor Joseph Straub aus, der dabei die Unterstützung des bereits erwähnten Max Delbrück bekam. Delbrück war 1937 in die USA emigriert, wo er am California Institute of Technology, einem Zentrum der modernen Biologie, eine neue akademische Heimat gefunden hatte. Mit seinen Arbeiten zur Genetik von Phagen17 war er zu einer Leitfigur der Molekularbiologie aufgestiegen. Anfang der sechziger Jahre nützte er diese Position, um sich für das Kölner Institut stark zu machen, dem er in den ersten beiden Jahren auch als Gastdirektor diente (Rheinberger 2002; Strasser 2002). Mit seiner Ausrichtung auf die molekulare Genetik war das Kölner Institut damals einzigartig in der bundesdeutschen Universitätslandschaft. Delbrück, der 1969 für seine Arbeiten den Nobelpreis erhalten sollte, verlieh ihm eine große Anziehungskraft über die Grenzen des Landes hinaus. Zu den Wissenschaftlern der Anfangsjahre gehörten Persönlichkeiten wie Carsten Bresch, Peter Starlinger, Thomas Trautner und Hans Georg Zachau, die später auf die Entwicklung der Molekularbiologie in der Bundesrepublik einen großen Einfluss nahmen (siehe auch Wenkel/Deichmann 2007).
17 Phagen sind Viren, die Bakterien befallen. 216
BIOTECHNOLOGIE
Freiburg Gießen Göttingen Hamburg Heidelberg Kiel Köln Mainz Marburg München Münster Saarland Tübingen Würzburg
1
1
1 2 1
1
1
1
2
1
2
2
2
1 1 1 2 2 1 1
1 1 1 1 2 1 1 1 1 1 2 1
1
1
1
1 1
1
1 1 1
Biophysik
1
Physiologische Chemie
2 1 1
Biochemie
2 1 1
Mikrobiologie
Frankfurt
Genetik
Erlangen
Zoologie
Bonn
o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof. o. Prof. ao. Prof.
Botanik
FU Berlin
Ordentl. und außerordentl. Professsuren
Universität
Tabelle 6-1: Biologische Professuren an den naturwissenschaftlichen Fakultäten der Universitäten der BRD, Stand: 1960
1
1 1 1
1 1 2
1 1
1
1 1 2
1 1
1 1
Quelle: Lewis 2002: 329. 217
NEUE TECHNIK AUF ALTEN PFADEN?
Neben den genetischen Instituten, die in den sechziger Jahren an den Universitäten errichtet wurden (außer in Köln z.B. 1965 in München und 1968 in Freiburg), verhalfen auch außeruniversitäre Institutsgründungen der Molekularbiologie zu einem stärkeren Rückhalt im bundesdeutschen Innovationssystem. So wurde 1964 in Berlin das Max-Planck-Institut für molekulare Genetik gegründet, an dem Thomas Trautner ein Jahr später eine Direktorenstelle übernahm. Ebenfalls Mitte der sechziger Jahre wurde auf Initiative des Naturstoffchemikers Hans Herloff Inhoffen das Institut für Molekulare Biologie, Biochemie und Biophysik in Braunschweig-Stöckheim ins Leben gerufen. Die Anschubfinanzierung für diese außeruniversitäre Einrichtung gewährten das Land Niedersachsen und vor allem die Volkswagenstiftung, die auf diese Weise einen Beitrag zur Etablierung molekularbiologischer Grundlagenforschung in der Bundesrepublik leisten wollte (Munzel 1998: 60–96). Obwohl die Gründung des Instituts für Molekulare Biologie auf breite Zustimmung stieß, war die Frage nach seiner Einbindung in die Forschungslandschaft in den ersten Jahren völlig ungeklärt. Das war problematisch, da die Volkswagenstiftung gemäß ihrer Satzung nur eine begrenzte Zeit für die Finanzierung des Instituts aufkommen konnte. Die Suche nach einem neuen Träger verlief zunächst jedoch erfolglos. Weder die Max-Planck-Gesellschaft noch die Technische Hochschule Braunschweig sahen sich in der Lage, das Institut zu übernehmen. Nach längeren Verhandlungen erklärten sich schließlich der Bund und das Land Niedersachsen dazu bereit, für die Finanzierung des Instituts, das 1969 in die Gesellschaft für Molekularbiologische Forschung mbH (GMBF) umgewandelt worden war, aufzukommen. Als Voraussetzung dafür forderte das Bundesforschungsministerium allerdings eine stärkere Ausrichtung der GMBF auf die angewandte biotechnologische Forschung, wozu mit staatlichen Geldern ein »Biotechnikum« für die Entwicklung biotechnischer Produktionsverfahren in Braunschweig-Stöckheim errichtet wurde. Mitte der siebziger Jahre wurde dann die Übernahme der GMBF in das Netz der bundesdeutschen Großforschungseinrichtungen vollzogen und die GMBF 1976 in Gesellschaft für Biotechnologische Forschung mbH (GBF) umbenannt (Munzel 1998: 60–96). Das Bundesforschungsministerium verstand die GBF als »eine zentrale Institution der Forschungs- und Technologiepolitik […], die sich stärker auf die Anwendung molekularbiologischer Forschung konzentriert und die Basis erarbeitet, um Ergebnisse aus diesem und nahe verwandten Forschungszweigen der Praxis zuzuführen«. Denn gerade auf
218
BIOTECHNOLOGIE
diesem Gebiet sah das Ministerium einen besonderen Nachholbedarf für die Bundesrepublik.18 So wichtig die in den sechziger Jahren innerhalb und außerhalb der Hochschulen gegründeten Institute für die Entwicklung der bundesdeutschen Molekularbiologie werden sollten, Ende der sechziger Jahre war die Situation noch alles andere als befriedigend. Ein Bericht, den die Volkswagenstiftung in Auftrag gegeben hatte, kam 1968 zu dem Schluss: »Die eigentliche Molekularbiologie, also die Protein- und Nukleinsäureforschung, sowie die Forschung an subcellulären Systemen hat sich an den Hochschulen noch nicht durchgesetzt.« (Zarnitz 1968: 84) Das wirft die Frage auf, weshalb die molekularbiologische Forschung im bundesdeutschen Hochschulsystem in den fünfziger und sechziger Jahren so schwach vertreten war. Als Antwort sind mehrere Gründe zu finden. Folgt man Ute Deichmann (2002), dann war die späte Entwicklung der Molekularbiologie in der Bundesrepublik vor allem das Resultat des Nationalsozialismus. Die Vertreibung von Wissenschaftlern, die der modernen Physik in Deutschland ein abruptes Ende bereitet hatte, betraf ebenso Biologen und mehr noch Chemiker und Biochemiker. Unter ihnen waren zahlreiche Persönlichkeiten, deren Arbeiten für die Entwicklung der Molekularbiologie große Bedeutung erlangen sollten und deren fachliche Kompetenzen im Nachkriegsdeutschland fehlten. Max Delbrück ist ein besonders augenfälliges Beispiel. Hinzu kam, dass die verbliebenen Biowissenschaftler in den ersten Jahren unter einer internationalen Isolierung litten, die erst Mitte der fünfziger Jahre durch eine neue Generation von Forschern durchbrochen wurde, die ihre Postdoc-Jahre im Ausland verbrachten, um sich dort mit molekularbiologischen Methoden vertraut zu machen. Neben diesen unmittelbaren Folgen der nationalsozialistischen Herrschaft gibt es weitere Gründe dafür, dass Molekularbiologie, aber auch Fächer wie Mikrobiologie und Genetik, lange Zeit nur schwach im bundesdeutschen Hochschulsystem vertreten waren. So war die Zahl der Studierenden im Fach Biologie in den fünfziger Jahren insgesamt relativ niedrig, was zum einen mit den schlechten Berufsaussichten für Biologen in Hochschule und Industrie zu erklären war, zum anderen mit der Attraktivität der Physik, die im nahenden »Atomzeitalter« das Interesse vieler naturwissenschaftlich interessierter Studienanfänger auf sich zog. Vor dem Hintergrund niedriger Studierendenzahlen musste eine Ausdifferenzierung der Biologie in Subdisziplinen von den Fachvertretern jedoch als Bedrohung für die etablierten Fächer Zoologie und Botanik 18 Dr. Binder, »Standort« der GBF aus der Sicht des BMFT (BAK, B196/ 50223). 219
NEUE TECHNIK AUF ALTEN PFADEN?
empfunden werden. Hinzu kam, dass insbesondere die molekularbiologische Forschung damals schon einen hohen apparativen Aufwand und damit entsprechende Investitionen erforderte. Der in der zeitgenössischen Literatur am intensivsten diskutierte Grund für die schwache Institutionalisierung von Mikrobiologie, Genetik und Molekularbiologie lag jedoch in der Organisationsstruktur der bundesdeutschen Universitäten mit ihrem althergebrachten Fakultätssystem (Zarnitz 1968). Traditionellerweise wurde Biologie als eine Kombination der Fächer Botanik und Zoologie verstanden, die sich unabhängig voneinander entwickelt hatten und in eigenständigen – an vielen Universitätsorten oft auch räumlich auseinander liegenden – Instituten beheimatet waren. Institutsvorstand und damit für alle personellen und finanziellen Angelegenheiten verantwortlich war der jeweilige Ordinarius für Botanik bzw. Zoologie. Er stand an der Spitze einer hierarchischen Struktur, die über Extraordinarien, Privatdozenten, Oberassistenten bis hinunter zu den Doktoranden reichte, und definierte aus dieser Position heraus die Grundlinien von Forschung und Lehre. Entsprechend breit hatte nach allgemeiner Auffassung seine fachliche Ausrichtung zu sein. Tatsächlich war unter den Biologieprofessoren der ersten Nachkriegsjahrzehnte ein universalistischer, d.h. die gesamte Botanik bzw. Zoologie überspannender, Bildungsanspruch noch weit verbreitet. Die Anhänger dieses Universalismus traten einer fachlichen Spezialisierung entgegen, wie sie die rasante Entwicklung in Arbeitsfeldern wie der Molekularbiologie eigentlich notwendig gemacht hätte. Denn ohne Spezialisierung war es kaum möglich, den Überblick über ein immer schneller anwachsendes Wissen zu behalten, geschweige denn tiefer gehende Einblicke in die Forschungspraxis zu erlangen und entsprechende Kompetenzen aufzubauen (vgl. Zarnitz 1968: 31). Für die Institutionalisierung der Molekularbiologie, die einen interdisziplinären, egalitären und teamorientierten Forschungsstil pflegte, erwiesen sich diese hierarchischen Organisationsstrukturen ebenso wie der universalistische Bildungsanspruch als schwer überwindbare Hürden (Lewis 2002: 324–352). Die strukturellen Probleme der Universitäten, die der Entfaltung neuer biologischer Forschungsfelder entgegenstanden, waren der Bildungspolitik seit Mitte der fünfziger Jahre vertraut. Eine Reihe von Studien im Auftrag diverser Organisationen wie der Deutschen Forschungsgemeinschaft und der Volkswagenstiftung hatte immer wieder darauf hingewiesen und Veränderungen nach dem Vorbild des USamerikanischen Departmentsystems eingefordert (Lewis 2002: 331– 335). Die Situation in der Bundesrepublik änderte sich aber nur langsam. Die meisten Ordinarien in der Biologie lehnten eine Reorganisation ihrer Institute und die Schaffung von Lehrstühlen für die neuen biologischen 220
BIOTECHNOLOGIE
Arbeitsfelder ab. Im Sinne des oben umrissenen Universalismus argumentierten sie, dass durch eine zu starke Spezialisierung ein »Fachidiotentum« befördert würde und es zu einer nicht hinnehmbaren Fragmentierung der Biologie kommen würde. Bedenkt man, dass es gerade die Molekularbiologie war, die zur Integration der sich bis dahin weitgehend unabhängig voneinander entwickelten Fächer Botanik und Zoologie beitrug, klingt dieses Argument befremdlich. Freilich spielte hier noch ein weiterer Aspekt eine wichtige Rolle, wie Jeffrey W. Lewis (2002: 334f.) in seiner Studie zur Geschichte der deutschen Molekularbiologie unterstreicht: »Left unsaid was the fact that current institute leaders and professors stood to lose a great deal of their power and privilege within the university if they were forced to work with a number of younger colleagues on an equal basis.« Festzuhalten gilt, dass im bundesdeutschen Hochschulsystem die Entwicklung jener Fächer nur zögerlich vorankam, die eine wichtige Grundlage der traditionellen und bald auch der neuen Biotechnologie bildeten. Trotz einiger Beispiele für hochkarätige Forschung blieb die Wissenschaftsbasis der Biotechnologie bis weit in die sechziger Jahre hinein schmal und verbesserte sich auch danach nur allmählich. Noch Anfang der achtziger Jahre war die Bundesrepublik in den Augen so manches Beobachters »Genetisches Flachland« (Korbmann 1981). Dass die Schaffung von molekularbiologischen Professuren und Instituten allein ohnehin nicht ausreichte, um die Probleme des bundesdeutschen Universitätssystems zu überwinden, unterstreicht eine Studie des U.S. Office of Technology Assessment aus dem Jahr 1983. Auf der Grundlage einer international vergleichenden Analyse der industriellen Biotechnologie gelangten ihre Autoren zu dem Schluss: »West Germany’s extensive research base would be one of the most well-balanced in the world, were it not for the funding and administrative problems in the universities and the resulting effects on the quality of research.« (OTA 1984: 512) Wie Abbildung 6-2 zeigt, hinkte auch noch Mitte der achtziger Jahre die bundesdeutsche Publikationstätigkeit in biotechnologisch relevanten Fächern hinter Ländern wie Frankreich, Japan, Großbritannien und den USA her. Dies gilt auch, wenn man deren Einwohnerzahl, die als grober Indikator für das Humankapital eines Landes gelten kann, als Bezugsgröße des Vergleichs wählt (siehe Abbildung 6-3). Auffallend sind in diesem Vergleich nicht zuletzt die relative Stärke der Schweiz und die relative Schwäche der USA.
221
NEUE TECHNIK AUF ALTEN PFADEN?
Abbildung 6-2: Länderanteile (in %) an der Gesamtzahl von Publikationen in Biotechnologie und angewandter Mikrobiologie,191986 22.9
12.4 10.9 7.4 5.4 1.9
BRD
CHE
FRA
GBR
JPN
USA
Quelle: von Beuzekom 2001: 15.
Abbildung 6-3: Länderanteile an der Gesamtzahl von Publikationen in Biotechnologie und angewandter Mikrobiologie im Verhältnis zur Einwohnerzahl, 1986
BRD
CHE
FRA
GBR
JPN
USA
Quelle: von Beuzekom 2001: 15; Maddison 2001; eigene Berechnungen.
19 »Biotechnologie und angewandte Mikrobiologie« ist eine Fachzeitschriftenkategorie des NSIOD (National Science Indicators on Diskette). 222
BIOTECHNOLOGIE
Neben ihrer schwachen Institutionalisierung zeichneten sich Fächer wie Molekularbiologie, Mikrobiologie und Genetik durch eine starke Orientierung auf die Grundlagenforschung hin aus. Folgt man der oben diskutierten Biotechnologie-Studie der DECHEMA, so waren die meisten Vertreter dieser Fächer kaum an angewandten Fragestellungen interessiert. Anstatt Probleme aufzugreifen, die für die Industrie von Bedeutung waren, konzentrierten sich die Hochschulforscher lieber auf die »reine Wissenschaft« (DECHEMA 1974: 20). Auch wenn diese Beurteilung nicht unproblematisch ist, weil Grundlagen- und angewandte Forschung gerade im Bereich der Molekularbiologie oft sehr eng beieinander liegen, verweist sie doch auf eine spezifische Einstellung unter den bundesdeutschen Universitätsbiologen, die eine lange Tradition hat. Jonathan Harwood (1993) zeigt in seiner viel beachteten Untersuchung wissenschaftlicher Denkstile, dass die deutschen Genetiker, genauer: die genetisch arbeitenden Botaniker und Zoologen, im ersten Drittel des 20. Jahrhunderts mit wenigen Ausnahmen einen Forschungsstil pflegten, der einem comprehensive style of thought verpflichtet war. Diesem stellt er den pragmatic style of thought gegenüber. Typisch für den erstgenannten Denkstil ist – so Harwood – die Orientierung am Universalismus des deutschen Bildungsideals, die Einbettung biologischer Fragestellungen in allgemeinphilosophische Überlegungen sowie ein mehr oder weniger ausgeprägtes Desinteresse an den kommerziellen Verwertungsmöglichkeiten wissenschaftlicher Forschung. Letzteres drückte sich in der großen Distanz der deutschen Genetiker zur Landwirtschaft aus, die sie als Anwendungsfeld für ihre Wissenschaft kaum erschlossen. Der zweitgenannte Denkstil ist demgegenüber stärker für wirtschaftliche und politische Kontexte offen. In der Forschung stehen sich hier Grundlagen- und Anwendungsorientierung nicht konträr gegenüber, sondern durchdringen sich wechselseitig. Besonders typisch war dieser Denkstil für die US-amerikanische Genetik. In Deutschland wurde der pragmatic style of thought von Erwin Baur und seiner Schule kultiviert, die den Brückenschlag zwischen theoretischer und angewandter Genetik im Bereich der botanischen Züchtungsforschung vollzog. So bedeutsam Baur für die Entwicklung der Genetik als Begründer von Instituten, Gesellschaften und Zeitschriften in Deutschland war, mit seinem Wissenschaftsverständnis gehörte er einer Minderheit unter den deutschen Universitätsbiologen der Zwischenkriegszeit an. Mit dem Engagement der deutschen Biologen für die politischen Ziele des Nationalsozialismus, insbesondere die Autarkie- und Lebensraumpolitik, kam es bis zum Zweiten Weltkrieg dann zu einer starken Annäherung der Universitätsbiologie an die angewandte Forschung. Das moralische Versagen weiter Kreise der wissenschaftlichen Elite, das sich 223
NEUE TECHNIK AUF ALTEN PFADEN?
nicht auf die Verbindung von Eugenik und Rassenpolitik beschränkte,20 provozierte nach dem Ende des Krieges allerdings vielerorts einen Rückzug der Universitätsbiologie aus der angewandten Forschung. Unter Rückgriff auf einen Bildungsbegriff, der sich an Humboldt orientierte, wurde nun die »reine Wissenschaft« betont. So ist es auch kein Zufall, dass Joseph Straub in seinem Planungsentwurf für das Kölner Institut für Genetik nicht auf die medizinische Bedeutung molekularbiologischer Forschung einging, ganz im Gegensatz zu Entwürfen, die zeitgleich für entsprechende Institutsgründungen in Cambridge, Paris und Genf verfasst wurden (Strasser 2002). Die Betonung der »reinen Wissenschaft« bzw. die Distanzierung von angewandter Forschung war nicht nur rhetorische Strategie. Sie schlug sich – soweit das vor dem jetzigen Wissenstand der historischen Forschung zu beurteilen ist – ebenso in der inhaltlichen Ausrichtung der Universitätsbiologie nieder. Das galt letztlich auch für jene Forschungsfelder, deren Entwicklung unter den organisatorischen Hürden litt, die durch das Festhalten an alten Traditionen zementiert wurden. Auch die Vertreter dieser Forschungsfelder konnten ihre Vorbehalte gegen eine anwendungsorientierte Forschung offensichtlich nur schwer ablegen. Bis weit in die siebziger Jahre wurde Molekularbiologie in der Bundesrepublik als »reine Wissenschaft« begriffen (vgl. Lewis 2002: 370). Zwar gab es Molekularbiologen wie Peter Hans Hofschneider, der seit 1957 am Max-Planck-Institut für Biochemie über Phagen und später über das Hepatitis-B-Virus forschte und sein Fachwissen 1978 bei der Gründung der transatlantischen Firma Biogen einbrachte. Hofschneider zweifelte jedoch noch 1980 daran, dass man in der Bundesrepublik »das Potential der Gentechnik voll erkannt« hatte.21 Sein Kollege Ekkehard Bautz, der seine Karriere als Molekularbiologe in den USA begonnen und 1972 die Leitung des Instituts für Molekulare Genetik der Universität Heidelberg übernommen hatte, ging bei seiner Beurteilung der heimischen Situation noch einen Schritt weiter. In einer Polemik aus dem Jahr 1981 zeichnete er die Bundesrepublik als eines der letzten Refugien, in dem »noch brav und unbeirrt einige Geschäftsuntüchtige – von der DFG adäquat unterstützt – an so etwas Unverkäuflichem wie Xenopus leavis oder Drosophila melanogaster wahre Grundlagenforschung betreiben« (Bautz 1981: 613). Auf staatlicher Seite schätzte man die Situation ähnlich ein. In einem Positionspapier, das 1982 im Bundesforschungsministerium erarbeitete wurde, hieß es: »In der Bundesrepublik Deutschland wird auf
20 Vgl. Deichmann 1995; Flitner 1995; Heim 2002, 2003; Wieland 2002. 21 Zitiert in »Leben vom Reißbrett«, in Wirtschaftswoche, Nr. 37, 12.9.1980, S. 36–44, Zitat S. 44. 224
BIOTECHNOLOGIE
breiter Basis biologische Grundlagenforschung betrieben; die anwendungsorientierte biologische Forschung befindet sich jedoch erst im Aufbau.«22 Nun kann es gerade in der neuen Biotechnologie nicht darum gehen, Grundlagenforschung durch angewandte Forschung zu ersetzen. Eine starke Grundlagenforschung – das haben zahlreiche Studien der Entwicklungen in den USA gezeigt (z.B. Kenny 1986; McKelvey 2000) – ist eine wesentliche Voraussetzung für die Etablierung erfolgreich operierender spezialisierter Biotechnologiefirmen. Nicht zufällig finden sich unter den Gründern der ersten Biotech-Start-ups führende Vertreter des Fachs bis hin zu Nobelpreisträgern, deren Arbeiten zu grundlegenden Einsichten in Struktur und Funktion von Makromolekülen lebender Organismen geführt haben. Problematisch erscheint aus wirtschaftlicher Perspektive jedoch eine Grundlagenforschung, die sich vor potentiellen Anwendungsfeldern verschließt und es ganz der Industrie überlässt, anwendungsrelevante Ergebnisse bei ihr abzuholen.
6.4 Neuausrichtungen in den achtziger Jahren Nach dem bislang Gesagten kann es kaum verwundern, dass die Anstöße für eine Neuausrichtung der industriellen Innovationsstrategien nicht aus der Bundesrepublik kamen, sondern aus dem Ausland, genauer den USA. Während Staat und Wissenschaft in Deutschland mühsam versuchten, die verdrängten Traditionen biotechnologischer Forschung und Produktion wiederzubeleben, wurde in Amerika zeitgleich mit den rekombinanten DNA-Techniken das Fundament für eine neuartige, schnell wachsende Biotechnologieindustrie gelegt. Den Auftakt machte 1976 die Firma Genentech, die exemplarisch für die Kombination wissenschaftlicher Grundlagenforschung und ihrer wirtschaftlichen Verwertung stand. Ihr folgten schnell weitere Gründungen spezialisierter Biotechnologiefirmen. Erst als die bundesdeutsche Großchemie endgültig den Anschluss an die Gentechnik zu verpassen drohte, kam es zu einer größeren Erschütterung ihrer bis dahin ungebrochenen Innovationskultur. Die Folge war eine strategische Neuausrichtung. Im Mai 1981 unterzeichnete Hoechst einen Vertrag mit dem Massachusetts General Hospital (MGH). Darin verpflichtete sich das Chemieunternehmen, über einen Zeitraum von zehn Jahren 70 Mio. US-Dollar 22 BMFT, Positionspapier zur Situation und Aufgabe der Forschungsförderung auf dem Gebiet der anwendungsorientierten biologischen/biotechnologischen Forschung, o.D. (etwa Anfang 1982), Zitat S. 1 (BAK, B196/ 90604). 225
NEUE TECHNIK AUF ALTEN PFADEN?
für Ausstattung und Unterhalt einer molekularbiologischen Abteilung aufzuwenden, die an dem renommierten Forschungskrankenhaus der Harvard University errichtet werden sollte. Das MGH erklärte sich im Gegenzug bereit, in regelmäßigen Abständen Wissenschaftler von Hoechst in molekularbiologischen Arbeitstechniken zu schulen und über seine Forschungsergebnisse zu berichten. Zudem sicherte sich Hoechst ein Vorzugsrecht für Patente, die aus der von ihr gesponserten Forschung am MGH hervorgingen. Eingefädelt wurde dieses Abkommen von Howard Goodman, einem der führenden US-amerikanischen Molekularbiologen. Goodman, der bereits als wissenschaftlicher Ratgeber für Hoechst arbeitete, sollte auch der Leiter der neuen Forschungsabteilung am MGH werden (Culliton 1982). Klaus Weissermel (1981), für den Bereich Forschung zuständiges Vorstandsmitglied von Hoechst, begründete den Vorstoß seiner Firma in der Öffentlichkeit ziemlich unumwunden mit dem in der Bundesrepublik »dünn gesäte[n] Sachverstand« in der Molekularbiologie, den er auf die starren Strukturen des heimischen Hochschulsystems zurückführte. Mit seiner Kritik verband er die Forderung nach einer systematischen Förderung wissenschaftlicher Eliten und mehr Wettbewerb unter den öffentlichen Forschungseinrichtungen. Um für den »Beckenbauer der Wissenschaft« adäquate Arbeitsbedingungen zu schaffen, plädierte Weissermel für »eine ›Bundesliga‹ der Wissenschaft mit Auf- und Absteigern«, über die die Ressourcenverteilung geregelt werden sollte. Der Vorstoß von Hoechst wurde in der Bundesrepublik als Schock empfunden. Das millionenschwere Abkommen stellte nicht nur die Qualität der heimischen Forschung in Frage, sondern ebenso die Effizienz der staatlichen Forschungs- und Technologiepolitik. Nachdem ausgerechnet Hoechst in den siebziger Jahren der industrielle Hauptnutznießer staatlicher Fördermaßnahmen auf dem Gebiet der Biotechnologie gewesen war,23 konnte man in der Tat Zweifel daran hegen, dass diese zum Aufbau eines zukunftsorientierten Wissens- und Könnensfundus in der Biotechnologie geführt hatten. Entsprechend hektisch fielen die Reaktionen von Industrie und Staat auf den »Hoechst-Schock« aus (vgl. auch Giesecke 2001: 198; Jasanoff 1985: 24–36). Die Firma Bayer folgte dem Vorbild von Hoechst und knüpfte ebenfalls Verbindungen zur gentechnischen Forschung in den USA, indem sie ihre Forschungs- und Entwicklungskapazitäten in West Haven/ 23 Neben den Geldern für die Entwicklung von SCP hat Hoechst Mittel für weitere Projekte erhalten, seit 1978 beispielsweise für die Gewinnung Insulin produzierender Zellen; vgl. dazu KFA Jülich, Projektträger Biotechnologie an Keune (BMFT), Projektliste der Fa. Hoechst AG, 15.9.1980 (BAK, B196/90580). 226
BIOTECHNOLOGIE
Connecticut ausbaute, wo sie Ende der siebziger Jahre die Chemiefirma Miles übernommen hatte. Als Folge dieser Investitionen waren bei Bayer zeitweilig bis zu 700 Forscher mit biotechnologischen Arbeiten befasst. Zusammen mit Wissenschaftlern der Yale Universität gründete Bayer zudem 1982 die Firma Molecular Diagnostics und zwei Jahre später die Firma Molecular Therapeutics. Darüber hinaus nahm Bayer in den USA noch zahlreiche Kooperationsbeziehungen mit Universitäten und neu gegründeten Biofirmen auf. Diese Aktivitäten sollten dem deutschen Konzern einen einfachen Zugriff auf die Forschungsergebnisse der amerikanischen Partner verschaffen. Mit einer ähnlichen Strategie versuchte auch BASF Zugang zur US-amerikanischen Wissenschaftsbasis in der neuen Biotechnologie zu erhalten (Dolata 1996: 85–113; Sharp 1996). Das Bundesforschungsministerium erfuhr von Hoechsts Zusammenarbeit mit dem MGH aus der amerikanischen Presse. Auf Nachfrage des Ministeriums erläuterte das Unternehmen, dass die stürmische Entwicklung der Gentechnik in den USA ein Engagement vor Ort notwendig gemacht habe, vergleichbare Aktivitäten in der Bundesrepublik aber ohnehin nicht möglich seien. Als Gründe nannte Hoechst die geringe Zahl hochqualifizierter Arbeitsgruppen, die mangelnde Bereitschaft deutscher Wissenschaftler, in einer engen Form mit der Industrie zusammenzuarbeiten, die bürokratischen Schwierigkeiten für derartige Kooperationen und die großen Unsicherheiten, die in der Bundesrepublik wegen der bevorstehenden Regulierung der Gentechnik herrschten. Im Ministerium konnte man diese Argumentation weitgehend nachvollziehen. Da man zu dem Schluss kam, dass »der Hoechst-Vertrag weder mit einer deutschen Uni noch mit einer GFE [Großforschungseinrichtung, T.W.] noch mit der MPG zustandegekommen« wäre, fürchtete man nicht zu Unrecht, dass das Beispiel Schule machen könnte.24 Um von den bundesdeutschen Chemie- und Pharmaunternehmen eine Stellungnahme zur Situation der Gentechnik im Lande zu erhalten, lud das Bundesforschungsministerium im September 1981 Vertreter von BASF, Bayer, Hoechst, Boehringer Mannheim, Schering und Thomae nach Bonn. Das Gespräch mit den Experten aus der Industrie ergab ein deutliches Bild. Die geladenen Teilnehmer stimmten darin überein, dass das Potential der Gentechnik erheblich sei, im Moment aber kaum abgeschätzt werden könne, wo genau die wirtschaftlich interessantesten Anwendungen lägen. Notwendig sei daher eine langfristige und breite Förderung der biologischen Grundlagenforschung, deren schneller Entwick24 Vermerk, Engagement der Fa. Hoechst AG in USA (Genforschung), 9.6.1981, Zitat S. 2 (BAK, B196/90603). 227
NEUE TECHNIK AUF ALTEN PFADEN?
lung jedoch die »bürokratischen Hemmnisse und verkrusteten Strukturen« an den Universitäten und staatlichen Forschungseinrichtungen entgegenstünden. Zudem würde das schlechte Klima, das an diesen Einrichtungen herrsche, die kreativsten Forscher ins Ausland vertreiben. Zur Verbesserung der Situation wurde vorgeschlagen, Forschungsschwerpunkte an den Hochschulen zu bilden und die Großforschungseinrichtungen stärker auf gentechnische Fragestellungen auszurichten. Zudem sollten die Teilnehmer des Gesprächs über die »Einrichtung eines privatwirtschaftlich geführten Forschungsinstituts mit dem Schwerpunkt Gentechnologie, mit einem Standort in universitärer Nachbarschaft und überwiegendem Engagement der Industrie« nachdenken.25 Den Vorschlag, den Problemen der biologischen Grundlagenforschung durch die Gründung eines privatwirtschaftlich geführten Instituts zu begegnen, hatte das Forschungsministerium aufgebracht. Die Industrievertreter standen dieser Idee eher distanziert gegenüber. Nach Auffassung des Hoechster Vorstandmitglieds Klaus Weissermel benötigte die Bundesrepublik zwar elitäre Zentren, die unbürokratisch und langfristig ausgebaut werden müssten. Er befürchtete aber, dass eine Institutsneugründung zu Lasten bereits existierender Arbeitsgruppen gehen könnte, wodurch das Problem nur auf eine andere Ebene verlagert würde. Aufgrund bisheriger Erfahrungen mit der staatlichen Förderung hielt Weissermel »zumindest eine gewisse Skepsis« für angebracht.26 Karl Heinz Büchel, Vorstandsmitglied von Bayer, sah zwar die Möglichkeit mit einem privatwirtschaftlich geführten Forschungsinstitut einige strukturelle Probleme der Grundlagenforschung an Universitäten und Großforschungseinrichtungen zu umgehen. Er betonte jedoch: »Die notwendige Signalwirkung für unseren Wissenschaftsbetrieb kann ein solches Institut nicht haben. Im Gegenteil besteht die Gefahr, dass es als Alibi dient, und die dringend erforderlichen Kursänderungen in der deutschen Forschungslandschaft unterbleiben.«27 In eine ähnliche Richtung argumentierten auch die Geschäftsführer von Boehringer Mannheim, die es lieber gesehen hätten, dass die bestehenden Forschungseinrichtungen in die Lage versetzt würden, »hervorragenden Wissenschaftlern auf dem Gebiet der Gentechnologie Arbeitsmöglichkeiten und Fortkommenschancen« zu bieten, »als immer wieder neue daneben zu stellen«.28 25 Protokoll über Gespräch mit Industrievertretern zum Thema »Genforschung/Biotechnologie« am 21.9.1981, Zitat S. 2 (BAK, B196/90602). 26 Weissermel (Hoechst) an Finke (BMFT), 11.11.1981 (BAK, B196/ 90603). 27 Büchel (Bayer) an Finke (BMFT), 24.11.1981 (BAK, B196/90603). 28 Determann und Maiwald (Boehringer Mannheim) an Finke (BMFT), 27.11.1981 (BAK, B196/90603). 228
BIOTECHNOLOGIE
Obgleich Staat und Industrie einig darüber waren, dass wegen der schwachen Position der bundesdeutschen Molekularbiologie ebenso großer wie rascher Handlungsbedarf herrschte, war es schwierig, sich auf ein gemeinsames Vorgehen bei der Förderung der Grundlagenforschung zu einigen. Das Bundesforschungsministerium bemängelte, dass in dieser Frage keine einheitliche Grundlinie existiere, »weder unter den ›Großen Drei‹ noch bei den mittleren und kleineren Firmen«. Während Hoechst einen gemeinsam von Staat und Industrie getragenen Fonds favorisierte, aus dem unbürokratisch Forschungsprojekte an den Hochschulen finanziert werden sollten, wollte sich BASF speziell im Raum Heidelberg engagieren, wo es bereits einige molekularbiologische Forschergruppen an universitären und außeruniversitären Instituten gab. Diesen Gruppen wollte BASF zusätzlich zu den vom Ministerium bewilligten Projektmitteln nicht-projektgebundene Gelder zur Verfügung stellen, mit denen hochqualifizierte Wissenschaftler aus dem Ausland gewonnen werden sollten. Bayer strebte wiederum eine Kooperation mit Forschergruppen der Universität Köln und dem Max-Planck-Institut für Züchtungsforschung an. Das Unternehmen wollte nicht nur gemeinsame Projekte durchführen, sondern auch einen Teil der Finanzierung dieser Gruppen übernehmen und zusätzlich noch beim Ministerium Projektmittel einwerben. Und schließlich gab es noch eine Initiative für die Gründung einer spezialisierten Biotechnologiefirma, an der sich Wissenschaftler der Universität München sowie mehrere kleine Unternehmen des süddeutschen Raums beteiligen wollten und für die die öffentliche Hand Wagniskapital und Fördermittel bereit stellen sollte.29 Das Bundesforschungsministerium bemühte sich, diesen unterschiedlichen Vorstellungen auf industrieller Seite so weit wie möglich entgegenzukommen. Dabei wollte es allerdings verhindern, dass sich BASF und Bayer durch ihr Engagement für die Grundlagenforschung in Heidelberg und Köln ein exklusives Zugriffsrecht auf das dort erarbeitete Wissen sicherten. In den Gesprächen, die das Ministerium mit Industrie und Wissenschaft führte, kristallisierte sich schließlich ein Konzept heraus, das auf die gemeinsame Errichtung und Finanzierung molekularbiologischer Forschungsschwerpunkte zielte. Die Arbeitsgruppen an diesen Schwerpunkten sollten »klein und flexibel bleiben und zeitlich begrenzt gefördert werden«. Auf diese Weise sollte ein »Rückfall in den Aufbau neuer großer und wissenschaftlich unbeweglicher Zentren«
29 BMFT, Derzeitige Haltung der Chemie-Industrie zur Förderung im Bereich Biotechnologie, 5.2.1982, Zitat S. 1 (BAK, B196/90603). 229
NEUE TECHNIK AUF ALTEN PFADEN?
vermieden werden.30 Durch die gemeinsame Initiative von Staat, Wirtschaft und Wissenschaft wurden bis Mitte der achtziger Jahre dann drei Genzentren – in Heidelberg, Köln und München – sowie das Institut für Genbiologische Forschung in Berlin ins Leben gerufen, um »über einen mehrjährigen Zeitraum hinweg anwendungsorientierte Grundlagenforschung bei möglichst freier Themenwahl seitens der verantwortlichen Wissenschaftler zu ermöglichen«.31 Ziel war nicht nur die Förderung der anwendungsorientierten Grundlagenforschung, sondern auch des wissenschaftlichen Nachwuchses. Hinter dem Kölner Genzentrum standen das Institut für Genetik der Universität und das MPI für Züchtungsforschung. In den ersten beiden Phasen von 1982 bis 1990 stellte das Bundesforschungsministerium 41,7 Mio. DM zur Verfügung, Bayer steuerte jährlich etwa 400.000 DM nicht zweckgebundener Mittel bei, Hoechst und die italienische Firma Enichem beteiligten sich mit jeweils 400.000 DM an Forschungsprojekten, und nicht zuletzt übernahm das Land Nordrhein-Westfalen Kosten in Höhe von 10 Mio. DM für die Errichtung eines Nachwuchsgruppenlabors. Ein Themenschwerpunkt des Kölner »Zentrums für Molekulare Gen- und Zelltechnologie« war die Molekularbiologie der Pflanzen. In Heidelberg beteiligten sich das neu gegründete Zentrum für Molekularbiologie der Universität und das Deutsche Krebsforschungszentrum am Genzentrum. Auch hier erbrachte der Staat den Löwenanteil der Finanzierung, von industrieller Seite steuerten die Firmen BASF und Merck nicht zweckgebundene Mittel bei. Thematisch konzentrierte man sich in Heidelberg auf Biosynthesen und Immunologie. In München waren es die Universität und das MPI für Biochemie, die bei der Etablierung des Genzentrums zusammenfanden. Die industriellen Partner waren die Firmen Hoechst und Wacker Chemie. Im Gegensatz zu den Genzentren in Köln und Heidelberg, die später in den Universitäten aufgehen sollten, war das Münchner Genzentrum von Anfang an als langfristige Einrichtung geplant. Das Institut für Genbiologische Forschung in Berlin war schließlich ein Gemeinschaftsprojekt der Schering AG mit dem Land Berlin, die jeweils zur Hälfte für die Finanzierung aufkamen. Wegen Geldproblemen musste das Institut, an dem Forschergruppen der
30 Vgl. 2. Industriegespräch »Gentechnologie« am 30.04.1982 im BMFT (BAK, B196/90604); Protokoll des Ministergesprächs »Biotechnologie« am 17.02.1983 im BMFT, Zitate S. 2 (BAK, B196/90602). 31 Anforderung von 214 zum Thema Genzentren und Genethikkommission, 20.1.1984 (BAK, B196/90601). 230
BIOTECHNOLOGIE
Freien und der Technischen Universität arbeiteten, nach weniger als zehn Jahren 1996 allerdings schon wieder geschlossen werden.32 Neben der Errichtung der Genzentren ergriff das Bundesforschungsministerium in den achtziger Jahren noch weitere Maßnahmen, die den Wissenstransfer aus der biologischen Grundlagenforschung in die industrielle Anwendung erleichtern sollten. Dazu gehörten die Förderung von Verbundforschungsprojekten, in denen sich Hochschulen und Industrie gemeinsam engagierten, und der Versuch, durch indirekte Instrumente wie Steuererleichterungen und Kredithilfen die Gründung von spezialisierten Biotechnologiefirmen anzuregen. Den Rahmen für diese Aktivitäten lieferte das 1985 von der Bundesregierung verabschiedete Programm »Angewandte Biologie und Biotechnologie«.33 Ulrich Dolata (1996: 134) sieht in diesem Programm einen qualitativen Einschnitt in der staatlichen Biotechnologieförderung, bei dem die neue Biotechnologie, der Aufbau einer öffentlichen Forschungsinfrastruktur und das Bemühen um eine schnellere Kommerzialisierung der Forschung ins Zentrum der staatlichen Bemühungen rückten. Dennoch wurde Biotechnologie nicht einfach mit Gentechnik gleichgesetzt. Tatsächlich hielten die Programmautoren an der breiten Biotechnologiedefinition der DECHEMA-Studie fest, die das ganze Spektrum von der Antibiotikaherstellung bis zur Abwasserbehandlung umfasste. Und wie schon in den siebziger Jahren wurde auch die Relevanz biotechnologischer Verfahren für die Entwicklungsländer ausdrücklich betont. Die große Bedeutung, die die Bundesregierung der Biotechnologie für die internationale Wettbewerbsfähigkeit der heimischen Industrie zuschrieb, spiegelte sich in der zweiten Hälfte der achtziger Jahre schließlich auch in einem deutlichen Anstieg der Fördermittel wider, die das Bundesforschungsministerium für die Entwicklung dieses Technologiefeldes verausgabte (siehe Abbildung 6-4).
32 BMFT, Zwischenbilanz Genzentren, 1988; siehe auch Gespräch Minister Riesenhuber mit Vertretern der Genzentren und der Industrie am 5. Juli 1988 im Wissenschaftszentrum (beide BAK, B196/112567). 33 Deutscher Bundestag, Programm der Bundesregierung »Angewandte Biologie und Biotechnologie«, Drucksache 10/3724 (14.8.1985). 231
NEUE TECHNIK AUF ALTEN PFADEN?
Abbildung 6-4: Entwicklung der Ausgaben des Bundesforschungsministeriums für die Biotechnologie, 1974–94 (in Mio. DM) 180 160 140 120 100 80 60 40 20 0 1974 1976 1978 1980 1982 1984 1986 1988 1990 1992 1994
Quelle: Deutscher Bundestag, Wirtschaftliche Aussichten der Gentechnik, Drucksache 13/3003 (14.11.1995), S. 9.
6.5 Biotechnologie – Risiko und Sorgenkind Während die Bundesregierung ihre Biotechnologiepolitik neu austarierte und das Interesse der Großchemie an der Biotechnologie voll erwachte, nahmen in der Bevölkerung die Bedenken über mögliche Gefahren der neuen Technologie stetig zu. Im öffentlichen Bewusstsein hatte sich die Biotechnologie durch ihre Verbindung mit der Gentechnik von einer grünen in eine Risikotechnologie verwandelt (Bud 1995). Dass die Gentechnik tatsächlich ernstzunehmende Auswirkungen auf die Umwelt haben könnte, war bereits Mitte der siebziger Jahre von eben jenen Wissenschaftlern thematisiert worden, die maßgeblich zu ihrer Entstehung beigetragen hatten. Folge dieser Diskussion war 1975 eine Konferenz im US-amerikanischen Asilomar gewesen, wo Molekularbiologen Richtlinien für den Umgang mit gentechnisch veränderten Organismen (GVOs) verabschiedet hatten. Diese Richtlinien wurden zur Basis der gesetzlichen Regelungen in den USA und später auch in etlichen anderen Ländern, in denen gentechnische Forschung betrieben wurde (siehe z.B. McKelvey 2000: 93–99). In der Bundesrepublik setzte eine breite Diskussion über die Gentechnik erst Anfang der achtziger Jahre ein. Umweltgruppen, Die Grünen, die 1984 erstmalig in den Deutschen Bundestag einzogen, und eine Flut von Publikationen (z.B. Herbig 1982) artiku232
BIOTECHNOLOGIE
lierten ihre Bedenken und stützten auf diese Weise die kritische Haltung vieler Bundesbürger gegenüber der Gentechnik. Damit musste sich die Forschungs- und Technologiepolitik auseinandersetzen. Unter den Parteien des Deutschen Bundestages bestand zwar Einigkeit darüber, dass die Sorgen der Öffentlichkeit ernst genommen werden sollten. Strittig war jedoch die Frage, ob deshalb gesetzliche Regelungen für den Umgang mit GVOs notwendig waren. Auf Initiative der Sozialdemokraten und der Grünen wurde deshalb im Juni 1984 eine EnqueteKommission eingerichtet, die sich mit den Chancen und Risiken der Gentechnologie befasste. Mitte der achtziger Jahre war die Einrichtung einer solchen Kommission zur Abschätzung der Folgen einer neuen Technologie bereits ein etabliertes Instrument der parlamentarischen Meinungsbildung. Ähnliche Kommissionen hatten die zivile Kerntechnik und die Informationstechnologien in den Blick genommen. Aus internationaler Perspektive war dies jedoch das erste Mal, dass sich ein Parlament derart umfassend mit der Gentechnik auseinandersetzte. Obgleich die Kommissionsmitglieder die Komplexität des Gegenstands so weit wie möglich zu reduzieren versuchten und deshalb beispielsweise nicht wie bei der ersten Enquete zur Kerntechnik unterschiedliche Szenarien wirtschaftlicher und technischer Entwicklungspfade in ihre Überlegungen miteinbezogen, blieb die gestellte Aufgabe umfangreich. Nach etwa zwei Jahren Arbeit legte die Kommission 1987 ihren Ergebnisbericht vor. Darin wurde das gesamte Feld der damals bekannten Einsatzgebiete der Gentechnik einer detaillierten Analyse unterzogen, ausführlich die Chancen und Risiken der neuen Technologie diskutiert und schließlich eine Vielzahl von Empfehlungen zur Behandlung des Themas im Parlament abgegeben.34 Obgleich die Arbeit der EnqueteKommission von der Suche nach einem parteienübergreifenden Konsens geprägt war (nur die Kommissionsmitglieder der Grünen verweigerten die Annahme des Berichts), blieben sich Regierung und Opposition uneins darüber, welche rechtlichen Konsequenzen nun zu ziehen waren. Sozialdemokraten und Grüne betonten die Neuartigkeit der Gentechnik und forderten gesetzliche Regelungen. Christdemokraten und Liberale hielten dagegen die bestehenden Gesetze sowie die Selbstkontrollmechanismen von Wissenschaft und Industrie für ausreichend (Jasanoff 1995: 322). Allerdings war zu diesem Zeitpunkt kaum mehr zu übersehen, dass das Fehlen eines rechtlichen Rahmens für die Gentechnik nicht nur ihre Gegner, sondern auch ihre Befürworter – besonders in der Industrie – 34 Deutscher Bundestag, Bericht der Enquete-Kommission »Chancen und Risiken der Gentechnologie«, Drucksache 10/6775 (6.1.1986). 233
NEUE TECHNIK AUF ALTEN PFADEN?
tief verunsicherte. Während sich die erste Gruppe von gesetzlichen Regelungen eine Einschränkung gentechnischer Forschung erhoffte, vermisste die zweite Gruppe vor allem ein verlässliches Gerüst, an dem sie ihre langfristigen Planungen orientieren konnte. Nach einer intensiven Debatte verabschiedeten Bundestag und Bundesrat im Sommer 1990 das Gentechnikgesetz, das die Arbeit mit GVOs in geschlossenen Systemen, die bewusste Freisetzung von GVOs und das Inverkehrbringen von mit GVOs hergestellten Produkten regulierte (Dolata 1996: 167). Obwohl das Gesetz nicht nur vor den Gefahren der Gentechnik schützen, sondern ebenso ihren Einsatz fördern sollte, wurde es von Wissenschaft und Wirtschaft wegen der bürokratischen Hürden kritisiert, die es in den Augen vieler Gentechnikbefürworter aufbaute. Vertreter der Wissenschaft prophezeiten einen Braindrain in die USA, wo ihrer Meinung nach die Bedingungen für gentechnische Forschungsarbeiten weitaus günstiger waren, und die Industrie drohte, ihre Forschungs- und Entwicklungsabteilungen ins Ausland zu verlegen (Kahn 1992). Die anhaltende Kritik zeigte bald Erfolg. Das umstrittene Gentechnikgesetz wurde 1993 und dann nochmals drei Jahre später novelliert und dabei immer stärker an die gesetzlichen Regelungen der USA angeglichen, die als sehr liberal galten (Adelberger 2000: 109). Aufgrund der bisherigen Ausführungen sollte klar geworden sein, dass die Probleme der bundesdeutschen Biotechnologieentwicklung nicht einfach durch gesellschaftliche Vorbehalte oder strikte Gesetze zu erklären sind. Allerdings lässt sich auch nicht übersehen, dass Technologiepfade von derartigen Rahmenbedingungen mitgeprägt werden. Ein illustratives Beispiel dafür ist der Versuch von Hoechst, auf ihrem Stammgelände in Frankfurt eine Anlage zur Produktion von Humaninsulin mit Hilfe gentechnisch veränderter Organismen in Betrieb zu nehmen.35 Einen Genehmigungsantrag für dieses Vorhaben stellte die Firma bei den zuständigen hessischen Aufsichtsbehörden 1984. Bis zur endgültigen Genehmigung vergingen allerdings zehn Jahre, die von Auseinandersetzungen zwischen Hoechst und verschiedenen staatlichen Organen geprägt waren. Den Hintergrund für diese um Sicherheitsfragen kreisenden Verhandlungen lieferten die Bedenken der kritischen Öffentlichkeit, die nicht nur von der seit 1985 in Hessen regierenden Koalition aus Sozialdemokraten und Grünen, sondern auch vom hessischen Verwaltungsgerichtshof aufgegriffen wurden. Letzterer lehnte im November 1989 die von Hoechst beantragte Genehmigung mit der Begründung ab,
35 Siehe dazu auch Gareis (Hoechst) an Riesenhuber (BMFT), Probleme bei der industriellen Anwendung der Gentechnik in der Bundesrepublik Deutschland, 25.5.1988 (BAK, B196/112567). 234
BIOTECHNOLOGIE
dass die bestehenden Gesetze nicht ausreichten, den Umgang mit GVOs zu regeln. Nach Verabschiedung des Gentechnikgesetzes im Jahr darauf startete Hoechst einen erneuten Versuch, eine Genehmigung für die biotechnologische Produktion von Humaninsulin zur erhalten. Das politische Klima hatte sich zwischenzeitlich jedoch kaum verändert. Als nach langen Verhandlungen mit dem hessischen Umweltministerium 1994 schließlich eine Genehmigung erteilt wurde, hatte die wissenschaftlichtechnische Entwicklung die ursprünglichen Pläne von Hoechst eingeholt. Das Unternehmen musste sich deshalb zunächst um die Zulassung eines verbesserten Präparats bemühen, bevor es schließlich im März 1998 die biotechnologische Produktion von Humaninsulin aufnehmen konnte (Abbott 1992; ISB 1998). Trotz der Förderpolitik der Bundesregierung verbesserte sich die Wettbewerbsposition der deutschen Biotechnologie nur sehr langsam (siehe Giesecke 2001: 44–49). Karen Adelberger (2000: 109) stellt dazu pointiert fest: »Biotechnology in the mid-1990s was as much of a headache as it had been in the early 1970s.« Die Top Ten gentechnisch hergestellter Pharmazeutika, die Mitte der neunziger Jahre auf dem Markt waren, sprachen eine deutliche Sprache. Bei einem Gesamtverkaufswert von etwa 4,3 Mrd. US-Dollar wurden beinahe alle der zehn führenden Medikamente von großen US-amerikanischen Pharmakonzernen produziert. Und was noch schwerer wog, entwickelt wurden sie ausnahmslos von US-Firmen wie Amgen, Biogen und Genentech, die erst wenige Jahre zuvor – überwiegend aus dem akademischen Milieu heraus – gegründet worden waren (Sharp 1996: 16). In den USA hatten sich diese spezialisierten Biotechnologiefirmen als wichtiges Scharnier für den Wissenstransfer aus den Hochschulen in die Industrie erwiesen. In Deutschland existierten Mitte der neunziger Jahre dagegen nur wenige dieser Firmen, die zudem auf die Entwicklung von Plattformtechnologien spezialisiert waren, d.h. von breit einsetzbaren Technologien für den Forschungs- und Entwicklungsprozess. Im Gegensatz zu pharmazeutischen Wirkstoffen ist die Entwicklung von Plattformtechnologien weniger langfristig, risikoreich und kapitalintensiv. Mit neuen pharmazeutischen Wirkstoffen lassen sich allerdings weitaus höhere Profite erzielen, was sie für die Großindustrie attraktiv macht. Ein häufig zitiertes Beispiel für eine auf Plattformtechnologien spezialisierte Firma, die bereits Mitte der achtziger Jahre in der Bundesrepublik als Spin-off der Universität Düsseldorf gegründet wurde, ist Diagen. Das Unternehmen, das seit 1994 den Namen Qiagen trägt, wollte ursprünglich auf rekombinanten DNA-Techniken basierende Diagnosesysteme für Krankheitserreger von Pflanze und Mensch entwickeln. Da sich diese Geschäftsidee aber nicht realisieren ließ, spezialisierte sich 235
NEUE TECHNIK AUF ALTEN PFADEN?
Diagen auf die Entwicklung einfach zu handhabender Verfahren für die Isolierung und Reinigung von Nukleinsäuren, die schließlich als »Ready-to-use Kits« auf den Markt kamen. Basierend auf diesen Produkten stieg Qiagen zur größten deutschen Biotechnologiefirma auf. Laut Geschäftsbericht 2006 hatte das Unternehmen, das seinen Sitz 1996 anlässlich seines Börsengangs in die Niederlande verlegte, weltweit knapp 1.300 Mitarbeiter, der Jahresumsatz lag bei 466 Mio. und der erzielte Gewinn bei 70 Mio. US-Dollar.36 Doch Unternehmen wie Diagen waren Mitte der neunziger Jahre die Ausnahme in der Bundesrepublik. Die Zahl von etwa 75 spezialisierten Biotechnologiefirmen, die damals existierten, wurde von verschiedener Seite als unzureichend für einen effizienten Wissenstransfer aus der akademischen Grundlagenforschung in die industrielle Anwendung erachtet und in wachsendem Maße für die Schwäche der bundesdeutschen Biotechnologie verantwortlich gemacht. Die Bundesregierung versuchte deshalb durch eine Reihe von Maßnahmen, einen institutionellen Rahmen zu schaffen, in dem Biotechnologiefirmen leichter gegründet werden und besser gedeihen konnten.37 Zu diesen Maßnahmen zählte die Schaffung eines Risikokapitalmarktes, der in der Bundesrepublik Mitte der neunziger Jahre noch wenig entwickelt war. Im Gegensatz zu Ländern wie den USA war das deutsche Finanzsystem traditionell stark auf Banken hin ausgerichtet. Entsprechend finanzierten Unternehmen ihre Innovationsaktivitäten entweder aus eigenen Gewinnen oder über aufgenommene Bankkredite. Das begünstigte Unternehmen, die bereits Innovationserfolge vorweisen konnten. Für die Anschubfinanzierung junger Biotechnologiefirmen, die sich auf die – risikoreiche, kostenintensive und langfristige – Entwicklung pharmazeutischer Wirkstoffe spezialisieren wollten, war dieses Finanzsystem jedoch wenig förderlich. Es fehlte das notwendige Risikokapital. Durch verschiedene Gesetzesänderungen schuf die Bundesregierung in den neunziger Jahren daher einen rechtlichen Rahmen, der Anreize für die Bereitstellung von Risikokapital setzen sollte. Ein Ergebnis dieser Umgestaltungen des Finanzsystems war 1996 die Gründung des »Neuen Markts« – eines speziell auf junge Technologieunternehmen ab-
36 Zur Geschichte von Diagen siehe Rebentrost 2006. 37 Mit der Entwicklung der neuen Biotechnologie in der Bundesrepublik befasst sich eine Vielzahl wirtschafts- und politikwissenschaftlicher Arbeiten, in denen eingehend die staatlichen Aktivitäten seit Ende der achtziger Jahre dargestellt werden; die bislang umfangreichsten Studien sind Dolata 1996; Giesecke 2001; Kaiser 2008. 236
BIOTECHNOLOGIE
gestellten Segments an der Deutschen Börse in Frankfurt (Adelberger 2000: 112–115; Kaiser 2008: 96–105).38 Eine weitere staatliche Maßnahme, mit der die Gründung von Biotechnologiefirmen gefördert werden sollte, war der sogenannte BioRegio-Wettbewerb (Dohse 2000). Robert Kaiser (2008: 120–122) hebt drei Aspekte dieser 1996 gestarteten Initiative hervor, die Modellcharakter für die bundesdeutsche Forschungs- und Technologiepolitik besaß. Erstens war die Erteilung der Förderzusagen das Ergebnis eines Wettbewerbs zwischen unterschiedlichen Biotechnologieregionen. Zweitens wurde die systemische Perspektive stark gemacht, d.h. die Wettbewerbskriterien zielten weniger auf die Steuerung der konkreten Technologieentwicklung als auf die Vernetzung der für den gesamten Innovationsprozess relevanten Akteursgruppen. Und drittens folgte der BioRegio-Wettbewerb der Idee, bereits vorhandene Stärken zu nutzen und weiter auszubauen. Konsequenterweise wurden unter 17 teilnehmenden Regionen mit dem »Initiativkreis Biotechnologie München«, der BioRegio »Rheinland« und der BioRegio »Rhein-Neckar-Dreieck« jene ausgewählt, an denen seit den achtziger Jahren bereits Genzentren vorhanden waren. Weitere Programme wie BioProfile, BioChance, BioChancePlus und BioFuture, die dem BioRegio-Wettbewerb folgten, zielten in eine ähnliche Richtung (vgl. Kaiser 2008: 112). Legt man die Zahl der Neugründungen spezialisierter Biotechnologiefirmen als Maßstab an, dann erweisen sich die staatlichen Initiativen für die Biotechnologie seit Mitte der neunziger Jahre als durchaus vielversprechend (siehe Abbildung 6-5). In Europa kann Deutschland mittlerweile mit den meisten Biotechnologiefirmen aufwarten. Ob sich daraus tatsächlich eine Erfolgsgeschichte entwickelt, muss im Moment noch offen bleiben, denn die ganz große Mehrheit der neu gegründeten Firmen macht bislang keine Gewinne. Damit stehen die deutschen Biotechnologiefirmen nicht alleine da. Auch in den USA ist der Gesamtsektor noch nicht in die Gewinnzone gekommen (Stand 2004; Pisano 2006: 112–118). Aber anders als in der Bundesrepublik gibt es dort einige äußerst erfolgreich agierende Unternehmen, die aus der Lizenzierung gentechnisch hergestellter Wirkstoffe Profit schlagen können. Das ist in der Bundesrepublik bislang nicht der Fall. Das kann daran liegen, dass die Entwicklung pharmazeutischer Wirkstoffe ein langwieriger Prozess ist, der in der Regel selten weniger als zehn bis fünfzehn Jahre in Anspruch nimmt, Profite also erst in naher Zukunft erwartet werden dürfen. Die
38 Im März 2003 wurde das Segment Neuer Markt allerdings wieder aufgelöst. Vorausgegangen waren massive Kurskorrekturen, die mit dem Konkurs etlicher Firmen der New Economy einhergingen. 237
NEUE TECHNIK AUF ALTEN PFADEN?
»Produktpipeline« der deutschen Biotechnologiefirmen, die sich zu füllen beginnt, würde diese Interpretation stützen. Letztlich wird sich der Erfolg der Branche jedoch daran messen, wie viele der Unternehmen sich dauerhaft mit neuen Produkten auf dem Markt etablieren können. Abbildung 6-5: Entwicklung von spezialisierten Biotechnologiefirmen (bis 500 Mitarbeiter) in der BRD 400 350 300 250 200 150 100 50 0 1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
Quelle: Ernst & Young 2004: 10; Ernst & Young 2006: 7.
6 . 6 Zw i s c h e n r e s ü m e e : P f a d r e v i s i o n b e i u n z u r e i c h e n d e n t w i c k e l t e r Al t e r n a t i v e Bemerkenswert an diesem Fallbeispiel ist die Resistenz, mit der die bundesdeutsche Großchemie den staatlichen Anreizen für eine Revision des Pfades der organisch-chemischen Synthese und seine Erweiterung auf biotechnologische Verfahren gegenüberstand. Obwohl das Bundesforschungsministerium bereits Ende der sechziger Jahre die Förderung der Biotechnologie in Angriff nahm, lässt sich eine Neuausrichtung der Innovations- und Produktionsstrategien in der heimischen Industrie erst Anfang der achtziger Jahre verzeichnen. Der Anschluss an die internationale Entwicklung gelang sogar erst in der zweiten Hälfte der neunziger Jahre. Der Auslöser für diesen späten Umschwung war zudem nicht die Politik, sondern ein externer Schock in Form des sich zunächst in den USA stürmisch entfaltenden neuen Biotechnologiesektors, der mit seinen immensen Gewinnversprechen die Aufmerksamkeit von Risikokapitalgebern und Börsenspekulanten ebenso auf sich zog wie die der che238
BIOTECHNOLOGIE
misch-pharmazeutischen Industrie. Erst als die bundesdeutsche Großchemie endgültig den Anschluss an diese Entwicklung zu verpassen drohte, revidierte sie ihre etablierten Strategien und verschaffte sich über diverse Kooperationen, deren spektakulärste das Abkommen zwischen Hoechst und dem Massachusetts General Hospital war, einen Zugang zur gentechnischen Forschung in den USA. Diese bemerkenswerte Resistenz gegenüber den staatlichen Anreizen ist zu einem guten Teil auf den Status der organisch-chemischen Synthese zurückzuführen, die mit dem Ersten Weltkrieg zum technischen Paradigma der deutschen chemischen Industrie aufstieg und damit den technological trajectory für die nächsten Jahrzehnte bestimmte. Nicht zufällig hat Thomas P. Hughes seinen Begriff des technischen Momentum – noch bevor dieser zum Bestandteil des Konzeptes großtechnischer Systeme wurde – am Beispiel der deutschen chemischen Industrie entwickelt. Wurden zu Beginn des 20. Jahrhunderts chemische und biotechnologische Verfahren noch in Konkurrenz zueinander gesehen, war die Debatte um die optimale Produktionsstrategie mit dem Ende des Krieges – ganz im Sinne des SCOT-Ansatzes – geschlossen. Deutschland wurde zum »klassischen Land der chemischen Synthese«. Die unbestreitbaren Erfolge dieses auf die Substitution von Naturstoffen ausgerichteten trajectory, der Unternehmen wie BASF, Bayer und Hoechst für lange Zeit eine internationale Spitzenposition sicherte, belegen eindrücklich Paul A. Davids Argument, dass Pfadabhängigkeit nicht umstandslos mit Marktversagen und Suboptimalität gleichgesetzt werden darf. Solange die chemische Industrie sichere Gewinne mit der organisch-chemischen Synthese einfahren konnte, war der verfolgte trajectory unproblematisch. Zum Problem wurde die Pfadabhängigkeit der chemischen Industrie erst, als diese den Anschluss an die neue Biotechnologie zu verpassen und dadurch ihre internationale Wettbewerbsfähigkeit zu verlieren drohte. Denn die Erfolge der organisch-chemischen Synthese hatten in der Industrie eine ausgesprochen selbstbewusste Innovationskultur genährt, die sich – worauf die Studien von Buchholz (1979) und Marschall (2000) verweisen – der biotechnologischen Alternative verschloss und deshalb zunächst das Potential der Gentechnik übersah. In dieser selbstbewussten Innovationskultur lag denn auch die besondere Herausforderung für die Forschungs- und Technologiepolitik der siebziger Jahre, die sich der Überlegenheit der organisch-chemischen Synthese angesichts steigender Erdölpreise und wachsender Umweltprobleme bei weitem nicht so sicher war wie die Industrie. Blickt man etwas genauer auf die Situation der siebziger Jahre wird deutlich, dass es nicht einfach darum ging, einen bestehenden Technolo239
NEUE TECHNIK AUF ALTEN PFADEN?
giepfad um einen alternativen zu ergänzen. Denn die Biotechnologie war und ist ein äußerst heterogenes Feld, auf dem eine immense Fülle von unterschiedlichen Verfahren zu finden ist, die oft nicht mehr gemeinsam haben, als dass bei ihnen Organismen bzw. Bestandteile von Organismen zum Einsatz kommen. Wie schwer es war, aus dieser Gemengelage einen kohärenten Gegenstand für die Forschungs- und Technologiepolitik zu formen, ganz zu schweigen von einem definierten Technologiepfad, wird in der DECHEMA-Studie zur Biotechnologie greifbar. Das breite Bild der Biotechnologie, das dort entworfen wurde, war zwar akademisch anschlussfähig. Letztlich blieb es aber zu diffus, um eine starke Gegenkultur begründen zu können, die der Innovationskultur der deutschen Großchemie Paroli bieten oder diese zumindest in nennenswerter Weise irritieren hätte können. So notwendig und wünschenswert Diversität beim Betreten eines neuen Technologiefeldes ist, in der konkreten Situation erwies sie sich als wenig geeignet, die chemische Industrie in ihrem festgefügten Selbstbild zu erschüttern. Das gelang erst, als die Biotechnologie durch das Aufkommen der Gentechnik einer radikalen Neuinterpretation unterworfen wurde. Aus der industriellen Großtechnologie, die ihre handwerklichen Ursprünge kaum leugnen konnte, wurde eine hochgradig wissenschaftsgebundene Technologie, in deren Zentrum die neuen rekombinanten DNA-Techniken standen. Der Begriff Biotechnologie wurde nun immer seltener auf Einsatzfelder wie die Produktion von Einzellereiweiß oder die Aufbereitung von Hausabwässern bezogen, sondern meist schlicht mit Gentechnik gleichgesetzt. Die neue Biotechnologie konnte – wenn auch mit einiger Zeitverzögerung – das Interesse der chemischen Industrie wecken. Das Problem der biotechnologischen Rückständigkeit, dem die Forschungs- und Technologiepolitik mit ihren Initiativen in den siebziger Jahren gegensteuern wollte, war damit freilich nicht behoben. Was sich änderte, war lediglich die Problemfokussierung. Die Herausforderung für die Forschungs- und Technologiepolitik bestand nun nicht mehr in einer sich der biotechnologischen Alternative verschließenden Innovationskultur der chemischen Industrie, sondern in einem unzureichenden Wissenstransfer aus der universitären Grundlagenforschung in die industrielle Anwendung. Begegnet ist die Politik diesem Problem mit einer Reihe von Maßnahmen. Sie reichen von der Förderung der Verbundforschung über die Errichtung der Genzentren bis zu dem Mitte der neunziger Jahre eingeleiteten Umbau des deutschen Innovationssystems, der nicht zuletzt auf die Gründung spezialisierter Biotechnologiefirmen aus dem akademischen Milieu heraus abzielte.
240
BIOTECHNOLOGIE
So wichtig der Umbau des Innovationssystems für die Anschlussfähigkeit der neuen Biotechnologie war, er musste von einem Wandel der biowissenschaftlichen Forschungskultur an den Universitäten begleitet werden. Denn bis weit in die achtziger Jahre hinein war die universitäre Grundlagenforschung wenig geeignet, die Entwicklung der Biotechnologie in der Bundesrepublik zu unterstützen. Zwei Problemfelder sind hier besonders augenfällig: die schwache Institutionalisierung von Fächern wie Mikrobiologie, Molekularbiologie und Genetik, die zusammen mit weiteren Disziplinen die Wissenschaftsbasis der Biotechnologie bilden, und die kulturellen Vorbehalte der Universitätsbiologen gegenüber einer Öffnung ihre Forschung für potentielle Anwendungskontexte. Auch wenn wir letztlich noch zu wenig über die Entwicklung jener Hochschulfächer in den siebziger und achtziger Jahren wissen, die für die neue Biotechnologie so bedeutsam wurden, können die Probleme der deutschen Biotechnologie nicht allein auf strukturelle Defizite im Innovationssystem reduziert werden. Der Weg von der Forschergeneration, die ein universales und anwendungsfernes Wissenschaftsideal pflegte, zu der, deren Mitglieder eigene Firmen gründeten, um als Unternehmer aktiv zu werden, war weder in kurzer Zeit zurückzulegen noch ohne tief greifende Revisionen tradierter Werteinstellungen zu meistern. Die Einflussmöglichkeiten der Forschungs- und Technologiepolitik auf die biowissenschaftliche Forschungskultur waren freilich ebenso begrenzt wie auf die Innovationskultur der chemischen Industrie.
241
7 P F AD AB H ÄN G I G K E I T , S P I T Z E N T E C H N I K U N D D I E R O L L E D E R S T AAT L I C H E N F O R S C H U N G S - U N D TECHNOLOGIEPOLITIK
Das Ziel der vorliegenden Arbeit ist es, die Bedeutung theoretischer Einsichten in die Pfadabhängigkeit des technischen Fortschritts für das Verständnis staatlicher Forschungs- und Technologiepolitik zu untersuchen. Dazu wurde im zweiten Kapitel zunächst eine theoretische Perspektive entwickelt, aus der dann die Geschichten der zivilen Kerntechnik, der elektronischen Datenverarbeitung und der Biotechnologie in den Blick genommen wurden. Aufgabe dieses Kapitels ist es, die Ergebnisse der Fallstudien in vergleichender Perspektive unter stärker systematischen Gesichtspunkten zu diskutieren.
7.1 Szenarien staatlich gemanagter Pfadbildungsprozesse In den vorangegangenen Fallstudien wurden zahlreiche historische Konstellationen identifiziert, die mit dem Begriffsinstrumentarium der in Kapitel 2 diskutierten Theorieansätze analytisch gefasst werden können. Wie nicht anders zu erwarten, sind nicht alle diese Ansätze in gleicher Weise für die Untersuchung der identifizierten Konstellationen geeignet. Ihre unterschiedlichen Schwerpunktlegungen erlauben es aber, Spezifika der betrachteten Technologien herauszuarbeiten. Blickt man beispielsweise aus der analytischen Perspektive großtechnischer Systeme auf das erste Fallbeispiel, fällt auf, dass Kernreaktoren in den Jahren des ersten Atomprogramms von den meisten Akteuren gerade nicht als Teil von 243
NEUE TECHNIK AUF ALTEN PFADEN?
Energieversorgungssystemen wahrgenommen wurden. Das geschah erst mit der Kerntechnikkontroverse, die Kernreaktoren in Konkurrenz zu konventionellen und regenerativen Energiequellen setzte. Legt man den SCOT-Analyserahmen an das zweite Fallbeispiel an, wird vor allem die ausgesprochen hohe interpretative Flexibilität deutlich, der elektronische Rechner unterlagen. Der soziale Aushandlungsprozess um das technische Artefakt widersetzte sich hier konsequent einer dauerhaften Schließung. Mit Hilfe des trajectory approach lässt sich schließlich im dritten Fallbeispiel das starre Festhalten der deutschen chemischen Industrie an der organisch-chemischen Synthese verstehen, die mit dem Ersten Weltkrieg zum technischen Paradigma aufstieg und als solches biologische Produktionsstrategien für Jahrzehnte aus dem Wahrnehmungsfeld der industriellen Akteure drängte. Im Folgenden sollen die Fallstudien nun aus dem Blickwinkel von Pfadabhängigkeit und deren Bedeutung für die staatliche Forschungsund Technologiepolitik näher betrachtet werden. Vergegenwärtigen wir uns dazu zunächst noch einmal das heuristische Modell, das in Kapitel 2.4 skizziert wurde. Es unterscheidet drei Phasen: die Pfadsuche, die Pfadwahl und die Pfadstabilisierung. Für jede dieser Phasen wurden spezifische Anforderungen an die Forschungs- und Technologiepolitik formuliert. Bei der Pfadsuche, die durch das Nebeneinander konkurrierender Technologien und großer Unsicherheiten gekennzeichnet ist, geht es darum, dass der Staat ein mögliches Marktversagen antizipiert. Droht dieses, greift er in den Markt ein, um eine spontane Pfadbildung zu verhindern und dadurch Raum für die hinreichende Entwicklung und Bewertung von technologischen Alternativen zu schaffen. Im Vordergrund steht hier die Förderung von Diversität. Haben sich die relevanten Akteursgruppen über das Ende dieser Suchphase verständigt, kann auf einer ausreichend breiten Erfahrungsgrundlage und unter Abwägung aller erkennbaren Vor- und Nachteile der verfügbaren Alternativen die Pfadwahl getroffen werden. Dem Staat kommt in dieser Phase die Aufgabe zu, wünschbare Entwicklungen zu fördern und nicht-wünschbare Entwicklungen zu hemmen. Die Pfadwahl wird jedoch durch den Markt getroffen, in den die konkurrierenden Technologien entlassen werden. In der Phase der Pfadstabilisierung bildet sich schließlich ein dominanter Technologiepfad heraus, der technologische Alternativen verdrängt oder deren Markteintritt behindert. Dem Staat obliegt es nun, die zuvor geförderte Diversität wieder sinnvoll einzuschränken, um die Verschwendung von Ressourcen auf aussichtslose Alternativen zu verhindern. Zudem muss er für die regelmäßige Überprüfung des etablierten Technologiepfades sorgen, damit nicht-intendierte Nebeneffekte frühzeitig erkannt werden. 244
DIE ROLLE DER STAATLICHEN FUT-POLITIK
Von den behandelten Fallbeispielen kommt die Frühgeschichte der zivilen Kerntechnik diesem theoretisch begründeten Modell zweifellos am nächsten: Als sich die Bundesrepublik der Entwicklung von Kernreaktoren zuwandte, stand deren zivile Nutzung weltweit noch am Anfang. Die Situation war geprägt von einer Vielzahl konkurrierender Reaktortypen, von denen die meisten lediglich als Prototyp oder Blaupause existierten. Aussagen zur Wirtschaftlichkeit und Zuverlässigkeit einzelner Reaktorlinien waren deshalb mit großen Unsicherheiten behaftet. Die bundesdeutschen Kerntechnikinteressenten aus Staat, Wissenschaft und Wirtschaft, die sich in der Deutschen Atomkommission zusammengefunden hatten, sahen angesichts der Reichweite einer vorschnellen und unter Umständen suboptimalen Pfadbildung die Notwendigkeit, zunächst eine Pfadsuche in die Wege zu leiten. Im Eltviller Programm formulierten sie 1957 die Strategie, mehrere Versuchskraftwerke mit unterschiedlichen Reaktortypen zu entwickeln und in Betrieb zu nehmen. Auf Grundlage der dabei gesammelten Erfahrungen sollte dann derjenige Reaktortyp ausgewählt werden, der sich am besten für den Einstieg in die kommerzielle Phase der Kernenergienutzung eignete. Die Forschungs- und Technologiepolitik übernahm bei der Pfadsuche anfangs eine moderierende Funktion und unterstütze zudem durch verschiedene direkte und indirekte Fördermaßnahmen Wissenschaft und Wirtschaft. Ziel dieser Maßnahmen war die Schaffung technologischer Diversität und – trotz der Vorliebe für Naturanreaktoren – nicht die Förderung eines bestimmten Reaktortyps. Der staatliche Verzicht auf inhaltliche Detailsteuerung, der hier zum Ausdruck kommt, ist für die fünfziger und frühen sechziger Jahre mit ihren ordoliberalen Wirtschaftsvorstellungen freilich wenig überraschend. Als die Umsetzung des Eltviller Programms an der Kooperationsbereitschaft der Energieversorgungsunternehmen zu scheitern drohte, gab die Politik ihre Zurückhaltung jedoch auf. Zwar war sie bei den Planungen für das Demonstrationskraftwerk in Gundremmingen noch bemüht, einen Finanzierungsmodus zu finden, der die Wahl des Reaktortyps nicht von Strategien der kurzfristigen Risikovermeidung abhängig machte. Mit der Integration des Projekts in das zwischen den USA und EURATOM vereinbarte Reaktorprogramm wurde dann aber auf politischer Ebene eine Entscheidung zugunsten des Leichtwasserreaktors gefällt – unter weitgehender Ausblendung möglicher Langfristfolgen. De facto kam auf diese Weise die Pfadsuche in der bundesdeutschen Kerntechnik zu einem Ende, noch ehe sie richtig eingesetzt hatte. Sowohl die Energieversorger als auch die Reaktorhersteller schwenkten Mitte der sechziger Jahre auf den US-amerikanischen Technologiepfad ein.
245
NEUE TECHNIK AUF ALTEN PFADEN?
Folgt man der Argumentation von Otto Keck (1980), dann lässt sich das vorzeitige Ende der Pfadsuche vor dem Hintergrund der Durchsetzung des Leichtwasserreaktors in der westlichen Hemisphäre insoweit positiv sehen, als es der Verschwendung finanzieller und intellektueller Ressourcen auf Alternativen, die sich ex post ohnehin als aussichtslos erwiesen haben, Grenzen setzte. Offen bleibt dabei freilich die von Joachim Radkau (1978a) und anderen aufgeworfene Frage nach den Opportunitätskosten durch die Verdrängung möglicherweise besserer Alternativen. Das Schicksal des Schwerwasser- und des Hochtemperaturreaktors, deren Ende sich lange hinzog, zeigt jedenfalls, dass es unter den verschiedenen Akteursgruppen keineswegs eine Verständigung darüber gab, die im Eltviller Programm projektierte Pfadsuche einzustellen. Die Durchsetzung des Leichtwasserreaktors war auch keiner unter Berücksichtigung aller bekannten Vor- und Nachteile der vorhandenen Alternativen bewusst getroffenen Pfadwahl geschuldet, sondern muss als Ergebnis eines spontanen Pfadbildungsprozesses verstanden werden. Problematisch erscheint dabei vor allem der Umstand, dass die Forschungsund Technologiepolitik durch ihr Drängen auf einen raschen Einstieg in die kommerzielle Nutzung der Kernenergie denkbare Optionen vorzeitig schloss, anstatt sie – wie es Paul A. David fordert – offen zu halten. Damit entglitt der Politik das Management des Pfadbildungsprozesses in der zivilen Kerntechnik paradoxer Weise in dem Maße, in dem sie die Steuerung des Prozesses an sich zog. Im Gegensatz zur Kerntechnik wandte sich die Forschungs- und Technologiepolitik der elektronischen Datenverarbeitung zu einem Zeitpunkt zu, als diese bereits in ihrer kommerziellen Entwicklung weit fortgeschritten war. Mit IBM gab es zudem einen marktbeherrschenden Rechnerhersteller, der nicht nur die technischen Standards der Branche setzte, sondern auch deren zukünftige Entwicklungsrichtung vorzugeben schien. Durch den zeitlich begrenzten Eingriff in den Markt wollte die bundesdeutsche Politik für ausgewogene Wettbewerbsverhältnisse sorgen und der US-Dominanz eine eigene, konkurrenzfähige Rechnerindustrie entgegenstellen. Die Strategie, die sie dabei verfolgte, zielte darauf ab, über die staatliche Förderung eines technologischen Großprojekts, konkret: der Entwicklung einer modernen Großrechnerfamilie für die Wahrnehmung öffentlicher Aufgaben, einen nationalen Champion zu schaffen. Technologischer Referenzpunkt war das von IBM Mitte der sechziger Jahre eingeführte System/360, das den Markt für Universalrechner neu definierte. Auch hier gab es Probleme bei der Umsetzung des formulierten Programms, da Siemens und AEG-Telefunken nicht bereit waren, gemeinsam die Entwicklung einer Universalrechnerfamilie zu übernehmen. 246
DIE ROLLE DER STAATLICHEN FUT-POLITIK
Stattdessen verfolgten die beiden Firmen ihre eigenen Ziele. Siemens forcierte die Anpassung und Ergänzung der als Siemens System 4004 von RCA übernommenen Rechnerfamilie. AEG-Telefunken trieb die Entwicklung ihres wissenschaftlich-technischen Großrechners TR 440 voran. Da das Bundesforschungsministerium trotz dieser Probleme nicht von seiner Strategie abrücken wollte, förderte es diese eigentlich miteinander inkompatiblen Projekte und versuchte wiederholt, die Rechnerhersteller doch noch zu einer Zusammenarbeit zu bewegen. Die Ausrichtung der ersten beiden Datenverarbeitungsprogramme auf die Entwicklung mittlerer und großer Universalrechner lief damit auf den Versuch hinaus, die bundesdeutsche Rechnerindustrie auf einen staatlich definierten Technologiepfad festzulegen. Auf diese Weise betrieb das Forschungsministerium – durch Siemens und AEG-Telefunken bestärkt – letztlich eine Pfadwahlpolitik, die ganz darauf abgestellt war, der IBM Marktanteile bei großen und mittleren Universalrechnern abzunehmen. Die starke Fixierung der Forschungs- und Technologiepolitik auf IBM und Universalrechner ist im Kontext der späten sechziger Jahre, in denen die Diskussion um die »technologische Lücke« die europäische Selbstwahrnehmung bestimmte, nachvollziehbar. Aufgrund der technologischen Umbrüche, die sich zu dieser Zeit in der elektronischen Datenverarbeitung vollzogen, wären dennoch Alternativen zu der gewählten Strategie denkbar gewesen. Denn insbesondere die fortschreitende Miniaturisierung veränderte nicht nur den Markt der Universalrechner, sie ebnete auch den Weg für neue Marktsegmente. Für die Bundesrepublik ist in diesem Zusammenhang vor allem das Segment der Mittleren Datentechnik zu erwähnen, das in den siebziger Jahren eine große Entwicklungsdynamik entfaltete. Die Forschungs- und Technologiepolitik hatte daran allerdings zunächst keinen Anteil – ebenso wenig wie die von ihr massiv geförderten Firmen Siemens und AEG-Telefunken. Anstatt den Versuch zu unternehmen, die Chancen, die sich aus den technologischen Umbrüchen ergaben, systematisch zu erkunden, d.h. eine Pfadsuche zu initiieren, verharrte die Forschungs- und Technologiepolitik bis Mitte der siebziger Jahre in ihrer Strategie, die heimischen Rechnerhersteller auf den Pfad der Universalrechner festzulegen – und das obwohl sie die hohe Entwicklungsdynamik auf dem Gebiet der elektronischen Datenverarbeitung wahrnahm. Wie die elektronische Datenverarbeitung war auch die Biotechnologie in ihrer Kommerzialisierung bereits weit fortgeschritten, als sie Ende der sechziger Jahre Gegenstand staatlicher Fördermaßnahmen wurde. Und auch in der Biotechnologie entfaltete sich nur kurze Zeit, nachdem sie die Aufmerksamkeit der Forschungs- und Technologiepolitik auf sich gezogen hatte, eine ungeheure Entwicklungsdynamik, an deren En247
NEUE TECHNIK AUF ALTEN PFADEN?
de eine Neustrukturierung des gesamten Technologiefeldes stand. Die Herausforderungen, denen sich die Politik stellen musste, waren dennoch anders gelagert. Denn im Unterschied zur elektronischen Datenverarbeitung – und ebenso zur Kerntechnik – zeigte die heimische Industrie lange Zeit kaum ein Interesse an der Biotechnologie. Die deutsche Großchemie sah in ihr bestenfalls eine Nischentechnologie, der die organisch-chemische Synthese weit überlegen war. In diesem Urteil konnten sich Firmen wie BASF, Bayer und Hoechst schon allein durch den Erfolg bestätigt fühlen, den ihnen dieser Technologiepfad seit Jahrzehnten bescherte. Die Forschungs- und Technologiepolitik, die von der Überlegenheit der organisch-chemischen Synthese nicht in gleicher Weise wie die Großchemie überzeugt war, zumindest aber der Biotechnologie eine Zukunftsperspektive einräumte, stand vor der Aufgabe, die Industrie zu einer Überprüfung des etablierten Technologiepfades zu bringen und gegebenenfalls zu einer Neuausrichtung, die die biotechnologische Alternative berücksichtigte. Um die Industrie für die Biotechnologie zu interessieren und das Potential der verschiedenen Anwendungsfelder zu erkunden, initiierte die Forschungs- und Technologiepolitik Anfang der siebziger Jahre einen Prozess der Pfadsuche. Nachdem sie zunächst eher unsystematisch Einzelprojekte wie die Gewinnung von Einzellereiweiß gefördert hatte, beauftragte sie die DECHEMA mit der Erarbeitung einer Studie, die den Rahmen für weitere Maßnahmen liefern sollte. Die DECHEMA-Studie war eine umfassende Bestandsaufnahme biotechnologischer Verfahren und als solche nicht ohne Probleme. Denn so sehr sie einerseits das große Potential der Biotechnologie verdeutlichte, so wenig ließ sie andererseits Schwerpunktsetzungen erkennen, derer sich die Forschungs- und Technologiepolitik bei der Förderung der Pfadsuche bedienen konnte. Hier machte sich bemerkbar, dass es in der Bundesrepublik weder im akademischen noch im industriellen Bereich ausgeprägte biotechnologische Traditionen gab, an die man hätte anknüpfen können. Die biotechnologische Alternative war schlicht unterentwickelt. Die staatliche Initiative für die Biotechnologie stieß in der Großchemie aber ohnehin nur auf geringe Resonanz und führte auch zu keiner tiefer gehenden Überprüfung des Technologiepfades der organisch-chemischen Synthese. Nachhaltig in Frage gestellt wurde dieser erst, als die Großchemie den Anschluss an die Entwicklung der neuen Biotechnologie, die sich in den USA in einem rasanten Tempo vollzog, unwiederbringlich zu verpassen drohte. Der Einzug gentechnischer Methoden in die Biotechnologie führte aber nicht nur zu einer Neubewertung dieses lange Zeit auf Nischen beschränkten Technologiefeldes. Er stellte auch völlig neue Anforderun248
DIE ROLLE DER STAATLICHEN FUT-POLITIK
gen an die Forschungs- und Technologiepolitik, deren Fördermaßnahmen – wie das Millionen-Abkommen zwischen Hoechst und dem Massachusetts General Hospital nahe legte – ins Leere zu laufen schienen. Tatsächlich zeichnete sich die neue Biotechnologie durch eine bis dahin nicht gekannte Wissenschaftsbindung aus, die die industrielle Anwendung eng an die Grundlagenforschung heranrückte (vgl. Tabelle 7-1). In weitaus stärkerem Maße, als dies auf die Kerntechnik und die elektronische Datenverarbeitung zutraf, machte die erfolgreiche Etablierung eines Technologiepfades innerhalb der neuen Biotechnologie deshalb Restrukturierungen des bundesdeutschen Innovationssystems notwendig.1 Die große Zahl spezialisierter Biotechnologiefirmen ist ein Ergebnis dieser Maßnahmen.
7.2 Einflussfaktoren auf die untersuchten Pfadbildungsprozesse Im direkten Vergleich der drei Fallstudien lassen sich nun die Unterschiede und Gemeinsamkeit der Szenarien, mit denen die Forschungsund Technologiepolitik konfrontiert wurde, genauer benennen. Es geht darum, Einflussfaktoren zu identifizieren, unter denen sich die Pfadbildungsprozesse in den untersuchten Spitzentechnologien vollzogen haben. Besonders augenfällig ist zunächst der unterschiedliche Entwicklungsgrad, den die drei Technologiefelder erreicht hatten, als sich ihnen die Politik zuwandte. Während sich die zivile Kerntechnik Mitte der fünfziger Jahre noch in einer vorkommerziellen Phase befand und sich die kerntechnische Industrie gerade erst formierte, war die Kommerzialisierung der elektronischen Datenverarbeitung ein Jahrzehnt später schon weit fortgeschritten und die Rechnerindustrie in einer Phase stürmischen Wachstums. Die Biotechnologie hatte dagegen Ende der sechziger Jahre bereits ein gewisse Reife erlangt – und in der Bundesrepublik ihren ersten Höhepunkt schon lange hinter sich. Die Entwicklung der Gentechnik bewirkte dann aber eine Neudefinition des Technologiefeldes und läutete in vielen Bereichen, allen voran der pharmazeutischen Biotechnologie, einen neuen Industriezyklus ein. Entsprechend diesen 1
Die Schaffung der Großforschungseinrichtungen fügte dem bundesdeutschen Innovationssystem zwar ebenfalls ein neues Element hinzu, die bereits etablierten Strukturen blieben davon jedoch unberührt. Zudem hatten die Großforschungseinrichtungen für die Entwicklung des Leichtwasserreaktors, auf dem die Kommerzialisierung der Kerntechnik aufbaute, kaum eine Bedeutung. 249
NEUE TECHNIK AUF ALTEN PFADEN?
unterschiedlichen Entwicklungsgraden waren die Pfadabhängigkeiten, die in den einzelnen Technologiefeldern anzutreffen waren, zu Beginn der staatlichen Fördermaßnahmen schwächer oder stärker ausgeprägt. Neben ihrem Entwicklungsgrad unterschieden sich die Technologiefelder in ihrer Entwicklungsdynamik. Das lässt sich beispielsweise an der Länge von Produktzyklen festmachen.2 Zwar ist es schwer, genaue Werte anzugeben, doch steht außer Frage, dass unter den hier interessierenden Technologien Kernreaktoren den längsten und elektronische Rechner den kürzesten Lebenszyklus aufweisen. Biotechnologische Produkte, z.B. pharmazeutische Präparate, sind bei ebenfalls hoher Entwicklungsdynamik zwischen diesen Polen zu verorten. Der vergleichsweise geringen Entwicklungsdynamik der Kerntechnik entsprach, dass die in der Deutschen Atomkommission zusammengeschlossenen Kerntechnikinteressenten im Eltviller Programm eine eingehende Suchphase projektierten, die der kommerziellen Nutzung der Kernenergie vorausgehen sollte. Franz Josef Strauß, der zu diesem Zeitpunkt allerdings schon aus dem Amt des Atomministers ausgeschieden war, hatte gar dafür plädiert, mit der Entwicklung von Kernreaktoren so lange zu warten, bis das Ausland mit dieser Technologie genügend Erfahrung gesammelt hatte, um diese dann in der Bundesrepublik zu nutzen. Eine Dynamisierung erfuhr der Pfadbildungsprozess in der bundesdeutschen Kerntechnik erst Anfang der sechziger Jahre durch das Drängen der Politik auf eine baldige Kommerzialisierung und den daraus erwachsenden Finanzierungsschwierigkeiten, bei den Planungen für das erste Demonstrationskraftwerk. In der elektronischen Datenverarbeitung bestimmte die hohe Entwicklungsdynamik des Feldes dagegen von Anfang an das staatliche Handeln und mehr noch das der Rechnerhersteller, die mit ihren Produkten den US-amerikanischen Konkurrenten und speziell der IBM immer stärker hinterherhinkten. Das Aufholen von Rückständen wurde deshalb zu einem Leitmotiv der Akteure auf industrieller wie auf staatlicher Seite. Dass sowohl die Politik als auch die von ihr geförderten Rechnerhersteller Schwierigkeiten hatten, sich auf die hohe Entwicklungsdynamik dieses Technologiefeldes einzustellen und mit der »unangenehmen Kurzlebigkeit der entwickelten Typen« – wie es ein führender Mitarbei-
2
In den Wirtschaftswissenschaften wird der Produktzyklus je nach Erkenntnisinteresse etwas unterschiedlich modelliert; gängig ist die Aufteilung in die Phasen Einführung, Wachstum, Reifung und Auslaufen eines Produkts; vgl. Freeman/Soete 1997: 357–360.
250
DIE ROLLE DER STAATLICHEN FUT-POLITIK
ter der AEG-Telefunken formulierte3 – zurechtzukommen, zeigt nicht zuletzt das starre Festhalten am Bild des Großrechners unter den ersten beiden Datenverarbeitungsprogrammen. Die hohe Entwicklungsdynamik der Biotechnologie entfaltete sich Mitte der siebziger Jahre durch das Aufkommen der Gentechnik in den USA. Zu diesem Zeitpunkt war die einschlägige Förderung in der Bundesrepublik schon seit einigen Jahren im Gange. Von den Entwicklungen in den USA nahm das bundesdeutsche Innovationssystem dennoch kaum Notiz. Insbesondere die Großchemie unterschätzte die Bedeutung der neuen rekombinanten DNA-Techniken, soweit sie diese überhaupt wahrnahm. Damit stand sie freilich nicht alleine da. Ähnliche Anlaufschwierigkeiten hatten beinahe alle großen Pharmafirmen in der neuen Biotechnologie. In der Bundesrepublik verharrte die Großchemie jedoch im internationalen Vergleich besonders lange in ihrer abwartenden Position.4 Auffällige Unterschiede weisen die drei Fallbeispiele auch in den Akteurkonstellationen auf. In der frühen Kerntechnik war die Situation ausgesprochen übersichtlich. In der Bundesrepublik beschränkte sich der Kreis potentieller Kernreaktorhersteller im Wesentlichen auf die Firmen Siemens, AEG und Brown, Boveri & Cie. Möglicher Abnehmer für die ersten Reaktoren war die heimische Energieversorgungswirtschaft, die aus einer überschaubaren Zahl regionaler Monopolisten und kommunaler Anbieter bestand. Schließlich fanden sich auf industrieller Seite noch Firmen wie Hoechst, die aus verschiedenen Gründen Interesse an der neuen Technologie zeigten. Der Kreis von Wissenschaftlern und Ingenieuren, die über eine einschlägige Expertise verfügten, war ebenfalls relativ klein. Und die Öffentlichkeit wurde überhaupt erst Mitte der siebziger Jahre zu einem relevanten Akteur. Hinzu kam, dass die bundesdeutschen Kerntechnikinteressenten in der Deutschen Atomkommission zusammengeschlossen waren und so in organisierter Form der Politik als Berater und Adressaten zur Verfügung standen. Das verhinderte zwar keine Unstimmigkeiten, erleichterte aber die Interessensabstimmung unter den Akteursgruppen. Damit waren für den Politikprozess in der frühen Kerntechnik jene neo-korporatistischen Strukturen bedeutsam, die in der Literatur immer wieder für das bundesdeutsche Innovationssystem
3
4
Vortrag, Güntsch (AEG-Telefunken), Anlage 2 zu BMwF, Kurzprotokoll der Vortrags- und Diskussionsveranstaltung über elektronische Datenverarbeitungsanlagen am 12.7.1965, Bad Godesberg (BAK B138/5533). Kaiser 2008; vgl. auch Bürgi 2005, der die bemerkenswert frühe Hinwendung des Schweizer Pharmakonzerns Hoffman-LaRoche zur Molekularbiologie in den sechziger Jahren thematisiert. 251
NEUE TECHNIK AUF ALTEN PFADEN?
als prägend beschrieben werden (z.B. Harding/Peterson 2000; Jasanoff 1985). Neo-korporatistische Verfahren der Entscheidungsfindung spielten auch im Planungsprozess der ersten Programme für die elektronische Datenverarbeitung und die Biotechnologie eine wichtige Rolle. Die Akteurkonstellationen in diesen Technologiefeldern sahen jedoch anders aus als in der zivilen Kerntechnik. In der Datenverarbeitung war der Kreis der heimischen Rechnerhersteller zunächst ebenfalls recht klein – mit Siemens und AEG-Telefunken waren sogar dieselben Akteure wie in der Kerntechnik vertreten. Durch die Entstehung neuer Marktsegmente wie der Mittleren Datentechnik wurde diese Konstellation jedoch schnell komplexer. Neben den beiden etablierten Elektrounternehmen engagierte sich nun eine Reihe weiterer Firmen, darunter Neugründungen wie die Nixdorf Computer AG, auf dem Rechnermarkt. Besonders unübersichtlich war das Feld der Rechnernutzer, mit denen sich die Politik im Gegensatz zur Energieversorgungswirtschaft nicht einfach an einen Tisch setzen konnte. Insofern war es ein durchaus logischer Schritt, dass sich das Bundesforschungsministerium bei den Planungen seiner Fördermaßnahmen auf den Bereich der öffentlichen Aufgaben konzentrierte. Auch wenn das Ministerium letztlich nur einen begrenzten Einfluss auf das staatliche Nachfrageverhalten nehmen konnte, gab es hier zumindest etablierte Kommunikationsroutinen, derer man sich bedienen konnte. Die Wissenschaft übernahm – neben der Ausbildung von Informatikern für die Industrie – vor allem beratende Funktion. Diese beschränkte sich bei der Erarbeitung des ersten Datenverarbeitungsprogramms allerdings weitgehend auf die Kommentierung eines fertigen Entwurfs, dessen Inhalte zwischen dem Ministerium und den Firmen Siemens und AEG-Telefunken ausgehandelt worden waren. In der Biotechnologie fiel der Staat als Nachfragemacht aus. Allerdings standen hier von Anfang an keine Produkte, sondern Verfahren im Vordergrund der Fördermaßnahmen. Das gilt auch für das single cell protein-Projekt, von dem sich das Bundesforschungsministerium den Aufbau biotechnologischer Verfahrenskompetenz in der chemisch-pharmazeutischen Industrie erhoffte. Wie in Kerntechnik und Datenverarbeitung waren es große Unternehmen, die der Politik als Berater und Adressaten dienten; Pendant der Deutschen Atomkommission war die DECHEMA. Die Marginalisierung kleiner Unternehmen war solange schlüssig, solange die Biotechnologie wie im SCP-Projekt als Großtechnologie verstanden wurde, die einen hohen Ressourceneinsatz notwendig machte. Doch noch weniger als in der Datenverarbeitung ließ sich diese Position in der Biotechnologie lange durchhalten. Denn mit dem Aufkommen der neuen Biotechnologie erlangten gerade kleine Unter252
DIE ROLLE DER STAATLICHEN FUT-POLITIK
nehmen, die sich als besonders effizient für den Technologietransfer erwiesen, eine strategische Bedeutung für die Politik. In der Bundesrepublik stand man allerdings vor der Aufgabe, überhaupt erst einmal diesen neuen Adressatenkreis der Forschungs- und Technologiepolitik zu schaffen. Was schließlich die Wissenschaft betrifft, so unterschied sich die Situation in der Biotechnologie zunächst kaum von der in Kerntechnik und Datenverarbeitung. In allen drei Feldern war die Situation zu Beginn der Förderinitiativen durch einen Mangel an wissenschaftlichen Experten gekennzeichnet. Die ausgesprochen hohe Wissenschaftsbindung der Biotechnologie wies den Hochschulwissenschaftlern über die Ausbildung von Studierenden und die Bereitstellung von Expertise jedoch eine neue Funktion als Unternehmer, zumindest aber als Kommerzialisierungsagent ihrer Forschungsergebnisse zu. Das traf in diesem Maße weder auf die Kerntechnik noch auf die Datenverarbeitung zu. Wie in Tabelle 7-1, die auf einer Auswertung der Häufigkeiten von Zeitschriftenzitaten in Patentprüfungsberichten basiert, zu sehen ist, nimmt die Biotechnologie unter den 31 hier hinsichtlich ihrer Wissenschaftsbindung untersuchten Technologien den Spitzenplatz ein. Die Datenverarbeitung folgt auf Platz sechs, die Nukleartechnik auf Platz 15 (Schmoch 2003: 151–153). Bemerkenswert ist auch der große Abstand zwischen den ersten beiden Plätzen, der die besondere Stellung der Biotechnologie unterstreicht (vgl. auch Pisano 2006). Tabelle 7-1: Relative Wissenschaftsbindung ausgewählter Technologien Feld Biotechnologie Pharmazie Halbleiter Organische Chemie Lebensmittelchemie Datenverarbeitung Optik Audiovisuelle Technik Telekommunikation Werkstoffe Messen, Regeln Grundstoffchemie Oberflächentechnik
Index 2,65 1,87 1,74 1,66 1,51 1,26 1,25 1,16 1,14 1,13 1,04 0,99 0,93
253
NEUE TECHNIK AUF ALTEN PFADEN?
Feld Mittelwert Nukleartechnik Polymere Elektrische Energie Umwelttechnik Verarbeitungsprozesse Verfahrenstechnik Werkzeugmaschinen Nahrungsmittelverarbeitung Motoren, Turbinen Handhabung Thermische Prozesse Medizintechnik Raumfahrt Transport Maschinenelemente Verbrauchsgüter Bauwesen
Index 0,85 0,84 0,81 0,75 0,65 0,61 0,60 0,53 0,52 0,45 0,41 0,40 0,38 0,30 0,30 0,25 0,22 0,18
Quelle: Schmoch 2003: 152. Ein weiterer übergreifender Aspekt der Fallstudien sind die Neuinterpretationen, denen die betrachteten Technologiefelder im Zeitraum der staatlichen Fördermaßnahmen unterworfen waren. Diese Neuinterpretationen vollzogen sich nicht alle auf derselben Ebene. Sie erforderten jedoch in allen drei Fällen eine Reformulierung der implementierten Förderpolitiken. In der zivilen Kerntechnik war es der Wandel von einer Zukunfts- zu einer Risikotechnologie, der eine Neubewertung des eingeschlagenen Technologiepfades sowie der verfolgten Förderstrategien notwendig machte. Bis zur Mitte der siebziger Jahre hatte die Nutzung der Kernenergie einen breiten Rückhalt in der bundesdeutschen Bevölkerung. Danach geriet sie angesichts der immer deutlicher werdenden Risiken unter einen wachsenden Legitimationsdruck, der nicht nur Projekte wie den Schnellen Brüter in Frage stellte, sondern auch zu der im Juni 2000 gemeinsam von der Bundesregierung und den Energieversorgungsunternehmen getroffenen Entscheidung führte, aus dem etablierten Pfad der Kerntechnik wieder auszusteigen. In der elektronischen Datenverarbeitung gab es in den siebziger und frühen achtziger Jahren ebenfalls einen 254
DIE ROLLE DER STAATLICHEN FUT-POLITIK
breiten Risiko- bzw. Nebenfolgendiskurs (siehe z.B. Hansen et al. 1979). Langfristig bedeutsamer für die Forschungs- und Technologiepolitik war jedoch die Neuinterpretation, die das elektronische Rechnen auf technologischer Ebene erfuhr und die eine Revision des Bildes von der Datenverarbeitung als einer Großtechnologie notwendig machte. In der Strategieformulierung des Bundesforschungsministeriums schlug sich diese Neuinterpretation allerdings erst im dritten Datenverarbeitungsprogramm nieder. In der Biotechnologie war es schließlich das Aufkommen rekombinanter DNA-Techniken, das eine Neuinterpretation des gesamten Technologiefeldes einläutete. Dabei wandelte sich die Biotechnologie einerseits von einer empiriegeprägten Nischentechnologie zu einer wissenschaftsbasierten Zukunftstechnologie, andererseits von einer grünen zu einer Risikotechnologie. Die Forschungs- und Technologiepolitik stand vor der schwierigen Aufgabe, diese divergierenden Neuinterpretationen in ihren Strategien miteinander in Einklang zu bringen. Diese Neuinterpretationen der geförderten Technologiefelder waren für die Forschungs- und Technologiepolitik nicht vorherzusehen. Das darf durchaus betont werden. Gerade die Kerntechnikpolitik der fünfziger und sechziger Jahre gerät in einem geschichtsvergessenen Rückblick schnell unter den Verdacht der Irrationalität. Das heißt nun freilich nicht, dass die Politik nicht aufgefordert wäre, ihre Strategien regelmäßig zu überprüfen. Gerade weil sich Phasen der Pfadsuche und Pfadwahl wie im Beispiel der Biotechnologie über Jahrzehnte hinziehen können und Interpretationen technischer Artefakte wie im Beispiel der Rechnerentwicklung, die in den achtziger Jahren durch den Personal Computer und in den neunziger Jahren durch das Internet weitere Umbrüche erlebte, nur über kurze Perioden stabil sein können, ist dies geboten. Gefragt ist mithin eine adaptive, ihre Grundannahmen ständig reflektierende Politik (vgl. z.B. Fach/Grande 1992; Metcalfe/Georghiou 1997). Als letzter Aspekt sei schließlich auf die Konkurrenzverhältnisse eingegangen, in denen die hier betrachteten Technologiepfade jeweils standen und die neben den schon diskutierten Aspekten ebenfalls ein wichtiger Faktor für die Formulierung von Förderstrategien waren. Aus ökonomischer Perspektive lassen sich Konkurrenzverhältnisse von Technologien über deren Teilnahme am selben Marktsegment bestimmen. Demnach stehen beispielsweise Leicht- und Schwerwasserreaktoren als Produktionsgüter der kerntechnischen Energieerzeugung in einem Konkurrenzverhältnis zueinender, Großrechner für die administrative Massendatenverarbeitung und Kleinrechner für die Buchhaltung jedoch nicht. Doch so wichtig die Frage nach den Konkurrenzverhältnissen für das Management von Pfadbildungsprozessen, speziell für die
255
NEUE TECHNIK AUF ALTEN PFADEN?
Pfadsuche, ist, so schwierig scheint es, diese aus der Perspektive der Forschungs- und Technologiepolitik zu bestimmen. So beschränkte sich die Debatte in der Frühphase der Kerntechnikentwicklung auf die Frage konkurrierender Reaktortypen. Diese Problemstrukturierung überrascht wenig, ruft man sich in Erinnerung, dass unter den Entscheidungseliten zwar unterschiedliche Partikularinteressen herrschten, diese aber alle in dem Ziel konvergierten, die Bundesrepublik an der Kerntechnik teilhaben zu lassen. Die energiepolitische Wünschbarkeit der neuen Technologie wurde als gegeben vorausgesetzt, weshalb man in der Deutschen Atomkommission auch glaubte, die Kritik der Energieversorgungsunternehmen am Eltviller Programm auf die Seite schieben zu können. Erst mit der Kritik, die Teile der Öffentlichkeit an der Kerntechnik formulierten, erhielt die energiepolitische Dimension ein stärkeres Gewicht. In den Diskussionen der Enquete-Kommission »Zukünftige Kernenergie-Politik« war die Kerntechnik schließlich ein Technologiefeld, das mit anderen – konventionellen und alternativen – Energietechnologien konkurrierte. Die Frage, wie der bundesdeutsche Einstieg in der Kerntechnik verlaufen wäre, wenn diese von Anfang an in energiepolitischen Konkurrenzverhältnissen konzeptualisiert worden wäre, ist hoch spekulativ und soll hier nicht diskutiert werden. Allein ihre Formulierung verweist jedoch auf die Bedeutung der Konzeptualisierung von Konkurrenzverhältnissen durch die Akteursgruppen für das staatliche Management von Pfadbildungsprozessen. Ähnliches gilt für die elektronische Datenverarbeitung und die Biotechnologie. Konkurrenz hieß im erstgenannten Technologiefeld vor allem Konkurrenz zu IBM und folglich Konkurrenz im Markt der Universalrechner. Die Frage, ob es sinnvoller war, dieses Konkurrenzverhältnis zu umgehen und nach neuen Marktsegmenten zu suchen, stellte sich der Politik – aus historisch verständlichen, wenn auch keineswegs unausweichlichen Gründen – nicht. Bei der Biotechnologie war es deren Konkurrenzverhältnis zur organisch-chemischen Synthese, das bis Anfang der achtziger Jahre die Forschungs- und Technologiepolitik bestimmte. Biotechnologie wurde entsprechend als Produktionsstrategie konzeptualisiert. Das Potential der neuen Biotechnologie, die ebenso eine neue Innovationsstrategie in die pharmazeutische Wirkstoffentwicklung brachte, blieb deshalb nicht zufällig im internationalen Vergleich zu lange unterschätzt. Letztlich standen die geförderten Technologiefelder – worauf in Kapitel 3 bereits eingegangen wurde – auch miteinander in einem Konkurrenzverhältnis um die begrenzten finanziellen Ressourcen, die der Bund für seine forschungs- und technologiepolitischen Ziele zur Verfügung hatte. Der hohe Anteil, der auf die Kerntechnik entfiel und der trotz ent256
DIE ROLLE DER STAATLICHEN FUT-POLITIK
sprechender Versuche nur schwer zurückzufahren war, schränkte dabei die Handlungsspielräume in der elektronischen Datenverarbeitung und der Biotechnologie von vornherein ein. Halten wir fest: Im direkten Vergleich der drei Fallstudien lassen sich einige übergreifende Aspekte benennen, die das staatliche Management der Pfadbildungsprozesse in den untersuchten Technologiefeldern mitbestimmten und damit als Einflussfaktoren der betrachteten Pfadbildungsprozesse interpretiert werden können. Tabelle 7-2 fast diese Faktoren nochmals in vergleichender Perspektive zusammen. Dass es sich dabei um eine »enzyklopädische« und naturgemäß unvollständige Aufzählung handelt, ergibt sich aus dem Design der vorliegenden Arbeit, der es darum ging, durch eine konsequente Historisierung und Kontextualisierung ihres Untersuchungsgegenstandes Einflussfaktoren auf den Innovationsprozess zu identifizieren, die bei einer stärker theoretisch-systematischen Vorgehensweise nicht in gleicher Weise sichtbar geworden wären. Das gilt nicht zuletzt für die kulturelle Aufladung von Spitzentechnik, ohne die das staatliche Handeln in der Forschungs- und Technologiepolitik an vielen Stellen nur schwer verständlich wird und auf die im Folgenden deshalb noch etwas detaillierter eingegangen werden soll.
257
258 Großtechnologie ► Diversifizierung in zahlreiche Marktsegmente (Klein-, Kleinstrechner, Prozessrechner usw.)
Zukunftstechnologie ► Risikotechnologie
mittel Reaktortypen der ersten Generation
(Neu)interpretation durch die relevanten Akteure
Wissenschaftsbindung (vgl. auch Tabelle 7-1)
Konkurrenzverhältnisse konventionelle und alternative Energieträger
zunehmend komplex
durchweg überschaubar
Akteurkonstellationen
diverse Marktsegmente
IBM/Universalrechner
hoch
sehr hoch
niedrig
biotechnologische versus organisch-chemische Produktionsstrategien
sehr hoch
empiriebasierte Nischentechnologie ► wissenschaftsbasierte Zukunftstechnologie
zunehmend komplex
hoch
Gentechnik führt zu neuem Industriezyklus
Entwicklungsdynamik
Reifungsphase
technische Umbrüche generieren neue Marktsegmente
Biotechnologie
Wachstumsphase
vorkommerzielle Phase
Elektronische Datenverarbeitung
Entwicklungsgrad bei Beginn der staatlichen Fördermaßnahmen
Zivile Kerntechnik
NEUE TECHNIK AUF ALTEN PFADEN?
Tabelle 7-2: Einflussfaktoren auf die Pfadbildungsprozesse in den untersuchten Technologiefeldern
DIE ROLLE DER STAATLICHEN FUT-POLITIK
7 . 3 S p i t z e n t e c h n i k a l s Au s w e i s n a t i o n a l e r technologischer Leistungsfähigkeit Die Technologien, derer sich ein Land bedient, sagen viel über den Wertekosmos und das Selbstbild seiner Bevölkerung aus. Diese Grundeinsicht der Technikgeschichte lässt sich ohne Weiteres auf die hier behandelten Spitzentechnologien anwenden. Denn hinter der staatlichen Förderung von Kerntechnik, Datenverarbeitung und Biotechnologie standen mehr als nur ökonomische Motive. Spitzentechnik wurde in der Bundesrepublik von Anfang an als Ausweis technologischer Leistungsfähigkeit begriffen und als Vehikel für den nationalen Wiederaufstieg in die verlorene wissenschaftlich-technische Führungsposition gesehen. Entsprechend ambitioniert waren die Ziele, die sich die Forschungs- und Technologiepolitik setzte. Fluchtpunkt der staatlichen Initiativen war nicht einfach der zeitnahe Nachvollzug der nun immer häufiger in den USA generierten Technologiepfade, um sie für die heimische Industrie fruchtbar zu machen, sondern die Schaffung eigener Lösungen, mit denen die internationalen Märkte erobert werden sollten. Die Einsicht, dass der Rückstand gegenüber den USA kein vorübergehendes Nachkriegsphänomen war, sondern eine Grundkonstante der gesamten Nachkriegsepoche, setzte sich vor allem auf staatlicher Seite nur allmählich durch. Probleme, sich in die neue Rolle als wissenschaftlich-technische »Mittelmacht« hineinzufinden, hatten aber auch Wissenschaft und Industrie. Der Einstieg in die zivile Kerntechnik, der mit dem Ende der Wiederaufbauphase zusammenfiel, war noch von großer Zuversicht getragen. Die beteiligten Akteure rechneten zwar mit vielen Problemen, die sich ihnen auf dem Weg zur kommerziellen Nutzung der Kernenergie stellen würden. An der erfolgreichen Lösung dieser Probleme zweifelten sie jedoch nicht. Der kerntechnische Rückstand gegenüber dem Ausland wurde als Folge von Krieg und Forschungsverbot und damit als vorübergehende Störung begriffen. Die Mär von der deutschen Atombombe, die nur deshalb nicht gebaut wurde, weil sich die beteiligten Wissenschaftler gesträubt hätten, Hitler diese Waffe in die Hände zu geben, tat ein Übriges, um Zweifel an der Lösbarkeit der selbst gestellten Aufgabe klein zu halten. Je deutlicher sich das Scheitern des Eltviller Programms abzeichnete, umso stärker rückte jedoch die Frage nach der technologischen Leistungsfähigkeit ins Zentrum der Diskussion. Die baldige Realisierung eines größeren Kraftwerkprojekts wurde nun zu einer Angelegenheit stilisiert, die über das Prestige der Bundesrepublik als Industrienation entschied. Ohne den Bau eines Kernkraftwerks schien weder das Vertrauen des Auslandes noch das eigene Vertrauen in die technologische Leis259
NEUE TECHNIK AUF ALTEN PFADEN?
tungsfähigkeit der Bundesrepublik gewonnen werden zu können. Ironischerweise führte diese symbolische Überhöhung der Kerntechnik, die die Bundesrepublik mit vielen Ländern teilte,5 zu einer Dynamik, an deren Ende der Import eines ausländischen Technologiepfades in Form des amerikanischen Leichtwasserreaktors stand. Dieses Ergebnis lief den ursprünglichen Intentionen des Eltviller Programms entgegen. Die bundesdeutschen Reaktorhersteller hatten aber ohnehin von Anfang an auf eine Doppelstrategie gesetzt und neben der Eigenentwicklung auf ihre traditionellen Beziehungen zur USamerikanischen Industrie gebaut. Auch wenn der Import des amerikanischen Technologiepfades zu Irritationen innerhalb der Deutschen Atomkommission führte, alles in allem stand das schnelle Aufholen des kerntechnischen Rückstandes im Vordergrund. Und das war letztlich ohne den Rückgriff auf das Ausland nicht möglich. Zudem war man sich schon bei den Planungen für das Eltviller Programm einig, dass der ersten Generation von Reaktoren eine zweite technologisch weitaus anspruchsvollere folgen sollte. Auf diese Reaktoren – namentlich den Schnellen Brüter und den Hochtemperaturreaktor – verlagerten sich dann auch die Bemühungen der Forschungs- und Technologiepolitik, die damit den Anspruch auf eine zukünftige Führungsposition in der Kerntechnik verknüpfe. Die ideologische Überhöhung der technologischen Leistungsfähigkeit, die sich bereits Anfang der sechziger Jahre in der kerntechnischen Debatte angedeutet hatte, wurde wenige Jahre später zu einem zentralen Element in der staatlichen Förderung der elektronischen Datenverarbeitung. Auslöser war die Diskussion um die »technologische Lücke«, zu der der US-amerikanische Botschafter bei der Europäischen Gemeinschaft, J. Robert Schaetzel, 1967 pointiert bemerkte: »Nach 20 Jahren Wiederaufbau, außerordentlichen Wachstums sowie sozialen und wirtschaftlichen Fortschritts wirkt es auf viele Europäer wie ein Schock, wenn sie feststellen müssen, dass sie den USA nicht näher gerückt sind als vor 20 Jahren, einfach weil die Vereinigten Staaten in derselben Zeit nicht stehen geblieben sind.« (zitiert nach Standke 1967: 594)
Blickt man vor dem Hintergrund dieser Diskussion auf die Förderpolitik in der Datenverarbeitung, dann wird vor allem die große Verunsicherung der beteiligten Akteure deutlich. Den Nachholprozess in der Kerntechnik, der schon in der Rückschau der späten sechziger Jahre verklärte Züge annahm, hatte man noch als Durchgangsepisode der Nachkriegszeit 5
Vgl. dazu insbesondere die Studie Hecht 1998 zur französischen Kerntechnikgeschichte.
260
DIE ROLLE DER STAATLICHEN FUT-POLITIK
umdeuten können. Der Rückstand in der Rechnerentwicklung nährte dagegen Zweifel, dass die Rückkehr der Bundesrepublik in die wissenschaftlich-technische Spitzenposition nur eine Frage der Zeit war. Aus dem historischen Abstand wirkt der Versuch, der US-amerikanischen Marktdominanz bei großen und mittleren Universalrechnern eine bundesdeutsche Eigenentwicklung entgegenzusetzen, daher wie das trotzig verzweifelte Aufbäumen einer wegen ihrer geschrumpften wissenschaftlichen und technischen Bedeutung zutiefst verunsicherten Industrienation. Der formelhafte Rückgriff auf die längst verlorene Führungsrolle war hier oft mehr Selbstberuhigung als Selbstüberschätzung. Auch wenn die bundesdeutsche Rechnerindustrie zu Beginn der staatlichen Fördermaßnahmen über einen gewissen Erfahrungsschatz verfügte, von einer sich ihrer Stärken und Schwächen bewussten Innovationskultur lässt sich in diesem Technologiefeld kaum sprechen. Vielmehr orientierten sich die Akteure – insbesondere auf staatlicher Seite – an der Kern- und Elektrotechnik, die das Vertrauen in die eigenen Kompetenzen zu rechtfertigen schienen. Dieser Verunsicherung der Akteure über die Rolle des bundesdeutschen Innovationssystems entsprach auch ihre Positionierung gegenüber dem Ausland. Dabei standen die zahlreichen Kooperationen und Kooperationsversuche der heimischen Rechnerhersteller mit ausländischen Firmen im vielsagenden Kontrast zu den staatlichen Bemühungen, einen nationalen Champion zu kreieren. Und so spricht aus dem unterkühlten Umgang, den das Bundesforschungsministerium mit IBM Deutschland pflegte, ein gehöriges Maß an Hilflosigkeit, denn eigentlich war die Bundesrepublik in den sechziger Jahren gerade im Vergleich zu Frankreich oder Großbritannien multinationalen Unternehmen gegenüber durchaus aufgeschlossen. Die Diskussion um die »technologische Lücke« stand einem entspannten Umgang mit dem Mitbewerber im eigenen Lande offensichtlich im Wege. Mit der Umgewichtung der Förderschwerpunkte im dritten Datenverarbeitungsprogramm begann sich die Forschungs- und Technologiepolitik allmählich von der Idee des nationalen Champion zu verabschieden. Dahinter kam eine Neupositionierung der staatlichen Akteure gegenüber dem Ausland zum Vorschein, die in der Biotechnologieförderung der neunziger Jahre schließlich voll zum Tragen kommen sollte. Anders als in Kerntechnik und elektronischer Datenverarbeitung, in denen die bundesdeutsche Industrie ihren technologischen Rückstand durch den Technologieimport aus dem Ausland auszugleichen versuchte, sah die bundesdeutsche Großchemie in der Biotechnologie zunächst keinen Handlungsbedarf. Die internationale Spitzenposition, die Firmen wie BASF, Bayer und Hoechst gestützt auf den Technologiepfad der or261
NEUE TECHNIK AUF ALTEN PFADEN?
ganisch-chemischen Synthese auch in der Zeit nach dem Zweiten Weltkrieg einnahmen, schien ihr in dieser Haltung Recht zu geben. Das Problem, dass sich der Verlust der wissenschaftlich-technischen Führungsrolle auch in traditionell starken Industriezweigen bemerkbar machen könnte, wurde zunächst auf staatlicher Seite gesehen. Die Forschungsund Technologiepolitik versuchte deshalb durch eine gezielte Förderung der Biotechnologie, das industrielle Spektrum an Innovations- und Produktionsstrategien zu erweitern. Die internationalen Entwicklungen übernahmen dabei von Anfang an Vorbildfunktion. Als die bundesdeutsche Großchemie den Anschluss an die neue Biotechnologie zu verpassen drohte, richtete sie ihre Strategien jedoch neu aus. Der Import des US-amerikanischen Technologiepfades wurde nun zum erklärten Ziel. Unternehmen wie Hoechst, Bayer und BASF knüpften enge Verbindungen zur amerikanischen Gentechnik. Die Orientierung am Ausland diente nun einmal mehr dazu, die Unsicherheiten im eigenen Land zu überwinden. Das betraf auch die Forschungs- und Technologiepolitik und die von ihr eingesetzten Förderinstrumente. In den achtziger und neunziger Jahren wurden die USA zum unangefochtenen Referenzpunkt der bundesdeutschen Biotechnologieentwicklung. Anders als im Fall von Kerntechnik und elektronischer Datenverarbeitung wurde die Rolle der USA als Lehrmeister kaum mehr in Frage gestellt. Von den USA lernen hieß nicht nur die Aneignung von wissenschaftlichem und technologischem Know-how, sondern ebenso die Orientierung an den institutionellen Arrangements, die für den Erfolg der amerikanischen Biotechnologie verantwortlich gemacht wurden, allen voran kleine spezialisierte Biotechnologiefirmen. Die ideologische Überhöhung von Spitztechnologien ist kein typisch deutsches Phänomen. Technonationalism bzw. High-Tech-Fetishism waren und sind weltweite Phänomene.6 Insofern ist es wenig verwunderlich, dass sie auch in der bundesdeutschen Forschungs- und Technologiepolitik immer wieder auftauchen. Der Verlust seiner wissenschaftlich-technischen Führungsrolle war aber eine Erfahrung, die Deutschland nur mit wenigen Ländern teilte und die die Spitzentechnologien, wie die Fallbeispiele zeigen, nochmals in eine anderes Licht setzte. Das staatliche Management der Pfadbildungsprozesse in der Kerntechnik, Datenverarbeitung und Biotechnologie wurde deshalb von dem Problem überlagert, das die Bundesrepublik erst noch in ihre neue Rolle als wissenschaftlich-technische »Mittelmacht« hineinfinden musste. Der geglückte Aufholprozess in der zivilen Kerntechnik setzte dabei das fal6
Für eine Diskussion und Kritik dieses Phänomens siehe Ostry/Nelson 1995.
262
DIE ROLLE DER STAATLICHEN FUT-POLITIK
sche Signal. Denn im Vergleich der untersuchten Technologiefelder war die Kerntechnik mit ihrer niedrigen Entwicklungsdynamik, übersichtlichen Akteurkonstellation, mittleren Wissenschaftsbindung usw. eher die Ausnahme als die Regel (vgl. Tabelle 7-2) und vermittelte daher ein Bild von Spitzentechnik, das weder der Datenverarbeitung noch der Biotechnologie gerecht wurde. Nichtsdestotrotz lieferte es lange Zeit das Modell, aus dem die Forschungs- und Technologiepolitik ihre Strategien im Umgang mit Pfadbildungsprozessen ableitete.
7.3 Fazit Was lässt sich als Fazit aus dieser Arbeit für die staatliche Forschungsund Technologiepolitik ziehen? Zunächst gilt es nochmals, die Bedeutung zu betonen, die der pfadabhängige Charakter des technischen Fortschritts für das staatliche Handeln besitzt. Wenn technischer Fortschritt immer mit Pfadabhängigkeiten einhergeht, dann wird das Management von Pfadbildungsprozessen zu einer zentralen Aufgabe der Forschungsund Technologiepolitik. Ziel ist es, an die Stelle einer spontanen Pfadbildung mit hohem Risiko für unbefriedigende Ergebnisse eine bewusste Pfadwahl zu setzen, in der alle verfügbaren Alternativen im Lichte ihrer Vor- und Nachteile für eine ebenso wirtschaftlich wie sozial und ökologisch wünschbare Technologieentwicklung geprüft werden können. Dass eine Pfadwahl zwar unter Einschränkung des Marktes, nicht aber ohne den Markt erfolgen kann, rufen Fehlschläge wie der Schwerwasserreaktor, der Großrechner TR 440 oder die Einzellereiweißproduktion in Erinnerung, die von der »heroischen Phase« der bundesdeutschen Forschungs- und Technologiepolitik zeugen und die Planbarkeit des technischen Fortschritts in Abrede stellen. Freilich setzt Pfadwahl auch technologische Diversität voraus. Und wo die entsteht, wird es immer Sackgassen und abgebrochene Technologiepfade geben. Die Herausforderung für das staatliche Handeln kann deshalb nicht darin bestehen, das Fehlschlagen von Innovationsversuchen zu vermeiden. Vielmehr geht es darum, sich nach einer Förderung von Diversität in der Suchphase über deren Ende zu verständigen und nach erfolgter Pfadwahl aussichtslose Alternativen abzubrechen, um sie nicht ins Bodenlose abstürzen zu lassen. Gezeigt haben die Fallbeispiele aber ebenso, dass trotz grundsätzlicher Gemeinsamkeiten Pfadbildungsprozesse offenbar keinem einheitlichen Schema folgen. Die Forschungs- und Technologiepolitik ist in jedem Technologiefeld mit einem spezifischen Szenario konfrontiert, auf das sie ihre Strategien abstimmen muss, sollen diese nicht ins Leere lau263
NEUE TECHNIK AUF ALTEN PFADEN?
fen. Für Pfadbildungsprozesse zentral sind sicherlich der Entwicklungsgrad und die Entwicklungsdynamik einer Technologie, das Ausmaß ihrer Wissenschaftsbindung, ihre Interpretation durch die relevanten Akteursgruppen, die Konkurrenzverhältnisse, in der eine Technologie zu anderen Technologien steht, und nicht zuletzt die Akteurkonstellationen, die ein Technologiefeld bestimmen. Deutlich geworden ist schließlich auch die Bedeutung kultureller Faktoren für Pfadbildungsprozesse und deren Management durch die Forschungs- und Technologiepolitik. Wo sich Technologiestrategien an unrealistischen Selbstbildern der Akteure orientieren, ist das Scheitern beinahe schon vorprogrammiert. Eine erfolgreiche Forschungs- und Technologiepolitik setzt deshalb eine sich ihrer Stärken und Schwächen bewussten Innovationskultur voraus. Dass diese ohne Kenntnis der Technikgeschichte nicht zu haben ist, sollte am Ende dieses Buches außer Frage stehen.
264
8 VERZEICHNISSE
8 . 1 Ab k ü r z u n g e n AKW BAK BMAt BMBF BMBW BMF BMFT BMVtg BMwF BMWi CDU CSU DECHEMA DFG DNA DV ENIAC EU EURATOM EWG FDP FuE FuT GBF GG
Atomkraftwerk Bundesarchiv Koblenz Bundesministerium für Atomfragen Bundesministerium für Bildung und Forschung Bundesministerium für Bildung und Wissenschaft Bundesministerium der Finanzen Bundesministerium für Forschung und Technik Bundesministerium der Verteidigung Bundesministerium für wissenschaftliche Forschung Bundesministerium für Wirtschaft Christlich Demokratische Union Deutschlands Christlich-Soziale Union in Bayern Deutsche Gesellschaft für chemisches Apparatewesen Deutsche Forschungsgemeinschaft Deoxyribonucleic acid Datenverarbeitung Electronic Numerical Integrator and Computer Europäische Union Europäische Atomgemeinschaft Europäische Wirtschaftsgemeinschaft Freie Demokratische Partei Forschung und Entwicklung Forschung und Technologie Gesellschaft für Biotechnologische Forschung mbH Grundgesetz 265
NEUE TECHNIK AUF ALTEN PFADEN?
GMBF GO-BT GVO JECC KFA KWG KWI MGH MITI MPG MPI MRC NSP OECD OEEC OTA PERM SCOT SCP SNR SPD SS THTR UNIVAC
Gesellschaft für Molekularbiologische Forschung mbH Geschäftsordnung des Deutschen Bundestages gentechnisch veränderter Organismus Japan Electronic Computer Corporation Kernforschungsanlage Kaiser-Wilhelm-Gesellschaft Kaiser-Wilhelm-Institut Massachusetts General Hospital Ministry of International Trade and Industry Max-Planck-Gesellschaft Max-Planck-Institut Medical Research Council Nettosozialprodukt Organisation for Economic Cooperation and Development Organisation for European Economic Cooperation U.S. Office of Technology Assessment Programmgesteuerte Elektronische Rechenanlage München Social Construction of Technology single cell protein Schneller natriumgekühlter Brüter Sozialdemokratische Partei Deutschlands Schutzstaffel der Nationalsozialistischen Deutschen Arbeiterpartei Thoriumhochtemperaturreaktor Universal Automatic Computer
8 . 2 Ab b i l d u n g e n Abbildung 2-1: Monophyletischer Stammbaum der Wirbeltiere aus Ernst Haeckels Buch »Generelle Morphologie der Organismen« von 1866 Abbildung 2-2: Phasenmodell für das staatliche Management von Pfadbildungsprozessen Abbildung 3-1: Kumulierte Anzahl von Nobelpreisen in Physik und Chemie nach ausgewählten Ländern, 1901–2001 Abbildung 3-2: Entwicklung der staatlichen Wissenschaftsausgaben im Deutschen Reich und der BRD, 1860–1988 Abbildung 3-3: Lineares Modell der Übersetzung von wissenschaftlicher Forschung in technologische Anwendung Abbildung 3-4: Entwicklung der FuE-Ausgaben in der BRD, 1958–2002 266
VERZEICHNISSE
Abbildung 3-5: Entwicklung der staatlichen FuE-Ausgaben für Projekte der gewerblichen Wirtschaft (direkte Förderung), 1962–82 Abbildung 3-6: Relative Entwicklung direkter und indirekter Förderung ziviler FuE in Unternehmen der gewerblichen Wirtschaft durch den Bund, 1974–86 Abbildung 6-1: Patentanteile in den Bereichen organische Chemie und Biochemie an allen deutschen Patentanmeldungen in der Chemie Abbildung 6-2: Länderanteile (in %) an der Gesamtzahl von Publikationen in Biotechnologie und angewandter Mikrobiologie, 1986 Abbildung 6-3: Länderanteile an der Gesamtzahl von Publikationen in Biotechnologie und angewandter Mikrobiologie im Verhältnis zur Einwohnerzahl, 1986 Abbildung 6-4: Entwicklung der Ausgaben des Bundesforschungsministeriums für die Biotechnologie, 1974–94 (in Mio. DM) Abbildung 6-5: Entwicklung von spezialisierten Biotechnologiefirmen (bis 500 Mitarbeiter) in der BRD
8.3 Tabellen Tabelle 4-1: Reaktortypen des Eltviller Programms, Fassung von 1958 Tabelle 4-2: Kernkraftwerksaufträge in der BRD, 1967–77 Tabelle 4-3: Vergleich der Exportvolumina der westlichen Kernkraftwerkhersteller anhand der gelieferten elektrischen Leistung, Stand: 1977 Tabelle 5-1: Vergleich der Rechnerpenetration in ausgewählten Ländern, 1955–65 Tabelle 5-2: DV-Förderung nach Programmen und Förderbereichen, 1967–79 (Ist-Ausgaben in Mio. DM) Tabelle 5-3: Installationsbestand und Herstelleranteile bei Rechnern der Mittleren Datentechnik in der BRD zu Beginn des 3. DV-Programms Tabelle 5-4: IBM-Marktanteile bei Universalrechnern in ausgewählten Ländern Tabelle 6-1: Biologische Professuren an den naturwissenschaftlichen Fakultäten der Universitäten der BRD, Stand: 1960 Tabelle 7-1: Relative Wissenschaftsbindung ausgewählter Technologien Tabelle 7-2: Einflussfaktoren auf die Pfadbildungsprozesse in den untersuchten Technologiefeldern
267
NEUE TECHNIK AUF ALTEN PFADEN?
8.4 Literatur Abbott, Alison (1992): Biotechnology Loses another Battle in Germany, in: Nature 360: 402. Abele, Johannes/Barkleit, Gerhard/Hänseroth, Thomas (Hg.) (2001): Innovationskulturen und Fortschrittserwartungen im geteilten Deutschland, Köln: Böhlau. Abelshauser, Werner (2001): Umbruch und Persistenz. Das deutsche Produktionsregime in historischer Perspektive, in: Geschichte und Gesellschaft 27: 503–523. Adelberger, Karen E. (2000): Semi-Sovereign Leadership? The State’s Role in German Biotechnology and Venture Capital Growth, in: German Politics 9: 103–122. Altenhof, Ralf (2002): Die Enquete-Kommissionen des Deutschen Bundestages, Wiesbaden: Westdeutscher Verlag. Anchordoguy, Marie (1989): Computers Inc. Japan’s Challenge to IBM, Cambridge, Mass./London: Harvard University Press. Archibugi, Daniele/Iammarino, Simona (1999): The policy implications of the globalisation of innovation, in: Research Policy 28: 317–336. Arnold, Erik/Guy, Ken (1986): Parallel Convergence. National Strategies in Information Technology, Westport, Conn.: Quorum Books. Arora, Ashish/Landau, Ralph/Rosenberg, Nathan (1999): Dynamics of Comparative Advantage in the Chemical Industry, in: Mowery/ Nelson (Hg.): Sources of Industrial Leadership, 217–266. Arthur, W. Brian (1988): Competing Technologies: An Overview, in: Dosi, Giovanni/Freeman, Christopher/Nelson, Richard/Silverberg, Gerald/Soete, Luc (Hg.): Technical Change and Economic Theory, London: Pinter, 590–607. Arthur, W. Brian (1994): Increasing Returns and Path Dependence in the Economy, Ann Arbor: The University of Michigan Press. Ash, Mitchell G. (1999): Scientific Changes in Germany 1933, 1945, 1990: Towards a Comparison, in: Minerva 37: 329–354. Bähr, Johannes (1995): Die »amerikanische Herausforderung«. Anfänge der Technologiepolitik in der Bundesrepublik Deutschland, in: Archiv für Sozialgeschichte 35: 115–130. Bassanini, Andrea P./Dosi, Giovanni (2001): When and How Chance and Human Will Can Twist the Arms of Clio: An Essay on Path Dependence in a World of Irreversibilities, in: Raghu/Karnøe (Hg.): Path Dependence and Creation, 41–69. Bauer, Martin (Hg.) (1995): Resistance to New Technology, Cambridge: Cambridge University Press.
268
VERZEICHNISSE
Bautz, Ekkehard (1981): Spätzünder im Gengeschäft. Eine kritische Betrachtung zur Situation der deutschen Genforschung, in: Umschau 81: 610–613. Benz, Arthur (Hg.) (2004): Governance – Regieren in komplexen Regelsystemen. Eine Einführung, Wiesbaden: VS Verlag für Sozialwissenschaften. Berg, Hartmut/Mammen, Gerhard (1981): Alternative Strategien staatlicher Technologieförderung: Eine Analyse der Projekte »Concorde« und »Airbus«, in: Jahrbuch für Sozialwissenschaft 32: 346–379. Beyer, Jürgen (2006): Pfadabhängigkeit. Über institutionelle Kontinuität, anfällige Stabilität und fundamentalen Wandel, Franfurt a.M./ New York: Campus. Bijker, Wiebe E. (1987): The Social Construction of Bakelite: Toward a Theory of Invention, in: Bijker/Hughes/Pinch (Hg.): The Social Construction of Technological Systems, 159–187. BMBF (2000): Bundesbericht Forschung 2000, Bonn/Berlin: Eigenverlag. BMBF (2004): Bundesbericht Forschung 2004, Bonn/Berlin: Eigenverlag. BMBF (2006): Bericht zur technologischen Leistungsfähigkeit Deutschlands 2006, Bonn/Berlin: Eigenverlag. BMBW (1971a): Erster Ergebnisbericht des ad hoc Ausschusses »Neue Technologien« (Schriftenreihe Forschungsplanung 6), Bonn: Eigenverlag. BMBW (1971b): Zweites Datenverarbeitungsprogramm der Bundesregierung, Bonn: Eigenverlag. BMBW (1972): Bundesbericht Forschung IV, Bonn: Eigenverlag. BMFT (1975): Bundesbericht Forschung V, Bonn: Eigenverlag. BMFT (1976): Drittes Datenverarbeitungsprogramm der Bundesregierung 1976–1979, Bonn: Eigenverlag. BMFT (1979): Bundesbericht Forschung VI, Bonn: Eigenverlag. BMFT (1981): Faktenbericht 1981 zum Bundesbericht Forschung, Bonn: Eigenverlag. BMFT (1984): Bundesbericht Forschung 1984, Bonn: Eigenverlag. BMFT (1988): Bundesbericht Forschung 1988, Bonn: Eigenverlag. BMFT (1993): Bundesbericht Forschung 1993, Bonn: Eigenverlag. BMwF (Hg.) (1963): Die Projektwissenschaften (Schriftenreihe Forschung und Bildung 4), München: Gersbach & Sohn. BMwF (1965): Bundesbericht Forschung I, Bonn: Eigenverlag. BMwF (1967): Bundesbericht Forschung II, Bonn: Eigenverlag. BMwF (1969): Bundesbericht Forschung III, Bonn: Eigenverlag.
269
NEUE TECHNIK AUF ALTEN PFADEN?
Böhme, Gernot/van den Daele, Wolfgang/Krohn, Wolfgang (1972): Alternativen in der Wissenschaft, in: Zeitschrift für Soziologie 1: 302– 316. Böhme, Gernot/van den Daele, Wolfgang/Krohn, Wolfgang (1973): Die Finalisierung der Wissenschaft, in: Zeitschrift für Soziologie 2: 128– 144. Brandt, Christina (2004): Metapher und Experiment. Von der Virusforschung zum genetischen Code, Göttingen: Wallstein. Braun, Dietmar (1997): Die politische Steuerung der Wissenschaft. Ein Beitrag zum »kooperativen Staat«, Frankfurt a.M./New York: Campus. Bresnahan, Timothy F./Malerba, Franco (1999): Industrial Dynamics and the Evolution of Firms’ and Nations’ Competitive Capabilities in the World Computer Industry, in: Mowery/Nelson (Hg.): Sources of Industrial Leadership, 79–132. Bruder, Wolfgang/Dose, Nicolai (1986): Zur Bedeutung der Forschungs- und Technologiepolitik (FuTP) für die Entwicklung und den Wandel unserer Gesellschaft, in: Bruder, Wolfgang (Hg.): Forschungs- und Technologiepolitik in der Bundesrepublik Deutschland, Opladen: Westdeutscher Verlag, 11–75. Buchholz, Klaus (1979): Die gezielte Förderung und Entwicklung der Biotechnologie, in: van den Daele et al. (Hg.): Geplante Forschung, 64–116. Bud, Robert (1993): The Uses of Life, Cambridge: Cambridge University Press. Bud, Robert (1995): In the Engine of Industry. Regulators of Biotechnology, 1970–86, in: Bauer (Hg.): Resistance to New Technology, 293–309. Buenstorf, Guido: Demand-Side Innovation. The Case of the Early Mountain Bike Industry, Paper given at the Eighth International Joseph A. Schumpeter Society Conference, Manchester/UK 28th June – 1st July 2000, Jena: May 2000 (http://les1.man.ac.uk/cric/schum peter/papers/36.pdf; 8.11.2000). Bundesrechnungshof (1975): Bemerkungen des Bundesrechnungshofes (1975) zur Bundeshaushaltsrechnung (einschließlich der Bundesvermögensrechnung) für das Haushaltsjahr 1975, Teil I, Frankfurt a.M.: Eigenverlag. Bürgi, Michael (2005): Pharma, Politik und Polypeptide. Die Institutionalisierung der Molekularbiologie in Zürich, 1962–1971, in: Traverse 3: 126–139. Bush, Vannevar (1945): Science, the Endless Frontier. A Report to the President, Washington, D.C.: US Government Printing Office. 270
VERZEICHNISSE
Cahan, David (1989): An Institute for an Empire. The PhysikalischTechnische Reichsanstalt, 1871–1918, Cambridge u.a.: Cambridge University Press. Campbell-Kelly, Martin (2003): From Airline Reservations to Sonic the Hedgehog. A History of the Software Industry, Cambridge, Mass./ London: MIT Press. Campbell-Kelly, Martin/Aspray, William (1996): Computer. A History of the Information Machine, New York: Basic Books. Carlsson, Bo/Jacobsson, Staffan (1997): Diversity Creation and Technological Systems. A Technology Policy Perspective, in: Edquist (Hg.): Systems of Innovation, 266–294. Carson, Cathryn (2002): Nuclear Energy Development in Postwar West Germany: Struggles over Cooperation in the Federal Republic’s First Reactor Station, in: History and Technology 18: 233–270. Carson, Cathryn/Gubser, Michael (2002): Science Advising and Science Policy in Post-War West Germany: The Example of the Deutscher Forschungsrat, in: Minerva 40: 147–179. Cartellieri, Wolfgang (1963): Die Großforschung und der Staat, in: BMwF (Hg.): Die Projektwissenschaften, 3–16. Ceruzzi, Paul E. (2003): A History of Modern Computing, 2nd Edition, Cambridge, Mass./London: MIT Press. Cohendet, Patrick/Llerena, Patrick (1997): Learning, Technical Change, and Public Policy. How to Create and Exploit Diversity, in: Edquist (Hg.): Systems of Innovation, 223–241. Coopey, Richard (Hg.) (2004a): Information Technology Policy. An International History, Oxford/New York: Oxford University Press. Coopey, Richard (2004b): Empire and Technology: Information Technology Policy in Postwar Britain and France, in: ders. (Hg.): Information Technology Policy, 144–168. Cornils, Boy (1996): Die Fischer-Tropsch-Synthese von 1936 bis 1945: Treibstoffsynthese oder Basisreaktion für Chemierohstoffe?, in: Technikgeschichte 64: 205–230. Cowan, Robin (1990): Nuclear Power Reactors: A Study in Technological Lock-in, in: Journal of Economic History 50: 541–567. Cowan, Robin/Gunby, Philip (1996): Sprayed to Death. Path Dependence, Lock-In and Pest Control Strategies, in: Economic Journal 106: 521–542. Culliton, Barbara J. (1982): The Hoechst Department at Mass General, in: Science 216: 1200–1203. Dalum, Bent/Johnson, Björn/Lundvall, Bengt-Åke (1993): Public Policy in the Learning Society, in: Lundvall, Bengt-Åke (Hg.): National
271
NEUE TECHNIK AUF ALTEN PFADEN?
Systems of Innovation. Towards a Theory of Innovation and Interactive Learning, London/New York: Pinter, 296–317. Darius, Frank (2001): Mainframes, in: Rojas, Raúl (Hg.): Encyclopedia of Computers and Computer History, Vol. 2, Chicago/London: Fitzroy Dearborn Publishers, 489–492. David, Paul A. (1985): Clio and the Economics of Qwerty, in: American Economic Review, Papers and Proceedings 75: 332–337. David, Paul A. (1990): Heroes, Herds, and Hysteresis in Technological History: Thomas Edison and the Battle of the Systems Reconsidered, in: Journal of Industrial and Corporate Change 1: 129–180. David, Paul A. (1994): Why are Institutions the »Carriers of History«: Path Dependence and the Evolution of Conventions, Organizations and Institutions, in: Structural Change and Economic Dynamics 5: 205–220. David, Paul A. (1997): Path dependence and the quest for historical economics: one more chorus of the ballad of QWERTY, University of Oxford, Discussion Papers in Economic and Social History, Nr. 20 (http://www.nuff.ox.ac.uk/economics/history/paper20/david3.pdf; 7.3.2007). David, Paul A. (2000): Path Dependence, Its Critics and the Quest for »Historical Economics«, Working Paper, All Souls College, Oxford & Stanford University (http://www-econ.stanford.edu/faculty/workp/ swp00011.pdf; 7.3.2007). David, Paul A. (2006): Path Dependence. A Foundational Concept for Historical Social Science, SIEPR Discussion Paper (http://wwwecon.stanford.edu/faculty/workp/swp06005.pdf; 8.3.2007). de Chadarevian, Soraya (2002): Designs for Life. Molecular Biology after World War II, Cambridge: Cambridge University Press. DECHEMA (1974): Biotechnologie. Eine Studie über Forschung und Entwicklung, Möglichkeiten, Aufgaben und Schwerpunkte der Förderung, Frankfurt a.M.: Eigenverlag. Dehler, Christoph (1998): Hochschulen und Hochschulentwicklung nach 1945, in: Führ, Christoph/Furck, Carl-Ludwig (Hg.): Handbuch der deutschen Bildungsgeschichte. Band VI/1, 1945 bis zur Gegenwart, Erster Teilband: Bundesrepublik Deutschland, München: C. H. Beck, 412–446. Deichmann, Ute (1995): Biologen unter Hitler. Porträt einer Wissenschaft im NS-Staat, 2. Auflage, Frankfurt a.M.: Fischer. Deichmann, Ute (2002): Emigration, Isolation and the Slow Start of Molecular Biology in Germany, in: Studies in History and Philosophy of Biological and Biomedical Science 33: 449–471.
272
VERZEICHNISSE
Deutinger, Stephan (2001): »Eine Lebensfrage für die bayerische Industrie.« Energiepolitik und regionale Energieversorgung 1945 bis 1980, in: Schlemmer, Thomas/Woller, Hans (Hg.): Bayern im Bund. Bd. 1, Die Erschließung des Landes 1949 bis 1973, München/Wien: R. Oldenbourg, 33–118. DiMaggio, Paul (1994): Culture and Economy, in: Smelser, Neil J./ Swedberg, Richard (Hg.): The Handbook of Economic Sociology, Princeton, NJ/New York: Princeton University Press, 27–57. Dohse, Dirk (2000): Technology Policy and the Regions. The Case of the BioRegio Contest, in: Research Policy 29: 1111–1133. Dolata, Ulrich (1996): Politische Ökonomie der Gentechnik. Konzernstrategien, Forschungsprogramme, Technologiewettläufe, Berlin: edition sigma. Dominguez Lacasa, Icíar/Grupp, Hariolf/Schmoch, Ulrich (2003): Tracing Technological Change over Long Periods in Germany in Chemicals Using Patent Statistics, in: Scientometrics 57: 175–195. Dosi, Giovanni (1982): Technological Paradigms and Technological Trajectories, in: Research Policy 11: 147–162. Dosi, Giovanni (1984): Technical change and industrial transformation. The theory and an application to the semiconductor industry, London u.a.: Macmillan. Drews, Jürgen (1998): Die verspielte Zukunft. Wohin geht die Arzneimittelforschung, Basel u.a.: Birkhäuser. Dube, Norbert (1988): Die öffentliche Meinung zur Kernenergie in der Bundesrepublik Deutschland. 1955–1986. Eine Dokumentation, Berlin: Wissenschaftszentrum Berlin für Sozialforschung. Eckert, Michael (1989): Die Anfänge der Atompolitik in der Bundesrepublik Deutschland, in: Vierteljahrshefte für Zeitgeschichte 37: 115– 143. Eckert, Michael/Osietzki, Maria (1989): Wissenschaft für Macht und Markt, München: C. H. Beck. Edquist, Charles (Hg.): Systems of Innovation. Technologies, Institutions and Organisations, London/Washington, D.C.: Pinter. Ernst & Young (2004): Per Aspera Ad Astra. »Der steinige Weg zu den Sternen«. Deutscher Biotechnologie-Report 2004, Mannheim: Eigenverlag Ernst & Young (2006): Zurück in die Zukunft. Deutscher Biotechnologie-Report 2006, Mannheim: Eigenverlag. Fach, Wolfgang/Grande, Edgar (1992): Emergent Rationality in Technological Policy: Nuclear Energy in the Federal Republic of Germany, in: Minerva 30: 14–27.
273
NEUE TECHNIK AUF ALTEN PFADEN?
Flamm, Kenneth (1988): Creating the Computer. Government, Industry, and High Technology, Washington, D.C.: Brookings Institution. Flitner, Michael (1995): Sammler, Räuber und Gelehrte. Die politischen Interessen an pflanzengenetischen Ressourcen 1895–1995, Frankfurt a.M./New York: Campus. Fransman, Martin (1993): The Market and Beyond. Cooperation and Competition in Information Technology Development in the Japanese System, Cambridge: Cambridge University Press. Freeman, Christopher/Poignant, Raymond/Svennilson, Ingvar (1963): Science, economic growth and government policy, Paris: OECD. Freeman, Christopher/Soete, Luc (1997): The Economics of Industrial Innovation, 3rd Edition, Cambridge, Mass.: MIT Press. Freeman, Christopher/Young, A. J. (1965): The Research and Development Effort in Western Europe, North America and the Soviet Union. An Experimental International Comparison of Research Expenditures and Manpower in 1962, Paris: OECD. Gannon, Paul (1997): Trojan Horses & National Champions. The Crisis in Europe’s Computing and Telecommunications Industry, London: Apt-Amatic Books. García-Garibay, M./Gómez-Ruiz, L./Cruz-Guerrero, A. E./Bárzana, E. (2003): Single-Cell Protein. Yeasts and Bacteria, in: Caballero, B./ Trugo, L./Finglas, P. (Hg.): Encyclopedia of Food Sciences and Nutrition, 2nd Edition, Londres: Elsevier Science, 5277–5284. Garud, Raghu/Karnøe, Peter (Hg.) (2001): Path Dependence and Creation, Mahwah u.a.: Lawrence Erlbaum. Giesecke, Susanne (2001): Von der Forschung zum Markt. Innovationsstrategien und Forschungspolitik in der Biotechnologie, Berlin: edition sigma. Godin, Benoît (2002): The Numbers Makers. Fifty Years of Science and Technology Official Statistics, in: Minerva 40: 375–397. Godin, Benoît (2005): The Linear Model of Innovation. The Historical Construction of an Analytical Framework, Project on the History and Sociology of S&T Statistics, Working Paper No. 30 (http://www. csiic.ca/PDF/Godin_30.pdf; 18.5.2006). Görtemaker, Manfred (1999): Geschichte der Bundesrepublik Deutschland. Von der Gründung bis zur Gegenwart, München: C. H. Beck. Grande, Edgar/Häusler, Jürgen (1994): Industrieforschung und Forschungspolitik: Steuerungspotentiale in der Informationstechnik, Frankfurt a.M./New York: Campus. Grupp, Hariolf (1997): Messung und Erklärung des Technischen Wandels. Grundzüge einer empirischen Innovationsökonomik, Berlin u.a.: Springer. 274
VERZEICHNISSE
Grupp, Hariolf/Dominguez Lacasa, Icíar/Friedrich-Nishio, Monika (2002): Das deutsche Innovationssystem seit der Reichsgründung. Indikatoren einer nationalen Wissenschafts- und Technikgeschichte in unterschiedlichen Regierungs- und Gebietsstrukturen, Heidelberg: Physica-Verlag. Grupp, Hariolf/Legler, Harald/Licht, Georg (2004): Technologie und Qualifikation für neue Märkte. Ergänzender Bericht zur technologischen Leistungsfähigkeit Deutschlands 2003–2004, Bonn/Berlin: BMBF. Haeckel, Ernst (1866): Generelle Morphologie der Organismen. Zweiter Band, Allgemeine Entwicklungsgeschichte der Organismen, Berlin: Georg Reimer. Häfele, Wolf (1963): Neuartige Wege naturwissenschaftlich-technischer Entwicklung, in: BMwF (Hg.): Die Projektwissenschaften, 17–38. Hammerstein, Notker (1999): Die Deutsche Forschungsgemeinschaft in der Weimarer Republik und im Dritten Reich. Wissenschaftspolitik in Republik und Diktatur, 1920–1945, München: C. H. Beck. Hansen, Hans Robert (1979): Die EDV-Förderungspolitik der deutschen Bundesregierung und ihre Auswirkungen auf den Datenverarbeitungsmarkt und Ausbildungssektor, in: Hansen et al. (Hg.): Mensch und Computer, 185–206. Hansen, Hans Robert/Schröder, Klaus Theo/Weihe, Herrmann Joachim (Hg.) (1979): Mensch und Computer. Zur Kontroverse über die ökonomischen und gesellschaftlichen Auswirkungen der EDV, München/Wien: R. Oldenbourg. Harding, Rebecca/Paterson, William E. (2000): The Future of the German Economy: An End to the Miracle?, Manchester: Manchester University Press. Harwood, Jonathan (1993): Styles of Scientific Thought. The German Genetics Community, 1900–1933, Chicago/London: University of Chicago Press. Harwood, Jonathan (2005): Technology’s Dilemma. Agricultural Colleges between Science and Practice in Germany, 1860–1934, Bern u.a.: Peter Lang. Hauff, Volker (1978): Damit der Fortschritt nicht zum Risiko wird. Forschungspolitik als Zukunftsgestaltung, Stuttgart: Bonn Aktuell. Hauff, Volker/Scharpf, Fritz W. (1975): Modernisierung der Volkswirtschaft. Technologiepolitik als Strukturpolitik, Köln/Frankfurt a.M.: Europäische Verlagsanstalt. Hecht, Gabrielle (1998): The Radiance of France: Nuclear Power and National Identity after World War II, Cambridge, Mass./London: MIT Press. 275
NEUE TECHNIK AUF ALTEN PFADEN?
Heim, Susanne (Hg.) (2002): Autarkie und Ostexpansion. Pflanzenzucht und Agrarforschung im Nationalsozialismus, Göttingen: Wallstein. Heim, Susanne (2003): Kalorien, Kautschuk, Karrieren. Pflanzenzüchtung und landwirtschaftliche Forschung in Kaiser-Wilhelm-Instituten 1933 bis 1945, Göttingen: Wallstein. Heinemann, Manfred (1990): Der Wiederaufbau der Kaiser-WilhelmGesellschaft und die Neugründung der Max-Planck-Gesellschaft (1945–1949), in: Vierhaus/vom Brocke (Hg.): Forschung im Spannungsfeld von Politik und Gesellschaft, 406–470. Heinrich, Lutz J. (1973): Mittlere Datentechnik. Einige Überlegungen zur Standortbestimmung und Bezeichnung, in: Computer Praxis, Heft 3, 65–70. Henderson, Rebecca/Orsenigo, Luigi/Pisano, Gary P. (2001): The Pharmaceutical Industry and the Revolution in Molecular Biology: Interactions among Scientific, Institutional, and Organizational Change, in: Mowery/Nelson (Hg.): Sources of Industrial Leadership, 267– 311. Herbig, Jost (1982): Der Bio Boom. Möglichkeiten und Gefahren der Gen-Manipulation, Hamburg: Gruner+Jahr. Heyer, Christian/Liening, Stephan (2004): Enquete-Kommissionen des Deutschen Bundestages. Schnittstellen zwischen Politik und Wissenschaft, 2. Auflage, Berlin: Deutscher Bundestag. Hohn, Hans-Willy (1998): Kognitive Strukturen und Steuerungsprobleme der Forschung. Kernphysik und Informatik im Vergleich, Frankfurt a.M./New York: Campus. Hohn, Hans-Willy/Schimank, Uwe (1990): Konflikte und Gleichgewichte im Forschungssystem. Akteurkonstellationen und Entwicklungspfade in der staatlich finanzierten außeruniversitären Forschung, Frankfurt a.M./New York: Campus. Hounshell, David (1996): The Evolution of Industrial Research in the United States, in: Rosenbloom, Richard S./Spencer, William J. (Hg.): U.S. Industrial Research at the End of an Era, Boston, Mass.: Harvard Business School Press, 13–85. Hughes, Thomas P. (1969): Technological Momentum in History: Hydrogenation in Germany 1898–1933, in: Past and Present 44: 106– 132. Hughes, Thomas P. (1983): Networks of Power. Electrification in Western Society, 1880–1930, Baltimore/London: The Johns Hopkins University Press. Hughes, Thomas P. (1987): The Evolution of Large Technological Systems, in: Bijker/Hughes/Pinch (Hg.): The Social Construction of Technological Systems, 51–82. 276
VERZEICHNISSE
Hughes, Thomas P. (1991): Die Erfindung Amerikas. Der technologische Aufstieg der USA seit 1870, München: C. H. Beck. Hughes, Thomas P. (1994): Technological Momentum, in: Smith/Marx (Hg.): Does Technology Drive History, 101–113. ISB, InformationsSekretariat Biotechnologie (1998): Hoechst produziert gentechnisch hergestelltes Insulin, Presserklärung, 16.3.1998 (http:// www.i–s–b.org/aktuelles/news/archiv2.htm#hoechst; 23.9.2003). Janisch, Heinz (1988): 30 Jahre Siemens-Datenverarbeitung. Geschichte des Bereichs Datenverarbeitung 1954–1984, München: Siemens Aktiengesellschaft. Jasanoff, Sheila (1985): Technological Innovation in a Corporatist State. The Case of Biotechnology in the Federal Republic of Germany, in: Research Policy 14: 23–38. Jasanoff, Sheila (1995): Product, Process, or Programme. Three Cultures and the Regulation of Biotechnology, in: Bauer (Hg.): Resistance to New Technology, 311–331. Joerges, Bernward (1988): Large technical systems. Concepts and issues, in: Mayntz, Renate/Hughes, Thomas P. (Hg.): The Development of Large Technical Systems, Frankfurt a.M./New York: Campus, 9–36. Kahn, Patricia (1992): Germany’s Gene Law Begins to Bite, in: Science 255: 524–526. Kaiser, Robert (2008): Innovationspolitik. Staatliche Steuerungskapazitäten beim Aufbau wissensbasierter Industrien im internationalen Vergleich, Baden-Baden: Nomos. Kaiser, Robert/Prange, Heiko (2004): The Reconfiguration of National Innovation Systems. The Example of German Biotechnology, in: Research Policy 33: 395–408. Keck, Otto (1980): Government Policy and Technical Choice in the West German Reactor Programme, in: Research Policy 9: 202–256. Keck, Otto (1981): Policymaking in a Nuclear Program. The Case of the West German Fast Breeder Reactor, Lexington, Mass.: Lexington Books. Keck, Otto (1993): The National System for Technical Innovation in Germany, in: Nelson (Hg.): National Innovation Systems, 115–157. Kemper, Klaus (1986): Heinz Nixdorf. Eine deutsche Karriere, Landsberg, Lech: verlag moderne industrie. Kenney, Martin (1986): Biotechnology: The University-Industrial Complex, New Haven/London: Yale University Press. Kiesinger, Kurt Georg (1971): Regierungserklärung des Bundeskanzlers am 13. Dezember 1966 vor dem Deutschen Bundestag in Bonn, in:
277
NEUE TECHNIK AUF ALTEN PFADEN?
Behn, Hans Ulrich (Hg.): Die Regierungserklärungen der Bundesrepublik Deutschland, München/Wien: G. Olzog, 185–204. Kirchner, Ulrich (1991): Der Hochtemperaturreaktor. Konflikte, Interessen, Entscheidungen, Frankfurt a.M./New York: Campus. Kitschelt, Herbert (1980): Kernenergiepolitik. Arena eines gesellschaftlichen Konflikts, Frankfurt a.M./New York: Campus. Klemm, Volker (1979): Der Aufschwung der Agrarwissenschaften in Deutschland und ihre wachsende Bedeutung als Produktivkraft (Ende des 18. Jahrhunderts bis 1870/80), in: Lärmer, Karl (Hg.): Studien zur Geschichte der Produktivkräfte. Deutschland zur Zeit der Industriellen Revolution, Berlin: Akademie Verlag, 183–214. Klemm, Volker (1994): Agrarwissenschaften im »Dritten Reich«. Aufstieg oder Sturz? (1933–1945), Berlin: Eigenverlag. Kohl, Helmut (1982): Regierungserklärung des Bundeskanzlers am 13. Oktober 1982 vor dem Deutschen Bundestag in Bonn, »Koalition der Mitte: Für eine Politik der Erneuerung«, in: Bulletin, Nr. 93, Bonn, 14. Oktober 1982, 853–868. König, Wolfgang (1993): Technical Education and Industrial Performance in Germany: A Triumph of Heterogeneity, in: Fox, Robert/ Guagnini, Anna (Hg.): Education, Technology and Industrial Performance in Europe, 1850–1939, Cambridge: Cambridge University Press, 65–87. König, Wolfgang (1995): Technikwissenschaften. Die Entstehung der Elektrotechnik aus Industrie und Wissenschaft zwischen 1880 und 1914, Chur: G+B Verlag Fakultas. Korbmann, Reiner (1981): Genetisches Flachland, in: Umschau 81: 609. Kranakis, Eda (2004): Politics, Business, and European Information Technology Policy: From the Treaty of Rome to Unidata, 1958– 1975, in: Coopey (Hg.): Information Technology Policy, 209–246. Krieger, Wolfgang (1987): Zur Geschichte von Technologiepolitik und Forschungsförderung in der Bundesrepublik Deutschland. Eine Problemskizze, in: Vierteljahrshefte für Zeitgeschichte 35: 247–271. Krull, Wilhelm/Meyer-Krahmer, Frieder (1996): Science, Technology, and Innovation in Germany – Changes and Challenges in 1990s, in: dies. (Hg.): Science and Technology in Germany, New Edition, London: Cartermill, 3–29. Krull, Wilhelm/Sommer, Simon (2006): Die deutsche Vereinigung und die Systemevaluation der deutschen Wissenschaftsorganisationen, in: Weingart/Taubert (Hg.): Das Wissensministerium, 200–235. Küpfmüller, Karl (1956): Forschung auf dem Gebiet der elektronischen Rechenmaschinen, in: Deutsche Forschungsgemeinschaft (Hg.): Angewandte Forschung in der Bundesrepublik Deutschland. Lage und 278
VERZEICHNISSE
Ausbaunotwendigkeiten, Teil I, Bad Godesberg: Deutsche Forschungsgemeinschaft, 111–116. Küppers, Günter/Lundgreen, Peter/Weingart, Peter (1978): Umweltforschung – die gesteuerte Wissenschaft. Eine empirische Studie zum Verhältnis von Wissenschaftsentwicklung und Wissenschaftspolitik, Frankfurt a.M.: Suhrkamp. Lewin, Peter (2001): The Market Process and the Economics of Qwerty: Two Views, in: Review of Austrian Economics 14: 65–96. Lewis, Jeffrey W. (2002): Continuity in German Science, 1937–1972: Genealogy and Strategies of the TMV/Molecular Biology Community, Ph. D. diss., Ohio State University. Liebowitz, Stan J./Margolis, Stephen E. (1995a): Path Dependence, Lock–In, and History, in: Journal of Law, Economics, and Organisation 11: 205–226. Liebowitz, Stan J./Margolis, Stephen E. (1995b): Policy and Path Dependence. From Qwerty to Windows 95, in: Regulation, The Cato Review of Business & Government 18/3: 33–41. Lundgreen, Peter/Horn, Bernd/Krohn, Wolfgang/Küppers, Günter/Paslack, Rainer (1986): Staatliche Forschung in Deutschland, 1870– 1980, Frankfurt a.M./New York: Campus. Maddison, Angus (2001): The World Economy. A Millennial Perspective, Paris: OECD. Mahoney, Michael S. (1988): The History of Computing in the History of Technology, in: Annals of the History of Computing 10: 113–125. Mainzer, Klaus (1979): Entwicklungsfaktoren der Informatik in der Bundesrepublik Deutschland, in: van den Daele et al. (Hg.): Geplante Forschung, 117–180. Manegold, Karl Heinz (1989): Geschichte der Technischen Hochschulen, in: Boehm, Laetitia/Schönbeck, Charlotte (Hg.): Technik und Bildung, Düsseldorf: VDI Verlag, 204–234. Marsch, Ulrich (1994): Notgemeinschaft der Deutschen Wissenschaft. Gründung und frühe Geschichte 1920–1925, Frankfurt a.M. u.a.: Peter Lang. Marschall, Luitgard (2000): Im Schatten der chemischen Synthese. Industrielle Biotechnologie in Deutschland (1900–1970), Frankfurt a.M./New York: Campus. Marth, W./Koehler, M. (1998): The German Fast Breeder Program (A Historical Overview), in: Energy 23: 593–608. Mayntz, Renate (1993): Große technische Systeme und ihre gesellschaftstheoretische Bedeutung, in: Kölner Zeitschrift für Soziologie und Sozialpsychologie 45: 97–108.
279
NEUE TECHNIK AUF ALTEN PFADEN?
Mayntz, Renate (1996): Politische Steuerung: Aufstieg, Niedergang und Transformation einer Theorie, in: von Beyme, Klaus/Offe, Claus (Hg.): Politische Theorien in der Ära der Transformation, Opladen: Westdeutscher Verlag, 148–168. Mayntz, Renate (2000): Triebkräfte der Technikentwicklung und die Rolle des Staates, in: Simonis, Georg/Martinsen, Renate/Saretzki, Thomas (Hg.): Politik und Technik. Analysen zum Verhältnis von technologischem, politischem und staatlichem Wandel am Anfang des 21. Jahrhunderts (Politische Vierteljahresschrift, Sonderheft 31), Wiesbaden: Westdeutscher Verlag, 3–18. McClelland, Charles E. (1980): State, society, and university in Germany, 1700–1914, Cambridge u.a.: Cambridge University Press. McKelvey, Maureen (2000): Evolutionary Innovations. The Business of Biotechnology, Oxford/New York: Oxford University Press. Metcalfe, Stan (1987): Technical change, in: Eatwell, John/Milgate, Murray/Newman, Peter (Hg.): The New Palgrave. A Dictionary of Economics, London/Basingstoke: Palgrave Macmillan, 617–620. Metcalfe, Stan/Georghiou, Luke (1997): Equilibrium and Evolutionary Foundations of Technology Policy, CRIC, The University of Manchester, CRIC Discussion Paper No. 3, September 1997 (http:// les1.man.ac.uk/cric/papers.htm; 8.11.2000). Metzler, Gabriele (2005): Konzeptionen politischen Handelns von Adenauer bis Brandt. Politische Planung in pluralistischen Gesellschaften, Paderborn u.a.: Ferdinand Schöningh. Meyer, Uli/Schubert, Cornelius (2007): Integrating path dependency and path creation in a general understanding of path constitution. The role of agency and institutions in the stabilisation of technological innovations, in: Science, Technology & Innovation Studies 3: 23–44. Meyer-Thurow, Georg (1982): The Industrialization of Invention: A Case Study From the German Chemical Industry, in: Isis 73: 363–381. Morange, Michel (1998): A History of Molecular Biology, Cambridge, Mass.: Harvard University Press. Mowery, David C./Rosenberg, Nathan (1979): The influence of market demand upon innovation: a critical review of some recent empirical studies, in: Research Policy 8: 102–153. Mowery, David C./Rosenberg, Nathan (1993): The U.S. National Innovation System, in: Nelson (Hg.): National Innovation Systems, 29– 75. Mowery, David C./Nelson, Richard R. (Hg.) (1999): Sources of Industrial Leadership. Studies of Seven Industries, Cambridge: Cambridge University Press.
280
VERZEICHNISSE
Müller, Rainer A. (1990): Geschichte der Universität. Von der mittelalterlichen Universitas zur deutschen Hochschule, München: Callwey. Müller, Wolfgang D. (1990): Geschichte der Kernenergie in der Bundesrepublik Deutschland. Anfänge und Weichenstellung, Stuttgart: Schäffer-Poeschel. Müller, Wolfgang D. (1996): Geschichte der Kernenergie in der Bundesrepublik Deutschland. Band II: Auf der Suche nach dem Erfolg. Die Sechziger Jahre, Stuttgart: Schäffer-Poeschel. Munzel, Jörg (1998): Ingenieure des Lebendigen und des Abstrakten. Die Entwicklung der Biotechnologie und der Informatik an der Technischen Universität Carolo-Wilhelmina zu Braunschweig, Hildesheim u.a.: Georg Olms Verlag. Nelson, Richard R. (Hg.) (1993): National Innovation Systems. A Comparative Analysis, New York/Oxford: Oxford University Press. Nelson, Richard R./Winter, Sidney G. (1977): In Search of a Useful Theory of Innovation, in: Research Policy 6: 36–76. Nelson, Richard R./Winter, Sidney G. (1982): An Evolutionary Theory of Economic Change, Cambridge, Mass./London: Belknap Press. North, Douglass C. (1990): Institutions, Institutional Change and Economic Performance, Cambridge: Cambridge University Press. Olby, Robert C. (1994): The Path to the Double Helix. The Discovery of DNA, Reprint (Original 1974), New York: Dover Publications Inc. Ostry, Sylvia/Nelson, Richard R. (1995): Techno-Nationalism and Techno-Globalism. Conflict and Cooperation, Washington, D.C.: The Brookings Institution. OTA, U.S. Office of Technology Assessment (1984): Commercial Biotechnology. An International Analysis, New York u.a.: Pergamon Press. Parayil, Govindan (1993): Models of Technological Change. A Critical Review of Current Knowledge, in: History and Technology 10: 105– 126. Petzold, Hartmut (1985): Rechnende Maschine. Eine historische Untersuchung ihrer Herstellung und Anwendung vom Kaiserreich bis zur Bundesrepublik, Düsseldorf: VDI. Petzold, Hartmut (1992): Moderne Rechenkünstler. Die Industrialisierung der Rechentechnik in Deutschland, München: C. H. Beck. Petzold, Hartmut (2000): Konrad Zuse and Industrial Manufacturing of Electronic Computers in Germany, in: Rojas, Raúl/Hashagen, Ulf (Hg.): The First Computers. History and Architectures, Cambridge, Mass./London: MIT Press, 315–322. Pfetsch, Frank R. (1974): Zur Entwicklung der Wissenschaftspolitik in Deutschland, 1750–1914, Berlin: Duncker & Humblot. 281
NEUE TECHNIK AUF ALTEN PFADEN?
Piloty, Hans (1956): Die Entwicklung der PERM, in: Nachrichtentechnische Fachberichte (Beihefte der NTZ) 4: 40–45. Pinch, Trevor J./Bijker, Wiebe E. (1987): The Social Construction of Facts and Artifacts: Or How the Sociology of Science and the Sociology of Technology Might Benefit Each Other, in: Bijker/ Hughes/Pinch (Hg.): The Social Construction of Technological Systems, 17–50. Pisano, Gary P. (2006): Science Business. The Promise, the Reality, and the Future of Biotech, Boston, Mass.: Harvard Business School Press. Plumpe, Gottfried (1990): Die I.G. Farbenindustrie AG. Wirtschaft, Technik und Politik 1904–1945, Berlin: Duncker & Humblot. Posner, Eberhard (1981): Kernenergie als Beispiel öffentlicher Innovationsförderung, Essen: Glückauf. Prange, Heiko (2006): Wege zum Innovationsstaat. Globalisierung und der Wandel nationaler Forschungs- und Technologiepolitiken, Baden-Baden: Nomos. Puffert, Douglas (2000): The Standardization of Track Gauge on North American Railways, 1830–1890, in: Journal of Economic History 60: 933–960. Puffert, Douglas (2009): Pfadabhängigkeit in der Wirtschaftsgeschichte, in: Herrmann-Pillath, Carsten/Lehmann-Waffenschmidt, Marco (Hg.): Handbuch zur evolutorischen Ökonomik, Bd. 3, Heidelberg: Springer (im Erscheinen). Radkau, Joachim (1978a): Kernenergieentwicklung in der Bundesrepublik ein Lernprozeß?, in: Geschichte und Gesellschaft 4: 195–222. Radkau, Joachim (1978b): Nationalpolitische Dimensionen der Schwerwasser-Reaktorlinie in den Anfängen der bundesdeutschen Kernenergie-Entwicklung, in: Technikgeschichte 45: 229–256. Radkau, Joachim (1983): Aufstieg und Krise der deutschen Atomwirtschaft 1945–1975. Verdrängte Alternativen in der Kerntechnik und der Ursprung der nuklearen Kontroverse, Reinbek: Rowohlt. Radkau, Joachim (2006): Der atomare Ursprung der Forschungspolitik des Bundes, in: Weingart/Taubert (Hg.): Das Wissensministerium, 33–63. Rebentrost, Inken (2006): Das Labor in der Box. Technikentwicklung und Unternehmensgründung in der frühen deutschen Biotechnologie, München: C. H. Beck. Reith, Reinhold/Pichler, Rupert/Dirninger, Christian (Hg.) (2006): Innovationskultur in historischer und ökonomischer Perspektive. Modelle, Indikatoren und regionale Entwicklungslinien, Innsbruck: StudienVerlag. 282
VERZEICHNISSE
Rheinberger, Hans-Jörg (1998): Kurze Geschichte der Molekularbiologie, in: Ilse Jahn (Hg.): Geschichte der Biologie, 3. neubearbeitete Auflage, Jena u.a.: Gustav Fischer, 642–663. Rheinberger, Hans-Jörg (2002): Die Stiftung Volkswagenwerk und die Neue Biologie. Streiflichter auf eine Förderbiographie, in: Volkswagenstiftung (Hg.): Impulse geben – Wissen stiften. 40 Jahre Volkswagenstiftung, Göttingen: Vandenhoeck & Ruprecht, 197–235. Ritter, Gerhard A./Szöllösi-Janze, Margit/Trischler, Helmuth (Hg.) (1999): Antworten auf die amerikanische Herausforderung. Forschung in der Bundesrepublik und der DDR in den »langen« siebziger Jahren, Frankfurt a.M./New York: Campus. Rosenberg, Nathan (1994): Path-dependent Aspects of Technological Change, in: ders.: Exploring the Black Box. Technology, Economics, and History, Cambridge: Cambridge University Press, 9–23. Ruck, Michael (2000): Ein kurzer Sommer der konkreten Utopie. Zur westdeutschen Planungsgeschichte in den langen 60er Jahren, in: Schildt, Axel/Siegfried, Detlef/Lammers, Karl Christian (Hg.): Dynamische Zeiten. Die 60er Jahre in den beiden deutschen Gesellschaften, Hamburg: Hans Christians Verlag, 362–401. Rusinek, Bernd-A. (1993): »Kernenergie, schöner Götterfunken!« Die »umgekehrte Demontage«. Zur Kontextgeschichte der Atomeuphorie, in: Kultur & Technik, Heft 4: 15–21. Rusinek, Bernd-A. (1996): Das Forschungszentrum. Eine Geschichte der KFA Jülich von ihrer Gründung bis 1980, Frankfurt a.M./New York: Campus. Rusinek, Bernd-A. (2004): Die Rolle der Experten in der Atompolitik am Beispiel der Deutschen Atomkommission, in: Fisch, Stefan/ Rudloff, Wilfried (Hg.): Experten und Politik: Wissenschaftliche Politikberatung in geschichtlicher Perspektive, Berlin: Duncker & Humblot, 189–210. Sahal, Devendra (1985): Technological guideposts and innovation avenues, in: Research Policy 14: 61–82. Schmoch, Ulrich (2003): Hochschulforschung und Industrieforschung. Perspektiven der Interaktion, Frankfurt a.M./New York: Campus. Schneider, Volker (1989): Technikentwicklung zwischen Politik und Markt. Der Fall Bildschirmtext, Frankfurt a.M./New York: Campus. Servan-Schreiber, Jean-Jaques (1968): Die amerikanische Herausforderung, Hamburg: Hoffmann und Campe. Sharp, Margaret (1996): The Science of Nations: European Multinationals and American Biotechnology, STEEP Discussion Paper No. 28, Sussex: SPRU, University of Sussex.
283
NEUE TECHNIK AUF ALTEN PFADEN?
Siegenthaler, Hansjörg (1999): Geschichte und Ökonomie nach der kulturalistischen Wende, in: Geschichte und Gesellschaft 25: 276–301. Smith Hughes, Sally (2001): Making Dollar out of DNA. The First Major Patent in Biotechnology and the Commercialization of Molecular Biology, 1974–1980, in: Isis 92: 541–575. Smith, Merritt R./Marx, Leo (Hg.) (1994): Does Technology Drive History? The Dilemma of Technological Determinism, Cambridge, Mass./London: MIT Press. Sommerlatte, Tom/Walsh, Ian (1982): Die Entwicklung der Datenverarbeitung in der Bundesrepublik Deutschland. Programmbewertung der DV-Förderung des BMFT 1967 bis 1979, BMFT: Forschungsbericht DV 82-004. Stamm, Thomas (1981): Zwischen Staat und Selbstverwaltung. Die deutsche Forschung im Wiederaufbau, 1945–1965, Köln: Verlag Wissenschaft und Politik. Stamm-Kuhlmann, Thomas (1990): Deutsche Forschung und internationale Integration, in: Vierhaus/vom Brocke (Hg.): Forschung im Spannungsfeld von Politik und Gesellschaft, 886–909. Standke, Klaus-Heinrich (1967): Die »technologische Lücke« zwischen der Vereinigten Staaten und Europa. Zur Definition des Problems, in: Europa-Archiv 16: 593–600. Steinhaus, Hanns (1956): Elektronen-Rechner aus deutscher und amerikanischer Sicht, in: Der Betrieb 12: 117–119, 149–152. Stokes, Donald E. (1997): Pasteur’s Quadrant. Basic Science and Technological Innovation, Washington, D.C.: Brookings Institution. Stokes, Raymond G. (1994): Opting for Oil. The Political Economy of Technological Change in the West German Chemical Industry, 1945–1961, Cambridge: Cambridge University Press. Stoltenberg, Gerhard (1969): Staat und Wissenschaft. Zukunftsaufgaben der Wissenschafts- und Bildungspolitik, Stuttgart: Seewald Verlag. Strasser, Bruno (2002): Institutionalizing Molecular Biology in Postwar Europe. A Comparative Study, in: Studies in the History and Philosophy of Science, 33: 533–564. Strauß, Franz Josef (1956): Der Staat in der Atomwirtschaft, in: Atomwirtschaft 1: 2–5. Stucke, Andreas (1993): Institutionalisierung der Forschungspolitik. Entstehung, Entwicklung und Steuerungsprobleme des Bundesforschungsministeriuns, Frankfurt a.M./New York: Campus. Szöllösi-Janze, Margit (2005): Science and Social Space. Transformations in the Institutions of Wissenschaft from the Wilhelmine Empire to the Weimar Republic, in: Minerva 43: 339–360.
284
VERZEICHNISSE
Szöllösi-Janze, Margit/Trischler, Helmuth (Hg.) (1990a): Großforschung in Deutschland, Frankfurt a.M./New York: Campus. Szöllösi-Janze, Margit/Trischler, Helmuth (1990b): Entwicklungslinien der Großforschung in der Bundesrepublik Deutschland, in: dies. (Hg.): Großforschung in Deutschland, 13–20. Trischler, Helmuth (1990): Planungseuphorie und Forschungssteuerung in den 1960er Jahren in der Luft- und Raumfahrtforschung, in: Szöllösi-Janze/Trischler (Hg.): Großforschung in Deutschland, 117–139. Trischler, Helmuth (1999): Die »amerikanische Herausforderung« in den »langen« siebziger Jahren. Konzeptionelle Überlegungen, in: Ritter et al. (Hg.): Antworten auf die amerikanische Herausforderung, 11–18. Trischler, Helmuth (2002): Nationales Sicherheitssystem – nationales Innovationssystem. Militärische Forschung und Technik in Deutschland in der Epoche der Weltkriege, in: Thoß, Bruno/Volkmann, Erich (Hg.): Erster Weltkrieg, Zweiter Weltkrieg. Ein Vergleich, Paderborn: Schöningh, 107–131. Trischler, Helmuth/vom Bruch, Rüdiger (1999): Forschung für den Markt. Geschichte der Fraunhofer-Gesellschaft, München: C. H. Beck. van den Belt, Henk/Rip, Arie (1987): The Nelson-Winter-Dosi Model and Synthetic Dye Chemistry, in: Bijker/Hughes/Pinch (Hg.): The Social Construction of Technological Systems, 135–158. van den Daele, Wolfgang/Krohn, Wolfgang/Weingart, Peter (Hg.) (1979a): Geplante Forschung. Vergleichende Studien über den Einfluß politischer Programme auf die Wissenschaftsentwicklung, Frankfurt a.M.: Suhrkamp. van den Daele, Wolfgang/Krohn, Wolfgang/Weingart, Peter (1979b): Die politische Steuerung der wissenschaftlichen Entwicklung, in: van den Daele et al. (Hg.): Geplante Forschung, 11–63. van den Daele, Wolfgang/Weingart, Peter (1975): Resistenz und Rezeptivität – Zu den Entstehungsbedingungen neuer Disziplinen durch wissenschaftspolitische Steuerung, in: Zeitschrift für Soziologie 4: 146–164. van den Ende, Jan/Wijnberg, Nachoem/Meijer, Albert (2004): The Influence of Dutch and EU Government Policies on Philips’ Information Technology Product Strategy, in: Coopey (Hg.): Information Technology Policy, 187–208. Veelken, Reinhard (1984): Der Siemens-Digitalrechner 2002. Ein Rückblick nach 25 Jahren, in: Schuchmann, Hans-Rainer/Zemanek, Heinz (Hg.): Computertechnik im Profil, München/Wien: R. Oldenbourg, 87–90. 285
NEUE TECHNIK AUF ALTEN PFADEN?
Vierhaus, Rudolf/vom Brocke, Bernhard (Hg.) (1990): Forschung im Spannungsfeld von Politik und Gesellschaft. Geschichte und Struktur der Kaiser-Wilhelm-/Max-Planck-Gesellschaft, Stuttgart: Deutsche Verlagsanstalt. vom Brocke, Bernhard (1990): Die Kaiser-Wilhelm-Gesellschaft im Kaiserreich. Vorgeschichte, Gründung und Entwicklung bis zum Ausbruch des Ersten Weltkriegs, in: Vierhaus/vom Brocke (Hg.): Forschung im Spannungsfeld von Politik und Gesellschaft, 17–162. von Beuzekom, Brigitte (2001): Biotechnology Statistics in OECD Member Countries. Compendium of Existing National Statistics, STI Working Papers 2001/6, Paris: OECD. von Sydow, Friedrich (1970): Die TR-440-Staffel. Vom mittleren Rechensystem bis zum dialogfähigen Teilnehmer-Rechensystem, in: Datenverarbeitung – Beihefte der Technischen Mitteilungen der AEG-Telefunken 3/3: 101–104. Vowe, Gerhard (1991): Technik im parlamentarischen Diskurs. Die Enquete-Kommissionen des Deutschen Bundestages zum Verhältnis von Technik und Politik, Darmstadt/Berlin: unveröff. Habilitationsschrift. Walker, Mark (1990): Die Uranmaschine. Mythos und Wirklichkeit der deutschen Atombombe, Berlin: Siedler. Walker, William (2000): Entrapment in Large Technology Systems: Institutional Commitment and Power Relations, in: Research Policy 29: 833–846. Weingart, Peter/Küppers, Günter/Lundgreen, Peter (1976): Wissenschaftspolitik und Wissenschaftsentwicklung, in: Weingart, Peter: Wissensproduktion und soziale Struktur, Frankfurt a.M.: Suhrkamp. Weingart, Peter/Taubert, Niels C. (Hg.) (2006): Das Wissensministerium. Ein halbes Jahrhundert Forschungs- und Bildungspolitik in Deutschland, Weilerswist: Velbrück Wissenschaft. Weissermel, Klaus (1981): Fehlt bei uns die Spitzenforschung? Gespräch mit Hoechst-Forschungsvorstand Prof. Klaus Weissermel, in: Umschau 81: 614–616. Wengenroth, Ulrich (1993): Die Technische Hochschule nach dem Zweiten Weltkrieg. Auf dem Weg zu High-Tech und Massenbetrieb, in: ders. (Hg.): Die Technische Universität München. Annäherungen an ihre Geschichte, München: Technische Universität. Wengenroth, Ulrich (1997): Technischer Fortschritt, Deindustrialisierung und Konsum. Eine Herausforderung für die Technikgeschichte, in: Technikgeschichte 64: 1–18. Wengenroth, Ulrich (2001): Vom Innovationssystem zur Innovationskultur. Perspektivwechsel in der Innovationsforschung, in: Abele et 286
VERZEICHNISSE
al. (Hg.): Innovationskulturen und Fortschrittserwartungen im geteilten Deutschland, 23–32. Wengenroth, Ulrich (2002): Die Flucht in den Käfig: Wissenschaftsund Innovationskultur in Deutschland 1900–1960, in: vom Bruch, Rüdiger/Kaderas, Brigitte (Hg.): Wissenschaften und Wissenschaftspolitik. Bestandsaufnahme zu Formationen, Brüchen und Kontinuitäten im Deutschland des 20. Jahrhunderts, Stuttgart: Franz Steiner, 52–59. Wengenroth, Ulrich (2007): Innovationskultur in Deutschland. Rahmenbedingungen der Wissenschafts- und Technologiepolitik (http:// www.lrz-muenchen.de/~Ulrich_Wengenroth/Arbeits-papiere/UWInnovationskultur-in-D-12-07.pdf; 28.7.2008). Wenkel, Simone/Deichmann, Ute (Hg.) (2007): Max Delbrück and Cologne. An Early Chapter of German Molecular Biology, New Jersey: World Scientific. Weyer, Johannes (2006): Die Raumfahrtpolitik des Bundesforschungsministeriums, in: Weingart/Taubert (Hg.): Das Wissensministerium, 64–91. Wiegand, Josef (1994): Informatik und Großforschung. Geschichte der Gesellschaft für Mathematik und Datenverarbeitung, Frankfurt a.M./ New York: Campus. Wieland, Thomas (2002): »Die politischen Aufgaben der deutschen Pflanzenzüchtung.« NS-Ideologie und die Forschungsarbeiten der akademischen Pflanzenzüchter, in: Heim (Hg.): Autarkie und Ostexpansion, 35–56. Wieland, Thomas (2004): »Wir beherrschen den pflanzlichen Organismus besser,…«. Wissenschaftliche Pflanzenzüchtung in Deutschland, 1889–1945, München: Deutsches Museum. Wieland, Thomas (2006): Innovationskultur: theoretische und empirische Annäherungen an einen Begriff, in: Reith et al. (Hg.): Innovationskultur in historischer und ökonomischer Perspektive, 21-38. Wischermann, Clemens (1998): Vom Gedächtnis und den Institutionen. Ein Plädoyer für die Einheit von Kultur und Wirtschaft, in: Schremmer, Eckart (Hg.): Wirtschafts- und Sozialgeschichte. Gegenstand und Methode, Stuttgart: Steiner, 19–33. Wolf, Hans-Georg (1996): Organisationsschicksale im deutschen Vereinigungsprozeß: die Entwicklungswege der Institute der Akademie der Wissenschaften der DDR, Frankfurt a.M./New York: Campus. Wolfrum, Edgar (2006): Die geglückte Demokratie. Geschichte der Bundesrepublik Deutschland von ihren Anfängen bis zur Gegenwart, Stuttgart: Klett-Cotta.
287
NEUE TECHNIK AUF ALTEN PFADEN?
Wollmann, Hellmut (1989): Entwicklungslinien der Technologiepolitik in Deutschland. Bestimmungsfaktoren, Zielsetzungen und politische Zuständigkeiten, in: Hucke, Jochen/Wollmann, Hellmut (Hg.): Dezentrale Technologiepolitik? Technikförderung durch Bundesländer und Kommunen, Basel: Birkhäuser Verlag, 35–75. Wright, Susan (1986): Recombinant DNA Technology and Its Social Transformation, 1972–1982, in: Osiris (2nd series) 2: 303–360. Yonekura, Seiichiro (2004): »Beat IBM.« Entrepreneurial Bureaucracy: A Contradiction in Terms? in: Coopey (Hg.): Information Technology Policy, 121–143. Yost, Jeffrey R. (2005): The Computer Industry, Westport, Conn./ London: Greenwood Press. Zarnitz, Marie Luise (1968): Molekulare und physikalische Biologie. Bericht zur Situation eines interdisziplinären Forschungsgebietes in der Bundesrepublik Deutschland. Erstattet im Auftrag der Stiftung Volkswagenwerk, Göttingen: Vandenhoek & Ruprecht. Zellmer, Rolf (1990): Die Entstehung der deutschen Computerindustrie. Von den Pionierleistungen Konrad Zuses und Gerhard Dirks bis zu den ersten Serienprodukten der 50er und 60er Jahre, Diss., Univ. Köln. Ziegler, J. Nicholas (1999): Technologiepolitik. Innovationsstrategien in Deutschland und Frankreich, Frankfurt a.M./New York: Campus. Zierold, Kurt (1968): Forschungsförderung in drei Epochen, Wiesbaden: Steiner.
288
Danksagung Einen Großteil der Arbeiten zu diesem Buch habe ich zwischen August 1999 und Dezember 2004 im Rahmen des vom Bundesministerium für Bildung und Forschung getragenen Forschungsverbundes »Innovationskultur in Deutschland« durchgeführt. Herzlich danken möchte ich Ulrich Wengenroth, der diesen Verbund aus der Taufe gehoben, mit großem Engagement geleitet und mir die Möglichkeit gegeben hat, darin über Pfadabhängigkeiten des bundesdeutschen Innovationssystems zu forschen. Herr Wengenroth hat meine Arbeit mit vielen guten Ratschlägen begleitet, mit kritischem Blick meine Texte und schließlich auch das gesamte Buchmanuskript gelesen und für eine ebenso anregende wie angenehme Arbeitsatmosphäre an seinem Institut gesorgt. Danken möchte ich auch den Projektleitern und Projektmitarbeitern des Forschungsverbundes – namentlich seien aus der letzten Förderphase Helmuth Albrecht, Icíar Dominguez Lacasa, Peter Dorsch, Uwe Fraunholz, Monika Friedrich-Nishio, Hariolf Grupp, Thomas Hänseroth, Christine Pieper, Manuel Schramm, Margit Szöllösi-Janze und Helmuth Trischler genannt – sowie den Mitgliedern des wissenschaftlichen Beirats, Edgar Grande, Dietmar Harhoff, Alfred Kleinknecht, Hubert Laitko, Peter Weingart und Karin Zachmann. Sie alle haben sich auf unzähligen Workshops geduldig mit meinen Ideen und Texten auseinandergesetzt und darauf mit konstruktiver Kritik reagiert. Frau Gabriele Gronau vom Bundesarchiv Koblenz danke ich für ihre ausdauernde Hilfe bei meinen Recherchen. Nicht zuletzt möchte ich meinen Kollegen am Münchner Zentrum für Wissenschafts- und Technikgeschichte danken, die in vielfältiger Weise zur Entstehung dieses Buches beigetragen haben und ohne die mir die Einarbeitung in die verschiedenen Themenfelder weit schwieriger gefallen wäre. Stellvertretend genannt seien Alexander Gall, Ulf Hashagen, Timo Leimbach und Désirée Schauz, die auch Teile des Buches kritisch gelesen und hilfreich kommentiert haben. Verbleibende Fehler und Ungereimtheiten gehen selbstredend zu Lasten des Autors.
München, im November 2008
Thomas Wieland
289
Science Studies Nicholas Eschenbruch, Viola Balz, Ulrike Klöppel, Marion Hulverscheidt (Hg.) Arzneimittel des 20. Jahrhunderts 13 historische Skizzen von Lebertran bis Contergan September 2009, ca. 276 Seiten, kart., ca. 25,80 €, ISBN 978-3-8376-1125-0
Sandro Gaycken, Constanze Kurz (Hg.) 1984.exe Gesellschaftliche, politische und juristische Aspekte moderner Überwachungstechnologien Januar 2008, 310 Seiten, kart., 29,80 €, ISBN 978-3-89942-766-0
Carmen Gransee, Maren Krähling, Marion Mangelsdorf Technoscience Eine kritische Einführung in Theorien der Wissenschafts- und Körperpraktiken April 2009, ca. 150 Seiten, kart., ca. 13,80 €, ISBN 978-3-89942-708-0
Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de
2008-12-04 15-44-52 --- Projekt: transcript.anzeigen / Dokument: FAX ID 0260196304218160|(S.
1-
3) ANZ1106.p 196304218168
Science Studies Bernd Hüppauf, Peter Weingart (Hg.) Frosch und Frankenstein Bilder als Medium der Popularisierung von Wissenschaft Januar 2009, 464 Seiten, kart., zahlr. Abb., 32,80 €, ISBN 978-3-89942-892-6
Gesine Krüger, Ruth Mayer, Marianne Sommer (Hg.) »Ich Tarzan« Affenmenschen und Menschenaffen zwischen Science und Fiction Juli 2008, 184 Seiten, kart., zahlr. Abb., 22,80 €, ISBN 978-3-89942-882-7
Philippe Weber Der Trieb zum Erzählen Sexualpathologie und Homosexualität, 1852-1914 September 2008, 382 Seiten, kart., 29,80 €, ISBN 978-3-8376-1019-2
Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de
2008-12-04 15-44-52 --- Projekt: transcript.anzeigen / Dokument: FAX ID 0260196304218160|(S.
1-
3) ANZ1106.p 196304218168
Science Studies Ralf Adelmann, Jan Frercks, Martina Hessler, Jochen Hennig Datenbilder Zur digitalen Bildpraxis in den Naturwissenschaften
Wilfried Heinzelmann Sozialhygiene als Gesundheitswissenschaft Die deutsch/deutsch-jüdische Avantgarde 1897-1933. Eine Geschichte in sieben Profilen
März 2009, ca. 256 Seiten, kart., zahlr. z.T. farb. Abb., ca. 26,80 €, ISBN 978-3-8376-1041-3
Februar 2009, ca. 384 Seiten, kart., ca. 29,80 €, ISBN 978-3-8376-1144-1
Cristina Besio Forschungsprojekte Zum Organisationswandel in der Wissenschaft
Jochen Hennig Bildpraxis Visuelle Strategien in der frühen Nanotechnologie
Februar 2009, ca. 496 Seiten, kart., ca. 39,80 €, ISBN 978-3-8376-1097-0
Juni 2009, ca. 338 Seiten, kart., zahlr. z.T. farb. Abb., ca. 32,80 €, ISBN 978-3-8376-1083-3
Kai Buchholz Professionalisierung der wissenschaftlichen Politikberatung? Interaktions- und professionssoziologische Perspektiven
Renate Mayntz, Friedhelm Neidhardt, Peter Weingart, Ulrich Wengenroth (Hg.) Wissensproduktion und Wissenstransfer Wissen im Spannungsfeld von Wissenschaft, Politik und Öffentlichkeit
Oktober 2008, 240 Seiten, kart., 25,80 €, ISBN 978-3-89942-936-7
Heiner Fangerau, Thorsten Halling (Hg.) Netzwerke Allgemeine Theorie oder Universalmetapher in den Wissenschaften? Ein transdisziplinärer Überblick Februar 2009, ca. 276 Seiten, kart., zahlr. Abb., ca. 26,80 €, ISBN 978-3-89942-980-0
Gabriele Gramelsberger Computerexperimente Zum Wandel der Wissenschaft im Zeitalter des Computers März 2009, ca. 296 Seiten, kart., ca. 29,80 €, ISBN 978-3-89942-986-2
Mai 2008, 350 Seiten, kart., 29,80 €, ISBN 978-3-89942-834-6
Katja Patzwaldt Die sanfte Macht Die Rolle der wissenschaftlichen Politikberatung bei den rot-grünen Arbeitsmarktreformen Juni 2008, 300 Seiten, kart., 29,80 €, ISBN 978-3-89942-935-0
Gerlind Rüve Scheintod Zur kulturellen Bedeutung der Schwelle zwischen Leben und Tod um 1800 März 2008, 338 Seiten, kart., 31,80 €, ISBN 978-3-89942-856-8
Leseproben, weitere Informationen und Bestellmöglichkeiten finden Sie unter www.transcript-verlag.de
2008-12-04 15-44-52 --- Projekt: transcript.anzeigen / Dokument: FAX ID 0260196304218160|(S.
1-
3) ANZ1106.p 196304218168