Beiträge zur angewandten Wirtschaftsforschung: Festschrift für Karl Heinrich Oppenländer [1 ed.] 9783428490226, 9783428090228

Mit ihren Beiträgen zu dieser Festschrift gratulieren Freunde und Weggefährten ihrem Kollegen Karl Heinrich Oppenländer

104 68 65MB

German Pages 427 Year 1997

Report DMCA / Copyright

DOWNLOAD PDF FILE

Recommend Papers

Beiträge zur angewandten Wirtschaftsforschung: Festschrift für Karl Heinrich Oppenländer [1 ed.]
 9783428490226, 9783428090228

  • 0 0 0
  • Like this paper and download? You can publish your own PDF file online for free in a few minutes! Sign Up
File loading please wait...
Citation preview

Beiträge zur angewandten Wirtschaftsforschung Festschrift für Karl Heinrich Oppenländer

Beiträge zur angewandten Wirts chaftsfors chung

Festschrift für Karl Heinrich Oppenländer

herausgegeben von Ernst Helmstädter . Günter Pos er Hans Jürgen Ramser

Duncker & Humblot . Berlin

Die Deutsche Bibliothek - CIP-Einheitsaufnahme Beiträge zur angewandten Wirtschaftsforschung : Festschrift für Karl Heinrich Oppenländer I hrsg. von Ernst Helmstädter ... Berlin : Duncker und Humblot, 1997 ISBN 3-428-09022-5 NE: Helmstädter, Ernst [Hrsg.]; Oppenländer, Karl Heinrich: Festschrift

Alle Rechte, auch die des auszugsweisen Nachdrucks, der fotomechanischen Wiedergabe und der Übersetzung, für sämtliche Beiträge vorbehalten © 1997 Duncker & Humblot GmbH, Berlin Fotoprint: Berliner Buchdruckerei Union GmbH, Berlin Printed in Germany ISBN 3-428-09022-5 Gedruckt auf alterungsbeständigem (säurefreiem) Papier entsprechend ISO 9706

9

Vorwort Mit ihren Beiträgen zu dieser Festschrift gratulieren Freunde und Weggeflihrten ihrem Kollegen Karl Heinrich Oppenländer zu seinem 65. Geburtstag. Zugleich drücken sie damit ihren Dank rur seine eigenen Beiträge zur wissenschaftlichen Diskussion zwischen der angewandten Wirtschaftsforschung und der Wirtschaftstheorie aus. Der mit dieser Festschrift zu Ehrende hat als langjähriger Präsident des ifo Instituts filr Wirtschaftsforschung, als Mitglied zahlreicher wissenschaftlicher Einrichtungen, als kreativer Autor und als umsichtiger Berater der Wirtschaftspolitik hohe fachliche Anerkennung gefunden. Zahlreiche von ihm initiierte Konferenzen und Symposien zur Innovationsforschung, Wachstums- und Konjunkturpolitik haben Theoretiker und Praktiker zu fruchtbarer Diskussion zusammengeführt. Die Herausgeber danken allen Autoren und Mitarbeitern, die zum Gelingen dieser Festschrift beigetragen haben. Ihr besonderer Dank gilt Herrn Dipl.Wirtsch.-Ing. Marcus Reeg, der an der Technischen Hochschule Darmstadt die redaktionelle Aufbereitung der Beiträge besorgt hat, ferner Herrn Dr. Erwin Möller vom Haftpflichtverband der Deutschen Industrie in Hannover, der durch einen Zuschuß zur Deckung der Druckkosten die Publikation dieser Festschrift unterstützt hat. Ernst Helmstädter

Günter Poser

Hans Jürgen Ramser

Inhalt Konjunktur Gunther Tichy Wie real sind die Realen Konjunkturschwankungen? .................................................. 11 Hans-Jürgen Krupp und Karen Cabos Zum Verhältnis von Geld- und Konjunkturpolitik ....................................................... 29 Reinhard Blum Arbeitslosigkeit als Effizienz- und Verteilungsproblem ............................................... 57 Thomas Bauer und Klaus F. Zimmermann Konjunktur, Migration und Beschaftigung: Erfahrungen aus dem Gastarbeiterregime ........................................................................................................................... 83

Innovation und Wachstum Bernhard Gahlen und Manfred Stad/er Innovation, Wachstum und Arbeitslosigkeit: Ein prototypisches Modell der Neuen Wachstumstheorie ....................................................................................... 97 Klaus Jaeger Humankapital in der "neuen" Wachstumstheorie: Eine kritische quantitative Einschätzung...................................................................................................... 111 Hans Jürgen Ramser Finanzmärkte und Wachstum ...................................................................................... 125 Ernst Helmstädter Grundtypen der Diffusion ........................................................................................... 139 Cheng-Cherng Chen Innovation in Schwellenländern, dargestellt am Beispiel der Automobilindustrie Taiwans ........................................................................................................ 159 Hans-Jürgen Vosgerau Vom GATT zur WTO: Zur Bedeutung der "New Issues............................................. 175

8

Inhalt

Sektorale Aspekte des Wirtschaftswachstums Uwe Cantner und Horst Hanuseh Intrasektorale technologische Dynamik ...................................................................... 187 Heinz König, Martin Kukuk und Georg Licht Kooperationsverhalten von Unternehmen des Dienstleistungssektors ........................ 217 Günter Poser Neue Perspektiven der Telekommunikation ................................................................ 245

Grundlagen der empirischen Analyse Kurt W. Rothschild Theoretiker und Empiriker - Ein Rückblick auf eine berühmte Kontroverse ............. 267 Gerd Ronning Wie informativ sind Paneldaten? ................................................................................. 283 Daniel J. Marais. Eon vdM Smit and Willie J. Conradie Micro-Level-Tests for Rational Expectations in South Africa .................................... 295 Balazs Horvath and Mare Nerlove Some Econometric Implications of Learning .............................................................. 319 Jürgen Wolters Zur Beurteilung verschiedener Frühindikatoren für die Produktionsentwicklung .............................................................................................................................. 339 Jürgen Kromphardt und Oliver Bathe Direktinvestitionen - Ein Indikator für die internationale Wettbewerbsfähigkeit? ..................................................................................................................... 363 Chikashi Moriguehi The Role ofBusiness CycIe Indicators in the Recent Japanese-U.S. Business CycIes .......................................................................................................................... 381 Geoffrey H. Moore, John P. Cullity and Ernst A. Boehm Forecasting Real Gross Domestic Product with Long Leading Indexes: Six Countries ..................................................................................................................... 393

Inhalt

9

Verzeichnisse Verzeichnis ausgewählter Veröffentlichungen von Kar! Heinrich Oppenländer ........ 415 Verzeichnis der Autoren .............................................................................................. 425

Wie real sind die Realen Konjunkturschwankungen? Von Gunther Tichy Die Debatte um Notwendigkeit und Möglichkeit konjunktursteuernder Maßnahmen der Wirtschaftspolitik ist alt; seit der Mitte der siebziger Jahre hat sie jedoch an Schärfe zugenommen. Maßgebend daftlr war nicht ein grundsätzliches Versagen der traditionellen Stabilisierungspolitik (Cross 1991), sondern ein Wandel in den Ansichten über theoretische Zusammenhänge: Die Neue Klassische Makroökonomie (NCM) setzte sich durch, die von sofort reagierenden Preisen und Löhnen und demgemäß von jederzeit vollständiger Markträumung ausgeht; allein das sei mit dem Verhalten rationaler Wirtschaftssubjekte vereinbar. Charakteristisch ftlr die neue Auffassung ist der forsche Einwand von Lucas gegen die unfreiwillige Arbeitslosigkeit: Die Vorstellung, daß sich ein Unternehmer und ein Arbeitsloser nicht auf ein ft1r heide vorteilhaftes Beschäftigungsverhältnis zu einem Lohn leicht unter dem vorherrschenden, einigen könnten, entspräche der Vorstellung einer 500-$-Note, die auf der Straße liege und die niemand aufhebe. Aus der Annahme Rationaler Erwartungen und jederzeit vollständiger Markträumung folgt zwangsläufig jederzeitige Vollbeschäftigung im Sinne der Natürlichen Arbeitslosenrate und zugleich auch die Politikineffektivitäts-Hypothese, die Vorstellung vollständiger Wirkungslosigkeit erwarteter Maßnahmen der Wirtschaftspolitik. Die Vorstellung, daß Wirtschaftspolitik bestenfalls die Rahmenbedingungen gestalten könne, prägt derzeit die Konjunkturpolitik der meisten Staaten in nicht geringem Maße, und es erscheint demgemäß zweckmäßig zu fragen, wie weit die zugrundeliegenden Hypothesen der Realen Konjunkturschwankungen auch tatsächlich - theoretisch wie empirisch - abgesichert sind.

12

Gunther Tichy

A. Die Gleichgewichtskonjunkturtheorie und die Ineffektivität jeder Konjunkturpolitik Alle Modelle der Gleichgewichtskonjunkturtheorie gehen von den Annahmen jederzeit vollständiger Markträumung, Rationalen Erwartungen und Fehlen jedes Informationsvorsprungs der Wirtschaftspolitik aus; zentral unter diesen Annahmen ist die jederzeit vollständige Markträumung, da sie jede verzögerte Anpassung von Preisen und jede Mengenreaktion ausschließt, wodurch Konjunkturpolitik nicht bloß unwirksam sondern auch absolut unnötig wird: Es gibt bloß ein einziges Gleichgewicht, und dieses wird nach Störungen außerordentlich rasch wieder erreicht. Daß in einem solchen Modell Konjunkturschwankungen überhaupt entstehen können, ist einerseits exogenen Schocks und andererseits einem Arbeitsangebot zuzuschreiben, das sehr sensibel auf Lohnänderungen reagiert. Die monetäre Version der Gleichgewichtskonjunkturtheorie (Lucas 1981) ging von Geldangebotschocks und monetären Fehleinschätzungen aus: Die Wirtschaftssubjekte können die Geldmenge nicht beobachten und vermögen daher nicht zu erkennen, ob eine von ihnen beobachtete Erhöhung ihrer Absatzpreise eine Sonderentwicklung der (rur sie relevanten) relativen Preise oder eine Anhebung des gesamten Preisniveaus spiegelt. Da die agents ihren Erwartungen gemäß sofort reagieren, wirken erwartete Geldmengenänderungen allein auf das Preisniveau; unerwartete Geldmengenänderungen beeinflussen allerdings auch den realen Sektor, weil die agents unter dem (falschen) Eindruck der höheren Absatzpreise (und damit ihrer Erträge) das Angebot ausweiten. Nach Bekanntgabe der Geldmengendaten erkennen sie jedoch ihren Irrtum und schränken die Produktion wieder ein. Modelle dieses Typs prägten die zweite Hälfte der siebziger Jahre, verloren dann aber rasch an Bedeutung, weil sie mit vier Schwierigkeiten zu kämpfen hatten: Es war nie plausibel, daß die Wirtschaftssubjekte auf Fehleinschätzungen der Geldmengenentwicklung so rasch und so stark reagieren, da die Geldmenge doch monatlich bekanntgegeben wird, und den agents ihr temporärer Informationsmangel und die dadurch bedingte Gefahr von Fehlentscheidungen ja bekannt sein muß. Zweitens konnte das Modell bloß kurze, einperiodige, Abweichungen vom Gleichgewichtspfad nachvollziehen, und es bedurfte zusätzlicher ad-hoc-Annahmen um persistente Konjunkturschwankungen erklären zu können. Drittens zeigten genauere ökonometrische Tests, daß auch erwartete Geldmengenänderungen den realen

Wie real sind die Realen Konjunkturschwankungen?

13

Sektor beeinflussen können (Mishkin 1983). Viertens schließlich glaubte man, daß das Modell mit der unit root-Hypothese (siehe unten) nicht vereinbar wäre. Die Hypothese der Realen Konjunkturzyklen (RBC), die die monetäre Version zu Beginn der achtziger Jahre ablöste, erklärt Konjunkturschwankungen allein aus Angebotschocks, und zwar in erster Linie aus positiven Schocks I, die die Produktionsfunktion dauerhaft ändern. In diesem Sinne ist die Reale Konjunkturtheorie eigentlich eine Wachstumstheorie, in der Konjunkturschwankungen durch exogene Schocks bedingt sind, die den Wachstumstrend ändern. Die Reaktion des Angebots auf diese exogenen Schocks, vor allem die temporäre Substitution von Freizeit durch Arbeit, rückt in das Zentrum des Interesses, und insofern gewinnt auch der Fortpflanzungsprozeß wieder an Bedeutung: In einem System jC?derzeit vollständiger Markträumung bewirkt das dynamische Optimierungsverhalten der Wirtschaftssubjekte mit Rationalen Erwartungen, daß Konsum und Investitionen auf einen exogenen Technologieschock gleichgerichtet reagieren. KydlandlPrescott (1982) gehen von einem repräsentativen KonsumentenlProduzenten aus. Er erzeugt mit Kapital, Arbeitsstunden und Technologie ein Gut und maximiert seinen Nutzen über die Zeit in bezug auf Konsum und Freizeit unter Berücksichtigung eines Diskontfaktors. Der Technologieschock hat die Form eines Markov-Prozesses: Er erhöht Produktion, Produktivität und Löhne und fUhrt zu einem höheren Angebot an Produktionsfaktoren, indem ein relativ großer Teil der zusätzlichen Produktion investiert und Freizeit zugunsten längerer Arbeitszeit auf später verschoben wird. Der Technologieschock baut sich jedoch allmählich ab, was zu (schwachen) Anpassungsprozessen in umgekehrter Richtung fUhrt. Persistenzprobleme versucht dieses Modell durch die Annahme mehrperiodiger Investitionsdurchftlhrung ("time to build") und durch die spezielle Form des serienkorrelierten Technologieschocks zu vermeiden. Long/Plosser (1983) ersetzten das eine Gut des Kydland-Prescott-Modells durch eine Input-Output-Struktur. In diesem Modell werden die sektorspezifischen Technologieschocks über den Mechanismus der relativen Preise auf andere Sektoren übertragen, wodurch der technologische Übertragungsmechanismus durch ein breites Spektrum verzögerter ökonomischer Anpassungsprozesse ergänzt wird. Daraus resultierte die (vergebliche) Hoffnung, die Pers istenzprobleme würden dadurch an Bedeutung verlieren.

I Negative Produktivitätsschocks könnten als Änderungen im institutionellen, gesetzlichen und regulativem System verstanden werden (HansonlPrescott 1993, 281).

14

Gunther Tichy

Inzwischen wurden die beiden Pioniennodelle aus den frühen achtziger Jahren durch eine fast schon unübersehbare Menge von Varianten ergänzt (ft1r eine Übersicht siehe etwa DanthinelDonaldson (1993) oder Stadler (1994»: ChristianolEichenbaum (1992) etwa ergänzten die Produktivitätsschocks durch Staatsausgabenschocks, verzichten aber auf die verzögerte KapitalstockAnpassung; Burnside et al. (1993) bauten eine verzögerte Anpassung des Arbeitsvolumens ein, Baxter/Crucini (1993) Investitionskosten die mit der Investitionsquote steigen. Bei allen Unterschieden im Detail stimmen jedoch alle Modelle der Gleichgewichtskonjunturtheorie, der realen wie auch der monetären Variante, darin überein, daß Konjunkturschwankungen optimale Anpassungen an unsichere Ereignisse sind, an Änderungen der Technologie oder der Geldmenge. Dementsprechend stört Konjunkturpolitik diesen optimalen Anpassungsprozeß. Diese weitreichende Schlußfolgerung erzwingt die Frage:

B. Wie real sind die Realen Konjunkturschwankungen? Gibt es tatsächlich hinreichend Evidenz, daß Konjunkturschwankungen nicht aus Koordinierungsmängeln resultierende, unfreiwillige Schwankungen der Kapazitätsauslastung, sondern optimale Anpassungen rationaler Wirtschaftssubjekte an Schocks sind? Einwände müssen auf wenigstens fUnf Ebenen gemacht werden: Sie betreffen die unzureichende Begründung des Angebotscharakters der Schocks, die beschränkte Aussagekraft der Tests, Erklärungsmängel in bezug auf zentrale Konjunkturphänomene, die Auswahl der als erklärungsbedürftig erachteten Fakten und die unzureichende theoretische Fundierung der Modelle. I. Unzureichende Begründung des Angebotscharakters der Schocks Der Nachweis, daß unerwartete Angebotschocks auf einen Gleichgewichtswachstumspfad der entscheidende Auslöser der Konjunkturschwankungen wären, konnte stets bloß indirekt gefllhrt werden: Die Gleichgewichtskonjunkturtheorie ging von der Überzeugung aus, daß Marktunvollkommenheiten keine besondere Rolle spielen könnten, so daß es unbefriedigend wäre, Konjunkturschwankungen durch - leicht korrigierbares - Marktversagen zu erklären (Barro 1989, 1). Daftlr, daß gerade Technologieschocks die Konjunkturschwankungen auslösen, werden drei Argumente angeführt: Erstens, daß sich

Wie real sind die Realen Konjunkturschwankungen?

15

die Produktivität prozyklisch entwickle, was mit den Axiomen der gleichgewichtstheoretischen Erklärung bloß dann vereinbar ist, wenn es sich um Schocks auf die Produktionsfunktion handelt, da der Faktoreinsatz an Nachfrageschocks rasch angepaßt wUrde. Zweitens, daß Technologieschocks - gemessen am Solow-Residual- die Hälfte (BlanchardlFischer 1989, 3) bis zwei Drittel (KydlandlPrescott 1991) der U .S.-Konjunkturschwankungen seit 1970 erklären könnten. Drittens schließlich die Vermutung zeitreihenanalytischer Studien, daß die meisten ökonomischen Zeitreihen durch Einheitswurzeln (unit roots)2 gekennzeichnet wären, daß Schocks den Trend also dauerhaft beeinflußten; demgemäß könnte es sich bloß um Angebotschocks handeln, nicht aber um Nachfrageschocks, die zwangsläufig temporär wären. Alle diese Argumente können wenig überzeugen: Daß Marktunvollkommenheiten fehlen, ist eine Annahme, die ohne genauere Begründung keineswegs plausibel ist. Die prozyklische Entwicklung der Produktivität ist lange bekannt, ihre Amplitude wird jedoch von den RBC-Studien durch die Verwendung einer Cobb-Douglas-Produktionsfunktion mit konstantem Arbeitsanteil und durch die Vernachlässigung der Kapazitätsauslastung überschätzt. Die Prozyklik wurde von Okun, Kaldor und Verdoorn mit dem Horten von Arbeitskräften, mit leichterer Durchsetzbarkeit von Rationalisierungsmaßnahmen in Phasen der Hochkonjunktur oder mit steigenden Skalenerträgen begründet. Weiters ist keineswegs klar, daß positive Angebotschocks tatsächlich den (Makro) Trend nach oben verschieben: Da ein positiver Schock auf eine Branche vielfach negativ auf andere wirkt, bedarf es zumindest genau spezifizierter Eigenschaften des Anpassungsprozesses, um die Annahme einer Trendverschiebung zu rechtfertigen. Weiters wies Lucke (1995) darauf hin, daß im Fall von Technologieschocks die disaggregierten Outputreihen nicht kointegriert sein dürften was sie jedoch sind. Ob zentrale ökonomische Zeitreihen schließlich eine Einheitswurzel aufweisen oder nicht, ist umstritten. Die Ergebnisse hängen von der Art des Filterprozesses ab. Es ist nicht ohne weiteres möglich, statistisch zwischen einer nichtstationären Reihe mit Einheitswurzel und einer stationären mit einer Wurzel

2 Wenn die autoregressive Beziehung der Zeitreihe eine Wurzel von 1 enthält, ist sie integriert von Grad I, d.h. daß sie selbst nicht stationär, ihre erste Differenz hingegen stationär ist. Eine solche Einheitswurzel hat zur Folge, daß es zu einer unendlichen Aufsummierung (Integration) vergangener Störgrößen mit nicht abnehmenden Gewichten kommt, so daß Störungen (Innovationen) den Trend dauerhaft ändern.

16

Gunther Tichy

knapp unter 1 zu diskriminieren. Das Argument ist jedoch auch inhaltlich nicht überzeugend, weil keineswegs bloß Angebotsschocks den Trend zu ändern vermögen: Entsprechende Phänomene sind unter den Namen Hysterese, Koordinierungsprobleme und multiple Gleichgewichte seit langem bekannt. Der dominierende Einfluß von Angebotsschocks bedarf auch deswegen besonderer Begründung, weil es durchaus Evidenz gibt, daß Nachfrageschwankungen an Bedeutung gewinnen könnten: Die zunehmende Bedeutung der Käufe dauerhafter - relativ zu nicht-dauerhaften - Konsumgütern, erleichtert es, Konsumentscheidungen aufzuschieben oder vorzuziehen, und Greenwood et a1. (1992, 308) konnten auch tatsächlich zeigen, daß die Haushaltsinvestitionen in Wohnun~.enund dauerhafte Güter inzwischen stärker schwanken als die Investitionen der Wirtschaft; daß sie überdies der Konjunktur vorauseilen (ebda 317), macht Angebotsschocks als dominierende Auslöser von Konjunkturschwankungen nicht eben plausibler. 11. Wenig aussagekräftige Tests Wenn aber die Annahmen nicht gut begründet werden können, kommt ökonometrischen Tests der Gleichgewichtshypothese der Konjunkturerklärung ganz besondere Bedeutung zu. Solche sind jedoch nicht möglich, weil weder die Angebotsschocks noch das Gleichgewicht beobachtet werden können. Demgemäß wurden die Realen Konjunkturmodelle nicht gegen andere Modelle getestet; vielmehr wurde der Pseudotest der Kalibrierung entwickelt, dessen Interpretation "purely subjective" (Stadler 1994, 1768) ist: Für zentrale Variable des Modells werden die hypothetischen Gleichgewichtswerte eingesetzt, und die unbeobachtbaren Angebotsschocks in einer Höhe angesetzt, daß die Simulation die tatsächlich beobachtete Output-Varianz wiedergibt; auf dieser Basis wird simuliert, wieweit Varianz und andere Konjunkturmuster (stilisierte Fakten) der "endogenen", also der nicht eingesetzten, Variablen durch das Modell wiedergegeben werden. Als Maßstab rur die beobachtete Produktivität wird das Solow-Residual verwendet. Bei einer solchen Kalibrierung besteht natürlich großer Spielraum bezüglich der Auswahl der jeweiligen Variablen, der filr sie eingesetzten (Gleichgewichts-)Schätzwerte, aber auch in bezug auf die Trennung von Konjunktur und Trend; letzterer soll ja den Wachstumspfad wiedergeben und insoweit theoretisch begründet sein. Tatsächlich wird er aber in allen bekannten Fällen ein mechanisches Trendbereinigungsverfahren

Wie real sind die Realen Konjunkturschwankungen?

17

(Hodrick-Prescott) verwendet, das auch statistisch-theoretisch nicht abgesichert ist (NelsonIPlosser 1982). Vennutlich gehen die Probleme aber noch viel weiter: Es besteht begründete Vennutung, daß die relativ guten Ergebnisse, die die Kalibrierung vielfach erbringt, mit genau dieser Bereinigungsmethode zusammenhängen: Der HPFilter "removes important time series components that have traditionally been regarded as representing business cycle phenomena" (KinglRebelo 1993, 208); andererseits kann er auch Konjunkturschwankungen erzeugen, wie Cogley und Nason in einer noch nicht publizierten Arbeit zeigen, in der sie künstlich generierte random walk-Reihen mit HP filtern (zitiert nach Stadler 1994, 1769). IH. Zahlreiche unerklärte Konjunkturmuster Doch selbst wenn man die real-business-cycle-Testmethode - Reproduktion bestimmter stilisierter Fakten durch Kalibrierung von Gleichgewichtsmodellen - als solche akzeptiert, bleiben Zweifel: Zunächst machen die Autoren, selbst der Basismodelle, kein Hehl daraus, daß sie die "mikrofundierten" Annahmen mehrfach geändert haben, um die Ergebnisse in Einklang mit der Realität zu bringen: Um das Arbeitsvolumen im Modell stärker variabel zu machen, wurden verzögerte Reaktionen (auch der Freizeit) eingebaut (Prescott 1986, 16f.), und zusätzlich eine variable Auslastung des Kapitals angenommen (Prescott 1986, 17); um länger anhaltende Schwankungen ("high persistence") erzeugen zu können, gehen die Modelle von serienkorrelierten Angebotsschocks aus, für die es keine spezifische Mikrobegründung gibt (Prescott 1986, 14). Ähnliches fmdet sich auch in den anderen Modellen. Trotz aller dieser Bemühungen, die durchaus ad hoc und keineswegs "mikrofundiert" sind, können die real-business-cycle-Modelle zwar zahlreiche, keineswegs jedoch alle der selbstgesetzten Ziele - Erklärung bestimmter stilisierter Fakten - erreichen. Vor allem -

ist die Varianz von Produktivität, Arbeitseinsatz und Reallöhnen zu hoch;

-

sind Beschäftigung und Produktivität - anders als in der Realität - positiv korreliert;

2 Festschrift Oppenländer

Gunther Tichy

18 -

ist die Korrelation des Output mit der gleichzeitigen Produktivität zu hoch und mit der verzögerten, mit einem falschen (negativen) Vorzeichen behaftet;

-

ist die Korrelation zwischen Output und Reallohn stark positiv statt schwach negativ;

-

ist der Konsum der einzelnen Länder - soweit die Modelle offene Volkswirtschaften modellieren - kontrafaktisch sehr viel stärker korreliert als der Output, und die Varianz der tenns of trade wird unterschätzt (Stadler 1994, 1765).

Der wichtigste Mangel jedoch, den Cogley/Nason (1995) detailliert herausgearbeitet haben, ist darin zu sehen, daß keines dieser Modelle die Dynamik richtig wiedergeben, also persistente Konjunkturschwankungen erzeugen kann: "We fmd that existing RBC models must rely heavily on exogenous factors to replicate both stilized facts. Many RBC models have weak internal propagation mechanisms and do not generate interesting dynamics via their internal structure. ... Hence these models must rely on impulse dynamics to replicate the dynamics found in U.S. data." (Cogley/Nason 1995,509). Mit anderen Worten: Die gesamte Dynamik steckt in der Modellierung der serienkorrelierten Schocks, das Modell selbst trägt dazu (fast) nichts bei. Das ist deswegen so besonders wichtig, weil in den RBC-Modellen - gerade im Bewußtsein dieser Persistenz-Schwäche - zahlreiche Fortpflanzungs- und Verstärkungsmechanismen ohne Mikrofundierung eingebaut wurden: Glättung von Konsum und Freizeit durch nicht-zeitseparierbare Nutzenfunktionen, Investitionsverzögerungen, Arbeitszeit-Freizeit-Substitution, serienkorrelierte Schocks oder Lagerglättung. Natürlich könnte man auch darauf hinweisen, daß manche andere stilisierte Fakten in Varianz und Konjunkturabhängigkeit recht gut erklärt werden; aber der Anspruch der Autoren geht ja nicht dahin, eine mögliche Konjunkturerklärung zu liefern, sondern die einzige Konjunkturerklärung, mit weitreichenden und von den Autoren auch wortreich angepriesenen und verteidigten konjunkturpolitischen Folgerungen.

Wie real sind die Realen Konjunkturschwankungen?

19

IV. Maßgeschneiderte Liste zu erklärender Fakten Die eben angeftlhrte mangelhafte Erklärungskraft in bezug auf die selbstgesetzten stilisierten Fakten wiegt deswegen besonders schwer, weil die Liste der zu erklärenden stilisierten Fakten von den Vertretern der Gleichgewichtskonjunkturtheorie sehr bewußt erfolgsorientiert ausgewählt wurde: Wie an anderer Stelle ausfUhrlich gezeigt wurde (Tichy 1994, Kap. 4 und 6), gibt es vor allem zwei Gruppen von nicht-berücksichtigten stilisierten Fakten: Solche, die der Gleichgewichtskonjunkturtheorie vom Ansatz her widersprechen, weil sie mangelnde Markträumung anzeigen (Kapazitätsauslastung, Arbeitslosigkeit, Lagerschwankungen), sowie solche, die die Gleichgewichtskonjunktunnodelle nicht erklären können (Korrelation und relative Varianz von Arbeitsstunden und Produktivität, wenig deutlich zyklische Schwankungen der Reallöhne, prozyklische Entwicklung der Geldmenge). Mit anderen Worten: Die Liste der durch die RBC-Modelle nicht erklärten Konjunktunnuster ist um einiges länger als die Kalibrierungstests andeuten. Zentral fUr die Erklärungskraft der Realen Konjunktunnodelle, wie fUr die Kritik daran, ist die starke Betonung der intertemporalen Substitution von Arbeit und Freizeit. 3 Die Angebotsschocks haben im Modell deswegen erhebliche Effekte, weil der repräsentative Konsument als Arbeitsanbieter auf temporäre Reallohnerhöhungen sehr heftig reagiert, wogegen er permanente Änderungen völlig ignoriert. Empirische Evidenz zugunsten dieser Hypothese konnte bisher nicht gefunden werden (Altonji 1982; 1986), obwohl sie schon mehr als zwei Jahrzehnte lang vertreten wird (LucaslRapping 1969). Ganz im Gegenteil sprechen zahlreiche Beobachtungen dagegen: Daß zu den Konjunkturschwankungen des Arbeitsvolumens die individuelle Arbeitszeit - auch in den USA weniger als ein Drittel, die Arbeitslosigkeit jedoch mehr als zwei Drittel beiträgt; daß der überwiegende Teil der Auflösungen von Arbeitsverhältnissen unfreiwillig erfolgt (Kündigungen durch den Arbeitgeber); daß Substitution von Freizeit durch Arbeitszeit fUr Perioden von Rezessionslänge einen perfekten Kapitalmarkt im Sinn unbegrenzter Verschuldungsmöglichkeiten der Haushalte voraussetzt; daß "expansions are not so much times when more jobs are created as times when less jobs are destroyed" (DavislHaltiwanger 1990); daß

3 Jede Arbeitslosigkeit ist in den RBC-Modellen freiwillig und dementsprechend kommt stets bloß die Arbeitszeit ("hours") und nicht Beschäftigung und Arbeitslosigkeit vor.

2'

20

Gunther Tichy

Konsum und Freizeit jedenfalls zum Teil substitutiv und insofern auch Arbeitszeit und Freizeit nicht ohne weiters substituierbar sind: Zahlreiche modeme Konsum- bzw. Freizeitgestaltungsmöglichkeiten sind sehr kostenaufwendig und erfordern mehr Arbeit und Einkommen, um sie sich auch leisten zu können. V. Mangelnde theoretische Ftmdierung Selbst wenn es primär boshaft erscheinen mag, ist den Ansätzen der Gleichgewichtskonjunkturtheorie, die gerade als Kritik an der mangelnden Mikrofundierung der keynesianischen Ansätze entstanden war, mangelnde theoretische Fundierung vorzuwerfen. Das beginnt natürlich mit dem repräsentativen agent und der Aggregation zu jeweils einer einzigen aggregierten Nutzenund Produktionsfunktion. "If agents have identical preferences, and differ only in terms of the income they receive, the 'representative agent' for such an economy need not be well behaved and the economy can manifest a large number of unstable equilibria.... the reliance on a representative agent deprives these models of much of their explanatory power: aggregate fluctuations result from the responses of the average agent to stochastic change in productivity; one cannot say that th~y result from the responses 0/ maximising individuals to productivity shocks." (Stadler 1994, 1771f.; meine Hervorhebung, G.T.). Das ist natürlich ein grundsätzliches Problem, mit dem fast alle makroökonomischen Arbeiten zu kämpfen haben; dennoch ist es hier von zentraler Bedeutung, weil ja die Interpretation der Konjunkturschwankungen als Maximierungsverhalten und die Ablehnung jeder Konjunkturpolitik als kontraproduktiv durch die RBC-Schule unmittelbar darauf beruhen. Selbst wenn man den agent mit Rationalen Erwartungen und die dafUr erforderlichen Möglichkeiten und Fähigkeiten der Informationsbeschaffung und -verarbeitung als "mikrofundiert" akzeptiert, kann das keineswegs fUr die Annahmen über Art und Form der Schocks, die Substitutionselastizitäten, die Verzögerungen, usw. gelten, die keineswegs aus fundamentals abgeleitet, sondern - ganz im Gegenteil, in Übernahme schlechter ökonometrischer Tradition - primär dazu dienen, das Modell "realitätsnahe" zu machen. Dazu kommt das Problem der observational equivalence: zahlreiche Autoren konnten zeigen, daß "at this level of explanation it is quite likely that the same modest set of facts currently used to define the business cycle will be consistent with models of an economy which are significantly different from the purely Walrasian

Wie real sind die Realen Konjunkturschwankungen?

21

fonnulation which have predominated to date." (DanthinelDonaldson 1992, 468; ähnlich Beaundry/Guay 1993 oder JordanlLenz 1995). Die Gleichgewichtskonjunkturtheorie löst jedoch nicht bloß ihre eigene Forderung nach Mikrofundierung höchst unzureichend ein, die neuere Literatur machte darüber hinaus klar, daß es ihr auch an einer Makrofundierung mangelt. Konjunkturphänomene lassen sich in vielen Aspekten bloß als Koordinierungsprobleme verstehen, wie zuletzt Hargreaves Heap (1992) betont hat; solche können aber in einem repräsentative agent-Modell nicht erfaßt werden. "While I am very sympathetic to the quests for microfoundations, the merits of the case are by no means self evident. In physics, the behaviour of gaseous clouds is not approached via the aggregation of the behaviour of individual gas molecules. Mob behaviour is not in any obvious way expressible as an aggregation of the behaviour of individual yobbos." (Buiter 1989, 5). Es bedarf der Makrofundierung der Mikroökonomie ebenso, wie einer Mikrofundierung der Makroökonomie: "In fact, I do not believe that microeconomics can be sensibly undertaken without macrofoundations" (Hargreaves Heap 1992, xi). Auch in einem weiteren Punkt ist die Reale Konjunkturtheorie ihren eigenen Postulaten nicht gefolgt: Konjunkturschwankungen als Angebotsschocks auf einem Wachstumspfad erfordern eine integrierte Behandlung von Konjunktur und Wachstum. Entgegen ihrer eigenen Theorie verwendete die Konjunkturtheorie der Neuen Klassischen Makroökonomie dazu jedoch das atheoretisehe und statistisch angreifbare (NelsonIPlosser 1982) Hodrick-PrescottVerfahren.

c. Reale Konjunkturzyklen und die Weiterentwicklung der Konjunkturtheorie

Die Kritik des vorangehenden Abschnitts mußte deswegen relativ hart formuliert werden, weil die Gleichgewichtskonjunkturtheorie, wie bereits mehrfach erwähnt, einen Ausschließlichkeitsanspruch stellt, nicht als eine, sondern als die Konjunkturerklärung gelten möchte, keynesianische Ansätze als Unsinn verspottet (siehe dazu Tichy 1995, 186), jede Konjunkturpolitik vehement ablehnt, und mit diesem Vorschlag in den westlichen Ländern in letzter Zeit auch vielfach Gehör fand. Insofern sind die Ansätze wirtschaftspolitisch geflihrlich: Wenn sie nicht oder bloß teilweise richtig sind, können aus ihrer Anwendung erhebliche Zielverletzungen entstehen.

Gunther Tichy

22

Sehr viel positiver als unter konjunkurpolitischen Aspekten können und sollen die Gleichgewichtsansätze unter theoretischen Aspekten betrachtet werden. Ihr wahrscheinlich größtes Verdienst in diesem Bereich ist die Überwindung der Stagnation der Konjunkturtheorie (Tichy 1976, Iff.) und die Herausforderung an die traditionelle Konjunkturtheorie. Sie zeigte, daß die von der damals herrschenden Theorie angenommenen Koordinierungsfehler und Rigiditäten nicht unbedingt erforderlich sind, um Gedenfalls schwache und kurze) Konjunkturschwankungen erklären zu können, urid zwang diese, die behauptete Wirkung nomineller Anstöße (Schocks) auf reale Größen theoretisch zu untermauern. Tatsächlich hat die Neue Keynesianische Makroökonomie (NKM) diesbezüglich erhebliche Erfolge aufzuweisen (siehe dazu etwa BlancharcllFischer 1989, Kap. 8 und 9; Tichy 1994, Kap. 5.1 und 6.4). Zweitens haben die Konjunkturmodelle der Neuen Klassischen Makroökonomie die Grenzen der Mikrofundierung aufgezeigt und zu einer verstärkten Bereitschaft gefilhrt, sich mit den Ursachen von Koordinierungsmängeln zu beschäftigen (Hargreaves Heap 1992). Drittens hat die Diskussion im Gefolge der Herausforderung der Realen Konjunkturtheorie die Vielfältigkeit des Konjunkturphänomens und seiner Erklärung wieder ins Gedächtnis zurückgerufen: Gerade die Betonung der, als Alleinerklärung w~hl unhaltbaren, Angebotsschocks und die Schwierigkeit, die die Erklärung der Persistenz von Konjunkturschwankungen rur diese Modelle bedeutete, machten zweierlei klar: -

Erstens, daß offenbar sehr unterschiedliche Anstöße zusammenwirken müssen. Dazu entwickelten Blanchard/Quah (1989) eine Methodik, die empirisch zwischen permanenten und transitorischen Schocks, und damit - nach den üblichen Annahmen - auch zwischen Angebots- und Nachfrageschocks unterscheidet; obwohl diese Methode die Bedeutung von Nachfrageschocks wohl unterschätzt, da sie alle trendverändernden Schocks als Angebotsschocks klassifiziert; zeigten unzählige solcher Versuche seither, daß Angebotsschocks in der Konjunkturfrequenz i.d.R. nicht mehr als die Hälfte der Varianz des Output erklären können, eher

4 Siehe dazu die Ausführungen in Abschnitt 2.1. Wenn StemelBayoumi (1995,30) feststellen, daß Angebotsschocks vielfach die Preise steigern, weist das deutlich auf ungelöste Probleme solcher Art hin.

Wie real sind die Realen Konjunkturschwankungen?

23

sogar bloß ein Drittel (Tichy 1994, 184ff.; Stadler 1994, 1778; SternelBayoumi 1995). -

Zweitens wurde klar, daß die Schocks - welcher Art auch immer - Anstöße ftlr kumulative Prozesse darstellen, die eigenständige Bedeutung haben und als solche auch modelliert werden müssen. Quah (1994) lieferte Evidenz rur die Relevanz vieler kleiner disaggregierter Schocks, und eine eigene Forschungsrichtung begann, sich mit dem Zusammenspiel von nominellen und realen Rigiditäten zu beschäftigen (ftlr eine Übersicht siehe Hargreaves Heap 1992).

-

Drittens wurde die Frage der statistischen Trennung von Konjunktur und Wachstum wieder aufgeworfen. Die allzu lockere Verwendung des atheoretisch-pragmatischen Hodrick-Prescott-Verfahrens durch die Vertreter der Realen Konjunkturmodelle gab Anstöße einerseits zur Weiterentwicklung der Potential-Output-Schätzungen mit Hilfe von Produktionsfunktionen (TorreslMartin 1990), andererseits unter Verwendung struktureller Zeitreihenmodelle (EvanslReichlin 1994; Sefton 1995; Hahn 1996).

Die genauere Beschäftigung mit den empirisch beobachteten Konjunkturschwankungen anband der stilisierten Fakten (Konjunkturmuster) fllhrte nicht bloß zu einer breiteren Beschreibung und Erfassung des Konjunkturphänomens (Tichy 1994, Kap. 4 und 6.1), sondern - gemeinsam mit den inzwischen längeren verfllgbaren Reihen - auch zu einer neuen Stilisierung des Konjunkturverlaufs. Dabei zeigten sich weitere Konjunkturmuster, die die Reale Konjunkturtheorie nicht leicht erklären kann: Etwa, daß eine negative Korrelation zwischen der Tiefe einer Rezession und der Stärke des darauf folgenden Aufschwungs besteht (Perry/Schultze 1993); oder, daß selten zwei gleich starke Konjunkturhöhepunkte aufeinander folgen, sondern daß vielfach Zwischenkonjunkturen auftreten (Tichy 1994, 46ff.; Oppenländer 1995, 13ff.). Diese zeigen sich in den Erwartungsreihen oder in Lagerveränderungen in der Regel deutlicher als in den großen Makroaggregaten, wie nicht zuletzt die Daten des IFOInstitutes deutlich zeigen. Das wirft erheblichen Forschungsbedarf auf, weil es markante Hinweise darauf gibt, daß die Dynamik des kumulativen Fortpflanzungsprozesses über verschiedene Aggregate, etwa Lager oder Investitionen unterschiedlich verläuft, und fUhrt zu traditionellen Vorstellungen der Überlagerung von Konjunkturwellen unterschiedlicher Frequenz (Lager 2Yz Jahre Kitchin, Investitionen 6 Jahre - Juglar) zurück. Schließlich gilt es auch, die Erwartungen als eigenständigen, erklärungsbedürftigen Faktor zu akzeptieren,

24

Gunther Tichy

woftlr erste Analysen sehr deutlich sprechen (Tichy 1992; Oppenländer 1995, 16ff.). Die internationale Konjunkturforschung ist diesbezüglich noch nicht so weit; sie hält weiterhin an der Hypothese der Rationalen Erwartungen fest und zwar sogar in den meisten Varianten der Neuen Keynesianischen Makroökonomie.

D. Verzicht auf Konjunkturpolitik? Die Konjunkturtheorie der Realen Gleichgewichtsansätze geht von jederzeit vollständiger Markträumung und Rationalen Erwartungen aus und erklärt reale Konjunkturschwankungen als optimale Reaktion Rationaler Wirtschaftssubjekte auf Angebotsschocks. "The policy implication of this research is that costly efforts and stabilisation are likely to be counterproductive" (Prescott 1986, 21). Diese Schlußfolgerung paßt nicht schlecht in unsere Zeit zunehmender Marktgläubigkeit, die jeden Eingriff in die "spontane Ordnung der Märkte" als Ausfluß "angemaßten Wissens" (Hayek) betrachtet. So unzweifelhaft jedoch die Gleichgewichtsansätze die Konjunkturtheorie und die angewandte Wirtschaftsforschung beflügelt haben, so unzureichend sind die politischen Schlußfolgerungen, die daraus gezogen werden. Denn die neuen Ansätze zeigen bestenfalls einen wichtigen Mechanismus auf, der - vermutlich - neben anderen zur Erklärung beiträgt. Wenig - eigentlich so gut wie nichts - spricht derzeit daftlr, daß die reale Erklärung die einzige, monokausale Konjunkturerklärung ist, die ftlr jede Konjunkturwelle in jedem Land gilt, wie das Lucas mit seinem "business cycles are all alike" impliziert. Prescott (1986, 29) gibt das ein paar Seiten weiter auch indirekt zu, wenn er schreibt. "I only claim that technology shocks account for more than half the fluctuations in the postwar period, with a best point estimate near 75 percent." Alles spricht darur, daß auch das noch viel zu hoch gegriffen ist. Der Verzicht auf Konjunkturpolitik kann daher durch die Reale Konjunkturtheorie nicht begründet werden. Konjunkturpolitik bleibt aktuell und wichtig. Das bedeutet natürlich kein Plädoyer rur Feinsteuerung im Sinne der sechziger Jahre; diese war ein Überschießen in genau die entgegengesetzte Richtung. Mittelfristige Orientierung und Verstetigungsstrategien (Tichy 1995, 312ff.) müssen die Richtschnur bleiben, denn angesichts der immer genauer erkannten. Phänomene der Persistenz und Hysterese kann ein Verzicht auf Konjunkturpolitik zu schwer wiedergutzumachenden Verwerfungen ruhren.

Wie real sind die Realen Konjunkturschwankungen?

25

Literatur Altonji, J.G. (1982): The intertemporal substitution model of labour market fluctuations: An empirical analysis, in: Review of Economic Studies 49(5), Special issue, S.783-824. Altonji, J.G. (1986): Intertemporal substitution in labor supply: Evidence from microdata, in: Journal ofPolitical Economy 94(3/2), S. 176-215. Barro, R.J. (Hrsg.) (1989): Modem business cycle theory, Oxford: Basil Blackwell. Baxter, M.lCrucini, M. (1993): Explaining savinglinvestment correlation, in: American Economic Review 83(3), S. 416-436. Beaundry, P.lGuay, A. (1993): What do interest rates reveal about the functioning of Real Business Cycle Models? mimeo. Blanchard, OJ.lFischer, St. (1989): Lectures on macroeconomics, Cambridge, Mass., London. Blanchard, OJ.lQuah, D. (1989): The dynamic effects of aggregate demand and supply disturbances, in: American Economic Review 79(4), S. 655-673. Buiter, W.H. (1989): After New Classical Macroeconomics, in: Buiter,W.H. (Hrsg.): Macroeconomic theory and stabilization policy, Manchester University Press, S. 1-53. Burnside, C.lEichenbaum, M.lRebelo, S.T. (1993): Labor hoarding and the business cycle, in: Journal ofPolitical Economy 101(2), S. 245-273. Christiano, LJ.lEichenbaum, M. (1992): Current real-business-cycle theories and aggregate labor-market fluctuations, in: American Economic Review 82(3), S. 430-450. Cogley, T.lNason, J.M. (1995): Output dynamics in Real-Business-Cycle models, in: American Economic Review 85(3), S. 492-511. Cross, R. (1991): Macroeconomics into the 1990s, in: Scottish Journal of Political Economy 38(2), S. 293-301. Danthine, J.-P.lDonaldson, J.8. (1992): Risk sharing in the business cycle, in: European Economic Review 36(2/3), S. 468-475. Danthine, J.-P.lDonaldson, 1.B. (1993): Methodological and empirical issues in Real Business Cycle theory, in: European Economic Review 37(1), S. 1-35. Davis, StJ.lHaltiwanger, J. (1990): Gross job creation and destruction: Microeconomic evidence and macroeconomic implications, in: Blanchard, OJ.lFischer, St. (Hrsg.): NBER Macroeconomic Annual 1990, S. 123-186.

26

Gunther Tichy

Evans, G./Reichlin, L. (1994): Information, forecasts, and measurement ofthe business cyc1e, in: Journal ofMonetary Economics, 33, S. 233-254. Greenwood, J./Hercowitz, Z. (1992): Tbe allocation of capital and time over the business cyc1e, in: Cuckierman, A./Hercowitz, Z./Leiderman, L. (Hrsg.): Political economy, growth and business cyc1es, Cambridge, Mass., London, S. 307-334. Greenwood, J./Hercowitz, Z./Huffman, G.W. (1988): Investment, capacity utilization, and the real business cyc1e, in: American Economic Review 78(3), S. 402-417. Hansen, G.D./Prescott, E.C. (1993): Did technology shocks cause the 1980 - 1981 recession, in: American Economic Review 83(2), S. 280-286. Hahn, F. (1996): Potential-Output-Messung für Österreich, in: Monatsberichte des Österreichischen lnstituts für Wirtschaftsforschung 69(3), S. 223-234. Hargreaves Heap, S.P. (1992): The New Keynesian Macroeconomics. Time, belief and social interdependence, Aldershot: Elgar. Jordan, ThJ./Lenz, C. (1995): Demand and supply shocks in the IS-LM model: Empirical findings for five countries, mimeo. King, R.H./Rebelo, S.T. (1993): Low frequency filtering and Real Business Cycles, in: Journal ofEconomic Dynamlcs and Control 17(112), S. 207-231. Kydland, F.E./Prescott, E.C. (1982): Time to build and Econometrica 50(6), S. 1345-1370.

aggregat~

fluctuations, in:

Kydland, F.E./Prescott, E.C. (1991): Hours and employment variation in business cycle theory, in: Journal ofEconomic Theory 1(1), S. 63-81. Long, lB./Plosser, Ch.l. (1983): Real business cycles, in: Journal of Political Economy 91(1), S. 39-69. Lucas, R.E. (Hrsg.) (1981): Studies in business-cyc1e theory, Oxford: Basil Blackweil. Lucas, R.E./Rapping, L.A. (1969): Real wages, employment, and inflation, in: Journal ofPolitical Economy 77(5), S. 721-754. Lucke, B. (1995): Productivity shocks in a sectoral Real Business Cyc1e Model for West Germany, in: Free University of Berlin, Department of Economics, Discussion Paper 08/94. Mishkin, F.S. (1983): A rational expectations approach to macroeconometrics. Testing policy ineffectiveness and efficient-market models, Chicago, London: NBER, Chicago UP.

Wie real sind die Realen Konjunkturschwankungen?

27

Nelson, Ch.R./Plosser, Ch.1. (1982): Trends and random walks in macroeconomic time series. Some evidence and implications, in: Journal of Monetary Economics, 10, S. 139-162. Oppenländer, K.H. (1995): Zum Konjunkturphänomen, in: Oppenländer, K.H. (Hrsg.): Konjunktur-indikatoren, München, S. 4-22. Perry, G.L./Schultze, Dh.L. (1993): Was this recession different? Are they all different? in: Brookings Papers on Economic Activity 1, S. 145-215. Prescott, E.C. (1986): Theory ahead ofbusiness cycle measurement, in: Federal Reserve Bank ofMinneapolis, Quarterly Review 10(4), S. 9-22. Quah, D. (1994): One business cycle and one trend from (many,) many disaggregates, in: European Economic Review 38(3/4), S. 605-613. Sefton, J.A. (1995): Output gaps and inflation: An approach using a multivariable Beveridge-Nelson decomposition, in: National Institute of Economic and Social Research, Discussion Paper no. 87, London. Stadler, G.W. (1994): Real business cycles, in: Journal of Economic Literature 32(4), S. 1750-1783. Sterne, G./Bayoumi, T. (1995): Temporary cycles or volatile trends? Economic fluctuations in 21 OECD economies, in: Manchester SchooI53(1), S. 23-51. Tichy, G. (1976): Konjunkturschwankungen, Theorie, Messung, Prognose, in: Heidelberger Taschenbücher 174, Berlin. Tichy, G. (1992): Erwartungsbildung und Konjunkturforschung: Axiomatik versus Erhebungen, in: IFO-Studien 38(1), S. 43-82. Tichy, G. (1994): Konjunktur. Stilisierte Fakten, Theorie, Prognose, Heidelberg. Tichy, G. (1995): Konjunkturpolitik. Quantitative Stabilisierungspolitik bei Unsicherheit, Heidelberg. Torres, R./Martin, 1.P. (1990): Measuring potential output in the seven major OECD countries, in: OECD Economic Studies 14 (Spring), S. 127-149.

Zum Verhältnis von Geld- und Konjunkturpolitik Von Hans-JÜfgen Krupp und Karen Cabos

A. Die Rolle der Geldpolitik im Konjunkturverlauf Die Einschätzungen, welche Rolle die Geldpolitik im Konjunkturverlaufhaben solle, haben sich im Laufe der Zeit erheblich gewandelt. Mit der Konzeption der Globalsteuerung war die Vorstellung einer Geldpolitik verbunden, die aktiv antizyklisch in die Wirtschaft eingreift und so zur Stabilisierung der wirtschaftlichen Entwicklung beiträgt. Im Zusammenspiel von monetaristischem Grundansatz und der Theorie rationaler Erwartungen entstand der Gedanke von der Neutralität des Geldes in dem Sinne, daß von der Geldpolitik letztlich ohnehin keine realen Effekte ausgingen, so daß Geldpolitik im Konjunkturverlauf nur störend wirken könne. Hierzu paßte eine Einengung des Ziels: Geldpolitik könne sich auf das alleinige Ziel der Preisniveaustabilität beschränken. Freilich ist auch hierfilr eine im Konjunkturzyklus sich verändernde Geldpolitik notwendig. Die Diskussion makroökonomischer Theorien in den letzten Jahrzehnten hat gezeigt, daß bei unvollkommenen Güter- und Faktormärkten sehr wohl reale Effekte von der Geldpolitik ausgehen können, so daß die Frage, ob die Geldpolitik auch Aufgaben in der Konjunkturpolitik habe, nicht einfach übergangen werden kann. Nach den Erfahrungen mit dem Versuch, im Rahmen der Globalsteuerung Feinsteuerung zu betreiben, hat sich allerdings die Erkenntnis durchgesetzt, daß die Wirtschaftspolitik generell mit der Aufgabe der Feinsteuerung überfordert ist, so daß eine auf Stetigkeit setzende Makropolitik einer antizyklischen Politik vorzuziehen ist, die immer in der Gefahr steht, aufgrund von Steuerungsfehlern zur prozyklischen Politik zu entarten. Auch eine auf Stetigkeit setzende Wirtschaftspolitik enthält aber konjunkturpolitische Elemente. Sie versucht, die Konjunkturschwankungen zu mindern.

30

Hans-Jürgen Krupp und Karen Cabos

Grundsätzlich ist es Aufgabe einer auf Stetigkeit setzenden Geldpolitik dafUr zu sorgen, daß der monetäre Mantel einer Volkswirtschaft sich in einem stetigen Pfad mit dem Produktionspotential entwickelt. Dies ist nur erreichbar, wenn die Zinsen im Konjunkturverlauf schwanken. Erforderlich sind in der Rezession niedrige und im Boom hohe Zinsen, wenn man die Schwankungen der Geldnachfrage im Zyklus ausgleichen will. Die entscheidende Frage ist, nach welchen Gesichtspunkten man die jeweilige Zinshöhe festlegt. Eine frühe Antwort auf diese Frage bot das Geldmengenkonzept der Deutschen Bundesbank.

B. Zunehmende Volatilität der Geldmengenentwicklung Im Mittelpunkt der geldpolitischen Konzeption der Deutschen Bundesbank steht das Ziel, das Wachstum der Geldmenge mittelfristig am Produktionspotential orientiert zu verstetigen. Letztlich beruht dieses Konzept auf den theoretischen Vorstellungen der Quantitätstheorie, die postuliert, daß über einen längeren Zeitraum die Entwicklung der Preise der der Geldmenge folgt, vorausgesetzt, es gibt einen bestimmbaren Trend der Umlaufgeschwindigkeit des Geldes. In den sechziger und siebziger Jahren wurde davon ausgegangen, daß diese Hypothese durch die empirische Geldmengen- und Preisniveauentwicklung in den großen westlichen Industrieländern bestätigt werden konnte; das Konzept der Geldmengensteuerung fand in den siebziger Jahren viele Anhänger und wurde unter anderem auch in den Vereinigten Staaten und in England angewendet.

Die Geldmenge war insofern ein geeignetes Zwischenziel fUr das Ziel der Preisniveaustabilität. Und selbst wenn man nicht dem monetaristischen Grundansatz folgte, war die Geldmenge empirisch ein geeigneter Frühindikator fUr das Preisniveau. In den letzten Jahren sind jedoch so gravierende Zweifel an der Stabilität des langfristigen Zusammenhangs zwischen Geldmengenwachstum und Inflationsrate aufgekommen, daß in den westlichen Industrienationen mit Ausnahme der Deutschen Bundesbank alle Zentralbanken das Konzept der Geldmengensteuerung wieder aufgegeben haben. Die Schweizerische Nationalbank arbeitet inzwischen mit einem mehrjährigen Konzept.

Zum Verhältnis von Geld- und Konjunkturpolitik

31

Als Hauptursache der zunehmend instabilen Korrelation von Geldmengenwachstum und Inflationsrate wird das Vordringen von Finanzinnovationen angesehen. I Es hat dazu geführt, daß Geld und Geldkapital sehr viel einfacher miteinander austauschbar geworden sind, die beiden Größen daher empirisch immer weniger klar voneinander abgrenzbar sind. Anders formuliert: Die Entwicklung der dem Geldmengenkonzept zugrundeliegenden Geldmenge kann durch die meßbaren Geldmengenaggregate nicht mehr hinreichend genau abgebildet werden. Empirisch manifestiert sich dies in zunehmenden Schwankungen der Geldkapitalbildung, die zum dominanten Einflußfaktor ft1r die Geldmengenentwicklung werden. Da die Geldkapitalbildung in loserem Zusammenhang zur konjunkturellen Entwicklung - und damit zu potentiellem Preisdruck - steht als beispielsweise die Entwicklung des Kreditvolumens, hat die empirische Geldmengenentwicklung ihre Frühindikatorqualität in den letzten Jahren verloren. 2 In den siebziger und achtziger Jahren zeigen sich deutliche zyklische Schwankungen in den Wachstumsraten der weiter gefaßten Geldmengenaggregate (Abbildung 1). Auch in dieser Phase hat also die Geldpolitik ihr Ziel einer Verstetigung des Geldmengenwachstums im Konjunkturverlauf nicht erreicht. Der grundlegende Zusammenhang der Schwankungen des Geldmengenwachstums mit der konjunkturellen Entwicklung ist aber erkennbar. Demgegenüber haben sich die Schwankungen seit dem Ende der achtziger Jahre nicht nur verstärkt, es ist darüber hinaus kein Zusammenhang zur konjunkturellen Entwicklung mehr erkennbar: Das Wachstum von M3 beschleunigte sich noch in der beginnenden Rezession (1991/92), übrigens trotz eines langsamen Anstiegs der kurzfristigen Zinsen; statt des mit der üblichen Verzögerung von 10 Quartalen zu erwartenden Preisanstiegs kommt es zu einem deutlichen Rückgang der Inflationsrate. Dem drastischen Rückgang des Geldmengenwachstums vom Frühjahr 1994 bis zum Frühjahr 1995 auf einen historischen Tiefstand folgte eine im Verhältnis dazu moderate konjunkturelle Abschwächung 1995. Der Inflationsrückgang setzt sich fort, verstärkte sich freilich nicht. Schließlich wurde die Beschleunigung des Geldmengenwachstums

I Der empirische Nachweis dieser Hypothese ist wegen der mangelnden Meßbarkeit des Effekts einzelner Innovationen auf die Geldnachfrage schwierig. Vgl. für die USA z.B. Dotsey (1985). 2

Vgl. z.B. auch Issing (1992), S. 543.

Hans-Jürgen Krupp und Karen Cabos

32

um die Jahreswende 1995/1996 auch von der Bundesbank als unvereinbar mit den Preisprognosen (und Konjunkturperspektiven) angesehen, so daß sie eine Zinssenkung vornahm, die im Widerspruch zum Geldmengenwachstum stand und u.a. mit einer erwarteten Verlangsamung dieses Wachstums begründet wurde. Die Lockerung des Zusammenhangs von Geldmengen- und Preisniveauentwicklung ist in anderen Ländern wie den USA und England offenbar weiter vorangeschritten als in Deutschland. Empirische Untersuchungen tUr die USA deuteten bereits Ende der siebziger Jahre darauf hin, daß die langfristige Beziehung zwischen Geldmengenwachstum und Preisniveauentwicklung sich lockerte. 3 Demgegenüber -,. kommen Analysen mit deutschen Daten auch Mitte der neunziger Jahre noch zu unterschiedlichen Ergebnissen über die Stabilität der Langfristbeziehung. 4 Diese statistische Unsicherheit wird durch eine Studie von Hansen und Kim s bestätigt, die zeigen, daß das Ergebnis von der Spezifikation der zugrunde liegenden Tests abhängt. Im übrigen dürfte sich bei allen statistischen Schätzungen, so auch bei den Kointegrationsanalysen auswirken, daß die Zeitperiode, in welcher der Zusammenhang gestört ist, erst relativ kurz ist, so daß das Gewicht der Daten aus der Zeit stabilerer Beziehungen dominiert. Insofern sind Zweifel an der Stabilität der Langfristbeziehung angebracht. Einigkeit besteht ohnehin darüber, daß die kurzfristige Volattlität des Geldmengenwachstums erheblich zugenommen hat. Die Annahme einer vermeintlich langfristig stabilen Beziehung zwischen Geldmengenwachstum und Inflationsrate hat die Deutsche Bundesbank bislang dazu veraniaßt, am Konzept der Geldmengensteuerung festzuhalten. 6 Es stellt sich aber die Frage, ob die unterschiedlichen statistischen Ergebnisse fUr Deutschland und die USA bzw. England weniger die Folge grundsätzlich anderer monetärer Zusammenhänge in diesen Ländern sind, als vielmehr die des verzögerten (aber fortschreitenden) Vordringens von Finanzinnovationen auf dem deutschen Markt. Dies würde bedeuten, daß es nur eine Frage der Zeit ist, bis die Hypothese einer stabilen Langfristbeziehung zwischen Geldmengen-

3

z.B. Goldfeld (1976).

4 z.B. Schamagl (1996), KolelMeade (1995), Issingffödter (1994), Gerlach (1994), OECD (1993), von Hagen (1993).

S

HansenIKim (1994).

6

Vgl. z.B. Deutsche Bundesbank (1996), Monatsbericht Januar, S. 22.

Zum Verhältnis von Geld- und Konjunkturpolitik

33

wachstum und Inflationsrate auch fUr Deutschland mit Sicherheit verworfen werden muß. Diese Vermutung wird durch die Abbildung 2 bestärkt, die zeigt, daß auch mit stark geglätteten Daten in den letzten Jahren kein Zusammenhang zwischen Geldmengen- und Inflationsentwicklung mehr erkennbar ist. Abbildung 3 zeigt, daß diese Entwicklung in den USA bereits sehr viel früher einsetzte. Dieser Befund fUhrt zu der in Abschnitt 3 behandelten Frage, ob die Geldmenge auch in Zukunft die notwendige Orientierung fUr eine die Konjunktur stabilisierende Zinspolitik geben kann oder welche anderen Indikatoren hierfUr zur VerfUgung stehen. Im vierten Abschnitt werden deswegen die stabilisierungspolitischen Implikationen alternativer geldpolitischer Reaktionsfunktionen anband von Simulationsexperimenten in einem makroökonometrischen Modell untersucht. Simulationszeitraum sind dabei die neunziger Jahre.

c. Die Brauchbarkeit der volatilen Geldmenge als Zwischenziel und Frühindikator Fragt man nach den Auswirkungen zunehmender Geldmengenvolatilität auf die Geldpolitik, muß man zwischen der Geldmenge als Zwischenziel und als Frühindikator unterscheiden. Die Zwischenzielfunktion von M3 ergibt sich aus den oben erwähnten quantitätstheoretischen Überlegungen, die es bei langfristiger Stabilitat der quantitätstheoretischen Grundbeziehung erlaubt, die Stabilisierung des Preisniveaus indirekt über das Zwischenziel einer Verstetigung des Geldmengenwachstums anzustreben. Seine Indikatorfunktion bezieht M3 demgegenüber aus der empirischen Beobachtung, daß die Inflationsrate mit einer bestimmbaren und verläßlichen Verzögerung dem Geldmengenwachstum folgt. Damit können Veränderungen des Geldmengenwachstums zum einen kurzfristig zum Anlaß fUr korrigierende zinspolitische Schritte genommen werden. Zum anderen erlauben die Reaktionen des Geldmengenwachstums auf zinspolitische Schritte eine kÜfzerfristige Beurteilung des geldpolitischen Kurses. Das Verhältnis von Zwischenziel- und Indikatorfunktion ist asymmetrisch. Hält man die Langfristbeziehung zwischen beobachtbarem Geldmengen3 Festschrift Oppenländer

Hans-Jürgen Krupp und Karen Cabos

34

aggregat und Inflationsrate für gegeben, kann man an einer mittelfristigen Geldmengensteuerung festhalten. Diese läßt sich aber rur konkrete geldpolitische Entscheidungen nur einsetzen, wenn auch die Indikatorfunktion vorhanden ist. Anders ausgedrückt: Für konkrete Geldpolitik kommt es nur auf die Indikatorfunktion, nicht auf die Zwischenzielfunktion an. Ist die Indikatorfunktion entfallen, läßt sich das Zwischenziel nur noch mittelfristig interpretieren. Ein einjähriges Geldmengenziel ist dann unzulässig, ein mehrjähriges immer noch begrUndbar. Insofern ist der Übergang der Schweizerischen Nationalbank zu einem mehrjährigen Geldmengenziel konsequent. Der Bundesbank dagegen, die in der Beschlußlage des Zentralbankrats nach wie vor grundsätzlich an einem einjährigen Geldmengenkonzept festhält, bereitet der Verlust der FrUhindikatorqualität von M3 erhebliche Schwierigkeiten. Einen ersten Eindruck davon bietet die Geldpolitik in Deutschland zu Beginn der neunziger Jahre. Erratische Schwankungen des Geldmengenwachstums haben sich in diesem Zeitraum gegenüber den achtziger Jahren deutlich erhöht. Die Bundesbank nimmt diese Schwankungen immer weniger zum Anlaß für zinspolitische Schritte: Man kann beobachten, daß es schwieriger geworden ist, aus der aktuellen Geldmengenentwicklung die für die Zinspolitik brauchbaren Informationen "herauszufiltern ". Die Zahl der neben M3 verwendeten Indikatoren bei der Entscheidung über zinspolitische Maßnahmen hat zugenommen,' auf den ersten Blick passen Zinsschritte und Geldmengenentwicklung oft nicht mehr zusammen. Das wohl bekannteste Beispiel in diesem Zusammenhang ist die Zinssenkung vom Mai 1994, die - erfolgreich - mit dem Ziel durchgeftlhrt wurde, das Geldmengenwachstum zu drosseln. Auch die Zinssenkung im April 1996 stand im Widerspruch zum beschleunigten Wachstum von M3. In jüngerer Zeit hat die Bundesbank also die Konsequenzen daraus gezogen, daß die kurzfristige Beziehung zwischen Geldmenge und Inflation gestört ist, und deswegen nicht mehr auf die Frühindikatorfunktion der Geldmenge gesetzt, auch wenn es immer wieder öffentliche Diskussionen gibt, die den Eindruck erwecken, man dürfe einzelne Zinsentscheidungen von einer aktuellen Geldmengenzahl abhängig machen. Im übrigen hat diese pragmatische Politik die ohnehin problematische Bilanz der Zielverfehlungen in der Geldpolitik nicht weiter verschlechtert. In den Jahren 1990 bis 1995 ist das Geldmengenziel drei Mal verfehlt worden, obwohl in diesem Zeitraum auch die unbestreitbaren Übergangsprobleme durch die deutsche Einigung fallen.

7

Deutsche Bundesbank, Geschäftsbericht 1995, S. 85.

Zum Verhältnis von Geld- und Konjunkturpolitik

35

Die praktische Politik der Deutschen Bundesbank ist vor diesem Hintergrund schwer zu interpretieren. Am ehesten kann man davon ausgehen, daß sie die Verstetigung des Geldmengenwachstums über eine immer feinere Steuerung der Geldnachfrage einerseits und der zinsstrukturabhängigen Geldkapitalbildung andererseits versucht. Auf den ersten Blick steht diese Interpretation der Bundesbankpolitik nicht im Einklang mit der Darstellung des Geldmarkts in theoretischen Modellen, in denen der Zins den Ausgleich von Geldangebot und Geldnachfrage herstellt und in denen Geld- und Kapitalmarkt getrennt sind. Praktisch steuert die Bundesbank kurzfristig nicht das Geldangebot sondern den Zins - und befriedigt dann die Geldnachfrage, die zu diesem Zins besteht. Es spricht daher einiges daftlr, die empirisch beobachtete Geldmenge als Geldnachfrage zu interpretieren, obwohl dies streng genommen unzulässig ist. Wir werden daher im folgenden den Begriff Geldnachfrage nur verwenden, wenn wir theoretisch argumentieren und in der empirischen Analyse den Begriff der Geldmenge benutzen. Als Instrument zur Stabilisierung des Geldmengenwachstums dient der Bundesbank der Repo-Satz, durch den die Entwicklung des Tagesgeldsatzes relativ genau bestimmt werden kann. Aus theoretischer Sicht kann diese geldpolitische Strategie nur erfolgreich sein, wenn die transaktionsbedingten konjunkturellen Schwankungen der Geldnachfrage durch entsprechende Zinsschwankungen ausgeglichen werden, also steigende Zinsen im konjunkturellen Aufschwung, sinkende im Abschwung. Da die Geldnachfrage mit größerer zeitlicher Verzögerung auf Änderungen der Zinssätze als auf Änderungen des Transaktionsvolumens reagiert, müßten im Idealfall die Zinsschwankungen der konjunkturellen Entwicklung sogar vorauseilen. Während man beim Übergang zur Geldmengensteuerung - in Übereinstimmung mit den Thesen der Quantitätstheorie - noch davon ausging, daß die zur Stabilisierung des Geldmengenwachstums notwendigen Schwankungen des kurzfristigen Zinsniveaus keinen Einfluß auf die konjunkturelle Entwicklung haben, kommt eine Reihe empirischer Untersuchungen aus den letzten Jahren ftlr Deutschland wie für die USA zu dem Ergebnis, daß Änderungen des kurzfristigen (realen) Zinsniveaus gute Frühindikatorqualitäten für die konjunkturelle Entwicklung besitzenI, die der der realen Langfristzinsen in etwa entspricht. Zwar ist die Suche nach einer theoretischen Erklärung dieses Zusam-

8 Vgl. RomerlRomer (1994); Sims (1993), BemankeIBlinder (1992), Döpke et al. (1994), File (1992).

Hans-Jürgen Krupp und Karen Cabos

36

menhangs zwischen kurzfristigen Zinsschwankungen und konjunktureller Entwicklung nicht abgeschlossen, was den Studien bisweilen den Vorwurf des "post hoc ergo propter" einbringt. 9 Zwei Implikationen dieses Befundes - wenn er sich denn bestätigen läßt - ftlr die Geldpolitik in Deutschland liegen auf der Hand. Zum einen muß man sich theoretisch fragen, ob eine nur am Geldmengenwachstum orientierte Zinspolitik tatsächlich als konjunkturell neutral angesehen werden kann. Hier spielen Wirkungsverzögerungen zwischen Zinsentwicklung und Geldmengen- bzw. KonjunkturentWicklung eine Rolle, aber auch die Entwicklung von Inflationserwartungen im Konjunkturverlauf als Bindeglied zwischen realer und nominaler Zinsentwicklung. Diese Frage ist insbesondere von Bedeutung, wenn das beobachtbare Geldmengenaggregat nicht dem konzeptionellen Aggregat entspricht, wie dies heute der Fall ist. Zum andern gewinnt unter diesem Aspekt das Gelingen einer konjunkturell neutralen Zinspolitik an Bedeutung: Verzögerte oder falsch dimensionierte zinspolitische Schritte schaden nicht nur dem Ziel der Preisniveaustabilität, weil von ihnen ungewollte Impulse auf das Geldmengenwachstum im konzeptionellen Sinne ausgehen. Sie tragen darüber hinaus dazu bei, konjunkturelle Schwankungen zu verstärken. Die Orientierung der Zinspolitik an zuverlässigen konjunkturellen FrUhindinkatoren ist aus .dieser Sicht nicht nur eine notwendige Voraussetzung zur Sicherung der Preisniveaustabilität sondern auch der konjunkturellen Entwicklung. Beim Übergang zur Geldmengensteuerung in den siebziger Jahren besaßen breite Geldmengenaggregate wie die Zentralbankgeldmenge oder auch M3 die zweifache Qualität, nicht nur in engem Zusammenhang zur späteren Preisniveauentwicklung zu stehen, sondern auch der konjunkturellen Entwicklung vorauszueilen. Abweichungen vom mittelfristig angestrebten Geldmengenwachstum konnten daher als Anlaß ftlr gegenläufige zinspolitische Schritte angesehen werden: Zu Beginn der Rezession Anfang der siebziger Jahre war das Geldmengenwachstum deutlich rückläufig. In der folgenden Rezession Anfang der achtziger Jahre war die Wachstumsrate der Zentralbankgeldmenge bereits drei Quartale vor Beginn der Rezession rückläufig und auch 1987 stagnierte das Geldmengenwachstum mit Einsetzen der Rezession.

9

HooverlPerez (1994).

Zum Verhältnis von Geld- und Konjunkturpolitik

37

D. Empirische Analyse alternativer Indikatoren in geldpolitischen Reaktionsfunktionen Der Frage, an welchen Indikatoren sich die kurzfristige Zinspolitik orientieren sollte, ist damit von entscheidender Bedeutung dafUr, daß die Geldpolitik ihrer stabilisierenden Rolle gerecht wird. Als Instrument zur Analyse dieser Fragestellung bieten sich Simulationsexperimente in großen ökonometrischen Modellen an. Dennoch wirft auch die Analyse in einem großen Modell wie dem von uns verwendeten Quartalsmodell der deutschen Volkswirtschaft SYSIFO IO Probleme auf, die dadurch zustande kommen, daß die Autoren letztlich eine allgemeinen Gesichtspunkten folgende Entscheidung darüber zu treffen hat, welche funktionalen Zusammenhänge im Modell berücksichtigt werden sollen. Technisch gesprochen müssen Variablen als exogen klassifiziert werden, obwohl sie diese Qualität - zumindest in Bezug auf bestimmte Fragestellungen - nicht haben. Bei der Analyse anderer zinspolitischer Strategien in SYSIFO ergeben sich solche Probleme aus der Tatsache, daß zwar zahlreiche Relationen der deutschen Volkswirtschaft berücksichtigt werden, die Variablen des Auslands aber als exogen betrachtet werden. Insbesondere ist der Kurs der amerikanischen Zinspolitik modellexogen, und im Zusammenhang damit auch zinsinduzierte Devisenkursreaktionen. Auf Implikationen dieser Problematik für unsere Analyseergebnisse wird weiter unten eingegangen. Als Anfangszeitpunkt für die Simulationsexperimente bietet sich grundsätzlich das Jahr 1991 an. Zum einen, weil damit vennieden wird, die unmittelbaren Effekte der deutschen Einigung in die Simulation einzubeziehen, zum anderen, weil damit die gesamte Rezessionsphase Berücksichtigung fmdet.

I. Geldmengenaggregate Wenn im folgenden zunächst die Eignung der Geldmenge als Indikator für die Zinspolitik überprüft werden soll, steht dahinter die Frage, ob die Bundesbank sich in der Vergangenheit tatsächlich an der Geldmenge orientiert hat,

10 SYSIFO ist ein an der Universität Hamburg entwickeltes makroökonomisches Modell. Vgl. DieckmannlWestphal (1995).

Hans-Jürgen Krupp und Karen Cabos

38

anders ausgedrückt, ob das Ergebnis besser gewesen wäre, wenn sie dies getan hätte. Insbesondere fUr die Phase 1980/82 fUhrt eine geldmengenorientierte Betrachtung zu der These, daß die Bundesbank den in der Geldmenge ·sichtbaren frühen Anzeichen der Rezession durch zinspolitische Schritte nicht genügend Rechnung getragen habe und damit mitverantwortlich fUr ihr Ausmaß sei. In einer früheren Analyse haben wir argumentiert, daß die Rezession zu Beginn der achtziger Jahre milder ausgefallen wäre, wenn die Deutsche Bundesbank in dieser Phase eine strikt geldmengenorientierte Politik betrieben hätte, statt sich in ihren Zinsschritten allein an der aktuellen Preisniveauentwicklung zu orientieren. 1I Auch die Rezession 1991/1993 zeichnet sich dadurch aus, daß die Bundesbank erst in der Mitte der konjunkturellen Schwächephase auf einen kontinuierlichen Zinssenkungspfad einschwenkte. Und wie in der Rezession zu Beginn der achtziger Jahre vergingen vom Zeitpunkt der Zinswende bis zum Überwinden der Rezession vier Quartale, was die frühere These stützt, daß der Zeitpunkt des Übergangs zu einer konsequenten Zinssenkungspolitik entscheidend fUr den weiteren Verlauf einer Rezession ist. Eine Orientierung der Zinsschritte an der Geldmengenentwicklung hätte jedoch in dieser Phase die Probleme vermutlich eher vqschärft als gemildert: In der ersten Hälfte der Rezession nahm das Geldmengenwachstum kräftig zu und dieser Trend wurde schließlich durch die Zinssenkung vom Mai 1994 gestoppt. Auch wenn man berücksichtigt, daß der Beginn der konjunkturellen Abschwächung von DIW und Deutscher Bundesbank unterschiedlich eingeschätzt wird - die Bundesbank sieht diesen Zeitpunkt genau ein Jahr später als das DIW - ändert sich das Bild nicht wesentlich. Zwar verlangsamte sich das Geldmengenwachstum ab Mitte des Jahres 1992 kurz, als konjunkturelle Abschwächung signalisierender Trend kann diese Entwicklung jedoch nicht angesehen werden. Diese Überlegungen deuten darauf hin, daß im Gegensatz zu der Rezession 1980/1982 eine strikt an der Geldmengenentwicklung orientierte Zinspolitik zu Beginn der neunziger Jahre wohl kaum die erwünschten antizyklischen Schwankungen des kurzfristigen Zinsniveaus hervorgebracht hätte. Um diesen ersten Eindruck zu überprüfen, beginnen wir die Analyse mit den Auswirkungen einer rein geldmengenorientierten Zinspolitik.

11

Krupp/Cabos (1996), vgl. auch File (1996), S. 211.

Zum Verhältnis von Geld- und Konjunkturpolitik

39

Eine ausschließlich am Geldmengenwachstum orientierte geldpolitische Reaktionsfunktion, die filr den Zeitraum Anfang der achtziger Jahre gute Ergebnisse lieferte, lautet IT - IT(-l) = m3 - m3(-I), wobei IT filr den Tagesgeldsatz steht und M3 fUr die Geldmenge M3, Kleinbuchstaben kennzeichnen Wachstumsraten gegenüber dem Vorjahresquartal. Die Simulation mit einer modellendogenen Reaktionsfunktion ist in diesem Fall erst ab 1992.2 möglich, weil die Wachstumsrate von M3 in 1992 einigungsbedingt nach oben verzerrt ist. Der sich ergebende Zinspfad ist in Abbildung 4 dargestellt (Szenario M3). Es zeigt sich, daß eine ausschließlich geldmengenorientierte Zinspolitik in dieser Phase erratische Schwankungen des Tagesgeldsatzes induziert hätte, die in keinerlei Beziehung zur konjunkturellen Entwicklung stehen. Obwohl dieses Ergebnis nicht überrascht, ist natürlich interessant, wie es innerhalb des Modells zustande kommt. Die Schätzung von M3 in SYSIFO basiert auf portfoliotheoretischen Überlegungen. Ausgehend von der Vorstellung, daß die Nachfrage nach M3 sich aus Vermögensanlageentscheidungen ergibt, geht neben der Differenz der Ertragsraten von in M3 enthaltenen Komponenten und der Verzinsung alternativer Anlageformen nur eine Vermögensgröße in die Gleichung ein. Gebildet wird die Vermögensgröße als gewichtete Summe der Bruttogeldvermögen der privaten Haushalte und der Unternehmen in Westdeutschland, des Staates und des aus dem ostdeutschen Sozialprodukt geschätzten Vermögens von privaten Haushalten und Unternehmen in Ostdeutschland. 12 Anders als bei einer transaktionsorientierten Spezifikation der Geldnachfragefunktion zu erwarten wäre, fällt auf, daß die geschätzten Residuen in dem betrachteten Simulationszeitraum klein sind. Die gewählte Speziftkation der Geldnachfrage kann also die im Widerspruch zur konjunkturellen Entwicklung stehende Geldmengenentwicklung zu Beginn der neunziger Jahre erklären. Sie ist daher nicht das Ergebnis zufälliger Störungen. Dieses Schätzergebnis kann als ein Hinweis auf die in letzter Zeit zunehmend diskutierte Vermögensabhängigkeit von M3 gewertet werden. Demnach beeinträchtigt der Einfluß des Vermögens auf die Geldnachfrage die Frühindikatorqualität von M3}3 Aller-

12

DieckmannlWestphai (1995).

13 Die Implikationen einer solchen Vermögensabhllngigkeit der Nachfrage nach M3 rur die praktische Geldpolitik werden kontrovers beurteilt. So weisen z.B. Hesse und

Hans-Jürgen Krupp und Karen Cabos

40

dings weisen die Residuen eine deutliche Autokorrelation auf, die möglicherweise im Zusammenhang mit der Vernachlässigung des Einkommens in der Gleichung erklärt werden kann. Um zu überprüfen, ob unsere frühere Behauptung, eine rechtzeitige Zinssenkungspolitik der Bundesbank würde rezessionsmildernde Effekte haben, auch ftlr die Rezession 1991/1993 gilt, kann man im Nachhinein - mit dem Wissen, wann die Rezession tatsächlich stattgefunden hat - natürlich untersuchen, wie rechtzeitige Zinssenkungsschritte auf die konjunkturelle Entwicklung, die Entwicklung des Preisniveaus und der Geldmenge gewirkt hätten (Szenario Stetig). Wir haben dazu den Tagesgeldsati: vom zweiten Quartal 1991 (Rezessionsbeginn gemäß DIW) bis zum ersten Quartal 1993 in gleichmäßigen Schritten von 0,5 Prozentpunkten auf 4,6 % gesenkt und anschließend bis zum Ende der Rezession (1993.3) auf diesem Niveau belassen. (Die Inflationsrate lag in dieser Phase bei 4%). Die Simulationsergebnisse sind in Tabelle 1 zusammengestellt. Es bestätigen sich die bekannten Ergebnisse: Produktions- und Beschäftigungsrückgang wären geringer ausgefallen als dies historisch der Fall war. Außerdem hätte diese Zinspolitik keinen nennenswerten Einfluß auf die Preisniveaustabilität gehabt. Da der Simulationszeitraum nur 10 Quartale umfaßt, stellt sich natürlich die Frage, ob die Preisreaktionen erst bei längeren Simulationen sichtbar würden. Experimente über einen längeren Zeitraum in den achtziger Jahren ergeben aber, daß dies nicht der Fall ist. 14 Dieses Ergebnis ist nur insofern befriedigend als es die behauptete konjunkturelle Bedeutung der Zinspolitik im kurzfristigen Bereich bestätigt. Das Problem eines fehlenden Frühindikators, der diese Zinspolitik eingeleitet hätte, bleibt bestehen.

Braasch (1994) darauf hin, daß die Verwendung von an Strömungsgrößen orientierten Inflationsmaßen dann nicht mit der Verwendung von M3 als Maß rur die Geldmengenexpansion kompatibel ist. Demgegenüber betont Issing (1992), daß ein signifikant positiver Einfluß des Einkommens für die Verwendung von M3 als Zielgröße ausreichend ist. 14

Vgl. Krupp/Cabos (1996).

Zum Verhältnis von Geld- und Konjunkturpolitik

41

11. Inflations- und DIP-Wachstumsraten Die bisherigen Überlegungen fUhren zu dem Ergebnis, daß eine das Preisniveau und die konjunkturelle Entwicklung stabilisierende Steuerung des Tagesgeldsatzes in zunehmendem Maße von der Verfügbarkeit anderer konjunktureller FrUhindikatoren als der Geldmengenentwicklung abhängt. Neben Zinsen bzw. Zinsdifferenzen, deren Verwendung als Frühindikatoren in der Geldpolitik wohl an Goodharf s Law scheitern dürfte, werden vor allem in der amerikanischen Literatur geldpolitische Reaktionsfunktionen diskutiert, die sich an einem gewichteten Mittel aus Inflationsrate und einer realen Wachstumsrate beispielsweise des BIP orientieren. ls Taylor (1993) schlägt konkret eine gleichmäßige Gewichtung der beiden Indikatoren vor. Die Reaktionsfunktion würde mithin lauten IT - IT(-I) = 1/2(p - p(-I)) + 1/2(y - y(-I)), wobei P fUr das Preisniveau und Y fUr das reale Bruttoinlandsprodukt steht. Der unbestreitbare Charme dieses Vorschlags liegt in seiner Einfachheit und der expliziten Berücksichtigung des Zusammenhangs von konjunktureller Entwicklung und Zinspolitik. Die Nachteile sind natürlich darin zu sehen, daß es sich bei keiner der beiden Größen um einen Frühindikator handelt. Ganz im Gegenteil: Die Preisentwicklung läuft der konjunkturellen Entwicklung um mehrere Quartale hinterher. Andererseits beeinflußt die aktuelle Inflationsrate über die Erwartungsbildung die Höhe des realen Zinsniveaus und das nominale Transaktionsvolumen, so daß ein - geringes - Gewicht in der geldpolitischen Reaktionsfunktion durchaus sinnvoll sein kann. 16 Problematisch an der vorgeschlagenen Reaktionsfunktion erscheint darüberhinaus die Tatsache, daß nicht nachfragebedingten Preisauftriebstendenzen erst nach ihrem Niederschlag in der Inflationsrate entgegengewirkt wird. Taylor behauptet aber, die relativ erfolgreiche Zinspolitik der Fed in den letzten Jahren durch seine Reaktionsfunktion befriedigend abbilden zu können. Dieses Ergebnis ließe sich für die Zinspolitik der Bundesbank sicher nicht bestätigen - wir haben früher argumentiert, daß zwar der aktuellen Inflationsrate offenbar ein sehr hohes Gewicht in der geldpolitischen Reaktionsfunktion

15

Vgl. Taylor (1995), BryantIHooperlMann (1993).

16

V gl. dazu z.B. Blinder (1996).

Hans-Jürgen Krupp und Karen Cabos

42

der Bundesbank zukommt, die aktuelle konjunkturelle Entwicklung scheint aber bedeutungslos. Daher ist es interessant, zu untersuchen, welche Zinsentwicklung Taylors Reaktionsfunktion nach 1991 in Deutschland hervorgerufen hätte und welche Folgen fUr die konjunkturelle Entwicklung davon ausgegangen wären (Szenario BIP/lnjlation). Simulationen mit einer modellendogenen Reaktionsfunktion scheiden in diesem Fall wegen der auftretenden Simultanitätsprobleme aus. Die sich ergebenden Zinsschritte wurden daher in einer iterativen Simulation von Quartal zu Quartal von Hand berechnet. Als Preisniveau haben wir dabei den Preisindex filr die Lebenshaltung verwendet. Abbildung 4 zeigt den sich ergebenden Zins1 ,.' enthält die wichtigsten Simulationsergebnisse. Zumindest hätte pfad, Tabelle . ... die Reaktionsfunktion zwischen Ende 1991 und Anfang 1993 einen sinkenden Tagesgeldsatz induziert und danach einen moderaten Zinsanstieg. Wegen des anfllnglich induzierten Zinsanstiegs hätte das reale BIP zunächst etwas unter seinem historischen Niveau gelegen. Ab dem zweiten Quartal 1992 liegt es jedoch darüber. Die maximale Abweichung des BIP von seinem historischen Niveau beträgt 0,25%. Auf die Inflationsrate hat die veränderte geldpolitische Strategie keine Effekte. . ",

Auf den ersten Blick erscheint der reale Effekt dieser veränderten zinspolitischen Strategie sehr gering. Er ist jedoch teilweise auf die vereinfachenden Annahmen des Modells ZUfÜckzuftlhren: Der Transmissionsmechanismus einer Senkung der kurzfristigen Zinsen hängt in SYSIFO ausschließlich vom Effekt der Zinssenkung auf die Langfristzinsen ab. Dabei hängt der Zusammenhang von kurz- und langfristiger Zinsentwicklung wesentlich von der Zinspolitik in den USA ab: Eine gleichzeitige Zinssenkung in den USA und in Deutschland schlägt in vollem Umfang auf die Langfristzinsen in Deutschland durch, während ein isolierter Zinsschritt in Deutschland sich nur zum Teil überträgt. Die Simulationsexperimente wurden unter der Annahme durchgeftlhrt, daß die Zinspolitik in den USA ihrer historischen Entwicklung entspricht. Die deutsche Zinspolitik hat also keinen Effekt auf die amerikanische. Wenn auch vieles fUr diese Hypothese spricht, so weisen neuere Untersuchungen auf einen kurzfristigen Zusammenhang der Zinspolitik in beiden Ländern hin, der auf eine Übertragung in beide Richtungen hindeutet. 17 Eine Berücksichtigung dieses Effekts in den Simulationsexperimenten erhöht die realen Effekte der Zinspolitik.

17

Vgl. Hansen (1996).

Zum Verhältnis von Geld- und Konjunkturpolitik

43

Eine weiteres Problem dieses Ansatzes betrifft die Tatsache, daß nur der Zinspfad, nicht dagegen das Zinsniveau bestimmt werden, weil die Reaktionsfunktion sich auf Zinsänderungen bezieht und keine Niveauvariable enthält. Insofern spielt das Ausgangszinsniveau eine entscheidende Rolle. Setzt man die Simulation ein Quartal später auf, so fällt der anfllngliche - historische Zinsanstieg weg und die maximale Abweichung des BIP von seinem historischen Niveau beträgt knapp 0,5%. Dieses Ergebnis zeigt, daß eine derartige Reaktionsfunktion in der Praxis auch nur "weich" zu handhaben wäre in dem Sinne, daß vor allem in der Anfangsphase die Berücksichtigung zusätzlicher Indikatoren die Überprüfung und gegebenenfalls Korrektur des Zinsniveaus erlauben müßte. Der gewichtigste Einwand gegen diesen Ansatz dürfte aber in der Tatsache liegen, daß es sich bei der aktuellen Inflationsrate um einen typischen Spätindikator sowohl der konjunkturellen Entwicklung als auch des geldpolitischen Kurses handelt, dessen Berücksichtigung das zinspolitische Handeln in zyklenverstärkender Weise verzögert. Als Abhilfe bieten sich in diesem Zusammenhang längerfristige Inflationsprognosen an, wie sie zum Beispiel die Bank of England verwendet. Die Implikationen eines solchen geldpolitischen Kurses können in SYSIFO nicht untersucht werden, da das Modell keine ausreichende Basis filr eine längerfristige Inflationsprognose bietet. Dahinter liegt aber das grundlegende Problem, welche Variablen filr eine solche Prognose geeignet sind. Auf jeden Fall sind Frühindikatoren der konjunkurelIen Entwicklung leichter zu bestimmen als solche der Inflation. III. Frühindikatoren am Beispiel von BIP-Wachstumsraten Aus dieser Sicht spricht einiges dafilr, die kurzfristigen Zinsschritte allein an der konjunkturellen Entwicklung zu orientieren. Diese soll mit Rücksicht auf die Beschränkungen des verwendeten Modells durch das reale BIP-Wachstum gemessen werden. Daher beschränken wir uns auf die Analyse der sich bei einer rein produktionsorientierten geldpolitischen Reaktionsfunktion ergebenden Zinsschritte (Szenario BIP). Abbildung 4 enthält den sich ergebenden Zinspfad; Tabelle I die wichtigsten Simulationsergebnisse. Die oben ausgefUhrten Einschränkungen bezüglich des Niveaus des Anpassungspfades gelten auch hier.

44

Hans-Jürgen Krupp und Karen Cabos

Im Vergleich zu der von Taylor vorgeschlagenen Reaktionsfunktion ergibt sich ein steilerer Zinsverlauf, der stärkeren Schwankungen unterliegt. Dies ist insofern wenig überraschend, als die Preisentwicklung im allgemeinen träger verläuft als die Wachstumsentwicklung des BIP. Entsprechend stärker fallen die konjunkturellen Effekte dieser zinspolitischen Strategie aus. Nach diesen Ergebnissen spricht also alles für eine Ausrichtung der Zinspolitik an echten konjunkturellen Frühindikatoren. In der Praxis scheidet das hier in der Modellanalyse verwendete Verfahren, das aktuelle BIPWachstum zugrunde zu legen, wegen der verzögerten VerfUgbarkeit der Daten aus. Allerdings existiert inzwischen eine Reihe konjunktureller Frühindikatoren, wie beispielsweise der des Handelsblattes, die in der Lage sind, die konjunkturelle Entwicklung mit etwa einem Quartal Vorlauf relativ gut zu prognostizieren, so daß der praktischen Umsetzung einer solchen Strategie von dieser Seite nichts entgegensteht. Das Problem einer derartigen geldpolitischen Strategie liegt im Vertrauensbereich. Man kann sich streiten, inwieweit die Konzeption der Geldmengensteuerung angesichts zahlreicher Zielverfehlungen, aber auch vom Konzept nicht gedeckter Zinsentscheidungen wirklich vertrauensbildend gewirkt hat. In jedem Fall kann man nicht damit rechnen, daß dies angesichts der Volatilität der Geldmenge auf Dauer der Fall ist. Die Erfahrungen der letzten Jahre sprechen ohnehin dafür, daß die Geldpolitik in Deutschland viel weniger das Ergebnis einer erfolgreichen Steuerung der Geldmenge ist als das einer glaubwürdigen Androhung restriktiver zinspolitischer Maßnahmen für den Fall, daß die Inflationsrate die angestrebte Rate überschreitet. 1I Dies scheint auch eine schlüssige Erklärung für den offensichtlichen Zusammenhang zwischen aktueller Inflationsrate und der Entwicklung des Reposatzes in Deutschland zu sein, die durch empirische Analysen bestätigt wird. Kein Zweifel kann daran bestehen, daß die Bundesbank sich in den letzten Jahrzehnten Vertrauen in ihre Fähigkeit und Entschlossenheit zur Inflationsbekämpfung erarbeitet hat. Ein Übergang zur Orientierung an konjunkturellen Frühindikatoren würde Preisstabilität und Wachstum gleichermaßen dienen. Die Ernsthaftigkeit der Inflationsbekämpfung könnte durch die Ankündigung eines Inflationszieles, verbunden mit der Berücksichtigung einer langfristigen Inflationsprognose unterstrichen werden. Die Zugrundelegung langfristiger Inflationsprognosen

18

Neumannlvon Hagen (1995), FunkelHall (1992), Vaubel (1993).

Zum Verhältnis von Geld- und Konjunkturpolitik

45

wäre der Betrachtung der aktuellen Inflationsrate deutlich überlegen, da sie die Wirkungsverzögerung zwischen geldpolitischen Maßnahmen und ihrer Übertragung auf die Inflationsrate berücksichtigt.

E. Zusammenfassung Während empirische Analysen für England und die USA schon in den achtziger Jahren ergaben, daß die langfristige Stabilität der Geldnachfrage nicht mehr gesichert war, sind die Ergebnisse für Deutschland nach wie vor nicht eindeutig. Doch zeigt sich auch hier, daß zumindest die kurzfristige Volatilität des Geldmengenwachstums seit dem Ende der achtziger Jahre spürbar zugenommen hat. Für die praktische Geldpolitik bedeutet dies, daß M3 seine Frühindikatorqualität verloren hat. Eine Zinspolitik, die die Geldnachfrage im Konjunkturverlauf stabilisiert, kann daher nur gelingen, wenn den konkreten zinspolitischen Entscheidungen andere Indikatoren zugrunde gelegt werden. Als solche Indikatoren werden der Geldmenge eine stetige Zinsreduktion kurz vor Einsatz einer Rezession, eine Mischstrategie, die an aktueller Inflationsrate und BIP-Wachstum ansetzt, und eine Orientierung an konjunkturellen Frühindikatoren (ex post in der BIP-Wachstumsrate operationalisiert) gegenübergestellt. Simulationsexperimente in einem makroökonometrischen Modell ergeben, daß aus konjunktureller Sicht eine ausschließlich am realen Wachstum, konkret also an konjunkturellen Frühindikatoren, orientierte Reaktionsfunktion einer Mischstrategie überlegen ist - ohne destabilisierend auf die Inflationsrate zu wirken. Als zusätzlicher Orientierungsmaßstab zur mittelfristigen Sicherung der Preisniveaustabilität kommen mittelfristige Inflationsziele, verbunden mit Inflationsprognosen in Frage. In Rezessionsphasen kann die Geldpolitik also in unterschiedlichem Ausmaß zur Sicherung der Beschäftigung beitragen, ohne das Ziel der Preisniveaustabilität zu gefllhrden. Eine an konjunkturellen FrOhindikatoren orientierte Geldpolitik wird ohne zusätzliche Inflation deutlich mehr Beschäftigung sichern als eine, bei der die aktuelle Inflationsrate eine wichtige Rolle spielt.

46

Hans-Jürgen Krupp und Karen Cabos

Literatur Bernanke, B.S.lBlinder, A.S. (1992): "The Federal Funds Rate and Channels ofMonetary Transmission", in: American Economic Review 82/4, S. 901-921. Blinder, A. (1996): "On the Conceptual Basis ofMonetary Policy", Vortrag vor der Senior Executives Converence of the Mortgage Bankers Association, New York. Bryant, R.lHooper, P.lMann, C. (1993): Evaluating Policy Regimes: New Research in Empirical Macroeconomics, Washington D. C. Deutsche Bundesbank: Monatsberichte, div. Jg., Geschäftsberichte, div. Jg.

Dieekmann, O.lWestphal, U. (1995): SYSIFO: ein ökonometrisches Modell der deutschen Volkswirtschaft, Hamburg. Döpke, J.lKrämer, J.W.lLangfeldt, E. (1994): "Konjunkturelle Frühindikatoren in peutschland", Konjunkturpolitik 4012, S. 135 - 153. Dotsey (1985): "The Use ofElectronic Funds Transfers to Capture the Effect ofCash Management Practices on the Demand for Demand Deposits", in: Journal ofFinance 40, 1493-1504. File, W. (1992): "Monetäre Fundierung einer angebotsorientierten Stabilisierungspolitik", Konjunkturpolitik 38,5/6, S. 316-339. File, W. (1996): "Geldmengenziel versus Inflationsziel in der Europäischen Währungsunion", in: Wirtschaftsdienst 76/4, S. 208-216. Funke, M.lHall, S. (1992): "Is the Bundesbank Different from other Central Banks?: A Study based on p*", Centre for Economic Forecasting, Discussion PaperNr. 11-92. Gerlach, S. (1994): "German Unification and the Demand for German M3", Working paper no. 21, BIZ, Basel. Goldfold, S. (1976): "The Case of the Missing Money", in: Brookings Papers on Economic Activity 3: 1976,683-739. von Hagen, J. (1993): "Monetary Union, Money Demand and Money Supply: A Review of the German Monetary Union, in: European Economic Review 37, S. 803836. Hansen, G.lKim, J.-R. (1994): "Die Ursachen der Inflation in Deutschland, Diskussionspapier, Universität Kiel. Hansen, G. (1996): "The Domestic Term Strucure and International Interest Linkages - a Co integration Analysis", Diskussionspapier 8711996, Universität Kiel. Hesse, H.lBraaseh, B. (1994): "Zum 'optimalen' Instrumentarium der Europäischen Zentralbank", in: Gahlen, B. et al. (Hrsg): Europäische Integrationsprobleme aus wirtschaftswissenschaftlicher Sicht, Schriftenreihe des Wirtschaftswissenschaftlichen Seminars Ottobeuren, Bd. 23, Tübingen, S. 161-183.

Zum Verhältnis von Geld- und Konjunkturpolitik

47

Issing, O. (1992): "Theoretische und empirische Grundlagen der Geldmengenpolitik der Deutschen Bundesbank", in: Wirtschaftsdienst 72, S. 537-548. Hoover, K.D.lPerez, S.1. (1994): "Post hoc ergo propter once more: An evaluation of 'Does monetary policy matter?' in the spirit of James Tobin", in: Journal of Monetary Economics 34 no. 1, S. 47-73. Issing, O./Tödter, K.-H. (1994): "Geldmenge und Preise im vereinigten Deutschland" in: Duwendag, D. (Hrsg.): Neuere Entwicklungen in der Geldtheorie und Währungspolitik, Berlin, S. 97-123. Kole, L.S.lMeade, E.E. (1995): "German Monetary Targeting: A Retrospective View", in: Federal Reserve Bulletin 81, S. 917-931. Krupp, H.-J.lCabos, K. (1996): "Geldpolitik und Beschäftigung", erscheint in: Gahlen et al. (Hrsg.): Arbeitslosigkeit und Möglichkeiten ihrer Überwindung, Schriftenreihe des Wirtschaftswissenschaftlichen Seminars Ottobeuren Bd. 25. Neumann, M.J.M.lvon Hagen, 1. (1995): "What Monetary Policy for the European Central Bank?", Diskussionspapier für die CEPRlIrving Fisher Society Conference Juni 1995, Frankfurt/M. OECD (1993): Economic Surveys 1992 - 1993: Germany, Paris.

Poole, W. (1970): "Optimal Choice ofMonetary Policy Instruments in a Simple Stochastic Macro Model", in: Quarterly Journal ofEconomics 84, S. 197-216.. Romer, C.D.lRomer, D.H. (1994): "What ends recessions?", in: NBER Macroeconomic Annual 1994. Scharnagi, M. (1996): "Geldmengenaggregate unter Berücksichtigung struktureller Veränderungen an den Finanzmärkten", Diskussionspapier 2/96, Deutsche Bundesbank, FrankfurtlM. Sims, Ch. (1993): "Interpreting the macroeconomic time series facts - The effects of monetary policy", in: European Economic Rewiew 36, S. 975-1011. Taylor, 1.B. (1993): "Discretion versus Policy Rules in Practice", in: Camegie Rochester Conference Series on Public Policy 39, S. 195-214. Taylor, 1.B. (1995): "The Monetary Transmission Mechanism: An Empirical Framework", in: Journal ofEconomic Perspectives 9 no. 4, S. 11-26. Vaubel, R. (1993): "Eine Public Choice Analyse der Deutschen Bundesbank und ihre Implikationen für die Europäische Währungsunion", in: Duwendag, D.lSiebke, J. (Hrsg.): Europa vor dem Eintritt in die Wirtschafts- und Währungsunion, Berlin.

\

14

fI ' •

I

I

"! , , , , 15 11

\ I ~.

I I

If

!

I

!

n

I

I

I

\

':',

~.:

I

11

I

I

I

I

I

11

,-~

,

,

N

!

11

fI

\Ti

I

I

~

I

I

t !

,. IZ

'"

-,

j'

".H\

,

I

I

\

,

!

!

11

I

!

,

,

11

,

t !

, I

rI

!

,

• ,

,

f

17

n

I , ,

!

__ - -.lL"'\

....... u,.,'LU'...ua' : ...... _.. , \

.

prociJkt (reoll

&l

,

-

L;,;~'---

" ..\LI."

... ". 1

! I

,

,

!

!

I

• •

,

i

I

!

~,-"~ ,. -

:~X~·\


. (JQ

~

00

...

~

"0;;

:g

o

5::>

~

;!I

6 ·4

2

6

4

2

Abbildung 2: Längerfristige Geldmengen- und Preisentwicklung in Deutschland

1j Geglettet mit einem 10-Periodendurchschnitt. 2 Datenbasis bis 1986 '-lonabend.tende. J Zeitlich um 10 Quartale zurilckverschoben.

Quelle: O.ut.dl. Burtd..bank.

-2

-2

o I""""""""", I, , , , , , , , , , , , , , , , , , , I, -;-, , , , .- , , , , , , , , , , .=ri , , , , , , , , , , , , , , , , , , , I, , ,~ , , ,., , , , , , , , , , , , , , , , 1 o

·8

8

10

10

14 12

.... .~~~~.~:.~:..9~~~~! ..1.~.~~

12

14 _qu~~~.I~~~.r:t:~.~~.~~.i~~~.X~.~~~~!:!~~.~~.~~.~.y'~~j.~~!..i.~ ..~....') .....

Längerfristige Geldmengen- und Preisentwicklung in Deutschland

LZB HMS

~

a: :-;-

t

~ .E.

8.

~

Cl o

g

Vi·
0;

9 = 9(L,A),

91 > 0, 92 > O.

Die Arbeitslosenquote u hängt negativ von der Faktorausstattung L und positiv von der Innovationsgröße I.. ab. Die Innovationsfrequenz beeinflußt die natürliche Arbeitslosigkeit dagegen nicht. Sie erhöht die Wachstums- und Separationsraten einerseits und Einstellungsraten andererseits in gleichem Ausmaß, so daß sich die Effekte wie oben beschrieben autbeben. Mit dem simultan erklärten e lassen sich nun zusammen mit (8) und (1 1) unter Verwendung von h = p(v) die Wachstumsrate g und die Zahl vakanter Stellen v endogen bestimmen: g = g(L,p,P,A,c,cr);

gl > 0, g2 < 0, g3 > 0, g4 > 0, gs < 0, g6 < 0 ;

v = v(L,p,P,A,C,cr),

VI> 0, V2 < 0, V3 > 0, V4 > «)0, Vs < 0, V6 < o.

Das Wachstum hängt positiv von der Ausstattung der Volkswirtschaft mit Land, der Verhandlungsmacht der Unternehmen, der Innovationsgröße und der intertemporalen Substitutionselastizität, aber negativ von der Zeitpräferenzrate und dem Niveau der Innovationsgrenzkosten ab. Für die Zahl vakanter Stellen ergeben sich die gleichen Wirkungszusammenhänge, lediglich der Einfluß der Innovationsgröße ist nicht allgemeingültig abzuleiten.

c. Lehren tlir die innovationsorientierte Wachstumspolitik? Zieht man die Akzeptanz des naturgemäß hochgradig stilisierten Modells zunächst nicht in Zweifel, so folgen daraus vielleicht überraschende Schlußfolgerungen für eine innovationsorientierte Wachstumsförderung des Staates. Während eine Erhöhung der Innovationsfrequenz beschäftigungsneutral wirkt, erhöht eine Verbesserung der technologischen Möglichkeiten, die sich in größeren Innovationssprüngen äußert, die Arbeitslosigkeit. Verbindet man - wie in

106

Bemhard Gahlen und Manfred Stadler

der innovationstheoretischen Literatur gang und gäbe - die technologischen Möglichkeiten mit staatlich finanzierter Grundlagenforschung, könnte eine aktive Forschungs- und Technologiepolitik letztlich sogar beschäftigungsmindernd wirken. Die Ursache liegt in den mit dem Wachstum ansteigenden Faktorpreisen der gesamtwirtschaftlich begrenzten Ressourcen und dem damit einhergehenden Gewinnrückgang innovativer Unternehmen begründet. Dieser mindert nämlich den Anreiz, mit neuen Technologien in den Markt einzutreten und damit Arbeitsplätze zu schaffen. Die Zahl offener Stellen nimmt folglich ab, die Arbeitslosenquote durch die verschlechterten Einstellungschancen ftlr die Arbeitssuchenden zu. Eine etwas skeptischere Haltung gegenüber den Segnungen staatlicher F&E. ,. Förderung scheint ohnehin angebracht. Die Analysen des vergleichsweise allgemein gehaltenen Innovationsmodells von Stockey (1995) ergänzen die bereits von GrossmanlHelpman (1991) unter restriktiveren Bedingungen abgeleiteten Ergebnisse, wonach die unter Wettbewerbsbedingungen ablaufenden Innovationsprozesse rur realistische Parameterbereiche der Modellvariablen aus wohlfahrtstheoretischer Sicht zu schnell ablaufen, daß also geringere Innovationsraten einen Wohlfahrtsgewinn nach sich ziehen würden. Ursächlich hierfllr ist der business stealing-Effekt (vgl. etwa Tirole 1988, S. 399), nach dem der Gewinnrückgang der Konkurrenten infolge einer eigenen Innovation nicht in der Zielfunktion der Unternehmen berücksichtigt wird und dadurch eine negative Externalität darstellt. Nun braucht man nicht so weit zu gehen und wie Helpman (1992, S. 259) eine Innovationssteuer zu propagieren. Eine differenzierte und zurückhaltende Technologiepolitik scheint aber nach obigen Analysen angebracht zu sein.

D. Einschätzung und Erweiterungsmöglichkeiten des Ansatzes Sowohl die Wachstumsrate als auch die Arbeitslosenquote einer Volkswirtschaft sind endogene Variablen des Innovationsprozesses und werden daher auch von gemeinsamen exogenen Modellvariablen beeinflußt. Eine befriedigende Erklärung der wechselseitigen Zusammenhänge kann daher nur durch eine integrierte Wachstums- und Arbeitsmarkttheorie erfolgen. Da beide Zweige noch weit von ihren eigentlichen Erklärungszielen entfernt sind - und sich daran so schnell auch nichts ändern wird -, muß auch die Meßlatte ftlr eine integrierende Innovations-, Wachstums- und Beschäftigungstheorie entsprechend niedrig angesetzt werden. Vor allem kommt es zunächst darauf an, einzelne

Innovation, Wachstum und Arbeitslosigkeit

107

Wirkungszusammenhänge in stilisiert-abstrakter Weise herauszudestillieren und auf ihre empirische Relevanz hin zu überprüfen. Genau dies leisten Modelle vom Typ AghionIHowitt (1994). Obwohl viele naheliegende Erweiterungsmöglichkeiten alleine schon an der dann nicht mehr handhabbaren Komplexität des Analysemodells scheitern dürften, seien einige wünschenswerte Verbesserungen zumindest kurz angeschnitten. Ein erster Ansatzpunkt ist die zu restriktive Produktionsfunktion, die von Kapital- bzw. Humankapitalakkumulation abstrahiert und Arbeit nur in fest vorgegebenem Umfang pro Unternehmen zuläßt. Die üblichen Klassifikationen des technischen Fortschritts im Hinblick auf seine substitutiven oder komplementären Beschäftigungswirkungen machen unter diesen Bedingungen keinen Sinn. Vonnöten wäre eine gewisse Flexibilisierung der Arbeitsnachfrage etwa durch eine Modellierung der Rekrutierungspolitik der Unternehmen. Da kein Leistungsgeflllle zwischen den vollkommen homogenen Arbeitnehmern unterstellt wird, bliebe es allerdings auch dann noch ausschließlich dem Zufall überlassen, welche Arbeitskraft zu einem bestimmten Zeitpunkt beschäftigt und welche arbeitslos ist. Auch der nicht restringierte Lohnbildungsprozeß in Form unternehmensspezijischer Verhandlungen über den (mit zunehmender Einsatzdauer einer Technologie sinkenden) Bruttogewinn entspricht nicht gerade den institutionellen Regelungen westeuropäischer Volkswirtschaften. Lohnrigiditäten, Mindestlöhne oder Effizienzlöhne bilden zusätzliche potentielle Ursachen auch oder gerade für eine technologiebedingte Arbeitslosigkeit (vgl. Ramser 1995). Bezüglich des Neuerungsgrades von Innovationen sei auf die Argumentation von Blattner (1996) verwiesen, der unter Bezugnahme auf die Unterscheidung in Mikro- und Makroerfmdungen nach Mokyr (1990, S. 104 ff.) betont, daß sich die Arbeitsmarktwirkungen kleinerer Verbesserungsinnovationen und fundamentaler Basisinnovationen aus konzeptionellen Erwägungen heraus nicht auf die gleiche Weise analysieren lassen. Dieses Problem verschärft sich, wenn - wie hier geschehen - keine sektorale Disaggregation vorgenommen wird. Schließlich sollte auch dem empirischen Faktum Rechnung getragen werden, daß ein nicht unerheblicher Teil der Beschäftigten in den Forschungsabteilungen der Unternehmen tätig ist (vgl. etwa Flaig/Stadler 1988). Dieser beschäftigungserhöhende Effekt der F&E-Tätigkeit ließe natürlich die staatliche F&EFörderung wieder in einem etwas günstigeren Licht erscheinen. Ähnliche Korrekturen könnten durch eine Berücksichtigung der internationalen Verflechtungen erforderlich sein.

108

Bernhard Gahlen und Manfred Stadler

Über diese modellimmanenten Kritikpunkte hinaus läßt sich die Verwendung der formalen Modelltheorie als geeignete Analysemethode zur Erklärung der Zusammenhänge zwischen Wachstum und Arbeitslosigkeit grundsätzlich in Zweifel ziehen. So beklagt Oppenländer, ein Verfechter eines systemanalytischen Ansatzes, den "Platonismus" gleichgewichtiger Wachstumsmodelle, deren Stärke bestenfalls darin liegt, " ... durch Spekulation am Modell Tatbestände zu durchdenken und Zusammenhänge theoretisch-exakt aufzuzeigen. Entsprechend weit ist der Spielraum, nämlich gemessen an den Möglichkeiten spekulativen Denkens" (Oppenländer 1988, S. 29). Das beschriebene, hochgradig stilisierte Modell ist in geradezu idealtypischer Weise dieser Kritik ausgesetzt. Einen deskriptiven Erklärungsanspruch kann man mit ihm zweifelsohne nicht erheben. Dies ist aber auch nicht die eigentliche Aufgabe derartiger formaler Bemühungen, wie es - in ähnlichem Zusammenhang - Solow (1986, S. 313) einmal treffend formuliert hat: " ... it is not especially the function of simple models like this to provide prototypes for larger descriptive models. I think that their purpose is rather to give "pure" illustrations of general principIes". In dieser Interpretation liefert der Ansatz einige wertvolle neue Anregungen sowohl für die theoretische als auch für die empirische Innovations-, Wachstums- und Beschäftigungsforschung.

Literatur Aghion, P./Howitt, P. (1992), A Model of Growth through Creative Destruction. Econometrica 60,323-351. Aghion, P./Howitt, P. (1994), Growth and Unemployment. Review of Economic Studies 61, 477-494. Barro, RJ./Sala-i-Martin, X. (1995), Economic Growth. New York. Bean, C.R./Pissarides, Ch. (1993), Unemployment, Consumption and Growth. European Economic Review 37, 837-854. Blattner, N. (1996), Technischer Fortschritt und Arbeitslosigkeit. In: Gahlen, B./Hesse, H./Ramser, H.l. (Hrsg.), Arbeitslosigkeit und Möglichkeiten ihrer Überwindung. Tübingen, 211-228. Caballero, R. (1993), Discussion ofthe Bean-Pissarides Paper. European Economic Review 37,855-859.

Innovation, Wachstum und Arbeitslosigkeit

109

Flaig, G/Stadler, M. (1988), Beschäftigungseffekte privater F&E-Aufwendungen. Eine Paneldatenanalyse. Zeitschrift für Wirtschafts- und Sozialwissenschaften 108, 4361. Grossman, G.M./Helpman, E. (1991), Innovation and Growth in the Global Economy. Cambridge. Helpman, E. (1992), Endogenous Macroeconomic Growth Theory. European Economic Review 36, 237-267. King, I./Welling, L. (1995), Search, Unemployment and Growth. Journal of Monetary Economics 35, 499-507. Laing, D./Palivos, Th./Wang, P. (1995), Learning, Matching, and Growth. Review Economic Studies 62, 115-129. Lee, T.K./Wilde, L.L. (1980), Market Structure and Innovation: A Reformulation. Quarterly Journal ofEconomics 94,429-436. Loury, G.C. (1979), Market Structure and Innovation. Quarterly Journal of Economics 93, 395-410. Lucas, R.E. (1988), On the Mechanics ofEconomic Development. Journal ofMonetary Economics 22, 3-42. Mokyr, J. (1990), Twenty-Five Centuries of Technological Change. A Historical Survey. Chur. Oppenländer, K.H. (1988), Wachstumstheorie und Wachstumspolitik. München. Oppenländer, K.H. (1994), Arbeitslosigkeit und Beschäftigungspolitik. ifo Studien 40,283-303. Phelps, E.S. (1994), Structural Siumps. The Modern Equilibrium Theory of Unemployment, Interest, and Assets. Cambridge. Pissarides,

c.A. (1990), Equilibrium Unemployment Theory. Oxford.

Ramser, H.J. (1995), Arbeitslosigkeit und Wirtschaftswachstum. Diskussionsbeitrag Nr. 278 der Universität Konstanz. Ramser, HJ./Stadler, M. (1996), Keynesianische Aspekte der modernen Wachstumstheorie. In: Bombach, G. u.a. (Hrsg.), Der Keynesianismus VI. Der Einfluß keynesianischen Denkens auf die Wachstumstheorie. Berlin u.a., 35-180. Romer, P.M. (1986), Increasing Returns and Long-Run Growth. Journal of Political Economy 94, 1002-1037.

110

Bemhard Gahlen und Manfred Stadler

S%w, R.M. (1986), Monopolistic Competition and the Multiplier. In: Heller, W.P./Starr, R.M./Starret, D.A. (Hrsg.), Equilibrium Analysis: Essays in Honor ofKenneth J. Arrow. VoilI. Cambridge, 301-315. Stad/er, M. (1993), Die ModelIierung des Innovationsprozesses. Ein integrativer Mikro-Makro-Ansatz. Ifo-Studien 39, 159-189. Stad/er, M. (1996), Elemente und Funktionsweise des strukturalistischen Ansatzes zur Erklärung der Arbeitslosigkeit. In: Gah/en, B./Hesse, H./Ramser, HJ. (Hrsg.), Arbeitslosigkeit und Möglichkeiten ihrer Überwindung. Tübingen, 307-326. Stockey, N.L. (1995), R&D and Economic Growth. Review ofEconomic Studies 62, 469-489. Tiro/e, J. (1988), The Theory of Industrial Organization. Cambridge.

Humankapital in der "neuen" Wachstumstheorie: Eine kritische quantitative Einschätzung Von Klaus Jaeger

A. Einleitung Die Diskussion um die Frage nach der langfristigen Konvergenz resp. Divergenz der Wachstumsraten des Je-Kopf-Einkommens oder der Arbeitsproduktivität verschiedener nationaler Volkswirtschaften hat seit der Mitte der '80er Jahre die wachstumstheoretische und -politische Forschung nach einer längeren "Ruhepause" enorm stimuliert. Die Flut der seither entwickelten Modelle der "neuen" Wachstumstheorie läßt sich am besten wohl noch nach einem Vorschlag von Ramser (1993) im Hinblick auf die jeweiligen Wachstumsdeterminanten systematisieren in Modelle "reiner" Kapitalakkumulation, Humankapitalansätze und solche Varianten, in denen Innovationen als Resultat von F und E-Aktivitäten die treibenden Wachstumskräfte darstellen. Interessant an dieser Entwicklung, weil symptomatisch filr das Verhältnis zwischen Theorie und Empirie innerhalb der Profession, ist vielleicht die folgende Beobachtung: Als Reaktion auf ein vermeintliches oder faktisches empirisches Phänomen konzipiert, konzentrierten sich die empirischen Tests dieser Theorie vorwiegend auf die aus den einfachsten Lehrbuchvarianten der neoklassischen Wachstumstheorie ableitbare langfristige Konvergenz der Wachstumsraten und nicht etwa direkt auf die "endogene" ("neue") Wachstumstheorie selbst (Pack (1994». Da einerseits selbst die Divergenzhypothese umstritten blieb (SummerslHeston (1988), Barro (1991» und andererseits das bekannte SolowModell durch die simple Berücksichtigung eines weiteren (reproduzierbaren) Produktionsfaktors - Humankapital - in seinen theoretischen Ergebnissen mit den Fakten relativ gut in Übereinstimmung zu bringen ist (MankiwlRomer/Weil (1992», löste sich die theoretische Wachstumsforschung (wieder einmal) zunehmend von ihrem empirischen Bezug. Abgesehen davon, daß (natürlich) die empirischen Testergebnisse sowie die theoretischen Grundlagen

112

Klaus Jaeger

von MankiwlRomerlWeil kritisiert wurden (Romer (1994), GrossmanlHelpman (1994», entwickelten Judd (1985) und PrescottIBoyd (1987) schon relativ früh Modellvarianten der "neuen" Wachstumstheorie, in denen die Divergenz keine notwendige Implikation ist; je nach SpezifIkation der technischen Fortschrittsfunktion sind diese Ansätze auch kompatibel mit der Konvergenzhypothese. Die Situation in diesem Forschungsgebiet stellt sich heute nach meiner Einschätzung ähnlich dar wie diejenige der "alten" Wachstumstheorie Mitte der '60er Jahre: Eine Vielzahl theoretischer Entwürfe - heute allerdings dem Trend der Zeit gehorchend stärker mikrotheoretisch fundiert -, die jedoch harten empirischen Tests nicht standhalten. Schneider/Ziesemer (1995) konstatieren in ihrem exzellenten Übersichtsartikel der "neuen" Wachstumstheorie lapidar . ., t . (S.466): "Tbe literature contains many cross-country regressions which claim to explain the sources of differences in the long-term growth rates of various countries although they are not derived from growth models". Ähnliche Einschätzungen fmden sich bei GrossmanlHelpman (1994), LevinelRenelt (1992) und Fagerberg (1994). Auch eine andere Entwicklung scheint sich zu wiederholen. Damals wurden die bekannten Kaldorianischen stilisierten Wachstumsfakten häufIg als lockerer empirischer Beleg rur die (steady-state) Relevanz der neoklassischen Wachstumstheorie herangezogen. Eine solche Vorgehensweise ist auch heute zu beobachten, wenn auch mit einer gegen die "alte" Wachstumstheorie gerichteten Zielsetzung. King/Rebelo (1993) ftlhren beeindruckende quantitative Experimente bezüglich den aus einem traditionellen Wachstumsmodell mit intertemporal optimierenden Haushalten resultierenden Anpassungsprozessen an den steady-state Pfad durch und resümieren (S.929) " ... diminishing returns to capital turn out to induce major counterfactual implications." An anderer Stelle ist dort zu lesen (S. 909): "Overall, for realistic parameterizations of the production function, our results suggest that neoclassical transitional dynamics can only playa minor role in explaining observed growth rates .... In our view, this pushes one to think about models of endogenous economic growth which ... assign a larger role to other modes of accumulation, such as human-capital formation or endogenous technical progress. Indeed, we show that aversion of the neoclassical model with a capital share c/ose 10 unity (Hervorhebung: K.J.) yields protacted transitional dynamics and avoids the high initial marginal product; but this model is patently unrealistic unless we broader our notion of capital accumulation."

Humankapital in der "neuen" Wachstumstheorie

113

Dieser letzte Hinweis könnte auf einen Humankapitalansatz der "neuen" Wachstumstheorie deuten. Genau dieses Vorgehen wählt Homburg (1995). Sein Modell ist in der aggregierten Fassung dem von MankiwlRomerlWeil gewählten nicht unähnlich, unterscheidet sich aber wesentlich in zwei zentralen Punkten: 1. Da es der "neuen" Wachstumstheorie zuzuordnen ist, weist es - anders als der Ansatz von MankiwlRomerlWeil - konstante Skalenerträge der akkumulierbaren Faktoren (Human- und Sachkapital) auf.

2. Die Akkumulationsentscheidungen werden bei Homburg aus einem entscheidungstheoretischen Kalkül abgeleitet, während bei MankiwlRomerlWeil zum Einkommen proportionale Sparfunktionen mit (unterschiedlich) konstanten Sparquoten unterstellt werden. Da das Homburg-Modell letztlich dem AK-Typ der "neuen" Wachstumstheorie zuzuordnen ist, stehen bei ihm im Gegensatz zu KinglRebelo die steady-state Eigenschaften im Mittelpunkt der Analyse. Den empirischen Bezug stellt Homburg nun dadurch her, daß er zunächst insgesamt 7 stilisierte (steady-state) Längsschnittfakten (im wesentlichen die von Kaldor her bekannten) und 6 (steady-state) Querschnittsfakten (im wesentlichen die von den Vertretern der "neuen" Wachstumstheorie propagierten) postuliert und dann - ähnlich wie bei KinglRebelo - prüft, ob die implizierten steady-state Eigenschaften des Modells diesen 13 stilisierten Wachstumsfakten qualitativ entsprechen oder nicht. Das Ergebnis einer solchen "Plausibi-li-tätsprü-fung" ist gemäß Homburg eindeutig: Während das traditionelle Wachstumsmodell in vielen Fällen Implikationen liefert, die nur mühevoll oder überhaupt nicht mit den Längs- und Querschnittsfakten in Übereinstimmung zu bringen sind, zeigt der Humankapitalansatz einen beeindruckenden "Einklang mit den als "unbestritten" bezeichneten "empirischen Grundtatsachen" . Selbst unter Berücksichtigung einer kritischen Beurteilung der verwendeten stilisierten Wachstumsfakten und der Tatsache, daß die hier verwendete "quantitative" Methode alles andere nur keinen überzeugenden empirischen Test darstellt, bleibt zunächst festzuhalten, daß der Homburg-Ansatz so gesehen sehr viel überzeugender abschneidet. Diese frappierende Übereinstimmung mit einer Vielzahl stilisierter Wachstumsfakten regt natürlich zu einer weitergehenden quantitativen "Überprüfung" der Modellimplikationen an.

8 Festschrift Oppenländer

Klaus Jaeger

114

Im folgenden Abschnitt 2 soll zunächst eine leicht verallgemeinerte Version des aggregierten Homburg-Modells dargestellt und dann im Abschnitt 3 eine ganz simple quantitative "Überprüfung" der steady-state Eigenschaften an einigen wenigen, auch von Homburg z. T. erwähnten aber nicht hinreichend bei seinen Kalkulationen berücksichtigten empirischen Fakten durchgefllhrt werden. Das Ergebnis dieser vergleichsweise sehr einfachen Plausibilitätsanalyse ist insofern ernüchternd, als sich zeigt, daß der Humankapitalansatz von Homburg (und wahrscheinlich nicht nur dieser) die steady-state Wachstumspfade real existierender Industrienationen überhaupt nicht beschreiben kann. Dies wiederum wirft ein äußerst kritisches Licht auf diese Form quantitativer "Überprüfungen" von Modellen, selbst wenn die immerhin 13 verschiedenartigen stilisierten Wachstumsfakten als korrekt akzeptiert werden sollten. Abschnitt 4'enthält eine kurze Zusammenfassung sowie einen kritischen Ausblick.

B. Das Modell Die folgende Darstellung orientiert sich eng an der Argumentation von Homburg (1995, S. 344-348). Abweichungen oder Verallgemeinerungen werden explizit kenntlich gemacht. Die Bruttoproduktionsfunktion ist in den beiden Produktionsfaktoren linear homogen und durch G 1+ 1= G(N1hl,K1)

(I)

gegeben. Nt: ~:

= (konstante) Anzahl der Erwerbstätigen;~: = Humankapital pro Erwerbstätigen;

= Sachkapitalbestand.

Die neoklassische Produktionsfunktion G ist streng monoton wachsend, streng quasi-konkav, zweimal stetig differenzierbar und hat Inada-Eigenschaften. Die Abschreibungen auf Sach- und Humankapital (Ht : = NJlJ sei "radioaktiv" mit ZK und ZH als Abschreibungsraten. Homburg unterstellt ZH = 1. Die Nettoproduktion ist allgemein dann durch (2)

gegeben.

Humankapital in der "neuen" Wachstumstheorie

115

In der unterstellten Ein-Gut-Wirtschaft tauschen sich Konsumgüter, Sachkapital und Humankapital stets im Verhältnis 1: 1. Das von den Wirtschaftssubjekten in jeder Periode gewünschte (und realisierte) Gesamtvermögen sei proportional zur Nettoproduktion (NettoVolkseinkommen) der gleichen Periode Yt, d.h. (3)

Unterstellt man - anders als Homburg - eine allgemeinere Version von (3), die die Möglichkeit einer aus der Sicht der Haushalte auch unvollständigen Substituierbarkeit von ~ und Ht beinhaltet, könnte (3) in der Form (4)

geschrieben werden, wobei die Funktion A linear-homogen in den beiden Argumenten und zweimal differenzierbar sein soll. Auf die Implikationen von (4) wird weiter unten noch genauer eingegangen. Die entscheidungstheoretische Fundierung der Vermögensakkumulation bezieht sich auf die effiziente Aufteilung des Vermögens im Zeitablauf. Dies impliziert die Maximierung von (5)

unter der Nebenbedingung (3) resp. (4). Unter Verwendung von (4) ergibt sich als notwendige Effizienzbedingung fUr jede Periode t (6)

wobei GK , GH resp. AK , AK die jeweiligen partiellen ersten Ableitungen von (1) resp. (4) bezüglich Kt resp. Ht darstellen. Die linke Seite von (6) ist wegen der unterstellten Eigenschaften der Produktionsfunktion eine streng monoton fallende Funktion in KIRt, während der Funktionsverlauf der rechten Seite von (6) zunächst offen ist. Allgemein portfolio-theoretische Überlegungen legen jedoch die Vermutung nahe, daß bei nicht vollständiger Substituierbarkeit die Relation AyjAH - wenn überhaupt gleichfalls eine in KIRt streng monoton fallende Funktion ist. In diesem Fall ist aber weder die Eindeutigkeit noch die Existenz eines effizienten Wachstumspfades gewährleistet, es sei denn, man stellt zusätzliche oder andersartige artifizielle Anforderungen an die Eigenschaften der Funktion A!

8*

Klaus Jaeger

116

Unterstellt man - wie Homburg - eine vollständige Substituierbarkeit, d.h. die Beziehung (3), dann folgt als (notwendige) Effizienzbedingung die Gleichheit der Netto-Grenzproduktivitäten von Sach- und Humankapital: (7)

Die Eindeutigkeit und Existenz eines effizienten Wachstums sind somit gewährleistet. Gleiches würde natürlich bei AK *" AH = const. gelten. Bevor auf diesen Fall im nächsten Abschnitt eingegangen wird, bleibt hier zunächst zu konstatieren, daß der effiziente Wachstumspfad ein steady-state mit konstantem Faktoreinsatzverhältnis KJH ist. Damit ist das theoretische Gerüst der aggregierten Modellversion von Homburg dargestellt. Unter der Annahme der vollständigen Konkurrenz und Entlohnung der Faktoren K sowie H entsprechend ihren jeweiligen Grenzprodukten läßt sich dann die Übereinstimmung der steady-state Eigenschaften mit den erwähnten 13 stilisierten Wachstumsfakten vergleichsweise einfach aufzeigen. Dies steht hier nicht zur Diskussion. Vielmehr soll im folgenden anband einiger weniger empirischer Relationen - häufig auch als "Fakten" bezeichnet - geprüft werden, ob der gemäß (7) abgeleitete effiziente Wachstumspfad überhaupt eine realistische Situation fUr Industrienationen beschreiben kann. Da die Vertreter der quantitativen Plausibilitätsanalyse sog. stilisierte empirische Fakten zum Beleg ihrer Theorien heranziehen, müssen sie sich umgekehrt natürlich auch eben solche vorhalten lassen, wenn es um die kritische Würdigung der empirischen Relevanz ihrer Modellentwürfe geht.

C. Fakten und Modellimplikationen Aus (7) erkennt man leicht, daß wegen GK , GH > 0 (8)

G K /G H

=1

rur

zH

= zK

(9)

oder

(10)

auf dem effizienten Wachstumspfad gelten muß. Mit einer CES-Produktionsfunktion der Art B = const. > 0

(11)

Humankapital in der "neuen" Wachstumstheorie

117

erhält man (12) (13)

Setzt man (12) und (13) in (8) - (10) ein, folgen als Konsequenz der Effizienzbedingung (7) anstelle der Beziehungen (8) - (10) die Relationen [a I l-a)](H t I Kt )13 < Kt I H t

(14)

[a I (1- a)](H t I Kt )13 = Kt I H t

(15)

[a/(l-a)](H t I K t )13 > K t IH t

(16)

Die Ausdrücke links der Gleichheits-lUngleichheitszeichen geben - bei vollständiger Konkurrenz und grenzproduktivitätstheoretischer Faktorentlohnung (die durchgängige Hypothese in der Literatur) - die Relation von (Brutto-)Profit- zu Lohneinkommen an. Dieser Quotient liegt in jedem Fall unter 1 bei einer ft1r Industrienationen geltenden empirischen Größenordnung von etwa 0,3 : 0,7 = 0,43 mit einem Minimalwert von vielleicht 0,33 und einen Maximalwert von 0,5. Schultz (1986) und Kendrick (1976) schätzen den Humankapitalbestand ft1r Industrienationen auf ungefähr die Hälfte des Gesamtkapitalbestands, d.h. im steady-state ist KIH ~ 1. Auch Homburg (1995, S. 361) geht von einer solchen Größenordnung aus. Ein Blick auf die Beziehungen (14) - (16), als Implikation aus der Effizienzbedingung (7), zeigt nun sofort, daß bei diesen Größenordnungen - wenn überhaupt - nur der Fall (14) mit ZH > ZK und KIH ~ 1 empirisch relevant sein kann, und zwar unabhängig von der unterstellten Substitutionselastizität cr = l/(I+ß) mit -1 :::;; ß : :; co. In allen anderen Fällen kann ein effizienter Wachstumspfad, aus dem die Übereinstimmung mit den genannten 13 stilisierten Wachstumsfakten abgeleitet ist, bei zunächst als empirisch plausibel angesehenen Werten von KIH ~ 1 gar nicht existieren und hat nie - auch nicht näherungsweise existiert! Verbleibt die durch (14) beschriebene Situation. Als kaum bestrittene empirische Grundtatsache wird ft1r Industrienationen ein (Sach-)Kapitalkoeffizient von ca. 3 (im steady-state) unterstellt. Zusammen mit KIH ~ 1 gilt folglich KlG ~ HlG ~ 3. Aus (7) folgt nun zunächst

Klaus Jaeger

118

(17)

Eine ökonomisch sinnvolle Lösung impliziert GK,G H> 0 und somit (zH - zK)

< G H ftlr

ZH - ZK

>

o.

(18)

Aus (12) und (13) folgt nun unmittelbar ftlr I3-Werte ::s; 0 - also einschließlich des beliebten Cobb-Douglas Falls - zusammen mit GIK = GIH = 1/3 und a=0,3

GH

~0,233

(19)

bzw.

ß~O

(20)

ß~O.

Für K ~ H ist die Relation GK/GH unabhängig von 13 und entspricht dem Wert a/(1-a) ~ 0,429. Aus (17) folgt somit in Verbindung mit (20) (21)

Zusammen mit (18) erhält man dann den rur einen effizienten Wachstumspfad zulässigen Wertebereich ftlr die Abschreibungsraten als (22)

Eine analoge Kalkulation ftlr 13 > 0 ftlhrt zu der Restriktion

o
O.

(23)

Über die empirische Größenordnung von ZH - ZK kann wegen der Unkenntnis bezüglich ZH nur spekuliert werden. Festzuhalten bleibt jedoch zunächst, daß die Parameter 13 sowie ZH - ZK unabhängig voneinander sind, so daß bei KIH ~ 1 und einem konstanten Humankapitalkoeffizienten (x) der effiziente Wachstumspfad allgemein ganz bestimmte Werte von 13 und ZH - ZK > 0 gemäß ZH - ZK

und 0
1 und KIH ~ 1 wird die schon diskutierte empirische Existenzproblematik noch verschärft! Bei entsprechend kleinen Werten von a « 1) könnte jetzt allerdings einer der Fälle (14 ') - (16 ') empirisch relevant werden, jedoch bei (15') oder (16') nur unter der Voraussetzung ZH < ZK' Es bleibt somit die Feststellung, daß auch bei a 1 - wenn überhaupt - nur wiederum eine der aufgezeigten Alternativen zufällig den effizienten Wachstumspfad realer Ökonomien beschreiben kann, mit einer gegen Null tendierenden Eintrittswahrscheinlichkeit. Die überzeugende quantitativ orientierte Kritik von Solow (1994) an den AK-Modellen trifft damit mutatis mutandis auch den hier vorgestellten Ansatz in vollem Umfang.

*

3. Löst man sich von der Annahme der vollständigen Konkurrenz und verneint die Annahme eines eindeutigen (positiven) Zusammenhangs zwischen Grenzproduktivität und Faktorentlohnung auf dem effizienten Wachstumspfad, dann geben die linken Seiten der Beziehungen (14) - (16) natürlich nicht mehr notwendig die Relationen der funktionalen Einkommensanteile an. Die darauf aufbauende nachfolgende quantitative Argumentation wäre dann inhaltsleer. In diesem Fall würden aber auch 5 der von Homburg aufgezählten 13 stilisierten Wachstumsfakten ebenfalls nicht mehr zwingend den Modellimplikationen eines effizienten Wachstums entsprechen! Somit läßt sich abschließend feststellen, daß die theoretisch möglichen effizienten Wachstumspfade des hier diskutierten Modells wohl kaum real existierende Ökonomien beschreiben können, trotz der Übereinstimmung einer Vielzahl stilisierter Fakten mit den Modellimplikationen.

D. Zusammenfassung und Ausblick Neben ökonometrischen Testverfahren ist die quantitative Methode der empirischen Plausibilitätsprüfung theoretischer Modellimplikationen sicherlich ein akzeptables Vorgehen bei der Selektion von Modellvarianten. Die vorstehenden Überlegungen zeigen jedoch, daß diese Form der Analyse gewisse Gefahren birgt. Es reicht nicht aus, nur einige theoretische Implikationen an stilisierten Fakten qualitativ zu überprüfen - selbst wenn die Ergebnisse bestechend sind und eine nicht geringe Anzahl von solchen Fakten verwendet werden. Notwendig ist eine umfassende Analyse, insbesondere die Prüfung der Frage, ob die Existenz der Lösung mit den empirischen Gegebenheiten überhaupt in Übereinstimmung zu bringen ist. Andernfalls ist - wie hier gezeigt - das theo-

122

Klaus Jaeger

retisch korrekte Modell faktisch nur auf eine quasi Nullmenge von Ökonomien anzuwenden und damit empirisch irrelevant. Die "neue" Wachstumstheorie hat zweifellos wesentliche wissenschaftliche Fortschritte bei der expliziten Formulierung der früher kaum hinterfragten "Technologie" einer Volkswirtschaft sowie bei der Integration von Marktstrukturen und mikrotheoretisch fundierter Innovationsprozesse gebracht. Gleichzeitig ist jedoch gegenüber der "alten" Wachstumstheorie ein entscheidender Rückschritt festzustellen. Auf der makroökonomischen Aggregatebene dominiert nach wie vor die Ein-Gut-Wirtschaft. Doch während im Solow-Modell der (aggregierte) Output "nur" (friktionsfrei) 1:1 in Konsum- resp. Kapital- oder Investitionsgüter transformiert werden kann, geht die neue Wachstumstheorie und hier speziell die Humankapitalansätze, aber nicht nur diese - von der noch weitergehenden Fiktion einer friktionsfreien 1: 1 Transformationsmöglichkeit des Outputs in Konsum, Sachkapital und Humankapital aus. Auf einem steadystate Pfad mag dies wegen der Konstanz aller Preisrelationen (modulo Harrodneutralem technischem Fortschritt) noch angehen. Doch schon bei der komparativ-dynamischen steady-state Betrachtung und verschärft natürlich bei der Untersuchung von Anpassungsprozessen, d.h. bei Technikwechsel ist diese extreme Form der "malleability" nur noch unter extrem restriktiven Annahmen überhaupt theoretisch nachvollziehbar. Vertreter der "neuen" Wachstumstheorie bleiben die Antwort auf die berechtigte Frage schuldig, wieso ein identisches Gut im gleichen Produktionsprozeß eingesetzt bei beliebig gegebener Faktorkombination außerhalb eines steady-state - also rein produktionstheoretisch betrachtet - unterschiedliche Grenzerträge abwerfen soll, je nachdem ob man es als Human- oder Sachkapital bezeichnet. Welche Konsequenzen eine solche Unterlassung haben kann, hat die kapitaltheoretische Diskussion in den '60er Jahren gezeigt. Es war immerhin kein geringerer als Samuelson (1965), der damals auf dem Höhepunkt dieser Auseinandersetzung an die Adresse der Verfechter der Ein-Gut neoklassischen Wachstums- oder besser Produktionstheorie gerichtet resümierte (S. 583): "If all this causes headaches for those nostalgic for the old time parables of neoclassical writing, we must remind ourselves that scholars are not born to live an easy existence. We must respect, and appraise, the facts of life." Offenkundig hat man diese heute wieder vergessen, oder - kritischer formuliert - man versucht wieder einmal, die Realität den Modellwelten mit Gewalt anzupassen. Ein solches Vorgehen kann im Grunde nur wissenschaftlichen

Humankapital in der "neuen" Wachstumstheorie

123

Rückschritt erzeugen, und zwar um so mehr je komplexer die Probleme sind, die (vorgeblich) mit solchen aggregierten Theorievarianten erklärt werden sollen.

Literatur Barro, RJ. (1991): Economic Growth in a Cross Section of Countries, in: Quarterly Journal ofEconomics, Vol. 106, S. 407-444. Fagerberg, J. (1994): Technology and International Differences in Growth Rates, in: Journal ofEconomic Literature, Vol. 32, S.1147-1175. Grossman, G.M.lHelpman, E. (1994): Endogenous Innovation in the Theory of Growth, in: Journal ofEconomics, Vol. 8, S. 23-44. Homburg, St. (1995): Humankapital und endogenes Wachstum, in: Zeitschrift für Wirtschafts- und Sozialwissenschaften, 115. Jg., S. 339-366. Judd, K.L. (1985): On the Performance of Patents, Econometrica, Vol. 53, S. 567585. Kendrick, J.W. (1976): The Formation ofStocks ofTotaI Capital, New York. King, R.G.lRebelo, S.T. (1993): Transitional Dynamics and Economic Growth in the Neoclassical Model, in: American Economic Review, Vol. 83, S. 908-931. Levine, D.lRenelt, D. (1992): A Sensitivity Analysis of Cross-Country Growth Regressions, in: American Economic Review, Vol. 82, S. 942-963. Mankiw, N.G.lRomer, D.lWeil, D.N. (1992): A Contribution to the Empirics ofEconomic Growth, in: Quarterly Journal ofEconomics, Vol. 107, S. 407-437. Prescott, E.C.lBoyd, J.H. (1987): Dynamic Coalitions: Engines ofGrowth, in: American Economic Review, Vol. 77, S. 63-67. Pack, H. (1994): Endogenous Growth Theory: Intellectual Appeal and Empirical Short-Comings, in: Journal ofEconomic Perspective, Vol. 8, S. 55-72. Ramser, H.-J. (1993): Grundlagen der "neuen" Wachstumstheorie, in: WiSt Heft 3, S.117-123. Romer, P.M. (1994): The Origins of Endogenous Growth, in: Journal of Economic Perspective, Vol. 8, S. 3-22. Samuelson, P.A. (1965): A Summing Up, in: Quarterly Journal of Economics, Vol. 80, S. 568-583.

124

Klaus Jaeger

Schneider, J.lZiesemer, Th. (1995): What's New and What's Old in New Growth Theory: Endogenous Technology, Microfoundation and Growth Rate Predictions. A Critical Overview, in: Zeitschrift rur Wirtschafts- und Sozialwissenschaften (ZWS), 115. Jg., S. 429-472. Schultz, T.W. (1986): In Menschen investieren, Tübingen. Solow, R.M. (1994): Perspectives on Growth Theory, in: Journal of Economic Perspectives, Vol. 8, S.45-54. Summers, R.lHeston, A. (1988): A New Set of International Comparisons of Real Product and Price Levels: Estimates for 130 Countries 1950-1985, in: Review of Income and Wealth, Vol. 34, S. 1-25.

Finanzmärkte und Wachstum Von Hans Jilrgen Ramser

A. Einleitung Finanzmärkte sind erst in jüngster Zeit wieder zu einem stärker beachteten Thema der makroökonomischen Forschung geworden. \ Dabei hat sich das Interesse zunächst i.w. auf ihre Bedeutung fUr die Erklärung kürzerfristiger Fluktuationen der ökonomischen Aktivität konzentriert. Von verschiedenen Autoren wird hier insbesondere gezeigt, daß und wie unvollkommene Finanzmärkte Outputfluktuationen verstärken können und welche u.U. drastischen Komplikationen sich daraus für die Wirtschaftspolitik ergeben. 2 Noch jüngeren Datums sind Untersuchungen der Bedeutung der Finanzmärkte fUr Wachstumsprozesse. In traditionellen neoklassischen Wachstumsmodellen, in denen von vollständiger Information und Inexistenz von Transaktionskosten ausgegangen wird, kommen Finanzmärkte nur in Gestalt eines friktionsfrei funktionierenden Geldmarktes vor, auf dem die Zentralbank ein neben Realkapital zweites assel anbietet. Bei geeigneten Annahmen an die Präferenzen der Haushalte ist Geld in diesem Modell "supemeutral". Die Relativierung der erwähnten Annahmen - vor allem bezogen auf die Informationsstruktur - fUhrt bereits im entsprechend modifizierten Solow-Modell zu einer deutlich veränderten Beurteilung der Bedeutung von Finanzmärkten fUr die Allokation - von einer "Neutralität der Finanzwelt" rur das Geschehen auf Güter- und Faktormärkten kann unter diesen Umständen auch langfristig keine Rede mehr sein. Besondere Beachtung ist diesen Zusammenhängen allerdings

\ Zu den Gründen rur die zwischenzeitliche Vernachlässigung der Relevanz von Finanzmärkten vgl. u.a. Gertler (1988) 2 Vgl. z.B. die einschlägigen Beiträge und ·die Literaturhinweise in DixonlRankin (1995).

126

Hans Jürgen Ramser

erst im Rahmen der "neuen" Wachstumstheorie zuteil geworden, hier dann auch mit weitergehenden und natürlich eher spektatulären Implikationen rur die Wachstumsrate selbst. Eine instruktive Übersicht über eine Reihe in den letzten Jahren entstandener Untersuchungen dieser Problematik gibt Pagano (1993). Offenbar befmdet sich die Forschung im großen und ganzen noch in den Anfängen. Im allgemeinen wird darauf verzichtet, explizit zu erläutern, bzw. zu modellieren, in welcher Weise bestimmte Eigenschaften der Funktionsweise von Finanzmärkten konkret Einfluß auf die Investitions- und Innovationsaktivität haben. Vielmehr wird kurzerhand eine bestimmte Wirkung von "Verbesserungen" der Finanzintermediation auf Qualität und Quantität der Akkumulation behauptet und diese "Einsicht" in einem geeignet scheinenden Wachstumsmodell interpretiert. ~arüber hinaus begnügt man sich vielfach mit der Analyse exogen gegebener Verbesserungen der Finanzintermediation auf die Höhe der Wachstumsrate und verzichtet damit natürlich auf eine Beurteilung der Effizienz der Finanzintermediation einschl. einer Diskussion eventueller wirtschaftspolitischer Korrekturmaßnahmen. Im folgenden soll zunächst kurz auf die übliche und als Ausgangspunkt sicherlich auch sinnvolle Einschätzung der Wachstumswirkungen exogener Veränderungen der Finanzintermediation eingegangen werden. Anschließend wird ein einfaches Modell mit endogener Finanzintermediation formuliert und seine Aussage zum Verhältnis von Finanz- und Gütermarkt diskutiert. Die Kritik dieses Ansatzes, die Lw. auf eine zu pauschale und selektive Abbildung der Funktion der Finanzintermediation hinausläuft, fUhrt zu einigen anschließenden Überlegungen zu den Möglichkeiten und Grenzen einer Weiterentwicklung des verwendeten Modelltyps.

B. Exogene Finanzintermediation Die ökonomische Wirkung einer geeignet defmierten "Verbesserung" der Finanzintermediation besteht nach allgemeiner Auffassung in einem Einfluß sowohl auf die Höhe des Spar- und Investitionsvolumens als auch auf die Effizienz resp. Rendite der getätigten Investitionen. Der Renditeeffekt wird unisono als positiv angesehen. Er resultiert zum einen aus einer als "Verbesserung" zu verstehenden Erhöhung des Informationsstands der Finanzintermediäre bezüglich zur VerfUgung stehender Anlagemöglichkeiten bzw. Investitionspro-

Finanzmärkte und Wachstum

127

jekte. Zum anderen steigt mit der Erweiterung der Palette der Optionen ceteris paribus auch die durchschnittlich erzielbare Rendite. Ferner wird durch die Übernahme von Liquiditätsrisiken eine größere Bereitschaft der Anleger erreicht, höher rentierliche Engagements auch dann einzugehen, wenn sie mit einer längeren Bindungsdauer, d.h. höheren Kosten einer Liquidierung verbunden sind. Dieser Effekt erleichtert insbesondere die Finanzierung von Innovationsaktivitäten. Offen dagegen ist die Wirkung in diesem Sinne verbesserter Finanzintermediation auf die Sparaktivität. Grundsätzlich kommt es bei der Wirkung einer höheren Verzinsung der Anlage auf die relative Größe von Substitutions- und Einkommenseffekt an. Sofern der verbesserte Informationsstand der Finanzintermediäre auch eine Lockerung eventueller Kreditlimite der Haushalte bewirkt, kann grundsätzlich nur ein Rückgang der aggregierten Ersparnisse prognostiziert werden. Wenn allerdings die neuen Kredite dazu verwendet werden, das Ausmaß der Bildungsausgaben zu erhöhen, könnte das zu Produktivitätssteigerungen beitragen, die per saldo den wachstumsmindernden Effekt abnehmender Ersparnisse (über-)kompensieren. Welche Vermutungen lassen sich daraus bezüglich der Wachstumseffekte der beschriebenen unmittelbaren Wirkungen der Finanzintermediation ableiten? Angenommen, es existiere eine aggregierte Produktionsfunktion Y = AF(K,L) mit positiven Grenzprodukten von Kund L, d.h. dem Input von Kapital und Arbeit, Y als Sozialprodukt und Aals Effizienzparameter. Angenommen ferner, es werde ein konstanter Anteil s, 0 < s < 1, gespart und die Abschreibungsrate betrage Ö, 0 ~ ö < 1. Dann beläuft sich die Akkumulation pro Periode

auf

i 0,

i = 1,2.

(I)

Eine positive Veränderung des "Wirkungsgrades" der Finanzintermediation mit den oben beschriebenen Implikationen verändert das Produkt sA, wobei der Einfluß auf A mit großer Wahrscheinlichkeit positiv ist, der Einfluß auf s aber negativ sein kann. Nehmen wir des weiteren den günstigen Fall per saldo positiver Wirkung an.

Hans Jürgen Ramser

128

Grundsätzlich bewegt sich die Kapitalintensität k:= KIL bei konstanten Skalenerträgen in K und L, d.h. F(K,L) = LF(KIL,I) = Lf(k), und konstanter Zuwachsrate n der Bevölkerung bzw. des Arbeitskräftepotentials3 entsprechend

kl k = sAf(k)/k -

(n+ ö).

(2)

Das bedeutet, daß die Verbesserung der Finanzintermediation kurzfristig auf jeden Fall die Wachstumsrate von k und damit die Wachstumsrate der Produktivität Af(k) erhöht. Wieweit dasselbe langfristig gilt, hängt davon ab, ob \im f(k)/k = \im f'(k)

k400

k400

> =

(3)

0

gilt. Im Rahmender traditionellen Wachstumstheorie wird unterstellt, daß f(k) mit steigendem k gegen Null tendiert. Das bedeutet, daß lim k(t) = k· = ~[sA/(n +

k400

öl],

~. > 0

(4)

Unter diesen Umständen erhöht eine verbesserte Finanzintermediation also lediglich das langfristig erreichbare Niveau der Produktivität Af(k·). Ganz anders nach den Intentionen der "neuen" Wachstumstheorie, deren entscheidende "Neuerung" gerade darin zu sehen ist, daß das Grenzprodukt des Kapitals Af(k) unter Berufung auf verschiedene Einflußfaktoren (Humankapital, externe Effekte etc.) als nach unten begrenzt angenommen wird. Das bedeutet, daß die Kapitalintensität langfristig mit der Rate \im k(t)/k(t)=k·=sA. \im f'(k)-(n+ö( 0

1400

k400

=

(5)

wächst. Da die Produktivität mit der Rate

zunimmt - EK bezeichnet die Produktivitätselastizität des Kapitals - und EK langfristig gegen 1 geht, wächst auch die Produktivität langfristig mit der in (5) angegebenen Rate. Eine Erhöhung von sA als Folge verbesserter Finanzintermediation hat also hier jetzt - anders als in der traditionellen Wachstumstheo-

3 Die Wachstumsrate des exogenen technischen Fortschritts sei zur Vereinfachung gleich Null angenommen.

Finanzmärkte und Wachstum

129

rie - eine Zunahme nicht nur der kurzfristigen, sondern auch der langfristigen Wachstumsrate zur Folge. Aus diesen Überlegungen folgt die mehr oder minder triviale, aber zu wenig beachtete Einsicht, daß das Zustandekommen von positiven Wachstumseffekten einer Qualitätsverbesserung der Finanzintermediation nicht nur von den Eigenheiten dieser Innovation selbst abhängt, sondern vielmehr entscheidend von den Eigenschaften des Wachstumsmodells, mit dem argumentiert wird. Dies gilt zumindest dann, wenn - wie z.B. in der von Pagano (1963) zitierten Literatur grundsätzlich angenommen wird - Finanzintermediation nur auf das Niveau von Sparquote sund/oder Effizienzniveau A wirkt. Anders präsentiert sich die Situation von vornherein natürlich dann, wenn unterstellt wird, daß eine Verbesserung der Finanzintermediation z.B. die Wachstumsrate von A erhöht. Ähnlich wie in entsprechenden Humankapitalansätzen (vgl. u.a. Lucas 1988) könnte man unter Berufung auf learning by doing-Effekten z.B. postulieren, daß die Wachstumsrate von A positiv mit der Anzahl der im Finanzintermediationssektor tätigen Arbeitskräfte variiert, d.h. daß A(t) = z[a(t)L(t)]A(t), z' > 0

(6)

mit a(t) E (0,1) als Anteil in der Finanzintermediation Beschäftigter gilt. In Verbindung mit (2), wobei jetzt natürlich k(t) = K(t)/[I-a(t)]L(t) zu verstehen ist, folgt hier nun auch rur die traditionelle Annahme lim f'(k)=O

k-+co

als steady state- Wachstumsrate (7)

wenn die Bevölkerungszuwachsrate mit Null angenommen und die Beschäftigung im Finanzintermediationssektor konstant gehalten wird. 4 Eine Erhöhung der Produktivität in diesem Sektor, d.h. eine positive Niveauverschiebung der z(.)-Funktion erhöht hier also direkt die langfristige Wachstumsrate des ProKopf-Einkommens5 auch in einem ansonsten traditionellen Wachstumsmodell.

4

5

Die Produktionse1astizität des Faktors Arbeit geht hier mit wachsendem k gegen 1. Sie beträgt hier wegen der implizierten Annahme zunehmender Skalenerträge

2k* . 9 Festschrift Oppenländer

Hans JUrgen Ramser

130

Bemerkenswert ist, daß unter diesen Umständen auch ein eventuell ambivalenter Einfluß der Finanzintermediation auf die Sparquote ft1r die langfristige Wachstumsrate belanglos ist.

c. Endogene Finanzintermediation Die Analyse gegebener Finanzmarkteinflüsse auf die Wachstumsrate kann grundsätzlich nur ein erstes, wenn auch notwendiges Kapitel in einer umfassenderen Studie der Rolle von Finanzmärkten im Wathstumsprozeß sein. Da Güter- und Finanzmarkt eine hohe Interdependenz aufweisen und natürlich auch der Stellenwert der faktischen Aktivität an den Finanzmärkten interessiert, ist als der erforderliche zweite Schritt eine Endogenisierung der Finanzintermediation unerläßlich. In Anlehnung an bekannte neoklassische Zwei-Sektoren-Modelle kann man unter Bezugnahme auf den Dienstleistungscharakter der Finanzintermediation neben der Güterproduktion explizit einen entsprechenden Sektor Finanzintermediation einfUhren. Seine Existenz wird annahmegemäß mit diversen Transaktionskostenersparnissen gerechtfertigt, die mit dem Verzicht auf eine umweglose Kreditgewährung von Haushalten an Firmen verbunden ist. Für die Kreditvermittlung wird als Dienstleistung eine entsprechende "Provision" verlangt. Die Firmen des grundsätzlich kompetitiven Produktionssektors produzieren mit einer Produktionsfunktion, die externe Effekte (spillovers) LS. von Romer (1986) aufweisen soll, deren Wirkung von den einzelnen Firmen nicht kalkuliert wird. Sie lautet ft1r die Firma i (8) ~

> 0, 'IIj > 0, j

= 1, 2,

mit K als durchschnittlichem Kapitalbestand einer Firma und konstanten Skalenerträgen von F(.) sowohl bezüglich Kj und N j als auch bezüglich K j und K. Im Sektor Finanzintermediation soll unter Einsatz lediglich des Faktors Arbeit mit konstanten Skalenerträgen gearbeitet werden, d.h. daß zur Intermediation einer Ersparnis Sj d~rch den j-ten Finanzintermediär (9)

Finanzmärkte und Wachstum

131

Arbeitskräfte benötigt werden. Die Finnen im Finanzsektor sollen sich grundsätzlich nicht-kompetitiv verhalten. Die Haushalte bieten ihre Arbeitskraft unelastisch an und sind indifferent zwischen einer Beschäftgigung in der Produktion und der Finanzintermediation. Ferner beabsichtigen sie grundsätzlich nicht, ihre im Umfang von (real) K an die Finnen gewährten (Alt-)Kredite abzubauen. Ihre (aggregierte) Sparfunktion, auf deren entscheidungstheoretische Herleitung hier verzichtet werden soll, laute (10)

mit 1t als von den Haushalten zu zahlendem Provisionssatz ftlr die Vermittlung von S. Für das positive Vorzeichen des Zinseffektes muß man natürlich eine entsprechende Größenordnung des Einkommenseffekts unterstellen. Statt einer Bezugnahme auf K könnte ohne qualitative Abweichung der Modellergebnisse auch auf das Einkommen abgestellt werden. Ferner hat man natürlich zu beachten, daß die Reaktionen auf Veränderungen des Zinssatzes r (absolut) erheblich stärker sind als auf Veränderungen des Provisionssatzes 1t. Mit (8) ist bereits unterstellt, daß alle Finnen im Produktionssektor mit identischer Technologie arbeiten. Daher werden sie alle denselben Faktoreinsatz planen, so daß ftlr die Faktornachfrage w=aFlaN j

= KIV2(I,N) ,

r + Ö = aFlaK j

= IVI (I,N) ,

(11) (12)

aIV21aN < 0, aIV1/aN > 0

gelten. Hierin stellen K und N zunächst die in einer einzelnen Finna realisierten Kapial- und Arbeitsinputs dar. Der Einfachheit halber soll allerdings die Anzahl der Finnen auf 1 normiert werden, so daß Kund N sofort Aggregatgrößen bezeichnen.6 Der Finanzintermediär j, j = 1, ... ,n, vermittelt Kredite in Höhe von Sj und muß daftlr eine Provision an den Sparer in Höhe von 1t entrichten, wobei sich 1t aus der Umkehrfunktion von (10) ergibt, d.h.

6

Andernfalls wären entsprechende Änderungen in (10) erforderlich.

Hans Jürgen Ramser

132

(13) n

S_j=:LSj. j,. j

Die Wahl von Sj folgt aus

~~

+[(Sj +S_j)/K,r]Sj - wS/9,

und man erhält als NASH-Gleichgewicht +(S/K,r)(I-11/n)=w/9, 11:=-S+I/+, 0 0

~

:s;

max Py,Px

1,

V'j.

(2)

Die (Ixm) beziehungsweise (Ixs) Vektoren Py und Ps geben jeweils die Aggregationsgewichte rur die Inputs beziehungsweise Outputs an, wobei die Aggregation linear-arithmetisch ist. S Die Aggregationsgewichte werden endogen bestimmt und können prinzipiell rur jede Beobachtung I spezifisch sein. Durch die Nebenbedingungen erreicht man, daß die h, nur Werte aus dem halboffenen Intervall ]0,1] annehmen können, wobei die effizientesten Akteure einen Wert von h, = 1 aufweisen. Bei (2) hat man es mit einem Problem der linearen Quotientenprogrammierung zu tun, ft1r welches verschiedene Lösungsverfahren existieren. 6 Im Rahmen der nicht-parametrischen Frontieranalyse hat sich die sogenannte CharnesCooper- Transformation durchgesetzt, bei der man den Nenner der Zielfunktion in (2) auf den Wert 1 normiert, diese Normierung als weitere Nebenbedingung

S Es handelt sich hierbei um einen Produktivitätsindex vom Typus Kendrick-Ott, wobei allerdings dort die Aggregationsgewichte exogen aus dem Optimalkalkül der Akteure abgeleitet sind.

6

Siehe hierzu Böhm (1978), der einen guten Überblick gibt.

IntrasektoraIe technologische Dynamik

195

in das Programm aufnimmt und bezüglich der endogenen Größen Py und P" eine Variablentransformation zu J.1 und V durchfUhrt. Man erhält dadurch folgendes Programm der linearen Programmierung, das auch als productivity-form bezeichnet wird, da hierdurch die Aggregationsgewichte fUr den Produktivitätsindex bestimmt werden: ~max

m,ll

=1

(3)

s;o

>0.

m,ll

Die Aggregationsgewichte werden hier so bestimmt, daß h l maximiert wird und dabei die Produktivitätsindizes aller anderen Unternehmen bei Bewertung mit den gleichen Gewichten nicht größer als 1 werden. Man erhält den gleichen Produktivitätsindex fUr I, wenn man, anstatt die Aggregationsgewichte zu bestimmen, die Inputineffizienz beziehungsweise die proportionale Inputreduktion ermittelt, die notwendig ist, um den höchsten Effizienzgrad zu erreichen. Diese Formulierung entspricht nun gerade dem zu (3) dualen Programm, der sogenannten envelopment-form:

hl=

el NB: eixi

min

e,1..

~

XI.. VI.. I..

~ ~ ~

0 YI

(4)

o.

Die Variable 91 gibt dabei an, auf wieviel Prozent Akteur I seine Inputs proportional reduzieren muß, damit seine Leistungsfllhigkeit mit Bezug auf alle n Beobachtungen best-practice ist. Der (1xn)-Vektor A. gibt dabei an, mit weichem Gewicht die Inputs und Outputs der n Beobachtungen in das Referenzmaß rur I eingehen. Aus den Lösungen der n linearen Programme können verschiedene Effizienzteilmengen gebildet werden. Die Teilmenge Eff(n) der technisch effizienten Beobachtungen genügt dabei der folgenden Bedingung: Eff(n)

=

{j: ej

=

I}.

(5)

Für die technisch ineffizienten Beobachtungen erhält man die Teilmenge Ineff(n) mit:

13·

196

Uwe Cantner und Horst Hanusch

Ineff(n) =

{j:

(6)

9j < I} .

Diese beiden Teilmengen sind ein erster Ausdruck der beobachtbaren vertikalen Heterogenität. Die Werte rur 91 quantifizieren diese dann zusätzlich. Aus dem Vektor A. erhält man Informationen über das jeweilige Teilstück der Frontierfunktion, das als Referenz rur die betrachtete Unternehmung I dient. Hieraus lassen sich dann horizontale Strukturen ableiten, welche jedoch in der weiteren Analyse dieses Beitrages keine explizite Berücksichtigung fmden sollen. 7 3. Abschnittsweise-lineare Technologien und DistanzJunktionen

Die Formulierung der Frontierbestimmung nach Färe/GrosskopflLovell (1994) geht nun nicht von einem Produktivitätsindex aus, sondern fragt direkt, wie nahe die Leistungsfilhigkeit einer Beobachtung I an der bestmöglichen Leistungsfilhigkeit aller n Beobachtungen liegt. Zu diesem Zweck wird eine Inputmenge L(Y) über alle gegebenen Y definiert, welche die Technologie repräsentiert, deren Ränder aus linearen Teilstücken bestehen, filr die konstante Skalenerträge (C) in der Produktion angenommen werden und die folgender Bedingung genügen muß: L(YIC)

=

{x: y ~ VA, XA. ~ x, A. ~ o}

.

(7)

Die Nähe einer Beobachtung I zur unteren Grenze des Inputsets L(Y) kann dann durch die Distanzfunktion DI(YbXII C) wiedergegeben werden: (8)

Die Distanzfunktion DI(YbXII C) wird auch als Inputmaß der technischen Effizienz bezeichnet. Unter Verwendung von (4) erhält man dieses Maß als Lösung des folgenden linearen Programms: D(y"xt!C) = h,= NB:

min 9, -+ 9,A. XA. 9,x, VA. A

~ ~

~

0 y,

O.

7 Vergleiche hierzu Bernard/CantnerlHanusch/Westermann (1995), CantnerlHanusch/W estermann (1996a, 1996b) und Cantner/Westermann (1996).

(9)

Intrasektorale technologische Dynamik

197

Entsprechend lassen sich auch hier die Teilmengen der effizienten und ineffizienten Beobachtungen aufstellen. Es gilt dann:

r ejXj E L(YI C) , ej = I} , r ejX j E L(YI C) , ej < I}.

Eff(n)

{x

Ineff(n)

{x

(10)

Die Identität der Formulierung hier mit der Formulierung unter I. sowie der Defmitionen der effizienten und ineffizienten Teilmengen ist offensichtlich. Für beide gilt, daß man es hier mit der sogenannten Inputorientierung der nicht-parametrischen Frontieranalyse zu tun hat. Sie umfaßt alle diejenigen Analysen, bei denen Ineffizienzen in Inputeinheiten ausgedrückt werden, und zwar in dem Sinne, daß sie angeben, auf welches Inputniveau ein Akteur seine Inputs bei konstantem Outputniveau reduzieren müßte, um ein best-practice Leistungsniveau zu erreichen. 8 Die angesprochenen Programme zur nicht-parametrischen Frontieranalyse stellen eine Grundformulierung dar, wie sie in den meisten empirischen Analysen Anwendung fmdet. Erweiterungen hinsichtlich vorhandener output slacks oder excess inputs, die Berücksichtigung variabler Slwlenerträge, Möglichkeiten zum Vergleich von best-practice-Beobachtungen u.a.m können auf dieser Basis vorgenommen werden. Im vorliegenden Beitrag möchten wir uns jedoch auf die Strukturveränderung und den technologischen Fortschritt konzentrieren und die entsprechende Methodik anhand des Grundmodells vorstellen. Hinsichtlich der angesprochenen Erweiterungen finden sich die entsprechenden linearen Programme sowie dazugehörige empirische Anwendungen und Interpretationen in Bernard/CantnerlHanusch/Westermann (1995), CantnerlWestermann (1995,1996) und CantnerlHanuschiWestermann (1996a, 1996b).

8 Selbstverständlich kann die Analyse auch als Outputorientierung durchgeführt werden. In diesem Falle würde man entweder einen Produktivitätsindex Input/Output minimieren oder aber - letztendlich natürlich wieder äquivalent - einen Outputset definieren, mit Hilfe dessen dann die Leistungsflihigkeit als Distanz zu einer Outputfrontier bei gegebenem Input bestimmt würde. Bezüglich der Ableitung des entsprechenden linearen Programms wird hier auf die Literatur und dabei explizit auf Färe/GrosskopflLovell (1994) sowie Chames/CooperlLewiniSeiford (1994) verwiesen.

198

Uwe eantner und Horst Hanusch

III. Vertikale Strukturen und deren Veränderungen Die Frontierfunktionen, wie sie oben ermittelt wurden, stellen wie bereits erwähnt relative Konzepte dar. Die festgestellte Effizienz einer Beobachtung I ist dabei immer nur im Vergleich zu denjenigen besten Beobachtungen der Untersuchung zu sehen, die auch (als Nebenbedingungen) im jeweiligen linearen Programm rur I aufgenommen wurden.

Im Rahmen von Panelanalysen hat man nun die Möglichkeit, Veränderungen der Effizienz zu ermitteln. Bei der Interpretation der nachfolgenden Analysen ist noch einmal explizit darauf hinzuweisen, daß mögliche Effizienzverbesserungen beziehungsweise -verschlechterungen lokalen Charakter haben, da sie stets gegen die jeweilige Referenzteilfrontier gemessen werden. In diesem Zusammenhang können verschiedene Frontierkonzepte angewendet werden. Diese unterscheiden sich darin, welche Beobachtungen zu welchen Zeitpunkten innerhalb einer Berechnung berücksichtigt werden. Die jeweiligen Kennzahlen zur Effizienz lassen sich dann dementsprechend unterschiedlich interpretieren. In diesem Zusammenhang sollen drei Frontierkonzepte unterschieden werden, wie sie von CantnerlWestermann (1996) eingeftlhrt werden: - die periodische Frontierfunktion, - die all-time-best Frontierfunktion und - die technologische Frontierfunktion.

Im folgenden gelte die Notation wie oben, jedoch mit der Erweiterung, daß sich die Beobachtungen und Ergebnisse hier auf eine bestimmte Periode t (t = 1, .... ,1) beziehen. Demzufolge gibt es wieder n Akteure, wobei ftlr jeden Akteur T Beobachtungen vorliegen. Außerdem steht der Index (:S; 1) beziehungsweise (:S; t) ftlr alle Beobachtungen im Zeitraum [l,T] beziehungsweise [l,t]. 1. Periodische Frontieranalyse Zur Bestimmung der periodischen Frontierfunktion dienen ftlr eine Beobachtung I in t alle Beobachtungen n(t) als Vergleich. Mit dem Index p ftlr "periodisch" gibt der Effizienzwert e(t) an, welchen Abstand die Beobachtung I von der Frontierfunktion der Periode t aufweist. Diese statische Analyse läßt sich nun ftlr alle Perioden T durchfUhren, und man erhält rur jeden Akteur j

Intrasektorale technologische Dynamik

199

einen (TxI)-Vektor 9. Die Abfolge der einzelnen Werte gibt an, ob es dem Akteur j von t nach t+ 1 gelungen ist, zur Frontierfunktion und damit zu den besten Akteuren aufzuschließen. Als Index ftlr diese Veränderungen dient der Quotient 9P(t)/9P(t+ 1). Bei dieser Indexzahl muß man allerdings vorsichtig sein, da es sich bei der Effizienzanalyse um ein relatives Konzept handelt. Gilt beispielsweise ftlr einen Akteur j 9P(t+I) > 9P(t), so kann dieses Aufschließen prinzipiell durch zwei Effekte sowie deren Kombination hervorgerufen werden: (i) Zum einen kann sich Akteur j tatsächlich absolut verbessern, wobei die Frontier annahmegemäß von t nach t+ 1 unverändert bleiben soll.

(ii) Die Leistungsflihigkeit von j soll von t nach t+ 1 unverändert bleiben, jedoch die Frontierfunktion wird vergleichsweise schlechter. (iii) Die Kombination von (i) und (ii) bewirkt, daß Akteur j aufschließt.

Äquivalent hierzu läßt sich auch das Ergebnis eines ZUfÜckfallens von j interpretieren. In beiden Fällen läßt sich ohne genaue Kenntnis der Bewegung der Frontierfunktion keine Aussage darüber machen, warum es zu einer bestimmten Veränderung gekommen ist.

2. AII-time-best Frontieranalyse

Das grundlegende Problem bei der periodischen Analyse liegt in der Tatsache begründet, daß die Referenzfrontier von Periode zu Periode wechselt und somit die einzelnen periodischen Effizienzmaße auf unterschiedlicher Basis stehen. Um dieses Problem zu umgehen, kann man zur Berechnung der Effizienz von Akteur I in Periode t alle Akteure n mit allen T Beobachtungen als mögliche Referenzbeobachtungen in das lineare Programm aufnehmen. Mit X(sT) beziehungsweise y(sT) als den Matrizen ftlr alle Beobachtungen im Zeitraum [I,T] läßt sich das folgende lineare Programm aufstellen:

D(yf, xflC) = NB:

hl

= 91 9,xf

--+

-

min

9,).

x($1)).

~

y($1)).

~

).

~

0

yf O.

(11)

200

Uwe Cantner und Horst Hanusch

Man erhält dann eine Frontierfunktion, die von denjenigen Beobachtungen aufgespannt wird, die im gesamten Zeitraum [1,T] vergleichsweise das höchste Effizienzniveau besitzen. Mit d (dynamisch) als Index tUr diese Analyse ergeben sich mit dieser all-fime-best Frontierfunktion ebenfalls fUr jedes j (Tx 1) Vektoren e. Die einzelnen Effizienzwerte zwischen Periode t und t+l können dann direkt miteinander verglichen werden, da sie denselben Referenzmaßstab besitzen. Als Index dient hier Quotient ed(t)/ed(t+l). Gilt beispielsweise wieder ed(t+ 1»ed(t), dann leitet sich daraus direkt ab, daß Akteur I seine Effizienz von t nach t+ 1 verbessert hat. Man kann allerdings daraus nicht ablesen, ob die Effizienzverbesserung durch einen Abbau von Ineffizienz oder durch technischen Fortschritt erfolgte.

3. Technologische Frontieranalyse Die periodische und die all-time-best Frontieranalyse haben gezeigt, daß bei beiden eine klare Trennung zwischen technologischem Fortschritt und Abbau von Ineffizienz nicht möglich ist. Aus diesem Grund soll hier eine zusätzliche Analyse eingetUhrt werden, die zumindest helfen kann, die Effekte des catching-up, des forging-ahead und des falling-behind aufzudecken. Für diese Analyse benötigt man eine weitere Teilmenge aus der Menge der effizienten Beobachtungen, wobei hier Beobachtungen aus verschiedenen Perioden gleichzeitig berücksichtigt werden. Die Menge Eff(ni~t) gibt alle effizienten Beobachtungen für den Zeitraum [1, t] an. Mit et,t als dem Effizienzmaß tUr eine Beobachtung in 't, die gegenüber der Frontierfunktion der Periode t gemessen wird, ist diese Menge wie folgt definiert: Eff(n){:S;t)

=

{j,

t

~ t: 9J,t = I} .

(12)

Man erhält Eff(ni"t), indem man in Periode I beginnend tUr jedes teine alltime-best Frontieranalyse durchführt. Das lineare Programm hierzu lautet:

D(yf ,xflC) = NB:

hl =

91 t 91 I

~

x -

min 9,A. X{:S; t)A.

~

0

y{:S; t)A.

~

yf

A.

~

O.

(13)

Intrasektorale technologische Dynamik

201

Dadurch erreicht man, daß sich die Frontierfunktion von Periode t+ 1 gegenüber derjenigen aus t nicht verschlechtern kann. Es ergeben sich dann wieder filr jedes j (Txl) Vektoren 9, wobei der Index w rur die technologische Analyse steht. Der Vergleich von Effizienzkennzahlen in t+ 1 und t läßt direkt die Aussage zu, ob ein Akteur technologisch gesehen aufschließen konnte oder ob er zurückgefallen ist. Als Indexzahl dient hier analog zu oben der Quotient 9 W(t)/9W(t+ 1). Die daraus ableitbaren Aussagen sind eindeutig, da sich hier die Frontierfunktion zwischen zwei Perioden nicht verschlechtern kann.

IV. Technologischer Fortschritt und technologisches Catching-up Die verschiedenen Frontierkonzepte haben gezeigt, wie man die Veränderung von Ineffizienz oder Prozesse des catching-up ermitteln kann und welche Interpretationen damit verbunden sind. Die Frage nach der Rate des technologischen Fortschritts mußte dabei jedoch noch offen bleiben. Dieses Problem soll in diesem Abschnitt diskutiert werden. Eine Trennung zwischen den Effekten des technologischen Fortschritts und des Catching-Up bedarf der Kenntnis der Bewegung der Frontierfunktion. Die Diskussion in B.II hat gezeigt, daß die dort vorgestellten Analyseverfahren diese Trennung nicht hervorbringen können. Die Ursache ist, daß rur eine Quantifizierung der Bewegung der Frontierfunktion in Periode t, diese sowohl mit den Beobachtungen aus t+ 1 als auch mit denjenigen aus t-l verglichen werden muß. Im folgenden sollen zwei Verfahren vorgestellt werden, die dieses Defizit beheben können. Zum ersten handelt es sich um den sogenannten MalmquistProduktivitäts index, wie er im Rahmen der parametrischen Frontieranalyse verwendet wird. Dieser Index ist allerdings mit dem Problem konfrontiert, daß er auch Werte filr technologischen Rückschritt berechnet. Aus dieser Kritik heraus wird zweitens eine Modifizierung dieser Indexzahlberechnung vorgeschlagen, die sich an der technologischen Frontieranalyse orientiert.

I. Der traditionelle Malmquist-Index Die theoretische Fundierung des Malmquist-Produktivitätsindexes geht auf Arbeiten von Malrnquist (1953), Solow (1957) und Moorsteen (1961) zurück.

Uwe Cantner und Horst Hanusch

202

In die Produktivitätsmessung wurde dieser Index dann von Caves/ChristensenlDiewert (1982a, 1982b) übernommen. Färe/GrosskopflLindgrenIRoos (1994) haben gezeigt, wie die Distanzfunktionen D1(y.,xll C) zur Konstruktion des Malmquist-Index herangezogen werden können. Die nachfolgende Darstellung orientiert sich an dieser Vorgehensweise. Der Malmquist-Index MI+ I zur Produktivitätsentwicklung von t nach t+ 1 ist wie folgt definiert: 9

)0,5

t,t t,t+l 0, ( 0, 0f +1,t -o:-!f+'1,7"Ct+"1 (

Ot,t )(ot+l,t+l Ot,t+l)O'S o1+l,t+l ~t+l,t ~t,t, '-'I,... ,

(14)

MC ·MF.

Dabei gibt e1,5, t,seT, die Effizienz der Beobachtung aus Periode t an, wenn die Frontierfunktion aus Periode s als Referenz dient. Es müssen dabei ftlr einen Akteur I vier lineare Programme aufgestellt werden. Bei eI,l und el+ 1,1+ 1 fUhrt man jeweils die periodische Analyse wie oben beschrieben durch und erhält dann die jeweiligen sP ~ 1. Bei el,l+l wird die Beobachtung in t an der Frontierfunktion von t+ 1, bei el+ 1,1 die Beobachtung in t+ 1 an der Frontier von t gemessen. Die berechneten Effizienzwerte sind nun nicht mehr notwendigerweise auf das Intervall ]0,1] beschränkt, sondern sie können auch Werte größer ·1 annehmen. In diesem Fall wäre dann technischer Fortschritt zu beobachten. Die zu diesen vier Berechnungen notwendigen linearen Programme ergeben sich aus der folgenden Defmition ftlr die Terme e1,5: (a)

(b) (c)

, ,

Ot,t Ot,t+l 1 Ot+l,t

(d) Ot+l,t+l I

ot(yl,xf IC) ot+l(yf ,xf IC) ot(yf+l ,xf+llC) ot+l(yf+l, xf+llC)

min{O,:OI X f eLt(ytIC)}, min{O,:O,xf eLt+1(yt+llC)}, min{0,:0,xf+ 1 eLt(ytlC)}, min{0,:0,xf+ 1 eLt+1(yt+lIC)}.

(15)

Die linearen Programme zu (15)(a) und (15)(d) entsprechen der Formulierung in Abschnitt B.n. Für die beiden anderen linearen Programme gilt

9

Vergleiche zum Beispiel Färe/GrosskopfILovell (1994: 225-240).

Intrasektorale technologische Dynamik

Dt + l(yf ,xflC) = h,= NB:

9,

-+

9,xf

-

203

min

9,). Xt + I).

~

yt+l).

0

~

yf

).

~

(16)

o.

beziehungsweise Dt(yf + I ,xf + llC) = h,= NB:

min 9, -+ 9,). 9 x t + 1 - Xt ). yt).

,,

).

~ ~

~

0 t+l y,

(17)

o.

Für alle Akteure j lassen sich mit Hilfe dieser Programme T-I Indexzahlen berechnen. Der Produktivitätsfortschritt beziehungsweise -rückschritt kann dabei in die Komponenten "technologischer Fortschritt" MF und "Veränderung der technologischen Lücke" Me zerlegt werden. Die Defmition in (14) ist dabei hilfreich. In der zweiten Zeile gibt der erste Term die Veränderung der technologischen Lücke wieder. Sobald man ein Me < I (Me> I) erhält, hat ein catch-up (jalling-behind) stattgefunden. Der zweite Term gibt die Veränderung MF der Technologiefrontier an, wobei dies zweimal gemessen wird: einmal bei den Faktorintensitäten der Beobachtung in t und einmal bei denjenigen in t+ I. Erhält man hierbei MF < I (MF > 1), dann hat an der Technologiefrontier technologischer Fortschritt (technologischer Rückschritt) stattgefunden. 2. Der modifizierte Malmquist-Index

Der traditionelle Malmquist-Index basiert auf der periodischen Frontieranalyse, wobei zusätzlich Vergleiche zur Frontier der Vor- beziehungsweise der Nachperiode gezogen werden. Dabei ist es zulässig, daß die Technologiefrontier sich von t nach t+1 auch verschlechtert, was sich in Mt+\ widerspiegelt. Berechnet man dann den Index M1+2, so hat dieser die Frontier in t+ 1 zur Basis. Wird filr Mt+2 ein technologischer Fortschritt Mr+2 < 1 berechnet, dann setzt sich dieser aus zwei Komponenten zusammen: (i) Zum einen wird der technologische Rückschritt t~t+ 1 kompensiert.

(ii) Zum anderen fmdet "echter" technologischer Fortschritt in dem Sinne statt, daß die best-practice-frontier des Zeitraums [I, t+1] verbessert wird.

204

Uwe Cantner und Horst Hanusch

Mit dem traditionellen Malmquist-Index ist diese Aufspaltung der Komponente MF nicht möglich. Zur Identifizierung des "echten" technologischen Fortschritts muß man den Malmquist-Index entsprechend der technologischen Frontieranalyse modifizieren. Dabei können die Werte et.1 beziehungsweise el+1.1+1 aus der technologischen Analyse in 0 übernommen werden. Für die Berechnung der Effizienz gegenüber der Vor- und der Nachperiode ändert sich folgendes: Defmiert man wieder Eff(ni:>l) wie oben, dann werden alle Beobachtungen in t auch mit der Frontierfunktion aus den Beobachtungen Eff(ni:>I+1) verglichen. Entsprechend werden die Beobachtungen aus t+ 1 an der Frontierfunktion Eff(ni:>l) gemessen. Es ergeben sich dann folgende lineare Programme: D(!> t + 1) (yf, xflC) = NB:

9)

-+

9)Xf

-

h)=

min

9,1.. X(!> t + 1)1..

~

y(!> t + 1)1..

~

I..

~

0

(18)

yf 0

beziehungsweise D(!>t)(yf+l,xf+IIC)= h) = NB:

9)

-+

9)Xf+1

-

min

9,1.. x(!> t)A

~

o

y(!> t)A

~

t+1

I..

~

(19)

y\

O.

Diese Berechnungen filhren wieder zu T-1 Malmquist- Indizes filr jeden Akteur. Die Größe MF1+1 gibt hier jeweils die Veränderung der Technologiefrontier bezüglich des höchsten technologischen Niveaus an, das bis Periode t erreicht wurde. Der Term MC I+1 entspricht dann der Indexzahl aus der technologischen Frontieranalyse aus B.II.

C. Empirische Analyse I. Datenbasis Die oben unter B. diskutierte Methodik ist auf drei ausgewählte Sektoren der bundesdeutschen Industrie angewendet worden. Es handelt sich hierbei um die Chemische Industrie "CH", die Elektrotechnische Industrie "ET" und den Ma-

Intrasektorale technologische Dynamik

205

schinenbau "MB". Es werden die Jahre 1981-1993 analysiert, wobei das Sampie 52 eH-Unternehmen, 36 ET-Unternehmen und 83 MB-Unternehmen der Rechtsfonn AG und GmbH umfaßt. Die Daten rur Input und Output der Unternehmen sind aus den Jahresabschlüssen der Unternehmen entnommen. Da fUr die Analyse der technischen Effizienz reale und möglichst keine ökonomisch bewerteten Größen verwendet werden sollten, sind folgende Berechnungen rur die Inputfaktoren "Arbeit", "Kapital" und "Material" sowie rur den Output vorgenommen worden:

Arbeit: Anzahl der (Vollzeit-)Arbeitskräfte am Ende des Geschäftsjahres werden mit den jährlichen geleisteten Arbeitsstunden multipliziert. Hierdurch erreicht man nur eine Differenzierung zwischen den Jahren, nicht jedoch zwischen den Unternehmen. Kapital: Der reale Kapitalstock wird nach der capital inventory method berechnet. Hierbei werden die Jahresanfangsbestände des Sachanlagevennögens zu Anschaffungskosten mit einem geeigneten (Investitionsgüter-)Preisindex auf das Basisjahr 1985 umgerechnet, mit einem Kapazitätsauslastungsgrad bereinigt und mittels der technischen Nutzungsdauer (Blades 1991) abgeschrieben. Material: Material muß in einer aggregierten Größe verwendet werden. Als Aggregationsgewichte dienen die Preise, so daß die Materialkosten laut GuVRechnung - auf das Basisjahr 1985 umgerechnet - herangezogen werden. Output: Der Output wird ebenfalls in einer aggregierten Größe erfaßt. Hierbei werden die Umsatzerlöse um die aktivierten Eigenleistungen erhöht, um die Bestandsveränderungen korrigiert und auf das Basisjahr 1985 umgerechnet. Ohne Zweifel sind die Größen "Kapital", "Material" und "Output" immer noch durch die ökonomische Bewertung verzerrt, so daß eine reine technische Analyse hier nicht möglich ist. Die beschränkte DatenverfUgbarkeit sowie die bekannten Probleme bei der Ennittelung eines realen Kapitalstocks erzwingen jedoch diese Vorgehensweise. Bei der Interpretation der Ergebnisse sind mögliche ökonomische Verzerrungen zu berücksichtigen. 11. Ergebnisse

Für die drei Sektoren eH, ET und MB sind jeweils der MalmquistProduktivitätsindex sowie die Malmquist-Indexzahlen fUr den technischen Fortschritt MF und den technologischen Catch-up Me berechnet worden, wo-

206

Uwe eantner und Horst Hanusch

bei der modifIzierte Malmquist-Index aus B.II.2 verwendet wurde. Da der Analysezeitraum die Jahre 1981 bis 1993 betriffi, können rur 1982 bis 1993 die entsprechenden Indexzahlen berechnet werden. Tabelle 1 gibt die durchschnittlichenjährlichen Werte des modifIzierten Malmquist-Produktivitätsindex an. Werte kleiner als 1 zeigen an, daß die Unternehmen im Durchschnitt den technologischen Fortschritt vorangetrieben haben. Werte kleiner als 1 stehen filr eine Verschlechterung der durchschnittlichen technologischen Leistungsfähigkeit. Dabei sind diese Werte dahingehend zu interpretieren, daß sich das technologische Leistungsniveau des Jahres t auf die best-practiceFrontierfunktion bis zu diesem Jahr bezieht. Betrachtet man sich beispielsweise den Chemiesektor, so sagt der Wert von 0,98 im Jahr 1983 aus, daß nicht nur die Verschlechterung im Jahr 1982 (1,02) aufgeholt wurde, sondern auch das bis 1982 herrschende best-practice-Technologieniveau verbessert werden konnte. Tabelle 1: Durchschnittlicher Malmquist-Produktivitätsindex

eH

ET

MB

82

1,02

1,00

1,07

83

0,98

0,99

1,00

84

0,97

0,96

0,98

85

1,00

1,00

1,02

86

0,95

1,06

1,09

87

0,98

1,01

1,02

88

0,97

0,97

1,00

89

0,99

0,99

0,99

90

1,07

1,01

1,10

91

0,95

0,95

1,03

92

0,97

1,68

1,05

93

0,97

0,97

1,03

Die Entwicklungen rur die drei Sektoren sind durchaus unterschiedlich. Während der Chemiesektor CH fast kontinuierlich sein durchschnittliches technologisches Niveau verbessert, zeigt sich bei der Elektrotechnik ET ein "Auf und Ab" und beim Maschinenbau MB sogar eine kontinuierliche Verschlechterung des Leistungsniveaus. Die Werte der Tabelle 1 sind allerdings nur Durchschnittsgrößen, die nichts darüber aussagen können, ob technologischer Fortschritt an der Frontier statt-

Intrasektorale technologische Dynamik

207

gefunden hat oder ob catch-up-Prozesse oder falling-behind- Tendenzen diese Entwicklungen hervorgerufen haben. Eine Aufspaltung dieser Detenninanten soll im folgenden durchgefUhrt werden.

In einem ersten Schritt sollen die Ergebnisse fUr den technologischen Fortschritt betrachtet werden. Es handelt sich hierbei um die Verschiebung der best-practice-Frontierfunktion. In diesem Zusammenhang ist interessant, ob und in welchem Ausmaß technologischer Fortschritt stattfmdet, wieviele Unternehmen die Frontierfunktion verschieben und ob dabei dominante Technologiefllhrer identifiziert werden können. Tabellen 2a-c geben hierauf erste Antworten. In den Tabellen sind in der zweiten Spalte "Leader" jeweils die Anzahl derjenigen Unternehmen angegeben, welche technologischen Fortschritt betreiben und die Frontierfunktion im betreffenden Jahr verschieben. In den nachfolgenden Spalten sind die durchschnittliche, die maximale und die minimale Indexzahl fUr den technologischen Fortschritt angegeben. Wie oben bereits ausgefUhrt, geben Werte kleiner als 1 an, daß sich technologischer Fortschritt vollzogen hat, wobei das bis dahin erreichte beste technologische Niveau verbessert wurde. Sollte ein Wert von 1,00 gefunden werden, dann hat kein technologischer Fortschritt stattgefunden. Tabelle 2a: Technologischer Fortschritt in der chemischen Industrie

eH 82 83 84 85 86 87 88 89 90 91 92 93

Leader

durchschn. TF

max

min

3 3 5 6 6 3 6 4 6 4 4

0,99 0,96 0,96 0,98 0,92 0,96 0,92 0,93 0,94 0,89 0,96 0,95

0,99 0,93 0,93 0,96 0,96 0,85 0,91 0,89 0,87 0,74 0,91 0,93

0,99 0,98 0,98 0,99 0,98 0,99 0,96 0,96 0,98 0,96 0,99 0,98

Für die Chemische Industrie fmdet man, daß in allen Jahren technologischer Fortschritt zu beobachten ist. Dabei ist die Rate des Fortschritts am höchsten in den Jahren 1986-1991. Die Anzahl der TechnologiefUhrer schwankt - mit Aus-

208

Uwe Cantner und Horst Hanusch

nahme von 1982 - zwischen 3 und 6 Unternehmen. Eine detaillierte Analyse zeigt diese Entwicklung von 4 Unternehmen in dem Sinne dominiert, daß diese in nahezu alle Jahren als Technologieruhrer erscheinen. Insgesamt sind 12 Unternehmen zumindest einmal Technologieruhrer. Dies unterstützt die Vorstellung, daß der lokal zu beobachtende Fortschritt kein Zufallsprodukt ist, sondern sich eine relativ "stabile" Struktur von Innovatoren und Imitatoren herausbildet. Die Werte rur den maximalen und minimalen Fortschritt geben die Spannbreite an, innerhalb derer sich der lokale Fortschritt vollzieht. In der elektrotechnischen Industrie wird der technologische Fortschritt von relativ wenigen Technologiefiihrern vorangetrieben. Dabei ist eine sinkende Tendenz festzustellen, so daß am Ende des Untersuchungszeitraums der Fort,. schritt nur noch von jeweils einem Unternehmen vorangetrieben wird. Insgesamt fmden sich rur den gesamten Untersuchungszeitraum 9 Unternehmen, die zumindest einmal TechnologiefUhrer sind. Zwischen 1983 und 1990 wird die Entwicklung von 2 Unternehmen dominiert. In diesem Zeitraum ist der durchschnittliche Fortschritt moderat und die technologische Struktur relativ "stabil". Im Vergleich zum Chemiesektor ist die Rate des Fortschritts jedoch niedriger. Ab 1991 sind immer wieder unterschiedliche Technologieruhrer beobachtbar, wobei diese hohe Fortschrittsraten aufweisen. Die "stabile" Innovator-ImitatorStruktur der Vorjahre wird hier aufgebrochen. Tabelle 2b: Technologischer Fortschritt in der elektrotechnischen Industrie ET

Leader

durchschn. TF

max

min

82 83 84 85 86 87 88 89 90 91

2 3 5 3

0,98 0,94 0,94 0,98 0,96 1,00 0,99 0,99 0,92 0,45 0,48 0,89

0,97 0,95 0,87 0,97 0,96 1,00 0,99 0,99 0,77 0,45 0,48 0,89

0,99 0,98 0,98 0,99 0,96 1,00 0,99 0,99 0,94 0,45 0,48 0,89

92

93

° 1 3

Intrasektorale technologische Dynamik

209

Tabelle 2c: Technologischer Fortschritt im Maschinenbausektor MB

Leader

durchschn. TF

max

min

82 83 84 85 86 87 88 89 90 91 92 93

8 3 5 3 2 3 2 2

0,90 0,80 0,94 0,86 0,78 0,63 0,80 0,92 1,00 0,98 1,00 1,00

0,67 0,45 0,87 0,71 0,68 0,40 0,68 0,87 1,00 0,98 1,00 1,00

0,99 0,99 0,99 0,97 0,99 0,82 0,93 0,98 1,00 0,98 1,00 1,00

° ° ° 1

Der Maschinenbausektor zeichnet sich dadurch aus, daß in den Jahren 19901993 (nahezu) kein technologischer Fortschritt an der Technologiefrontier stattfmdet. In den Vorjahren läßt sich erheblicher Fortschritt an der Technologiefrontier feststellen, wie in 1983 und 1986-88. Der Fortschritt wird im Zeitraum 1982-1993 von insgesamt 19 Unternehmen vorangetrieben. Die meisten können allerdings nur einmal eine technologische Führungsposition aufbauen. Es fmdet sich nur ein dominantes Unternehmen fUr die Subperiode 1982-1987, sowie ein weiteres für die Periode 1986-1989. Im Vergleich zu den beiden anderen Sektoren zeigen sich höhere Spannbreiten in der Rate des technologischen Fortschritts. Der zweite Analyseschritt befaßt sich mit den below-best-practiceUnternehmen. Hier ist interessant, inwieweit es diesen gelingt, die technologische Lücke zu den best-practice-Unternehmen zu schließen. Zu diesem Zweck werden in den Tabellen 3a-c mit Me jeweils die Veränderungen der technologischen Lücke insgesamt und getrennt nach catch-up- beziehungsweise fallingbehind-Unternehmen angegeben. Die Spalte "no." gibt dabei die Anzahl der below-best-practice-Unternehmen an. Zusätzlich wird auch die Größe MF ausgewiesen. Sie gibt den durchschnittlichen technologischen Fortschritt an, der an der Referenzfrontier der below-

14 Festschrift Oppen1änder

Uwe eantner und Horst Hanusch

210

best-practice-Unternehmen zu beobachten ist. IO Dabei können ft1r MF durchaus Werte von 1,00 auftreten. Diese Fälle sind wie folgt zu interpretieren. Zum einen hat keinerlei technologischer Fortschritt stattgefunden - wie etwa bei MB in den Jahren 1990, 1992, 1993. Zum anderen hat sich die Technologiefrontier zwar verbessert, jedoch ist dies an Teilfrontierstücken geschehen, die ft1r die below-best-practice-Unternehmen nicht als Referenz dienen. In diesem Fall kann man dann davon ausgehen, daß der Fortschritt in Nischentechnologien mit "ungewöhnlichen" Faktoreinsatzverhältnissen erfolgte.

Die Ergebnisse des Chemiesektors zeigen ft1r die below-best-practice Unternehmen einen Wechsel zwischen catch-up undfalling:'behind Prozessen. Tendenziell ist ein stärkeres falling-behind immer dann zu beobachten, wenn die Technologiefrontier relativ stark verbessert wurde - wie zum Beispiel 1990. Dies deutet an, daß die Unternehmen dem technologischen Fortschritt an der Frontier nicht sofort folgen konnten. Der entsprechende catch-up ist oft in der nachfolgenden Periode zu beobachten. Tabelle 3a: Veränderung der technologischen Lücke im ehemiesekJor eH

82 83 84 85 86 87 88 89 90 91 92 93

technolog.Lücke

catch-up

falling-behind

no.

Me

MF

no.

Me

MF

no

Me

MF

51 49 49 47 46 47 49 45 48 46 48 48

1,02 0,98 0,98 1,01 1,01 1,03 0,98 1,04 1,12 1,00 0,99 1,03

0,99 0,99 0,98 0,99 0,94 0,95 0,99 0,96 0,97 0,97 0,98 0,95

10 38 34 23 24 9 35 8 14 27 15 14

0,98 0,95 0,96 0,97 0,98 0,96 0,96 0,94 0,98 0,95 0,89 0,97

1,00 0,99 0,99 0,97 0,97 0,97 0,99 0,98 0,98 0,99 0,98 0,96

41 11 15 24 22 38 14 37 34 19 33 34

1,05 1,07 1,03 1,05 1,05 1,05 1,03 1,06 1,17 1,07 1,04 1,05

0,99 0,99 0,99 0,99 0,93 0,94 0,99 0,96 0,96 0,94 0,98 0,94

10 Die unternehmensspezifischen Fortschrittsraten ergeben sich hierbei aus einer Kombination der Fortschrittsraten der jeweiligen Eckpunkte des Frontierteilstücks.

Intrasektorale technologische Dynamik

211

Berechnet man zusätzlich in der Spalte falling-behind das Produkt aus MC und MF, dann erhält man zumeist Werte kleiner als 1. Dies impliziert, daß zurückfallende Unternehmen absolut gesehen ihr jeweiliges Leistungsnveau der Vorperiode halten können. Diese Ergebnisse legen die Interpretation nahe, daß im Chemiesektor auch technologisch zurückliegende Unternehmen immer wieder aufholen können, so daß sich der Sektor ingesamt auf höhere technologische Niveaus zubewegt. Tabelle 3b: Veränderung der technologischen Lüc!re im Elektroniksektor ET

technolog.Lücke

catch-up

falling-behind

no.

Me

MF

no.

MC

MF

no

MC

MF

82

35

1,01

1,00

8

0,94

1,00

26

1,04

1,00

83

33

1,01

0,99

11

0,96

0,99

22

1,03

0,99

84

31

1,01

0,95

9

0,92

0,97

22

1,05

0,95

85 86

33 35

1,01

0,99

8

0,96

0,99

25

1,03

0,99

1,07

0,99

0,98

1,00

30

1,08

0,99

87

36

1,01

1,00

5 16

0,97

1,00

20

1,05

1,00

88

35

0,97

0,99

28

0,95

0,99

7

1,06

1,00

89

35

0,99

0,99

27

0,97

0,99

8

1,08

0,99

90

33

1,03

0,99

10

0,95

0,99

23

1,06

0,99

91

35

0,99

0,98

24

0,94

0,99

11

1,11

0,95

92

35

1,90

0,94

0,99

32

2,02

0,94

35

1,02

0,97

3 12

0,87

93

0,94

0,99

23

1,06

0,95

Im Elektroniksektor stellt man fest, daß mit Ausnahme der Jahre 1987-1991 mehr Unternehmen zurückfallen als aufholen. Da die Technologietrontier zum Teil erheblich verbessert wird, fmdet sich hier eine Tendenz zur sektoralen Aufspaltung in Technologiefilhrer und "nahe" Imitatoren einerseits und stark zurückfallende Unternehmen andererseits. Zumeist stellt man hier filr die zweite Gruppe fest, daß sich dort das Leistungsniveau absolut verschlechtert. Dies bedeutet, daß diese Unternehmen oft nicht in der Lage sind, ihr eigenes Leistungsniveau der Vorperioden zu halten. Auch bei den Durchschnittsgrößen lassen sich diese Fälle identifizieren und zwar immer dann, wenn das Produkt aus MF und MC größer als 1 ist.

14'

212

Uwe eantner und Horst Hanusch

Tabelle 3c: Veränderung der technologischen Lücke im Maschinenbausektor MB 82

technolog.Lücke

falling-behind

catch-up

no.

Me

MF

no.

Me

MF

no

Me

MF

76

1,09

0,99

20

0,98

0,99

56

1,19

0,99

83

80

1,02

0,99

29

0,95

0,99

51

1,06

0,99

84

78

0,99

0,99

45

0,96

0,99

33

1,05

0,99

85

80

1,03

0,99

23

0,97

0,99

57

1,06

0,99

86

81

1,10

1,00

11

0,98

1,00

70

1,12

1,00

87

80

1,05

0,99

23

0,96

0,99

57

1,09

0,99

88

81

1,00

1,00

47

0,96

1,00

34

1,11

1,00

89

81

1,00

0,99

47

0,94

0,99

34

1,06

0,99

90

83

1,10

1,00

14

0,98

1,00

69

1,14

1,00

91

82

1,04

0,99

27

0,95

0,99

55

1,10

0,99

92

83

1,05

1,00

16

0,89

1,00

67

1,10

1,00

93

83

1,03

1,00

29

0,97

1,00

54

1,08

1,00

Die Ergebnisse filr den Maschinenbausektor zeigen, daß bei den meisten Unternehmen einfalling-behind festzustellen ist. Diese Tendenz ist in den späteren Jahren jedoch nicht darauf zurückzufilhren, daß diese Unternehmen der Verbesserung der· Frontierfunktion nicht folgen können, sondern sie verschlechtern sich absolut. Diese Tendenz ist nun nicht unbedingt als eine sektorale Aufspaltung zu interpretieren. Vielmehr konnten in den Jahren 1988-1989 relativ viele Unternehmen technologisch aufholen. In den nachfolgenden Jahren zeigt sich, daß ein Großteil der Unternehmen dann absolut zurückflUlt. Der Sektor insgesamt tut sich hier schwer, die Technologiefrontier zu verbessern beziehungsweise das bereits erreichte Niveau zu halten. Die Analyseergebnisse filr die drei ausgewählten Sektoren zeigen, wie man mit Hilfe der einzelnen Komponenten des modifizierten MalmquistProduktivitätsindex sektorale technologische Entwicklungen beschreiben kano. Es ergeben sich dabei charakteristische Entwicklungsmuster, die sich aus den unterschiedlichen, unternehmensspezifischen Effekten zusammensetzen, welche sich auf Effekte des lokalen technologischen Fortschritts zurückfilhren lassen.

Intrasektorale technologische Dynamik

213

D. Schlußbemerkungen Dieser Beitrag hat sich mit der Messung und Interpretation von intrasektoralen technologischen Veränderungen beschäftigt, wobei als theoretische Grundlage die Theorie des lokalen technologischen Fortschritts dient. Die explizite Betonung von heterogenen Strukturen und daraus ableitbaren Entwicklungsmustern erfordert ein empirisches Verfahren, das diese Effekte berllcksichtigen kann. Es wurde diesbezüglich eine Methode zur nicht-parametrischen Bestimmung von Frontierfunktionen vorgestellt. Für die dynamische Umsetzung dieses Konzeptes können Produktivitätskennzahlen vom Typ Ma/mquist berechnet werden. Im Rahmen der sogenannten technologischen Frontieranalyse werden dabei die best-practice-Beobachtungen der Vergangenheit als Referenzgröße herangezogen. Hierdurch wird gewährleistet, daß technologischer Fortschritt immer als die Verbesserung des höchsten bisher erreichten Technologieniveaus ermittelt wird. Diesbezüglich wurde ein modifizierter Ma/mquist-Index abgeleitet. Dieser läßt sich wie sein traditionelles Analogon in einen Index filr technischen Fortschritt und einen Index filr die Veränderung der technologischen Lücke aufspalten. Für drei ausgewählte Sektoren des verarbeitenden Gewerbes wurde mit Hilfe dieser Methode die technologische Dynamik im Sinne einer Verbesserung der best-practice-Technologien sowie der Veränderung der technologischen Lücke berechnet. Die Ergebnisse zeigen, wie man charakteristische Muster ableiten kann und wie diese zu interpretieren sind. Bei dieser Art der Analyse stellt sich generell die Frage, ob mit Hilfe von Produktionsfunktionen und deren Verschiebung überhaupt technologische Leistungsfllhigkeit und technologischer Fortschritt bestimmt werden kann. Sicherlich kann die Produktivitätsanalyse nur ein Hilfsverfahren sein und ein exakteres Verfahren müßte sich an technologischen Details und ingenieur- und naturwissenschaftlichen Erkenntnissen orientieren. Diese Methoden können jeoch nur im Rahmen von Fallstudien oder bei sehr speziellen Technologien eingesetzt werden. Für sektorale Analysen hingegen ist man gezwungen auf die groberen Methoden der Produktivitätsanalyse zurllckzugreifen. Die Frage, ob die in Abschnitt C festgestellten Entwicklungen auch wirklich auf die Effekte des technologischen Fortschritts zurllckzufilhren sind, ist in diesem Beitrag direkt nicht beantwortet worden. Hierzu bedarf es einer zusätzlichen Analyse, welche die Effizienzveränderungen mit Proxy-Variablen zum technologischen Fortschritt in Beziehung setzt. Diesbezüglich finden sich in

214

Uwe Cantner und Horst Hanusch

CantnerlWestermann (1995) einige Analysen, wobei der Einfluß von F&EAusgaben und F&E-Kapitalstöcken auf die Effizienz untersucht wurde. In CantnerlHanuschlWestermann (1996a) wird der Einfluß von Patenten untersucht. Schließlich widmet sich Cantner (1995, 1996) einer Analyse von Spillover-Effekten zwischen den Technologieftlhrern und den rUckständigen Unternehmen. In allen Studien können signifIkante Beziehungen zwischen den Variablen zum technologischen Fortschritt und den Effizienzkennzahlen und deren Veränderungsraten festgestellt werden. Abschließend muß natürlich festgehalten werden, daß die Ergebnisse unter C. durch ökonomische Einflüsse verzerrt sind. Diesbezüglich wäre es natürlich auch wünschenswert, diese Effekte getrennt zu identifizieren. Der Einfluß der Veränderung von relativen Faktorpreisen ist in CantnerlWestermann (1995) untersucht worden, und die success-breeds--success-Hypothese wird in Cantner (1996) analysiert. Weiterentwicklungen sind hier jedoch wünschenswert und ft1r zukünftige Forschungsarbeiten ins Auge gefaßt. Vor dem Hintergrund der explizit betrachteten Heterogenität von Akteuren müssen nicht nur auf empirischer Ebene, sondern vor allem auch bei der theoretischen Modellierung neue Akzente gesetzt werden. Einfach gehaltene dynamische Strukturmodelle (Cantner 1996), die sich auch empirisch überprUfen lassen, scheinen hier ein erster vielversprechender Ansatzpunkt zu sein.

Literatur Antonelli. C. (1994): The Economics ofLocalized Technological Change and Industrial Dynamics, Dordrecht et al.: Kluwer Academic Publishers, 1994. Atldnson, A.B./Stiglitz, lE. (1969): A New View ofTechnological Change, Economic Journal 79, 1969, 116-31. Bernard, J./Cantner, U./Hanusch, H./Westermann, G. (1995): R&D, Productivite et Rentabilite, in: Haudevi/le, B./Heraud, J.A./Humbert, M. (1995): Technologie et Performances Economicques, Paris: Economica, 1995. Bernard, J./Cantner, U./Westermann, G. (1996): Technological Leadership and Variety - A data Envelopment Analysis for the French Machinery Industry, Annals of Operations Research, Special Issue, 1996. Blades, D.W. (1991): Capital Measurement in the OECD Countries: An Overview, in: OECD (1991): Technology and Productivity, Paris, 1991, 175-270.

Intrasektorale technologische Dynamik

215

Böhm, K. (1978): Lineare Quotientenprogrammierung - Rentabilitätsoptimierung, Frankfurt a.M.: Haag+Herchen Verlag, 1978. Cantner, U. (1995): Technological Dynamics in Asymmetric Industries - R&D, Spillovers and Absorptive Capacity, Institut ftlr VWL, Universität Augsburg, Volkswirtschaftliche Diskussionsreihe, no. 143, 1996. Cantner, U. (1996): Heterogenität und Technologische Spillovers, Universität Augsburg, mimeo, 1996. Cantner, U.lHanusch, H.lWestermann, G. (1996a): Detecting Technological Performance and Variety - An Empirical Approach, in: Helmstädter, E.lPerlman, M. (eds): Behavioural Norms, Technological Progress and Economic Dynamics: Studies in Schumpeterian Economics, Ann Arbor: University of Michigan Press, 1996. Cantner, U.lHanusch, H.lWestermann, G. (1996b): Technological Performance and Variety - The Case of the German Electronics Industry, in: Nielsen K.lJohnson, B. (eds): Evolution of Institutions, Organizations and Technology, Aldershot: Edward Eigar, 1996. Cantner, U.lWestermann, G. (1995): Factorprices, Technological Trajectories and Technological Spillovers, Vortrag EAEPE-Kongrcss, Krakau, 19.-21. Oktober 1995. Cantner, U.lWestermann, G. (1996): Localised Tcchnological Progress and Industrial Dynamics - An Empirical Approach, Economics of Innovation and New Technology, erscheint demnächst. Caves, D.W.lChristensen, L.R.lDiewert, W.E.(1982a): Multilateral Comparisions of Output, Input and Productivity Using Supcraltive Index Numbers, Economic Journal 92, 1982, 73-86. Caves, D.W.lChristensen, L.R.lDiewert, W.E. (1982b): The Economic Theory ofIndex Numbers of the Measurement of Input, Output und Productivity, Econometrica 50, 1982, 1393-1414. Charni"s, A.lCooper, W.W. (1962): Programming with Linear Fractional Functionals, Naval Research Logistics Quarterly 9,1962,181-85. Charnes, A.lCooper, W.W.(1985): Preface to Topics in Data Envelopment Analysis, Annals ofOperations Research 15, 1985,333-34. Charnes, A.lCooper, W.W.lSymonds, G.H. (1958): Cost Horizons and Certainty Equivalents: An Approach to Stochastic Programming of Heating Oil, Management Science 4, 1958,235-63. Charnes, A.lCooper, W.W.lLewin, A.Y.lSeijord, L.M. (1994): Data Envelopment Analysis - Theory, Methodology and Applications, Boston, Dordrecht, London: Kluwer Academic Publishers, 1994.

216

Uwe Cantner und Horst Hanusch

Charnes, A./Cooper, W.W./Rhodes, E. (1978): Measuring the Efficiency ofDecision Making Units, European Journal ofOperational Research 2, 1978,429-44. David, P. (1975): Technical Choice, Innovation and Economic Growth, Cambridge, Mass.: Cambridge University Press, 1975. Debreu, G. (1951): The Coefficient ofResource Utilization, Econometrica 19, 1951, 273-92. Dosi, G. (1988): The Nature of the Innovative Process, in: Dosi et al. (1988): 221238. Färe, R./Grosskopf, S./Lindgren, B./Roos P. (1994): PrQductivity Development in Swedish Hospitals: A Malmquist Output Index Approach, in Charnes et al. (1994): 25372. Färe R./Grosskopf, S./Lovell, C.A.K. (1994): Production Frontiers, Cambridge, MA: Cambridge University Press, 1994. FarrelI, MJ. (1957): The Measurement of Productive Efficiency, Journal of the Royal Statistical Society Series A, 120, 1957,253-81. Koopmans, T.C. (1951): An Analysis ofProduction as an Efficient Combination of Activities, in: Koopmans, T.C. (ed.): Activity Analysis of production and Allocation, New York: Wiley, 1951. Land, K.C./Lovell, C.A.K./Thore, S. (1990): Chance Constraint Data Envelopment Analysis, Managerial and Decision Economics, 1990. Malmquist, S. (1953): Index Numbers and Indifference Surfaces, Trabajos de Estatistica 4, 1953, 209-42. Moorsteen, R.H. (1961): On Measuring Productive Potential and Relative Efficiency, Quarterly Journal ofEconomics 75, 1961,451-67. Simon, H.A. (1976): From Substantive to Procedural Rationality, in: Latsis SJ. (ed.) (1976): Method and Appraisal in Economics, Cambridge: Cambridge University Press, 1976, 129-148. Solow, R.M. (1957): Technical Change and the Aggregate Production Function, Review ofEconomics and Statistics 39, 1957,312-20.

Kooperationsverhalten von Unternehmen des Dienstleistungssektors Von Heinz König, Martin Kukuk und Georg Licht

A. EinfUhrung Die langfristige Betrachtung der Strukturänderungen in allen Industrieländern in den letzten 30 Jahren ist durch zwei Entwicklungen geprägt. Die erheblichen Steigerungen der Arbeitsproduktivitäten im warenproduzierenden Gewerbe ermöglichten eine erhebliche Ausweitung der Wertschöpfung ohne entsprechenden Anstieg der Beschäftigung. Getrieben wurde diese Entwicklung durch die zunehmende Liberalisierung des Waren- und Kapitalverkehrs und damit zusammenhängend im technologischen Bereich einem rapiden Aufholprozeß japanischer und südostasiatischer Unternehmen. Waren vor gut 30 Jahren fast ausschließlich nordamerikanische und europäische Firmen auf dem Weltmarkt bei innovativen Produkten fUhrend, so muß heute auf vielen Marktsegmenten festgestellt werden, daß insbesondere japanische Unternehmen die traditionellen Anbieter in der Kommerzialisierung neuer Technologien weit hinter sich gelassen haben. Parallel zur Verschiebung der weltweiten Arbeitsteilung in der Warenproduktion läßt sich innerhalb der Industrieländer entsprechend der 3-SektorenHypothese von C. Clark und 1. Fourastie eine Verschiebung der ökonomischen Gewichte vom produzierenden Sektor hin zu Dienstleistungen beobachten. Inzwischen entfallt in den meisten Industrieländern auf Dienstleistungen ein höherer Beschäftigungsanteil als auf den warenproduzierenden Sektor. Das Tempo dieses Strukturwandels hängt dabei in den einzelnen Volkswirtschaften wesentlich vom Ausmaß der Regulierungsdichte sowie der Innovationsaufgeschlossenheit und -fahigkeit ab. Eine hohe Regulierungsdichte im Dienstleistungsbereich hat in der Regel eine "Dienstleistungs lücke" zur Folge, da ausländischen Wettbewerbern der Marktzugang erschwert, wenn nicht

218

Heinz König, Martin Kukuk und Georg Licht

gänzlich unmöglich ist. Ungenügende Innovationsaktivität im industriellen Bereich - sei es in Produkt- und/oder Prozeßinnovationen - resultiert nicht nur in einer Verschlechterung der Wettbewerbsfllhigkeit der Unternehmen, sondern reduziert auch die Diffusionsgeschwindigkeit innovativer Technologien im Dienstleistungsbereich. Die Markterfolge mit technologieintensiven Gütern werden häufig in einen kausalen Kontext mit der intensiven (vertikalen) Kooperation japanischer Unternehmen ('Keiretsu') gestellt. Die berühmte MIT-Untersuchung betont: "Undeveloped cooperative relationsships between individuals and between organizations stand out in our industry studies as obstacles to technological innovation and.,the ... improvement of industrial performance" (DertouzoslLester/Solow 1989, S. 7). Auch die jüngsten Erfolge der US-amerikanischen Halbleiterindustrie werden u.a. auf die industrieweite Kooperation SEMATECH (Semiconductor Manufacturing Technology Consortium) ZUTÜckgeftlhrt (z.B. Teece 1994, Spencer/Grindley 1993). Die Bedeutung von unternehmensübergreifenden Kooperationen bei der Entwicklung innovativer Dienstleistungen war bislang kaum Gegenstand wissenschaftlicher Diskussion. Einigkeit besteht darüber, daß in vielen Bereichen des Dienstleistungssektors kundennahe Entwicklung ein wesentliches Charakteristikum der Leistungserstellung darstellt. Visionäre sprechen deshalb auch von deutlichen Tendenzen zur Aufhebung der Grenzen der Unternehmen. Kunden werden als 'Ko-produzenten' der Dienstleistung angesehen, 'Unternehmensgrenzen' als nicht mehr eindeutig bestimmbar vermutet (vgl. z.B. das Schlagwort 'virtuelles Unternehmen'). Als treibende Kraft ftlr diese Entwicklungen wird zum einen der Einfluß neuer technischer Möglichkeiten, insbesondere im Kontext von Informations- und Kommunikationstechnologien gesehen, zum anderen die in den meisten Industrieländern erfolgten Schritte zur Deregulierung und zur Liberalisierung von Dienstleistungsmärkten. Entsprechend wird vor allem bei 'technologischen' Innovationen im Dienstleistungsbereich die unternehmensübergreifende Zusammenarbeit als ein wesentliches Charakteristikum des Innovationsprozesses angesehen, von der auch entsprechende Beschäftigungsimpulse ausgehen sollen. Andererseits besteht natürlich die Gefahr, daß die durch Deregulierung und Liberalisierung angestrebte Aktivierung des Wettbewerbs durch intensive unternehmensübergreifende Zusammenarbeit in den dynamischsten Bereichen des Dienstleistungssektors z.T. wieder zunichte gemacht wird.

Kooperationsverhalten von Unternehmen des Dienstleistungssektors

219

Ziel des Beitrages ist weder eine Analyse der Auswirkungen von Kooperationen im Dienstleistungssektor auf Unternehmenserfolg und Beschäftigung noch eine Diskussion und empirische Analyse wohlfahrtstheoretischer Aspekte. Vielmehr wird das Informationsverhalten von Anbietern innovativer Dienstleistungen und deren Kooperationsverhalten mit anderen Unternehmen und Institutionen der Wissensinfrastruktur untersucht. Im folgenden Abschnitt werden in Analogie und basierend auf der Diskussion von FuE-Kooperationen im Industriebereich einige theoretische Konzepte zur Beurteilung von Unternehmenskooperationen diskutiert. Aufbauend darauf werden im 4. Abschnitt einige der herausgearbeiteten Bestimmungsfaktoren für Unternehmenskooperationen empirisch untersucht und auf ihre Plausibilität getestet. Die Datenbasis wird im 3. Abschnitt vorgestellt. Der Beitrag schließt mit einer Diskussion der Ergebnisse und einigen Schlußfolgerungen für die weitere empirische Erforschung des Kooperationsphänomens und der Informationsflüsse bei Dienstleistungsunternehmen.

B. Innovationskooperationen - Einige theoretische Überlegungen Unternehmenskooperationen sind kein neues Phänomen. Bereits in den fünfziger und sechziger Jahren ging die Ausweitung der internationalen Tätigkeit vieler Unternehmen Hand in Hand mit der Gründung gemeinsamer Unternehmen mit Unternehmen des Gastlands - häufig induziert durch nationale Regulierungen. In vielen Fällen wurde aber auch als Alternative zum Export oder zur Unterstützung der Exporttätigkeit auf das Know-how des einheimischen Unternehmens über Vertriebskanäle und Marketingpraktiken, einheimische Standards etc. zurückgegriffen. Auch diese traditionellen Kooperationsformen waren damit motiviert vom gegenseitigen Austausch von Know-how. Relativ jüngeren Ursprungs sind dagegen Kooperationen mit dem primären Zweck, neues Wissen zu erzeugen. Dabei haben sich vielflUtige heterogene Kooperationsformen herausgebildet. Diese Kooperationsformen reichen von Joint Ventures bis hin zu langfristigen, vertraglichen Vereinbarungen mit mehr oder weniger stringent formulierten Regeln und Abläufen (einschließlich Regeln zur Lizenzierung, Überkreuzlizensierung, Mitarbeiteraustausch, gemeinsamen Entwicklungsteams, u.ä.). An solchen Kooperationen können Unternehmen der gleichen Produktionsstufe, Kunden und Zulieferer aber auch

220

Heinz König, Martin Kukuk und Georg Licht

Hochschulen und andere staatliche Forschungsinstitute beteiligt sein. Auch der Umfang der Kooperationen reicht von der Generierung neuer wissenschaftlichtechnischer Erkenntnisse über die Entwicklung und das Design neuer Produkte und Dienstleistungen bis hin zu Vereinbarungen, die Produktions-, Vertriebsund Marketingaktivitäten umfassen. I I. Innovationskooperationen und Wissensspillover Das zunehmende Interesse an der Bedeutung des technischen Fortschritts filr Wachstum und Wohlstand einer Volkswirtschaft hat in den letzten Jahren auch dazu gefilhrt, die Rolle von Kooperationen im Forschungs- und Entwicklungsbereich theoretisch zu durchleuchten. Zahlreiche Beiträge in der Literatur befassen sich mit der Funktion von Patenten als Schutzmechanismus von Eigentumsrechten, dem Versagen dieses Mechanismus auf Grund von SpilloverEffekten, d.h. der unentgeltlichen Übertragung des in einem Unternehmen generierten Wissens an andere Unternehmen, der Bedeutung von FuEKooperationen zur Internalisierung derartiger Spillover-Effekte und anderer Externalitäten und schließlich auch der Vorteile von "upstream"-Koordination und "downstream"-Definition gemeinsamer Produkte zwecks größerer Sicherheit in bezug auf Marktanteile. Es kann - schon aus der Beschränkung der Seitenzahl - nicht das Ziel dieser Ausfilhrungen sein, einen differenzierten Überblick über die diesbezügliche Literatur zu geben (vgl. u.a. KöniglLichtiStaat, 1994, und die dort angegebene Literatur). Vielmehr beschränken wir uns darauf, einige wesentliche Aspekte bezüglich des Kooperationsverhaltens zu diskutieren, die filr die folgende empirische Analyse wichtig sind. Forschungsergebnisse sind wegen der Nicht-Rivalität ihres Konsums ihrem Charakter nach öffentliche Güter. "Marktversagen" aus den verschiedensten Gründen führt dazu, daß private und gesellschaftliche Anreize filr FuE auseinanderfallen und Unternehmen wegen ungenügender Aneignungsbedingungen die Erfolge ihrer Innovationsaktivitäten nicht in vollem Umfange realisieren können. Aus wohlfahrtstheoretischer Sicht filhrt dies zu einer zu geringen Innovationstätigkeit, die - so die Befilrworter - durch FuE-Kooperationen verbessert werden kann. Gegner halten dem entgegen, daß durch (stillschwei-

I Einen Überblick über verschiedene Klassifizierungsfonnen von (technologischer) Kooperationen gibt Chesnais (1988).

Kooperationsverhalten von Unternehmen des Dienstleistungssektors

221

gende) Nebenabreden über Marktaufteilung einerseits und durch "Monopolisierung" eines ansonsten freien Wissens andererseits ein wohlfahrtstheoretischer Verlust die Folge kooperativen Verhaltens sei. Im wesentlichen wird diese Form der Zusammenarbeit durch die Existenz von sog. Spillover-Effekten und damit unzureichenden Aneignungsbedingungen technologischen Wissens, durch Risiko-Sharing bei unsicheren Ertragserwartungen und hohem Investitionsaufwand sowie - last not least - zur Vermeidung von Doppelforschung sowie zur Beschleunigung des Innovationsprozesses begründet. Zahlreiche Modelle der neueren Industrieökonomie behandeln die Bedeutung von Patenten als Schutzmechanismus (siehe Griliches 1991, Cohen 1996) der Eigentumsrechte einerseits sowie deren wohlfahrtstheoretischen Implikationen andererseits. Da in vielen Fällen Patente wie auch alternative Mechanismen wie Geheimhaltung oder Komplexität des Produktdesigns (vgl. KöniglLicht 1996) nur einen beschränkten Schutz der Eigentumsrechte gewähren und das in einem Unternehmen generierte Wissen an andere Unternehmen auf vielfältige Weise unentgeltlich übertragen werden kann - durch Mitarbeiterwechsel zu einem Konkurrenten, durch Auswertung technischer Angaben in einer Patentschrift oder durch reverse-engineering - werden FuE-Kooperationen als eine Möglichkeit angesehen, die Aneignungsbedingungen durch Internalisierung der Spillover-Effekte zu verbessern. Gleichzeitig werden Wettbewerber aktiv versuchen, sich des neuen von Konkurrenten erzeugte Know-how bei ihren eigenen Innovationsaktivitaten zu bedienen. Wie die Daten der Befragung2 zeigen, kommt gerade im Dienstleistungsbereich Wettbewerbern eine wesentlich wichtigere Rolle als Informationsquelle zu als in den meisten Sektoren der Industrie. Darüber hinaus lassen sich, insbesondere im Dienstleistungsbereich, Know-how-Vorsprünge durch Patente u.ä. nur schwer schützen (vgl. Audretsch 1995). Abbildung 1 zeigt den mit der inversen Beteiligungswahrscheinlichkeit gewichteten Anteil der Unternehmen, die die jeweilige Informationsquelle als wichtig oder sehr wichtig rur ihre Innovationsprojekte erachten. Der optimale Kooperationsgrad von horizontalen Kooperationen hängt daher vom Ausmaß positiver Spillovers ab, d.h. inwieweit Konkurrenten von den eigenen Ergebnissen profitieren, vom Business-Stealing-Effekt, d.h. der Wirkung eigener Forschungserfolge auf den Absatz der Konkurrenz, von der Höhe

2

Nähere Ausführung zur Datenbasis finden sich in Abschnitt C.

222

Heinz König, Martin Kukuk und Georg Licht

der Transaktionskosten und schließlich von den Präferenzen der Konsumenten bezüglich der Produktdifferenzierung (Tirole 1988). T

KundenPG KundenDL Zulicfenr

I

t

I

I

J

17.KMU GIo&ntrmduDen

t t

verb. Unlern.

Berater UnI/FH

sonst. Forsc:h&.

fachliteratur

t t t

~

I

t 0%

10%

30%

60%

Erläuterung: Anteil der Unternehmen mit Innovationen, die die jeweilige Institution als wichtige oder sehr wichtige Informationsquelle für Innovationen bewerten. Abbildung 1: Wichtige Informationsquellen für Innovationen im Dienstleistungsbereich

Ein zweiter Vorteil von FuE-Kooperationen (siehe Jaquemin 1992) wird darin gesehen, daß das Innovationstempo beschleunigt und das Risiko reduziert werden kann. First-mover-Vorteile bedingen eine schnelle Umsetzung von Forschungsergebnissen in marktreife Produkte. In diesem Kontext spielen Risikoerwägungen eine besondere Rolle. Existieren keine perfekten Risikomärkte, dann kann mittels Kooperationen ein Risiko-Sharing erfolgen, zurnal die Zusammenarbeit die gleichzeitige Verfolgung mehrerer Projekte ermöglicht. Schließlich kann die Kooperation durch die Koordination komplementärer Ressourcen erweiterte Möglichkeiten der Informationsnutzung schaffen und Synergieeffekte bewirken.

11. Ansätze zur Erklärung vertikaler Kooperationen Die kurz angesprochenen theoretischen Ansätze zur Analyse von Innovationskooperationen beziehen sich im wesentlichen auf Kooperationen zwischen

Kooperationsverhalten von Unternehmen des Dienstleistungssektors

223

Unternehmen der gleichen Produktionsstufe bzw. auf Innovationsprodukte mit konkurrierendem Marktpotential. Diese Form der Innovationskooperation repräsentiert aber - gemessen an der Anzahl der Unternehmen, die solche Kooperationen aufweisen, - nur einen sehr kleinen Ausschnitt aus dem gesamten Spektrum an existierenden Kooperationen. Wie bereits der Abbildung 1 zu entnehmen war, kommt vertikalen Informationsflüssen (Kunden, Zulieferer, Berater) eine noch erheblich größere Bedeutung als Informationsquelle zu als direkten Wettbewerbern. In Abbildung 2 ist der Anteil der innovierenden Unternehmen angegeben, die Kooperationen mit unterschiedlichen Typen von Kooperationspartnern aufweisen. Die Graphik belegt zwar, daß Wettbewerber insbesondere ftlr große Unternehmen3 relativ hohe Bedeutung besitzen. Kooperationen entlang der Wertschöpfungskette sind jedoch wesentlich häufiger. Kunden

I oKMU

Zulieferer

.Groß

I

Wettbewerber Berater UniIFH F.-institute 0,0%

2,0"10

4,0%

6,0%

8,0%

10,0%

12,0%

Anteil der innovierenden Unternebmen mit Innovationskooperation (in v.H.)

Erläuterung: Anteil der innovierenden Unternehmen, die mit Partnern des jeweiligen Typs im Rahmen von Innovationsprojekten kooperieren.

Abbildung 2: Verbreitung von Kooperationen bei innovierenden Unternehmen

In vertikaler Hinsicht stellen sog. upstream-Kooperationen, d.h. eine Zusammenarbeit zwischen Zulieferer und Produzenten, eine Alternative zur Wahl zwischen reinen Markttransaktionen und der Integration innerhalb des Unternehmens dar. Die vollständige Forschungs- und Entwicklungstätigkeit im eigenen Haus kann zu starren Strukturen - sei es bezüglich der Kapazität der FuEAbteilung oder der Anpassungsfiihigkeit an neue Entwicklungen - fUhren, die 3 Aufgrund der vorhandenen Größenverteilung der Unternehmen im Dienstleistungsbereich werden hier Unternehmen mit 250 und mehr Unternehmen bereits als 'groß' bezeichnet.

224

Heinz König, Martin Kukuk und Georg Licht

die Reaktionsfilhigkeit des Unternehmens auf Änderungen im Marktumfeld beeinträchtigen. Reine Markttransaktionen erlauben demgegenüber häufig nicht eine hinreichend lange Dauer der Unternehmensbeziehung, die fUr eine effiziente Entwicklung elementar sein kann. Dauerhafte Beziehungen mit dem Zulieferer sind nötig, um Komplementaritäten auszunutzen, während ein häufiger Wechsel des Partners zu hohen Kosten fUhrt. Markttransaktionen sind darüber hinaus von Informationsasymmetrien begleitet, die den Erfolg der Innovationstätigkeit wegen starker Zufallseinflüsse in Frage stellen (vgl. Jaquemin 1992). Weitere theoretische Ansätze zur Analyse der Nutzung und des Austausches von Know-how,. in aufeinanderfolgenden Stufen von Produktentwicklungen wurden in jüngerer Zeit vorgelegt. Die zentrale Frage ist dabei, ob und unter welchen Bedingungen (nicht-patentierbares) Know-how ('Zwischenergebnisse') generiert und weitergeben wird. BhattacharyaJGlazer/Sappington (1992) sowie d' AspremontlBhattacharyaJGerard-Varet (1993) untersuchen die Anreize zum Wissensaustausch nach der ersten Stufe eines zweistufigen FuE-Prozesses im Rahmen von FuE-Kooperationen. Unter bestimmten Bedingungen können bei bekannten Verteilungen der Erfolgschancen beider Projektphasen FuEKooperationen zu einem vollen Informationsaustausch und zu einer effizienten Wahl der individuellen FuE-Investitionen im Hinblick auf den FuE-Erfolg des Gesamtprojekts fUhren. AghioniTirole (1994) betonen, daß die Anreize fUr kooperative FuE und den Know-how-Transfer von 'Zwischenergebnissen' wesentlich geprägt werden von den Regelungen über die Eigentumsrechte und von der Organisationsform der FuE-Zusammenarbeit. Demgegenüber zeigen d'AspremontlBhattacharyaJGerard-Varet (1995), daß der öffentliche Gutscharakter in Verbindung mit der Option zur Eigenentwicklung von patentierbaren Forschungsergebnissen der zweiten Stufe zu einem vollständigen und frühzeitigen Know-how-Transfer von 'Zwischenergebnissen' fUhrt. Formale FuE-Kooperationen besitzen in diesem Setting keine höhere Effizienz als ein Markt fUr Forschungsergebnisse. Allerdings entsprechen die von d' AspremontlBhattacharyaJGerard-Varet (1995) gemachten Annahmen des reinen öffentlichen Gutes und der ex-post Verifikation des transferierten Know-how durch Dritte häufig nicht einer adäquaten Beschreibung der Charakteristika von FuE-Zwischenergebnissen. Zusammengefaßt läßt sich der aktuelle Zwischenstand der theoretischen Modellierung vertikaler Know-howAustauschbeziehungen dahingehend interpretieren, daß im Rahmen von verti-

Kooperationsverhalten von Unternehmen des Dienstleistungssektors

225

kaIen FuE-Kooperation effiziente Regelungen zum Wissensaustausch leichter entwickelt werden können. Zusätzliche Einblicke in die Funktion von FuE-Kooperationen - insbesondere von vertikalen Kooperationen - lassen sich gewinnen, wenn man statt des traditionellen linearen Modells des Innovationsprozesses von dem in der neueren Innovationsforschung verwendeten rekursiven Modell des Innovationsprozesses ausgeht. In den traditionellen theoretischen Modellen der ökonomischen Innovationsforschung wird der Innovationsprozeß in mehrere aufeinanderfolgende Phasen zerlegt. Am Anfang steht die Forschungsphase, gefolgt von einer Phase der Produktentwicklung, Produkttests und des Produktdesigns. In den häufig kundenzentrierten Innovationsbemühungen des Dienstleistungssektors mit vielen, aber häufig marginalen Entwicklungsfortschritten wird allerdings eine simultane Implementation innerbetrieblicher Innovationsprozesse eine realistischere Beschreibung darstellen. Rückkopplungen in Form von Informationsrückflüssen aus dem Vertrieb oder anderen Unternehmensbereichen spielen fUr die Weiterentwicklung der Produkte ein erhebliche Rolle. Das rekursive Modell des Innovationsprozesses stellt die intensiven Rückkopplungsmechanismen in den Vordergrund. Der Erfolg im Innovationswettbewerb wird entscheidend von der effizienten Organisation und Schnelligkeit der FeedbackMechanismen bestimmt (vgl. KlinelRosenberg 1986). Die zentrale Rolle dieser Feedback-Mechanismen fUr den Innovationsprozeß fUhrt aber auch dazu, daß ein schneller Informationsfluß entlang der vertikalen Schiene Zulieferer - Produzent - Kunde implementiert werden muß. Dies erfordert eine Reihe von organisatorischen Vorkehrungen auf betrieblicher und zwischenbetrieblicher Ebene. Formale zwischenbetriebliche Kooperationen fUr Innovationen beschreiben eine dieser organisatorischen Optionen. Das zweite wesentliche Element dieses Modells des Innovationsprozesses bilden komplementäre Ressourcen" die essentiell rur die DurchfUhrung von Innovationsprojekten sind. Soweit diese Ressourcen nicht im Unternehmen verfUgbar sind, müssen sie extern bezogen werden. Es muß aber davon ausgegangen werden, daß der Markt fUr 'Wissen' bei weitem nicht perfekt ist und daß hohe Transaktionskosten entstehen. Der Charakter des Gutes Know-how erschwert dabei die Möglichkeiten, effiziente und verifizierbare Verträge über Know-how zu schließen. FuE-Kooperationen bieten die Möglichkeit, diese

4 Produktionstechnische Praxiserfahrung bei der Erstellung von Software rur die Steuerung von flexiblen Fertigungszellen.

15 Festschrift Oppen1änder

226

Heinz König, Martin Kukuk und Georg Licht

Transaktionskosten zu senken, ohne gleichzeitig das Risiko einer Eigenproduktion dieser komplementären Ressourcen aufnehmen zu müssen. Sie stellen in dieser Hinsicht eine Zwischenlösung zwischen Markt und Hierarchie dar. Ein weiterer Vorteil von Innovationskooperationen ergibt sich aus Komplementaritäten beim 'Konsum' von neuen Produkten. Im Dienstleistungsbereich entscheidet die kundennahe Entwicklung und schnelle Einstellung auf Kundenerfordernisse über Erfolg oder Mißerfolg. Kooperationen können dazu beitragen, daß komplementäre Produkte oder Dienstleistungen zum Zeitpunkt der Marktreife der eigenen Leistung ebenfalls verfllgbar sind. Dies erfordert eine Weitergabe von eigenen Spezifikationsdetails bereits lange vor Fertigstellung des eigenen Angebotes. Um die Gefahr einer zu weiten Verbreitung des damit preisgegebenen Wissens zu vermeiden, bieten sich Kooperationen an. Aus dem Bereich der Software lassen sich hier unzählige Beispiele anfUhren.

c. Daten zur Innovationstätigkeit im Dienstleistungssektor Die empirische Analyse stützt sich auf die Daten einer Erhebung zum Innovationsverhalten von Unternehmen des Dienstleistungsbereiches, die in den Jahren 1995-1996 konzipiert und durchgeruhrt wurde.' An der Erhebung beteiligten sich ca. 2900 Unternehmen. 6 Anhand dieser Daten kann eine erste empirische Validierung der angesprochenen Fragestellungen durchgefilhrt werden. Diese Erhebung stellt gemeinsam mit der niederländischen Innovationserhebung (vgl. KleinknechtlBrouwer 1994) den ersten Ansatz dar, die im OSLOManual dargelegten Richtlinien rur die Erfassung von Innovationsindikatoren auch rur den Dienstleistungsbereich nutzbar zu machen. Im Zentrum der Untersuchung standen zum einen Auswirkungen der Innovationstätigkeit z.B. auf die

, Das Projekt wird im Auftrag des BMBF durchgeführt. Beteiligt sind neben dem ZEW auch das Fraunhofer Institut für System- und Innovationsforschung (ISI) und infas, das für die Erhebung der Daten verantwortlich ist. Konzeption der Untersuchung und weitere Ergebnisse werden beschrieben von Licht et al. (1996). 6 Weitere 1000 Unternehmen beteiligten sich an einer Non-Response-Untersuchung, die zur Aufdeckung potentieller, nicht-zuBilliger Selektionseffekte durchgeführt wurde. Die Ergebnisse deuten nur auf eine geringe Verzerrung der realisierten Stichprobe zugunsten von Produktinnovatoren hin. Prozeßinnovatoren sind leicht unterrepräsentiert (vgl. Licht et al. 1996).

Kooperationsverhalten von Unternehmen des Dienstleistungssektors

227

Qualiflkationsstruktur, zum anderen die Erfassung von Inputs fl1r den Innovationsprozeß. Als zentrale Inputs wurden dabei Aufwendungen fl1r unternehmensinterne Wissensgenerierung, Aufwendungen zur Bildung von Humankapital und unternehmensexterne Wissensquellen erfaßt. Die bekannten Konzepte von Innovationserhebungen können i.d.R. in modizierter Form auch zur Erfassung der Innovationstätigkeit im Dienstleistungsbereich herangezogen werden (vgl. dazu Gault 1996). Bedingt durch die Form der Leistungserstellung und auf Grund der Natur vieler Dienstleistungen besitzen nach Ansicht vieler Beobachter organisatorische Innovationen im Dienstleistungsbereich ein sehr viel zentraleres Gewicht als im traditionellen Industriebereich. Daher sollten - trotz der sich daraus ergebenden Probleme (vgl. z.B. Vickery und Wurzburg 1996) - im Dienstleistungsbereich auch organisatorische Innovationen erfaßt werden. Die gewichteten7 Anteile der Produkt-, Prozeß- und Organisationsinnovatoren sind in der Abbildung 3 dargestellt.

Grosshandel Einzelhandel Verkehr BankIV ersieh Finanzberater Software

..-

-.•

~

IiIv'

o Prozessinnovatoren

• Produktinnovatoren

~

t. Berater

Sonstige

I

0,0% 10,0% 20,0% 30,0% 40,0% 50,0% 60,0% 70,0% 80,0% 90,0% Anteil an allen Unternehmen (in v.H.)

Abbildung 3: Verbreitung von Innovationsaktivitäten im Dienstleistungssektor

Die in Abbildung 3 zum Ausdruck kommende Dominanz von Produktinnovationen sollte mit einiger Vorsicht bewertet werden. In vielen EinzelflUlen existiert keine eindeutige Zuordnung von Innovationen zur Kategorie 'Produktinnovation' vs. 'Prozeßinnovation'. Als typisches Beispiel hierfllr

7

15·

Zum Gewichtungsverfahren vgl. HarhofflLicht et. al. (1996), Anhang 1.

228

Heinz König, Martin Kukuk und Georg Licht

kann die Einordnung von 24-h-Bankautomaten angesehen werden. Der erweiterte zeitliche Zugang zu Bankdienstleistungen kann zwar als Produktinnovation eingestuft werden, andererseits hat sich das 'eigentliche' Bankprodukt nicht verändert; die Dienstleistung wird nicht im persönlichen Kontakt am Schalter, sondern vom Kunden selbst erbracht. Die Innovation könnte daher auch als Veränderung im Leistungserstellungsprozeß und damit als Prozeßinnovation interpretiert werden. Eine weitere Schwierigkeit ergibt sich im Hinblick auf die Defmition von Forschung und Entwicklung. Der traditionelle FuE-Begriff ist von technologischen Innovationen des Verarbeitenden Gewerbes geprägt. Der z.T. immaterielle Charakter von Dienstleistungen erfordert eine Modifizierung der traditionellen Implementation von FuE in schriftlichen Befragungen. Im Kontext der Erfassung von Kooperationen wurde daher nicht versucht, (reine) FuE-Kooperationen zu erfassen, sondern die Unternehmen wurden nach Kooperationen im Rahmen von Innovationsprojekten gefragt. Als Kooperation ist dabei, im Gegensatz zu reinen Auftragsarbeiten, die aktive Beteiligung aller Partner an gemeinsamen Innovationsprojekten definiert. Die Frage bezieht sich dabei auf das Jahr 1994. Unternehmen, die diese Frage mit 'Ja' beantworten, werden anschließend gebeten, aus einer vorgegebenen Liste von 8 möglichen Kooperationspartn~rn8 diejenigen anzukreuzen, mit denen sie zusammenarbeiten. Darüberhinaus sollte jeweils noch angegeben werden, ob die Kooperationspartner aus dem Inland oder dem Ausland stammen. Die Unternehmen geben damit nicht Auskunft über einzelne Kooperationen. Eine einzelne Kooperation, an der z.B. Kunden aus den USA und Zulieferer aus Deutschland beteiligt sind, impliziert bei dieser Frageform zwei Angaben. Andererseits können sich hinter der Angabe "Kooperation mit Wettbewerbern aus dem Inland" mehrere Kooperationen bei unterschiedlichen Entwicklungsvorhaben des Unternehmens verbergen.

8 Kunden aus dem Produzierenden Gewerbe; Kunden aus dem Dienstleistungssektor; Zulieferer; Wettbewerber bzw. Unternehmen der eigenen Branche; Verbundene UnternehmenlUnternehmen der eigenen Unternehmensgruppe; Beratungs- oder Marketingunternehmen, private Forschungseinrichtungen; UniversitätenlFachhochschulen; Sonstige öffentliche Forschungseinrichtungen

KooP7rationsverhalten von Unternehmen des Dienstleistungssektors

229

D. Ökonometrische Analyse der Kooperationsneigung Kooperationen im Rahmen von Innovationsprojekten bieten, wie die obige Diskussion zeigt, eine Reihe verschiedener Vorteile rur die kooperierenden Unternehmen. Unternehmen werden immer dann Innovationskooperationen eingehen, wenn der Ertrag aus der Zusammenarbeit deren Kosten übersteigt. Dabei sind es weniger die unmittelbaren Kosten und Erträge der Zusammenarbeit, die die Entscheidung prägen, als vielmehr die erwarteten Erträge der Innovation und die möglicherweise mit der Zusammenarbeit einhergehenden Verluste von Wettbewerbsvorteilen durch Abfluß der generierten Wissensvorsprünge. Eine formale Organisation des Wissenaustausches wird rur das Unternehmen i immer dann vorteilhaft sein, wenn Ei (P(L, K, S, M)) > Ei (C(~, T))

gilt. Die erwarteten Erträge der Zusammenarbeit, Ei (P(.», steigen mit der Höhe der aus den Kooperationen resultierenden fmanziellen Transfers von den Kooperationspartnern, L, (z.B. rur Lizenzen), dem Umfang des im Rahmen der Kooperationsvereinbarung ausgetauschten Know-how, K, und der 'nicht vereinbarten' Know-how-Zuflüsse, S, sowie dem Grad der Komplementarität der Innovationsprogramme, M, der kooperierenden Unternehmen. Die erwarteten Kosten, Ei (q.), steigen mit der Höhe der Know-how-Abflüsse, S, und der Höhe der Transaktionskosten, T. Die einzelnen Faktoren werden rur verschiedene 'Typen' von Kooperationen unterschiedliche Bedeutung aufweisen. Prinzipiell muß sich die empirische Implementation einer Bestimmungsgleichung rur Innovationskooperationen mit zwei Problemen auseinandersetzen. (1) Die theoretische Modellierung unterstellt eine Identität von Kooperationsprojekt und Unternehmen. Die zur VerfUgung stehenden Daten beziehen sich auf die Ebene der Unternehmen, die häufig nicht nur eine, sondern mehrere Kooperationen mit unterschiedlichen Partnern unterhalten. (2) Die in den theoretischen Modellen unterstellten Motive rur Kooperationen können in aller Regel nicht direkt beobachtet werden. Die empirische Identifizierung der Motive ist daher auf eine indirekte Quantifizierung durch Proxyvariable angewiesen. Beiden Problemkreisen wird im folgenden Rechnung getragen, ohne daß die zutreffenden Operationalisierungen in jedem Fall voll überzeugen können. Im folgenden werden horizontale Kooperationen, vertikale Kooperationen (Kunden bzw. Zulieferer) und Kooperationen mit wissenschaftlichen Institutio-

230

Heinz König, Martin Kukuk und Georg Licht

nen getrennt untersucht. Die Analsyse beschränkt sich dabei auf Unternehmen, die im Zeitraum 1993-1995 Innovationsaktivitäten aufwiesen. Die Wahrscheinlichkeit, mit der ein Unternehmen eine Innovationskooperation mit einem bestimmten Partnertyp, j, aufweist, ist dann eine Funktion der Differenz von Erträgen und Kosten der Kooperation Kooperationij (Pr=l) = ~ [Ei (P(L, K, S, M)) - Ei (C(~, T)), Gi ].

Dabei wird ebenfalls berücksichtigt, daß in größeren Unternehmen häufig mehrere Innovationsprojekte parallel laufen. Die Wahrscheinlichkeit, daß das Unternehmen i mindestens eine Innovationskooperation unterhält, sollte bereits aus diesem Grund mit der Unternehmensgröße, Gi. zunehmen. Andererseits besitzen größere Unternehmen in einem höheren Ausmaß komplementäres Know-how aus verschiedenen Innovationsprojekten bereits 'in-house', so daß dieses Motiv filr größere Unternehmen weniger relevant ist. Daher sollte die Kooperationsneigung nur unterproportional mit der Unternehmensgröße ansteigen. Know-how-Komplementaritäten sollten darüberhinaus zwischen Technikbereichen variieren. Innovationskooperationen sollten daher häufiger bei neuen Technologien, deren Einsatz spezifische Erfahrungen voraussetzt, auftreten. Weitverbreitete Standardtechnologien, die primär passiv, d.h. ohne eigene Weiter- bzw. Anpassungsentwicklung, in die eigene Leistungserstellung integriert werden können, sollten dagegen geringe Kooperationsanreize bieten. Die Kooperationsanreize sollten deshalb stärker entlang der Wertschöpfungskette ausgeprägt sein als auf der gleichen Produktionsstufe. Die Form des Wettbewerbs und die Marktstruktur auf dem Absatzmarkt beeinflussen die negativen Auswirkungen aus Know-how-Abflüssen auf die Wettbewerbsposition des betrachteten Unternehmens. Je stärker der Wettbewerb über die Qualitätsparameter stattfmdet, desto stärker sind die Anreize über Innovationskooperationen vom Know-how der Konkurrenten zu profitieren bzw. zusätzliches Know-how von Zulieferern aufzunehmen. Der 'Nettoeffekt' auf das Kooperationsverhalten ist daher im Fall von horizontalen Kooperationen offen. Bei vertikalen Kooperationen sollte intensiver Qualitätswettbewerb kooperationsfördernd sein. Die Wettbewerbssituation wird zum einen über die Exportneigung und die Auslandstätigkeit abgebildet, zum anderen über die mit Hilfe einer Faktoranalyse (siehe Anhang 2) ermittelten Preisbzw. Produktdifferenzierungskomponenten. Die Bedeutung von Know-how-

Kooperationsverhalten von Unternehmen des Dienstleistungssektors

231

Abflüssen wird darüberhinaus mit Hilfe der subjektiven Bewertung der Imitationsgefahr operationalisiert. Der Umfang der aufgenommenen Spillover wird systematisch mit dem eigenen Innovationspotential variieren. Dieses Potential wird hier abgebildet über den Anteil der Beschäftigten mit naturwissenschaftlichem Hochschulstudium und einem Dummy fUr die FuE-Aktivität. Dieses damit in Betracht gezogene 'zweite Gesicht' (Cohen und Levinthal, 1989) des internen Innovationspotentials sollte daher positiv mit der Wahrscheinlichkeit von Kooperationen variieren. Allerdings signalisiert ein hohes Innovationspotential die Attraktivität des Unternehmens fUr potentielle Kooperationspartner, so daß bei hohem internen Innovationspotential auch die Gefahr von Know-how-Verlusten größer ist. Es ist daher durchaus als offene Frage zu betrachten, ob internes Innovationspotential und die Aufnahme von externem Know-how substitutiv oder kornplementär sind. Dabei sollten systematische Unterschiede im Hinblick auf den jeweiligen Typ des Kooperationspartners festzustellen sein. Ein wesentliches Motiv, insbesondere fUr vertikale Kooperationen, bildet die Möglichkeit, das Innovationsrisiko zu senken, indem beispielsweise durch Kooperation mit den Kunden Spezifika des Absatzmarkts schon während des Prozesses der Generierung der Innovation berücksichtigt werden können. Abhängig von der Stellung des Unternehmens in der Wertschöpfungskette sollten ebenfalls erhebliche Unterschiede auftreten. Erste Aufschlüsse über die Verbreitung von Innovationskooperationen unter den innovierenden Unternehmen gibt die Abbildung 4. Sie zeigt die Verteilung der kooperierenden Unternehmen nach dem Typ des Kooperationspartners in ausgewählten Wirtschaftszweigen des Dienstleistungssektors. Das Schaubild verdeutlicht die großen Unterschiede im Kooperationsverhalten zwischen den einzelnen Wirtschaftszweigen. Als eindeutig am kooperationsfreudigsten stellen sich Unternehmen aus den technologieaktiven Wirtschaftszweigen 'technische Berater' und 'Software' heraus, während die weniger technologieintensiv innovierenden Bereiche wie der Einzel- oder der Großhandel auch im Hinblick auf das Kooperationsverhalten die geringste Aktivität aufweisen.

Heinz König, Martin Kukuk und Georg Licht

232

Großhandel Kunden Zulieferer Weltbewerber

Berater

U niversitäten / FH Forschungsinst

Einzelhandel

Kunden

Zulieferer Wettbewerber Berater U niversitäten / FH Forschungsinst

Verkehr IN achrichtenüherm ittlung

p.-----

Kunden Zulieferer

Wettbe;ee:a~~~ U niversitäten / FH

ForschungsinsL Banken / Versicherungen

Kunden

Zulieferer

Berater ~======= !

Wettbewerber U niversitäten / FH Forschungsinst

___

Finanzberater Kunden Zulieferer

Wettbewerber Berater U niversitäten / FH Forschungsinst

~====_ F Software

Kunden Zulieferer Wettbewerber Berater UniversiHuen / FH Forschungsinst

Zu lieferer Wettbewerber Berater Kunden U n iversitaten / FH Forschungsinst

i~~~~~~------. ~~~~---------. E

Technische Berater

I~~~~~;;;;;::::::::::::::::::-""""""". Sonstige Dienstleister

Zulieferer Wettbewerber K unden Berater U niversitäten / FH Forschungsinst

I~~~~~~:-"_

0%

5%

10%

15%

20%

Erläuterung: Anteil der innovierenden Unternehmen, die mit Partnern des jeweiligen Typs im Rahmen von Innovationsprojekten kooperieren.

Abbildung 4: Verbreitung von Kooperationen nach Kooperationspartner und Wirtschaftszweigen

Kooperationsverhalten von Unternehmen des Dienstleistungssektors

233

Die aus der Graphik hervorgehende unterschiedliche Verteilung von Kooperationspartnern nach Typ kann als ein erster Hinweis auf sehr unterschiedliche Motivationslagen der Unternehmen bei der Wahl eines bestimmten Kooperationspartners gewertet werden. Um die wesentlichen Strukturen besser überschaubar zu machen, werden für die ökonometrische Analyse vier Gruppen von Kooperationspartnern unterschieden: Kunden, Zulieferer, Wettbewerber und wissenschaftlichen Institutionen. In der Tabelle 1 werden die marginalen Effekte von Änderungen der jeweiligen exogenen Variable (bei Fixierung der übrigen Variablen auf deren Mittelwerte) auf die Kooperationsneigung (= Wahrscheinlichkeit, daß ein innovierendes Unternehmen eine Kooperation unterhält) wiedergegeben. Marginale Änderung einer Dummyvariable bedeutet eine Veränderung des Wertes von 0 auf 1. Für die verschiedenen Typen von Kooperationspartnern werden dabei separate Probit-Modelle verwendet. Wirtschajtszweige

Die Neigung, Innovationskooperationen einzugehen, zeigt deutliche Unterschiede zwischen den Wirtschaftszweigen9 in Abhängigkeit vom jeweiligen Typ des Kooperationspartners. Die typisch erweise kundennah operierenden unternehmensnahen Dienste wie technische Berater und Softwarehäuser weisen eine deutlich höhere Kooperationsneigung auf. Der reine Brancheneffekt ist allerdings geringer als die in der Abbildung 4 aufgezeigten Unterschiede. Im Hinblick auf Kooperationen mit Zulieferern zeigen sich dagegen keine signifikanten Branchenunterschiede. Kooperationen mit Wettbewerbern sind seltener im Handel und bei der heterogenen Gruppe der sonstigen Dienstleister. Wissenschaftliche Institutionen werden vornehmlich von technischen Dienstleistungs- und - überraschenderweise - von Verkehrs- und Transportunternehmen als Kooperationspartner gewählt.

9 Der Wirtschaftszweig technische Beratung und Planung wurde als Basiskategorie gewählt. Die Werte des Wald-tests (ehe-verteilt mit 7 Freiheitsgraden) auf gemeinsame Signifikanz der Branchendummies lauten bei Kooperationen mit Kunden 28.6, mit Zulieferern 6.7, mit Wettbewerbern 15.2 und mit wissenschaftlichen Einrichtungen 18.8. Der kritische Wert beträgt 12.8 zum Signifikanzniveau von 5%.

Heinz König, Martin Kukuk und Georg Licht

234 Größenklassen

Größere Unternehmen weisen eine höhere Wahrscheinlichkeit filr Innovationskooperationen auf. Dies ist nicht überraschend und bringt lediglich die mit wachsender Größe diversifizierter werdenden Unternehmensaktivitäten zum Ausdruck. Die Größenordnung des geschätzten Zusammenhanges impliziert denn auch, daß die Kooperationsneigung nur unterproportional mit der Unternehmensgröße ansteigt. Kleine Unternehmen greifen also bei der Einftlhrung von Innovationen sehr viel häufiger - gemessen an ihrer Größe - auf unternehmensexterne Komplementaritäten zurück als große Unternehmen, die komplementäres Know-how häufiger bereits innerhalb des Unternehmens besitzen (vgl. Teece 1986). Dies wird auch daran ersichtlich, daß der Größenef-. fekt bei Kooperationen mit Kunden weniger stark ausgeprägt ist als bei horizontalen Kooperationen oder Kooperationen mit wissenschaftlichen Einrichtungen. .'

~.

'

Marktstruktureffekte

Die Kooperationsneigung. ist deutlich höher bei exportierenden Unternehmen ebenso wie bei Unternehmen, die sonstige Aktivitäten im Ausland haben. In der Detailbetrachtung zeigen sich jeweils Unterschiede zwischen der Kooperationspartnertypen. Dagegen hat die Tatsache, daß eine Firma sich ausländischer Konkurrenz bereits gegenübersieht oder solche filr die kommenden Jahre erwartet, keinen Einfluß auf die Bereitschaft zu kooperieren und wurde daher in der ausgewiesenen Spezifikation nicht mehr integriert. Im Hinblick auf die Differenzierung in Preisstrategie und Produktdifferenzierungsstrategie läßt sich nicht der erwartete Einfluß der Produktdifferenzierungsstrategie feststellen. Kooperationen mit Kunden und Zulieferen sind dann besonders häufig, wenn auf den Märkten intensiver Preiswettbewerb herrscht. Kooperationen lassen sich daher als eine strategische Option begreifen, dem Preiswettbewerb durch enge, kundennahe Entwicklungen zu entgehen oder durch gemeinsame Produkt- und Prozeßentwicklungen mit Lieferanten Kostenvorteile zu realisieren. Technologie und internes Innovationspotential

Die Bedeutung des Einsatzes neuer Technologien im Unternehmen spielt eine wichtige Rolle bei der Erklärung der Kooperationsneigung. Mißt eine Firma dem Einsatz neuer Technologien eine hohe Bedeutung bei, so steigt die Wahr-

KooperationsverhaIten von Unternehmen des Dienstleistungssektors

235

scheinlichkeit, eine Kooperationsvereinbarung zu treffen. Dies gilt im Hinblick auf alle Typen von Kooperationspartnern. Die Neigung zur Kooperation wird positiv vom Beschäftigtenanteil der in naturwissenschaftlich-technischen Fächer ausgebildeten Universitäts- oder Fachhochschulabsolventen beeinflußt. Dies kann dahingehend interpretiert werden, daß es eher technisch orientierte Probleme bzw. Aktionsfelder sind, die mit Hilfe von Kooperationen gelöst bzw. bearbeitet werden sollen. Bezüglich dieser Variable zeigen sich unterschiedliche Muster in der Art der Kooperation. Die horizontalen Kooperationen scheinen weitgehend unabhängig von technisch orientierten Themengebieten zu sein, während die vertikalen und in verstärktem Maße die Kooperationen mit öffentlichen Forschungseinrichtungen eher technische Aspekte zum Inhalt haben. Betrachtet man die von den Unternehmen eingesetzen Technologien, so sind es die neueren Entwicklungen in der Transport- und Medizintechnik, deren Einsatz Kooperationen wahrscheinlicher werden lassen. Die detailliertere Analyse zeigt, daß die Transport- und auch die Medizintechnik speziell vertikale Kooperationen entstehen lassen. Ferner kommt es häufiger zu Kooperationen mit öffentlichen Forschungseinrichtungen, wenn Meß-, Steuer- und Regeltechnik sowie Materialtechnologie in den Unternehmen von Bedeutung sind. Schutz von Know-how-Vorsprlingen und Innovationsrisiko

Die diskutierten theoretischen Ergebnisse über die Kooperationsanreize insbesondere im Hinblick auf horizontale Kooperationen -, die von einer leichten Imitierbarkeit der eigenen Innovationen ausgehen, werden von den empirischen Ergebnissen kaum unterstützt. Eine direkte Korrelation zwischen der Einschätzung des Innovationshemmnisses 'leichte Imitierbarkeit' und der Neigung eine Kooperation einzugehen, läßt sich weder bei vertikalen noch bei horizontalen Kooperationen beobachten. Dagegen scheinen Kooperationen ein probates Mittel zu sein, um Innovationsrisiken abzumildern. Dazu sind anscheinend insbesondere Kooperationen mit Kunden und Wettbewerbern geeignet.

-0,037 -0,018

0,023 0,017** 0,027 0,018

-0,017

-0,061

-0,022

-0,004

-0,020

0,006

0,014

-0,022 -0,012

0,016 0,014

0,013

0,015**

0,015**

0,019

0,010

0,013

0,014

0,015*

-0,033 -0,022

0,015**

0,018** -0,043

-0,049

-0,020

0,023

0,022

0,028

-0,003

0,034

0,023 0,021

-0,013 -0,020

0,020*

0,023

-0,050

0,024

0,024

-0,041

-0,034

0,021

-0,005

0,019** 0,023*

-0,019

-0,055

0,019**

-0,050

-0,030

-0,050

0,019**

-0,067

Tabelle 1: Verbreitung von Kooperationen in lnnovationsprojekJen - Probit-Modelle

0,011** 0,010** 0,011

0,015

0,011 ** -0,030 -0,033

0,012*

-0,029

-0,038

0,013*

-0,028

0,013**

0,015

-0,019 -0,041

0,014**

-0,028

N

..,0

...

5° :r

r

IJQ

n

C)

Q..

?I"" c: :>I"" c: ::s

äo ::s

~

q'Q0

? < 0

"0

0 0

238

Heinz König, Martin Kukuk und Georg Licht

E. Zusammenfassung und Schlußfolgerungen Dieser Beitrag beschäftigt sich mit dem Umfang und den Determinanten von formalen Innovationskooperationen im Dienstleistungsbereich. In der Analyse der nationalen Innovationssysteme wurden in jüngerer Zeit eine Reihe empirischer Arbeiten über die Wissensflüsse zwischen verschiedenen Akteuren des Innovationssystems durchgeftlhrt. Formale Kooperationen sind insofern nur der sichtbare Ausdruck der Wichtigkeit solcher Wissensflüsse. Empirische Analysen dieses Know-how-Transfers bei Dienstleistungsunternehmen liegen bislang in der Literatur nicht vor. Unser Beitrag zeigt, daß im Hinblick auf die zentralen Informationsquellen Unterschiede zwischen dem Dienst- und Industrieunternehmen bestehen. Im Dienstleistungsbereich kommt horizontalen Wissensflüssen ein stärkeres Gewicht zu als im Verarbeitenden Gewerbe. Insofern liegt die Vermutung nahe, daß die Anreize zur Investition in neues Wissen aufgrund von Spillovereffekten geringer sein sollten als im Industriebereich. Die ökonometrische Analyse kann diesen Anfangsverdacht allerdings nicht bestätigen. Vielmehr scheint die Nutzbarmachung von Komplementaritäten ein sehr viel stärkeres Motiv zu sein. Dieses häufig im Kontext von vertikalen FuEKooperationen bemühte Erklärungsargument scheint im Dienstleistungsbereich nicht nur rur die vertikalen, sondern auch rur die horizontalen Kooperationsformen zuzutreffen. Zum Teil kann dies auch als ein Hinweis auf die große Heterogenität in Dienstleistungsmärkten interpretiert werden. Darüber hinaus deutet die empirische Evidenz darauf hin, daß der Wettbewerb auf den Absatzmärkten eine wichtige Determinante des Kooperationsverhaltens ist. Die Ergebnisse sollten allerdings noch mit Zurückhaltung interpretiert werden. Weitere Forschungsanstrengungen sollten unternommen werden mit der Blickrichtung auf die Verbesserung der Datenbasis und der empirischen Modellierung. Wie bereits angesprochen, sollte die Operationalisierbarkeit der Spillovereffekte verbessert werden. Dazu sind stärkere Detaillierungen in der Befragung ebenso wie die Nutzung externer Daten notwendig. Allerdings sind der in empirischen Arbeiten weitverbreiteten Operationalisierung über die FuEAufwendungen der Gesamtbranche aus Gründen der Verfilgbarkeit adäquater Daten rur den Dienstleistungssektor gegenwärtig Grenzen gesetzt. Die oben angesprochenen Probleme im Hinblick auf die Ausdruckskraft und Operationalisierung des FuE-Konzepts rur Dienstleistungsunternehmen sprechen auch aus methodischen Gründen gegen einen solchen Weg.

Kooperationsverhalten von Unternehmen des Dienstleistungssektors

239

Weitere Forschungsanstrengungen sollten unternommen werden, um die ökonometrische Modellierung zu verbessern. Ein Weg besteht in der Nutzbarmachung der Abhängigkeit der Schätzgleichungen ftlr die Kooperationsentscheidung mit den einzelnen Arten von Partnern. Es sollten daher Versuche unternommen werden, über eine simultane Schätzung der Gleichungen die Effizienz zu verbessern. Zudem wäre es nützlich, Daten über die Anzahl und den Umfang von Kooperationsbeziehungen in die Schätzung miteinzubeziehen. Allerdings verschließt sich dieser Weg i.d.R. der hier gewählten Methode der Datengewinnung. Als komplementäre Forschungsstrategie bietet sich daher an, ftlr eine begrenzte Anzahl von Unternehmen im Rahmen von Fallstudien ein vollständiges Abbild der Kooperationsbeziehungen zu zeichnen. Schließlich sollte sich die weitere Forschung intensiv mit der Frage nach der Komplementarität vs. Substitutionalität von internen Investitionen im Wissensgenerierungsprozeß und der Know-how-Gewinnung über externe Informationsquellen beschäftigen. Dies erfordert, den Umfang der unternehmensinternen Innovations- bzw. FuE-Aufwendungen nicht als exogene Variable, sondern als potentiell endogene Variable zu betrachten. Trotz dieser Vorbehalte sind wir davon überzeugt, daß die hier gewählte Datengewinnungs- und -analyseprozedur interessante Forschungswege eröffnet und daher in Zukunft verstärkt weiter verfolgt werden sollte.

Literatur Aghion, P.lTirole, J. (1994), On the Management ofInnovation, Quarterly Journal of Economics 109, S. 1185-1209. Audretsch, D. B. (1995): Intellectual Property Rights: New Research Directions, in: Albaeh, H.lRosenkranz, S. (Hrsg.): Intellectual Property Rights and Global Competition, Berlin. Bhattacharya, S.lGlazer, J./Sappington, D. (1992): Licensing and the Sharing of Knowledge in Research Joint Ventures, Journal ofEconomic Theory 56, S. 43-69. Brouwer, E.lKleinknecht, A. H. (1994): Innovatie in de Nederlandse. Industrie en Dienstverlening (1992), Beleidsstudies Technologie Economie, Ministerie van Economische Zaken, Den Haag Chesnais, F. (1988): Technical Co-Operation Agreements Between Firms, view, S. 51-119.

sn Re-

240

Heinz König, Martin Kukuk und Georg Licht

Cohen, L. (1994): When can Government Subsidize Research Joint Ventures? Politics, Economics, and Limits to Technology Policy, in: American Economic Review, Papers and Proceedings, Vol. 84, S. 159-163. Cohen, W. M./Levinthal, D. (1989): Innovation and Learning: The Two Faces of R&D, The Economic Journal, Vol. 99, S. 569-596. Cohen, W. M./Nelson, R. R./Walsch, 1. (1996): Approbriability Conditions and Why Firms Patent and Why They Do Not in the American Manufacturing Sector" Paper presented at the conference on "Economis and Econometrics of Innovation", 3.-6. Juni 1996, Straßburg. D'Aspremont, C./Bhattacharya, S./Gerard-Varet, L.-A. (1993): Knowledge as a Public Good: Efficient Sharing and Incentives with Development Effort, GREQAMDiscussion Paper'DT~GREQAM No. 93A183. D'Aspremont, C./Bhattacharya, S./Gerard-Varet, L.-A. (1995): Bargaining and Sharing ofKnowledge, GREQAM-Discussion Paper DT-GREQAM No. 95A43. Dertouzos, M. L./Lester, R. K./Solow, R. M. (1989): Made in America: Regaining the Productive Edge, Cambridge, Mass. Gault, F. D. (1996): Service·Industries in the Innovation Survey, Background Paper for the Revision of the OSLO-manual, OECD-Document STiIEAS/STPINESTI (96) 4, Paris. Griliches, Z. (1990): Patent Statistics as Economic Indicators, A Survey, in: Journal ofEconomic Literature, Vol. 28, S. 1661-1707. Harhoff, D./Licht, G. et al. (1996): Innovationsaktivitäten kleiner und mittlerer Unternehmen. Ergebnisse des Mannheimer Innovationspanels, ZEW Schriftenreihe Bd. 8, Nomos, Baden-Baden. Jaquemin, A. (1992): Collusive Behaviour, R&D and European Policy, in: V. Baldessari (Hrsg.) Oligopoly and Dynamic Competition, New York, S. 203-230. Jaquemin, A./Slade, E. (1989): Cartells, Collusion and Horizontal Merger, in: Schmalensee, R./WiIIig, R.O. (Hrsg.) Handbook of Industrial Organisation, Vol. I, S. 416-473. Jorde, T. M./Teece, D. J. (1990): Innovation and Cooperation: Implications for Competition and Antitrust, in: Journal ofEconomic Perspectives, Vol. 4, S. 75-96. Kline, S. J./Rosenberg, N. (1986): An Overview of Innovation, in: Rosenberg, N./Landau, R. (Hrsg.): The Positive Sum Strategy, Washington, S. 275-305. König, H./Licht, G. (1996): Patents, R&D and Innovation. Evidence from the Mannheim Innovation Panel, Ifo-Studien, 41. Jhrg., S. 521-543.

Kooperationsverhalten von Unternehmen des Dienstleistungssektors

241

König, H.,Licht, G./Staat, M. (1993): FuE-Kooperationen und Innovationsaktivität, in: Gahlen, B./Ramser, H.J./Hesse, H. (Hrsg.): Ökonomische Probleme der europäischen Integration, Schriftenreihe des wirtschaftswissenschaftlichen Seminars Ottobeuren, Bd. 23, Tübingen. Licht, G. (1994): Gemeinsam forschen - Motive und Verbreitung strategischer Allianzen in Europa, ZEW Wirtschaftsanalysen, 2. Jahrgang, S. 371-399. Licht, G. et a1. (1996): Innovationstätigkeit im Dienstleistungssektor. Empirische Analyse der Erhebung 1995, Bericht für das BMBF, Mannheim. Mi/es, I./Matthews, M. (1992): Information Technology and the Information Economy, in: Robins, K. (Hrsg.): Unterstanding Information Technology, London Spencer, W. J./Grindley, P. (1993): SEMATECH after Five Years: High-Technology Consortia and U.S. Competitiveness, in: California Management Review, Vol. 35, S. 932. Teece, D. 1. (1986): Profiting from Technological Innovation: Implications for Integration, Collaboration, Licensing and Public Policy, in: Research Policy, Vol. 15, S. 285-305. Teece, D. J. (1994): Information Sharing, Innovation and Antitrust, in: Antitrust Law Journal, Vol. 62, S. 465-481. Tirole,1. (1988): Theory ofIndustrial Organisation, Boston. Vickery, G./Wurzburg, G. (1996): The Challenge of Measuring and Evaluating Organisational Change in Enterprises, Paper presented to the 'Conference on New S&T Indicators for the Knowledge-based Economy, OECD, Paris.

16 Festschrift Oppenländer

Heinz König, Martin Kukuk und Georg Licht

242

Anhang Tabelle Al: Deskriptive Statistiken (Ungewichtete Ergebnisse rur innovierende Unternehmen)

f4~~;';'~~~~~;R~~~vo~nJn"ovati,om~n

Anteil der kooperierenden Unternehmen an allen innovierenden Unternehmen Anteil der Unternehmen mit Kooperationen mit Kunden Anteil der Unternehmen mit Kooperationen mit Zulieferern Anteil der Unternehmen mit Kooperationen mit Wettbewerbern Anteil der Unternehmen mit Kooperationen mit wissenschaftlichen Institutionen

0,176

Großhandel Einzelhandel Verkehr, Speditionen, Nachrichtenübermittlung Banken und Versicherungen Finanzberater, Versicherungsmakler u.I. Software Technische Beratung und Planung, Architekten, Statiker, u.I. (Basis) Wirtschafts- und

0,153 0,077 0,133 0,1l2 0,047 0,059 0,102 17

5-19 Beschaftigte 20-49 Beschaftigte 50-249 Beschaftigte 250 und mehr

0,292 0,197 0,278

Faktorwert der Faktorwert der

0,133

Preissl:rab~gic:vaJriab,len

0,088 0,073 0,072 0,066

Exportierende Unternehmen Im Ausland über Partner- oder Töchterunternehmen

0,219 173

Unternehmen mit hoher Bedeutung kostensenkenden Techniken Unternehmen mit hohen Anteil von IT-Investitionen Hohe Bedeutung von Transporttechnologien Hohe Bedeutung von Meß-, Regeltechnik sowie Automatisierung Hohe Bedeutung von Medizintechnik Hohe von neuen Materialien

0,556 0,392 0,306 0,201 0,026 0,163

Anteil der Unternehmen mit formalisierter FuE-Tltigkeit Anteil der Unternehmen mit mind.5% Naturwissenschaftlern

0,105

zur

neuer

Anteil der Unternehmen mit hoher Bedeutung der Imitations gefahr Mittelwert der Faktors 'RisikolRentabilitltshemmnisse' (F.,lctl1,n.".rt\

0,349 0,349

Kooperationsverhalten von Unternehmen des Dienstleistungssektors

243

Tabelle A2: FakJoranalyse der Erfolgsmerkmale von Dienstleistungsunternehmen Eigenwerte Kumulativ erklärte Varianzanteile Cronbach's Alpha (Skalenreabilitllt)

Termintreue Flex. Anpassung an Kundenwünsche Werbung und Kommunikation Beratung und Service Breite Produktpalette Reorganisation der Geschllftsabläufe Kostensenkende, neue Technologien Neue Dienstleistungen I Produkte Senkung MaterialIEnergieverbrauch Vielfllltige Distributionswege Gemeinsame Infrastruktumutzung Outsourcing Standortverlagerung Unterauftrage ins Ausland

0,7737

4,36 4,02 3,74 3,48 3,39

2,98

1,12

0,774

0,292

Faktorladungen (Varimax-Rotation)

0,88 0,85

0,183 0,287

0,97 1,13

0,239 0,349 0,261 0,372

3,30

0,331

3,04 2,93

0,366 0,136

2,68 2,23 2,10 1,54 1,50

0,376 0,030 -0,141 -0,128 -0,176

0,307 0,217 0,330 0,226 0,265

Erläuterung: Skala: 1 (= überhaupt keine Bedeutung) bis 5 (= sehr große Bedeutung); Ungewichtete Ergebnisse; 'Zusammengehörige' Items wurden schattiert: Faktor 1 = 'Preisstrategie' Faktor 2 = ·Produktdifferenzierungsstrategie'. Einbezogen wurden innovierende und nicht-innovierende Unternehmen.

16*

Neue Perspektiven der Telekommunikation Von GUnter Poser

A. Einf"ührung Mit dem Inkrafttreten des Telekommunikationsgesetzes (TKG) am 1. August 1996 ist eine wesentliche Voraussetzung rur mehr Wettbewerb und Wachstum im Telekommunikationsbereich geschaffen worden. Denn seitdem sind die Tage des letzten und wichtigsten Teils der noch verbliebenen MonopolsteIlung der Deutschen Telekom - nämlich das Vermittlungsprivileg bei kommerziellen Telefongesprächen - gezählt. Es flillt am 1. Januar 1998. Schon seit dem 1. Juli 1996 dürfen alternative Netze filr das Angebot bereits liberalisierter Telekommunikationsdienste (Mehrwertdienste, Datenübertragung, Mobilfunk, Corporate Networks) eingesetzt werden. Auf diese Weise müssen die neuen Anbieter nicht mehr auf die Mietleitungen der Deutschen Telekom zurückgreifen. Das Übertragungswegemonopol der Deutschen Telekom wurde damit bereits eineinhalb Jahre vor dem ursprünglich geplanten Termin aufgehoben. Dies ist der jUngste Liberalisierungsschritt auf einem Gebiet, auf dem man noch vor einer Dekade das Vorliegen eines "natürlichen" Monopols, damals der Deutschen Bundespost, wie selbstverständlich unterstellt hat. Als dessen Kernbereich galt das Telekommunikationsnetz. Aber mit dem Aufkommen neuer Techniken (Satellitenfunk, Richtfunk) ergaben sich Alternativen zur Nutzung eines festen Kabelnetzes. Damit schwanden die Größenvorteile des Festnetz-Alleinanbieters, und insofern überrascht es nicht, daß die Liberalisierung des Telekommunikationssektors in den USA, in Japan und in Großbritannien ihren Anfang im Fernbereich nahm. Aber nicht nur im Fern-, sondern auch im Ortsbereich sind mit der Mobilfunktechnik neue Übertragungsmöglichkeiten entwickelt worden, die das Festnetz ergänzen oder es sogar umgehen lassen.

246

Günter Poser

Die neuen Übertragungswege und Übermittlungsverfahren haben zudem eine differenzierte Nachfrage bei den Dienstleistungen hervorgebracht, so daß ein einzelner Anbieter nicht in der Lage wäre, ihr nachzukommen. Die starke Zunahme der Dienstevielfalt ist auf die Entwicklung der digitalen Technologie und der Mikroelektronik zurückzuftlhren. Unter Digitalisierung wird in der Telekommunikation die Ablösung der bisherigen analogen Übertragungstechnik durch digitale Technik verstanden. Diese nutzt den Einsatz mikroelektronischer Bauteile, die so leistungsfllhig und preisgünstig sind, daß die analoge Übertragungstechnik technisch und wirtschaftlich überholt ist. Die Digitaltechnik ermöglicht zudem durch die einheitliche Codierung der Sprach-, Daten- und Bildübertragung die Möglichkeit der Zusammenfassung von Telekommunikationsdiensten in einem Netz (Integrated Services Digital Network ISDN). Diese technischen Neuerungen haben dazu beigetragen, den Ordnungsrahmen zu sprengen, der bisher in Deutschland und in Europa filr die Telekommunikation galt. In Deutschland galten das öffentliche Fernsprechnetz und die darüber geleiteten Dienste so lange unbestritten als "natürliches" Monopol der Bundespost, wie es nicht erkennbar war, daß es privat- und gesamtwirtschaftlich sinnvoll sein könnte, parallele Netze zu erstellen. Zwar ist die Rolle des Staates und speziell das Verhalten der Deutschen Bundespost z.B. bei der Beschaffung von Femmeldematerial stets kritisch beobachtet worden. So ist inzwischen auch unstreitig, daß der Staat bei der Nachfrage nach wirtschaftlichen Leistungen ebenso wie beim Angebot unternehmerisch handelt und deshalb insoweit uneingeschränkt das Gesetz gegen Wettbewerbsbeschränkungen beachten muß. Aber das Femmeldeanlagengesetz (FAG) räumte bisher dem Bund das alleinige Recht zum Betrieb der Übertragungswege (Netzmonopol) und räumt ihm weiterhin bis zum 1. Januar 1998 das alleinige Recht zur Sprachübermittlung filr Dritte (Telefondienstmonopol) ein (§ 1 Abs. 4 FAG). So haben also vor allem die technischen Neuerungen das über Jahrzehnte unterstellte "natürliche" Monopol der nationalen Telekommunikationsgesellschaften obsolet werden lassen. Bis es zur Verabschiedung des Telekommunikationsgesetzes in Deutschland kam, bedurfte es allerdings zusätzlich eines starken Drucks von außen. Dieser Druck entstand einerseits durch erfolgreiche Reformen in anderen Ländern. Er wurde aber andererseits vor allem von der Europäischen Kommission ausgeübt.

Neue Perspektiven der Telekommunikation

247

B. Erfahrungen mit der Liberalisierung in Großbritannien In Europa hat Großbritannien die Vorreiterrolle bei der Liberalisierung des TK-Marktes übernommen. Nach der Aufspaltung des General Post Office in ein Postdienst- und ein Telekommunikationsunternehmen im Jahre 1981 folgte die Umwandlung von British Telecom (BT) in ein Privatunternehmen. Vom Jahre 1984 an wurde der Mercury Communications Ltd (Mercury) von der britischen Regierung eine Lizenz ftlr den allgemeinen Netzbetrieb (neben BT) gegeben mit der Zusage, bis zum Jahre 1990 keine weitere Lizenz zu vergeben. Gleichzeitig wurde die Überprüfung des Zusammenwirkens des Duopols angekündigt. Ein entsprechender Bericht, der Duopoly Review, wurde im November 1990 vom britischen Wirtschaftsministerium vorgelegt. Mercury, eine Tochtergesellschaft des international tätigen Telekommunikationsunternehmens Cable & Wireless, hat von seiner Lizenz, sämtliche Dienste auf allen Netzebenen im Wettbewerb zu BT anzubieten, im lokalen Bereich jedoch nahezu keinen Gebrauch gemacht. Somit verblieb es faktisch beim Monopol von BT beim Betrieb der Ortsnetze. Wettbewerb herrschte Ende 1990 zwischen BT und Mercury nur bei den Fernverbindungen, wobei aber Mercury nur 5 % des Marktanteils erlangen konnte. Auf der Basis dieser Erfahrungen wurde im Duopoly Review eine umfassende Deregulierung der Ortsnetzebene und die Aufhebung des Duopols im Fernverkehr vorgeschlagen. Auf der Ortsnetzebene wurde den Betreibern lokaler Kabel-TV-Netze die Möglichkeit eröffnet, Sprachtelefondienste anzubieten. Gleichzeitig zeigte sich die britische Regierung offen ftlr den Aufbau terrestrischer Netze durch Mobilfunkbetreiber und ftlr deren zusätzliche Telefondienstangebote. Das Duopol wurde abgeschafft, und interessierte Lizenzbewerber ftlr öffentliche Netze wurden zur Abgabe von Angeboten aufgefordert. In den Betreiber-Lizenzen können Infrastruktur- und Gemeinwohlverpflichtungen festgelegt werden. Benachbarte Netze müssen zur Vermittlung von Sprache und Daten zusammengeschlossen werden. Ein Eingriff der von der Regierung unabhängigen Regulierungsbehörde Office of Telecommunication (OFTEL) erfolgt nur, wenn keine Einigung unter den Wettbewerbern erzielt werden kann. Ein Beispiel daftlr war die Bestimmung der Höhe von Netzzugangsgebühren, die von Wettbewerbern zur Beteiligung an den Infrastrukturauflagen an die BT zu zahlen sind. Allen lizenzierten

248

GünteT PoseT

Gesellschaften, den sog. Public Telecommunications Operators (PTO), ist grundsätzlich Zugang zu öffentlichen Verkehrswegen zu gewähren, sofern dies zum Betrieb ihrer Netze und Dienste notwendig ist. Im Herbst 1994 hat sich als drittes Großunternehmen im britischen Telekommunikationsbereich das Unternehmen Energis etabliert, ein Tochterunternehmen der National Grid Company, die zwölf Energieversorgungsunternehmen in England und Wales umfaßt. Daneben existieren mehrere kleinere, zumeist regionale Anbieter sowie vier Mobilfunknetz-Betreiber. Die Entwicklung der Gebühren wird von der Regul;erungsbehörde OFTEL kontrolliert. Die Z.Z. gültige, sogenannte Price-Cap-Formel zwingt BT zur Gebührensenkung, da unterstellte Produktivitätssteigerungen (in Höhe von jährlich 7,5 %) abzüglich der Inflationsrate in den Gebühren weitergegeben werden müssen. (vgl. Carsberg, 1996, S. 89).

c. Unterstützung der Reformen durch die Europäische Union

Der Umfang der Reformen und die Geschwindigkeit, mit der sie bisher in Deutschland umgesetzt worden sind, wären ohne europäische Unterstützung nicht möglich gewesen. Die Impulse für das starke Engagement der Europäischen Kommission kamen einerseits von außen - die Beispiele gelungener Deregulierungen bei den internationalen Wettbewerbern USA und Japan -, andererseits von innen - das Beispiel der Deregulierung in Großbritannien und vor allem die Erkenntnis, daß zur Vollendung des Europäischen Binnenmarktes auch die Liberalisierung der Dienste auf dem Gebiet der Telekommunikation notwendig ist. Vorbereitungen für eine Umstrukturierung des Telekommunikationsbereichs begannen in der EG bereits im Jahre 1984. Zur Verhinderung der Entwicklung unterschiedlicher Standards und Normen digitaler Übertragungs- und Vermittlungssysteme und neu geschaffener Dienste in Europa empfahl der Rat den Mitgliedsländern, sich untereinander zu konsultieren, damit unter Einschaltung der europäischen Normungsinstitutionen europaweit kompatible Dienste angeboten werden können (Empfehlungen des Rates 84/549 EWG und 84/550 EWG).

Neue Perspektiven der Telekommunikation

249

Als wichtigste Richtlinien und Entschließungen des Rates folgten -

eine Richtlinie über die erste Phase der gegenseitigen Anerkennung der Allgemeinzulassungen von Telekommunikations-Endgeräten (86/361/ EWG),

-: ein Beschluß über die Normung auf dem Gebiet der Informationstechnik und der Telekommunikation (87/95/EWG), -

eine Empfehlung rur die koordinierte Einruhrung des diensteintegrierenden digitalen Femmeldenetzes in der EG (86/659/EWG),

-

eine Empfehlung fiir die koordinierte Einfiihrung eines europaweiten öffentlichen zellularen digitalen terrestrischen Mobilfunkdienstes in der Gemeinschaft (87/371/EWG) sowie

-

eine Richtlinie über die fiir den Mobilfunk einzurichtenden Frequenzbänder (87/372/EWG).

Nach diesen ersten wichtigen Schritten zur gegenseitigen Anerkennung unterschiedlicher nationaler Vorschriften und zur Schaffung gemeinsamer Standards empfahl die Europäische Kommission in ihrem ersten Grünbuch (KOM (87) 290 endg.) v. 30.6.1987 -

die Trennung von hoheitlichen und betrieblichen Funktionen der Telekommunikationsverwaltungen,

-

die Öffnung der Märkte rur Endgeräte,

-

die gegenseitige Anerkennung nationaler Zulassungsvorschriften und

-

die Öffnung der Märkte rur Telekommunikationsdienstleistungen.

Diese Kommissionsempfehlungen ruhrten bereits im Mai 1988 zu einer Entschließung des Rates, in die diese Empfehlungen aufgenommen und als Hauptziele der Telekommunikationspolitik festgelegt wurden (88/C257/01). Im Jahre 1990 folgte die Richtlinie des Rates zur Verwirklichung des Binnenmarktes rur Telekommunikationsdienste durch die Einruhrung des offenen Netzzugangs (Open Network Provision (ONP)) (90/387/EWG). Darin wurden die Mitgliedsländer verpflichtet, bis zum Jahre 1992 die Bedingungen (harmonisierte Schnittstellen und Tarifgrundsätze) rur den offenen Zugang zu den öffentlichen Kommunikationsdiensten zu schaffen. Parallel zur Unterstützung der Öffnung der Endgerätemärkte und der Netze hat die Kommission gemeinsam mit dem neugegründeten Standardisierungs-

250

Günter Poser

institut (European Telecommunications Standard Institute (ETSI» europäische Mobilfunk-Standards eingeftlhrt, nämlich das Global System for Mobile Communications (GSM) und das Digital Communication System 1800 MHz (DCS1800) und einen Standard fllr auf Funkübertragung basierende Systeme tragbarer Sprach- und Datengeräte (Digital European Cordless Telecommunications (DECT». Damit hat die europäische Kommission gemeinsam mit dem Rat in einem Jahrzehnt die Grundlagen für eine vollständige Umstrukturierung des Telekommunikationssektors in der Europäischen Union gelegt. Die Geschwindigkeit, mit der dies geschehen ist, hat viele Beobachter - insbesondere in dei1 USA - überrascht, denn es war zu erwarten, daß der Eingriff in Strukturen, die in den verschiedenen EU-Ländern in mehr als einem Jahrhundert gewachsen waren, nur gegen den Widerstand der betroffenen Institutionen und Regierungen möglich war. Die Kommission hatte zur Durchsetzung ihrer Vorstellungen jedoch nicht den zeitaufwendigen "Normalweg" gewählt, der die Zustimmung des Europäischen Parlaments erfordert und Einstimmigkeit bei den Ratsentscheidungen. Vielmehr stützte sie sich auf Art. 90 EGV.

D. Kontrolle von Ausschließlichkeitsrechten in der EU Gemäß Art. 90 EGV dürfen die EG-Mitgliedstaaten in Bezug auf öffentliche Unternehmen oder auf Unternehmen, denen sie besondere oder ausschließliche Rechte gewähren, keine Maßnahmen treffen, die dem EG-Vertrag widersprechen. In gleicher Weise werden Unternehmen, die mit Dienstleistungen von allgemeinem wirtschaftlichen Interesse betraut sind, auf die Vorschriften des EGV verpflichtet. Es ist Aufgabe der Kommission, auf die Anwendung des Artikels 90 zu achten und erforderlichenfalls geeignete Richtlinien oder Entscheidungen an die Mitgliedstaaten zu richten. Die Kommission stützt sich bei ihrer Telekommunikationspolitik auf diese Vorschrift, indem sie feststellt, daß die staatliche Beseitigung von Wettbewerb im Telekommunikationsbereich die in Art. 3 c EGV vorgesehene Dienstleistungs- und Niederlassungfreiheit behindert. Für staatliche Maßnahmen stellt jedoch Art. 5 Abs. 2 EGV ausdrücklich fest, daß sie die Verwirklichung der Ziele des Vertrags - zu denen gemäß Art. 3 g EGV auch der Schutz des Wettbewerbs vor VerflUschungen zählt - nicht gefllhrden dürfen. Die Kommission vertritt deshalb den Standpunkt, daß sie hinsichtlich der Beibehaltung oder

Neue Perspektiven der Telekommunikation

251

Ausdehnung von Ausschließlichkeitsrechten im Telekommunikationsbereich eine Kontrolle auch anband wettbewerbsrechtlicher Kriterien vornehmen dürfe. Mit der Richtlinie über den Wettbewerb auf dem Markt fllr Telekommunikations-Endgeräte (88/301IEWG) wurde erstmals von der Kompetenz des Art. 90 EGV Gebrauch gemacht, um staatlich gewährte Ausschließlichkeitsrechte zurückzudrängen. Die Kommission stellt darin fest, daß der Wettbewerb auf dem Endgerätemarkt nicht vor VerflUschungen geschützt sei, daß die Ausschließlichkeitsrechte zu mißbräuchlichen Verhaltensweisen im Sinne des Art. 86 EGV filhrten und daß somit die Entwicklung des Handels in einem Maße beeinträchtigt sei, das dem Interesse der Gemeinschaft entgegenstehe. Deshalb seien die Voraussetzungen fllr die Gewährung oder Beibehaltung ausschließlicher Rechte auf dem Gebiete der Endgeräte nicht erfUllt. Frankreich hat, unterstützt von mehreren Mitgliedstaaten, darunter Deutschland, die Endgeräterichtlinie der Kommission angefochten. Der Kommission wurde dabei vorgehalten, daß Art. 90 EGV sich auf Überwachungsaufgaben der Kommission beschränke und ihr nicht etwa ermögliche, im Wege der Normsetzung die Bedingungen staatlicher Tätigkeit in einem bestimmten Sektor zu regeln. Der Kommission wurde deshalb die Befugnis bestritten, gestützt auf Art. 90 EGV die Mitgliedsländer anzuweisen, die Märkte fllr Telekommunikations-Endgeräte zu öffnen. In dem mit Spannung erwarteten Grundsatzurteil vom 19. März 1991 hat der EuGH jedoch im Sinne der Kommission entschieden. Danach hat die Kommission das Recht, die im EGV niedergelegten nationalstaatlichen Verpflichtungen allgemein durch Erlaß zu präzisieren. Das Recht zum Rückgriff auf Art. 90 EGV wurde bestätigt. Die Position der Kommission bei der Durchsetzung gemeinsamer Liberalisierungsschritte im Telekommunikationsbereich wurde damit gegenüber den Regierungen der Mitgliedsländer entscheidend gestärkt (vgl. Monopolkommission, 1991, Tz. 56). Die europäische Kommission hat sich fortan in ihrer Telekommunikationspolitik auf Art. 90 EGV berufen und damit die schwerfällige und politisch stärker einschneidende Alternative des Verfahrens wegen Vertragsverletzung vermieden (vgl. Monopolkommission, 1990, Tz. 1 155ff.).

252

Günter Poser

E. Liberalisierung des Telekommunikationsbereichs in Deutschland Bereits im Jahre 1981 hat sich in Deutschland die Monopolkommission in einem Sondergutachten zur "Rolle der Deutschen Bundespost im Fernmeldewesen" geäußert. Sie wollte damit u.a. verhindern, daß die Deutsche Bundespost (DBP) angesichts des raschen technologischen Wandels ihren Monopolanspruch im Fernmeldewesen auch auf die sich neu entwickelnden Monopolmärkte ausdehnte (Tz. 3). Ihre Untersuchung mußte die Monopolkommission zu jener Zeit gegen Einwendungen der Bundespost verteidigen. Die DBP erkannte die Kompetenz der Monopolkommission nämlich nur für die Untersuchung ihres Nachfrageverhaltens an. Daß sich das Gutachten auch auf ihre ~ngebotspolitik erstreckt, sah die DBP durch den gesetzlichen Auftrag der Kommission nicht mehr gedeckt (Tz. 6). Die Monopolkommission machte dagegen geltend, daß die Beschaffungspolitik und die Angebotspolitik der DBP eng miteinander verbunden, z.T. sogar voneinander abhängig seien. Der Anwendbarkeit des Gesetzes gegen Wettbewerbsbeschränkungen stehe im übrigen auch der Umstand, daß die DBP als ein Teil der bundeseigenen Verwaltung anzusehen sei, nicht entgegen. Im Ergebnis ihrer Untersuchung plädierte die Monopolkommission für die Einfiihrung eines funktionsfähigen Wettbewerbs auch im Fernmeldewesen (Tz. 19). Sie forderte zwar die Öffnung des Endgerätemarktes, akzeptierte aber die vorläufige Beibehaltung des Netzmonopols (Tz. 28). Für die Reformen in der Bundesrepublik entscheidend waren die von der Europäischen Kommission im Grünbuch 1987 entwickelten ordnungspolitischen Grundsätze. Mit der Kommissionsrichtlinie vom 16. Mai 1988 fiel die erste Entscheidung hinsichtlich der Endgeräte. Sie sah bis Ende 1990 die vollständige Öffnung des Endgerätemarktes vor. Die Liberalisierung des Telekommunikationswesens in Deutschland erfolgte danach in mehreren Schritten. Im Jahre 1989 wurde in einem ersten Reformschritt (Postreform I) die politisch-hoheitliche Zuständigkeit jm Bereich von Post und Telekommunikation von den betrieblich-unternehmerischen Aufgaben getrennt. Die betrieblichen Aufgaben wurden dem öffentlichen Unternehmen Deutsche Bundespost (DBP) übertragen, das in drei DBPSondervermögen (Telekom, Postdienst, Postbank) aufgeteilt wurde. Die hoheitlichen Aufgaben blieben beim Bundesministerium für Post und Telekom-

Neue Perspektiven der Telekommunikation

253

munikation (BMPT). Diese Umwandlung der DBP von einer verwaltungsorientierten Ministerialbehörde in ein öffentliches Unternehmen sollte es ihr ermöglichen, sich stärker am Markt auszurichten. Da aber Art. 87 GG, nach dem die Bundespost in bundeseigener Verwaltung gefUhrt wird, nicht geändert wurde, blieb die Telekom weiterhin an die personalwirtschaftlichen und haushaltsrechtlichen Vorschriften des öffentlichen Dienstes gebunden. Als ein so eingebundenes öffentliches Unternehmen konnte sie u.a. nur sehr eingeschränkt Auslandstätigkeiten wahrnehmen. Mit Ausnahme der Öffnung des Endgerätemarktes, dessen Freigabe nach der gerade ergangenen EG-Richtlinie ohnehin anstand, sowie der Liberalisierung des Angebots von Mehrwertdiensten verzichtete man zunächst weitestgehend auf wettbewerbsöffnende Maßnahmen. Insbesondere blieben das Netzmonopol und das Telefondienstmonopol, die mehr als 80 % des Umsatzes der DBP Telekom ausmachten, von der Reform unberührt. Diese Entscheidung wurde im Gesetzentwurf mit der notwendigen Ertragssicherung der nationalen Fernmeldeorganisationen begründet. Die Erträge sollten zum Aufbau moderner Netze mit Digitaltechnik verwendet werden und im übrigen die Aufrechterhaltung der "Tarifeinheit im Raum" ermöglichen. Ausnahmen vom Netzmonopol gab es nur in klar abgegrenzten drahtlosen Bereichen, hauptsächlich beim zellularen Mobilfunk. Die Postreform I hat zweifellos zu kurz gegriffen. Dies zeigte sich sehr bald, als nämlich nach der Wiedervereinigung praktisch das gesamte Netz der neuen Bundesländer erneuert werden mußte, aber wegen des Netzmonopols der DBP Telekom nur ein Anbieter zur VerfUgung stand. Die Monopolkommission hat deshalb zu Recht angemahnt (Monopolkommission, 1991, Tz. 122, 127), daß der Liberalisierungsspielraum des im Zuge der Postreform I novellierten Fernmeldeanlagengesetzes zu nutzen sei, denn nach § 2 Abs. 1 FAG war es möglich, die Befugnis zur Errichtung und zum Betrieb einzelner Fernmeldeanlagen Dritten zu erteilen. Gleichzeitig hat die Monopolkommission empfohlen, in einer zweiten Stufe der Strukturreform das Netz- und das Telefondienstmonopol aufzulösen. Die zweite Reform-Stufe folgte zwar im Jahre 1994 (Postreform 11), ließ aber das Netzmonopol und das Telefondienstmonopol weiterhin unberührt. Um die DBP Telekom auf den Wettbewerb auch in diesen Bereichen vorzubereiten und um ihr mehr Spielraum zur Bewältigung der fmanziellen Anforderungen

254

Günter Poser

zu verschaffen, die mit den Infrastrukturinvestitionen in den neuen Bundesländern verbunden waren, stand als nächster Organisationsschritt die Privatisierung an. Deshalb w~den mit der Postreform II die drei Postunternehmen zum 1. Januar 1995 zunächst "formal" privatisiert. Mit der Änderung von Art. 87 GG - zu der es einer Zweidrittelmehrheit im Bundestag bedurfte - wurde das Angebot von Post- und Telekommunikationsdienstleistungen aus dem Spektrum der hoheitlichen Aufgaben des Bundes herausgelöst. Zugleich wurde mit der Einführung von Art. 87 f GG der Bund zur Gewährleistung eines flächendeckenden, angemessenen und ausreichenden Angebots dieser Dienste verpflichtet. Zur Wahrnehmung der Eigentümerfunktion des Bundes wurde die Bundesanstalt fi1r Post- und Telekommunikation gegründet. Den inzwischen beschlossenen gemeinschaftsrechtlichen Vorgaben (Richtlinie 90/38/EWG) zur Liberalisierung des Sprachtelefondienstes und der Netzinfrastruktur zum 1. Januar 1998 wurde mit der zeitlichen Befristung des Femmeldeanlagengesetzes zum 31. Dezember 1997 Rechnung getragen. Damit war der Weg zum nächsten Reformschritt (Postreform III) bereits eingeschlagen. In Anpassung an das Gemeinschaftsrecht (Richtlinie 90/388/EWG) wurde Großunternehmen (Corporate networks) und anderen geschlossenen Benutzergruppen freigestellt, ihren internen Telefonverkehr unabhängig von der nationalen Telefongesellschaft zu regeln. Darüber hinaus hat sich die Europäische Kommission die Zustimmung zur Unternehmenskooperation zwischen der Deutschen Telekom und France Telecom nur durch einen weiteren Liberalisierungsschritt abhandeln lassen: Danach mußten in Deutschland bis zum 1. Juli 1996 die sogenannten alternativen Netze, d.h. die bestehenden Netzinfrastrukturen der Energieversorgungsunternehmen, der Bundesbahn und anderer Netzbetreiber, rur bereits liberalisierte Telekommunikationsdienste freigegeben werden. Als weitere Reformschritte verbleiben die volle - materielle - Privatisierung der Deutschen Telekom durch den Gang an die Börse im Herbst 1996 und 1998 sowie die Festlegung der Bedingungen, unter denen das Netzmonopol und das Sprachtelefonmonopol abgelöst werden sollen. Bei der Diskussion über das am 25. Juli 1996 verabschiedete Telekommunikationsgesetz (TKG) standen -

die Art der Marktzugangsregeln (Lizenzen),

-

der Umfang der Universaldienstverpflichtungen,

Neue Perspektiven der Telekommunikation

-

die Ausgestaltung der Entgeltregulierung und

-

die Ausgestaltung der Regulierungsbehörde

255

im Mittelpunkt des Interesses. Einzige Voraussetzungen ftlr die Erteilung von Lizenzen zum Betrieb von Netzen und ftlr das Angebot eines Sprachtelefondienstes sind der Nachweis technischer und fmanzieller Fähigkeiten des Bewerbers und ggfs. die Verfilgbarkeit von Frequenzen. Umstritten war der Umfang des sog. Universaldienstes, d.h. der Bereitstellung von Fernsprechbasisdiensten, von öffentlichen Fernsprechzellen, von Notrufdiensten u.a. Während die Monopolkommission in zu hohen inhaltlichen Anforderungen eine Marktzutrittsbarriere sah und sich deshalb nur ftlr die Verpflichtung zur Bereitstellung von Minimaldiensten aussprach, wurde in der politischen Diskussion darauf verwiesen, daß das Anspruchsniveau bezogen auf Universaldienste voraussichtlich steigen werde. Im § 17 TKG wird die Bundesregierung ermächtigt, Universaldienstleistungen durch Rechtsverordnung vorzuschreiben. Sofern diese Universaldienstleistungen regional nicht erbracht werden, sind Unternehmen mit Marktanteilen über 4 % dazu verpflichtet, zur Bereitstellung beizutragen. Zur Finanzierung werden ggfs. Universaldienstleistungsabgaben erhoben (§ 18 - 21 TKG). Hinsichtlich der Entgelte (Gebühren) ftlr Telekommunikationsdienstleistungen und ftlr Universaldienstleistungen gibt es unterschiedliche Konzepte: einerseits die Einzelpreisüberwachung nach der Fiktion wettbewerbsanaloger Preise, andererseits die Vorgabe einer Regel ftlr die Veränderung des Preisniveaus eines Dienstekorbes. Beim ersten Verfahren hat man mit den aus der Wettbewerbspolitik bekannten Schwierigkeiten der Einzelpreisüberwachung zu rechnen. Nach dem zweiten Verfahren wird das Ausgangspreisniveau eines Dienstekorbs nach dem Vergleichsmarktkonzept festgelegt und filr die Folgejahre eine Änderungsrate vorgegeben, die sich am Inflationsniveau und an den zu erwartenden Produktivitätssteigerungen orientiert (Price-Cap-Modell). Produktivitätssteigerungen sollen auf diese Weise an die Nachfrager weitergegeben werden. In § 27 TKG sind beide Verfahren vorgesehen. Auch hier wird die Bundesregierung ermächtigt, Voraussetzungen, nach denen die Regulierungsbehörde zu entscheiden hat, durch Rechtsverordnung festzulegen. Besondere Aufmerksamkeit hat schließlich die institutionelle Ausgestaltung der vorgesehenen Regulierungsbehörde gefunden.

256

Günter Poser

Die Monopolkommission hatte sich bereits im Jahre 1991 fUr die Einrichtung einer unabhängigen Aufsichtsbehörde nach dem Vorbild des britischen Office ofTelecommunications (OFTEL) ausgesprochen. Als Alternative hat sie den Aufbau einer speziellen Abteilung im Bundeskartellamt vorgeschlagen (vgl. Monopolkommission, 1991, Tz. 133). Im November 1995 haben das Bundeskartellamt und die Landeskartellbehörden ebenfalls empfohlen, daß bei der Neuordnung der Telekommunikation Entscheidungen über wettbewerbliche Fragen den Kartellbehörden und nicht der vorgesehenen Regulierungsbehörde überlassen werden. Begründet haben sie diesen Vorstoß mit der BefUrchtung, daß die Konstituierung einer sektorspezifischeIl W~~bewerbsaufsicht die Bildung eines neuen wettbewerblichen Ausnahmebereichs begünstigte (vgl. Monopolkommission, 1996, Tz. 27). In gleichem Sinne hatten sich im Herbst 1995 die Teilnehmer des Arbeitskreises Kartellrecht beim Bundeskartellamt geäußert, die auf die Gefahr verwiesen, daß eine einmal geschaffene Behörde auch denn weiterbestehe, wenn die Regulierungsnotwendigkeit entfalle. Auch zeigten Erfahrungen in den USA mit branchenspezifischen regulatory commissions, daß sie sich eher mit ihrer Branche identifizierten, als sie zu kontrollieren (vgl. Sacksofsky, 1996, S. 22). Gemäß § 66 TKG (1996) soll nun eine Regulierungsbehörde fUr Telekommunikation und Post als Bundesoberbehörde im Geschäftsbereich des Bundesministeriums fUr Wirtschaft mit dem Sitz in Bonn eingerichtet werden. Bei der Regulierungsbehörde wird ein Beirat aus jeweils neun Mitgliedern des Bundestags und des Bundesrats gebildet. Die Regulierungsbehörde und das Bundeskartellamt werden gemäß § 82 TKG verpflichtet, auf eine einheitliche und den Zuammenhang mit dem Gesetz gegen Wettbewerbsbeschränkungen (GWB) wahrende Auslegung des TKG hinzuwirken.

F. Erwartete Umsatzentwicklung auf dem Telekommunikationsmarkt Das Gesamtvolumen des Marktes fUr Telekommunikationsdienste umfaßte im Jahre 1995 in Deutschland rd. 72 Mrd. DM. Davon entfielen 46 Mrd. DM auf Telefonbasisdienste, 20 Mrd. DM auf Mehrwert-lDatendienste (incl. Multimedia) und 6 Mrd. DM auf den Mobilfunk (vgl. Gerpott, 1996, S. 16).

Neue Perspektiven der Telekommunikation

257

Bis zum Jahre 2005 werden durchschnittliche Wachstumsraten von jährlich rd. 7 % vorausgesagt, wobei die Anteile der Datenübermittlung und des Mobilfunks zu Lasten des Telefondienstes stark zunehmen werden. Das Wachstum der Datenübertragung wurde bisher vom hohen Preisniveau in Deutschland gebremst. Die Datentransferkosten liegen in den USA bei lediglich einem Sechstel der Tarife der Deutschen Telekom. Mit der Freigabe der Netze durch das TKG wird beim Datentransferumsatz mit einer Verdoppelung von 1995 bis zum Jahre 2000 gerechnet. Bis zum Jahre 2005 wird erwartet, daß die Mehrwert-lDatendienste mit rd. 66 Mrd. DM den gleichen Umsatz erreichen wie die Telefonbasisdienste. Ansätze zeigen sich bereits in der sprunghaften Entwicklung der Anzahl der ISDN-Anschlüsse. An das ISDN-Netz können Personalcomputer relativ einfach durch eine Karte angeschlossen werden. Daten können dann Z.B. direkt vom Arbeitsplatz über das Netz verschickt werden. Über das ISDN-Netz fließen auch die zunehmenden Multimediadienste. Die noch höheren Wachstumserwartungen fUr den Bereich des Mobilfunks beruhen auf internationalen Erfahrungen: Der Vergleich mit den skandinavischen Ländern, die bei der EinfUhrung des Mobilfunks gegenüber Deutschland einen Vorsprung von vier Jahren haben, läßt in den nächsten Jahren in Deutschland eine starke Zunahme der Marktdurchdringung erwarten. In Deutschland haben sich vier verschiedene Mobilfunknetze mit drei Betreibergesellschaften etabliert: Das C-Netz basiert auf analoger Technik und hat nur nationale Reichweite, die D-Netze sind digitale Netze, basierend auf dem bereits genannten Global System for Mobile Communications (GSM), die ein weltweites Telefonieren erlauben. Das im Aufbau befindliche E-Netz verwendet den neuen 1800-MHz-Standard. Das C-Netz und das DI-Netz werden von der Telekomtochter DeTeMobil betrieben. Das DI-Netz wurde der Telekom bei der europaweiten EinfUhrung des digitalen Funkstandards GSM 900 apriori zugeteilt. Es hatte Mitte 1996 ca. 1,9 Mio. Teilnehmer (vgl. Handelsblatt v. 8.8.1996). Im Jahre 1989 erhielt die Mannesmann AG die erste private Mobilfunklizenz in Deutschland (D2-Netz). Der kommerzielle Betrieb wurde im Juni 1992 aufgenommen. Bereits im Jahre 1994 erzielte die Betreibergesellschaft Mannesmann Mobilfunk Erträge in dreistelliger Millionenhöhe. Derzeit telefonieren ca. 2,0 Millionen Teilnehmer im D2-Netz, das mit Investitionen von ca. 2,8

17 Festschrift Oppenländer

258

Günter Poser

Mrd. DM eine Flächendeckung von 95 % in Deutschland erreicht hat. (vgl. Mannesmann, Pressemitteilung, März 1996; Handelsblatt v. 8.8.1996). Das E-Netz wird von einem Unternehmenskonsortium, der E-Plus GmbH, betrieben. Es hat seinen Betrieb im Jahre 1994 aufgenommen und wies bereits zur Mitte des Jahres 1996 einen Kundenstamm von 350.000 auf. Mit einem Investitionsaufwand von 2 Mrd. DM wird bereits eine Flächendeckung von 80 % erreicht. Bis Ende 1997 sollen weitere 2 Mrd. DM in das Netz investiert werden, so daß 98 % der Bevölkerung erreichbar sein werden. Ein weiteres E-Netz (E2) ist in Vorbereitung. Bei ~er ersten Anhörung zur E2-Lizenz im Februar 1996 zeigten mehr als 50 Unternehmen Interesse. (BMPT, Post Politische Information, März/April 1996). Bis zum Jahre 2000 wird ft1r den Mobilfunk in Deutschland ein Marktvolumen bis 15 Mrd. DM bei 10 Millionen Teilnehmern prognostiziert (Oppenheim, Finanzanalyse 10/95). Noch liegt das Preisniveau im internationalen Vergleich recht hoch. Aber mit zunehmender Flächendeckung wird die Preispolitik der Wettbewerber zunehmend aggressiver. Der bereits erwähnte DECT-Standard wird den Mobilfunk voraussichtlich noch attraktiver machen. Zur Zeit laufen noch Versuche, in denen SchnurlosTelefone nach dem DECT-Standard mit dem GSM-Standard verbunden werden. Wenn dies gelingt, wird es möglich sein, direkt vom Mobilfunknetz in ein Festnetz überzuwechseln. Mit einem sog. Dual-Mode-Handy könnte dann vom Haus aus (auf Festnetzbasis) und außerhalb (auf Mobilfunkbais) kommuniziert werden unter nur einer (mobilen) Telefonnummer des Nutzers.

G. Konkurrenten der Deutschen Telekom in Wartestellung

Als Hauptkonkurrenten der Deutschen Telekom etablieren sich sechs Unternehmen: Mannesmann, RWE, Veba, VIAG, Thyssen und neuerdings auch die Deutsche Bahn. Der bisherige Hauptkonkurrent auf dem Mobilfunkmarkt ist Mannesmann mit seiner Tochter Mannesmann Mobilfunk. Bei etwa zeitgleichem Start des DI-Netzes der Telekom-Tochter DeTeMobil und des D2-Netzes von Mannes-

Neue Perspektiven der Telekommunikation

259

mann hilt die Kundenzahl von Mannesmann Mobilfunk im Jahre 1995 diejenige von DeTeMobil übertroffen. Mannesmann ist außerdem mehrheitlich am Unternehmen Communications Network International (CNI) beteiligt. Dieses Unternehmen bietet Corporate Networks und sonstige Mehrwertdienste ftlr geschlossene Benutzergruppen an. Zukünftig will Mannesmann auch Telefondienste ftlr die Öffentlichkeit anbieten. Ein wichtiger Schritt in diese Richtung ist die im Sommer 1996 beschlossene Akquisition von 49,8% der Anteile an der Bahn-Tochter DBKom, bei der Mannesmann gemeinsam mit der amerikanischen AT&T und der europäischen Unisource auftritt. Die Bedeutung der DBKom ftlr den entstehenden Wettbewerb liegt in ihrer "Mitgift": ein extensives Telekommunikationsnetz sowie die Möglichkeit, dieses den Bahntrassen entlang schnell flächendeckend auszubauen. Eine massive Ausweitung des heute 4000 km umfassenden Glasfasernetzes ist ftlr die nächsten Jahre vorgesehen. So sollen in den nächsten 5 Jahren 4 Mrd. DM in die Erweiterung der Infrastruktur investiert werden (vgl. Wirtschaftswoche, 34/1996, S.41). Die Rheinisch-Westfälischen Elektrizitätswerke (RWE) sind das größte Energieversorgungsunternehmen Deutschlands. Es verfilgt über ein eigenes Telekommunikationsnetz, das allerdings bisher (bis 1. Juli 1996) nur ftlr eigene Zwecke genutzt werden durfte. Die Telekommunikations-Tochter RWE Telliance, die aus ihrer früheren Beteiligung an CNI im Jahre 1995 ausgeschieden ist, bereitet sich mit dem weiteren Ausbau ihres Glasfasernetzes darauf vor, gegenüber der Deutschen Telekom als Wettbewerber auf allen Gebieten aufzutreten. Die VIAG verfilgt seit der Übernahme der Bayernwerke im Jahre 1994 über ein ganz Bayern überspannendes Festnetz. Im Jahre 1995 hat die VIAG gemeinsam mit BT das Unternehmen VIAG Interkom gegründet, das zunächst Lizenzen zum Betreiben von Corporate Networks (Bayerische Vereinsbank und Bayerische Hypobank) erworben hat. Darüber hinaus wollen sich VIAG und BT um die vierte Mobilfunklizenz (E2-Netz) bewerben. Der VEBA-Konzern verfilgt mit PreußenElektra ebenfalls über ein großes Elektrizitätsversorgungsunternehmen. Das Unternehmen Vebacom ist eine Tochter von VEBA und der britischen Gesellschaft Cable & Wireless. Vebacom zeichnet sich heute dadurch aus, daß es mit seinen Töchtern und Beteiligungen alle bereits liberalisierten Bereiche der Telekommunikation bedient,

\7"

260

Günter Poser

seien es Corporate Networks, Mehrwertdienste, Mobilfunk oder Kabel-TVNetze. Schließlich hat im Dezember 1994 auch das Stahlunternehmen Thyssen eine Telekom-Tochter gegründet. Partner bei Thyssen Telecom sind die Commerzbank und die Bankgesellschaft Sal. Oppenheim. Neben verschiedenen kleineren Töchtern und Beteiligungen verfUgt die Thyssen Telecom über knapp ein Drittel der Anteile am Mobilfunknetz E-plus. Unterstützt wird der weitere Markteintritt Thyssens durch ein Joint Venture mit der amerikanischen BellSouth. Die hier beschriebene Konstellation der Hauptkonkurrenten ist mit Sicherheit noch nicht diejenige, mit der zum I. Januar 1998 der Wettbewerb eröffnet wird. So sind Kooperationsgespräche auch zwischen VEBA und RWE im Gange sowie der Vebacom und der Ruhrgas AG. Die Ruhrgas AG plant darüberhinaus den Aufbau eines flächendeckenden Telekommunikationsnetzes mit anderen Ferngasgesellschaften. In die Tarifbildung ist mit der Tarifreform 96 bereits Bewegung gekommen. Allerdings sind die Gebühren rur Ferngespräche in Deutschland noch immer weit höher als beispielsweise in den USA oder in Großbritannien. Dies gilt ebenso fUr Mietleitungen. Mit der sich positionierenden Konkurrenz wird sich die Gebührenhöhe· voraussichtlich nach der Vergabe der ersten Lizenzen fUr den Netzbetrieb drastisch ändern. Neben den deutschen Unternehmen drängen international erfahrene Telefongesellschaften (AT&T, MCI, BT u.a.) auf den deutschen und auf den kontinental-europäischen Markt. Auch deshalb werden hohe Preisunterschiede international kaum von Bestand sein können. Mit sog. Call-back-Angeboten von Anbietern aus den USA und aus Großbritannien kann das hohe deutsche Preisniveau rur internationale Gespräche bereits jetzt umgangen werden.

H. Wettbewerbspolitik versus Industriepolitik Die dargestellte Entwicklung der Deregulierung der Telekommunikation in Deutschland zeigt, daß die Erwartungen ihrer BefUrworter im wesentlichen eingetroffen sind: Es wird nicht weniger, sondern mehr in diesen Bereich investiert; das Diensteangebot ist reichhaltiger geworden; die Preise sind gesunken. Diese Entwicklung wird sich mit der Öffnung des Netzes und mit der zum

Neue Perspektiven der Telekommunikation

261

1. Januar 1998 beschlossenen Aufhebung des Femsprechmonopols der Deutschen Telekom noch verstärken. Der Wettbewerb wird dazu fUhren, daß die Marktanteile der Deutschen Telekom zurückgehen. Bei der Stärke des erwarteten Nachfragewachstums müssen allerdings damit keine absoluten Umsatzeinbußen verbunden sein. Die Deutsche Telekom wird auch in der nächsten Zukunft der dominante Anbieter von Telekommunikationsleistungen in Deutschland bleiben. Aber die Deutsche Telekom wird sich weiterhin auf starke personelle und strukturelle Veränderungen einstellen müssen. Die Bildung von strategischen Allianzen der deutschen und ausländischen Anbieter ist in vollem Gange. Die Europäische Kommission hat dem Wettbewerb im Telekommunikationsbereich starke Impulse gegeben. Dabei ist es ihr allerdings neben wettbewerbspolitischen auch um industriepolitische Ziele gegangen. Der Europäischen Kommission ist in anderem Zusammenhang, nämlich bei der Diskussion über die Einführung der Fusionskontrollverordnung im Jahre 1989, von deutscher Seite vorgeworfen worden, industriepolitische vor wettbewerbspolitische Ziele zu stellen. Eine der Ursachen ftlr diesbezüglich unterschiedliche Sichtweisen bei den EU-Mitglieds ländern liegt in den gänzlich verschiedenen europäischen Traditionen auf diesem Gebiet. So wird die Fusionskontrolle Frankreichs explizit einer industriellen Strukturpolitik untergeordnet. Infolge des Einwirkens der deutschen Regierung sind die ursprünglich diskutierten Ansätze ftlr eine industriepolitische Ausrichtung der Fusionskontrollverordnung zwar reduziert worden. Aber nach Art. 2 Abs. 1 FusKontrVO ist es erforderlich, daß die "Entwicklung des technischen und wirtschaftlichen Fortschritts" bei der Beurteilung eines Zusammenschlusses berücksichtigt wird. In die gleiche Richtung zielt die Verpflichtung der EG-Kommission, "sich bei ihrer Beurteilung (eines Zusammenschlußvorhabens) an dem allgemeinen Rahmen der Verwirklichung der grundlegenden Ziele des Vertrages" (Erwägungsklausel 13 der Verordnung) zu orientieren. Damit, so befiirchtet die Monopolkommission, lassen sich Entscheidungen zur Fusionskontrolle aus der wettbewerbspolitischen Betrachtung herauslösen (Monopolkommission, Hauptgutachten 1988/l989, Tz. 28). Eine verstärkte Hinwendung der Europäischen Gemeinschaft zur Industriepolitik zu Lasten der Wettbewerbspolitik sieht die Monopolkommission auch in den Beschlüssen von Maastricht. Gemäß Art. 130 EGV haben die Gemeinschaft und die Mitgliedstaaten nämlich daftlr zu sorgen, daß die notwendigen

262

Günter Poser

Voraussetzungen ft1r die Wettbewerbsfähigkeit der Industrie der Gemeinschaft gewährleistet sind. Die Stärkung der Wettbewerbsfähigkeit der Industrie ist sogar ausdrücklich als neues Gemeinschaftsziel in Art. 3 EGV aufgenommen worden. Damit hat die Europäische Union einen industriepolitischen Auftrag erhalten, der - schon zu ersehen aus der Rechtssystematik - in Art. 3 EGV gleichrangig neben dem Ziel eines unverfälschten Wettbewerbs steht. Darin wird eine unzulässige Kompetenzerweiterung der EU gesehen. Die Monopolkommission bedauert diese Kompetenzerweiterung ausdrücklich und geht so weit, bei den anstehenden Verhandlungen über eine Revision der Maastrichter Vereinbarungen auf eine Streichung dieser Vorschrift zu drängen (Monopolkommission, Hauptgutachten 1990/1991, Tz. 24). Bezogen auf die europäische Telekommunikationspolitik muß jedoch festgestellt werden, daß die Bemühungen der Kommission um einheitliche Normen und Standards (GSM, DECT u.a.), um Zulassung neuer Techniken (Mobilfunk u.a.), neuer Netze (TV-Verkabelung u.a.) und um die Liberalisierung von Diensten ft1r geschlossene Benutzergruppen (Corporate Networks) sowie um die Abschaffung der Netzmonopolstellung und schließlich um die Abschaffung des alleinigen Rechts der nationalen Telekomgesellschaften, einen öffentlichen Fernsprechdienst ZU betreiben, die Voraussetzungen ft1r eine Zunahme des Wettbewerbs auf dem europäischen - und insbesondere auch auf dem deutschen - Telekommunikationsmarkt geschaffen haben. Dennoch ging es der Kommission bei ihren telekommunikationspolitischen Entscheidungen immer auch um die industriepolitische Dimension. Denn die Durchlässigkeit auf den Telekommunikationsmärkten soll nicht nur den Wettbewerb innerhalb der EU stärken, sondern auch die Wettbewerbsfähigkeit der EU gegenüber den USA, Japan und anderen Wettbewerbern erhöhen. Aufbau und Betrieb neuer Netzinfrastrukturen bedürfen einer großen Finanzkraft. Insofern kommt - wie dargestellt - der Betrieb paralleler Festnetze nur ft1r Großunternehmen in Betracht. Neben der Deutschen Bahn AG und Mischkonzernen sind dies in Deutschland vor allem Energieversorgungsunternehmen. Diese Unternehmen operieren in einem vor Wettbewerb weitgehend geschützten Umfeld, das es ihnen ermöglicht hat, sich durch den Ausbau ihrer Netze schon zeitig auf ein Engagement im Telekommunikationsbereich vorzubereiten. Finanziert wurden diese Investitionen über Quersubventionen aus dem Energiebereich.

Neue Perspektiven der Telekommunikation

263

Das neue Telekommunikationsgesetz versucht, diesem Umstand in § 14 dadurch Rechnung zu tragen, daß Unternehmen, die auf anderen Märkten als der Telekommunikation über eine marktbeherrschende Stellung verfllgen, ihr Telekommunikationsangebot in rechtlich getrennten Unternehmen abzuwickeln haben, wobei von der Regulierungsbehörde sogar die Gestaltung der internen Rechnungslegung vorgeschrieben werden kann. Auch hinsichtlich des Netzzugangs, des Netzzusammenschlusses und der Gebühren sieht das TKG gegenüber marktbeherrschenden Unternehmen deutliche Einschränkungen und eine besondere Mißbrauchsaufsicht vor. Es bleibt abzuwarten, ob und wie sich diese Regelungen bewähren. Da nicht das Bundeskartellamt, sondern zunächst das Bundesministerium fUr Post und Telekommunikation und vom 1. Januar 1998 an die neu zu errichtende Regulierungsbehörde die besondere Mißbrauchsaufsicht ausüben werden, kann nicht ausgeschlossen werden, daß trotz der in § 82 TKG geforderten Zusammenarbeit von Regulierungsbehörde und Bundeskartellamt wettbewerbspolitische Entscheidungen im Telekommunikationsbereich auch von sektorspezifischen - also industriepolitischen - Überlegungen beeinflußt sein werden. Wettbewerbspolitische und industriepolitische Argumente lassen sich bei der Telekommunikation aber häufig kaum trennen.

J. Zusammenfassung Da zum 1. Januar 1998 die Deutsche Telekom ihre letzte Monopolstellung verlieren wird, werden die Gründe dargestellt, die zu den Reformen auch in Deutschland geftlhrt haben, wobei die maßgebliche Rolle der Europäischen Kommission betont wird.

In Zukunft werden sich die Umsätze auf den Telekommunikationsmärkten stark erhöhen. Potentielle Wettbewerber der Deutschen Telekom sind im Begriff, sich zusammenzuschließen und neue Strategien zu entwickeln. Wettbewerbspolitische und industriepolitische Maßnahmen scheinen sich bei der Reform der Telekommunikation bisher eher zu ergänzen als zu behindern.

264

Günter Poser

Literatur Berger, H., Hrsg. (1996): Wettbewerb und Infrastruktur in Post- und Telekommunikationsmärkten, Beiheft 19 zur Zeitschrift rur öffentliche und gemeinwirtschaftliche Unternehmen, Baden-Baden. Blankart, C.B.lKnieps, G. (1996): Infrastrukturfonds als Instrumente zur Realisierung politischer Ziele, in: Berger, H. (Hrsg.): Wettbewerb und Infrastruktur in Post- und Telekommunikationsmärkten, Baden-Baden, S. 51ff. Carsberg, Sir B. (1996): The Experience of the United Kingdom in Telecoms Regulation, in: Witte, E. (Hrsg.): Regulierung und Wettbewerb in der Telekommunikation, Ein internationaler Vergleich, Heide1berg, S. 83ff. Europäische Kommission (1987): Auf dem Wege zu einer dynamischen Europäischen Volkswirtschaft, Grünbuch über die Entwicklung des Gemeinsamen Marktes rur Telekommunikationsdienstleistungen und Telekommunikationsgeräte, Brüssel. Europäische Kommission (1994a): Grünbuch über die Liberalisierung der Kommunikationsinfrastruktur und der Kabelfernsehnetze, Teil I, Teil 11 (1995), Brüssel. Europäische Kommission (1994b): Wachstum, Wettbewerbsfllhigkeit, Beschäftigung; Herausforderungen der Gegenwart und Wege ins 21. Jahrhundert, Weißbuch, Brüssel. Gerpott, TJ. (1996): Wettbewerbsstrategien im Telekommunikationsmarkt, Stuttgart. Kaderali, F.lRock, R., Hrsg.(1995): Die Liberalisierung der Telekommunikation in Deutschland, Studienreihe des Forschungsinstituts rur Telekommunikation (FTK), Dortmund. Klodt, H. et al. (1995): Wettbewerb und Regulierung in der Telekommunikation, Kiel. Krüger, R.lTetens, G.lVoß, A. (1995): Markteintrittsmöglichkeiten und ordnungspolitische Alternativen rur deutsche Telekommunikationsnetzmärkte, Baden-Baden. Lang, G. (1995): Price-Cap-Regulierung: Ein Fortschritt in der Tarifpolitik?, in: Wirtschaftsdienst, Heft 5, S. 273ff. Monopolkommission (1981): Sondergutachten 9, Die Rolle der Deutschen Bundespost im Fernmeldewesen, Baden-Baden. Monopolkommission (1990): Hauptgutachten 1988/1989, Baden-Baden. Monopolkommission (1991): Sondergutachten 20, Zur Neuordnung der Telekommunikation, Baden-Baden.

Neue Perspektiven der Telekommunikation

265

Monopolkommission (1992): Hauptgutachten 1990/1991, Baden-Baden. Monopolkommission (1994): Hauptgutachten 1992/1993, Baden-Baden. Monolpokommission (1996): Sondergutachten 24, Die Telekommunikation im Wettbewerb, Baden-Baden.

S12cksofsky, E. (1996): Wettbewerbspolitische und kartellrechtliche Probleme der Liberalisierung von Bahn, Post und Telekommunikation, in: Wirtschaft und Wettbewerb, 111996, S. 22ff. Sal. Oppenheim jr. & eie, Hrsg. (1995): Der deutsche Telekommunikationsmarkt und die wichtigsten Wettbewerber.

Tetens, G./Voß, A. (1995): Der neue Ordnungsrahmen für die Telekommunikation, in: Wirtschaftsdienst, Heft 8, S. 443ff. Vereinsbank Research (1995): Die Deutsche Telekommunikationsbranche.

Witte, E., Hrsg. (1994): Global Players in Telecommunications, Berlin. Witte, E., Hrsg. (1996): Regulierung und Wettbewerb in der Telekommunikation, Ein internationaler Vergleich, Heidelberg.

Woods, 1. (1996): European Telecoms Markets: Germany, Financial Times Management Report, London.

Theoretiker und Empiriker Ein Rückblick auf eine berühmte Kontroverse Von Kurt W. Rothschild "Zu sagen ist, dass bei der wirtschaftlichen Analyse nicht die Beschreibung eines vennutlichen Endzustandes im Vordergrund zu stehen hat, wobei Maximierungs- und Optimierungskalküle angewendet werden, die in der Realität gar nicht zu beobachten sind." (Oppenländer 1991, 56) "Eine gesamtwirtschaftliche Betrachtungsweise, die oft im Spekulativen verweilt und die, obwohl logisch abgeleitet, doch Einzelheiten verwischt und wegen der Gesamtschau auch oft kompensierend ist, (muss) durch Einzelbetrachtungen ergänzt werden." (Oppenländer 1987,267)

In einer entspannten Diskussion rund um einen Kneipentisch (oder in einem Wiener Kaffeehaus) zum Thema der Rolle und des Stellenwerts von Theorie und Empirik im Wissenschaftsbetrieb würde wahrscheinlich - sowohl bei Wissenschaftlern wie bei "Laien" - Einmütigkeit bestehen, dass zwischen diesen beiden Strategien kein Gegensatz besteht, sondern dass sie - sich gegenseitig befruchtend - gleichwertig und friedfertig nebeneinander existieren können und sollen. Theorien sollten unter Beachtung empirischer Erkenntnisse konstruiert und an ihnen gemessen werden und empirische Forschung sollte bei ihren Fragestellungen und Systematisierungen aus (guter) Theorie Anregungen und Orientierung beziehen. Prinzipiell scheint einer fruchtbaren und sich gegenseitig ergänzenden Zusammenarbeit von Theorie und Empirik, von Theoretikern und Empirikern nichts im Wege zu stehen.

In der Praxis sehen die Dinge aber manchmal anders aus. Zwischen theoretischer und empirischer Forschung besteht häufig ein Spannungsverhältnis, das sich bis zu einer veritablen Kluft ausweiten kann. Hauptursache hierftlr ist die ständig wachsende und teilweise unvermeidliche Spezialisierung der Forscher in der einen oder anderen Richtung. Dies müsste an sich noch kein Nachteil sein und entspricht sehr gut dem Bild einer -effizienzsteigernden Arbeitsteilung, das ja Ökonomen seit Adam Smith geläufig ist. Gefllhrlich wird die Sache erst,

268

Kurt W. Rothschild

wenn sich der jeweilige Spezialist in seine Spezialperspektive verliebt und den Zusammenhang und die Wechselbeziehungen zu seinem Gegenüber aus den Augen verliert. Dann kann es passieren, dass sich bei "wilden" Theoretikern theoretische Konstruktionen verselbständigen und zu immer kunstvolleren Gebilden erweitert werden - art pour l'art -, die Realität aber kaum oder nur durch die Brille der eigenen Axiome wahrgenommen wird. Umgekehrt gibt es eingefleischte Empiriker, die mit grossem Geschick aus dem Material ständig grösser werdender Zahlenfriedhöfe Geschichten zusammenbasteln, welche die jeweilige Situation recht gut abbilden, ohne auf vorhandene Theorien mit ihren generellen Erklärungsmöglichkeiten besondere Rücksicht zu nehmen. Als Illustration solcher Spannungen zwischen theoretischer und empirischer Schwerpunktsetzung soll im folgenden eine berühmt gewordene Auseinander~etzung herangezogen werden, die vor fUnfzig Jahren in den Heften des American Economic Review über die Bühne ging. Diese Auseinandersetzung (über den Realismus und die Aussagekraft der traditionellen Lohn- und Beschäftigungstheorie) ist deshalb besonders interessant, weil in ihr die angesprochene Problematik von zwei hochqualifizierten Ökonomen behandelt wurde. Die beiden Diskutanten - Lester und Machlup - gehörten zur Spitzenklasse des ökonomischen Establishments und waren überdies keine betriebsblinden Vertreter eines einseitigen Standpunkts. Der labour economist Lester kannte sehr wohl die herrschenden Lohn- und Arbeitsmarkttheorien und konnte sie in seinen Lehrbüchern auch durchaus objektiv darstellen, und der prononcierte und vielseitige Theoretiker Machlup hatte immer wieder (und besonders auf dem Gebiet der Währungspolitik) Beweise seiner Fähigkeit geliefert, empirische Untersuchungen vorzunehmen und argumentativ einzusetzen. Gerade weil beide Ökonomen diesen breiten Hintergrund hatten, ist ein Blick auf ihre Gegensätze filr das Thema "Theorie und Empirik" besonders aufschlussreich. Noch eine Zwischenbemerkung bevor ich auf die Lester-MachlupKontroverse eingehe. Ich habe die Theorie-Empirie-Problematik nicht zuletzt deshalb als Stoff filr diese Festschrift filr Karl Heinrich Oppenländer gewählt, weil er sich dieser Problematik stets stellen musste und sie - so glaube ichimmer richtig erkannt hat und stets bemüht war und ist, ihr geFecht zu werden. Ich hatte das Vergnügen, Oppenländer nun schon ein Vierteljahrhundert lang alljährlich bei dem traditionellen Ottobeurer Wirtschaftswissenschaftlichen Seminar zu begegnen und ihn in Aktion zu sehen. Als hervorstechender Vertreter - um nicht zu sagen "Grossunternehmer" - der empirischen Forschung leistet er bei den Ottobeurer Tagungen stets wertvolle Arbeit, indem er zu blau-

Theoretiker und Empiriker

269

äugige Theoretiker und Theorien wieder auf die Erde zurückholt, gleichzeitig aber immer auch seine empirischen Studien zu den gängigen Theorien in Beziehung bringt und Kritik und Anregungen von theoretischer Seite zur Kenntnis nimmt und verarbeitet. Doch nun zurück zu Lester und Machlup. Die Diskussion wurde durch einen kritischen Artikel von Lester im American Economic Review im März 1946 ausgelöst, in dem er auf Grund verschiedener empirischer Untersuchungen die Aussagekraft der gängigen (tlneoklassischen tl ) Marginaltheorie des Arbeitsmarkts l mit ihren Annahmen von Profitmaximierung, fallender Grenzproduktivität und Gleichgewicht am Arbeitsmarkt (Grenzerlös=Grenzkosten) in Frage stellte. Auf diesen, noch relativ unterkühlten Angriff auf die herrschende Theorie folgte im September eine lange und scharfe Entgegnung von Seiten Machlups, in der er Lesters Kritik durch die Bank zurückwies. Dieser ersten Runde folgte im Frühjahr 1947 eine zweite, in der zunächst Lester - nun auch schon etwas gereizt - auf Machlups Einwände antwortete und dieser schliesslich Gelegenheit filr ein Schlusswort aus seiner Sicht erhielt (was vielleicht auf einen gewissen Bias der filhrenden ökonomischen Journale filr die theoretische Perspektive schliessen lässt, der auch heute nicht selten festgestellt werden kann). Im folgenden sollen nun einige Hauptaspekte der Kontroverse gerafft dargestellt werden. Lester beginnt seine Kritik an der mikroökonomischen Marginalanalyse des Arbeitsmarkts mit einer Bemerkung über die Gründe, die ihn zu diesem Schritt veranlasst hatten. Er fi1hrt zwei Gründe an. Der erste betrifft die Diskrepanz zwischen dem, was in den Lehrbüchern steht, wo den Studenten zunehmend kompliziertere Modelle der Profitmaximierung im Rahmen der Angleichung von Grenzerlösen (bzw. Grenznutzen) und Grenzkosten geboten werden, diese aber darüber klagen, dass ihre Eltern überhaupt nicht auf diese Weise agieren. Der zweite Einwand bezieht sich auf die Kluft zwischen Mikro- und Makroanalyse, die sich seit Keynes' Beschäftigungstheorie aufgetan hat. Während in der makroökonomischen Beschäftigungsanalyse Faktoren wie Konjunkturlage, Geld und Finanzierungsbedingungen sowie gesamtwirtschaftliche Erwartungen

I Die Marginaltheorie beherrschte damals mehr noch als heute die theoretische Diskussion. 1953, sieben Jahre nach Lesters Artikel, konnte Fellner mit Recht sagen: "By contemporary distribution theory we presumably mean a qualified marginal productivity theory; that is to say, a combination of the marginal productivity theory with other analytical elements" (Fellner 1953,484).

270

Kurt W. Rothschild

eine entscheidende Rolle spielen, kommen diese in der mikroökonomischen Lohn-Beschäftigungs-Analyse und Lehrbuchliteratur so gut wie gar nicht vor. Während der zweite Einwand einen wichtigen Punkt berührt, der ja auch in Keynes' General Theory zutage trat und der in weiteren Diskussionen bis heute eine Rolle spielt, ist der erste Hinweis - die Diskrepanz zwischen theoretischem Konstrukt und realistischem Prozess - nicht ohne weiteres als Kritik der Theorie akzeptabel. Was diesen Punkt betrifft, der von Lester einige Mal betont wird, wenn er von den praktischen Schwierigkeiten, wenn nicht Unmöglichkeit von Grenzerlös- und Grenzkostenkurvenberechnungen spricht (insbesondere bei limitationalen Produktionsfunktionen und Mehrproduktunternehmen), ist wohl dem Theoretiker Machlup recht zu geben, wenn er sich gegen diesen Einwand verwahrt. Während der Empiriker dazu neigt, die Welt unmittelbar so ~ sehen, wie sie ist, versucht der Theoretiker gewisse grundlegende Zusammenhänge generalisierend zu erfassen und zu "erklären". Das erfordert notwendigerweise eine gewisse Abstraktion von der komplexen und "unordentlichen" Realität. Man muss nicht so weit gehen wie Milton Friedman und die Realitätsnähe von theoretischen Annahmen als völlig belanglos zu erachten, so lange die Theorie gute Prognosen liefert. Eine gewisse Realitätsbezogenheit ist sicher wünschenswert, wenn man der Theorie trauen soll und sie ftlr Erklärungszwecke heranziehen will, aber eine vollkommene Übereinstimmung darf nicht erwartet werden. Im konkreten Fall des Arbeitsmarkts war (und zum Teil ist) die - wie mir scheint in vielen Punkten berechtigte - Kritik Lesters an der herrschenden Theorie zu Unrecht am Marginalprinzip festgemacht. Wie Machlup richtig betont, ist dieses nicht ein Abbild des Handelns realer Akteure, sondern die abstrakte Konstruktion der Folgen ihrer Handlungen. Insofern die hinter der Marginalanalyse liegenden Annahmen von Profitmaximierung als entscheidendes Motiv und fallender Grenzproduktivität als technologischer Tatbestand zutreffen, ist die Marginalanalyse ein logisch zulässiges und brauchbares Instrument der theoretischen Forschung, unabhängig davon, welchen Weg die Firmen tatsächlich zwecks Maximierung der Profite beschreiten. Lesters Kritik des Marginalismus in der Arbeitsmarktanalyse kann daher nur sinnvoll sein, wenn er sich gegen die Annahmen der Dominanz der Profitmaximierung und der Existenz traditioneller Kostenverläufe richtet. Und das ist auch tatsächlich der wichtige Beitrag, den Lester überwiegend leistet, auch dort, wo es scheint, dass er sich gegen die Methode der Marginalanalyse und ihre Realitätsferne wendet.

Theoretiker und Empiriker

271

Lesters Kritik an der im akademischen Bereich vorherrschenden mikroökonomischen Arbeitsmarkt-, Lohn- und Beschäftigungstheorie aus realistischer Sicht ruht auf zwei Beinen. Einerseits konnte er sich auf eine wachsende empirische Literatur berufen, die in den dreissiger und vierziger Jahren in Anschluss an die neueren Entwicklungen der Theorien der monopolistischen Konkurrenz und. des Oligopols sowohl die Theorie der Preissetzung (Profitmaximierung, Markträumung, Konkurrenzgleichgewicht) wie auch die stereotype Annahme eines U-ilirmigen Kostenverlaufs (abnehmende Grenzproduktivitllt) in Frage stellte. Andererseits - und dies stellt den Hauptteil und den originellen Beitrag seiner Studie dar - präsentierte er die Ergebnisse eigener Interviews und Fragebogenerhebungen. Diese Eigenerhebungen betrafen eine grosse Zahl von Fragen an amerikanische Firmen, die sich auf verschiedenste Aspekte der Produktions- und Beschäftigungsentscheidungen beziehen und insbesondere die zu erwartenden Reaktionen auf Änderungen in äusseren Umständen (Änderungen der Löhne und anderer Kosten, der Nachfrage- und Konkurrenzbedingungen, technologische Bedingungen etc.) beleuchten sollten. Hier kann nicht auf das ganze Material und alle Ergebnisse eingegangen werden. Nur in äusserster KUrze - soweit dies ftlr unsere Betrachtung unbedingt nötig ist - sollen im folgenden die wichtigsten Rahmenbedingungen und Ergebnisse dieser Untersuchungen angefllhrt werden. Lester konzentrierte seine Fragen auf kleinere und grössere Unternehmen aus verschiedenen Branchen (Metallverarbeitung, chemische Produkte, Farben, Textil, Bekleidung, Möbel) in den Südstaaten der USA, in denen grössere Lohnunterschiede untereinander, aber vor allem im Vergleich zum Norden der US bestanden. Von Bedeutung war dabei, dass mehrere der grösseren Unternehmungen Betriebe sowohl im Süden wie im Norden umfassten. Angeschrieben wurden 430 Industriefrrmen. Da die Fragebögen sehr umfangreich waren und eine Menge nicht leicht zu beantwortender Fragen enthielten, war die Rücklaufquote begreiflicher- aber auch bedauerlicherweise (was Lester nicht genügend bedauerte!) relativ gering: nur 68 Antworten liefen ein, von denen nur 58 voll verwertbar waren. Die Durchschnittsbeschäftigung in diesen 58 Unternehmen betrug 600 Arbeitnehmer, mit einer Streuung von 25 bis 8.200 Beschäftigten (zuzüglich eines Kleinbetriebs mit 8 Personen). Trotz möglicher Schwächen angesichts ungenügender Repräsentanz sind die Ergebnisse so massiv, dass sie - so meine Meinung - als mögliche Einwände gegen die kritisierte Theorie Gewicht haben, bzw. Gewicht haben sollten. Hier

272

Kurt W. Rothschild

können nur einige der markantesten Ergebnisse angeftlhrt werden, die von Lester in Tabellen und ergänzenden und interpretierenden Texten zusammengefasst werden. Eine erste Gruppe von Fragen und Antworten beschäftigt sich mit der relativen Bedeutung verschiedener Faktoren fUr die Beschäftigungsentscheidung. Den Firmen wurden verschiedene Alternativen vorgegeben (gegenwärtige und erwartete Nachfrage, Lohnhöhe und/oder Lohnveränderungen, andere Kostenelemente, Profitlage und ihre Veränderung, neue Technologien) und sie sollten deren relative Bedeutung (in %) rur ihre Beschäftigungsentscheidung angeben. Das Resultat ist zweifellos ein "starkes": Eine Hälfte der Unternehmen ft.lhrte ausschließlich den Nachfragefaktor (mit 100%) an und auch rur die ·1· .. andere Hälfte stellte er den wichtigsten Einfluss dar (mit einem Durchschnitt von 65%). Löhne (7,6%) und Profite (5,1%) folgen in dieser Gruppe weit abgeschlagen und noch hinter "andere Kosten". Lester vermerkt an einer Stelle kurz - allzu kurz (und Machlup kommt mit Recht darauf zurück) -, dass die verschiedenen aufgezählten Faktoren nicht unabhängig voneinander sind (so können Lohn- und Profitänderungen die Preis- und Absatzlage oder die Technologie beeinflussen), aber angesichts der Durchschlagskraft der Antworten lässt er diesen Faktor dann aus dem Spiel. Hier zeigt sich sicher eine Schwäche überwiegend empiriegeleiteter Untersuchungen, nämlich dass sie in der Auswahl der erhobenen (gefragten) Faktoren und in der Berücksichtigung möglicher Zusammenhänge und Wechselwirkungen, die sich "hinter der Fassade" abspielen, einen gewissen Grad von Beliebigkeit und Interpretationsspielraum zulassen. Nichtsdestoweniger ftlhren die angegebenen Resultate und ihre detailliertere Analyse Lester zu der ernst zu nehmenden und herausfordernden Schlussfolgerung: "It is clear from numerous interviews that most business executives do not think of employment as a function of wage rates but as a function of output" (Lester 1946, 67). In einem zweiten Fragenbündel geht es um den Kostenverlauf in Abhängigkeit vom Produktionsniveau. Die traditionelle theoretische Kostenkurve mit letztendlich steigenden Durchschnitts- und Grenzkosten bildeten seit jeher ein klassisches Element fUr das marginalistische Preis- und Produktionsgleichgewicht auf Konkurrenzmärkten und damit auch fUr das Beschäftigungsgleichgewicht. Seit Sraffa (1926) und den darauf folgenden Arbeiten über unvollkommene Konkurrenz entstanden zunächst theoretische Zweifel an der Generalität dieser Kostenverläufe, die dann durch empirische Kostenstudien erhärtet wurden. Lesters Umfrageergebnisse unterstützen diese Beobachtungen, welche

Theoretiker und Empiriker

273

die klassischen Grundlagen der flexiblen Output- und Beschäftigungsvariationen in Zusammenhang mit Lohn- und Profitänderungen sehr weitgehend modifizieren oder beseitigen2• Von 53 verwertbaren Antworten lauteten 42 (79,2%), dass die Durchschnitts- und Grenzkosten bis zum Niveau einer 100prozentigen Kapazitätsauslastung fallen oder konstant sind und dass die Profite bei diesem Niveau am höchsten sind. Allerdings lässt es auch hier Lester wieder an wünschenswerter Präzision bzw. Skepsis mangeln, da er die Schwammigkeit des Begriffs "Kapazitätsgrenze" nicht genügend berücksichtigt, was ihm Machlup später mit Recht ankreidet. Nichtsdestoweniger steht auch hier diese analytische Schwäche nicht der Plausibilität von Lesters Aussage entgegen, wenn er die obigen Antworten und andere, die in eine ähnliche Richtung weisen, so zusammenfasst: "The present author's interviews with business men indicate that most entrepreneurs do not tend to think in terms of variable cost" (Lester 1946, 72). Vielmehr spielt neben der Nachfrage der Wunsch, die Kapazität (mit technologisch vorgegebenem Beschäftigungsniveau) voll einzusetzen, eine entscheidende strategische Rolle, mit Löhnen in einer bloss sekundären Position. Die Annahme relativer Fixheit der Beschäftigung bei gegebenem Output widerspricht den Annahmen der neoklassischen Produktionsfunktion, d.h. der Möglichkeit, marginale Umstellungen in den Faktorproportionen bei Änderungen in relativen Faktorpreisen durchzufUhren, also - zum Beispiel - die Beschäftigung bei steigenden Löhnen durch Anwendung kapitalintensiverer Technologien zu verringern. Dieser klassischen Annahme relativ hoher Substitutionsmöglichkeiten galt ein dritter Abschnitt von Lesters Einwänden. Hier argumentiert er auf drei Ebenen. Zunächst weist er "grob-logisch-empirisch" darauf hin, dass die häufig anzutreffende Situation beträchtlicher ungenützter Kapazitäten nicht existieren dürfte, wenn Substitution kurz- oder mittelfristig möglich wäre, da in diesem Fall die Grenzkosten eines zusätzlichen Maschineneinsatzes gleich Null sind und - bei Profitmaximierung - sicher zu einer

2 Die "Angst" der Gleichgewichtstheoretiker vor Erkenntnissen dieser Art, welche das diffizile Gerüst ihrer theoretischen Basis bedrohen, kommt sehr krass in einer Bemerkung von Hicks zum Ausdruck, wenn er in seinem klassischen Werk Value and Capital schreibt: "It has to be recognized that a general abandonment ofthe assumptions of perfect competition ... must have very destructive consequences for economic theory .... It is, I believe, only possible to save anything from this wreck ... ifwe can assurne that the markets confronting most of the firms ... do not differ greatly from perfectly competitive markets" (Hicks 1939,83/4).

18 Festschrift Oppen1änder

274

Kurt W. Rothschild

massiven Substitution von Kapital filr Arbeit ftlhren müsste. Der zweite Hinweis betrim die damals wachsende empirische Literatur mit deutlichen Hinweisen auf die Existenz limitationaler Produktionsfunktionen sowie auf die Schwierigkeiten im Fall von Mehrproduktunternehmen, wo Grenzkostenberechnungen rur den Arbeitseinsatz kaum möglich sind. Schliesslich ergänzt Lester auch hier die Hinweise durch eigene Befragungsergebnisse. Deren spektakuläres Resultat ist, dass von 44 Unternehmen, die Betriebsstätten im Norden und im Süden der US hatten und die im Süden filr vergleichbare Arbeitsleistungen im Durchschnitt um 15% (5-30%) niedrigere Löhne zahlten als im Norden, fast alle - nämlich 42 - berichteten, dass sie im Süden die gleiche Technologie verwenden wie im Norden (und nicht, wie es die Substitutionsund Profitmaximierungsannahmen erwarten liessen, arbeitsintensivere Methoden). Was Lester allerdings hier, wie auch anderwärts, vernachlässigt ist das Zeitproblem, doch handelt es sich offensichtlich auch um längerfristig anhaltende Zustände. Ergänzt werden diese Ergebnisse durch Antworten auf eine andere Frage, die erkennen lassen, dass Firmen auf Lohnerhöhungen weit mehr durch Verbesserungen im Management und verstärkte Verkaufsanstrengungen reagieren als durch die Einftlhrung arbeitssparender Maschinen. Dies legt die Vermutung nahe (die Leibenstein später in seiner "dissidenten" Theorie der XIneffizienz aufgriff), dass Unternehmen normalerweise nicht im Bereich der optimalsten (profitmaximierenden) Strategie agieren. In einem Schlussabschnitt konzediert Lester, dass seine Untersuchungen aus verschiedenen Gründen - wie unvollständige Daten und Fragestellungen, Wiedergabe von biossen Meinungen, ungenügende Representativität der Stichprobe - hinterfragt und kritisiert werden können. Er meint aber doch, dass sie genügend überwältigende Hinweise auf das Firmenverhalten enthalten, um ernste Zweifel an der "Gültigkeit" der konventionellen Marginaltheorie und ihrer Annahmen aufzuwerfen. Jedenfalls - so Lester - wären weitere Untersuchungen und Analysen erwünscht. Machlups Reaktion auf diese Kritik war lang und scharf. Unabhängig von der Richtigkeit oder Anfechtbarkeit seiner zahlreichen Bemerkungen - rur beides gibt es genügend Beispiele - sticht die kompromisslose Defensivstrategie zugunsten einer unversehrten Erhaltung des herrschenden Theoriegebäudes und seiner Analysemethoden ins Auge. Soweit Lesters Ergebnisse mit der Grenzproduktivitätstheorie und der Marginalanalyse übereinstimmen oder mit deren Annahmen (wie Machlup mehrmals richtig zeigt) leicht in Übereinstim-

Theoretiker und Empiriker

275

mung gebracht werden können, werden sie ohne weiteres akzeptiert. Wo das nicht der Fall ist, werden mit beachtlichem intellektuellen Einsatz die Erhebungsmethoden und die Ergebnisse in Frage gestellt, werden Antworten uminterpretiert, um in den marginaltheoretischen Rahmen hineinzupassen, oder es wird - wo dies nicht möglich ist - die Marginaltheorie etwas "aufgeweicht", so dass sie auch die (ungeliebten) Ausnahmen verkraften kann. Diese Taktik, welche den ganzen Aufsatz von Machlup durchzieht, soll hier nur ganz grob mit einigen Beispielen skizziert werden. Nach einer einleitenden Darstellung der theoretischen Hintergründe und Modifikationen von Grenzproduktivität, Grenzerlös, Grenzkosten etc. bringt Machlup zunächst seine theoretischen Einwände gegen Lester vor und wendet sich anschliessend methodologischen Fragen zu. Machlup konzediert ohne weiteres, dass Unternehmer nicht tatsächlich irgendwelche Grenzerlöse mit irgendwelchen Grenzkosten vergleichen, um so Profite zu maximieren. Vielmehr ist Profitmaximierung im Resultat äquivalent mit einem Ausgleich zwischen Grenzerlös und Grenzkosten. So weit, so gut. Machlup lässt aber auch gelten, dass die Entscheidungen der Unternehmer häufig (l) unter mangelhaften und unvollständigen Kenntnissen bezüglich der Kosten- und Absatzbedingungen getroffen werden, und (2) durch historische Einflüsse und Zukunftserwartungen beeinflusst werden. Was den ersten Faktor betrim, betont Machlup, dass man "selbstverständlich" nicht von objektiven Grenzerlös- und Grenzkostenkurven ausgehen darf, sondern diese Kurven als subjektive Grössen auffassen muss, so wie sie sich aus den Vorstellungen des Unternehmers ableiten lassen; und was den zweiten Faktor betrim, so neigt Machlup dazu, ihn entweder im Vergleich zum Profitmaximierungsziel herunterzuspielen oder anzudeuten, dass und wie man ihn in das Marginalkalkül einftlgen kann. All das ist zusammengefasst in der Aussage, dass "his (des Unternehmers, K.R.) reasoning or his routine behaviour is most conveniently analyzed in terms of marginal revenue" (Machlup 1946, 525). Dass dies tatsächlich der "angenehmste" und fruchtbarste Weg ist (statt die Verhaltensweisen als solche zu durchleuchten), kann wohl nur den überzeugen, der diese Analyseform um jeden Preis erhalten will oder es verlernt hat, in anderen Kategorien zu denken. Auch Lesters Zweifel an der hohen Substitutionselastizität im Produktionsprozess, welche die Marginaltheorie und ihr Grenzproduktivitätsverlauf voraussetzen, wird von Machlup vehement zurückgewiesen. Nachdem er die Bedeutung fixer Faktorrelationen etwas relativiert hat und mit Recht auf die Bedeutung des Zeitfaktors hinweist, versucht er die traditionelle Lohn-

1S·

276

Kurt W. Rothschild

Grenzproduktivitäts-Beschäftigungsrelation doch auch filr die kurze Periode zu retten, indem er - als Beispiel- anftlhrt, dass Lohnsenkungen in einer Unternehmung mit limitationaler Technologie immerhin dazu filhren könnte, dass man einen zusätzlichen Lagerwächter einstellt, um Diebstähle zu verringern. Was hat das aber mit der Grenzproduktivität und dem Beschäftigungsniveau der Produktionsarbeiter zu tun, deren Löhne gesunken sind? Eine von Machlup verwendete Analogie zeigt vielleicht am besten die Zwiespältigkeit seiner Defensivstrategie. Auf Lesters Hinweis, dass in vielen Mehrproduktunternehmen die Manager gar nicht imstande sein können, Berechnungen durchzufilhren, wie sie die Marginalanalyse (bzw. eine exakte Profitmaximierungsstrategie) erfordern würde, erwidert Machlup, dass dies wohl stimme, dass aber Erfahrung, Gefilhl etc. es ihnen ermögliche, wenn schon nicht exakt, so doch richtungsgerecht zu verfahren. Und als Analogie ftlhrt er das Bild eines Autofahrers ein, der einen anderen Autofahrer überholen will. Um dies erfolgreich durchzuftlhren, wären idealerweise eine ganze Reihe von Berechnungen notwendig, die unter anderem die eigene Geschwindigkeit, die Geschwindigkeit des zu überholenden Fahrzeugs, Entfernung und Geschwindigkeit eines entgegenkommenden Fahrzeugs, Strassenzustand etc. berücksichtigen sollten. Doch der Autofahrer berechnet überhaupt nichts: Erfahrung und subjektive Einschätzung der Situation liegen seinem Überholmanöver zugrunde. Nicht anders -so Machlup - seien die Reaktionen der Manager auf Marktänderungen zu sehen. Was Machlup hier wohl übersieht ist, dass Überholvorgänge keineswegs immer glücken. Eine ernst zu nehmende Studie der Überholproblematik würde zwei Ebenen unterscheiden. Zunächst könnte man mit Hilfe von Daten und Analysen die Voraussetzungen filr einen optimalen, unfallfreien Überholvorgang berechnen, in dem all die oben genannten Grössen (Geschwindigkeiten etc.) möglichst exakt berücksichtigt würden. Das wäre eine "Theorie" der optimalen Überholung. Daneben würde man aber auch sehr genau "empirisch" das tatsächliche Verhalten der Autofahrer untersuchen, die zwar auch unfallfrei überholen wollen, sich aber häufig nicht "optimal" verhalten. Die Optimalanalyse (Marginaltheorie) kann keine "als-ob"-Analyse ftlr die Erklärung des tatsächlichen Geschehens abgeben. Was sie tun kann ist erstens, aufzuzeigen wie sich das "reine" Motiv des unfallfreien Fahrens auswirken würde; sie kann zweitens als normatives Modell filr optimales Handeln (bei gegebener Zielsetzung) angesehen werden; und sie kann drittens als Maßstab ftlr die Evaluierung suboptimalen tatsächlichen Verhaltens herangezogen werden. Sie kann aber

Theoretiker und Empiriker

277

kein Ersatz ftlr ein genaues Studium des tatsächlichen Verhaltens und seiner Hintergründe sein, noch besteht ein Grund, dieses in die Sprache der Optimaltheorie zu übersetzen. In ähnlich umfassend-kritischer Weise wie im analytischen Bereich wendet sich Machlup gegen Lesters methodologische Vorgangsweise. Auf einige berechtigte Einwände bezüglich des Umfangs und des repräsentativen Charakters der Stichproben und des Fragenkatalogs wurde schon hingewiesen. Die Kritik geht aber weit über diese Punkte hinaus. Obwohl Machlup betont, dass er nichts gegen empirische Forschung einzuwenden habe, warnt er eindringlich vor den Gefahren von Gesprächen und Befragungen, die oft durch semantische und terminologische Fallgruben beeinträchtigt sind, und vor einer "naiven" Akzeptanz von "Rationalisierungen" an Stelle von echten Erklärungen. So berechtigt die~e Warnungen (im allgemeinen wie auch im Falle Lesters) sind, so ist es doch merkwürdig, dass Machlup nicht sieht, dass auch in theoretischen Analysen "naive" Annahmen und "rationalisierende" Interpretationen an die Stelle von "echten" Erklärungen treten können.

Was Lesters Untersuchungen im besonderen betrifft, so wirft ihnen Machlup teilweise Unzulänglichkeit, teilweise Fehlinterpretation der Resultate vor. Die Liste der Vorwürfe ist lang und soll hier nur durch einige Beispiele angedeutet werden. Die Antworten der Unternehmer seien insgesamt der Gefahr der "Rationalisierung" unterworfen: Vieles sei vielleicht sehr subjektiv gesehen oder so dargestellt, wie man es gerne gesehen haben will (als "intelligent", "fair" etc.). Die Fragebögen seien daher "hopelessly inadequate" (Machlup 1946, 538), die Antworten auf hypothetische Fragen "alm ost certainly worthless" (544). Auch hier fällt ~uf, dass eine ernst zu nehmende Warnung gegen leichtfertige und unkritische Auslegungen der Resultate zu einer massiven Ablehnung aller Ergebnisse ftlhrt und damit die Abschirmung der verteidigten Theorie gegen widersprüchliche Erscheinungen erleichtert. Neben dieser Generaldefensive gibt es dann eine ganze Reihe von kritischen Bemerkungen und Reinterpretationen zu einzelnen Ergebnissen. Viel Raum widmet Machlup den Ergebnissen, welche auf eine weite Verbreitung von Preissetzungen hinweisen, die mit Durchschnitts- statt Grenzkosten arbeiten und/oder eine Vollkostenmethode anwenden. Machlup präsentiert eine ganze Reihe von nicht unerheblichen Überlegungen über die Rolle des Zeitfaktors, über Anpassungsprobleme, wechselnde Kostenaufschläge, gesetzliche Einschränkungen etc., mit deren Hilfe er diese Preissetzungen und Fixpreise (einschliesslich ihrer Auswirkungen auf Produktion und Beschäftigung) mit

278

Kurt W. Rothschild

den Annahmen der Marginalanalyse und Profitmaximierung in Einklang bringen kann. So interessant und wichtig einige dieser "Uminterpretationen" sind, so fällt doch der vollkommene Mangel einer Bereitschaft auf, diese Strategien als solche zu akzeptieren, die Bedingungen ihres Vorkommens zu untersuchen und eventuell theoretische Konzepte zuzulassen, welche diese nichtmarginalistischen (nicht-profitmaximierenden) Verhaltensweisen besser erklären könnten, wie etwa Anspruchsverhalten, Verhalten bei Unsicherheit, bounded rationality etc. Auch die Empirik hat natürlich Erklärungsdefizite aller Art, aber sie bleibt zumindest prinzipiell offen fUr Ergänzungen und neue Einsichten. Was speziell den Zusammenhang zwischen Grenzproduktivität und Lohn (und Beschäftigung) betrifft, so gibt Machlup zu, dass es keine verlässlichen empirisch-statistischen Studien über die Grenzerlöskurve für eine bestimmte Kategorie von Arbeit in einer Einzelfirma gibt und wegen der Kompliziertheit der Materie (Kostenverläufe, Nachfragebedingungen, Erwartungen) wahrscheinlich auch nicht geben kann. Aber, so fährt Machlup fort, da solche reale Unterlagen fehlen, dürften die Antworten der Unternehmer in den Fragebögen - ihre "Vermutungen" -, die diese Zusammenhänge berühren, kaum "authentischer" sein "than the schedules made up by text book writers for arithmetical illustrations" (Machlup 1946, 548). Merkwürdigerweise führt aber diese Gemeinsamkeit mangelnder "Authentizität" bei Machlup dazu, die der Theorie widersprechenden Aussagen anzuzweifeln, die Theorie selbst aber zu akzeptieren. In ähnlicher Weise vermischen sich auch in anderen Punkten berechtigte kritische Anmerkungen stets mit einer massiven Verteidigung der theoretischen Sichtweise, die um jeden Preis gerettet werden muss. So nimmt es nicht Wunder, dass Machlups Gesamteinschätzung von Lesters Artikel folgendermassen lautet: "I conclude that the marginal theory of business conduct of the firm has not been shaken, discredited or disproved by the empirical tests discussed in this paper" (Machlup 1946, 553). Wo Lester immerhin trotz seiner widersprechenden Untersuchungen nur "ernste Zweifel" an der herrschenden Theorie anmeldete, bekennt der in seiner Meinung gefestigte Theoretiker Machlup, dass er nicht einmal irgendwelche Zweifel zulässt. Diesem ersten Schlagabtausch im Jahre 1946 folgte im Jahre 1947 eine zweite Runde, die aber nichts wesentlich Neues brachte und hier aus Raumgründen nicht näher betrachtet werden soll. Beide Gesprächspartner bekräftigten und untermauerten ihre Argumente durch weitere (empirische bzw. theore-

Theoretiker und Empiriker

279

tische) Details, ohne von ihren Grundpositionen abzuweichen. Zusammenfassend betonte Lester, dass sich der Arbeitsmarkt aus technologischen, sozialen und psychologischen Gründen sowie wegen innerbetrieblicher Besonderheiten und anderen vielfach "nicht-ökonomischen" Faktoren grundlegend von Gütermärkten unterscheidet und dass dies insbesondere ftlr die modeme IndustiegeseIlschaft gilt. Die Beschäftigungsentscheidung unter überwiegender Berücksichtigung laufender und erwarteter Absatzbedingungen läuft in anderen Bahnen als es die Marginalanalyse impliziert. Die Konzentration auf deren Ansatz versperrt den Weg zu vielen Einsichten in die Lohn-BeschäftigungsBeziehungen in einer gegebenen Firma. Dem hält Machlup entgegen, dass Lester keine zusammenhängende Theorie anzubieten habe und bloss zeige, dass Lohnschwankungen infolge anderer Umstände (Kostendegression, Umstellungskosten, Erwartungen etc.) nicht unbedingt Beschäftigungsänderungen nach sich ziehen müssen. All diese anderen Umstände kann aber der Marginaltheoretiker ohne weiteres in seinen Marginalkurven unterbringen. "No trouble at all" (Machlup 1947,154). Nicht nur lege die Marginaltheorie keine Scheuklappen an, sie öffnet einen Spielraum ftlr viele Möglichkeiten. Versucht man die Grundzüge der damaligen Auseinandersetzung mit Blick auf das Thema "Theoretiker und Empiriker" zusammenzufassen, so ergibt sich etwa folgendes Bild. Im Grunde genommen bestand zwischen Lester und Machlup nicht notwendigerweise ein diametraler Gegensatz. Lester betont seine empirischen Ergebnisse, gibt aber zu, dass man in deren Rahmen nicht alles erfassen kann und ein Gerüst ftlr die Zusammenhänge und Querverbindungen brauchen könnte. Machlup doziert zwar streng modell-theoretisch, konzediert aber dann, dass Realfaktoren - ökonomische und ausser-ökonomische -, die im Modell nicht enthalten sind, beachtet und berücksichtigt werden sollten. Es werden zwar verschiedene Perspektiven entwickelt und verschiedene "Sprachen" verwendet, aber dies hätte kein unüberwindliches Hindernis ftlr den Bau von Brücken rur einen fruchtbaren Dialog bedeuten müssen. Statt dessen wurde aber Gewicht auf eine knallharte Konfrontation gelegt, welche die Stärken und Schwächen der unterschiedlichen Ausgangspositionen deutlich in Erscheinung treten lässt. Auf der einen Seite steht der Empiriker Lester, der sehr realistisch die diversen Einflüsse sieht, die tatsächlich am Werk sind, und der versucht, sie möglichst vollständig zu erfassen. Der Mangel einer geeigneten Theorie einschliesslich der Scheu vor zu weitgehender Abstraktion von der konkreten Realität erschwert es ihm aber, hinter die "Oberfläche" der Ereignisse zu schauen. Dieser Theoriemangel bzw. diese Theoriescheu er-

280

Kurt W. Rothschild

schwert den Zugang zur Erkenntnis von manchen Zusammenhängen und kausalen Umwegsketten und behindert auch den Zugang zu einer systematischen Suche nach relativen Einflüssen. Die Methode ist stark in ihrer kritischen Funktion, aber schwächer in der Behandlung genereller Zusammenhänge. Auf der anderen Seite finden wir den Theoretiker Machlup, dem es um eine möglichst umfassende und konsistente Erklärung der Grundzusammenhänge eines komplizierten Geschehens geht. Ein hoher Abstraktionsgrad und die Vernachlässigung vieler realer Einzelheiten ist kein Fehler, sondern Voraussetzung fiir das Gelingen einer solchen Aufgabe. Die Gefahr ist jedoch, dass man - besonders bei kunstvoll ausgebauten theoretischen Modellen - zu sehr ein Gefangener der erarbeiteten theoretischen Kategorien wird und sie auch dort zu verteidigen trachtet, wo sie nicht mehr, oder nur mehr sehr beschränkt anwendbar sind). Die Gefahr, in Irrelevanz abzugleiten, ist immer gegeben, insbesondere angesichts der Schwierigkeit, in den Sozialwissenschaften experimentell vorzugehen. In den fiinfzig Jahren, die seit der Lester-Machlup-Kontroverse vergangen sind, hat sich sowohl empirisch wie theoretisch auf dem Gebiet des Unterneh) Wenn man will, kann man die Bedeutung von Keynes und seiner General Theory aus dieser Perspektive sehen. Die hohe und anhaltende Arbeitslosigkeit der Depressionsjahre passte nicht so recht in das Bild der herrschenden Gleichgewichtstheorie. Diese Diskrepanz konnte nicht übersehen werden und es gab einige Ökonomen, welche der neuen Situation gerecht werden wollten und pragmatisch "unorthodoxe" wirtschaftspolitische Strategien empfahlen, die viel mit dem späteren keynesianischen Instrumentarium gemeinsam hatten (siehe Bombach et al. 1981). Die meisten Theoretiker waren aber überwiegend damit beschäftigt, diese "störende" Arbeitslosigkeit irgendwie in den Rahmen ihrer traditionellen Theorie hineinzuzwängen, in den sie nicht passte. Es war die Leistung von Keynes, dass er gegen diese Strategie revoltierte und einen theoretischen Rahmen suchte, der direkt und nicht auf sophistischen Umwegen das Phänomen anhaltender Arbeitslosigkeit erklären könne. An die Stelle des nutzenmaximierenden Konsumenten setzte er seine "psychologische" Konsumfunktion und den profitmaximierenden Unternehmer und Investor ersetzte er durch den verunsicherten Kapitalisten, der, getrieben von Erwartungen und Ängsten je nach "animal spirits" sein Portfolio in reales Kapital und liquide Mittel aufspaltet. (Eine ähnliche Einschätzung der realorientierten Annahmen der General Theory findet sich bei Gerrard 1995). Man mag zur Keynes'schen Theorie stehen wie man will, bemerkenswert bleibt sein Mut und sein Bemühen, im Angesicht widersprechender Tatsachen nicht mit aller Gewalt an seiner "angestammten" Theorie festzuhalten, sondern nach neuen, relevanteren Konstruktionen Ausschau zu halten.

Theoretiker und Empiriker

281

merverhalten und der Arbeitsmarktprozesse allerhand getan, was sowohl die Methoden und Aussagen Lesters wie die Annahmen Machlups in einem differenzierteren Licht erscheinen lässt. Heute würde die Auseinandersetzung etwas anders aussehen und vielleicht stärkere Überlappungen aufweisen. Aber das grundsätzliche Spannungsverhältnis zwischen Theorie und Empirik - zwischen Theoretikern und Empirikern ~ besteht auch heute in diesen und anderen Bereichen und muss wohl auch bestehen, wenn man die verschiedenen Ausgangspositionen und AufgabensteIlungen der beiden Perspektiven bedenkt. Aber dieses Spannungsverhältnis kann sich in zwei verschiedenen Formen niederschlagen. Es kann zu einer produktiven wechselseitigen Befruchtung und Dynamik fUhren, es kann aber auch in gegenseitigem Desinteresse bis hin zu kritisch-feindlicher Abgrenzung münden. Die Entscheidung, welche der beiden Alternativen man wählen soll, dürfte nicht schwer fallen.

Literatur Bombaeh, G.lNetzband, K.-B./Ramser, H.-J./Timmermann, M., Hrsg. (1981): Der Keynesianismus. Vol.III: Die ge1d- und beschäftigungstheoretische Diskussion in Deutschland zur Zeit von Keynes. Springer: Berlin, Heidelberg, New York. Fellner, W. (1953): Significance and Limitations of Contemporary Distribution Theory. American Economic Review, 43, 484-94. Gerrard, B.(1995): Keynes, the Keynesians and the Classics: A Suggested Interpretation. Economic Journal, 105, 445-58. Hieks, J.R.(1939): Value and Capital: An Inquiry into Some Fundamental Principles of Economic Theory. Clarendon Press: Oxford. Lester, R.(1946): Shortcomings of Marginal Analysis for Wage-Employment Problems. American Economic Review, 36, 63-82. Lester, R.(1947): Marginalism, Minimum Wages, and Labor Markets. American Economic Review, 37, 135-48. Maehlup, F.(1946): Marginal Analysis and Empirical Research. American Economic Review, 36, 519-54. Maehlup, F.(1947): Rejoinder to an Anti-Marginalist. American Economic Review, 37,148-54.

282

Kurt W. Rothschild

Oppenländer, K.H.(1987): Arbeitsmarktwirkungen moderner Technologien, in: Bombach, G./Gahlen, B./Ott, A.E. (Hrsg.): Arbeitsmärkte und Beschäftigung - Fakten, Analysen, Perspektiven. lC.B.Mohr: Tübingen. Oppenländer, K.H.(1991): Fragen der empirischen Wirtschaftsforschung an die Wachstumstheorie, in: Gahlen, B./Hesse, H./Ramser, H.-J. (Hrsg.): Wachstumstheorie und Wachstumspolitik, Ein neuer Anlauf. lC.B. Mohr: Tübingen. Sraffa, P.(1926): The Laws of Returns under Competitive Conditions. Economic Journal, 36, 535-50.

Wie informativ sind Paneldaten? Von Gerd Ronning l

A. Einleitung Dieser Beitrag zur Festschrift befaßt sich mit der Frage, ob die in letzter Zeit immer stärker aufschäumende Euphorie über die Vorteilhaftigkeit von Paneldaten wirklich gerechtfertigt ist. Es ist unbestritten, daß im Vergleich mit der Analyse von reinen Querschnitts- oder Zeitreihendaten die Information umfangreicher ist. Die Frage bleibt dann, ob die Information auch - immer - besser ist. Zu fragen ist ferner, ob die üblichen ökonometrischen und statistischen Methoden angemessen sind. Die vorgetragenen Gedanken erheben nicht den Anspruch, diese Frage umfassend geschweige denn abschließend zu beantworten. Vielmehr soll der Beitrag vor allem auf _die Problematik hinweisen, die nach meiner Ansicht bisher in der Ökonometrie und in der empirischen Wirtschaftsforschung nicht hinreichend gesehen wird. Mir scheint das ein sinnvoller Beitrag zu einer Festschrift zu sein, in der der zu Ehrende an vorderster Front der empirischen Wirtschaftsforschung tätig ist und dessen Institut mit dem Konjunkturtest sowie weiteren Panelerhebungen ein wichtiger Lieferant von Paneldaten ist. In Abschnitt B. gehe ich kurz auf die heute unter dem Schlagwort "Panelökonometrie" verfilgbaren Methoden ein. Dabei steht die Darstellung der Ideen im Vordergrund; auf Formeln wird soweit möglich verzichtet. Ich berichte auch über die in jüngster Zeit diskutierten Probleme bei Verwendung trendbehafteter Mikrodaten. Abschnitt C. befaßt sich unter der Überschrift "Stichprobenaspekte" u.a. mit der Frage, inwieweit nicht eine "Zeitreihe von Querschnitten" bessere Ergebnisse garantiert als die Analyse von Paneldaten. Hintergrund

I Ich danke Stephen Hall rur Hinweise auf eine eigene Arbeit und Literatur zur Kointegration in Panelmodellen.

284

Gerd Ronning

ist die durch die Panelsterblichkeit möglicherweise eingeschränkte Repräsentativität des Panels. Unter der speziellen Überschrift "Innovationsverhalten und Paneldaten" werden insbesondere die Endogenität der Stichprobenziehung und die daraus für die ökonometrische Analyse resultierenden Probleme behandelt, die sich bei der Untersuchung der Bestimmungsgründe von Firmengründungen sowie der Überlebenswahrscheinlichkeit dieser Unternehmen ergeben. Der abschließende Abschnitt D. enthält eine Skizze wünschenswerter weiterer Forschung.

B. Ökonometrische Analyse unter Verwendung von Paneldaten Im folgenden betrachte ich die mit den Symbolen x und y gekennzeichneten Merkmale, deren Beobachtungswerte wie in der Ökonometrie üblich mit Yit und Xit bezeichnet werden. Dabei bezeichnet der Index i die i-te Untersuchungseinheit und der Index t die verschiedenen (äquidistanten) Zeitpunkte. Die Symbolik muß nicht notwendigerweise Paneldaten symbolisieren, da der Index i in verschiedenen Zeitpunkten unterschiedliche Untersuchungseinheiten bezeichnen könnte. Dies wird in Abschnitt C. relevant, in dem Pseudopanels betrachtet werden. Das Symbol T steht für die Anzahl Zeitpunkte und das Symbol nt bezeichnet die Anzahl Beobachtungen im Zeitpunkt t. Für Paneldaten, für die (idealerweise) in jedem Zeitpunkt identisch viele Untersuchungseinheiten zur Verfügung stehen, gilt nt == n und der Index i identifiziert in allen Zeitpunkten identische Einheiten.

J. Lineare Panelmodelle Im hier betrachteten einfachsten Fall, in dem neben der abhängigen Variablen Y nur eine einzige Einflußvariable x betrachtet wird, schreibt man das lineare Regressionsmodell rur Paneldaten üblicherweise wie folgt:

Dabei sind ßl und ß2 die zu schätzenden Regressionskoeffizienten und u bezeichnet den üblichen nicht beobachtbaren Störterm. Ferner bezeichnet v die individuenspefischen Effekte und w die zeitspezifischen Effekte, die alternativ als deterministisch oder stochastisch interpretiert werden können. Im ersten Fall

Wie infonnativ sind Paneldaten?

285

spricht man auch von Dummy-Variablen oder "fixen" Effekten, im zweiten Fall wird das Modell auch als Modell mit stochastischen Effekten oder auch als Varianzkomponentenmodell bezeichnet. In der neueren ökonometrischen Literatur und vor allem in nichtlinearen ",mikroökonometrischen" Modellen (siehe Abschnitt B.II) wird der zeitspezifische Effekt meist unterdrückt und die stochastische Variable v als Modellierung der individuellen "Heterogenität" interpretiert. Wichtig ist, daß (im Fall stochastischer Effekte) der Störterm Eit = Vi+Wt+Uit wegen der über die Zeit konstanten Individualeffekte Vi insgesamt Autokorrelation aufweist, selbst wenn die Störvariablen Uit zeitlich unkorreliert sind, was üblicherweise unterstellt wird. Allerdings ist die Autokorrelation der Störterme Eit fur unterschiedlich weit entfernte Zeitpunkte konstant, während üblicherweise eine mit der Distanz abnehmende Autokorrelation unterstellt wird. Die Schätzung dieses Modells ist heute ökonometrischer Standard.2 Für die folgenden Abschnitte ist noch wichtig darauf hinzuweisen, daß bei Vernachlässigung der zeitspezifischen Effekte das Modell nach Bildung der ersten Differenzen auch wie folgt geschrieben werden kann:

Eine weitere Bemerkung bezieht sich auf die Annahme, daß alle Individuen identische Strukturparameter ßl und ß2 besitzen. Abschnitt B.III behandelt die Frage, ob nicht zunächst individuelle (Kointegrations-)Beziehungen geschätzt und diese dann gemittelt werden sollten. Letzlich wird damit die bereits von Theil in den 50'er Jahren aufgeworfene Aggregationsproblematik individueller Beziehungen in anspruchsvollerem Rahmen neu aufgerollt. Darauf komme ich dem erwähnten Abschnitt zurück. 11. Nichtlineare Panelmodelle Wenn man heute von "ökonometrischen Panelmodellen" redet, dann versteht man darunter meistens nur die "mikroökonometrischen" Modelle fi1r diskrete abhängige Variable. 3 Die Nichtlinearität ensteht dadurch, daß die beobachtbare abhängige Variable nicht normalverteilt ist, sondern beispielsweise

2

Siehe etwa Hsiao (1986).

3

Siehe z.B. Ronning (1991) Kap. 4.5.

286

Gerd Ronning

einem Bernoulliprozeß folgt, etwa wenn es darum geht, die dichotome abhängige Variable "Arbeitslosigkeit" mit den Ausprägungen "y = 1" filr "arbeitslos" und "y = 0" rur" beschäftigt" zu erklären. Dazu könnten beispielsweise die Paneldaten des "Sozioökonomischen Panels" verwendet werden. Dafilr stehen spezielle Probit- und Logitmodelle zur VerfUgung, wobei vor allem bei ersteren die Schätzprozeduren sehr aufwendig sind. 4 Alternativ kann man die Dauer der Arbeitslosigkeit zu erklären versuchen und verwendet dafilr Verweildauermodelle. Da in diesem Fall die Zeitdauer die abhängige Variable ist, ist die Formulierung von Panelmodellen zumindest rur zeitabhängige Einflußvariable bisher nicht befriedigend gelöst. s

111. Kointegration Die Kointegrationsdebatte, also die Diskussion über die Probleme , die sich bei Verwendung von trendbehafteten Daten filr die Schätzung eines ökonometrischen Modells ergeben, hat sich bisher vor allem in der Makroökonomie abgespielt, die das stochastische Verhalten volkswirtschaftlicher Aggregate untersucht. Die ökonometrische Analyse von Mikrodaten fand dagegen bisher vorwiegend auf der Basis von Querschnittsdaten statt, bei der dieses Problem keine Rolle spielt. Die Analyse von Paneldaten verlangt, daß auch Zeitreihenaspekte bei dieser Art von Mikrodaten berücksichtigt werden. Granger und Yoo (1991 S. 282) haben darauf hingewiesen, daß Kointegration der Aggregate nicht notwendigerweise Kointegration der Mikrobeziehungen impliziert. Das hat hat wichtige Konsequenzen rur die Schätzung von Panelmodellen. Ich betrachte dazu nochmals das obige Panelmodell, jedoch jetzt mit individuell variierenden Reaktions-Koeffizienten:

4 Siehe beispielsweise Harnerle und Ronning (1995). Als Schätzmethoden kommen alternativ die "Verallgemeinerte Momentenmetho4e" und Maximum-LikelihoodSchätzung unter Verwendung von Simulationsmethoden in Frage.

S Siehe etwa die Diskussion in Ronning (1996) Kap. 2.5. Man könnte soweit gehen zu behaupten, daß Verweildaueranalyse und Panelanalyse sich gegenseitig ausschließen, weil die Verweildaueranalyse eine zeitkontinuierliche Betrachtung erfordert, die Panelanalyse dagegen zeitdiskrete Modelle unterstellt.

Wie infonnativ sind Paneldaten?

287

Im allgemeinen unterstellt man in Panelmodellen (siehe oben), daß alle individuellen Koeffizienten identisch sind. Nur ft1r diesen Fall ist - im Rahmen eines detenninistischen Modells - Aggregation sinnvoll, wie Theil in den 50'er Jahren gezeigt hat. Wir betrachten nun den allgemeineren Fall unterschiedlicher Koeffizienten. In diesem Fall ist die Schätzung "des Parameters" 132 im Panelmodell nicht mehr eindeutig charakterisiert. Im folgenden wollen wir diesen Parameter als einen - möglicherweise gewichteten - Mittelwert der einzelnen Koeffizienten 132 interpretieren.6 Im Fall stationärer Variablen y und x ist dieser "durchschnittliche" ReaktionskoeffIzient konsistent schätzbar. Pesaran und Smith (1995) haben darauf hingewiesen, daß im Fall von nichtstationären I(I)-Variablen im "gepoolten" Ansatz auch die Residuen nicht stationär sind, weil sie die Regressorvariable x enthalten, und deshalb die Aggregate nicht kointegriert sind. Somit ergeben sich keine konsistenten Schätzungen. Dagegen wäre es möglich, die individuellen Beziehungen zu schätzen und dann das arithmetische Mittel der Parameterschätzungen als Schätzwert zu verwenden. Dies setzt allerdings voraus, daß T, die Anzahl Zeitpunkte, genügend groß ist.

Hall und Urga (1995) haben gezeigt, daß ft1r einen wichtigen Spezialfall auch bei nichtstationären Variablen aus dem Aggregat von kointegrierten individuellen Beziehungen eine sinnvolle Schätzung gewonnen werden kann. Dieser Fall liegt vor, wenn alle exogenen individuellen Variablen durch einen einzigen gemeinsamen nichtstationären Faktor sowie einen individuellen stationären Störtenn bestimmt werden. In diesem Fall ergibt sich im Aggregat eine stationäre Residualgröße. Da Individualdaten oft genug durch einen gemeinsamen Trend dominiert werden, ist dieser Fall ft1r die Praxis sicher relevant. Hall verwendet als Beispiel fInnenspezifIsche Arbeitsnachfragefunktionen, die vom Lohn und den Umsätzen der jeweiligen Firma abhängen. Vor allem die von den einzelnen Firmen gezahlten Löhne dürften stets einem gemeinsamen Trend folgen. Dies kann man beispielsweise mit der JohansenProzedur überprüfen. Allerdings ergeben sich bei einer großen Zahl von Paneleinheiten rechentechnische Probleme. Wohlgemerkt gilt dieses Resultat nur ft1r

6 Alternativ könnte man ein "Random Coefficient Model" unterstellen. Dies bedeutet, daß die individuellen Koeffizienten als Zufallsvariable angesehen werden. So gehen beispielsweise Pesaran und Smith (1995) vor. Im Zusammenhang mit der im folgenden behandelten Kointegrationsproblematik ergeben sich jedoch zusätzliche Probleme bei der Interpretation der "individuellen Kointegrationsbeziehungen."

288

Gerd Ronning

das lineare Modell, nicht aber im Fall nichtlinearer mikroökonometrischer Panelmodelle, wie sie beispielsweise von Hamerle und Ronning (1995) beschrieben werden.

c. Stichprobenaspekte In diesem Abschnitt gehe ich auf einige Aspekte der Panelanalyse ein, die ich unter dem Stichwort "Stichprobenaspekte" zusammenfasse. 7 Darunter verstehe ich die Berücksichtigung des Auswahlverfahrens bei der Speziftkation des stochastischen Modells, das fUr die Datenerzeugung unterstellt wird. BerühmtestesBeispielist das Tobit-Modell, das unter anderem in der Analyse des Arbeitsangebotsverhaltens von Frauen eine wichtige Rolle spielt. Dabei wird die Information, daß Frauen (bei zu hohem Reservationslohn) nicht arbeiten, durch Zensierung modelliert. Wenn man ausschließlich diejenigen Frauen betrachtet, die ein positives Arbeitsangebot aufweisen, dann modelliert man dies durch eine Stutzung der Verteilung (englisch: truncation). Entsprechend spricht man dann von einem zensierten bzw. gestutzten Tobit-Modelle. B Wie wohl zuerst Heckman gezeigt hat, ist es nicht angemessen, die Arbeitsangebotsfunktion durch die Methode der Kleinsten Quadrate zu bestimmen. Dies gilt - fUr manche überraschend - selbst dann, wenn nur die Daten fUr die beschäftigten Frauen in die Schätzung einbezogen werden. Nur wenn ein (MaximumLikelihood-)Schätzer, der auf dem korrekten stochatischen Modell aufbaut, verwendet wird, kommt man zu sinnvollen Schätzergebnissen. Wesentlich ist die Unterscheidung zwischen einem endogenen und einem exogenen Auswahlverfahren In der Stichproben-Literatur fmdet man fUr ersteres auch die Begriffe "informatives Stichprobendesign" oder "nicht ignorierbare Auswahlregel". Ein gutes Beispiel dazu ist das Discrete-Choice-Modell, das die Auswahl zwischen (sich gegenseitig ausschließenden) Alternativen, beispielsweise von verschiedenen Verkehrsmitteln, in Abhängigkeit von erklärenden Variablen untersucht. Oftmals wählt man die Beobachtungseinheiten nicht zufällig aus, sondern in Abhängigkeit von der gewählten Kategorie. Beispielsweise befragt man Personen, die die Straßenbahn benutzen, an der Haltestelle.

7 Siehe dazu die Ausftlhrungen in meinem Handbuchartike1 Ronning (1996). In diesem Aufsatz gehe ich nur stichwortartig auf diese Aspekte ein. S

Siehe Ronning (1991) S. 126.

Wie infonnativ sind Paneldaten?

289

In diesem Fall ist die zu erklärende Auswahl des Verkehrsmittels in das Erhe-

bungsverfahren integriert. Man spricht im Englischen von "choice based sampling". Nur wenn man diese spezielle Erhebungsmethode bei der Schätzung des stochastischen Modells berücksichtigt, gelangt man zu sinnvollen Schätzungen. I. Panelsterblichkeit

Ein filr Panelanalysen besonders wichtiger Stichprobenaspekt ist die Panelsterblichkeit, die im Englischen als "attrition" , also als die Abnutzung bezeichnet wird. Dieses Phänomen ist bei Benutzern von Paneldaten hinlänglich bekannt und muß hier nicht ausführlich dargestellt werden. Die wesentliche Frage ist, ob das Ausscheiden einer Paneleinheit (Person, Firma etc.) als zufiillig angesehen werden kann oder ob das Ausscheiden durch Einflüsse bestimmt wird, die ihrerseits mit der zu erklärenden abhängigen Variablen korreliert sind. Dieser Aspekt läßt sich formalisieren; ich verweise dazu auf die Arbeit von Hausman und Wise (1979). Wichtiger scheint mir der Punkt zu sein, daß das Ausscheiden filr bestimmte zu untersuchende Variable problematisch, für andere dagegen unproblematisch sein kann. Das möchte ich durch ein Beispiel zu illustrieren versuchen: Mit Daten des Sozio-ökonomischen Panels (SOEP) soll einerseits das Arbeitsangebot von Frauen und andererseits die Entscheidung, in eine andere Wohnung umzuziehen, anlysiert werden. Scheidet ein männlicher Single-Haushalt aus dem Panel aus, so wird dadurch keineswegs die Aussage bezüglich des Arbeitsangebots von Frauen, möglicherweise aber die Aussage über das Umzugsverhalten von Haushalten tangiert. Ich möchte in diesem Zusammenhang auf die ausführliche Studie von Rendtel (1995), insbesondere Kapitel 9, hinweisen, der das Problem der Panelmortalität in größmöglicher Breite behandelt hat. 9 Zum von mir angeschnittenen Aspekt schreibt er, daß man " ..... generelle Aussage über die Ignorierbarkeit eines bestimmten Selektionsprozesses nicht machen kann."·o Keineswegs kann man allgemein von "mangelnder Repräsentativität" auf negative Konsequenzen filr die Schätzung eines ökonometrischen Modells schließen.

9 Entsprechende, wenn auch weniger ausführliche Untersuchungen für Finnenpanels finden sich beispielsweise bei Schmidt (1994). 10

Siehe Rendtel (1995) S. 251.

19 Festschrift Oppenländer

290

Gerd Ronning

Das macht die Bewertung der Qualität von Paneldaten natürlich nicht einfacher.

11. Pseudo-Panels Die gerade behandelte Panelsterblichkeit, aber auch die Tatsache, daß oftmals Paneldaten überhaupt nicht zur Vertllgung stehen, hat Deaton (1985) als Argument angeftlhrt, um als Alternative sogenannte Pseudo-Panels vorzuschlagen. Dabei handelt es sich um eine Zeitreihe von Quer,schnitten mit nicht notwendigerweise identischen Beobachtungseinheiten rur die verschiedenen Zeitpunkte. Vielmehr identifiziert man in den zufllllig ausgewählten QuerschnittsStichproben die Zugehörigkeit zu einer bestimmten "Kohorte". Deaton nennt als Beispiel Kohorten, die durch das Geburtsjahr identifIZiert sind. Weitere Merkmale wie Geschlecht oder Geburtsort können hinzutreten. Statt der Individualdaten verwendet man nun die Mittelwerte der einzelnen Kohorten als Beobachtungsdaten. Die durch die Aggregation entstehenden Beobachtungsfehler werden dem Residualterm hinzugeschlagen, der nun aber Korrelation mit den Regressoren oder zumindest mit den zusätzlich zu schätzenden KohortenEffekten aufweist. Eine spezielle, zuerst von Fuller (1975) vorgeschlagene konsistente Schätzprozedur trägt dieser Tatsache Rechnung. Deaton (1985 S. 110) weist darauf hin, daß bei der von ihm betrachteten Methode die Panelsterblichkeit keine Rolle spielt. Vielmehr ist Repräsentativität ft1r jeden Zeitpunkt gewährleistet. Er erwähnt ferner, daß die sogenannte "Rotation" von Panels, wie sie in der gewerblichen Marktforschung üblich ist, dem Vorgehen rur Pseudopanels nahekommt. "Tbe technique discussed here has the advantage of recognizing measurement error from the outset and explicitly controlling for it."11 Allerdings ist dieser Ansatz wohl vor allem ft1r lineare Modelle sinnvoll. Und insbesondere ergeben sich Probleme, wenn dynamische Spezifikationen notwendig werden. Denn die individuellen dynamischen Reaktionen lassen sich nur unbefriedigend durch entsprechende Kohorten-Mittelwerte beschreiben. Eine genauere Diskussion findet sich bei Moffit (1993).

11 Deaton (1985) S. 110.

Wie infonnativ sind Paneldaten?

291

III. Innovationsverhalten und Paneldaten

Besonderer Beliebtheit bei Wirtschaftsforschern erfreuen sich in letzter Zeit Paneldaten, mit denen die Innovationsaktivitäten von Firmen untersucht werden können. 12 DafUr stehen hauptsächlich die beiden folgenden Datenquellen zur Verftlgung: der Innovationstest des ifo-lnstituts 13 sowie das Mannheimer Innovationspanel des ZEW I4 • Wesentlicher Unterschied zwischen den beiden Erhebungen ist, daß der ifo-Innovationstest auf einer regelmäßigen Befragung eines Panels von Unternehmen basiert, während das Mannheimer Innovationspanel eine Unterstichprobe des Datenbestands von "Creditreforrn" darstellt, das Auskünfte über die Bonität von Unternehmen erteilt. Hervorzuheben ist bei der zweiten Erhebung der große Stichprobenumfang und die Berücksichtigung des Dienstleistungsbereichs. Mir geht es in diesem Beitrag keineswegs darum, Vor- und Nachteile dieser beiden Erhebungsansätze zu vergleichen, sondern ich möchte ganz allgemein die Frage zu stellen, inwieweit ein Panel Innovationsaktivitäten beschreiben kann. Der ifo-Innovationstest betrachtet ganz bewußt nur die Innovationsaktivitäten innerhalb bestehender Unternehmen. Aussagen über die Gründung neuer Unternehmen und das Scheitern bereits bestehender Unternehmen bzw. die Lebensdauer von Unternehmen sind damit von vornherein ausgeschlossen. Andererseits ist solch eine eingeschränkte Betrachtungsweise im Rahmen einer Panelerhebung eher möglich, als wenn man Gründung und Scheitern von Unternehmen in die Betrachtung der Innovationsaktivitäten mit einbeziehen will. Dieses Untersuchungsziel ist wichtig und wird von den Initiatoren des ZEW-

12 Die Liste der dazu veröffentlichten Arbeiten ist zu lang, um hier referiert werden zu können. Stellvertretend rur alle relevanten Publikationen nenne ich die Arbeit von König und Zimmennann (1986), die die ifo-Daten verwendet. 13 Eine Beschreibung dieser Erhebung findet sich beispielsweise in Oppenländer und Poser (1989), Kapitel 3. Auch der Konjunkturtest erhebt durch Sonderfragen die Innovationsaktivitäten in den einzelnen Unternehmen. Siehe Oppenländer und Poser (1989)

S.134.

14 Die Bezeichnung dieser Erhebung ist nicht einheitlich: Neben der hier benutzten und von Georg Licht in einem Vortrag (22. März 1996) in Frankfurt verwendeten Bezeichnung wird die Erhebung auch "Unternehmenspanel" genannt. Für eine Beschreibung siehe Stahl (1991) sowie Harhoff, Stahl und Woywode (1995) Appendix B.

19·

292

Gerd Ronning

Panels auch konsequent verfolgt. 15 Streng genommen ist dann eine Panelanalyse, d.h. eine wiederholte Erhebung bei identischen Beobachtungseinheiten über mehrere Zeitpunkte hinweg, ausgeschlossen. Aus dem Stichprobenaspekt heraus könnte man überspitzt sagen, daß, soweit es das Scheitern von Unternehmen angeht, jetzt die Panelsterblichkeit zum Hauptuntersuchungszweck wird. Damit wird das Instrument der Panelanalyse fraglich, soweit es diesen Untersuchungszweck betrifft. Vielmehr müßte eine multivariate Analyse von Geburts- und Todesprozessen durchgeführt werden. 16 Entsprechende operationale Ansätze liegen dazu meines Wissens jedoch noch nicht vor. Stahl (1991) berichtet ferner davon, daß ausscheidende Firmen durch Neugründungen ersetzt werden. 17 Dies entspricht nicht der Rotation, wie sie üblicherweise verwendet wird. Denn nun werden "abgestorbene" durch "noch lebende" Unternehmen ersetzt. Mehr noch: Es ist nicht mehr nachvollziehbar, welches Stichprobenmodell nun in einem Panelmodell verwendet werden sollte. Der Deutlichkeit halber und um Mißverständnissen vorzubeugen möchte ich hinzufilgen, daß die bisher vorliegenden Untersuchungen, die das ZEW-Unternehmenspanel verwenden, die Paneleigenschaft von Firmen nicht unterstellen bzw. ausnutzen. Siehe etwa die Arbeit von König und Licht (1995), die auch die möglicherweise unterschiedliche Antwortbereitschaft innovativer und nichtinnovativer Firmen und die daraus filr die Schätzung entstehende Verzerrung berücksichtigen.

D. Abschließende Bemerkungen Wie bereits eingangs erwähnt, versteht sich dieser Beitrag keineswegs als umfassende und ausgereifte Arbeit. Vielmehr geht es mir darum, eher stich-

15 Siehe dazu beispielsweise Harhoff, Stahl und Woywode (1995) S. I: "In the empirical part of the paper we analyze determinants of firm survival and growth.". In dieser Arbeit wird allerdings eine reine Querschnittsanalyse durchgeftlhrt, d.h. der Pane\charakter bleibt unberücksichtigt. 16

Siehe etwa Lawless (1982).

17 "Das Panel ist rollend in dem Sinne angelegt, daß Stillegungen von Unternehmen durch Unternehmensneugründungen ersetzt werden." (Stahl 1991 S. 736). Eine Möglichkeit zur Identifikation von Neugründungen , die auch von Stahl (1991 , S. 737) diskutiert wird, besteht in der Auswertung der Datei der abhängig Beschäftigten. Siehe dazu beispielsweise die neue Arbeit von Fritsch (1996).

Wie infonnativ sind Paneldaten?

293

wortartig einige bisher kaum berücksichtigte Probleme aufzuzeigen, die sich bei der Verwendung von Paneldaten in ökonometrischen Modellen ergeben. Insbesondere stellt die angemessene Berücksichtigung von Stichprobenaspekten eine Herausforderung an ökonometrische Modellbauer dar, der sie sich mehr als bisher stellen sollten. Spezielle Probleme ergeben sich bei der Analyse der Innovationstätigkeit von Unternehmen bezUglich Gründungsverhalten und Lebenszeit. Hier scheint mir die traditionelle Batterie von Panelmodellen nicht mehr sinnvoll anwendbar zu sein. Daneben könnte sich die in allerjÜDgster Zeit diskutierte Kointegrationsproblematik bei Panelmodellen als zusätzliche Hürde herausstellen.

Literatur Deaton, A. (1985): "Panel Data From Time Series of Cross-Sections ". Journal of Econometrics 30, 109-126. Fritsch, M. (1996): "New Finns and Regional Employment". Small Business Economics 9 (erscheint in Kürze). Fuller, W.A. (1975): "Regression Analysis for SampIe Survey". Sankhya Series C 37, 117-132. Granger, C.W.lYoo, S. (1991): "Cointegrated Economic Time Series: An Overview and New Results". In: Engle, R.F.I Granger, C.W. (Herausgeber): "Long-Run Relationships. Readings in Cointegration". Oxford University Press: Oxford, 237-266. Hall, S.lUrga, G. (1995). "Stochastic Common Trends and Long-Run Relationships in Heterogeneous Panels". Discussion Paper No. DP 27-95, Centre for Economic Forecasting, London Business School, September 1995. Hamerle, A./Ronning, G. (1995): "Panel Analysis for Qualitative Variables". In: G. Arminger, G.lClogg, C.C.lSobel, M.E. (Herausgeber): "Handbook of Statistical Modeling for the Social and Behavioral Sciences". Plenum Press: New York, 401-451. Harhoff, D.lStahl, K.lWoywode, M. (1995): "Growth and Exit of West Gennan Finns - An Empirical Investigation on the Impact ofLiability Statutes". ZEW Discussion Paper No. 95-15 (Industrial Economics and International Management Series). Hausman, J.A.lWise, D. (1979): "Attrition Bias in Experimental and Panel Data: The Gary Income Maintenance Experiment". Econometrica 47,455-473. Hsiao, C. (1986). Analysis ofPanel Data. Cambridge University Press: Cambridge.

294

Gerd Ronning

K6nig, H./Licht, G. (1995): "Patents, R & D and Innovation". ifo-Studien 41 (1995), 521-543. K6nig, H./Zimmermann, K.F. (1986): "Innovations, Market Structure and Market Dynamics". Journal ofInstitutional and Theoretical Economics 142, 184-199. Lawless, lF. (1982). Statistical Models and Methods for Lifetime Data. New York: Wiley. Moffit, R. (1993): "Identification and Estimation of Dynamic Models With a Time Series ofRepeated Cross-Sections". Journal ofEconometrics 59, 99-123. Oppenländer, K.H./Poser, G. (1989): Handbuch der Ifo-Umfragen. Duncker & Humblot, Berlin. Pesaran, M.H./Smith, R. (1995). "Estimating Long-Run Relationships From Dynamic Heterogeneous Panels". Journal ofEconometrics 68,79-113. Rendtel, U. (1995): Lebenslagen im Wandel: Panelausfälle und Panelrepräsentativität. Campus: Frankfurt. Ronning, G. (1991): Mikroökonometrie. Springer-Verlag: Berlin. Ronning, G. (1996). "Ökonometrie". In: B6rsch-Supan, A./von Hagen, J./Welfens, P.J.J. (Herausgeber): "Handbuch der Volkswirtschaftslehre. Band I", SpringerVerlag:Berlin, 17-133. Stahl, K. (1991).' "Das Mannheimer Unternehmenspanel: Konzept und Entwicklung". Mitteilungen aus der Arbeitsmarkt- und Berufsforschung 24 , 735-738.

Micro-Level Tests for Rational Expectations in South Africa By Daniel J. Marais, Eon vdM Smit and Willie J. Conradie

A. Introduction In the process of constructing microfoundations of macroeconomic theory it is required that entrepreneurial behaviour in a dynamic economic environment is investigated. Business survey data, such as that of the Bureau for Economic Research (BER) at Stellenbosch, offer an unique opportunity to accumulate empirical evidence on expectation formation and decision-making patterns at a micro-Ievel. Such empirical evidence allows the verification of related microand macroeconomic theories in a manner distinctly different to that normally obtained from aggregated data analyses of economic behaviour. This study investigates entrepreneurial expectations formation along the lines of the rational expectations hypothesis. The next section provides abrief overview of the hypothesis while a third section deals with measures of forecasting performance within the framework of contingency table analysis. This is followed by a fourth section which deals with the data used and methods followed, while the results are presented in a fifth section, followed by a conclusion.

B. The rational expectations hypothesis According to Begg (1982: xi): "The Rational Expectations Hypothesis asserts that individuals do not make systematic mistakes in forecasting the future." It is an economic view very similar to that of the classical economists. In essence it claims that (i) people make the best possible use of the information

296

Danii!1 J. Marais, Eon vdM Smit and Willie J. Conradie

available to them, and that (ii) prices and wages are sufficiently flexible so that the market always clears. The rational expectations hypothesis (REH) was introduced by Muth (1961: 316) who summarised the underlying ideas in these often quoted phrases: "... expectations, since they are informed predictions of future events, are essentially the same as the predictions of the relevant economic theory" and (1961: 316) "... that expectations of firms (or, more generally, the subjective probability distribution of outcomes) tend to be distributed, for the same information set, about the prediction of the theory (or the 'objective' probability distribution of outcomes)". The essentials ofthe REH, mentioned above, are stated rather vaguely. Shaw (1984: 58) draws the attention to the distinction between what is considered to be a 'stronger', and a 'weaker' level of interpretation of the theory: "Whilst it is the strong Muthian version of the theory which has dominated academic discussion and generated the major implications and policy conclusions, other weaker statements of rational expectations formation have influenced popular debates. At one extreme, for example, the statement is taken to imply no more than that economic agents will form expectations optimally by taking all available information into consideration where 'availability' is defmed with respect to cost. Such a statement amounts to little more than the belief that agents are utility maximisers." ... "At a somewhat stronger level, ... rational expectations formation amouots to an assertion that economic agents will leam to eliminate systematic expectational errors, and this version carries far greater implications for the conduct of macro-economic policy". The REH has certainly proven to be controversial. The basic assumptions of unbiased forecasts (no systematic error), and flexible prices and wages (clearing markets) have come under intense scrutiny by the Neo-Keynesian movement, and outright rejection by some Post-Keynesian fundamentalists. Some proponents recognise the limitations of the REH (see Pesaran (1987», while others like Lucas (1980), Begg (1982) and Sargent (1983) state that even Keynes recognised the importance of uncertainty and expectations in macroeconomics but lacked the technical tools to develop his insights. A new approach is to argue for "exploration rather than confrontation" (Wren-Lewis (1985» in order to encompass the REH in a more general Keynesian framework (see Gerrard (1994».

Micro-Level Tests for Rational Expectations in South Africa

297

In order to test the REH a variety of properties of the theory have been transformed into testable format. It is possible to condense the variety of tests into basically four different tests. Sheffrin (1983) summarised by stating that the theory requires tests for (i) unbiasedness, (ii) efficiency, (iii) forecast error unpredictability, and (iv) consistency. I. Unbiasedness Let the variable V I_kll indicate the reported expectation for variable VI in period t made in period (t-k). It is common to hypothesise that an expectation of a particular variable is an unbiased predictor ofthe variable. A regression ofform: (1)

according to such a hypothesis, should yield the coefficient estimates a = 0, b= 1,andE(gJ=O. The stochastic element, Et, in the equation should be uncorrelated with the expected value VI-kll' If that is the case, then Et must be correlated with the actual realisation, VI' Hence, the variance of V I is larger than the variance of V I-kll' If expectations are formed rationally, it means that: (2)

Thus, the error term is really the difference between the eventual realisation and expectation of the variable. For expectations to be rational in the Muthian sense, it is a necessary, but not sufficient condition, that the property of unbiasedness is not rejected. 11. Efficiency Efficiency implies that the past history of the variable is utilised when forming the expectation, in the same way as the variable would evolve through time. In the following two regressions: (3)

Daniel J. Marais, Eon vdM Smit and Willie J. Conradie

298

(4)

the REH requires that ~ = b i for all i. If the REH were to be a true representation of reality, one would expect St and Tlt to be identically distributed. In order to eliminate the precondition that the error tenns in these two equations are to be identically distributed, Mullineaux (1978) proposed that (4) be subtracted from (3) to yield: (5)

This relationship does not require homogeneity of variance, only independence. The one-Pi~ri()P forecast error of a particular variable is now related to its recent history. The null hypothesis, Ho : (~ - bi) = 0 is then tested for all i. Note that infonnation required in equation (5) is limited to the history ofthe particular variable only. Rejection of the null hypothesis does not imply that there does not exist an alternative set of infonnation which could be used to reduce the forecast error. The efficiency test is also.referred to as the test for orthogonality. A special case of the orthogonality property of the REH, which is related to the above Mullineaux proposal as expressed in equation (5), is that the expectation errors are serially uncorrelated with mean zero. Evans and Gulamani (1984) proposed a test for serial correlation which is based on the regression of the forecast error et (as specified in equation (2» on its past values. This is estimated by: n

EI+1 = LdjEt-i j=O

+Ut

for which the null hypothesis,

Ho : d; = 0, is tested for all i.

111. Forecast error unpredictability In order to eam the distinction of full rationality, the prediction error of the expectation must be uncorrelated with the entire set of infonnation that is available to the respondent at the time the prediction is made. This will be a sufficient condition for the rationality concept. It will resemble the statistical concept of a 'sufficient estimator', which may be loosely defined as an estimator that utilises all the available infonnation in the sampie.

Micro-Level Tests for Rational Expectations in South Africa

299

This requirement implies, amongst others, that the prediction error of a variable has to be uncorrelated with historical information on prior realisations of that particular variable (as required in equation (5». This is generally referred to as the weak version of the REH. The strong version requires that all other variables that might be known to have an effect on the predicted variable, at the time of prediction, also have to be uncorrelated with the prediction error. This is normally not determinable when testing the REH against survey data, and investigators generally revert to testing the weak version. IV. Consistency When forecasts are made for a particular variable at different points in time, then the forecasts should be consistent. In the following regressions: (6) (7)

the REH requires that Ci = ~ for all L Assuming that this is the case, then subtracting (7) from (6) yields: Vt-Jlt - Vt-2lt

=al( Vt- l -

Vt-2It-I)+( 9t -rot)·

(8)

which is the well-known error-Iearning model. These tests might appear to differ, yet they are merely alternative tests ofthe properties of conditional expectations. For example, if a\ "# b h but all other coefficients in equation (5) are zero, then: Vt - Vt-Jlt

=(al -

bl)Vt-J

(9)

and according to equation (2) the difference between the expected and realised values forms the prediction error. Thus, if a\ "# b h then the prediction error is correlated with the previous realised value of the variable, and is therefore biased. In other words, the orthogonality property of conditional expectations is violated as long as Vt-\ is contained in the information set. It can therefore be concluded that the unbiasedness and orthogonality tests are actually equivalent. It would be desirable for expectation mechanisms to survive at least one of the above-mentioned four tests. However, conditional expectations, Le. condi-

300

Danii!l1. Marais, Eon vdM Smit and Willie 1. Conradie

tional on all information available at the time of the forecast, must satisfy all four properties.

c. Measures of forecasting performance The four tests described above are appropriate when quantitative expectations data are available. However, the survey data of the BER, which will be utilised for testing the REH in expectations formation by the South African manufacturing industry, is qualitative in nature. The conventional tests for unbiasedness and orthogonality, described above, can therefore not be used. Instead the analytical measures developed by Kawasaki and Zimmermann (1986) have been adopted. Whereas nearly all empirical studies of the REH have been done with time series and regression analysis on aggregated survey data, the KawasakiZimmermann approach provides a method of studying expectational phenomena at a micro-level. Frequencies of individual fmns' expectations and realisations of specific variables are noted in a contingency table cross-classified by prediction and realisation. The terms 'prediction' and 'forecast' will be used interchangeably with expectations. Kawasaki and Zimmermann (1986: 1336) stressed the importance of testing expectational behaviour at the micro-level using the following simple example: "Suppose that the whole industry consists of two homogenous groups, each of which contains the same number of producers. The first group predicts, say, 10% increases in their selling prices, while the prices decrease by 10%. The second group does exactly the opposite. Therefore, the prediction is totally wrong at the micro-level. However, the prediction after aggregation turns out perfectly correct. Although this is an unlikely case, such an aggregation problem certainly persists in reality to some extent." Kawasaki and Zimmermann (1986) followed the Theil (1958, 1966) proposals for a system of measures for qualitative expectations ~hich are based upon cross-classified tables of prediction and realisation data. In these tables a reported increase (prediction or realisation) is indicated by a '+', no change in the variable by a '=' and a decrease by '-'. The relative frequencies ofprediction and realisation for individual fmns can be summarised as follows in the cells of the contingency table:

Micro-Level Tests for Rational Expectations in South Africa

301

Table 1

Realisation

+ + Prediction

f(+,+)

f(+,=)

f(+,-)

f(=,+)

f(=,=)

f(=,-)

f(-,+)

f(-,=)

f(-,-)

The sum of the relative frequencies in the diagonal from f(+,+) through f(=,=) to f(-,-) indicates the proportion ofpredictions that tumed out to be correct. The proportion of incorrect predictions (labe lied EE) is therefore measured by: EE=I-[f(+,+)+f(=,=)+f(-,-)] .

(10)

Theil also proposed a measure of overestimation of level (labelIed OEL) which is the proportion of predictions with levels greater than the realised levels: OEL = f( +,=)+ f( +,-) + f( =,-) .

(11)

Similarly, a measure of underestimation oflevel (labe lied UEL) is defmed by: UEL = f( =,+)+ f( -,+)+ f( -,=) .

(12)

The bias of prediction can also be measured by considering changes as opposed to level. A measure of overestimation of change (labelIed OEC) indicate the proportion of predictions which are exaggerative, i.e. changes were predicted but none occurred: OEC = f( +,=)+ f( -,=) .

(13)

The measure for underestimation of change (labe lied UEC) is the sum of relative frequencies indicating conservative prediction, i.e. no changes were predicted but some actually occurred: UEC = f( =,+) + f( =,-) .

(14)

Kawasaki and Zimmermann (1986) formulated bias indices (labelIed BL and BC) for the Theil measures of level and change as folIows:

302

Daniel 1. Marais, Eon vdM Smit and Willie 1. Conradie

BL =+-(O_E_L_-_U_EL-f-) (OEL+ UEL)

(15)

and BC =+-(O_E_C_-_U_EC-f-) (OEC+ UEC)

(16)

Note that Kawasaki and Zimmennann (1986) refer to these measures as BI and B2 respectively. However, in order to enhance adoptability of the two measures, the references to level and change are preserved here. These parameters are reminiscent of the defmition of the Goodman-Kruskal gamma coefficient for two-way contingency tables. The indices BL and BC provide simple measures of the direction of bias; they measure the degree of overestimation relative to underestimation out of the total bias. A value of '+ l' indicates no underestimation and only overestimation, while a value of '0' indicates balanced proportions of overestimation and underestimation, and a value of '-1' indicates total domination by underestimation .. Since predictions and the associated eventual realisation for individuals can vary, it is appropriate to consider statistical properties of the above measures. Assuming multinomial sampling for the trichotomous prediction and trichotomous realisation, which fix the total number of observations, then the maximum likelihood estimators of the (relative) frequencies are exactly the observed sampie (relative) frequencies. Since the forecasting measures are all well-conditioned functions of the relative frequencies, the calculated (sampie) forecasting measures are just the maximum likelihood estimators of these measures. The estimators are therefore consistent and asymptotically nonnal. The asymptotic variance of a measure (M) is then detennined by, either using the 5-method (see Bishop et al. (1975) and Agresti (1984) or by calculating it from: (17)

where f is the vector of relative frequencies which appear in the crossclassified table, and L is the 9 x 9 asymptotic covariance matrix of the estimators of the relative frequencies. (Kawasaki and Zimmennan (1986)). The covariance matrix is detennined by:

Micro-Level Tests for Rational Expectations in South Africa

303

where -

the indices i, i',j, andj' can each take values 1,2, or 3 for '+', '=', and '-' respectively;

-

indices i and i' are used for prediction, while j and j' are used for realisation in the original cross-classified table of relative frequencies;

-

indices i and j are also used to indicate the rows of

L

while i' and j' in-

dicate the columns; -

N is the total number of observations;

-

fij is a relative frequency; and

-

the tenns 5ij take on values of 1 when i = j, and 0 when i j.

"*

Besides Kawasaki and Zimmennann (1986) who used the BL- and BCmeasures on the Gennan IFO survey data, it has also been applied with success by Buckle et al. (1990) and Buckle and Meads (1991) on the New Zealand survey data, which are very similar to that of the BER.

D. Data and method Since it is so difficult to detennine how much additional infonnation is needed for individual frrms to be able to fonn their expectations rationally, only the weak fonn tests of unbiasedness and orthogonality on previous realised values ofthe particular variable are considered here.The unbiasedness test can be applied on qualitative data without further ado. The cross-classified table of prediction and realisation, described earlier, already represents the structure of forecast errors. If the forecasts are unbiased, the relative frequency patterns in the off-diagonal cells in the table should not be systematically biased over time. Consistent bias would violate the unbiasedness property of the hypothesis. The BL and BC-measures defmed above can be used to measure systematic biases from the diagonal cells; the hypothesis can be rejected if either BL or BC is consistently biased over time. Kawasaki and Zimmennann (1986) made use of the proposals by Mullineaux (1978) to refonnulate the orthogonality test (equation (5».

304

Danii!l J. Marais, Eon vdM Smit and Willie J. Conradie

Mullineaux did not intend it to be used on qualitative survey data, but the refonnulation provides an opportunity to apply it with a fair amount of ease. According to the orthogonality property of the hypothesis, the prediction error (Vt - Vt-1IJ is not systematically related to the past history of the variable. In order to test this property, it is necessary to construct a new variable referred to as a 'surprise' (denoted here by SJ. The above-mentioned prediction-realisation table is utilised to detennine the various elements of the one-period surprise, St. A surprise is considered positive (indicated by a '+' in the table) when a particular variable realises at a higher level than has been expected. The opposite would yield a negative surprise (indicated by a'-'). Expectations which are subsequently realised are equated on the diagonal. The surprise table is then constructed·(witb derived changes indicated in the cells ofthe table) as follows: Table 2 Realisation

+ Prediction

+

I: I~ I-I

Thus, the new variable, St, is also trichotomous like the rest of the survey data, and it can be constructed for any variable in the BER survey data for each individual response. Since the BL- and BC-measures provide indications of systematic biases, Kawasaki and Zimmennann (1986) suggest that it should be used to test the orthogonality property as weil (similar to the way it is applied for the unbiasedness test). A contingency table relating the surprise, St, to the one-period lagged change in the variable, Vt- io is constructed and used for estimating the BL- and BC-measures. However, there is a problem with this application of the BL- and BCmeasures. The null hypothesis for the unbiasedness test evaluates the error bias when a direct relationship between the expected value and subsequent realisation of a variable is anticipated. In the Mullineaux version of the orthogonality test, the null hypothesis anticipates no correlation between the surprise and the one-period lagged change in the variable. The structure of the BL- and BCmeasures is such as that it can only be used to detennine the pattern of fre-

Micro-Level Tests for Rational Expectations in South Africa

305

quencies (or predictions) of cells which do not appear on the diagonal relating the positive predictions to positive realisations, and the negative predictions to negative realisations. Tbe null hypothesis for the orthogonality test anticipates that the majority of the observed and calculated frequencies (or probabilities) will appear in the diagonal cells. Tbe BL- and BC-measures will therefore be of limited use in this case; it can really only be used to evaluate the error bias appearing in equation (5). A more reliable method of testing the orthogonality property would be to estimate the Goodman-Kruskal gamma coefficient for the contingency table relating the surprise, SI' to the one-period lagged change in the variable Vt-l. Tbe asymptotic standard deviation of gamma can also be estimated from the information in the table, and the associated probability estimated for testing significance. A significant non-zero gamma coefficient will provide the evidence to reject the null hypothesis for the orthogonality property. Tbis approach was proposed by Buckle et al. (1990). Despite the fact that the BL and BC-measures are not used to evaluate orthogonality (the Goodman-Kruskal gamma coefficient will fulfil that purpose), they are also estimated and reported as an indication of error bias. Besides measuring systematic biases, the forecasting performance can also be evaluated by comparison with some naive forecasts. A simple method of generating naive predictions is to assurne that the future value of a variable will be equal to the most recent realisation, Le. Ho : VI - VI_I = O. Tbis is referred to as static expectation formation, and needs to be distinguished from the REH for wh ich the unbiasedness test null hypothesis is Ho: VI - VI_III = o. Tbe proportion of incorrect predictions (EE) of such static expectations can be calculated similarly to that of observed predictions and realisations. In this study the Static Expectations Hypothesis is included to provide a contrast background for the REH. Tbe data for the various BER surveys are accumulated by means of business questionnaires. Tbe surveys are based upon the "Konjunktur Test" approach that has been developed by the IFO Institut rur Wirtschaftforschung, München, and which has been utilised to monitor the economy ofthe Federal Republic of Germany since November 1949. Tbese surveys have a longitudinal character as they monitor individual responses over time and are constructed to be tendency surveys rather than opinion or market research surveys.

20 Festschrift Oppenländer

306

Daniel 1. Marais, Eon vdM Smit and Willie 1. Conradie

Tbe qualitative responses in the BER surveys reflect trends rather than measurable quantities. Tbe respondents are asked to compare current business activities (including plans) with that ofthe corresponding period a year ago and they are requested to reply either "up", "same" or "down". Normally the answers to the questions are quantified by balancing the "ups" and "downs" and reporting the differences in apercentage format. When collated over time, the surveys form a qualitative time series with a longitudinal character and statistically analytical information. Tbe BER manufacturing survey data seems to be more comprehensive than most encountered in literature; it considers not only expectations and realisations of selling prices, costs of raw materials, labour costs, employment, output and stocks of fmished goods, but also demand for products, stocks of raw materials, unfilled orders and hours worked. Two distinct phases in the economic cycle were identified; an expansion period from the second quarter of 1986 to the frrst quarter 1989, and a recession phase from the second quarter 1989 to the fourth quarter 1991. Tbe phases can also be subdivided to examine quarterly data, in order to test for consistent biases. However, the number of quarterly records available is often not sufficient to conduct tests which yield significant results in the various main sectors. Tberefore, the data will be grouped for separate investigations ofthe expansion and recession phases, as weil as for the full cycle. One serious limitation in the current data set is the fact that expectations and realisations are recorded for individual establishments for one-period intervals only. If the history of parameters extending two and more periods in the past need to be examined in the orthogonality test, the number of consistent respondents diminishes markedly. Too many records are lost that way to warrant good test results from which proper conclusions can be made. Tbe orthogonality test is therefore conducted such that the null hypothesis associated with equation (5) is reduced to Ho : (al - b l) = O. In the following sections the rationality of predictions on sales volume, production volume, orders received, unfilled orders, stocks of fmished goods, general business conditions in their individual sectors, number of factory workers employed, average hours worked per factory worker, the rate of increase in average total cost and selling price per unit of production are tested.

Micro-Level Tests for Rational Expectations in South Africa

307

E. Results All the respondents in the BER manufacturing industry survey were pooled and analysed over the expansion phase, recession phase, and the full economic cycle. Tbe results are presented in Tables 1,2 and 3. In the expansion phase the estimated measures are all significant at a 10% level, i.e. the null hypotheses Ho: J.1 = 0 (J.1 representing any one of the measures reported in Table 1) are rejected at levels markedly lower than a 10% level of significance (associated probabilities p < 0,1). Except for six cases in the recession phase which have associated probabilities larger than 10% (e.g. Ho : BL = 0 in the unbiasedness test for stocks of fmished goods is rejected at a 50,5% level of significance (p = 0,505», the various measures are generally non-zero at a 10% level of significance. In the full economic cycle four instances of associated p > 0,1 occur, again indicating that the null hypotheses Ho : J.1 = 0 are generally rejected at significance levels below 10%. I. Static expectations Contrary to what would be anticipated, the static expectations are (consistently) slightly more accurate than the corresponding expectations formed by the entrepreneurs (smaller prediction error). Tbis is a surprising result and exactly the opposite to the results obtained by Kawasaki and Zimmennann (1986). It can probably be ascribed to the political instability which plagued the South African economy right through the particular expansion and recession phases considered here. Tbis appears to confmn the notion that a stable political and economic environment is conducive to reliable and consistent expectation fonnation by entrepreneurs at the micro level. Tbe South African evidence seems to indicate that exogenous variables can have a detrimental impact on expectation fonnation in endogenous variables. Odd as it may seem, in times of economic instability, it is probably better to rather forecast according to the static method, which assurnes that current changes are going to persist; the probability of encountering an error is lower than for the case where expectations are fonned according to some complicated (rational) method.

308

Danil!1 J. Marais, Eon vdM Smit and Willie 1. Conradie

11. The unbiasedness test Considering the BL-measure for the unbiasedness test, it is concluded that entrepreneurs tend to underestimate levels of change in sales, production, orders received, unfilled orders and general business conditions during the expansion phase, and overestimate levels of change during the recession phase. The net effect over the full economic cycle indicates a significant underestimation of these endogenous variables. On the other hand, entrepreneurs seem to consistently expect factory workers to spend more hours on the job than they eventually do, although this conclusion is not so well supported in the recession phase. There also seems to be a general tendency to underestimate the rate of increase in average total cost of production, and to overestimate stock levels of fmished goods, albeit not so pronounced in the recession phase. The BC-measures for the unbiasedness test indicate a tendency to form expectations conservatively for all variables except selling price inflation rate and average hours worked. The fact that entrepreneurs rather expect variables to remain unchanged (while changes eventually occur) mayaiso be a contributing factor to the above-mentioned surprise of static expectations being more accurate than more complicated methods. Changes in the extemal environment were probably so disturbing, and happened at such a rapid pace, that entrepreneurs found it diffi·cult to respond to the questionnaire which requires that variables be "... compared with the same quarter of a year ago ... ". Although convenient for the statistician, the requirement that seasonality be eliminated from the entrepreneurs' answers is conjectured to cause difficulty in generating these answers in times of political and economic instability. In an unstable economic climate, entrepreneurs would, therefore, tend to rather respond with a conservative "no change expected", even though changes have realised in the period in which the expectations are formed. If it can be assumed that the entrepreneurs did understand the questionnaire correctly and provided true opinions, a significant tendency to conservatively underestimate levels during the expansion phase would indicate that changes, which eventually occur, are normally upwards. Similarly, conservative overestimation of levels during the recession phase, would indicate that changes are generally downwards. Against this background, it is noteworthy that the entrepreneurs were generally optimistic about the production cost inflation rate with a consistent, conservative underestimation of levels; although the production cost inflation, compared to that of a year ago, was expected to remain unchan-

Micro-Level Tests for Rational Expectations in South Africa

309

ged, it always increased, regardless of the economic phase. This result does not appear to be consistent with the evolution of production price inflation which, according to the figures supplied by the South African Reserve Bank, showed a general downward tendency during the full economic cycle of 1986 to 1991. However, it could be argued that entrepreneurs did not really consider the change in cost inflation rate, but rather responded with their estimates of cost inflation rate levels which always tended to be lower than the levels fmally experienced in the last quarter of 1991. This argument would reject the assumption that they interpreted the questionnaire correctly. 111. The orthogonality test The gamma coefficients, as weIl as the BL and BC-measures, for the orthogonality tests, indicate that there were consistent biases in the relations of all the variables with their respective one-period lagged changes. From these results it can safely be concluded that surprises were systematically related to the information incorporated in the (recent) history of the respective variables. AIthough this conclusion is obvious from the gamma coefficients, which generally indicate a significant inverse relationship between surprise and preceding realisation for each of the variables, the conclusion might not be so obvious when considering the BL-measures only. The BL-measures for the full economic cycle analysis indicate significant bias in orders received, unfilled orders, general business conditions, number of factory workers employed, and hours worked per factory worker. However, the bias appears to change direction from being all significantly positive in the expansion phase, to significantly negative in the recession phase. Note that the exact opposite is observed for stocks of fmished goods. Even though the biases do not seem consistent right through the full economic cycle, it is significant in both the expansion and recession phases. Therefore, it is concluded that for these variables too, there appears to be a systematic relationship between the surprises and the information contained in the past history . The gamma coefficients indicate that recent upward movements in the variables are predominantly associated with negative future surprises, Le. when upward movement is observed in the most recent period, the variables are generally predicted to be higher than the actual subsequent realisation. The inverse is observed when the variables have adjusted downward in recent history,

310

Daniel 1. Marais, Eon vdM Smit and Willie 1. Conradie

Le. downward movements of variables are nonnally associated with positive subsequent surprises. IV. Accuracy of forecasts The estimated prediction errors (EE in the unbiasedness test) for cost, stocks of fmished goods and price inflation are consistently smaller than that of any other variable. This phenomenon was also observed by Buckle et al. (1990) and can probably be explained by the notion that during periods of inflation (and inflation rate changes) it would be easier to predict the direction of movement in prices and costs. This view is supported by a conclusion in Nerlove and Press (1986), as weil as König' et al. (1981), that French entrepreneurs tend to correctly estimate price changes, or at least have more consistency in the bias between expected and realised prices, during periods ofhigh inflation rates. For the other variables, such as sales, production volume, and factory workers employed, there may be comparatively little change from one period (quarter) to the next, making it more difficult to predict the direction of change. This confmns the suggestion of Buckle et al. (1990) that "... the proportion of correct expectations would be related to the distribution of reported realizations across the three categories.(up, same, down)". The relationship should be ofan inverse nature, Le. the higher the distribution, the smaller the proportion of correct expectations, or the higher the estimated error, EE. The forecast errors estimated for the South African manufacturing industry are consistent with those found by Theil (1966), Kawasaki and Zimmennann (1986), Stalhammar (1988), and Buckle et al. (1990). However, the New Zealand observations and results reported by Buckle et al. (1990) appear to bear the closest resemblance to that found in analysis of the BER manufacturing survey data. V. Price and cost expectations One additional interpretation of the entrepreneurial behaviour on price expectations need to be mentioned. The EE-measures in the unbiasedness test indicate a relatively strong association between price expectations and realisations. As pointed out by Nerlove and Press (1986), and Buckle et al. (1990), such an association may occur either because price expectations are very good

Micro-Level Tests for Rational Expectations in South Africa

311

estimates (confmning the REH), or because the entrepreneurs are setting prices rather than accepting (taking) prices set by exogenous supply-demand forces. However, the consistent biases observed in the unbiasedness and orthogonality tests, indicate that the weak form REH can be rejected at the 10% level of significance. Therefore, assuming the above-mentioned impact of inflation can be ignored, it seems reasonable to assume that the manufacturing industry entrepreneurs are generally price setters, and not price takers. A similar argument can be constructed for cost expectations.

VI. Rational expectations hypothesis The significant biases detected for the individual variables subjected to the unbiasedness and orthogonality tests, indicate that the weak form of the REH is not supported by the BER survey data when all the respondents are pooled together in the manufacturing industry.

F. Conclusion The availability and qualitative nature of the BER manufacturing survey data limits the evaluation of the REH to the weak form tests of unbiasedness and orthogonality on a number of business variables. Instead of the usual regression analysis, the Theil and Kawasaki-Zimmermann measurements have been adopted for studying the expectational phenomena at micro-level. The forecasting performance is also evaluated by comparing it with static expectations which assume that the future value of a variable will be exactly the same as the most recent realisation. It can be concluded that for the BER manufacturing survey of the period 1986 to 1991, entrepreneurs would generally have had better success in applying the static methods instead of forming more complicated (rational) expectations. This is probably due to a relative lack of political and economic stability in the extemal environment during that particular period. This generalisation about the success of static expectations needs to be qualified. Observed forecasts of price inflation and stocks of fmished goods are generally more accurate than the static expectations. For all the other variables considered, the opposite is found to be true. .

312

Danii!l J. Marais, Eon vdM Smit and Willie J. Conradie

For the economic cycle considered, entrepreneurs appear to have been better at forecasting value related variables, such as prices and costs, than volume related variables, such as sales, production, and demand for products (number of orders received). Forecasting the general business conditions (exogenous environment) in their respective sectors was also relatively poor. This observation would confmn the notion that entrepreneurs tend to correctly estimate price changes, or at least have more consistency in the biases between expected and realised prices, during periods of high inflation rates. For the other variables, such as sales, production volume, and factory workers employed, there may be comparatively little change from one period (quarter) to the next, making it more difficult to predict the direction of change. From the BER survey evidence it is concluded that the REH is rejected for the total manufacturing industry. The South African evidence appears to be consistent with that found by Theil (1966) and Buckle et al. (1990), but at variance with the German experience (as noted by Kawasaki and Zimmermann (1986)) that manufacturing firms in the IFO survey tend to be conservative in their selling price forecasts, regardless of the business cycle phase. Although the BC-measures for selling price inflation in the BER survey analysis are generally non-zero at levels of significance higher than 10% during the recession period, they do tend to indicate a slightly exaggerative (less conservative) approach. The main difference between the German and South African results may be ascribed to the fact that the German firms respond to a question on expected price levels, whereas the BER questionnaire requires expectations of changes in selling price inflation levels. AIthough the evolution of German inflation has not been investigated, it was probably declining or stable during Kawasaki and Zimmermann's periods of investigation. That will account for the observed tendency to overestimate (rather than underestimate) German selling price levels, regardless of the business cycle. In the South African case, the expansion and recession periods were marked by significant changes in inflation rate, as indicated by the respondents. This can probably account for the observed poor performance of South African expectations relative to the naive approach of static expectations, while in the IFO survey the observed expectations dominated the static approach by a significant margin. It is therefore conjectured that changes in the inflation rate (as an indication of economic instability), and not necessarily the current rate, may be an important factor in causing poor expectations formation, even though it is done in a complicated (rational) way.

Micro-Level Tests for Rational Expectations in South Africa

313

From the BER survey results the South African manufacturing frrms generally appear to be conservative in their estimates of expected changes in the various business factors analysed over the full economic cycle. In an unstable external economic climate, the risk-aversion approach seems to be dominant, and might also be indicative of entrepreneurs not having access to, or consistently utilising all the infonnation at their disposal when fonning expectations. It might even be a case of not trusting one's own opinion of how others will fonn their opinions, which brings us back to Keynes's (1936) approach that all expectations should simply be viewed as exogenous and not manageable in the endogenous sense. To summarise, the South African manufacturing business experience does not appear to provide sufficient evidence that expectations are fonned rationally. It should be emphasised that the unbiasedness and orthogonality tests conducted in this research, only provide evidence to reject the REH in its weak fonn, Le. although necessary evidence have been found to reject the REH in its strong fonn, it is not sufficient. This is in accordance with most similar evaluations of business survey data cited in literature.

References Agresti, A. (1984): Analysis of Ordinal Categorical Data. New York: John Wiley & Sons. Begg, D.K.H. (1982): The Rational Expectations Revolution in Macroeconomics: Theories and Evidence. Oxford: Philip Allan Publishers Ud. Bishop, Y.M.M./Fienberg, S.E./Ho/land, P.W. (1975): Discrete Multivariate Analysis: Theory an Practice. Massachusetts: MIT Press. Buckle, R.A./Assendelft, E.W./Jackson, L.F. (1990): Manufacturers' Expectations of Prices and Quantities: New Zealand Experience 1964 - 1987, Applied Economics, vol. 22, 579-598. Buckle, R.A./Meads, C.S. (1991): How do Finns React to Surprising Changes to Demand? A Vector Autoregressive Analysis Using Business Survey Data. Paper presented to the 20th CIRET Conference. Budapest, Hungary. De Leeuw, F.D./McKelvey, MJ. (1984): Price Expectations ofBusiness Finns: Bias in the Short and Long Run. American Economic Review, vol. 74, no. 1,99-110.

314

Daniel J. Marais, Eon vdM Smit and Willie J. Conradie

Du Plessis, P.G. (1978): Concentration of Economic Power in the South African Manufacturing Industry. Tbe South African Journal of Economics, vol. 46, no. 3, 257270. Evans, G./Gulamani, R. (1984): Tests for Rationality of the Carlson-Parkin Expectations Data Oxford Bulletin of Economics and Statistics, vol. 46, 1-19. Gerrard, W. (1994): Beyond Rational Expectations: A Constructive Interpretation of Keynes's Analysis of Behaviour under Uncertainty. Tbe Economic Journal, vol. 104, 327-337. Kawasaki, S./Zimmermann, K.F. (1986): Testing the Rationality of Price Expectations for Manufacturing Firms, Applied Economics, vol. 18, 1335-1347. Keynes, JM. (l.936): Tbe General Tbeory ofEmployment, Interest and Money. London: Macmillan and Co. Ltd. König, H./Nerlove, M./Oudiz, G. (1981): Micro-Analysis ofRealizations, Plans, and Expectations in the IFO and INSEE Business Texts by Multivariate Log-Linear Probability models. In: Charatsis, E.G. (Ed.): Proceedings ofthe Econometric Society European Meeting 1979: Selected Econometric Papers in Memory of Stefan Valavanis. Amsterdam: North-Holland publish!ng Company. 393-420. Lee, K.C. (1994): Formation of Price and Cost Inflation Expectations in British Manufacturing Industries: A Multi-SectoraI Analysis. Tbe Economic Journal, vol. 104, 372-385. Lucas, R.E. (1980): Methods and Problems in Business Cycle Tbeory. Journal of Money, Credit and Banking, vol. 12,696-715. Marais, D.J. (1995): A Study of Entrepreneurial Reaction Patterns based on Micro Analyses of the Bureau for Economic Research Survey Data. Unpublished doctoraI dissertation, Stellenbosch: University of Stellenbosch. Mu/lineaux, D.J. (1978): On Testing for Rationality: Another Look at the Livingstone Price Expectations Data Journal ofPolitical Economy, vol. 86, no. 2, 329-336. Muth, J.F. (1961): Rational Expectations and the Tbeory of Price Movements. Econometrica, vol. 104,864-875 Nerlove, M./Press, S.J. (1986): Multivariate Log-Linear Probability Models in Econometrics. In: R.S. Mariano (ed.): Advances in Statistical Analysis and Statistical Computing, vol. I, 117-171. JAI Press Inc. Pesaran, M.H. (1987): Tbe Limits to Rational Expectations. Oxford: Basil Blackwell Ltd.

Micro-Level Tests for Rational Expectations in South Africa

315

Sargent, T.J. (1983): An Economist's Foreword. In: Whittle, P. (ed.), Prediction and Regulation by Linear Least-Square Methods, 2nd ed. Minneapolis: University of Minnesota Press. Shaw, G.K. (1984): Rational Expectations: An Elementary Exposition. Sussex: Wheatsheaf Books Ltd. Shejfrin, S.M. (1983): Rational Expectations. Cambridge University Press. Stalhammar, N. (1988): Price and Demand Expectations in the Swedish Manufacturing Industry. Scandinavian Journal ofEconomics, vol. 90, 233-243. Theil, H. (1958): Economic Forecasts and Policy. Amsterdam: North-Holland. Theil, H. (1966): Applied Economic Forecasting. Amsterdam: North-Holland. Tompkinson, P.lCommon, M. (1983): Evidence on the Rationality ofExpectations in the British Manufacturing Sector. Applied Economics, vol. 15, 425-436. Wren-Lewis, S. (1985): Expectations in Keynesian Econometric Models. In: Lawson, T.lPesaran, M.H. (eds.): Keynes' Economics: Methodological Issues. London: Croom Helm.

Probability

Probability

Probability

Probability

4,679

4,044

4,707

4,677

6,275

1,183

4,811

6,061

6,160

6,265

Number

EE BL

Unbiasedness

BC

EE BL

Orthogonality Gamma

BC

0,000

0,3411

0,000

0,2507

0,000

0,3612

0,000

0,3517

0,000

0,4376

0,000

0,3466

0,000

0,3498

0,000

0,3829

0,000

0,3769

0,000

0,3458

0,000

0,2713

0,000

0,3867

0,000

0,3761

0,000

0,4696

0,000

0,3156

0,000

0,3901

0,000

0,4242

0,000

0,4037

0,000

-0,3115

0,000

-0,1139

0,001

0,0780

0,000

-0,1620

0,000

-0,2128

0,006

0,1377

0,000

-0,1486

0,000

-0,1637

0,000

-0,1411

0,002

-0,0871

0,000

-0,1462

0,000

0,1114

0,000

-0,1185

0,000

-0,1903

0,000

-0,2281

0,000

-0,2813

0,000

-0,2256

0,000

-0,1964

0,000

0,8288

0,000

0,8677

0,000

0,5022

0,000

0,5279

0,000

0,7232

0,000

0,4718

0,000

0,7842

0,000

0,7497

0,000

0,7334

0,000

-0,6626

0,000

-0,6161

0,000

-0,2556

0,000

-0,2900

0,000

-0,3038

0,000

-0,3319

0,000

-0,1795

0,000

-0,1920

0,000

-0,1968

0,000

0,5395

0,000

0,7526

0,000

0,2733

0,000

0,1657

0,000

0,2331

0,000

-0,1866

0,000

0,4365

0,000

0,4212

0,000

0,4524

0,000

0,6541

0,000

0,7687

0,002

-0,0742

0,001

0,0755

0,000

0,2920

0,059

0,0927

0,000

0,6588

0,000

0,5256

0,000

0,4988

0,3657 0,3984 -0,1571 -0,2350 0,7464 -0,1505 0,4795 0,5728 0,000 0,000 0,000 0,000 0,000 0,000 0,000 0,000

EE

Static

• Shaded ceIls indicate rejection of nuIl hypothesis at significance level higher than 10%.

Probability

Selling price inflation rate

Probability

Production cost inflation rate

Probability

Average hours worked

Probability

Factory workers emp10yed

Probability

General business conditions

Probability

Stocks of finished goods

Unfilled Orders

Orders Received

Production

Sales

Main Sector

Table Al: Total Industry Tests: Expansion Phase: 2i86 - 1/89

I

[ ;.

g

(j

~

;.

~

Q..

~

;:;:

3

V)

Q..

a:


0 as the only unknown. This formulation, which imposes (2) independently of the evolution of beliefs, is an extension of that considered in Prescott (1972). Passive learning corresponds to treating periods separately. An actively learning agent, on the other hand, maximizes the total discounted sum of revenues, optimally trading offsome ofthe obtainable current revenue for extra information generated. The policy maker faces a multiperiod problem with fmite, known horizon T > 2. In period 1 the policy maker seeks to T

max EI L~IEI_IR('tI) ,

{~,}r=l

(5)

1=2

t,e[O.I)

where the discount factor Öl E [0, 1]. Restriction to a fmite time horizon T involves no essential loss of generality and is made here for expository simplicity. The policy maker chooses the tax rate tt for each period so as to maximize (5) given the available information. The information set contains the sufficient statistics of all the payoff-relevant parameters: the values of the known parameters and the current belief distribution about ß, updated via Bayes' rule utilizing all observations that have become available by the current period. The period objective function itself is static, but time periods are connected, via the evolution of beliefs. The policy maker's optimization problem given by (5) may be written using (1), (3) and (4) as:

5 The truncation, Le. restricting the support ofthe random variable llt to (-K, K), where K is a large constant, ensures with probability arbitrarily close to I that the policy maker will not possess unreasonable beliefs at any point in time due to extreme sequences of realizations of the noise term.

21*

Balazs Horvath and Marc Nerlove

324 T

max EI I:BtEt-d'tt(l-'tt)[a-ß'tt + ud}

{ttlr.2

t=2

.

(6)

tt E{O,I]

The parameter ß is unknown to the poliey maker, therefore the expeetation above involves the eurrent prior distribution embodying the beliefs of the poliey maker and the eurrent expeetation ofthe noise term Üt.6 Assume that the prior probability density funetion embodying beliefs about ß is normal. Defme preeision as the reeiproeal of varianee: h = 0',2, and write N(m, h) for a normal distribution with mean m and varianee 0'2. Let m t = Et(ß) denote the mean belief in the eurrent period. Denote the belief distribution in period t by Pt(ß). Let the initial prior be Pt(ß) = N(ml> h t) with mt > O. Note that sUPP(Pt(ß» for eaeh t and the distribution of ut is symmetrie around zero. To simplify notation, let (7)

To ensure that et,t ean be treated as observable, it is assumed that the poliey maker ean preeisely observe ~,I> the revenue generated in the previous period, making (8)

readily eomputable. The Bayesian updating mIes foHowing Preseott (1972) are: (9)

mt

= mt_Ih t _1 + 'tt_Iet_1 ht

(10)

These reeursions are operational, sinee they involve only observable quantities. It is simple to show that the poliey maker's problem in any period is weH defmed if' 6If, as we assume, Üt is i.i.d., the expectation operators in (6) become E\(U) and E?) superimposed, where the superscript indicates the distribution with respect to which the expectation is computed and the subscript indicates the information set on which the expectation is conditioned. 7 This regularity condition involves the conditional expectation of the unknown parameter and can be replaced by conditions on the support and variance of the noise va-

Some Econometric Implications of Leaming

325 (11)

This condition may not hold in each period however, if extreme sequences of realizations of the noise term are not ruled out, which is the reason for truncating the support of ut. Defme the value function as: T

Vt(Pt) = max EI LosEs-dts(l- ts)[a - ßt s + us1} {TIIJ.z s=t Tl

.

where the veetor l' = [0100]. The veetor A2 ineludes parameters of the proeess generating 't,. In our formulation, this proeess is driven by the maximization in (6) and depends on the eurrent information set whieh in turn eontains past R's and 't's. The evolution of information at time t is summarized by (9) and (10). Clearly then, A2 ineludes at least some elements of AI. For example, beliefs (and henee, 't's) depend on CL and ß, as is evident from (8), (9) and (l0). Thus the fact that the poliey maker is leaming implies an overlap (Le., a eross-restrietion) between AI and Az, so requirement (a) is violated. 15 Therefore 't, does not remain weakly exogenous for estimating ß for the outside eeonometrieian if the data were generated by a leaming poliey maker. This in turn implies that 't, is also neither strongly nor super exogenous for ß. Moreover, ß eould be more efficiently estimated if the generating proeess for 't, were ineluded in a joint estimation proeedure, sinee this proeedure also involves ß. Disregarding this information results in a loss of efficieney in estimating ß. Requirement (e) also fails for 't,. As is evident from (8), (9) and (l 0), ~ affeets the subsequent expeetation operators by eontributing a nonzero inerement to the information set. The ehoice of 't'+1 in turn is a result of the decision rule whieh is eonditional on the augmented information set. Thus, with leaming D(tl +1 l't (I)'

~I); ~) -:t:- D('tI+1

l't (I);

~),

Le. ~ Granger eauses 't'+I. Turning to the super exogeneity of poliey variables, an alternative sequenee of poliey variables eould have resulted in beliefs of the eeonomie agent different from that implied by the aetual sampie sequenee whieh in turn gave rise to the parameter value estimated by the outside eeonometrieian in his model. Thus, learning may imply a loss of parameter invarianee, as in Lueas (1976), depending on what the parameters of interest are. First, eonsider the ease when

14 A more restrictive information structure could violate requirement (b) and thus lead to the loss of weak exogeneity ofT1•

15 More generally , any feedback from observations of the endogenous variable to the function determining the choice of consecutive control variables implies an overlap.

Some Econometric Implications of Learning

329

they are the structural parameters of a model describing the behavior of the policy maker. Because of Bayesian learning, m t (the policy maker's mean perception ofthe parameter ß) depends on all past values oh. Assuming a diffuse initial prior, successive substitution into (9) and (10) yields

Clearly therefore, m t depends on the time path of tt'S; an analogous argument holds for higher moments. A different perception by the policy maker of the constraint he faces in general will make him behave differently. Thus, we have an analogue of the Lucas mechanism: the parameters of the function describing the behavior of the policy maker depend on the law of motion for the exogenous variables. On the other hand, if the parameters of interest is the one describing tax revenue as a function of the tax rate, learning need not lead to a loss of invariance of that parameter. The notion of strict exogeneity, in contrast to strong and super exogeneity, relies on the uncorrelatedness of current disturbances and current policy variables in the econometric model. If the infonnation feedback is assumed to occur with a lag, then tt is contemporaneously uncorrelated with an Li.d. disturbance tenn, hence, strict exogeneity need not be lost because of the presence of learning as described in our model. This does not contradict the results above since such uncorrelatedness merely reflects the fact that consistent estimation of the parameter of interest may still be possible even though its efficient estimation is not. In our simple model the nonstationary character of the policy variable tapers off since learning is complete: the belief distribution converges to a point mass at the true parameter value. 16 The outside econometrician can, in principle, extend his model to include the infonnational feedback. Ifthe econometric model encompassed the learning mechanism as weIl, the parameters characterizing learning and those of the econometric model proper could be estimated jointly. A fundamental obstacle is the non-observability of crucial variables necessary to fonnulate an identifiable model for learning. Beliefs are unobservable, as is the degree of risk

16 Asymptotic properties are not our focus here. However, incomplete learning can be shown to lead to a loss of strict exogeneity in the limit.

330

Balazs Horvath and Mare Nerlove

aversion, the infonnation strueture, the method of leaming, eomputational eonstraints, the preeise fonn of rationality, the utility attaehed to aequiring infonnation, ete. Any of these aspeets ean, in prineiple, be quantified to the extent neeessary, but their simultaneous inelusion is not feasible due to identifieation or degrees of freedom problems. The appropriate notion of rationality for example depends on what the eomputational eonstraints are, and on what variables appear in the infonnation set, whieh, in turn, is affeeted by limits on observability. These faetors eondition the method of leaming (e.g., qualitative infonnation eannot be ineorporated the same way as quantitative infonnation). Risk aversion mayaiso affeet whether aetive or passive leaming is optimal, as shown in seetion 3. Finally, strategie interaetions may result in ParetosuboptiInal-equHibrla, implying outeomes that are patently non-rational when viewed from a purely deeision-making viewpoint.

E. Testing for the Presence of Leaming As shown in seetion 4, the presenee of leaming ean have serious eonsequenees for the speeifieation of the eeonometrie model: it results in the loss of weak and strong exogeneity, leading to a loss of effieieney in estimation;7 and invalid multi-period foreeasts, respeetively. The presenee of leaming mayaiso lead to a loss of invarianee of the parameters of the eonditional model, invalidating poliey experiments. This brings us to the erueial issue of whether the presenee of leaming is deteetable: ean the outside eeonometrieian, using observed data alone, detennine whether leaming has played a signifieant role in the data generating proeess? Even in the ease of Bayesian leaming about a eonstant parameter, whieh generally induees a gradual evolution of heliefs and henee a slow ehange in the marginal distribution for the proeess generating the poliey variable, there are several praetieal problems. Suppose the eeonometrieian proposes to test for loss of exogeneity of the poliey variable to deteet leaming. Unfortunately, sinee this ean oeeur for a number of other reasons as weil, other potential sourees of endogeneity for the poliey variable need to be eonvineingly ruled out. This is

17 For a theoretieal diseussion on the extent of the adverse effects, see Steel (1989); for an empirieal examination and a discussion ofthe asymptotie loss, ineluding for 1(1) proeesses, see Hendry (1995).

Some Econometric Implications of Leaming

331

trivial in our simple model; in general, it involves invoking a theoretical model that points to the optimality of a non-feedback policy rule!· Given this, it is sufficient to test for the exogeneity of the policy variable to determine whether learning was present in the data generating mechanism. An additional pitfall arises because learning can generate nonstationary policy variable series. Phillips and Durlauf (1988) and Sims and Stock (1990) show that unit-root nonstationarity affects the usual exogeneity tests, while other types of nonstationarity are more benign (Hosoya (1977». The fact that our control variable, the tax rate, is constrained to be between zero and one should in principle rule out a unit root, which would cause it to wander outside the [ 0, 1] interval with probability 1. However, given a time series of observed policy variables and outcomes, this is an empirical matter for the outside econometrician: he can test for the presence ofunit roots in both variables. In the absence of unit roots, Engle (1984) proposes using Lagrange Multiplier tests, which however, have the shortcoming of relying on specifying the marginal model for the variables considered weakly exogenous under the null hypothesis. An alternative is to link weak exogeneity to strict exogeneity in the form of simple parameter restrictions (see example 3.2 in Engle, Hendry and Richard (1983». Then the joint hypothesis - that the linking assumption holds and the policy variable is weakly exogenous -:- can be tested using a Granger causality test (see Geweke (1984»!9 This approach - which amounts to testing whether the causal relationship from 't to R embodied in the econometrician's model is accompanied by a lack of reverse causality - is the one used in Horvath (1991), where the results convincingly show that under the set of assumptions discussed, the presence of learning can be detected. In case the outside econometrician's model involves variables with unit roots, Johansen's (1994) testing strategy can be utilized, which relies on formulating the hypothesis of weak exogeneity as a linear parametric restriction on the adjustment coefficients in an error correction mode1. 20

11

See, for example, Sargent and Wallace (1975), Barro (1976) or McCailum (1979).

19 Rejection of weak exogeneity would of course in itself imply rejection of strong and super exogeneity. However, they can also be tested directly: see Engle and Hendry (1993); or Brodin and Nymoen (1992), who showed that the non-invertibility of the regression equation was also a testable implicatipn of super exogeneity. 20

See the other chapters in Ericsson and Irons (1994) for further extensive discussion

332

Balazs Horvath and Mare Nerlove

In summary, assuming that the outside econometrician has a correctly specified econometric model, tests for all the exogeneity concepts can be formulated, when either none or several of the observed variables are found to have unit roots. For these cases, given the results of this paper, a test for weak exogeneity can also be interpreted as a test for the absence of policy maker learning when other sources of endogeneity for the policy variable are ruled out as a maintained hypothesis. However, numerous unresolved problems remain, providing topics for future research. First, a problem arises when the system comprises two variables, one stationary, and the other found to be 1(1). No testing strategy is available for this case, reflecting the fact that the stipulated model linking the two variables is also ill-defmed. Second, even in a stationary environment beliefs need ~ot always converge to the true value of the unknown parameter, e.g. when the agent is convinced by a history of realizations of the outcome variable to apply noninformative controls forever, ruling out further changes in beliefs (Kiefer (1988-89), Feldman (1988-89». Alternatively, abrupt shifts in beliefs can occur if, for example, learning relies on the stochastic extension of the golden section search: given the known unimodality of the tax-revenue function, after two observations the policy maker can truncate the support of the belief distribution on ß.21 This generally implies a discontinuous change in the process generating the ft'S, which is indistinguishable from noise effects for the outside econometrician. Furthermore, Bossaerts (1992) shows that heterogeneity of beliefs in a multiple agent problem may lead to a nonrational equilibrium in the limit. Finally, if the environment is nonstationary, beliefs do not necessarily converge and learning does not necessarily recede.

of testing for the various exogeneity eoneepts in the eontext of integrated proeesses. 21 Suppose the poliey maker knows for eertain that the revenue eurve is stable and has a unique peak. Then, after 2 observations on t l and ~, he ean rule out a large interval for the parameter determining the loeation ofthe peak. For example, ifR2 < R I then t· ~ t2' ifR2 = R I then t· e [tl' t2]' and ifR2 > R I , then t· ~ tl' For a diseussion ofthe stoehastie extension see Le Cam and Olshen [17].

333

Some Econometric Implications of Learning

F. Simulation Results This section describes the results of tests based on data generated in a simulation exercise. Fifty active learning time series realizations of t (the tax rate), R (tax revenue) and the belief distribution were generated using the model of section 2 in GAUSS. Augmented Dickey-Fuller tests were run on the tax rate and tax revenue series in each of the realizations. The results are summarized in Table 1 below, distinguishing the following four cases: (l)

both t and R have a unit root;

(2)

both t and R are 1(0);

(3)

t

has a unit root but R is 1(0);

(4)

t

is 1(0) but R has a unit root. Tabte 1

Augmented DF Test Results Relative

t

Frequencies at 5% Significance Level

1(0)

1(1 )

1(0)

60%

38%

l(l)

2%

0%

R

If the constellation falls into the diagonal of this matrix, the outside econometrician has a clear-cut situation. Either the data are telling him that he is facing a stationary data generating mechanism, in which case the standard exogeneity test is applicable, or that the DGM is non-stationary, and the cointegration based test should be applied. In this sense the results are strong and unambiguous: in none of the realizations did both variables have a unit root. Consequently, cointegration-based tests have not been applied, and the testing strategy in Horvath (1991) was proved to be appropriate for the majority of realizations. Unfortunately, there is a sense in which the simulation results are less encouraging, since the realizations represented by off-diagonal entries pose a serious problem. While the presence of unit roots was rejected more often than not, Table 1 clearly shows that the outside econometrician may weil fmd that the tax rate has a unit root; the other outcome involving only R with a unit root is unlikely. One possibility is to lump these with the stationary case, since clearly

334

Balazs Horvath and Mare Nerlove

an 1(1) and an 1(0) variable cannot be cointegrated. Altematively, the outside econometrician may decide that the postulated model is wrong, and may introduce additional nonstationary variables in the quest for a cointegrating relationship, possibly leading to incorrect conclusions.

G. Summary This paper demonstrates that policy variables chosen by a leaming policy maker cannot be considered exogenous for economic modeling purposes by any ofthe Engle, Hendry and Richard (1983) defmitions from the standpoint of an outside observer. Hence, econometric inference is problematic in a model which requires the assumption of exogeneity of policy variables chosen by a teaming decisionmaker. The presence ofleaming in the data generating process can be detectable because of the implications of leaming for exogeneity as discussed in the paper. However, since faHure of exogeneity can also arise for other reasons, such tests are not always applicable. Moreover, the outside econometrician may arrive at incorrect conclusions about the data generating mechanism with non-negligible probability. Results of a simulation exercise are summarized to illustrate these issues.

References Barro, B.J. (1976): Rational Expeetations and the Role ofMonetary Policy, in: Journal ofMonetary Eeonomies, 2: 1-32. Bossaerts, P. (1992): Asset Priees in a Speeulative Market, unpublished manuseript, California Institute ofTeehnology. Brodin, A.P./Nymoen, R. (1992): Wealth Effeets and Exogeneity: The Norwegian Consumption Funetion, Oxford Bulletin of Eeonomies and Statisties, 54: 431-453. Easley, D./Kiefer, N.M. (1988): Controlling a Stoehastie Proeess with Unknown Parameters, in: Eeonometrica, 56: 1045-1064. EI-Gamal, M.A./Sundaran, R.K. (1989): Bayesian Eeonomists ... Bayesian Agents I: An Alternative Approach to Optimal Learning, Social Seienee Working Paper 705, California Institute ofTeehnology. Engle, R.F. (1984): Wald, Likelihood Ratio and Lagrange Multiplier Tests, Chapter 13 ofGriliehes, Z. and M. Intriligator (1984).

Some Econometric Implications of Learning

335

Engle, R.F.lHendry, D. F. (1993): Testing Super Exogeneity and Invariance in Regression Models, in: Journal ofEconometrics, 56: 119-139. Engle, R.F.lHendry, D.F.lRichard, J-F. (1983): Exogeneity, in: Econometrica, 51: 277-304. Ericsson, N.R.llrons, 1.S., eds (1994): Testing Exogeneity Advanced Texts in Econorrietrics, in New York: Oxford University Press (1994). Feldman, M. (1988-89): Comment on Kiefer (1988-89), in: Econometric Reviews, 7 (1988-89): 149-154. Geweke, J. (1984): Inference and Causality in Economic Time Series, Chapter 19 of Griliches, Z. and M. Intriligator (1984). Griliches, Z.lIntriligator, M., eds. (1984): Handbook ofEconometrics, New York. Grossman, S.J.lKihlstrom, R.E.lMirman, L.J. (1977): A Bayesian Approach to the Production ofinformation and Learning by Doing, in: Review of Economic Studies, 44: 533-547. Hansen, L.P.lSargent, T.J. (1980): Formulating and Estimating Dynamic Linear Rational Expectations Models, in: Journal of Economic Dynamies and Control, 2 (1980): 7-46. Hendry, D.F. (1995): On the Interactions ofUnit Roots and Exogeneity Econometric Reviews, in Press. Horvath, B. (1991): Are Policy Variables Exogenous? Lecture Notes in Economics and Mathematical Systems, #364, Heidelberg. Hosoya, Y. (1977): On the Granger Condition for Noncausality, in: Econometrica, 45: 1735-1736. Johanssen (1994): Testing Weak Exogeneity and the Order of Cointegration in UK Money Demand Data, Chapter 1.5 in Eriksson and Irons (1994). Kiefer, N.M. (1988-89): Optimal Collection of Information by Partially Informed Agents, in Econometric Reviews, 7: 133-148. Koopmans, T.C., ed (1950): Statistical Inference in Dynamic Economic Models, Cowles Commission Monograph # 10, New York. Le Cam, L.M.lOlshen, RA, eds (1985): Proceedings ofthe Berkeley Conference in Honor of 1. Neyman and J. Kiefer Vol. 2, Monterey. Lucas, R.E. (1976): Econometric Policy Evaluation: A Critique, in: Brunner, K.lMe-

Itzer, A.H. eds. The Phillips Curve and Labor Markets, 19-46, in Camegie-Rochester

Conference Series # I, New York.

336

Balazs Horvath and Mare Nerlove

Marschak, J. (1953): Eeonomie Measurement for Poliey and Predietion, pp. 1-26 in: Hood, W.C.lKoopmans, T.C. eds.: Studies in Eeonometrie Method, New York. McCallum, B.T. (1979): The Current State of the Poliey-Ineffeetiveness Debate, in: Ameriean Eeonomie Review, 69: 240-245. McLennan, A. (1984): Priee Dispersion and Ineomplete Learning in the Long Run, in: Journal ofEeonomic Dynamies and Control, 7: 331-347. Nerlove, M. (1965): A Tabular Survey ofMaero-Eeonomie Models, in: International Eeonomie Review, 7: 127-175. Pesaran, M.H. (1987): The Limits to Rational Expeetations, New York. PhilIips, P.C.B.lDuriauj, S. (1988): Trends versus Random Walks in Time Series Analysis, in: Eeonometriea, 56: 1333-1354. Pindyck, R.S.lRubinfeld, D.L. (1991): Eeonometrie Models and Eeonomie Foreeasts, Third Edition. New York. Prescott, E.C. (1972): The Multiperiod Control Problem Under Uneertainty, in: Eeonometriea, 40: 1043-1058. Sargent, TJ.lWallace, N. (t975): "Rational" Expeetations, the Optimal Monetary Instrument and the Optimal Money Supply Rule, in: Journal ofPolitieal Eeonomy, 83: 241-254. Sims, c.A./Stock, J.H. (1990): Inferenee in Linear Time Series Models with some Unit Roots, in: Eeonometriea, 58: 113-144. Steel, M.FJ. (1989): Weak Exogeneity in Misspeeified Sequential Models, Department of Eeonometries mimeo, Tilburg University. Wallis, K.F. (1980): Eeonometrie Implieations of the Rational Expeetations Hypothesis, in: Eeonometriea, 48: 49-74. Wieland, V. (1995): Monetary Poliey and Learning under Parameter Uneertainty, unpublished. Wieland, V. (1996): Learning by Doing and the Value of Experimentation, Federal Reserve Board, Division ofReseareh and Statisties, Diseussion Paper No. 96-5

Some Econometric Implications of Learning

Appendix A simple praof, pointed out to us by N. Kiefer, is as folIows: Let T

I(p, q):; Ep L. {returns following implementation ofpolicy q}, 1=1

where p is a probability measure. Then AV(PI) + (1 - A) V(P2) = AI(PI' ql) + (1 - A) I(p2' ~)

~ AI(PI' q') + (1 - A) I(p2' q')

= I(API + (I - A)P2' q') =

V(API + (l - A)P2 )

=V(p\ where q' is chosen to maximize I(API + (l - A)P2' q).

22 Festschrift Oppcnländer

337

Zur Beurteilung verschiedener Frühindikatoren f"ur die Produktionsentwicklung Von Jürgen Wolters

A. Einleitung Um Konjunkturphänomene zu beschreiben, zu analysieren und zu prognostizieren werden nach wie vor Konjunkturindikatoren herangezogen.· Neben den schon traditionellen Frühindikatoren wie Geldmengenentwicklung, Auftragseingang, Geschäftsklima2 wird in jüngster Zeit die Zinsstruktur als besonders geeigneter Indikator ft1r die Wachstums- und Inflationsentwicklung angesehen. 3 Dabei versteht man unter der Zinsstruktur die Differenz zwischen einem lang- und einem kurzfristigen Zinssatz. Die Beurteilung von Indikatoren erfolgt häufig so, daß einfache Korrelationen zwischen der Zielvariablen (einer Proxi rur den Konjunkturverlauf) und den verzögerten Werten der unterschiedlichen Indikatoren berechnet werden. Je höher die Korrelation und je größer der Vorlauf ist, desto besser ist die entsprechende Variable als Frühindikator geeignet! Hiermit lassen sich strenggenommen natürlich nur Aussagen innerhalb des gewählten Beobachtungszeitraums machen. Es wird dann eine gewisse Stabilität der Zusammenhänge unterstellt, damit die gefundenen Ergebnisse auch rur die Prognose verwendbar

• Siehe bezüglich dieser generellen Problematik den von K.H. Oppenländer herausgegebenen Sammelband mit dem Titel Konjunkturindikatoren und speziell Oppenländer, K.H. (1995). 2

Siehe hierzu z.B. Brand, D./Gerstenberger, W./Lindlbauer, J.D. (1995).

3 Zu neueren Ergebnissen hinsichtlich der Zinsstruktur siehe z.B. Lahiri, K. (1995) und Kirchgässner, G./Savioz, M. (1995) und die dort zitierte Literatur.

4

22·

Siehe z.B. Lindlbauer, J.D. (1995).

340

Jürgen Wolters

sind. Die Problematik dieser Vorgehensweise verdeutlichen Kirchgässner und Savioz (1995), die neben den üblichen Schätzungen innerhalb des Beobachtungszeitraums auch die Prognosequalität der Indikatoren außerhalb des Schätzzeitraums beurteilen. Bei diesen Analysen im Zeitbereich zeigt sich immer wieder, daß die Ergebnisse stark davon abhängen, welche Transformationen durchgefilhrt werden, um stationäre Variablen zu erhalten, ob also beispielsweise Trendabweichungen oder Wachstumsraten der Analyse zugrundegelegt werden. Gerade die neueren Entwicklungen in der Zeitreihenökonometrie, die besonders Regressionen mit nichtstationären Variablen untersuchen und mit der Kointegrationsanalyse5 ein entsprechendes Instrumentarium zur Verftlgung stellen, zeigen deutlich die Fehler auf, die bei einer falschen SpezifIkation auftreten können: werden unabhängige nichtstationäre Variablen regressiert, tritt das Problem der Scheinregressionen auf, werden umgekehrt, z.B. durch Differenzenbildung, alle Nichtstationaritäten in den Variablen eliminiert, obwohl ein Zusammenhang in den Niveaus besteht, d.h. die Variablen kointegriert sind, so ist das Modell ftlr die Differenzen fehlspezifIziert. Hinzu kommt, daß die Ergebnisse von der speziellen Wahl des zugrundegelegten parametrischen Modells abhängen. Wird allerdings ein nichtparametrischer Ansatz wie beispielsweise die Spektralanalyse benutzt, so hat man mit der Kohärenz zwischen zwei Variablen ein Maß, das die Stärke des Zusammenhangs im allgemeinsten linearen dynamischen Modell erfaßt und das darüber hinaus gegenüber beliebigen linearen Transformationen der Variablen invariant ist. Das bedeutet, daß man unabhängig vom zugrundegelegten Modell die für entsprechende Schwingungskomponenten geltenden Bestimmtheitsmaße berechnen kann. Man kann also getrennt ftlr die langfristigen, die konjunkturellen und die saisonalen Komponenten die Stärke des Zusammenhangs angeben. Der Nachteil ist darin zu sehen, daß wie bei jedem nichtparametrischen Ansatz die Schätzungen wegen der i.a. geringeren Zahl von Freiheitsgraden nicht so präzise ausfallen wie bei parametrischen Methoden. Andererseits erhält man über die Spektren zusätzlich Informationen über das Schwingungsverhalten der verwendeten Zeitreihen, d.h. ob überhaupt konjunkturelle Bewegungen in der Reihe enthalten sind und welche Bedeutung sie ftlr die Gesamtentwicklung der Variablen spielen.

5 Siehe hierzu z.B. Stock, J.H./Watson, M.W. (1988), Lutkepohl, H. (1995) oder Wolters, J. (1995).

Zur Beurteilung verschiedener FrUhindikatoren 20

341

'WNPV

1~

10 ~

0 -~

-10 -1~

1980

1982

1984-

1986

1988

1990

1992

1994

3~-------------------------------------, 2 1

o -1

-2 -3 -4~~~

__~~~~~__~~~~__~~~~__~

1980

1982

1984-

1986

1988

Abbildung 1a

1990

1992

1994

Jürgen Wolters

342

12.~--------------------"

l'fM1

10.0 7.~

1980

20

1982

19~

1988

1988

1990

1992

1994

1988

1988

1990

1992

1994

W142

1~

10 ~

0 -~

-10

1980

1982

19~

Abbildung I b

Zur Beurteilung verschiedener Frühindikatoren 12.~

343

WK3

10.0 7.~

~.O

2.~

0.0 -2.~

1980

1982

19U

1988

1988

1990

1992

19M

30~------------------------~~----------~ 20 10

o -10 -20

-30 1980

1982

19U

1988

1988

Abbildung Ic

1990

1992

19M

344

Jürgen Wolters

20~----------------------------------------'

10

o -10

1980

40

1982

1984

1982

1984

1986

1988

1990

1992

1994

1986

1988

1990

1992

1994

WAU

30 20 10 0 -10 -20

1980

Abbildung 1d

Zur Beurteilung verschiedener Frühindikatoren

345

Im folgenden sollen daher unterschiedliche Frühindikatoren filr die Entwicklung der Nettoproduktion mit spektralanalytischen Methoden beurteilt werden. Der Analyse werden Monatsdaten rur den Zeitraum von 1979 bis 1995 zugrundegelegt. Als Frühindikatoren werden die Geldmengen MI, M2, M3, die Zinsstruktur (Differenz zwischen der Umlaufsrendite und dem Dreimonatsgeldzinssatz), die Auftragseingänge rur das verarbeitende Gewerbe aus dem Inland und aus dem Ausland und das Geschäftsklima herangezogen, während als Zielvariable der Nettoproduktionsindex des Verarbeitenden Gewerbes benutzt wird. 6 Im nächsten Abschnitt werden zunächst die statistischen Eigenschaften der verwendeten Zeitreihen untersucht, bevor dann im dritten Abschnitt mittels bivariater Analysen die einzelnen Frühindikatoren miteinander verglichen werden. Eine kurze Schlußfolgerung schließt die Arbeit ab.

B. Statistische Eigenschaften der Zeitreihen Der in jüngster Zeit sehr stark propagierte Frühindikator Zinsstruktur stellt insbesondere auf die Entwicklung des realen Wachstums ab. Daher wird hier als Zielvariable die jährliche Wachstumsrate des Nettoproduktionsindexes der Verarbeitenden Industrie rur Westdeutschland verwendet (WNPV).7 Es sollen folgende Frühindikatoren untersucht werden: Die Jabreswachstumsraten der nominalen Geldmengen MI, M2, M3 (WMI, WM2, WM3), die Zinsdifferenz (ZDlF) zwischen Umlaufsrendite und Dreimonatsgeldsatz, die Jabreswachstumsraten der Auftragseingänge aus dem Inland (WAEI) und aus dem Ausland (WAEA) sowie das Geschäftsklima (GK). Beim Geschäftsklima handelt es sich im Gegensatz zu den anderen Indikatoren um einen qualitativen Indikator, der sich als geometrischer Durchschnitt der Salden filr die Beurteilung der Geschäftslage und der Salden rur die Erwartungen hinsichtlich der

6 Die monetären Variablen sind den Monatsberichten der Bundesbank entnommen, der Nettoproduktionsindex entstammt Wirtschaft und Statistik; die anderen Daten wurden freundlicherweise vom Ifo-Institut München zur Verftlgung gestellt. 7 Alle Wachstumsraten werden als zwölfte Differenzen der logarithmierten Zeitreihen berechnet und als Prozentzahlen angegeben. Mit der Bildung von Jahresraten ergibt sich der zusätzliche Vorteil, saisonale Schwankungen zu eliminieren.

346

Jürgen Wolters

Geschäftslage ergibt.' Alle Zeitreihen sind in den Abbildungen la - d (s.o.) dargestellt. 9 Da die im folgenden angewandten Methoden ft1r stationäre Zeitreihen entwickelt sind, wird zunächst das Stationaritätsverhalten der Daten untersucht. Hierzu wird, wie in vielen anderen Arbeiten auch, der erweiterte Einheitswurzeltest von Dickey und Fuller (ADF) verwendet. 10 Hierbei wird getestet, ob die autoregressive Darstellung einer Zeitreihe in ihrer charakteristischen Gleichung eine Wurzel von eins enthält. Dies würde bedeuten, daß der erzeugende Prozeß als nichtstationäre Komponente einen random walk enthalt. Solche Zeitreihen werden durch Bildung erster Differenzen stationär. Tabelle 1 zeigt die Ergebnisse der ADF-res~. Die maximale Verzögerung k wurde so gewählt, daß die Residuen empirisch white noise sind. Die Ergebnisse sind allerdings nicht sensitiv bezüglich der Wahl von k. Es zeigt sich, daß bis auf ZDIF und WM2 alle Zeitreihen als stationär angesehen werden können. Die Teststatistik ft1r ZDIF ist nur unwesentlich größer als der kritische Wert bei einer zehnprozentigen Irrtumswahrscheinlichkeit (-2.57), so daß diese Variable ohne weitere Transformation benutzt wird. Auch WM2 wird - trotz des Testergebnisses weiter so behandelt, als ob die Stationaritätseigenschaft erftUlt wäre. Eine Minimalforderung an einen Konjunkturindikator sollte sein, daß dessen konjunkturelle Bewegungen ähnlich verlaufen wie diejenigen in der Referenzreihe. 11 Eine deskriptive Analyse dieser Eigenschaft läßt sich mit Hilfe der

, Hierbei werden die jeweiligen Salden um 200 erhöht, um einen positiven Radikanden zu erhalten. Zur Konstruktion und den Eigenschaften des Geschllftsklimas siehe Z.B. Strigel, W.H. (1985). 9 Die Zinssätze und die Geldmengendaten beziehen sich ab 1990(7) auf Gesamtdeutschland, während alle anderen verwendeten Daten sich auf Westdeutsch land beziehen. Bei der Zinsdifferenz sieht es allerdings nicht so aus, als ob sich der datenerzeugende Prozeß durch die Vereinigung grundlegend geändert hätte. Durch die Bildung von Wachstumsraten wird der in den Geldmengendaten auftretende Niveaueffekt eliminiert. Für WMl scheint sich die Entwicklung nach der Vereinigung nicht geändert zu haben, während WM2 und WM3 in 1994 starke, bisher noch nicht beobachtete, Abnahmen von M2 und M3 zeigen. 10 Zu Anwendungen und Problemen von Einheitswurzeltests siehe z.B. Dikkey, D.A.lBell, W.R./Miller, R.B. (1986), Campbell, J.Y./Perron, P. (1991) oder Hassler, U. (1994).

11

Siehe z.B. Wolters, l/Lankes, F. (1989).

347

Zur Beurteilung verschiedener Frühindikatoren

Spektren der entsprechenden Reihen durchfUhren. Das Spektrum liefert eine orthogonale Zerlegung der Varianz einer Zeitreihe in einzelne Schwingungskomponenten. 12 Tabelle 1: ADF-Tests k

Me, = ao + pXt-I + La jMe,_ j + U, j=I

Ho:p=O

(nichtstationär)

H1:ptrl

§

~

E.

(j

:-0

=r ::I

0

'-

.(1

0 0

~

:I:

'